[eMule-Web]

[eMule-Web] (http://www.emule-web.de/board/)
-   Xtreme MOD (http://www.emule-web.de/board/xtreme-mod/)
-   -   eMule 0.46c Xtreme 4.6 [22.10.2005] (http://www.emule-web.de/board/9631-emule-0-46c-xtreme-4-a.html)

ErdingerFan 19. October 2005 14:06

also ich mag den Xtreme so wie er is...Xtremeschlank und Xtremeschnell!! so sollte er auch bleiben ;-)

seppl12 19. October 2005 18:09

Xman, könntest ja noch etwas an den Optimierungen arbeiten ;)

So steigt bei Nutzung von Ipfilter die CPU Last gleich auf das dreifache ... vielleicht ist ja da noch etwas Optimierungspotential.

P.S. Nochmal zur Diskussion zu den Modfeatures, ob sie den dl beeinflussen. Also das Feature "reask after ip change" hat bei mir sehr großen Einfluß darauf und ich möchte es nicht mehr missen! Ebenfalls wenn ich 15% weniger "fehlgeschlagener download session" hab, heist das für mich, 15% höheren download.

sharelook 19. October 2005 18:39

Find ich genauso. Dieses Feature ist absolut klasse.:)

drfreak2004 19. October 2005 20:17

xman bleib bei den grundwurzeln des mods... net zuviel unnötiges bitte vielleicht noch etwas feintuning...

Xman 20. October 2005 14:06

das Feature Kommentarliste -> Chat wird doch nicht eingebaut. Grund:
Der aus einem anderen Mod existierende Code ist buggy und läßt emule crashen.
Grund: der Kommentar eines Clients kann auch erhalten bleiben, obwohl der client gelöscht wird (->crash)... ebenso problematisch ist die Kadsuche, welche gar keine Clients sondern nur Kommentare liefert. Klar könnte man die Liste soweit modifizieren, daß sie weitere Informationen enthält, durch welche sich besagte Problemfälle vermeiden lassen. Dies ist mir dann aber doch zu viel Arbeit für ein Feature das man nicht unbedingt braucht.

derOli 20. October 2005 17:28

Hi Xman,

nun muß ich auch mal paar Worte verfassen.
Dein Mod ist einfach geil.
Bei mir lief er auf Anhieb Spitze.

Doch muss ich mal eine Frage loswerden.
Ist es sehr aufwendig die Hardlimitverwaltung (wie beim IONIX) zu implementieren?
Dieses Feature fehlt leider in deinem Mod, welcher sonst ja eigentlich fast alles allein erledigt.
Weißt du was ich meine?
Ansonsten erkläre ich´s näher.

Danke

Paul 2 21. October 2005 09:11

@derOli

du meinst sicher das AutoHardLimit.
Ich persönlich finde es nicht so gut. es macht mir die Verbindungen zu sehr schwankend. Ich habe es lieber wenn es "gleichmäßg vor sich hinplätschert".
Mein GesammtHardLimit wird auch nicht überschritten und wenn mal eine Datei nicht genug Quellen hat reicht mir das manuelle Verstellen des Hartlimits für die einzelnen Dateien.

derOli 21. October 2005 09:35

Ja genau das hatte ich gemeint.
Nun gut, ich kann deine Meinung teilen. Es muss ja nicht runter bis zu jedem einzelnen Download und Priorität ausgewertet werden. Eine globale Anpassung, so wie du sie ja dann auch per Hand vornimmst, würde auch schon reichen.
Also Gesamtwert vorgeben - und die Limits werden gleichmäßig auf die Downloads verteilt.
Das würde mir auch schon reichen.
Warum sollte man sowas nicht automatisieren? Du schreibst doch, dass du dieses bisher von Hand tust. Wäre doch besser wenns allein ging. Oder?

Xman 21. October 2005 09:40

@derOli
die Frage nach dem Feature hatte ich bereits schon öfter beantwortet... such mal bischen ;-)

derOli 21. October 2005 10:01

Zitat:

Zitat von Xman
@derOli
die Frage nach dem Feature hatte ich bereits schon öfter beantwortet... such mal bischen ;-)

Danke.
Ich schrieb, WEIL ich nichts fand.

Was ist denn an der Idee so verwerfliches?
Alle schreiben, dass sie ihre Limits je nach Anzahl der Downloads manuell anpassen.
Das kann man doch bestimmt automatisieren. Ich hatte den Eindruck, dass du den Mod so einfach wie möglich gestalten willst.

Man gibt 2 Werte vor: max Quellen für die Datei (wie gehabt) und max Quellen gesamt.
Überschreite ich den Gesamtwert durch zu viele aktive Downloads, wird der Maxwert für die einzelnen Datei für diesen Zeitraum heruntergesetzt.
Damit wäre doch schon alles erledigt.
Der Status müßte ja auch nicht im Sekundentakt überprüft werden.

Wäre doch ne dolle Sache, da das die User sowieso alle manuell machen und überwachen müssen.
Gerade wo die meisten Router abkacken und die Verbindung zusammenbricht, wenn die Anzahl der Quellen zu hoch sind.

Wo liegt das Problem? Etwas was man per Hand tut, zu automatisieren?
Ist der Aufwand zu groß?

Xman 21. October 2005 11:25

ok.. ich fand auch keinen Beitrag mehr.. dann hol ich nochmal aus:
1. es ist viel Aufwand.. aber darum geht es nicht
2. der existierenden Lösungen sprechen mich alle nicht so an
3. ihr stellt euch das alles viel zu einfach vor. Tatsächlich kann man nicht so einfach das Hardlimit ständig wie man will verbiegen ohne dem Netzwerk zu schädigen. Es sind Faktoren zu berücksichtigen wie:
- allowed source-exchange
- dropping of sources
- kademlia (?)
- und mehr
ein guter Code muß dies alles kalkulieren.
Nicht zuletzt bedenke wie aufwenig volgende Situation ist:
Du startest emule mit 10 Downloads. Nun fängt er für die erste Datei an Quellen zu suchen.. doch wieviel soll er suchen ? Schließlich weiß emule zu Beginn erst mal nicht, ob die anderen 9 Dateien sehr weit verbreitet sind oder nur ein paar Quellen haben... soll emule also nun 1000 Quellen suchen oder nur mal so 300 ?
Wie auch immer, es kann sein, Du findest erst später zu einer Datei viele Quellen.. was soll dann passieren mit den Dateien die schon verdammt viele Quellen haben ? Alles überflüssige droppen ? Behalten ?

Bitte gib keine Antworten auf diese Fragen... sie sollten lediglich die Komplexität des Systems darstellen. Ein guter Algorithmus muß auf alle diese Fragen passend reagieren und den Overhead schonen... und genau das ist sehr viel Arbeit und in den existierenden Lösungen noch nicht zu meiner Zufriedenheit gelöst.

derOli 21. October 2005 11:59

@Xman

Danke erstmal für deine Ausführung.
Ist mir schon alles klar und ich stimme dir zu.
Nur so aufwendig soll es ja garnicht werden!

z.B.
Mein Router verträgt 3000 Quellen.
Habe als Hardlimit pro Datei 300 eingestellt.
Starte mit 10 Downloads. - Alles im Lot.
Nun füge ich einen weiteren Download hinzu.
Nun sollte sich der Wert von 300 auf 272 reduzieren, um nicht einen Verbindungsabruch zu provozieren.
Ist ein Download fertig wird der Wert wieder auf 300 erhöht.
SIND 5, 6, oder 7 DOWNLOADS FERTIG BLEIBT DER WERT AUF 300.
Oder starte ich gar erst mit 3 Download komme ich eben nur auf 900 Quellen. Es sollen NICHT die 3000 aufgeteilt werden!
Es geht hier nur um die Sicherheit nicht durch zu viele Verbindungen einen Verbindungsabruch auszulösen. Soll nur als oberer Begrenzer dienen.
Diese Arbeitsschritte machen doch die Muli-User alle per Hand.

Ich würde zum Bsp. bei Max pro Datei 500 eintragen und max Gesamt 3000.
Habe 10 Download also dadurch (wenn es das Feature bei dir geben würde) nur 300 pro Download.
Nun laufen aber nach und nach die Downloads durch und ich gucke nach 12h - toll kann mich freuen - 4, 5 oder 6 sind fertig und die restlichen lauf bereits wieder mit 500 Quellen.


Immernoch zu aufwendig oder netzschädigend?

CurtK 21. October 2005 12:13

ich finde das Feature ebenfalls sehr nützlich, und die Sorge, die xman hat, ist wie soll der muli beim Start verhalten und sich Quellen suchen... mein Vorschlag wäre

Eingabe von max source per file " z.B. 300 "

Eingabe von max source gesamt " z.B. 3000 "

also der muli startet, wird erst gar nicht die 3000 beachten, sondern brav, pro file die 300 sources abfragen, das macht der file für file... 300.. 300.. 40, 23, 300

sagen wir muli hat sich eingependelt, hat 2654 Quellen... jetzt guggt der -> max source gesamt.. ok, geht noch wat ;) .. guggt bei allen 300er, bei den 40, oder23 ist es irrelevant, also bei 300 pack ich nochmal 10 sources drauf... nächste 300 .. gugg, usw. bis sich das bei 3000 eingependelt hat..


umgekehrt nehmen wir an, max source wurde 1000 eingestellt, wäre nach dem 3. populären file schon am gesamt dran... was tun ? einfach "drop source intelligent" (<- darüber kann man sich streiten was intelligent ist), dann hätte 900, Spielchen geht weiter... pendelt sich irgendwann bei 3000 und ab dann weiter gehts :D

MaxUpload 21. October 2005 12:14

@derOli: Ich arbeite an einem solchen Hardlimit und würde mich freuen wenn du mich dabei unterstützt. Insbesondere da Webcache v2.0 nun soweit zufriedenstellend läuft und jetzt gerade dieses AutoHL ganz oben auf der Tagesordnung steht.

Wie Xman bereits zum Ausdruck brachte ist das nicht so einfach wie du dir das vorstellst.

Bedenke das dein manueller Prozess automatisiert wesentlich schneller Abläuft und das geht nicht nur auf die CPU-Last,sondern auch auf den Overhead und ein netzwerkschädliches AutoHL braucht kein Mensch.

@Xman: Erinnerst du dich noch an die Little Stones Anekdote die du mal erzählt hast ? Genau so löse ich das Problem. Ich vergebe ein niedriges HL am Anfang und erhöhe dieses dann in relativ kleinen Schritten. Das hält die "zu vielen Verbindungen" relativ niedrig und verteilt die Quellen ziemlich gleichmäßig über die Dateien. Außerdem ist ein überziehen und somit das droppen sehr unwahrscheinlich. Was momentan noch fehlt ist der Re-Check ob denn noch neue Quellen gefunden werden oder nicht...vor der Erhöhung.

Wie du aber bereits sagtest die Umsetzung dieser Lösung ist noch nicht zufriedenstellend.

Also <derOli> frisch ans Werk,wenn du magst und vielleicht bekommen wir ja eine zufriedenstellende Lösung für Xman hin ;-) . Aber das können wir ja dann in meinem Thread später bereden. Zu diesem Zwecke werde ich erstmals meinen "neuen" Mod als Beta der Allgemeinheit zur Verfügung stellen.

[EDIT: Um Router vor dem abk... zu schützen gibt es ACC. Das greift direkt bei den Verbindungen an und hat mit HL nur in sofern zu tun das das HL bei überschreiten eines Verbindungswertes nicht mehr erhöht wird.

Ich erhöhe das HL so....das ich mich von unten an das maximale Source Limit herantaste...insofern -> droppen ob intelligent oder nicht...wird von vorneherein vermieden.

EDIT END]

Mit hoffentlich Xman nicht verärgert habenden Grüßen.

Max

Xman 21. October 2005 12:23

@MaxUpload
der entscheidende Nachteil, wenn man das Hardlimit schrittweise erhöht:
Du brauchst immer wieder einen neuen sourceexchange um dem neuen Hardlimit gerecht zu werden ->Overhead.
Wie ich schon am Entwicklerforum schrieb, wäre ein sourcecache hier eine sinnvolle Ergänzung.


Alle Zeitangaben in WEZ +1. Es ist jetzt 13:53 Uhr.

Powered by vBulletin® Version 3.8.3 (Deutsch)
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
SEO by vBSEO ©2011, Crawlability, Inc.


1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102