[eMule-Web]  

Zurück   [eMule-Web] > eMule > Xtreme MOD

Xtreme MOD Alles zum Xtreme MOD

Antwort
 
LinkBack Themen-Optionen
Alt 21. October 2005, 12:35   #916
MODder
 
Benutzerbild von MaxUpload
 
Registriert seit: 06.11.2003
Beiträge: 598




Ein Sourcecache ist zweifelsfrei eine sinnvolle Ergänzung und das nicht nur in Bezug auf AutoHL's.

Wie schön wäre es doch erstmal alles was kommt in einen solchen Cache zu packen und dann zu schaun was ist NNP, was ist fullQR....evtl. auch High QR's. Einfach im Cache lassen und dann holen wenn man sie braucht. Wozu dann noch droppen ? Evtl. kann man ja sogar dort schon die Leecher aussortieren.

Doch aber nur für die neu hinzugekommenen Quellen oder ? Ist das nicht in der Summe gleich ?

Mit fragenden Grüßen.

Max
__________________
MaxUpload ist offline   Mit Zitat antworten
Alt 21. October 2005, 12:36   #917
Board Methusalem
 
Benutzerbild von aalerich
 
Registriert seit: 31.05.2004
Beiträge: 2.800

Ganz grundsätzlich bedeutet jedes Ausreizen des Hardlimits Verschwendung; eigentlich verfügbare Quellen werden nicht genutzt. Um so etwas überhaupt einigermaßen sinnvoll machen zu können muß man die Qualität der Quellen beurteilen. Und das ist für ein Programm kaum vernünftig möglich.
Ebenso grundsätzlich führt jedes Ausreizen eines Hardlimits zu einer Steigerung des Overheads. Quellen werden abgefragt, die dann doch nicht genutzt werden, gleichzeitig stehen viele dieser vergeudeten Quellen aber in der eigenen Queue an, fragen an und bekommen Antwort. Dagegen "hilft" eine Begrenzung der Warteschlange. Das ändert aber nichts daran, daß diese Klienten anfragen und dadurch Overhead erzeugen. Sie bekommen halt nur keine Antwort. Beide Funktionen, das Hardlimit und die Begrenzung der Warteschlange, sind schädliche Funktionen die dazu dienen, das Muli unter völlig überzogenen Einstellungen nicht zusammenbrechen zu lassen. Der Preis dafür ist eine drastische Steigerung des Overheads im Netzwerk.

Wer sein Muli vernünftig betreibt hat für ein Auto-Hardlimit keine Verwendung, es ist eine nutzlose Funktion. Kann ich z.B. 5 000 Quellen sinnvoll nutzen und habe insgesamt 5 000 Quellen kann ich das Hardlimit bei 5 000 Quellen festlegen oder auch bei 500 000, das macht keinen Unterschied. Lege ich es z.B. bei 500 fest, habe 9 Downloads mit je 100 Quellen und einen mit 4 100 Quellen, dann ist jede Einstellung eines Hardlimits Unsinn. Habe ich aber keine Ahnung von der Materie und daher z.B. bei 500 ein Hardlimit eingestellt, so erkennt Auto-Hardlimt, daß bei neun Dateien noch Platz ist und erlaubt der zehnten, mehr Quellen anzunehmen. Ohne die Funktion Hardlimit (und dann erst recht ohne Auto-HL) hätte ich genau den gleichen Effekt. Überziehe ich mit meinen Einstellungen und finde z.B. 10 000 Quellen sorgt das Hardlimit dafür, daß die Hälfte davon verschwendet wird. Ich lasse sie mir ständig über Server, Kad und Quellenaustausch melden, verwerfe sie aber. Im dämlichsten Fall frage ich sie erst ab und entscheide dann über die Qualität der Quellen. Ich frage also 5 000 Quellen ab und bekomme 5 000 Antworten ohne irgendeinen Nutzen, wieder und wieder. Auto-HL ändert daran nichts.

Die Funktion Hardlimit ist für gierige Dummköpfe, die Funktion Auto-Hardlimit ist für noch dümmere gierige Dummköpfe. Beide schaden allen.

Es gibt allerdings eine (einzige) Ausnahme: Kleine Dateien. Will ich die neueste Geräuschaneinanderreihung irgendeiner stotternden Ghettoband als einzelnes mp3 herunterladen finde ich wahrscheinlich hunderte, wenn nicht tausende dummer Kinder, die einzelne mp3s anbieten. In einem solchen Fall ist es grober Unfug, Unmengen an Quellen überhaupt abzufragen und es macht Sinn, nach z.B. 100 Quellen die Quellensuche einfach abzubrechen. Aber das ändert nichts daran, daß diese Art der Mulinutzung (das Laden einzelner mp3s) eine falsche und schädliche Nutzungsart ist.

Ich ganz persönlich fände es sinnvoll, wenn statt der intelligenzfreien Lösung Hardlimit z.B. eine Funktion erfunden würde, die bei Überschreiten der vernünftigen Gesamtquellenzahl Downloads stoppt, ähnlich wie bei mangelndem Festplattenplatz. Über eine feinere Abstufung der Downloadprioritäten als dies zur Zeit möglich ist müßte sich so etwas eigentlich machen lassen.

Mit freundlichen Grüßen
aalerich

__________________
_______________________________________________
Der Router ist schuld!
aalerich ist offline   Mit Zitat antworten
Alt 21. October 2005, 13:03   #918
Junior Member
 
Benutzerbild von derOli
 
Registriert seit: 20.10.2005
Beiträge: 49

@aalerich

ganz so drastisch würde ich es ja nicht ausdrücken

aber wir reden so ungefär vom gleichen - siehe meinen Betrag weiter oben http://http://www.emule-web.de/board...&postcount=912

jedoch Stoppen würde ich nicht so gut finden, dann beginnt die Quellensuche und das anstellen in der Schlage ja von neuem


Geändert von derOli (21. October 2005 um 13:05 Uhr)
derOli ist offline   Mit Zitat antworten
Alt 21. October 2005, 13:07   #919
MODder
 
Benutzerbild von MaxUpload
 
Registriert seit: 06.11.2003
Beiträge: 598


Was ist eine vernünftige Gesammtquellenzahl für einen 50 Mbit Anschluß ?

Außerdem gibt es nunmal intelligenzfreie User. Möchtest du denen lieber lang und breit erklären wie man das Hardlimit einstellt überwacht und gegebenfalls nachregelt. Wann man Dateien besser stoppt und wann man neue starten sollte. Mal ganz abgesehn davon,daß man immer manuell nachregeln muß läßt sich nicht vorhersagen ob eine Datei die Abends noch mit 20 Quellen lief nicht am nächsten Morgen mit 500 Quellen aufwartet. Oder möchtest du denen lieber sagen....aktiviere das AutoHL...Stelle die und die Werte ein und alles wird "Gut" ?

Außerdem sollen natürlich die Dateien gestoppt werden wenn das HL überzogen wird. Ein droppen erachte ich hier nicht für sinnvoll. Das droppen überlasse ich prinzipiell der Basis meines Mod's ob nun das Original oder der Xtreme.

Sicherlich ist das alles besonders in Bezug auf Overhead problematisch. Aber dafür sind wir ja hier um eine Lösung dafür zu finden. Und mal nebenbei bemerkt ein Sourcecache find ich ne Klasse Lösung...zumindest ein Lösungsansatz.

[EDI: Xman es würde mich freuen wenn wir uns in einem besser dafür geeigneten Thread weiter über dieses Thema unterhalten könnten ]

MfG Max
__________________

Geändert von MaxUpload (21. October 2005 um 14:39 Uhr)
MaxUpload ist offline   Mit Zitat antworten
Alt 21. October 2005, 15:33   #920
Board Profi
 
Benutzerbild von seppl12
 
Registriert seit: 22.05.2005
Beiträge: 1.116

Zitat:
Zitat von aalerich
... Um so etwas überhaupt einigermaßen sinnvoll machen zu können muß man die Qualität der Quellen beurteilen. Und das ist für ein Programm kaum vernünftig möglich.
Ich kann mich noch gut an das Geschrei erinnern, als aus dem Offiziellen - zu recht!!! - der manuelle drop von NNP und full sources entfernt wurde. Denkbar wäre z.B. aus dem erwähnten Quellencache nur Quellen mit hohem eigenem Ranking, hohem QR Wert und hohem deltaQR Wert rauszupicken ... aber da machen sicher die Devs nicht mit - und zurecht.

Wer Probleme mit seinem Router hat, soll seine max. Verbindungen und die pro 5 sec entsprechend einstellen, da braucht es kein netzwerkschädigende Funktion wie AutoHL.
__________________
Official eMule@Boinc Teams - Seti, Predictor, Climateprediction and Einstein
seppl12 ist offline   Mit Zitat antworten
Alt 21. October 2005, 15:36   #921
Junior Member
 
Benutzerbild von derOli
 
Registriert seit: 20.10.2005
Beiträge: 49

@MaxUpload

Zitat:
Zitat von MaxUpload
Also <derOli> frisch ans Werk,wenn du magst und vielleicht bekommen wir ja eine zufriedenstellende Lösung für Xman hin . Aber das können wir ja dann in meinem Thread später bereden. Zu diesem Zwecke werde ich erstmals meinen "neuen" Mod als Beta der Allgemeinheit zur Verfügung stellen.
klaro
können wir machen
würde gern mal deinen Mod testen
wann gehts denn los?


[edit by Pathfinder: Doppelposts zusammengefasst.]

Zitat:
Zitat von seppl12
Wer Probleme mit seinem Router hat, soll seine max. Verbindungen und die pro 5 sec entsprechend einstellen, da braucht es kein netzwerkschädigende Funktion wie AutoHL.
das alleine machts aber leider nicht
bei zu vielen Quellen bricht die Verbindung zum Provider trotzdem zusammen
derOli ist offline   Mit Zitat antworten
Alt 21. October 2005, 17:02   #922
MODder
 
Benutzerbild von Xman
 
Registriert seit: 28.03.2003
Beiträge: 5.800

das stimmt nicht, derOli
Du kannst auch 1 Million Quellen haben und die Verbindung bricht nicht ab, wenn die Verbindungslimits passen.
Allerdings solltest Du noch etwas anderes bedenken:
hast Du ein paar Dateien im Download, zu welchen es jeweils nur wenige Quellen (=meist auch Downloader) gibt wirst Du weniger häufig von anderen Kontaktiert, als wenn Du Dateien lädst, für die sich zig tausende andere Leute interessieren. Dann ist es egal wie hoch Dein Hardlimit ist, all diese Leute verbinden sich über kurz oder lang zu Dir (= mehr Overhead, mehr Verbindungen und auch die Wahrscheinlichkeit, daß Dein Router überlastet wird->gesamt-Performance geht in den Keller).
__________________
Xman ist offline   Mit Zitat antworten
Alt 21. October 2005, 17:39   #923
Board Methusalem
 
Benutzerbild von aalerich
 
Registriert seit: 31.05.2004
Beiträge: 2.800

So ein Quellencache ist ja eine nette Idee, nur leider eben auch unsinnig. Auch die Quellen in diesem Cache müssen auf ihren aktuellen Status überprüft werden; auch diese Quellen müssen regelmäßig abgefragt werden. Und wenn ich eine Quelle im Cache finde, die besser scheint als einige der Quellen, die ich akzeptiert habe muß ich entscheiden, welche Quelle ich gegen diese Cachequelle austausche. Das geht aber nur wenn ich von allen bisher akzeptierten Quellen brandaktuelle Informationen habe. Bevor ich also endgültig zur Tat schreite müßte ich die zur Übergabe an den Cache in Frage kommenden Quellen noch einmal abfragen...

Mit freundlichen Grüßen
aalerich

P.S.:@ Max:

Ich würde die Funktion Hardlimit aus dem offiziellen Muli entfernen und am liebsten sähe ich sie generell verboten. Von Auto-HL kann dann gar keine Rede mehr sein. Der springende Punkt ist einfach der, daß ein Hardlimit frühestens dann Sinn macht, wenn das Muli bereits falsch genutzt wird. Ein HL bessert die Situation überhaupt nicht, es kaschiert sie nur, damit der Nutzer davon nicht so viel mitbekommt, daß er sein Langohr falsch fährt. Die Funktion ist immer nutzlos und/oder schädlich. Obendrein sehe ich überall im Netz die blödsinnigsten Empfehlungen zum Thema, selbst von eigentlichen Experten. Sogar Modder wie z.B. WiZaRd investieren eine Unmenge Zeit in Hardlimitmanagement anstatt sich mit dem dahinterstehenden Problem, der Gesamtquellenzahl, zu befassen. Und es ist völlig normal, daß die Nutzer scharenweise vom eigentlichen Problem abgelenkt werden und das Hardlimit sogar noch für etwas Gutes halten.
__________________
_______________________________________________
Der Router ist schuld!
aalerich ist offline   Mit Zitat antworten
Alt 21. October 2005, 17:47   #924
Junior Member
 
Benutzerbild von derOli
 
Registriert seit: 20.10.2005
Beiträge: 49

@Xman

ok
aber diesen Effekt kann ich reproduzieren mit deinem Mod
20 pro 5s und max. 200 Verbindungen
bei ca. 7400 Quellen ist die Trennung vorprogrammiert ca. nach 4h

25 pro 5s und max. 600 Verbindungen
bei 3000 Quellen - läuft bis zur Zwangstrennung

was ist das denn dann?
derOli ist offline   Mit Zitat antworten
Alt 21. October 2005, 17:49   #925
Senior Member
 
Benutzerbild von Luzifer
 
Registriert seit: 10.10.2005
Beiträge: 325

das maximale hardlimit macht schon sinn -> overhead.

Am besten ist es also soviele Quellen wie möglich zu finden und total unnütze (nns/fullqr)
sofort zu droppen, da diese nur unnötigen overhead erzeugen.

Mit Ausnahme von seltenen Files natürlich.

Man sollte also so schnell wie möglich so viele Quellen finden wies nur geht um
dann anschließend die unnützen zu filtern und die restlichen "guten" Quellen bestmöglich
auf alle Files aufteilen (nach einem bestimmten zeitraum).

Klar mag das irgendwie schlecht durchschaubar sein, aber irgendwo ergibt es auch einen
Sinn.
Luzifer ist offline   Mit Zitat antworten
Alt 21. October 2005, 17:59   #926
MODder
 
Benutzerbild von MaxUpload
 
Registriert seit: 06.11.2003
Beiträge: 598


aalerich diese Diskussion ist äußerst interessant und lehrreich.Ich werde sie gerne mit dir fortsetzen,aber laß uns das auf einen geeigneteren Thread verschieben.

Zum Beispiel im Development - Bereich. [EDIT: *wink mit der gaaanz großen Zaunlatte* ]

MfG Max

Geändert von MaxUpload (21. October 2005 um 18:15 Uhr)
MaxUpload ist offline   Mit Zitat antworten
Alt 21. October 2005, 18:12   #927
Board Profi
 
Benutzerbild von seppl12
 
Registriert seit: 22.05.2005
Beiträge: 1.116

Zitat:
Zitat von reLoaded
Am besten ist es also soviele Quellen wie möglich zu finden und total unnütze (nns/fullqr)
sofort zu droppen, da diese nur unnötigen overhead erzeugen.
Sorry, da stimm ich mit dir nicht überein! NNP und full sources können im nächsten Moment zu sehr wertvollen Quellen werden (z.B. gerade den dir noch fehlenden part). Auch wenn es sehr viele Quellen gibt - seh ich dies immer wieder gerade bei sehr neuen Releases. Dank Xman's deltaQR Anzeige erlebe ich dann nicht selten Sprünge von mehreren Tausend, aufgrund meines Ranking.

Zitat:
Zitat von aalerich
... Und wenn ich eine Quelle im Cache finde, die besser scheint als einige der Quellen ...
Ich seh hier den Missbrauch bereits vorprogrammiert.
__________________
Official eMule@Boinc Teams - Seti, Predictor, Climateprediction and Einstein

Geändert von seppl12 (21. October 2005 um 18:15 Uhr)
seppl12 ist offline   Mit Zitat antworten
Alt 21. October 2005, 18:26   #928
MODder
 
Benutzerbild von Xman
 
Registriert seit: 28.03.2003
Beiträge: 5.800

irgendwie habt ihr den Begriff "Quellen-Cache" nicht verstanden...
es geht nicht darum die Quellen abzufragen.. dann könnte ich sie gleich in die Downloadqueue aufnehmen. Es geht darum die gefundenen (via Server/Kad/XS) Informationen (UserID, Port, ServerIP) zwischenzuspeichern. Momentan läuft es so: Du bekommst per XS 500 Quellen, brauchst aber nur 20-> 480 werden einfach verworfen. Die Idee für ein AutoHardlimit: falls ich 5 Minuten später neue Quellen braucht, nutze ich den Topf der 480 Quellen von vorhin. Selbstverständlich müssen die Quellen des Caches eine begrenzte Gültigkeitsdauer haben.
Ok... ich glaube langsam aber sicher schweifen wir zu sehr vom Thema ab. Alles weitere hierzu bitte in einem Extra-Thread fassen. Danke.
__________________
Xman ist offline   Mit Zitat antworten
Alt 21. October 2005, 21:00   #929
Senior Member
 
Registriert seit: 30.12.2002
Beiträge: 505

derOli
Zitat:
aber diesen Effekt kann ich reproduzieren mit deinem Mod
20 pro 5s und max. 200 Verbindungen
bei ca. 7400 Quellen ist die Trennung vorprogrammiert ca. nach 4h
da der kleinere Wert, hier 200, auschlaggeben ist benötigst du um die 7400 Quellen mindestens einmal abzufragen theoretisch mindestens 37 Minuten
Zitat:
25 pro 5s und max. 600 Verbindungen
bei 3000 Quellen - läuft bis zur Zwangstrennung
Im 2. Beispiel brauchts du nur 10 Minuten dafür,
kleinere Wert hier 300

Geändert von Paul 2 (21. October 2005 um 21:02 Uhr)
Paul 2 ist offline   Mit Zitat antworten
Alt 21. October 2005, 22:45   #930
Junior Member
 
Benutzerbild von derOli
 
Registriert seit: 20.10.2005
Beiträge: 49

@Paul 2

ja aber was willst du mir denn nun damit sagen?

Ich habe Xman hier nur sagen wollen, wie ich mit seinem Mod ein Verbindungsabbruch produzieren kann, in Abhängigkeit der max. Quellenanzahl. Dass hier die Verbindungslimits scheinbar nicht relevant sind.
derOli ist offline   Mit Zitat antworten
Antwort

Lesezeichen


Forumregeln
Es ist Ihnen nicht erlaubt, neue Themen zu verfassen.
Es ist Ihnen nicht erlaubt, auf Beiträge zu antworten.
Es ist Ihnen nicht erlaubt, Anhänge hochzuladen.
Es ist Ihnen nicht erlaubt, Ihre Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.
Trackbacks are an
Pingbacks are an
Refbacks are an


Ähnliche Themen: eMule 0.46c Xtreme 4.6 [22.10.2005]


  1. eMule v0.46c StulleMule v2.2 [13.12.2005]
    eMule MODs - Allgemein - 2. February 2006 (92)
  2. eMule 0.46c ReSuRReCTioN 1.3 [12.11.2005]
    eMule MODs - Allgemein - 31. December 2005 (49)
  3. eMule 0.46c ZZUL BastarD Armadillo Mod 0.9.1 [26.12.2005]
    eMule MODs - Allgemein - 27. December 2005 (1)
  4. eMule 0.46c Xtreme 4.7.2 [24.11.2005]
    Xtreme MOD - 24. December 2005 (149)
  5. eMule 0.46c [NetF 0.3a (beta 13)] [15.12.2005]
    eMule MODs - Allgemein - 16. December 2005 (1)
  6. eMule 0.46c EastShare 10.6 [28.09.2005]
    eMule MODs - Allgemein - 2. November 2005 (8)
  7. eMule 0.46c ZZUL BastarD Mod 1.7.2 [17.10.2005]
    eMule MODs - Allgemein - 17. October 2005 (17)
  8. eMule 0.46c released [26.07.2005]
    eMule Allgemein - 4. October 2005 (10)
  9. eMule 0.46c AcKroNiC 3.1 [16.09.2005]
    eMule MODs - Allgemein - 1. September 2005 (2)
  10. eMule 0.46c hebMule 2 1.0 [18.09.2005]
    eMule MODs - Allgemein - 14. August 2005 (2)
  11. eMule 0.46c Antares 0917 Beta1 [18.09.2005]
    eMule MODs - Allgemein - 12. August 2005 (0)


Alle Zeitangaben in WEZ +1. Es ist jetzt 20:35 Uhr.


Powered by vBulletin® Version 3.8.3 (Deutsch)
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
SEO by vBSEO ©2011, Crawlability, Inc.
PAGERANK