![]() |
Zitat:
|
[EDIT] Hat sich erledigt. Man muss zusätzlich auch "Manage of Active Connections" einschalten. [/EDIT] Hallo! Mein Problem: Ich werde das "Session 1:4 limit" nicht los. Obwohl ich mache was in Pawcio4.txt steht, schaltet sich beim Klick auf "Include connection overhead" das Session Limit an. Zitat:
Ich habe alle Minimum Upload Werte in den Einstellungen auf 11kB/s gestellt. Sowohl bei Bandwidth Control wie bei Connection. Bandwidth Control regelt also den Upload zwischen 11 und 12kB/s. Und trotzdem würgt eMule meinen Download rigeros ab, sobald das Session limit erreicht ist. Gruss |
Memory-Leaks? Hi *, ich benutz schon seit einigen Wochen die AMD-Version des Pawcio 4.14 (based upon eMule v.030e), und bin eigentlich schwer begeistert. Nur wenn da nicht das Wörtchen "aber" wär ;-) Aaaaber: Warum steigt die Memory-Usage bei längerer Laufzeit auf recht hohe Werte an? Zur Verdeutlichung: Ich habe vor einer Stunde den Client neu gestartet: Memory Usage derzeit bei ca. 50 MB, Nach einer Laufzeit von 1-2 Tagen steigt das gut und gern mal auf 160 MB. Viel länger hatte ich ihn noch nie laufen, ab und zu kam aber auch dann der Windows-Fehler (sinngemäss: "emule hat einen Fehler verursacht, und muss beendet werden"). Ich bin mir aber nicht sicher, ob das damit zusammenhängt. Hier ein paar Daten, damit man sich ein Bild machen kann: Rechner: AMD XP2500+ Memory: 1 GB OS: WinXP Pro SR1 NIC: 3com Gigabit Ethernet Firewall: Norton Internet Security 2004 Gateway: Fli4L auf Pentium 233 mit QoS Internet: DSL 768/128 emule-spezifisch: Downloads: ca. 190 (ca. 80-90 Downloads auf 0 Bytes) Freigegebene Files: 120 (davon ca. 20 komplett) Limits: Down 96KB, Up 11 KB Hard Limit 200 Max. Verbindung 350 Port used: 2121, UDP 2131 (eigene Bewertung obiger Werte: rennt wie der Teufel ;-) z.T. stundenlang mit 90 KB/s, also viel tweaken wollt ich eigentlich nicht) Jetzt die Frage: Habt ihr auch schon festgestellt, dass dieser Mod extrem speicherhungrig ist/wird? Oder woran liegt das? Kann man von user-Seite etwas dran ändern? Schöne Grüsse, und auf Resonanz hoffend, DingsDa :) PS: Nach dem ich das hier alles getippt hatte, bin ich bereits wieder auf 60MB Mem-Usage ;) |
@ DingsDa Zitat:
Zitat:
Tja,...bei Deinen Werten wirds schwer :-) Obwohl, ich höre immer wieder von anderen Usern, die es auch so handhaben wie Du. Ich halte diese Vorgehensweise für grundsätzlich falsch und wenig effektiv. Auf jeden Fall, ist das der Grund für Deine Probs. Januar |
Nicht dass wir uns missverstehen: Mit obigen Einstellungen hab ich ja eingentlich überhaupt keine Probleme... nicht umsonst erziele ich damit recht hohe Downloadraten. Das Problem ist doch viel mehr, dass während der Laufzeit scheinbar immer mehr Speicher alloziiert wird, dieser aber nicht mehr freigegeben wird. Ob ich jetzt 190 Downloads in der Liste stehen habe, oder 20 dürfte doch da egal sein. Bei 20 oder 30 würde es dann evtl. nur langsamer anwachsen - am eigentlichen Problem ändert das doch nichts. Ich erhalte doch nach einigen Stunden nicht grossartig mehr Verbindung/Quellen/Clients, die eine (streng) monoton steigende Speicherbelegung rechtfertigen, oder irre ich mich da? Ich habe in der letzten Stunde mal ein Auge auf meine Statistikseite geworfen: vor einer Stunde, sowie jetzt grade eben hatte und habe ich ca. 17.000 bekannte Clients, also keine signifikante Veränderung. Ebenso die (geschätzten) Verbindungen: momentan 204, Spitze: 252. Die Speicherbelegung stieg aber um ziemlich genau 10MB. Was also ist der Grund dafür? Jemand ne Ahnung? Oder ist das zB. bei der Original-eMule Version auch so? Dann wär das Posting im Allg. Forum evtl besser aufgehoben ;) Schöne Grüsse DingsDa PS: Ich hätte ja auch kein Problem damit, wenn eMule generell bei 190 Downloads 150MB brauchen würde (wenn ich das dann nicht wollte, dann müsst ich eben auf <50 runtergehen), aber was mich eben wundert ist und bleibt die Steigerung. |
Zitat:
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 00:10 Uhr. |
Powered by vBulletin® Version 3.8.3 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
SEO by vBSEO ©2011, Crawlability, Inc.