On Friday 23 February 2001 09:36, Eric Schaefer wrote:
On Fri, Feb 23, 2001 at 01:01:33AM +0100, Reinhard Foerster wrote:
Es ist eben gerade der Witz der Sache, das knapper Speicher in unixoiden Systemen ein Problem ist.
Weiß jemand wie andere Systeme das lösen? (NT, VMS, big iron) Reservespeicher für automatische Heapallok??
NT: AFAIK gar nicht. VMS: nutzt das noch jemand? ;-) big blue iron: die Hauptprozesse (sowas, was auf einem PC Betriebssystem genannt wird) bekommen feste Ressourcen zugewiesen (Partitionen), wie die dann damit umgehen ist ihr Problem. AFAIK nutzen die echten Mainframe-OS's nur so viel Speicher wie vorhanden: einige starten nur Prozesse, die von vornherein beschrieben sind (Programm X wird maximal yMB Speicher verbrauchen).
- funktioniert super, verursacht aber einige Probleme an anderen
Stellen :) 2. machen alle anderen mir bekannten Unixe außer Linux sehr erfolgreich (ich meine hier Linux bis v2.2, zu v2.4 kann ich mich mangels Ahnung nicht äußern)
Wie tun die das? Nur solange Pages ausgeben, wie auch tatsächlich welche das sind? Wenn ja, warum dann "sehr, sehr, sehr selten" und nicht "nie"?
Hat das Problem, dass ein grosses Programm manchmal keine kleinen Programme mehr starten kann: 1. fork() -> schlägt fehl, da nicht genug Speicher für eine komplette Kopie 2. exec() -> hätte den Speicher komplett freigegeben - schade eigentlich.
Leider ist auch das nicht so einfach:
- Prozessorlast: Dann kann man kein "make" mehr eingeben.
Muß schon ein tollen Makefile sein, damit make selbst echte Last erzeugt.
Wenn das passiert hat man einen Bug in make gefunden. Mir ist es trotz einiger "Exzesse" mit make noch nie gelungen make selbst den Prozessor belasten zu lassen. (Ausnahme: unendlich rekursive Makefiles, aber die belasten eher die Task-Queue als den Prozessor, also bewirken sie eher Last im Kern als im Userspace.)
- Speicherverbrauch: Dann kann man den gimp keine großen Bilder mehr
öffnen lassen.
So, so, gimp also. Ich glaube, daß sich das Problem am Desktop gar nicht erst stellt, da der Nutzer selbst weiß, was er laufen hat und sich nicht selbst den Speicher unter den Füßen wegziehen lassen wird. Problematisch ist doch eher der Server, auf dem viele, potentiell egoistische, Nutzer drauf rumrödeln.
Hmm, SourceForge funktioniert ganz gut, trotz 16000 Projekten und 125000 Nutzern (offizielle SF-Zahl aus einer Rundmail von heute).
Konrad