On Tuesday 27 February 2001 09:44, Eric Schaefer wrote:
On Tue, Feb 27, 2001 at 05:33:36AM +0100, Reinhard Foerster wrote:
Mal eine realistisches Beispiel - ein WWW-Server mit Dutzenden Serverprozessen. Dein tolles kommerzielles Unix verbietet das forken
Die Welt besteht nicht nur aus WWW-Servern. Wenn in einer Firma der Datenbankserver einfach mal so abgeschossen wird (der wird oftmal der "böse" sein, da viel Speicherbedarf), oder auch ein beliebiger anderer Prozess, dann hat der Admin ein Problem. Für den Fall, daß auf dem Rechner missionskritische Anwendungen laufen, sollte der Admin lieber ein einfaches (!) Ticket nach Venezuela im Schrank haben.
Und dort eine Schulung zum Thema "Wie dimensioniere ich einen DB Server" machen(*)...
Auf Mission-Critical Systemen darf es weder zu malloc- noch zu fork-OOM's kommen. Also muss das System überdimensioniert sein. Du kannst von einem Kernel keine Wunder erwarten.
(*)Wenn er die Schulung nicht braucht, braucht sie der Chef, der das Budget gekürzt hat (und das kommt öfter vor).
Nun kannst Du mal raten, warum man Linux gerade bei WWW-Servern so gerne einsetzt und dem kommerziellen Kram laengst den Rang abgelaufen hat...
Weil es billig ist?
Spielt in der Branche keine Rolle, da die Kosten woanders liegen (Mitarbeiter, Schulungen, Wartung). Eine Solaris-Kiste kommt in etwa genauso teuer, wie ein Linux oder ein NT4 --- das Kriterium sind Kosten durch Ausfälle und die persönlichen Vorlieben des Managements.
Super Argument! (Ebenso sinnloses Analogon: Windows auf dem Desktop ist so wahnsinnig verbreitet, weil es technisch so genial ist)
Ist es das denn nicht? Steht so auf der Verpackung. Meinst Du die haben mich beschwindelt?
;-) ROTFL
Mir gehts mehr um die Technik als ums Marketing.
Hype ist auch Marketing, aber nicht immer gutes. Ich habe in der letzten Zeit das Gefühl, daß Linux langsam aber sicher an Featuritis leidet. Man will immer mehr einbauen, ohne das vorhandene auszubauen (Extensivität vs. Intensivität). Wenn die "Gemeinde" da nicht aufpaßt, kann Linux ganz schnell da landen, wo schon viele andere OSs gelandet sind.
Das ist das Argument, warum ich nicht gegen das Fehlen eines zentralen Linux-CVS protestiere.... Linus' Zeit"budget" ist die Ultimative Grenze[tm], die jedes Feature überwinden muss.
Etwa 80% aller vorgeschlagenen Änderungen und Features für 2.3 sind auf 2.5 verschoben worden!
Darum bitte ich auch. Insbesondere die irrsinnige Behauptung, Linux wuerde beliebige Prozesse killen, sollte doch endlich mal aufhoeren.
Diese Behauptung ist leider wahr. Lies einfach den Code. Lies vor allem erstmal den Code, wie der Speicher rausgegeben wird.
Genau. Ich bin mir recht sicher, daß es möglich wäre eine Programm zu schreiben, welches einen produktiven Server zu Fall bringt, in dem es diverse Prozesse startet, die nach verschiedenen Gesichtspunkten Speicher ausfassen und teilweise auch belegen. Wenn man das geschickt macht, werden ganz schnell die "falschen" Prozesse gekillt.
Da das ein Spiel mit Wahrscheinlichkeiten ist brauchst Du nur lange genug durchzuhalten.
- der Kern kann nicht feststellen, wer der böse ist (weil es keine bösen Prozesse gibt. Punkt!!!)
Eben.
Wie schon oben erwähnt: wenn eine Ressource knapp wird kann man vom Kernel keine Wunder erwarten - er wird tun, was notwendig ist: killen.
Diejenigen, die für kritische Systeme zuständig sind müssen auch einplanen, dass es Extremsituationen geben kann. Ausserdem haben grosse DB's immer auch Statistiktools, die einem sagen, wann es knapp wird, dann kann man entsprechend reagieren.
Auf unkritischen Systemen ist es: genau, unkritisch. Also sollte der Kernel nur sein bestes tun das System an sich am Laufen zu halten. Für die Aufräumarbeiten ist der Admin da. Die Frage ist nicht: wie kann der Kernel ein Wunder bewirken, sondern was ist teurer: Speicher (Platte, Prozessoren, ...etc.pp.) oder ein Crash?
Beispiel: *crasht meine Workstation: was soll's, Reboot hilft. Sie hat nur so viel Ressourcen, weil Java dann besser läuft, auch wenn ich 20 Fenster (die Hälfte Konqueror's) offen habe. Und gespeichert wird auf dem Server, also gehen max. 10 Minuten Arbeit verloren. *crasht der Linux-Server: zwei Entwickler werden sich tierisch ärgern (u.A. ich, weil ich mich ausloggen und /home neu mounten muss) -> ich versuche die Wahrscheinlichkeit auf 5-10 Downtimes im Jahr oder weniger zu drücken (incl. Reboot wegen Installation). *crasht der INet-Gateway(**): die ganze Filiale kann nicht mehr mit dem Netz kommunizieren -> die Wahrscheinlichkeit muss gegen 0 tendieren (ca. 2-4 Downtimes pro Jahr, die möglichst kurz sind)
(**)noch ist es eine eNTe, aber der Neue funktioniert schon
Konrad