Am 10.02.2004 16:30:19 schrieb(en) Jens Weisse:
Am Dienstag, 10. Februar 2004 16:24 schrieb Konrad Rosenbaum:
Nur so als Frage: wieso benutzt man den total unoptimierten Kernel der Distribution?
Weil man einfach nicht für 10 oder mehr Rechner einen angepassten Kernel bauen will?
Was ist daran so schwer? Man baue einen modularen Kern und verteile den auf einem der eigenen FTP-Server. Per apt-get kann man den dann von dem eigenen Server installieren. Durch den modularen Aufbau verschwendet man keinen Speicher fuer unnoetige Treiber und initrd-tools machen den Rest mit dem Image (sinnvolle Konfiguration vorausgesetzt). Zeitaufwaendig? Finde ich nicht. Auf einem aktuellen Server brauche ich zum Kernelbauen ca. 20 Minuten. Nach einem Testbetrieb auf einer Maschine kann man den Kern dann auf die restlichen Server installieren. Im LAN dann updates machen ist auch nicht allzu (Zeit-)aufwaendig. Ich bin damit noch nie auf die Nase gefallen. Ich administriere insgesamt 10 Server, auf einige davon habe ich keinen physikalischen Zugriff.
Ausserdem schreitet die Kernelentwicklung staendig voran, der Support fuer neue Hardware ist immer besser und stabiler mit jeder Version... Der Support fuer die alte Hardware wird auch staendig bereinigt/ optimiert und dann noch viele kleinere auch sicherheitsrelevante Fixes...ich finde ich waer rueckstaendig, einen alten Kern einzusetzen, es sei denn man hat gewichtige Gruende dafuer. Da helfen ja Konsorten wie SuSE und RH und Co. (jedes Jahr mind. 2 Rev- bzw. Versionen), aber ehrlich gesagt, ich will nicht ein aktives System, was stabil laufen muss, einem unsicheren globalen Systemupdate jede 6-8 Monate zu unterziehen. Wie schon mal gesagt, ich hatte die besten Erfahrungen mit Debian in dieser Beziehung gemacht, dank dem exzellenten Paketverwaltungssystem.
Mein Senf dazu.
MfG -Dimitri