Am Dienstag, 10. Februar 2004 23:06 schrieb Puzin, Dimitri:
Am 10.02.2004 16:30:19 schrieb(en) Jens Weisse:
Am Dienstag, 10. Februar 2004 16:24 schrieb Konrad Rosenbaum:
Nur so als Frage: wieso benutzt man den total unoptimierten Kernel der Distribution?
Weil man einfach nicht für 10 oder mehr Rechner einen angepassten Kernel bauen will?
Was ist daran so schwer?
Weil so gut wie alles dabei an Hardware vertreten ist. Über die Jahre sammelt sich so einiges an. Vom Pentium I bis III, K6, K7 bis zum AthlonXP. Und das noch als Single und Dual-CPU. Und an Peripherie ist auch fast alles dabei. SCSI, IDE, viele unterschiedliche Netzwerkkarten, USB 1.1 USB 2.0, Firewire sogar eine TV-Karte zum grabben will genutzt werden.
Man baue einen modularen Kern und verteile den auf einem der eigenen FTP-Server. Per apt-get kann man den dann von dem eigenen Server installieren. Durch den modularen Aufbau verschwendet man keinen Speicher fuer unnoetige Treiber und initrd-tools machen den Rest mit dem Image (sinnvolle Konfiguration vorausgesetzt).
Dann kann man zum Beispiel den SuSE SMP-Kernel oder den Athlon-Kernel verwenden. Alle Treiber liegen auch schon als Module vor. Warum soll ich das alles nochmal machen?
Zeitaufwaendig? Finde ich nicht.
Im obigen Szenario schon.
Auf einem aktuellen Server brauche ich zum Kernelbauen ca. 20 Minuten. Nach einem Testbetrieb auf einer Maschine kann man den Kern dann auf die restlichen Server installieren.
Wenn dieser Kernel auf allen Rechnern läuft, dann ist das in Ordnung. Ansonsten baust du viele unterschiedliche Kernel. Und das dauert. (Übrigens mit kannst du mit distcc die Zeiten erheblich verkürzen)
Ausserdem schreitet die Kernelentwicklung staendig voran, der Support fuer neue Hardware ist immer besser und stabiler mit jeder Version... Der Support fuer die alte Hardware wird auch staendig bereinigt/ optimiert und dann noch viele kleinere auch sicherheitsrelevante Fixes..
ACK
...ich finde ich waer rueckstaendig, einen alten Kern einzusetzen, es sei denn man hat gewichtige Gruende dafuer.
Die Faulheit? Und weil man eigentlich kein Admin ist, sondern das nur nebenbei macht? Prinzipiell gebe ich dir vollkommen recht. Den Idealfall eines homogenen und perfekt administrierten Rechnerpool habe ich aber noch nie gesehen.
Da helfen ja Konsorten wie SuSE und RH und Co. (jedes Jahr mind. 2 Rev- bzw. Versionen), aber ehrlich gesagt, ich will nicht ein aktives System, was stabil laufen muss, einem unsicheren globalen Systemupdate jede 6-8 Monate zu unterziehen. Wie schon mal gesagt, ich hatte die besten Erfahrungen mit Debian in dieser Beziehung gemacht, dank dem exzellenten Paketverwaltungssystem.
ACK. Leider kann man es sich nicht immer aussuchen. Hier auf Arbeit wird momentan SuSE 8.2 eingesetzt. An dieser Version wird mindestens noch ein Jahr festgehalten, weil man nicht halbjährlich updaten will. Das entspricht etwa dem typischen Einsatz eines woody-Systems. Ob und wie eine Upgrade auf 9.x funktioniert weis auch keiner. Vermutlich werden die Kisten neuinstalliert.
Jens