On Fri, 2005-02-18 at 12:28 +0100, Stefan Lagotzki wrote:
Das ist die Schiene über die man die Nutzer "fängt". Der Admin auf Arbeit versucht es massiv über die Kostenschiene. Neue Arbeitsplätze werden standardmäßig mit OOo und Gimp bestückt. Der Schrei nach MS-Office wird durch eine Kostenaufstellung abgewürgt. Da wir viel große Branchensoftware mit imensen Lizenzkosten einsetzen (müssen, per Order durch Konzernmutter), ist jeder Versuch dem Lizenzkostenschreckgespenst zu entgehen, willkommen.
Wie verbindet Ihr OO.org mit der Branchensoftware? Gibt es da schon Erfahrungen? Würde mich auch für einige Interessenten interessieren!
Gar nicht. Mit Branchensoftware meine ich: PPS System auf Citrix-Server in 400km Entfernung (Muttergesellschaft). Weiterhin benutzen wir für Kundenanlagen ein Prozessvisualisierungssystem, welches pro Kundenleitstandsrechner so ca. 3,5TE kostet. Dieses soll aber zum Glück im Laufe des Jahres abgelöst werden, durch eine Eigenentwicklung. Für sowas gibt es leider keine fertigen Opensource Lösungen und die wird es auch nie geben.
Das wird aber nicht funktionieren, wenn sich Linux-Desktop-Software so weiterentwickelt wie in den letzten 2 Jahren. Beispiel: Auf Arbeit haben wir ca. 40 PCs mit 300er K6/2. Windows 2000, Notes, Office97 und der Citrix-Client laufen darauf sehr brauchbar. Neulich haben wir auf so einer Kiste mit Susi 9.1, KDE und OOo experimentiert. Ergebnis: Unbenutzbar.
Ginge nicht eine (thin)-Client-Lösung mit Linux-Server?
Darüber wird nachgedacht.
Wir können uns nicht hinstellen und sagen, wir sparen die 40x Lizenzkosten für Windows und Office, aber wir brauchen 40 neue PCs...
Aber irgendwann braucht Ihr wirklich mal etwas modernere PCs ... (und ja, ich muss auch rechnen!).
Warum? W2k + MSO97 tun es auf den Kisten und tun alles was sie sollen. Irgendwie wird in den letzten Jahren Speicher und Rechenzeit verschleudert. Ich kann leider nicht nachvollziehen wofür. Was macht die "moderne" Software damit? Bis vor 5 Jahren war das klar. Da wurde erstmal für ordentliche Bildschirmauflösungen mit hoher Farbtiefe gekämpft. Und für die Möglichkeiten höherer Programmiersprachen. Aber was passiert seit dem? Wofür braucht man mehr als 1000Mhz? Daß ein Enwickler lieber etwas mehr Bumms in der Kiste braucht, weiß jeder, der schon auf 486ern Kernels kompiliert hat. Aber der normale Büroanwender? Da wird über animierte Büroklammern gelästert, aber im Gegenzug wird alles noch viel schlimmer gemacht. KDE und Gnome sind derzeit auf dem Stand, auf dem Windows 2000 vor fünf Jahren war (Windows XP kann ich nicht einschätzen). Dafür laufen die beiden aber nie im Leben brauchbar auf 5 Jahre alten Rechnern.
Versteh mich nicht falsch. Ich habe lange Zeit mit KDE und GNOME zu tun (derzeit hauptsächlich letzteres) und mag eigentlich beide. Aber wenn ich mir anschaue, wieviel Speicher schon weg ist, ohne daß ich auch nur eine einzige Anwendung gestartet habe, wird mir richtig schlecht. Ich weiß nicht wie es in letzter Zeit mit KDE aussieht, aber die ganzen Standard-Gnomeanwendungen sind extreme Speicherfresser und sind auch noch grottenlangsam. Bestes Beispiel ist das unselige Gnome-Terminal. Das müßte man dem Autor rechts und links um die Ohren hauen. Was kann an einer Terminal-Emulation so rechenzeitaufwändig sein? Warum kann man da nicht mal bei rxvt, xterm und wterm nachschauen, warum die um Größenordnungen schneller sind und um Größenordungen weniger Speicher brauchen und das nachbauen? Nur mal so zum Vergleich (beide frisch gestartet):
$ ps aux|grep term eric 16111 0.0 4.1 21284 10584 ? S 17:46 0:00 gnome-terminal eric 16127 0.1 0.5 2972 1448 ? S 17:46 0:00 wterm
$ cat stomach | bucket
Eric