Morgen @all
kurze Frage, hat jemand schon mal Erfharung gemacht mit PCIMCIA DLink Netzwerkkarte ? Hab da ein leichteres Problem mit ihr. Habe ein T22 wo die onBoard ETH defekt ist. Muss also eine PCIMCIA LAN nutzen. Jetzt ist mein Problem, das ich unter den Hardwaredetails nicht die Optionen ändern kann, sprich kann dem Teil net sagen das sie fullduplex machen soll anstatt den Modus auto.
Nutze ein SuSE 9.0, vielleicht kennt jemand das Prob oder hat nen Tip fuer mich.
MfG
Dirk Frenzel
NetGem GmbH & Co KG
Mobil 0173 / 3477831 Tel. 07031 / 714781 Fax. 07031 / 714778
Issac Malick villa #3700 Dakar- Senegal. West Africa
GREETINGS,PLEASE TREAT URGENT AND PERSONAL
Dear,
Permit me to inform you of my desire of going into business relationship with you. I got your contact from the internet.
I am Issac Malick. the only Son of late Mr Philips Malick . My father was a very wealthy cocoa merchant in zimbabwe, the economic capital of Harare before he was poisoned to death by his business associates on one of their outing to discuss on a business deal.
Before the death of my father on 7th, october 2001 in a private hospital in Zimbabwe.
He secretly called me on his bedside and told me that he has a sum of $ 12.500.000 (Twelve Million, five hundred thousand dollars) left in a suspense account in a security and finance house in senegal, that he used my name as his child for the next of kin in deposit of the fund.
He also explained to me that it was because of this wealth and some huge amount of money his business associates supposed to balance him from the export of food crop and animal they had that he was poisoned by his business associates, that I should seek for a God fearing foreign partner in a country of my choice where I will transfer this money and use it for investment purpose, (such as real estate management or any profitable business).
Sir, I am honourably seeking your assistance in the following ways.
1) To provide a Bank account where this money would be transferred to. 2) To serve as the guardian / director of this project, since I am a boy of 22 years.
Moreover Sir, I am willing to offer you 10% of the sum as compensation for effort input after the successful transfer of this fund to your designated bank account overseas. please in your reply kindly send me your direct phone and fax number for easy communication.
Anticipating to hear from you soon.confirm the reciept of this mail through my direct phone number +221 663 9666 so that, we can discuss the modalities.
Thanks and GOD Bless.
Best regards. Issac Malick.
------------------------------------------------- This mail helped a tree grow. Know more at http://green.sify.com
Take the shortest route to success! Click here to know how http://education.sify.com
Liebe "group-members"!
Ich plage mich nun bereits seit einiger Zeit mit dem oben genannten Problem herum und schmore dabei immer nur im "eigenen Saft"...
Ich soll eine Verbindung zwischen zwei Standorten (Netzwerken) hochverfügbar machen. Die Verbindung sieht etwa so aus:
Netzwerk - - - -Linuxrouter1-1 - - - - <"Leitung"> - - - - - Linuxrouter2-1 ------Netzwerk2 | | |- - [Linurouter1-2]- - -[separate "Leitung"] - -[Linuxrouter2-2]- -|
Nun dachte ich mir, dass ich das gleiche nochmal parallell aufbaue (in den [ ]!) und über die beiden Linuxrouter auf jeder Seite eine Failover-Lösung realisere. Das habe ich sowohl per heartbeat oder keepalived gemacht. Das nützt mir nur leider gar nix, weil ich so zwar die beiden Router einer Seite umschalten kann, die auf der anderen Seite merken das aber überhaupt nicht... :-(
Kennt sich jemand damit aus und kann mir weitere Tipps geben?????
Liebe Grüße! Peter.
pzabelt@sz-online.de pzabelt@sz-online.de (Mi 12 Jul 2006 17:29:49 CEST):
Liebe "group-members"!
Ich plage mich nun bereits seit einiger Zeit mit dem oben genannten Problem herum und schmore dabei immer nur im "eigenen Saft"...
Ich soll eine Verbindung zwischen zwei Standorten (Netzwerken) hochverfügbar machen. Die Verbindung sieht etwa so aus:
Netzwerk - - - -Linuxrouter1-1 - - - - <"Leitung"> - - - - - > Linuxrouter2-1 ------Netzwerk2 | | | | | | |- - [Linurouter1-2]- - -[separate "Leitung"] -- > -[Linuxrouter2-2]- -|
Nun dachte ich mir, dass ich das gleiche nochmal parallell aufbaue (in den [ ]!) und über die beiden Linuxrouter auf jeder Seite eine Failover-Lösung realisere. Das habe ich sowohl per heartbeat oder keepalived gemacht. Das nützt mir nur leider gar nix, weil ich so zwar die beiden Router einer Seite umschalten kann, die auf der anderen Seite merken das aber überhaupt nicht... :-(
Hm - vielleicht hat RRP damit was zu tun. Ich weiß es nicht genau, aber ich weiß, daß wohl auch andere mit solcher Problematik zu tun haben.
Oder Du bastelst Dir einen einfachen Dienst auf jedem Router, der das Umschalten für Dich löst:
1) 1-1 schaltet auf 1-2 um 2) 1-2 sendet an 2-2 eine Nachricht, daß Umgeschaltet wurde 3) 2-2 reißt die Dienste von 2-1 an sich
(oder 2) 1-2 sendet an 2-1 eine Nachricht (über die alternative Leitung und den 2-2) 3) 2-1 gibt seine Dienste auf )
Heiko
On 7/12/06, Heiko Schlittermann hs@schlittermann.de wrote:
Oder Du bastelst Dir einen einfachen Dienst auf jedem Router, der das Umschalten für Dich löst:
Es sollte doch ein STONITH-Skript reichen, welches nicht nur den eigenen Heartbeatpartner sondern auch den des Gegenübers ausschaltet.
Viele Grüße, Torsten
Hallo, speziell Torsten und Heiko!
Danke für die Zuarbeit! @Heiko: Leider bin ich kein Script-Guru (...nicht mal ein richtiger Anfänger :-() ). @Torsten: Ja, dieses Stonith ist mir beim Konfigurieren von heartbeat schon mal durch die Finger gerannt, erst mal aber nur im Sinne von auskommentieren, aber damit sollte ich mich doch mal beschäftigen...hmmmm... hast du damit schon praktische Erfahrungen?
Ich gehe also wieder mal in mich (eigentlich in heartbeat :-) und melde mich dann noch einmal. Nützliche "Zwischenrufe" werden aber jederzeit gern angenommen!!!
Vielen Dank erst mal! Liebe Grüße! Peter.
PS: Gibt's schon 'ne Lösung für die Sommerpause? Gut fände ich wieder so'n Biergarten 'a la Torwirtschaft. ...und die termine für Juli auf der Website stimmen ja auch nicht...oder???
On 7/12/06, Heiko Schlittermann hs@schlittermann.de wrote:
Oder Du bastelst Dir einen einfachen Dienst auf jedem Router, der das Umschalten für Dich löst:
Es sollte doch ein STONITH-Skript reichen, welches nicht nur den eigenen Heartbeatpartner sondern auch den des Gegenübers ausschaltet.
Viele Grüße, Torsten
Lug-dd maillist - Lug-dd@mailman.schlittermann.de http://mailman.schlittermann.de/mailman/listinfo/lug-dd
pzabelt@sz-online.de schrieb: [...]
PS: Gibt's schon 'ne Lösung für die Sommerpause? Gut fände ich wieder so'n Biergarten 'a la Torwirtschaft. ...und die termine für Juli auf der Website stimmen ja auch nicht...oder???
Der zweite Termin ist gefixt. Die Treffpunkte für die August-Termine werden wir sicher hier auf der Mailingliste aushandeln.
Stefan
.
Hallo Peter,
On 7/13/06, pzabelt@sz-online.de pzabelt@sz-online.de wrote:
@Torsten: Ja, dieses Stonith ist mir beim Konfigurieren von heartbeat schon mal durch die Finger gerannt, erst mal aber nur im Sinne von auskommentieren, aber damit sollte ich mich doch mal beschäftigen...hmmmm... hast du damit schon praktische Erfahrungen?
wir haben ein eigenes Skript für das Totschießen von HP-Proliant Servern über ILO geschrieben. STONITH = "shoot the other node into the head" - falls das nicht bekannt war. Ein Stonith-Skript muss genau das tun.
Viele Grüße, Torsten
On 13.07.06 Torsten Werner (mail.twerner@googlemail.com) wrote:
STONITH = "shoot the other node into the head" - falls das nicht bekannt war.
Wobei mir die Abkürzung besser gefällt, als das Ausgeschriebene. :-)
H.
Hallo Linux-Freunde,
Ich suche seit längerem schon eine stabile Lösung für folgendes Problem :
Ausgangssituation : Mehrere Webserver bilden zusammen einen Cluster - Loadbalancing wird über LVS geregelt und funktioniert auch gut (auch der director ist redundant ausgelegt - das klappt alles)
Jetzt mein Problem - bei meinem 1sten Cluster habe ich noch mit rsync+ssh gearbeitet - immer einen Cluster-Backend als "Master" ausgewählt und die anderen Server auf Grundlage dessen Datenbestand alle 2min abgeglichen.
Jedoch nimmt inzwischen der Abgleich immer mehr Zeit in Kauf und kostet auch immer mehr CPU-Cycles - Ich bräuchte also eine Lösung für ein verteiltes, fehlertolerantes Dateisystem...
Ich dachte mitunter schon an gnbd ( da bin ich grad dran, zusammen mit gfs, oder ocfs2) jedoch ist mir hier die Abstraktion noch nicht ganz klar - vor allen Dingen nicht, wie ich daraus jetzt ein raidset z.B. baue - in den Howtos steht immer nur was von einer Volume-groups und ich war mir sicher, das LVM nicht mit Redundanten Daten bzw. eine Art raid5/6 verwalten kann...
So kam ich auf immer merkwürdigere Gedanken :
1) Jeder Server ist iSCSI initiator + target zugleich und per Multipath wird jedes exportierte device (lokal steht auf jedem Server ein md - (raid1) Device zur Verfügung) jeweils zusammen in ein neues Device übernommen -> z.B. 3 Server exportieren per iscsi ihr mdX und ich bilde aus iscsi1 iscsi2 iscsi3 ein raid5 Spiele dann ein ocfs2 drauf ( damit wir ordentliches Locking etc. haben ) und kann dann auf jedem Server das an sich gleiche raid-set per ocfs2 mounten ... (Alternativ auch GFS ?)
2) Ich nehm lustre - wobei Lustrefs trotz vielem Lesen noch nicht wirklich offenbart hat, wie ich dort die Redundanz hinbekomme, obwohl es wohl durchaus möglich sein muss... .
3) Ich schau mir Coda bzw. AFS an - wobei coda schon ganz ok sein sollte - nur die Write - Performance ausserordentlich schlecht ....
Leider kommt aus finanziellen Gründen die Anschaffung eines SAN's nicht in Frage (zumindest zum jetzigen Zeitpunkt nicht) Die server sind per 100Mbit miteinander verbunden, jedoch wird, wenns absehbar ist, ein privates Netz mit gigabit parallel installiert...
Hat da jemand ein paar Tipps, oder Alternativen oder einen anderen Denkansatz - oder ein paar wirklich umfassende Dokus dazu ?
Ich steh momentan ein wenig auf dem Schlauch, hab auch leider nicht die Zeit wirklich jede Variante 100% Umzusetzen.
Die Server sind alles 1-Prozessor Maschinen mit SoftRaid1 1-2Gb Ram und AMD64 3X00+ Die Anzahl der Server ist momentan bei 4 Backend + 1 Reserve Server + 2LBS im aktiv/passiv
Danke schonmal & Grüsse, Malte
Hallo Malte,
On 7/13/06, Malte Geierhos malte@g-house.de wrote:
Ich bräuchte also eine Lösung für ein verteiltes, fehlertolerantes Dateisystem...
wie wäre es mit einem redundantem NFS-Server mit DRBD als Blockdevice?
Viele Grüße, Torsten
Hallo Lug, Hi Torsten
ja - das mit dem NFS - Server ist so eine Sache :
Das Problem wäre, dass ich dann einen dedizierten DRBD - Server als Backend/ Storage Server hätte, auf dem sämtlicher IO zusammenlaufen würde - dann müsste ich auf einem 2.ten Server den DRBD - Secondary anlegen, der aber auch nicht zeitgleich selbst darauf schreiben kann (drbd geht nur atm als aktiv/passiv) .
Ich habe aber insgesamt 5 Backend's wobei Die Rechenpower von 2/3 Servern nicht ausreichen würde, um die Seite zu betreiben - sprich ich müsste noch 2 Server hinzuholen, die nur HA-Storage machen.
Meine Überlegungen gingen schon eher davon aus, redundanz über alle Server zu erreichen - evt. mit Read-Caches zu arbeiten usw. - aber keine weiteren extra - separierungen ... Im gegenteil lieber gleichberechtigte Server nebeneinander.
Aber trotzdem Danke für die Idee. Im übrigen schreibt der DRBD - Entwickler im Wiki - das es nicht sooo schwer wäre, dem Secondary das gleichzeitige lesen/schreiben zu erlauben - er hats halt einfach nicht getan ... Die Lösung wäre sonst ideal - da das DRBD auch recht intelligent ist, und immer von den lokalen Platten liest ... Aber das würde heissen, drbd müsste mit >2 peers umgehen können + alle müssten gleichzeitig schreiben können etc. (das könnte man ja wiederum kombinieren mit ocfs etc ...
naja - leider ist das projekt da noch nicht so weit.
Grüsse Malte
Torsten Werner wrote:
Hallo Malte,
On 7/13/06, Malte Geierhos malte@g-house.de wrote:
Ich bräuchte also eine Lösung für ein verteiltes, fehlertolerantes Dateisystem...
wie wäre es mit einem redundantem NFS-Server mit DRBD als Blockdevice?
Viele Grüße, Torsten
On 7/13/06, Malte Geierhos malte@g-house.de wrote:
Das Problem wäre, dass ich dann einen dedizierten DRBD - Server als Backend/ Storage Server hätte, auf dem sämtlicher IO zusammenlaufen würde - dann müsste ich auf einem 2.ten Server den DRBD - Secondary anlegen, der aber auch nicht zeitgleich selbst darauf schreiben kann (drbd geht nur atm als aktiv/passiv) .
Noe, 2 von den 5 Servern können DRBD und heartbeat machen und jeweils einer davon NFS-Server auf einer virtuellen IP-Adresse.
Torsten
Hi Lug, Hallo Torsten,
Torsten Werner wrote:
Ja - das Ding ist, der IO ist wahrscheinlich zu langsam über das nfs - es sind vor allem viele kleine Files d.h. heftiges seeken über die gesamten platten - d.h. ich schätze, das der nfs-server dann zu nichts anderem mehr taugt. Wie gesagt bis jetzt ist das io gleichmässig über 4 Server verteilt - die alle direkt von ihren lokalen platten lesen.
Aber ich habe nochwas entdeckt : enbd + fr1 bzw. wohl eher fr5 - patch habt ihr damit schon was gemacht ? also enhanced Network Block device exportieren von jedem Server + in ein raid5 einbinden, dass dann wieder lokal gemountet wird ?
grüsse, Malte
On 7/13/06, Malte Geierhos malte@g-house.de wrote:
Das Problem wäre, dass ich dann einen dedizierten DRBD - Server als Backend/ Storage Server hätte, auf dem sämtlicher IO zusammenlaufen würde - dann müsste ich auf einem 2.ten Server den DRBD - Secondary anlegen, der aber auch nicht zeitgleich selbst darauf schreiben kann (drbd geht nur atm als aktiv/passiv) .
Noe, 2 von den 5 Servern können DRBD und heartbeat machen und jeweils einer davon NFS-Server auf einer virtuellen IP-Adresse.
Torsten
Hallo Malte,
On 7/13/06, Malte Geierhos malte@g-house.de wrote:
Ja - das Ding ist, der IO ist wahrscheinlich zu langsam über das nfs - es sind vor allem viele kleine Files d.h. heftiges seeken über die gesamten platten - d.h. ich schätze, das der nfs-server dann zu nichts anderem mehr taugt.
welche Datenmenge hast du denn und wieviel RAM? Das wichtigste dürfte schnell im Cache landen.
Torsten
Torsten Werner wrote:
Hallo Malte,
On 7/13/06, Malte Geierhos malte@g-house.de wrote:
Ja - das Ding ist, der IO ist wahrscheinlich zu langsam über das nfs - es sind vor allem viele kleine Files d.h. heftiges seeken über die gesamten platten - d.h. ich schätze, das der nfs-server dann zu nichts anderem mehr taugt.
welche Datenmenge hast du denn und wieviel RAM? Das wichtigste dürfte schnell im Cache landen.
Also momentan sinds mindestens 1GB Ram. schon gebunden sind ~ 500MB durch mysql (laufender Betrieb zwischen 450-550) und lighttpd + fastcgi php5 ~ 100-150 MB für lighttpd + php Instanzen 100 MB insgesamt für tempfs an wichtigen Stellen atm Sessions + compilierte templates 200 MB max für memcached
Damit siehts dann schon nicht mehr soo toll aus - dadurch, dass memcache + tempfs meist allerdings nicht 100% belegt sind, sowie die php-instanzen recht genügsam sind insgesamt, zeigt mir mein Top zwischen 200-500MB cached an.
Die Datenmenge auf dem Server beläuft sich so atm ~ 40 GB wobei der Grösste Teil davon Bilder sind (ja ein eigener Bilderserver hilft nicht, der schaffts nicht (zuwenig seeks / s) und so läufts recht moderat aber eben auch durch das rsync teilweise recht grenzlastig bei 30-50% io-wait. Dafür sind aber in den neueren Servern (die ich jetzt baue) jeweils raid1 enthalten. die ein bisschen mehr können als die jetzigen platten. Aber das Synchronisieren ist recht unzuverlässig (teilweise fehlen einfach mal ein paar Dateien etc)
Lighttpd benutzt bei mir FAM um nicht allzu viel unnötige io-zugriffe zu machen .
Grüsse, Malte
Torsten
Hallo Malte,
On 7/13/06, Malte Geierhos malte@g-house.de wrote:
Also momentan sinds mindestens 1GB Ram.
...
teilweise recht grenzlastig bei 30-50% io-wait.
beides zusammen klingt für mich nach 'an der falschen Stelle gespart'. Ich habe dein System zwar nicht unter den Fingern, um es genau zu wissen, aber würde mal den Speicher verdoppeln bis vervierfachen.
Viele Grüße, Torsten
Hallo Lug,
Torsten Werner wrote:
Hallo Malte,
On 7/13/06, Malte Geierhos malte@g-house.de wrote:
Also momentan sinds mindestens 1GB Ram.
...
teilweise recht grenzlastig bei 30-50% io-wait.
Eine verdoppelung des Speichers ist geplant und wird kommen, sobald die neuen Nodes Online gehen - zuerst nur muss ich das Problem der Storage lösen.
Mal angenommen ich würde NFS nehmen - wie werde ich dann auf den restlichen Clients die NFS-mountpoints (im Falle eines Fehlers + Übernahme des 2.ten NFS-Servers) bzw. die Filehandles los - ich kann mich erinnern, dass ein abgeschossener NFS recht unfreundlich ist, und die Clients recht arbeitsunfähig zurücklässt ... Bauen die automatisch eine neue Verbindung auf, wenn sich die IP des entsprechenden Servers wieder "online" meldet ( auf der ersatz drbd -node nat.) .
Hm - ich hätte zwar immer noch ein performance problem (wie schon gesagt zuviele gleichzeitige seeks auf zuviele Unterschiedliche Dateien (deswegen auch nur schlechte Cache-Ausnutzung) aber es wäre eine theorethisch denkbare Variante - nur leider teilen sich dann 4 + 1 Server die Io-Leistung der 2 Platten im raid1 verbund ...
Das wollte ich halt vermeiden irgendwie - deswegen eben das enbd - und ich hab geschaut, enbd ist es egal, welches fs da drauf ist - also ocfs würde gehen (das sieht direkt "slots" vor für einzelne Server)
beides zusammen klingt für mich nach 'an der falschen Stelle gespart'. Ich habe dein System zwar nicht unter den Fingern, um es genau zu wissen, aber würde mal den Speicher verdoppeln bis vervierfachen.
Viele Grüße, Torsten
Viele Grüsse, Malte
On 7/13/06, Malte Geierhos malte@g-house.de wrote:
Mal angenommen ich würde NFS nehmen - wie werde ich dann auf den restlichen Clients die NFS-mountpoints (im Falle eines Fehlers + Übernahme des 2.ten NFS-Servers) bzw. die Filehandles los - ich kann mich erinnern, dass ein abgeschossener NFS recht unfreundlich ist, und die Clients recht arbeitsunfähig zurücklässt ... Bauen die automatisch eine neue Verbindung auf, wenn sich die IP des entsprechenden Servers wieder "online" meldet ( auf der ersatz drbd -node nat.) .
NFS nutzt im Standardfall udp und ist damit verbindungslos. Wenn der Ersatzserver /dev/drbd0 und virtuelle IP übernimmt, wüsste ich auch nicht, was groß schiefgehen kann.
Viele Grüße, Torsten
Malte Geierhos malte@g-house.de (Do 13 Jul 2006 14:39:39 CEST):
Hi Lug, Hallo Torsten,
Aber ich habe nochwas entdeckt : enbd + fr1 bzw. wohl eher fr5 - patch habt ihr damit schon was gemacht ? also enhanced Network Block device exportieren von jedem Server + in ein raid5 einbinden, dass dann wieder lokal gemountet wird ?
Ohne mit enbd was getan zu haben, aber ich befürchte, daß das ext3 nicht taugt, mehrfach gemountet zu werden. Und bei 'nem RAID5 im Netz liest Du ja auch nicht immer von der lokalen Platte.
Heiko Schlittermann wrote:
Malte Geierhos malte@g-house.de (Do 13 Jul 2006 14:39:39 CEST):
Hi Lug, Hallo Torsten,
Aber ich habe nochwas entdeckt : enbd + fr1 bzw. wohl eher fr5 - patch habt ihr damit schon was gemacht ? also enhanced Network Block device exportieren von jedem Server + in ein raid5 einbinden, dass dann wieder lokal gemountet wird ?
Ohne mit enbd was getan zu haben, aber ich befürchte, daß das ext3 nicht taugt, mehrfach gemountet zu werden. Und bei 'nem RAID5 im Netz liest Du ja auch nicht immer von der lokalen Platte.
hm meines Wissens nach ist enbd != ext3 ? also ich bin mir dann schon bewusst, wenn ich das mehrfach mounten will, ein Filesystem mit DistributedLockManager zu nehmen - und da ocfs2 gerade in den Kernel aufgenommen wurde, würde ich es wohl damit versuchen... dieses Filesystem unterstützt ausdrücklich shared - storage ...
(oder hab ich da was übersehen und enbd geht nur mit ext3 ?)
Grüsse, Malte
Lug-dd maillist - Lug-dd@mailman.schlittermann.de http://mailman.schlittermann.de/mailman/listinfo/lug-dd
Malte Geierhos malte@g-house.de (Do 13 Jul 2006 16:08:07 CEST):
Heiko Schlittermann wrote:
Ohne mit enbd was getan zu haben, aber ich befürchte, daß das ext3 nicht taugt, mehrfach gemountet zu werden. Und bei 'nem RAID5 im Netz liest Du ja auch nicht immer von der lokalen Platte.
hm meines Wissens nach ist enbd != ext3 ?
Jetzt reden wir beide von Dingen, die wir nicht genau kennen ;) Unter enbd hätte ich ja ein Block-Device und kein Filesystem verstanden.
also ich bin mir dann schon bewusst, wenn ich das mehrfach mounten will, ein Filesystem mit DistributedLockManager zu nehmen - und da ocfs2 gerade in den Kernel aufgenommen wurde, würde ich es wohl damit versuchen... dieses Filesystem unterstützt ausdrücklich shared - storage ...
Ja, das ist nützlicher.
(oder hab ich da was übersehen und enbd geht nur mit ext3 ?)
Das weiß ich nicht und vielleicht hatte ich da auch was falsch verstanden/vermutet, weil Du ja nichts über das Filesystem erwähnt hattest.
Hallo Heiko,
On 7/13/06, Heiko Schlittermann hs@schlittermann.de wrote:
Ohne mit enbd was getan zu haben, aber ich befürchte, daß das ext3 nicht taugt, mehrfach gemountet zu werden.
genau, das geht nur mit der Option 'ro'.
Viele Grüße, Torsten
On Wednesday 12 July 2006 17:29, pzabelt@sz-online.de wrote:
Liebe "group-members"!
Ich plage mich nun bereits seit einiger Zeit mit dem oben genannten Problem herum und schmore dabei immer nur im "eigenen Saft"...
Ich soll eine Verbindung zwischen zwei Standorten (Netzwerken) hochverfügbar machen. Die Verbindung sieht etwa so aus:
Netzwerk - - - -Linuxrouter1-1 - - - - <"Leitung"> - - - - - Linuxrouter2-1 ------Netzwerk2
|- - [Linurouter1-2]- - -[separate "Leitung"] -
-[Linuxrouter2-2]- -|
Nun dachte ich mir, dass ich das gleiche nochmal parallell aufbaue (in den [ ]!) und über die beiden Linuxrouter auf jeder Seite eine Failover-Lösung realisere. Das habe ich sowohl per heartbeat oder keepalived gemacht. Das nützt mir nur leider gar nix, weil ich so zwar die beiden Router einer Seite umschalten kann, die auf der anderen Seite merken das aber überhaupt nicht... :-(
Kennt sich jemand damit aus und kann mir weitere Tipps geben?????
Hi,
ich denke Du suchst http://de.wikipedia.org/wiki/VRRP
Liebe Gruesse, Jan.
Hallo Jan!
Ja: vrrp ist ja z.B. mit dem genannten heartbeat zu machen. Das läuft jetzt auch schon fast sauber im Failover-Betrieb, ich such noch was, um die Bandbreite beider Leitungen gemeinsam zu nutzen und das scheint nicht wirklich zu gehen. Alle Anleitungen dazu beziehen sich auf Zugriffe auf Webserver, SQL-Server, etc. aber nichts auf wirkliches Routing zwischen zwei Netzen....leider!
danke! Peter.
On Wednesday 12 July 2006 17:29, pzabelt@sz-online.de wrote:
Liebe "group-members"!
Ich plage mich nun bereits seit einiger Zeit mit dem oben genannten Problem herum und schmore dabei immer nur im "eigenen Saft"...
Ich soll eine Verbindung zwischen zwei Standorten (Netzwerken) hochverfügbar machen. Die Verbindung sieht etwa so aus:
Netzwerk - - - -Linuxrouter1-1 - - - - <"Leitung"> - - - - - Linuxrouter2-1 ------Netzwerk2
|- - [Linurouter1-2]- - -[separate "Leitung"] -
-[Linuxrouter2-2]- -|
Nun dachte ich mir, dass ich das gleiche nochmal parallell aufbaue (in den [ ]!) und über die beiden Linuxrouter auf jeder Seite eine Failover-Lösung realisere. Das habe ich sowohl per heartbeat oder keepalived gemacht. Das nützt mir nur leider gar nix, weil ich so zwar die beiden Router einer Seite umschalten kann, die auf der anderen Seite merken das aber überhaupt nicht... :-(
Kennt sich jemand damit aus und kann mir weitere Tipps geben?????
Hi,
ich denke Du suchst http://de.wikipedia.org/wiki/VRRP
Liebe Gruesse, Jan.
-----BEGIN GEEK CODE BLOCK----- Version: 3.1 GIT d-- s+: a- C+++ UL++++ P+ L+++ E- W+++ N+++ o++ K++ w--- O M V- PS PE Y++ PGP++ t-- 5 X R tv- b+ DI- D++ G++ e++ h-- r+++ y+++ ------END GEEK CODE BLOCK------ _______________________________________________ Lug-dd maillist - Lug-dd@mailman.schlittermann.de http://mailman.schlittermann.de/mailman/listinfo/lug-dd
On Friday 14 July 2006 15:24, pzabelt@sz-online.de wrote:
Hallo Jan!
Ja: vrrp ist ja z.B. mit dem genannten heartbeat zu machen. Das läuft jetzt auch schon fast sauber im Failover-Betrieb, ich such noch was, um die Bandbreite beider Leitungen gemeinsam zu nutzen und das scheint nicht wirklich zu gehen. Alle Anleitungen dazu beziehen sich auf Zugriffe auf Webserver, SQL-Server, etc. aber nichts auf wirkliches Routing zwischen zwei Netzen....leider!
An der Stelle brauchst Du ein Routingprotokoll. Zu empfehlen waere OSPF, da sehr gut fuer interes Routing geeignet ist noch dazu laesst sich der "Verbingsaufbau" der Nachbar bezueglich der Sitzung der Router verschluesseln. Eine gelaeufige Implementierung bietet hier quagga (www.quagga.net).
Gruss, Jan.
On 7/14/06, pzabelt@sz-online.de pzabelt@sz-online.de wrote:
Alle Anleitungen dazu beziehen sich auf Zugriffe auf Webserver, SQL-Server, etc. aber nichts auf wirkliches Routing zwischen zwei Netzen....leider!
Rein gefühlsmäßig steht dazu was im lartc howto; etwa hier: http://lartc.org/howto/lartc.rpdb.multiple-links.html .
Torsten
On Wed, Jul 12, 2006 at 05:29:49PM +0200, pzabelt@sz-online.de wrote:
Liebe "group-members"!
Ich plage mich nun bereits seit einiger Zeit mit dem oben genannten Problem herum und schmore dabei immer nur im "eigenen Saft"...
Ich soll eine Verbindung zwischen zwei Standorten (Netzwerken) hochverfügbar machen. Die Verbindung sieht etwa so aus:
Netzwerk - - - -Linuxrouter1-1 - - - - <"Leitung"> - - - - - Linuxrouter2-1 ------Netzwerk2 | | |- - [Linurouter1-2]- - -[separate "Leitung"] - -[Linuxrouter2-2]- -|
Hallo,
leider ist obiges Diagramm wohl durch den Zeilenumbruch etwas entstellt worden. Wenn ich es richtig verstanden habe: Du hast zwei Netze, zwei Leitungen und vier Linuxrouter.
In einem Netz stehen jeweils zwei Router. Aus meiner Sicht solltest du die beiden Linuxrouter die im gleichen Netz sind per Heartbeat verbinden (Schutz vor Ausfall eines Routers) und die beiden Leitungen mit einem Routingprotokoll absichern (Schutz vor Ausfall einer Leitung). Es gehen also Hearbeat Pakete nie zwischen den beiden Netzen hin- und her.
Im Netzwerk1 und Netzwerk2 hast du jeweils das Defaultgateway auf eine IP gesetzt, die sich die mit Heartbeat verbundenen Rechner "teilen".
Wenn, wie es scheint, beides für dich Neuland ist, dann entscheide dich erst für eines der Probleme: Routingprotokoll bzw. Heartbeat. Du solltest abschätzen was öfter ausfällt: Rechner oder Netz. Das zweite kann dann vermutlich recht unabhängig von dem Nächsten gemacht werden.
Gruß, Thomas
Liebe "group-members"!
Ich plage mich nun bereits seit einiger Zeit mit dem oben genannten
Problem herum und schmore dabei immer nur im "eigenen Saft"...
Ich soll eine Verbindung zwischen zwei Standorten (Netzwerken) hochverfügbar machen.
.....
So, quasi als Abschluss dieses Threads, will ich mich nochmal melden. hab's geschafft! Meine zwei Routerstrecken laufen jetzt als "HA"-Linkstrecken, also, wenn eine ausfällt, dann übernimmt die andere und umgekehrt! Das alles ist ausschließlich mit heartbeat realisiert. Vielen Dank für alle Tipps und Hinweise!
Peter.
...oder bring' ich was durcheinander...???
Gruß! Peter.
On Wed, Oct 11, 2006 at 06:07:59PM +0200, pzabelt@sz-online.de wrote: Hi,
...oder bring' ich was durcheinander...???
Ja, ab 20:00 Uhr im GAG18
Ciao, Tobias
Danke, Tobias!
Peter.
On Wed, Oct 11, 2006 at 06:07:59PM +0200, pzabelt@sz-online.de wrote: Hi,
...oder bring' ich was durcheinander...???
Ja, ab 20:00 Uhr im GAG18
Ciao, Tobias -- Separate politics from religion and economy! The Council of the European Union is an undemocratic and illegal institution! _______________________________________________ Lug-dd maillist - Lug-dd@mailman.schlittermann.de http://mailman.schlittermann.de/mailman/listinfo/lug-dd
'n Abend,
nun ein LTE-Router. Ich möchte auf dem Standard-Gateway nun in der Lange sein zum Beispiel allen ausgehenden HTTP/HTTPS Traffic über LTE zu routen, den "Rest" aber über den angeschlossenen DSL-Router.
Ich antworte mir mal selber, denn mein Ansatz war offenbar nicht so schlecht:
# für mit "3" markierte Paktet gilt routing table "table 3" ip rule add fwmark 3 table 3 # default gateway für "table 3" setzen ip route add table 3 default via 192.168.178.2 # http/https traffic bei weiterleitung mit "3" markieren iptables -t mangle -A PREROUTING -p tcp --dport 80 -j MARK --set-mark=3 iptables -t mangle -A PREROUTING -p tcp --dport 443 -j MARK --set-mark=3 # lokal erzeugten http/https traffic bei ausgang mit "3" markieren iptables -t mangle -A OUTPUT -p tcp --dport 80 -j MARK --set-mark=3 iptables -t mangle -A OUTPUT -p tcp --dport 443 -j MARK --set-mark=3
Ich hab obiges erfolgreich lokal vom Gateway und auch von einem Client im LAN getestet.
Ferierabend!
Mit freundlichen Grüßen / Kind regards Ronny Seffner
lug-dd@mailman.schlittermann.de