[Berlin-wireless] HNA 0/0 Auswahl - was: Qualität Internetanbindung Bouchestr.

Marco Tidow martidow
Do Jan 26 01:08:22 CET 2006


On Tue, Jan.24. 13:28 +0100, Sven-Ola Tuecke wrote:
> [...] und ein bisschem mehr Verkehr fuer anderen 
> Gateway-Betreibern waer sicher auch was feines...

moinmoin et-al,

diese Bemerkung Sven-Ola's bringt mich mal wieder dazu,
über die "Nicht-Auswahl" des default-gateways nachzudenken,
will sagen, das im wahrsten Sinn nächste HNA 0/0 anouncende
Funk-Vehikel muß herhalten, aber leider nicht immer das "beste",
und schon garnicht alle nach ihren Möglichkeiten.

Wenn ein HNA 0/0 mit 8Mbit Inet-bandbreite nur einen hop "hinter"
dem ersten HNA 0/0 mit nur 1Mbit existiert, bleiben die 8Mbit von Inet-
traffic komplett verschont...

Beispiele dieser Konstellation gibt es schon mehrere, z.B. pennt
der node 104.130.1.14 mit lokaler DSL nur rum, weil unmittelbar "vor"
ihm andere (104.129.29.x ?, 104.129.43.x ? topologie.dot sagt, im Moment
gibt's gar kein HNA 0/0 ...) selbst exklusiv Inet-gateway spielen.

(o.k., "pennt" ist relativ, cpu-Last liegt trotz fisheye bei 60-80%,
aber eigentlich sollte ein Funk-Router primär was anderes als purer
olsrd-Prozessor sein, sorry @Sven-Ola u.a. ;-)



"Ideal-Lösung" sähe so aus, einen "pool" der verfügbaren Inet-Bandbreite
zu haben, den sich clients symmetrisch teilen, während die Last auf
die gateways aber proportional zu ihrer downstream-Kapazität verteilt
wird.

Stichworte, die mir dazu in den Sinn kommen,
("Leitungen" währen in diesem Fall IP-tunnel, keine Ahnung ob bonding
überhaupt auf tun/tap funktioniert, hat das schon mal jemand probiert?
ja ich weiß, mein Freund heißt google, der Abend ist ja noch lang)

jeder ff-router macht

  "ingress-shaping" auf tun/tap Tunnel-Enden

    hierfür müßte info über die jeweilige Inet-Anbindung
    der erreichbaren HNA-0/0-nodes, ggfs. Auslastung etc. ermittelbar sein

    abhängig davon würde man laufend das lokale shaping nachstellen
    (tricky, damit announce-te fake-Monster-gateways nicht real-existierende
     abschnüren, DoS oder normale win$-user, etc.)

kombiniert mit

  device-bonding der ge-shape'ten Tunnel-Enden

    schon mit wired 100Mbit benutzt, weiß aber nicht, ob
    und wie das mit verschieden "dicken" Leitungen skaliert

    IMHO ist es aber eigentlich für dedizierte links zwischen zwei
    Endpunkten konzipiert, nicht für "congested-segments", wie
    Funkstrecken, ggfs. dasselbe Problem wie mit manchen traffic-
    shaping algos, die eine konstante Bandbreite vorraussetzen (e.g. SFQ)

    einen simplen Test werde ich mal zuhaus mit bonding einer 100Mbit und
    einer 10Mbit ethernet machen, habe zwischen mehreren Kisten noch beides
    parallel laufen, congestion läßt so sich leicht simulieren :-)

default-gateway device wäre dann z.B. "bond0"


in allen Szenarien, die mir einfallen, gibt es dann aber das

  "Problem der Gegenseite":

e.g. zwei (oder mehr) über verschiedene ISP's laufende outbound (ins Inet)
Anbindungen wieder zusammenzufassen, setzt einen server im Inet vorraus,
der das übernimmt und "masqueraded", ergo traffic-Kosten :-( .

Notwendig, damit session-orientierte Protokolle nicht wegen dauernd
wechselnder src-IP-Adressen abreissen, etc.
(Leider auch nicht auf genau diese beschränkbar, so daß der bulk-
traffic z.B. direkt vom/zum beliebigen DSL-gateway <-> Inet ginge,
da hakt es wieder mal am NAT-ing der DSL-router)

Auch fraglich, ob ein kommerzieller Provider mitspielt; vielleicht über
eine Uni/Hochschule, den DFN?


Hat jemand Lust, solch ein Szenario mal zu testen, vielleicht mit
einer Gegenseite bei Brande (vorrausgesetzt das ginge) ?

marco


P.S. dieses Stichwort scheint mir dann doch zu fett oder auch am Ziel
     vorbei u gehen:

"IPVS (IP Virtual Server)
  implements transport-layer load balancing
  inside the Linux kernel, so called Layer-4 switching"


_______________________________________________
Berlin mailing list
Berlin at olsrexperiment.de
https://www.olsrexperiment.de/cgi-bin/mailman/listinfo/berlin





Mehr Informationen über die Mailingliste Berlin