[Berlin-wireless] Zusammenhang basic-rate, Durchsatz; Optimierung der LQ Bestimmung, mal testen?
Oliver Brill
oliver-brill
Mi Mär 15 17:36:41 CET 2006
Marco Tidow schrieb:
> Soweit so einfach, eigentlich.
>
> Andererseits wird der Grenzwert eben nicht als Feldstärke, die zur Überprüfung
> in einem beliebig kleinen Zeit-Intervall zu bestimmen wäre, definiert,
> sondern als Leistung, was den realen Meßmöglichkeiten, e.g. Ladung eines
> Kondensators via HF-Gleichrichter oder Erwärmung einer Referenzmasse durch
> die Mikrowellen-Strahlung geschuldet ist. Dabei kommt jedenfalls ein
> Zeit-Intervall ins Spiel (die Dauer eines Meßzyklus), während dessen das
> Mittel der rezipierten Leistung (ihr Ladungs- oder Wärme- _Equivalent_ !)
> bestimmt wird.
>
> Das alte Drama, messen heißt vergleichen. Durch jede Meßung verfälsche ich
> jedoch den Gegenstand derselben (Old-Heisenberg grüßt Murphy). Also begnügt
> man sich mit dem praktisch Machbaren, oder für sinnvoll gehaltenen.
>
> Insofern liegt die Betonung auf radiated-power über ein Intervall gemittelt.
> Damit befreit man sich vom Zwang, etwas über den konkreten (impuls-artigen)
> zeitlichen Verlauf der Funksignale, etwa Tastverhältnis oder Modulations-
> Art festzulegen. Sicherlich bei Stand der Festlegung auch in Hinblick auf
> die bis dato (wissentschaftlich verstandenen) angenommenen Wirkungen auf den
> menschlichen Organismus so definiert.
>
> Konkret in der Praxis stellt sich damit die Frage, ob mit basic-rate gesante
> Teile der wlan-packets in der Luft andere Ausbreitungs-Reichweiten erzielen
> als die in sie eingebetteten Nutzdaten.
>
> o.k. Zeit für's Bett, marco
>
Hi Marco.
Ja da hast du recht. Rein technisch gesehen ist es schon so, dass bei
der Messung auch noch das Tastverhältnis und sogar die Modulationsart
also eine über eine definierte Zeitspanne betrachtete Mittelwertleistung
berücksichtigt wird, und nicht nur die reine Spitzenleistung.
Auf dem Papier zählt jedoch die Spitzenleistung, wie in der Praxis
gemessen wird ist ja wieder was anderes. Den Verlustfreien
ISO-Kugelstrahler gibts ja auch nur in der Theorie.
Aber es ist in der Praxis auch sehr schwer die exakte Sendeleistung
eines Senders wie z.B. einem W-Lan Accesspoint in einer tatsächlichen
Einsatzumgebung zu bestimmen. Das geht genau nur im Labor mit fest
definierten Umgebungseigenschaften. Oder eben indem man keine Antennen
verwendet, sondern mit einem Meßgerät direkt am Ausgang des Senders
misst. Alles andere ist mehr oder weniger nur abschätzen.
Reichweite, Erhöhung der Basic Rates und deaktivierung von langsamen
Bitraten:
Dazu denke ich folgendes:
Bezüglich der Reichweite der in Basic Rate gesendeten Informationen kann
ich bestätigen, dass diese Daten bei der W-Lan Standardkonfiguration
eine größere Reichweite haben als die Nutzdaten (sofern diese mit einer
größeren Geschindigkeit gesendet werden)
Das ist ja auch der Sinn der Sache. Denn über diese Aussendungen wird ja
auch das Wlan identifiziert und auch geschaut, ob der Kanal zum Senden
frei ist, ausserdem wird bei einem Übertragungsfehler ja auch erstmal
auf die Basic-Rate runtergeschaltet.
Eine Erhöhung der Basic-Rate hat den Vorteil, dass bei einem Fehler
weniger Zeit verloren geht, da die Neuanforderung und das wieder
hochschalten auf höhre Übertragungsraten eben deutlich schneller geht.
Nachteil ist eben, dass das Netz nicht mehr so weiträumig "zu sehen"
ist, und das evtl inkompatible Geräte auch Probleme mit sowas bekommen
könnten.
Und einen ganz entscheidenden Nachteil hat es, wenn man die langsamen
Bitraten komplett deaktiviert und auch die Basic-Rates höher setzt:
Das Netz wird zwar schneller aber "instbile" teilnehmer fliegen
schneller komplett raus, die Verbindung reisst schneller komplett ab,
das "durchdrücken" von Daten über ne schlechte Verbindung unter
inkaufnahme einer langsameren Geschwindigkeit gibt es dann so nicht mehr.
Ich Persönlich halte aber ein System, was um jeden Preis versucht, Daten
zu übertragen, wenn dann auch sehr langsam, besser. Ein System was
frühzeitig zu gunsten einer allgemein besseren Geschwindigkeit nicht
mehr nutzbar ist finde ich weniger gut.
Man kann es auch anders lösen, man muss nicht gleich die Rates
hochsetzen. In Packet Radio hat man auch versucht, mit schlechten
Stationen fertig zu werden. Dort gibts einfach gesagt unter anderem den
Ansatz dass die schlechten Stationen einfach softwaremäßig ausgebremst
werden. Die dürfen auf die Zeit gesehen dann einfach weniger Pakete
senden als die guten, in dem sie quasi softwaremäßig ne "auszeit"
verpasst bekommen wenn sie ein Paket nicht richtig empfangen
haben.(Prinzip: Erst dürfen jetzt mal alle anderen und irgendwann darfst
du dann mal wieder neu anfordern und nochmal versuchen) So versucht man,
die Frequenz von übermäßig vielen Wiederholungen innerhalb kürzester
Zeit freizuhalten. Und nach einer definierten Anzahl von fehlerhaften
Versuchen wird einfach gekickt.
Natürlich kann man das alles auch recht einfach umgehen.
Gruß Oliver
_______________________________________________
Berlin mailing list
Berlin at olsrexperiment.de
https://www.olsrexperiment.de/cgi-bin/mailman/listinfo/berlin
Mehr Informationen über die Mailingliste Berlin