[Berlin-wireless] Zusammenhang basic-rate, Durchsatz; Optimierung der LQ Bestimmung, mal testen?

Oliver Brill oliver-brill
Mi Mär 15 17:36:41 CET 2006


Marco Tidow schrieb:
> Soweit so einfach, eigentlich.
>
> Andererseits wird der Grenzwert eben nicht als Feldstärke, die zur Überprüfung
> in einem beliebig kleinen Zeit-Intervall zu bestimmen wäre, definiert,
> sondern als Leistung, was den realen Meßmöglichkeiten, e.g. Ladung eines
> Kondensators via HF-Gleichrichter oder Erwärmung einer Referenzmasse durch
> die Mikrowellen-Strahlung geschuldet ist.  Dabei kommt jedenfalls ein
> Zeit-Intervall ins Spiel (die Dauer eines Meßzyklus), während dessen das
> Mittel der rezipierten Leistung (ihr Ladungs- oder Wärme- _Equivalent_ !)
> bestimmt wird.
>
> Das alte Drama, messen heißt vergleichen.  Durch jede Meßung verfälsche ich
> jedoch den Gegenstand derselben (Old-Heisenberg grüßt Murphy).  Also begnügt
> man sich mit dem praktisch Machbaren, oder für sinnvoll gehaltenen.
>
> Insofern liegt die Betonung auf radiated-power über ein Intervall gemittelt.
> Damit befreit man sich vom Zwang, etwas über den konkreten (impuls-artigen)
> zeitlichen Verlauf der Funksignale, etwa Tastverhältnis oder Modulations-
> Art festzulegen.  Sicherlich bei Stand der Festlegung auch in Hinblick auf
> die bis dato (wissentschaftlich verstandenen) angenommenen Wirkungen auf den
> menschlichen Organismus so definiert.
>
> Konkret in der Praxis stellt sich damit die Frage, ob mit basic-rate gesante
> Teile der wlan-packets in der Luft andere Ausbreitungs-Reichweiten erzielen
> als die in sie eingebetteten Nutzdaten.
>
> o.k. Zeit für's Bett, marco
>   

Hi Marco.

Ja da hast du recht. Rein technisch gesehen ist es schon so, dass bei 
der Messung auch noch das Tastverhältnis und sogar die Modulationsart 
also eine über eine definierte Zeitspanne betrachtete Mittelwertleistung 
berücksichtigt wird, und nicht nur die reine Spitzenleistung.
Auf dem Papier zählt jedoch die Spitzenleistung, wie in der Praxis 
gemessen wird ist ja wieder was anderes. Den Verlustfreien 
ISO-Kugelstrahler gibts ja auch nur in der Theorie.
Aber es ist in der Praxis auch sehr schwer die exakte Sendeleistung 
eines Senders wie z.B. einem W-Lan Accesspoint in einer tatsächlichen 
Einsatzumgebung zu bestimmen. Das geht genau nur im Labor mit fest 
definierten Umgebungseigenschaften. Oder eben indem man keine Antennen 
verwendet, sondern mit einem Meßgerät direkt am Ausgang des Senders 
misst. Alles andere ist mehr oder weniger nur abschätzen.


Reichweite, Erhöhung der Basic Rates und deaktivierung von langsamen 
Bitraten:
Dazu denke ich folgendes:

Bezüglich der Reichweite der in Basic Rate gesendeten Informationen kann 
ich bestätigen, dass diese Daten bei der W-Lan Standardkonfiguration 
eine größere Reichweite haben als die Nutzdaten (sofern diese mit einer 
größeren Geschindigkeit gesendet werden)

Das ist ja auch der Sinn der Sache. Denn über diese Aussendungen wird ja 
auch das Wlan identifiziert und auch geschaut, ob der Kanal zum Senden 
frei ist, ausserdem wird bei einem Übertragungsfehler ja auch erstmal 
auf die Basic-Rate runtergeschaltet.

Eine Erhöhung der Basic-Rate hat den Vorteil, dass bei einem Fehler 
weniger Zeit verloren geht, da die Neuanforderung und das wieder 
hochschalten auf höhre Übertragungsraten eben deutlich schneller geht. 
Nachteil ist eben, dass das Netz nicht mehr so weiträumig "zu sehen" 
ist, und das evtl inkompatible Geräte auch Probleme mit sowas bekommen 
könnten.
Und einen ganz entscheidenden Nachteil hat es, wenn man die langsamen 
Bitraten komplett deaktiviert und auch die Basic-Rates höher setzt:
Das Netz wird zwar schneller aber "instbile" teilnehmer fliegen 
schneller komplett raus, die Verbindung reisst schneller komplett ab, 
das "durchdrücken" von Daten über ne schlechte Verbindung unter 
inkaufnahme einer langsameren Geschwindigkeit gibt es dann so nicht mehr.

Ich Persönlich halte aber ein System, was um jeden Preis versucht, Daten 
zu übertragen, wenn dann auch sehr langsam, besser. Ein System was 
frühzeitig zu gunsten einer allgemein besseren Geschwindigkeit nicht 
mehr nutzbar ist finde ich weniger gut.

Man kann es auch anders lösen, man muss nicht gleich die Rates 
hochsetzen. In Packet Radio hat man auch versucht, mit schlechten 
Stationen fertig zu werden. Dort gibts einfach gesagt unter anderem den 
Ansatz dass die schlechten Stationen einfach softwaremäßig ausgebremst 
werden. Die dürfen auf die Zeit gesehen dann einfach weniger Pakete 
senden als die guten, in dem sie quasi softwaremäßig ne "auszeit" 
verpasst bekommen wenn sie ein Paket nicht richtig empfangen 
haben.(Prinzip: Erst dürfen jetzt mal alle anderen und irgendwann darfst 
du dann mal wieder neu anfordern und nochmal versuchen) So versucht man, 
die Frequenz von übermäßig vielen Wiederholungen innerhalb kürzester 
Zeit freizuhalten. Und nach einer definierten Anzahl von fehlerhaften 
Versuchen wird einfach gekickt.
Natürlich kann man das alles auch recht einfach umgehen.

Gruß Oliver

_______________________________________________
Berlin mailing list
Berlin at olsrexperiment.de
https://www.olsrexperiment.de/cgi-bin/mailman/listinfo/berlin





Mehr Informationen über die Mailingliste Berlin