Es ist schon paradox: Da findet in Las Vegas eine Hightech-Messe mit 140.000 Besuchern statt. Hauptthema ist, wie technische Geräte aller Bauart kabellos mit dem Internet versorgt werden können. Und dann kommt nur ein Bruchteil der Messebesucher überhaupt ins Internet. Die wenigen LAN-Arbeitsplätze im Pressebereich sind die meiste Zeit über besetzt, daran, sich in ein WLAN einzuwählen, ist überhaupt nicht zu denken, und selbst der Zugang über das Mobilfunknetz ist chronisch überlastet.
Wenn WLAN bei derart großen auch auch bei deutlich kleineren Konferenzen derart unbrauchbar wird, stellt sich die Frage nach einer Alternative. LTE oder WiMax? Wohl auch nur bedingt, weil die Kapazitäten einer Funkzelle bei großen Konferenzen ähnlich überlastet sind. Ziel muss es sein, die höchstmögliche Bandbreite aufzubauen und sie unter möglichst vielen Nutzern zu verteilen. Es kommt also nicht auf höchste Reichweiten an wie bei WiMax, auch nicht auf hohe Bandbreiten wie bei LTE oder WLAN. Wer auf Konferenzen ins Web geht, ist meistens weg von Zuhause und dem Arbeitsplatz, will also seine Mails checken, Statusupdates verschicken oder Nachrichten-Websites aufsuchen. Dafür braucht es nicht mehrere Mbit/s.
Es muss was Neues her
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media und PR Specialist (m/w/d) BeA GmbH in Ahrensburg |
||
Social Media Manager B2B (m/w/d) WM SE in Osnabrück |
200 kbit/s pro Nutzer dürften schon ausreichen, also EDGE-Geschwindigkeit. Die Veranstalter könnten das Freemium-Modell hierauf übertragen: bis 200 kbit/s kostenlos, wer mehr will, um etwa Videos zu streamen, soll dafür bezahlen – und dann aber auch eine Mindestgeschwindigkeit garantiert bekommen. Wichtiger ist es für das Netz, möglichst viele Teilnehmer zuverlässig zu versorgen.
Spielen wir das einmal durch, etwa mit der Re:publica in Berlin, bei der in diesem Jahr 2.700 Gäste erwartet werden. Es ist davon auszugehen, dass davon jeder mindestens ein WLAN-fähiges Gerät vor Ort dauerhaft benutzen wird. Gehen wir von 3.000 Geräten aus, die jeweils mit 200 kbit/s angebunden sind, benötigten wir bei einfacher Rechnung eine Bandbreite in Höhe von 600.000 kbit/s, also – die 1024er-Rechnung hier der Einfachheit halber einmal außer Acht gelassen – 600 Mbit/s. Mit einer intelligenten Software ließe sich die Zahl der Teilnehmer erhöhen, etwa wenn das System herausfinden kann, wer seinen Zugang dauerhaft voll ausreizt und wer seine 200 kbit/s nur zeitweilig braucht.
WLAN nicht für große Konferenzen geeignet
600 Mbit/s jedenfalls ließen sich theoretisch schon mit einigen SDSL-Anschlüssen und Access-Points realisieren. Andere Anwendungen wie Live-Streaming der Konferenz und Zugang für die Vortragenden und die Presse sollten idealerweise über ein separates Netz realisiert werden. Wenn auf der CES 140.000 Besucher zugegen sind und alle gleichzeitig ins Internet wollen, erhöht sich der Aufwand natürlich enorm. Einmal wegen der deutlich höheren Nutzerzahl, aber auch wegen der viel größeren Fläche, die abgedeckt werden muss. Als Bandbreite müssten dann bei gleicher Berechnung wie oben insgesamt 28 GBit/s zur Verfügung stehen.
Ist WLAN überhaupt die richtige Technik dafür? Eher nicht. Ein Klasse-C-Netz ist auf maximal 253 Nutzer beschränkt. In der Praxis aber dürfte ein Netz schon mit mehreren dutzend Teilnehmern an seine Grenzen stoßen. Geht man nun noch davon aus, dass man ja eigentlich hin will zur Komplettvernetzung der Gesellschaft, also dass möglichst jeder künftig mit Laptop, Tablet, Smartphone, Armbanduhr, etc. ins Netz will, reicht WLAN auf gar keinen Fall mehr. Dann muss etwas Neues her. Eine Zwischenlösung aus WLAN und LTE, ein mobiles Micro-WAN, das die oben genannten Anforderungen erfüllt oder gerne noch übertrifft. Und ich vermute, das muss erst noch erfunden werden. Wer da eine Idee hat: immer her damit!
(Jürgen Vielmeier, Bild: Trendnet)
Och, die Hochschulen kriegen das auch wunderbar mit WLAN geregelt. Aber ich gebe dir recht, der Verwaltungsaufwand liese sich mit anderen Techniken sicher minimieren.
Also meine Hochschule kriegt das ganz und gar net geregelt. Mit Cisco-VPN aus dem man die ganze Zeit rausfliegt und einem Brems-Proxy ist das nun wahrlich keine Pracht, aber leider sind die Verantwortlichen Beratungsresistent.
Hochschulen können auch nur begrenzte Teilnehmerzahlen in die WLANs aufnehmen. Und da ist technisch bei Cisco APs bei ~400Nutzern pro AP Schluss. Vielleicht geht noch das doppelte irgendwie, mehr geht beim besten Willen nicht. Also wird der Rest per VPN und sonstigem Zeug geregelt. Das vermiest die Latenz, ist meist nicht sonderlich stabil und es ist eben auch keine intelligente (rechnende) Software.
Ich gebe dem Autor recht, hierfür gibt es noch keine Lösung bisher. Sinnvoll wäre aber wohl, das ganze aufzuteilen. Jeder wählt sich über einen zentralen AP ein, wird dann je nach benötigten Ressourcen per UMTS/LTE oder SDSL/KabelDSL zugeordnet. So kann man 2 Netze nutzen, keins überlasten. Zukunftsgeschwirr ist es aber dennoch. Mit Kabel bekommen wir ja max 100MBit momentan, LTE gibts noch gar nicht wirklich.
Bei uns an der TU Darmstadt (und vermutlich auch in den ganzen anderen eduroam-Netzen) klappt das eigentlich relativ problemlos:
Mehrere WLAN-Access-Points / – Repeater verteilt über das Hochschulgelände, mit selber SSID, automatischer Übergabe und eine ausreichend großem Subnetz (130.83.0.0/16 > theoretische 65533 IPs) bekomme ich so ziemlich überall locker 1-5 MBit/s hin, bei einer 10GE-Anbindung.
Wenn ich im Hörsaal einen 100GB-Download starte, kann ich ohne weiteres mit dem Notebook zehn Gebäude weiter zur Mensa laufen, die Verbindung bricht nicht ab.
Es ist nicht unbedingt die fehlende Bandbreite, die Kommunikation auf Messen zur Hölle auf Erden macht. Es sind die vielen Geräte auf einem Fleck, die oft gar nicht viel mehr machen als einfach nur angeschaltet zu sein.
Bluetooth Headsets, Handys mit Bluetooth an, Handys auf Wifisuche, Tablets auf Wifisuche, Laptops auf Wifisuche, etc … auch wenn Wlan reguliert sein sollte, dann wird es auf so einer Technikmesse eine Menge Gadgets geben, die unabsichtlich doch funken bzw. zu Demonstrationszwecken ja funken müssen. Internet per Handy funktionierte bei mir allerdings bisher immer problemlos … kostet halt was.
aufm CCC läuft doch auch ein W-LAN Netz, und bei dem Publikum braucht *jeder* mehr als die vorgeschlagenen 200 kbit/s – und die bekomen ihr Netz doch auch gebacken? So schwer kann das nicht sein.
@Arno Nyhm: Klingt mir ganz nach Heidelberg….?
Ich habe mich in den letzten Tagen gefragt, wie es möglich war von der CES Live streams zu realisieren?
TechCrunch hat dies nun auf ihrem Blog beschrieben:
http://bitURL.net/azpa
Hier der Link zum Rucksack:
http://bitURL.net/azpb
@4 hopps,
Wir haben an der TU Berlin auch EDUROAM und es funktioniert ganz und gar nicht gut. Sobald sich mehr als 50 Leute in einen AP einwählen bricht alles zusammen. (In fast jeder Vorlesung)
Dasselbe in der Mensa und in der Bibliothek. Zu den Stoßzeiten kann man sich nicht anmelden. Es ist in den letzten Monaten schon ein wenig besser geworden aber immernoch alles andere als Ideal.
„Ein Klasse-C-Netz ist auf maximal 253 Nutzer beschränkt.“
VLSM FTW!;-)
da lob ich mir doch das gute alte Kabel 😉
Wir brauchen alle Wlan 2.0! 😉
@#6: Jo, nur die komplette Netzwerktechnik am ccc macht die truppe vom Amsterdamer Internet Exchange, da kann mann dann schon erwarten dass die die Bandbreite von ganz Afrika für die paar Tage zur Verfügung stellen können…
WLAN auf Veranstaltungen oder gut besuchten öffentlichen Plätzen ist ein Thema für Experten. Im Kern muss die Reichweite eines AP mit zu erwartenden Zahl an Nutzern abgestimmt werden und i.d.R. künstlich begrenzt werden, z.B. indem der Abstrahlwinkel begrenzt wird und dafür gleich 4 AP nebeneinander montiert werden.
Jedenfalls sollte man niemand, der nicht schon erfolgreich Veranstaltungen mit technophilen Besuchern ausgerüstet hat, glauben, dass er es hinbekommt ohne weiter nachzufragen.
Was hat die Aussage das in einem Class-C Netz „nur“ 253 User gehen mit der Qualität von WLAN zu tun?
Woher kommt die Vermutung das ein WLAN schon mit ein paar Dutzend Users überlastet ist?
Wie heißt es so schön: Alles eine Frage der Technik
Große Unis und andere Institutionen bekommen es ja hin…..
muss #15 recht geben, wtf Class-C-Netz? wenn ich laune hab kann ich auch nen Class-A-Netz nehmen und das sollte reichen?….
Hier scheint einiges an Technik durcheinander geworfen zu werden. Die Netzklasse hat, wie schon geschrieben, erstmal nichts mit der maximal möglichen Teilnehmer Zahl zu tun. Vielmehr ist die Zellenstruktur oft ein Problem. Sind die Zellen zu groß, buchen sich zu viele Teilnehmer auf einer Zelle ein. Sie müssen also, wie ebenfalls schon geschrieben, verkleinert werden. Durch Leistungsbeschränkung, Richtantennen etc.
Aber selbst das ist meiner Meinung nach keine dauerhafte Lösung. Ich sehe die Zukunft in Mesh-Netzen. Leider sieht man sowas, außer bei der Freifunk-Initiative, sehr selten in der Praxis. Zumindest auf dem Papier hört sich sowas sehr gut an. Irgendwie wird viel zu wenig in diese Richtung geforscht bei den Herstellern.
Also in meiner Uni hatte ich bisher noch nie Probleme mit dem eduroam-Netz.. Aber gut, ich surfe auch nur gelegentlich oder lade mir ein paar Apps.. Sind jetzt keine großen Downloads dabei, die tätige ich dann doch zuhause per Kabel 😉
MfG
Widerspricht dies eigentlich dem Ansatz der Netzneutralität?
Es wird gefordert bei einer Konferenz die Bandbreite privilegierten Personen (hier die Presse an der Hochschule zB Profs) gesichert zur Verfügung zu stellen und die Bandbreite künstlich zu begrenzen. Desweiteren sollten Videos extra kosten, da sie mehr Bandbreite brauchen. Die Regulierung sollte der Anbieter des Netzes (hier die Messe, bei der Netzneutralität der Provider) durchführen. Da frage ich mich natürlich, ob die Netzneutralität überhaupt sinnvoll ist:-) Bandbreite kriegt der, der bezahlt bzw. privilegiert ist. Vielleicht sollten auch Daten von bestimmten „wichtigen“ Informationen priorisiert werden, z.B. das erste Xoom-Video kommt mit max. Bandbreite, jedes weitere mit der Hälfte, Viertel, Achtel etc. und Pressemeldungen von Google, Samsung und Facebook sind wichtiger als Blogeinträge von Basic Thinking oder umgekehrt;-)
Gruss aus dem Norden
Andreas
Wenn man im (WLAN-)Router NAT verwendet, gibt es natürlich keine „wirklichen Grenzen an IPs“ … dann könnte ich auch just 4 fun 0.0.0.0/0 nehmen… oder halt 10.0.0.0/8 whatever.
Ohne NAT, d.h. mit Public-IP, ist das halt was anderes. 🙂
Danke für die nette Zusammenfassung zum Thema WLAN. Werde ich auf jeden Fall weiterempfehlen. Danke, Ruben.
Also ich sehe die Zukunft in meshup Netzwerken. Kein andres sSystem ist so effizient. Abgesehen davon dass die Systeme mittlerweile akzeptabel stabil und zuverlässig sind. Beliebige Anzahl von uplinks und damit gesicherte Bandbreite. Nur Vorteile.