wieder mal ne blabla-Studie, die besagt, dass das Web 2.0 alles nur noch schlimmer macht:
„Die Befragten kritisieren in überraschender Deutlichkeit die für das Web 2.0 typischen Angebote mit weitgehend ungefilterten, nutzergenerierten Inhalten als oberflächlich und nicht förderlich für die eigene Entwicklung“?, fasst Professor Peter Kruse, geschäftsführender Gesellschafter von nextpractice, das Ergebnis der Studie zusammen. „Auch wenn das tatsächliche Konsumverhalten oft noch eine andere Sprache spricht, suchen die Menschen verstärkt nach Medien, die sie dabei unterstützen, sich zurecht zu finden und Zusammenhänge zu verstehen.“?
….
In letzter Konsequenz könnte die anfängliche Web 2.0-Euphorie und deren Auswirkung auf die Medienlandschaft dazu führen, dass eine zweite Internet-Blase nun im Kopf des Nutzers und nicht wie beim ersten Mal an der Börse platzt. „Je mehr Menschen sich aktiv daran beteiligen, das Netz mit Inhalten zu fluten, desto wichtiger und gleichzeitig schwieriger wird es, etwas zu finden, dass man brauchen kann. Ohne innovative Suchmechanismen und die Erhöhung der Bedeutungshaltigkeit entwickelt sich das Internet zum Dinosaurier – großer Körper und zu kleines Hirn“?, warnt Peter Kruse.
Komisch, dass ich seit 10 Jahren nie ein Problem hatte, mich fachlich exzellent mit Dritten via Netz auszutauschen. Und ich bin noch nicht mal ein besonders intelligenter Vertreter der Spezies Homo Sapiens. Dennoch muss man auch feststellen, dass das Web nach wie vor kein System ist, das einem die benötigten Infos auf Knopfdruck liefert. Kein Wunder, ist nicht jeder Mensch vom Internet fasziniert, je weniger Training via Nutzung aber, desto eher kommt der Effekt hoch, dass man zugeschüttet wird. Dennoch ist das Netz dem User in vielen Belangen meiner Meinung nach entgegengekommen. Kein Wunder, dass Suchmaschinen wie Google ungemein beliebte Anlaufstellen geworden sind. Mit Social Bookmarking, Social News, Social Commerce etcpp. werden die User erst nach und nach warm, fördern sie doch im Gegensatz zu Google und Co. eben nicht das dominante Attribut eines jeden Nutzers: Faulheit. Es gibt kein Gesetz, das Einfachheit vorschreibt, IT ist nicht einfach. Doch letztlich sehe ich das sehr entspannt: der Mensch als solches passt sich über Generationen hinweg an. Schließlich hats auch etwas beim Feuer Machen gedauert, bis man den Dreh raus hatte:))
hatte dazu gestern auch was geschrieben…
http://blog.magix.net/de/archives/377-Web2.0-grosser-Koerper-kleines-Hirn.html
…selbst wenn Herr Professor Peter Kruse Recht haben sollte mit seinem Dinosauriervergleich, den ich aus meiner Erfahrung heraus auch nicht bestätigt sehe; gut dann stirbt das Inet wie wir es gerade kennen eben, genauso wie die Dinos…na und? Es wird etwas Neues, Vergleichbares, Verbessertes dabei herauskommen und sobald ich davon hören, werde ich wieder dabei sein. 😉
Außerdem denke ich, dass genau an den Lösungen der genannten Problematiken gearbeitet wird, Stichwort „Semantik“ u.Ä.
Und da sich alles im Fluss befindet und ständig am Weiterentwickeln ist, so dass die Herangehensweise über künstlich erzeugte, statische „Ist-Zustandsbeschreibungen“ bei so etwas Komplexem wie dem Netz soweiso zu kurz greift und die Ergebnisse u.U. innerhalb von Tagen schon wieder überholt sind, muss man solche „Ergebnisse“ mMn eher gelassen sehen…
„Schließlich hats auch etwas beim Feuer Machen gedauert, bis man den Dreh raus hatte:))“ – netter Vergleich, mußte Schmunzeln…
Aber genau da liegt doch auch die Chance beim WEB2.0 – jetzt ist endlich mal die Masse an Nutzer da (früher waren Internet-Benutzer ja nur Nerds). Je einfacher die Applikationen werden, desto schneller werden sie auch groß und erfolgreich. Immer wieder faszinierend, wie ganz einfache Applikationen wachsen wie verrückt, dagegen aber komplizierte und mit (zu) vielen verschiedenen Features versehene Dienste kaum Chancen haben…
Ich finds noch immer spannend… das WEB2.0… 🙂 und was irgendwelche Professoren sagen – who cares?
Heute wurde noch eine Studie von Berlecon Research dazu veröffentlicht: http://tinyurl.com/2qa7z6
Danach glauben annähernd 90 Prozent der befragten Unternehmen „dass die Anforderungen an eine effiziente Zusammenarbeit und den Austausch von Wissen in den vergangenen Jahren stark oder sehr stark gestiegen sind“. Gleichzeitig fühlt sich jedoch weniger als die Hälfte der Befragten bei diesen Herausforderungen ausreichend durch Informations- und Kommunikationstechnologien unterstützt. Die Befragten – so die Studie – kämpfen beispielsweise mit irrelevanten Informationen, die mit der massenhaften Nutzung von E-Mails einhergehen oder können die Relevanz der vielfältig verfügbaren Informationen im Inter- oder Intranet nur schwer beurteilen.
Vielleicht ist also doch was dran an der Kritik?
selbstverständlich sind die Anforderungen gestiegen angesichts exponentieller Informationsproduktion, da die Verbrauchswerkzeuge nicht damit Schritt halten könne, wird keiner anzweifeln schätze ich. Was aber in meinen Augen ein absolut zu vernachlässigender Faktor vom Gesamtnutzen her ist. Im langfristigen, gesellschaftlichen Sinne. Die Vernetzung per se schlägt die Infoüberflutung, die technisch lösbar ist. Nicht aber die beschränkte Vernetzung der Menschen aus räumlicher und zeitlicher Sicht, das ohne Technik unlösbar ist.
Zum Begriff „Studie“:
> Im Sommer 2007 befragte nextpractice 150 Personen in mehrstündigen Tiefeninterviews
Noch Fragen zu der Aussagekraft, bzw. Relevanz? 😉
wenn die Auswahl der Personen wiss. fundiert ist, muss die Losgröße kein Problem sein
Ich möchte noch dazu erwähnen das das Unternehmen unter anderem im PR-Bereich tätig ist. Nicht das ich da Vorurteile hätte 😉
das sollte doch kein Problem sein, aus wessen Hand man isst:)
@Robert
>wenn die Auswahl der Personen wiss. fundiert ist, muss die Losgröße kein Problem sein
Willst Du damit sagen, dass DANN keinerlei statistischen Zusammenhänge zwischen Merkmale und empirischen Testwerten mehr besteht? Seltsam – ich dachte immer, dass Studienmethodik bereits etabliert wäre…;-)
Auch in Zeiten des Web 2.0 gilt für *seriöse* Studien: Signifikanz, Relevanz, Reliabilität und Validität. Diese und andere Faktoren machen den Unterschied zwischen einer „Jahrmarktbefragung“ und einer Studie aus…;-)
ich sprach von der Menge der Befragten… aber zur Studie selbst kann ich nix sagen, wie ausgewählt wurde.
es gibt ja doch noch user, die nicht gleich eine lanze über web2.0 brechen…im übrigen glaube ich,dass sich das internet bereits zu einem brachiosaurus transformiert hat – massenkonsum für massenkonsumenten. nun wird es relevant, den für den user passenden wirbel zu entdecken, sich in dem fein verästelten knochengewühl nicht zu verirren, sondern dem ariadne-faden folgen zu können (wenn er nur erst einmal gefunden ist); nicht einfach ist es, in diesem online-labyrinth die, individuell am besten geeigneten, wege zu finden. entsprechende sites servieren dem user die web2.0-häppchen auf einem silbertablett – er muss nur zugreifen und sich das für ihn passende petit four-modell aussuchen. geschickt werden hier werbung und konsumentenwünsche verknüpft – kann es effizientere wege geben, die dergestalteten möglichkeiten auszuschöpfen?
[…] bei Robert Basic einen Beitrag zum Thema Web 2.0 und die Frage nach der Flut der Informationen gelesen. Dabei geht er auf eine Studie ein, die der Leiter Professor Peter Kruse […]
Ein Hirnforscher macht bzw. lässt mehrstündige Tiefeninterviews machen und beschreibt wie die 150 Probanten das Web 2.0 Angebot bzw. bestimmte Aspekte „erleben“. Na und was ist mit den restlichen ca. 82 Millionen?
Einer der ersten Profs die sich in Deutschland mit Computerkunst (genauer Bildschirm-Kunst) beschäftigten war Wolfgang Bäumler. Ihn hatte ich gebeten ob er nicht mit seinen Studenten was zum Thema „Computer und Kunst“ machen könnte, wir würden das gerne in CHIP veröffentlichen und gerne auch sponsern.
Nach ca. 3 Monaten kam Wolfgang Bäumler und hat uns ganz verzweifelt versucht zu erklären, dass aus dem projekt nichts würde. Seine Studenten würden mit „Computern“ nur Tod, Teufel und Kälte verbinden und so seien auch die eingereichten Arbeiten gewesen. Nur nach langem Bitten und Betteln, hat er mir dann die Arbeiten gezeigt … sie entsprachen dem, was Peter Kruse in der neuen Studie aus den Gehirnen seinen Probanten extrahiert hat.
Ein paar Monate später zur Hannover Messe (die CeBIT gab es damals noch nicht) habe ich dann 3 Schauspielschüler gebeten ihre „Beziehungen“ zu „dem unbekanntem Wesen Computer“ pantominisch und mit Musik an fünf Tagen auf unserem Stand darzustellen … nach den Erfahrungen und fünf Tagen „Begegnung“ und Auseinandersetzung stampfte die Halle mit und die Schauspieler waren „von der Rolle“ …
Nachtrag: im Jahr darauf gab es Musikverbot in der Halle 18
ist es denn nicht so, dass bei aller reizüberflutung, die schäumend über den user einbricht, er sich trotzdem an kants „sapere aude“ halten kann? wenn er also zu selektieren in der lage ist, wird er (die für ihn) interressanten bzw. irrelevanten anzeigen auseinander halten und sich individuell den strömungen (ergo den angeboten) des web2.0 hingeben können. die user-masse möchte doch befriedigt werden – und wenn dies über die angebote des web2.0 geschieht, ist es doch überaus geschickt, eine möglichst weit reichende verzahnung anzubieten…positiv ist es auch,dass diese verästelung im regionalen bereich gehalten werden kann – und auf diese weise ein netzwerk aus den online-communities in der gelebten realität entstehen könnte.