Was wohl viele aufmerksame Nutzer des World Wide Web vermuten, haben jetzt Mitarbeiter eines wissenschaftlichen Magazins bewiesen: Websites werden sich im Layout immer ähnlicher. Der Grund dafür ist jedoch nicht das gegenseitige Kopieren bestehender Website-Codes.
Eine These muss untermauert und bewiesen werden. Aus diesem Grund führten drei Mitarbeiter des wissenschaftlichen Magazins The Conversation eine umfangreiche Data-Mining-Studie durch. Dabei drehte es sich um die zentrale Frage: Warum sehen die meisten Websites ähnlich aus?
Dafür sammelten die Mitarbeiter fast 200.000 Screenshots von 10.000 Websites und verglichen sie miteinander. Um die in ihren Augen aussagekräftigste Basis ihrer Untersuchung zu schaffen, nahmen sie den Aktienindex 1000 zur Hilfe.
Neue Stellenangebote
Mitarbeiter*in (m/w/d) für Social Media, Öffentlichkeitsarbeit und Städtepartnerschaft (m/w/d) meinestadt.de in Sachsenheim |
||
Content Creator / Social Media / Marketing (m/w/d) Delitzscher Schokoladenfabrik GmbH in Delitzsch |
||
Content Creator / Social Media / Marketing (m/w/d) Halloren Schokoladenfabrik AG in Delitzsch |
Dieser Index fasst insgesamt 1.000 US-amerikanische Unternehmen mit der höchsten Marktkapitalisierung zusammen. Die Websites dieser gelisteten Unternehmen verwendeten die Forscher als Studiengrundlage.
Darüber hinaus zogen die Mitarbeiter von The Conversation die 500 am häufigsten aufgerufenen Websites von Alexa heran. Auch jene Seiten, die in der Vergangenheit für die internationalen Webby Awards nominiert worden sind, haben die Forscher untersucht.
Ähnliches Webdesign lässt sich an bestimmten Attributen identifizieren
Für ihre Studie untersuchten die Mitarbeiter ganz konkrete Merkmale und Attribute wie die Farben und das Layout der Webseiten. Dabei ermittelten sie, wie viele Veränderungen einzelner Pixel nötig sind, um das Farbschema sowie die Struktur einer Webseite in eine andere zu verwandeln.
Zur Hilfe kam auch eine Künstliche Intelligenz (KI), die automatisch die Daten der gesammelten Bilder klassifizierte. Die Forscher trainierten daraufhin ein Modell für maschinelles Lernen, um exakt bestimmen zu können, von welcher Website die Bilder stammten.
Die Ergebnisse der Studie: Generische Codes sind verantwortlich
Die Untersuchung ergab, dass bei allen herangezogenen Metriken – also Farbe, Layout und KI-generierte Attribute – die durchschnittlichen Webseiten-Unterschiede zwischen 2008 und 2010 am höchsten waren.
Ebenso stellten sie fest, dass anschließend zwischen 2010 und 2016 diese Unterschiede kontinuierlich abnahmen. In diesem Zeitraum sanken von den drei untersuchten Metriken die Unterschiede im Layout der Webseiten am stärksten – und zwar um über 30 Prozent.
Die Ergebnisse der Forscher bestätigen ihre Theorie, dass sich Websites tatsächlich ähnlicher werden. Der Grund für diese Entwicklung ist allerdings nicht das Kopieren bestehender Website-Codes. Denn die Code-Ähnlichkeit hat in der untersuchten Zeit erheblich abgenommen.
Der zentrale Grund für diese Entwicklung im Webdesign ist die zunehmende Verwendung von Software-Bibliotheken. Diese enthalten Sammlungen generischer Codes, die Webdesigner und -Entwickler für allgemeine Aufgaben verwenden.
Dies sind zum Beispiel Änderungen der Größe für eine responsive Website, um sie für mobile Endgeräte zu optimieren. Auch das Einblenden eines sogenannten Hamburger-Menüs fällt unter die Arbeiten, für die Webdesigner oftmals Codes aus Bibliotheken verwenden.
Ist das nun eine positive oder eine negative Entwicklung?
Man kann geteilter Meinung sein darüber, ob die zunehmende optische Angleichung von Websites nun als gut oder schlecht einzuschätzen ist. Ähnliche Websites sind für Nutzer zugänglicher. Das gilt ganz besonders für Website-Besucher mit einer Sehbehinderung.
Doch wenn sich das Webdesign einer Website nicht mehr deutlich von anderen Auftritten unterscheiden lässt, bleibt eines gewiss auf der Strecke: der kreative Ausdruck.
Auch interessant: