Alexander Graf beschreibt im Artikel „Last.FM für News – Google 2.0?“ folgende Projektidee:
Eine meiner Lieblingsseiten zu dieser Zeit war Last.fm. Die Idee über Profilabgleiche zu passender Musik zu kommen ist einfach genial. Im Rahmen meiner Recherchen auf hunderten verschiedener Websites (inkl. Blogs) kam mir irgendwann der Einfall, dass man doch das gleiche System für viele Arten von Informationen benötigt. Eine Art Last.fm für News. Ein System, was mir aus unendlich vielen Quellen so etwas wie ein personalisiertes Spiegel Online erstellt und dabei auf unzählige (messbare) Informationen für die Personalisierung zurückgreift…. Man möchte eigentlich nur die wirklich spannenden Themen im Longtail der Informationen für sich finden. Eine redaktionelle Sortierfunktion á la Golem oder Spiegel Online funktioniert da leider nicht mehr. Die Qualität von Informationen wird zunehmend weniger durch redaktionelle Systeme (z.B. Zeitungen) sichergestellt, als von unabhängigen Fachexperten und Nischenjournalen. Dieses Problem betrifft momentan „nur“? die Informationworker (Blogger, Trendforscher, IT-Freaks“¦), aber langfristig alle Nutzer. Denn auch das Grundrauschen in vornehmlich privaten Informationen muss irgendwann gefiltert werden.
Aus dem Projekt ist aufgrund der Komplexität, Zeitmangels und wohl auch Finanzen nach viel Arbeit letztlich nichts geworden. Kompliment jedoch, dass es Alexander recht feindetailiert beschreibt!
Nur eine nette Idee, die schon daran scheitert, dass man ein System auf die Beine stellt, „was mir aus unendlich vielen Quellen so etwas wie ein personalisiertes Spiegel Online erstellt und dabei auf unzählige (messbare) Informationen für die Personalisierung zurückgreift.“?
Neue Stellenangebote
Pressereferent:in / Content Creator für Social Media (m/w/d) Ärztekammer Berlin in Berlin |
||
Praktikum Social Media (m/w/d) Erlebnispark Tripsdrill GmbH & Co. KG in Cleebronn/Tripsdrill |
||
Social Media Manager (m/w/d) für Online Marketing Agentur aus dem Ruhrgebiet HAPEKO Deutschland GmbH in Dortmund |
Wenn etwas zu komplex wird, modelliert und simplifiziert man, indem man zahlreiche Parameter fixiert, weglässt oder zunächst ignoriert. Fangen wir demnach bei Last.fm an, einem bekannten Modell für Musikentdeckung. Man hört Musik. Man „hört“ Musik. Das macht man nebenbei. Und meldet damit Last.fm, was man hört, um es mit anderen zu sharen. Der laufende Stream von Musikstücken -die auch getaggt, favorisiert und in Playlisten gestopft werden- erzeugt in der Summe ein Entdeckungssystem für die User, das insbesondere im Long Tail funktioniert (jeder Nischengeschmack findet etwas).
Was ist aber „News“? Man kann es nicht hören. Wir simplifizieren! Man kann es jedoch sehen (meistens, wenn man jetzt Blinde außen vor läßt). Was man sieht, liest man. Was man liest, sieht man. Was man liest, „streamt“ man zum Zentralsystem (-> Last.fm for News, da sind wir noch). Wie? Welche Metrik nutzt man? Zeiteinheiten! Hier verlassen wir Musik/Last.fm, weil das dort nicht nach Zeiteinheiten abgefackelt wird. Nehmen wir an, ein Standarduser braucht für 1.000 Zeichen 1 Minute (keine Ahnung, obs stimmt). Für 500 Zeichen braucht er 30 Sekunden. Für 2.000 Zeichen 2 Minuten. Etcpp.
Wir ignorieren die Komplexität eines Textes. Nehmen wir weiter an, es gäbe nur 1 Newsseite weltweit. Die jeden Tag 10 Artikel für 10 Themenbereiche produziert. Und es gibt exakt 10 Benutzergruppen, die sich ausschließlich für eine der 10 Themenbereiche interessieren.
Wird Artikel 1/Thema 1 im Schnitt und im Median bei einer Länge von 1.000 Zeichen 10 Sekunden gelesen (Stoppuhr sei vorinstalliert im Browser, ebenso die Sensorik, welcher Artikel das ist), wissen die User, die den Artikel noch nicht gelesen haben, dass der Artikel nur zu 10/60 interessant ist. Diese Ableitung ist berechtigt, um festzustellen, ob die User den Artikel nun lesen oder nicht. Es ist völlig egal, wie schrottig der Artikel sein mag!
Wir können das System nun weiter vereinfachen: Es ist nicht wichtig, dass ein Sensoriksystem weiß, zu welcher Themenkategorie ein Artikel gehört. Forget Semantik! 9 Benutzergruppen werden diese Artikel nicht einmal anlesen. 1 Benutzergruppe sehr wohl. Alles was der faule User tun muss? Abwarten, dass die ersten User seiner Interessensgruppe „seine“ Artikel lesen und ihm dadurch melden, ob ein Artikel spannend ist. Woher weiß der User, zu welcher Benutzergruppe er gehört?
Wir verkomplizieren die Welt: Es gibt Benutzer, die mehrere Themen lesen, manche alle, manche nur eins. Unser fauler User parametrisiert sich selbst, indem er sich seine Interessensgruppen zuordnet (Sport = total interessiert, Politik = nie, Film = geht so =50%, …). Erfüllt ein Artikel gemäß der verbratenen Zeitdauer die Vorgabe „super“ (=mind. 90% der Zeit, die man braucht , um den Artikel mit 1.000 Zeichen Länge zu lesen), wird er ihm angezeigt. Selbst wenn der Artikel nur zu 10% gelesen worden wäre. Also ein Sportartikel. Wird ein Filmartikel zu 40% gelesen, wird er dem User nicht angezeigt. Etcpp. Mit der Zeit klemmt sich der faule User an bestimmte Standarduser dran, die ihm persönlich gute Artikelindikatoren liefern. Das macht der letztlich wie bei Last.fm.
Wir drehen das Modell auf: Aber User haben unterschiedliche Lesegeschwindigkeiten. Richtig! Das System eicht sich ein. Wo ein User nur 10 Sekunden für 500 Zeichen braucht, benötigt der andere 100 Sekunden. So what? Das System erfährt dennoch, ob ein Artikel komplett gelesen wurde. Oder nicht. Oder üebrhaupt angelesen wurde. Vorteil: Es ist saubequem. Man muss sich fast nicht drum kümmern. Nur zu Beginn seine Themen parametrisieren und mit der Zeit sich an bestimmte User dranklemmen, was er eh machen wird, wenn das System eine Interaktion zwischen Usern erlaubt. Nun kann man noch, wenn man will, tags, favorites, readlists hinzufügen als weitere Messmetriken.
Wir drehen abermals das Modell auf: Was ist mit der Komplexität? Ein Text kann zwar langweilig und doof sein, dennoch braucht der Schnellleser und Langsamversteher dadurch die zehnfache Menge an Zeit. Auch das kann man messen. Indem man nichts anderes macht als zuvor: Die Zeit stoppen. Das System hat nun eine Messung, die besagt, dass der User -egal welcher Typus von Schnellleser- 10x so lange benötigt hat wie gewöhnlich. Wir ignorieren „away from keyboard“-Abweichungen btw! Ist das nun ein Problem zum Melden, ob ein Artikel spannend ist? Nein, denn wenn die anderen User ebenso länger brauchen, kann das System immer noch sagen, dass bei einer 5fachen Abweichung nach oben der Artikel solala war. Bei einer 10fachen Abweichung muss der Artikel wohl komplett und intensiv gelesen worden sein. Und, das Messsystem kann oW User in Lesegeschwindigkeitsgruppen aufteilen und damit bestimmte User zusammenbringen (korrekt: es bringt die richtigen News zu den geeigneten Lesergruppen), wenn man gedanklich Lesegeschwindigkeit und Verständnisgeschwindigkeit voneinander trennt.