Google möchte, dass diverse Gadgets künftig unsere soziale Absichten verstehen und je nach Kontext auf Handlungen reagieren. Denkbar wären beispielsweise Systeme, die Filme automatisch pausieren, wenn wir uns vom Bildschirm entfernen und wieder abspielen, wenn wir zurückkehren.
Der Einfluss von Technologie auf unseren Alltag wird in den nächsten Jahren weiter zunehmen. Wieso auch nicht? Schließlich erleichtern uns Algorithmen und Maschinen heutzutage schon den Alltag. Bisher haben Computer bei einer Sache aber nach wie vor noch etwas Probleme: dem Kontext.
Denn während es für uns Menschen relativ einfach ist, den Kontext einer Handlung zu erkennen, so sind Computer Stand heute noch eher aufgeschmissen. Pausiert jemand etwa den aktuellen Netflix-Film und begibt sich ins Badezimmer, so können wir relativ einfach A mit B verbinden und schlussfolgern, dass der Film wegen einer Toilettenpause unterbrochen wurde.
Neue Stellenangebote
Mitarbeiter*in (m/w/d) für Social Media, Öffentlichkeitsarbeit und Städtepartnerschaft (m/w/d) meinestadt.de in Sachsenheim |
||
Content Creator / Social Media / Marketing (m/w/d) Halloren Schokoladenfabrik AG in Delitzsch |
||
Social Media Manager:in und Digital Content Creator:in (m/w/d) Körpergut Akademie GmbH in bundesweit, Home-Office |
Das können Algorithmen noch nicht so einfach schlussfolgern. Doch das könnte sich bald ändern, denn Google will laut dem Tech-Magazin FastCompany Computer entwickeln, die genau solche Absichten und Handlungen erkennen können sollen.
Google: Algorithmen sollen Sozialverhalten lernen
Algorithmen sollen soziale Normen im Alltag erlernen und so proaktiv auf den Menschen reagieren können. Dann könnte es etwa passieren, dass ihr euch von der Couch erhebt und ein smarter Assistent automatisch den aktuell laufenden Film anhält. Kehrt ihr zur Couch zurück, spielt der Film automatisch weiter. Dabei soll das von Google entwickelte Soli-System eine große Rolle spielen.
Erstmals wurde es in Pixel-Smartphones eingesetzt, um etwa freihändig Medieninhalte zu steuern. Es folgte der Google Nest Hub, der beispielsweise Bewegungen trackt, um Schlaf und Schlafphasen zu analysieren. Weitere Geräte könnten folgen. Ein Beispiel wären die sogenannten Nest Thermostate, die zumindest in der amerikanischen Bevölkerung schon verbreitet sind.
Googles Soli-Technologie macht Fortschritte
Denn die Technologie hinter Soli macht große Fortschritte. Konnte das System zunächst nur einen kleinen Bereich abdecken, können heute schon kleine Räume vollständig überwacht werden. Verbindet man also mehrere Google-Geräte, so ist eine Abdeckung des kompletten Haushalts bereits heutzutage möglich.
Die Zukunft soll dann für Google, wie folgt aussehen: Die User schauen beispielsweise auf einen etwas entfernten Nest Hub und bekommen die Uhrzeit großflächig angezeigt. Sobald sich eine Person dem Gerät nähert, wechselt die Ansicht zu eintreffenden E-Mails.
Wird der Bildschirm hingegen nicht beachtet, so geht es in den Energiesparmodus über. Auch ein automatisches Pausieren und Abspielen von Filmen anhand unserer Bewegungen könnte dann über verschiedene Geräte möglich sein. Es ist also zu erwarten, dass Sprachassistenten wie Alexa, Google Assistant und Siri eines Tages noch intelligenter mit uns interagieren können.
Auch interessant:
- Google will mit der Privacy Sandbox für Android mehr Datenschutz wagen
- Überfluten Microsoft und Google kleinere Suchmaschinen gezielt mit Spam-Anzeigen?
- Google präsentiert kaum verändertes Chrome-Logo und erntet kostenlose PR
- Aktiensplit bei Alphabet: Google-Mutterkonzern senkt den Wert seiner Aktien