Googles neue Duplex-Technologie stellt einen wichtigen Wendepunkt für KI-gesteuerte Sprachassistenten dar. Googles KI kann eigenständig Anrufe tätigen und die Person am anderen Ende wird wahrscheinlich nicht mal erkennen, dass sie mit einem Roboter spricht.
Duplex wurde gestern auf der Google I/O, der jährlichen Entwicklerkonferenz des Unternehmens, angekündigt. Es ist eine neue Technologie, die es dem von maschineller Intelligenz angetriebenen, virtuellen Assistenten von Google ermöglicht, einen Anruf entgegenzunehmen und ein natürliches Gespräch mit einem Menschen zu führen. Während der Keynote ahmte der KI-gesteuerte Assistent die menschliche Sprache so beeindruckend echt nach, dass alle wirklich sehr beeindruckt waren. Dieser Eindruck wurde auch nicht dadurch geschmälert, dass das Gespräch längst vor der Keynote stattgefunden hat.
Das Publikum wusste vor Beginn der Demo nicht, dass keine der Stimmen, die diese Anrufe tätigten, einem Menschen gehörten. Es handelte sich um Bots, die über den Google-Assistenten versendet und über ein Backend-System aktiviert wurden. In der ersten Demo ruft eine Frau einen Friseursalon an, in welchem eine andere Frau ans Telefon geht; die beiden diskutieren etwa eine Minute lang hin und her, bevor sie einen Termin finden, der für einen Friseurtermin funktioniert.
Wie menschlich kann ein virtueller Assistent werden, ohne dass es “creepy” wird?
In der zweiten Demo, ebenfalls etwa eine Minute lang, ruft ein Mann ein Restaurant an, um eine Reservierung zu buchen. Die Frau dort spricht mit einem starken Akzent und hat auch nicht auf Anhieb die gewünschten Informationen parat. In diesem Fall reagiert die künstliche Intelligenz sehr spontan und formuliert die Anfrage entsprechend anders.
Es ist schon beeindruckend: Das zustimmende “hmm-hmm”, das freundliche “Ohhh, I gotcha” oder auch das Anheben der Tonhöhe zum Ende des Satzes, um aus der Aussage eine Frage zu formulieren. Diese Vorführung ist bei so einer Keynote schon sehr beeindruckend, aber ganz ehrlich: Wenn ich sowas zum ersten mal im realen Einsatz mitbekomme, trage ich hoffentlich gerade eine Windel.
Für Google markiert Duplex den nächsten großen Schritt bei natürlich klingenden, vollautomatischen Roboter-Dialogen. Duplex vereint natürliche Sprachverarbeitung, Deep Learning und Text-to-Speech-Technologie in einem Service.
Es setzt damit auch eine neue Messlatte für Alexa und Cortana und treibt die Idee voran, dass eine KI durchaus mehr kann, als nur Daten abzuholen oder Erinnerungen zu setzen. Duplex stellt die Idee des Bots dynamisch auf den Kopf: Es ist nicht der Mensch, der einen Bot bei einer Fluggesellschaft oder Bank anruft. Stattdessen könnte euer Roboter einfach den anderen Roboter bei einem Unternehmen anrufen und alles Wissenswerte herausfinden, ohne dass überhaupt noch ein Mensch beim Gespräch involviert ist. Aber die zweifellos beeindruckende Technologie hat auch ihre irreführende Kehrseite, denn wir werden nicht mehr wie selbstverständlich jederzeit Bescheid wissen, ob wir am anderen Ende der Leitung noch mit einem Menschen kommunizieren oder mit einem Roboter.
Es gibt aktuell noch keine Pläne, Duplex für jedermann als Service einzuführen. Es ist eine Technologie, die sich derzeit also noch in der Entwicklung befindet. Allerdings wird es bereits diesen Sommer erste Tests mit Google Assitant und Duplex geben. Bleibt zu hoffen, dass im Falle einer offiziellen Veröffentlichung dieser Funktion jeder Anruf mit sowas wie „Hier ist Nicoles Google Assistant, ich rufe an wegen …“ oder etwas in der Art beginnt, damit die Stimme eindeutig als Maschine identifiziert werden kann.
Google’s Smart Compose ist ebenfalls eine Funktion, die noch sehr viel Potenzial hat, sodass nicht nur komplette Sätze vorgeschlagen werden können, sondern letzten Endes komplette E-Mails geschrieben werden können, ohne dass wir noch eine Zeile selbst verfassen müssen.
Würde sich die Science-Fiction-Serie Black Mirror dieser Funktion annehmen und um „Smart Compose“ herum eine Handlung entwickeln, hätten wir in fünf Jahren vermutlich ein Szenario, bei dem unser Mail-Programm nicht nur in unserem Namen auf E-Mails reagiert, sondern ganze Beziehungen selbstständig aufbaut zu den Leuten, mit denen wir korrespondieren.
Noch ein paar Jahre später wird diese Intelligenz nur noch euren groben Vorgaben folgen und anfangen, eigeninitiativ eine Geschäftsstrategie zu entwickeln, Probleme in der realen Welt zu lösen und so weiter. Skynet lässt grüßen!
Dies ist eine dieser klassischen „Die Maschinen werden uns alle vernichten“-Geschichten, aber man kann leicht erkennen, wie sich ein solches Feature schließlich zu etwas Selbständigerem als nur zum Satzvervollständigen entwickeln wird.
Black Mirror wird wahr
Immer öfter kommt uns daher Black Mirror mit seinen dystopische Geschichten in den Sinn, weil dieses Stories mehr und mehr wahr werden, wenn sich die Technologien so weiter entwickeln.
Zum Beispiel handelt die Folge „Nosedive“ (dritte Staffel, erste Episode) davon, wie die Bewertung von Menschen zur Grundlage unseres Lebens wird. Jegliche Interaktion wird bewertet und die Protagonistin muss feststellen, dass es von einer sehr soliden Bewertung, die einen gewissen Status bedeutet, auch sehr schnell bergab gehen kann.
Es ist eine Realität, die wir heute teilweise schon erleben, wenn wir zum Beispiel an Ubers Ratingsystem denken. Die chinesische Regierung plant derzeit, ein „soziales Kreditsystem“ einzuführen, das die Vertrauenswürdigkeit jedes Einzelnen auf der Grundlage politischer Überzeugungen, Online-Aktivitäten und Finanzen bewertet. Passt das Profil nicht, darf man beispielsweise nicht ausreisen. Das System hat bereits in seiner Trial-Phase Millionen von Reisen ins Ausland verhindert. Darüber hinaus arbeitet die Regierung auch an einem Ratingsystem für Unternehmen.
Ein weiteres Beispiel: Bei der CES zeigte Toyota in Kooperation mit Pizza Hut einen selbstfahrenden Pizza-Lieferwagen, ein Konzept, bei dem die Pizza fahrerlos ausgefahren wird. Bei Black Mirror sieht man in der vierten Staffel in der Folge „Crocodile“ ebenfalls einen solchen Pizza-Van, der selbstständig Essen ausfährt.
We know how this goes. https://t.co/1nTDxuOrlD
— Black Mirror (@blackmirror) January 8, 2018
Sonys Roboter-Hund Aibo wiederum, der sowas wie die freundlichere Version der Robo-Hunde von Boston Dynamics ist, kommt später in diesem Jahr heraus. Sowohl Aibo, mehr aber noch die Boston Dynamics-Vierbeiner erinnern ganz deutlich an die Black Mirror-Folge „Metalhead“.
Es gibt unzählige andere Beispiele dafür, wie Black Mirror-Geschichten Einzug in unser Leben halten. Falls ihr Lust darauf habt, dass wir uns diesem Thema mal mit einem eigenen Artikel widmen, lasst es uns in den Kommentaren wissen.
Fürs Erste schauen wir jetzt aber erst mal wieder auf die Realität, in der die Entwicklerkonferenzen von Google und Microsoft praktisch gleichzeitig stattfinden, beide mit einem Fokus auf AI. Während sich Google bei der I/O beim Thema Privatsphäre vornehm zurück hielt und bei der Keynote totschwieg, sprach bei der BUILD Microsofts CEO Satya Nadella und verkündete, dass seiner Meinung nach Privatsphäre ein Menschenrechte sein sollte.