| 00:09 Uhr

Künstliche Intelligenz auf dem Vormarsch
Noch Mensch oder schon Computer?

„Hallo, wie kann ich Ihnen helfen?“ Wer bisher als Restaurant-Mitarbeiter den Hörer abhebt, erwartet einen Menschen am anderen Ende. Noch. Geht es nämlich nach Google-Chef Sundar Pichai (s. Bild), könnte künftig ein Computer-Assistent am Apparat sein. Auf der Konferenz Google I/O stellte der Konzern seine jüngsten Entwicklungen auf dem Gebiet der künstlichen Intelligenz vor.
„Hallo, wie kann ich Ihnen helfen?“ Wer bisher als Restaurant-Mitarbeiter den Hörer abhebt, erwartet einen Menschen am anderen Ende. Noch. Geht es nämlich nach Google-Chef Sundar Pichai (s. Bild), könnte künftig ein Computer-Assistent am Apparat sein. Auf der Konferenz Google I/O stellte der Konzern seine jüngsten Entwicklungen auf dem Gebiet der künstlichen Intelligenz vor. FOTO: dpa / Eric Risberg
Mountain View. Den alltäglichen Anruf im Restaurant oder beim Friseur könnten künftig Computer für uns übernehmen. Die künstliche Intelligenz hat beim Online-Riesen Google eine neue Stufe erreicht.

() Das Gespräch klingt wie ein ganz gewöhnlicher Anruf in einem Restaurant. „Hi, ähm, ich möchte einen Tisch für Mittwoch, den 7. reservieren.“ Doch: Da ruft kein Mensch in dem Lokal an, sondern der „Google Assistant“, die sprechende Software des Internet-Konzerns. Es folgt, wie so oft in solchen Fällen, ein Missverständnis. „Für sieben Personen?“, fragt die Mitarbeiterin zurück. „Ähm, für vier Personen“, korrigiert das Programm.

Die Demonstration zum Auftakt der Entwicklerkonferenz Google I/O war eine Premiere für die Menschheit: eine Maschine, die nicht nur makellos eine Unterhaltung führen kann, sondern mit ihrer vom Computer generierten Stimme von einem Menschen nicht zu unterscheiden ist. Die Pausen und „ähms“ und „hms“ lassen den Google-Assistenten sogar noch menschlicher klingen als die erfundenen Computer-Assistenten in Filmen. Denn die Google-Software imitiert perfekt die Art, wie wir sprechen.

„Uhum“, quittiert der Assistent lässig in einem zweiten Anruf, als die Mitarbeiterin eines Friseursalons um eine Sekunde Geduld bittet, während sie in den Terminkalender schaut. Wenn schon etwas die Software vom Menschen unterscheidet, dann höchstens die Geduld, mit der sie sich auch durch ein nicht glatt laufendes Gespräch arbeitet.



Laute wie „Hmm“ sollen dem Gesprächspartner auf natürliche Weise zeigen, dass man noch kurz überlege, schrieben die Entwickler in einem Blogeintrag zur Vorstellung des Programms. Umfragen bestätigten, dass dies Gespräche natürlicher wirken lasse.

An dieser Technologie mit dem Namen Google Duplex arbeite Google bereits seit Jahren, sagt Google-Chef Sundar Pichai. Man wolle sie aber „richtig hinbekommen“, bevor sie für die Nutzer verfügbar ist, schränkt er ein. Einen konkreten Starttermin gibt es daher nicht, auch wenn öffentliche Tests im Sommer beginnen sollen. Aber die Konsequenzen sind klar: Wir werden es in absehbarer Zukunft mit Maschinen zu tun haben, die am Telefon nicht von Menschen zu unterscheiden sind. Das wirft neue Fragen auf.

Sollten Computer verpflichtet werden, sich als solche zu erkennen zu geben? Was bedeutet das für Medien wie das Radio? Und wenn irgendwann an beiden Enden der Telefonleitung solche Computer-Assistenten aufeinandertreffen, sollten sie einfach die Sprache ablegen und die Daten non-verbal austauschen?

Pichai betont, am Ende müsse die Gesellschaft zu einem Einvernehmen kommen, wann und wie solche Software eingesetzt werden dürfe. Google jedenfalls versuche, mit Bedacht vorzugehen und sehr gezielt passende Einsatzfelder herauszusuchen, die das Leben einfacher machen, ohne für Konflikte zu sorgen. Zum Start kann Duplex wie in den vorgespielten Beispielen Termine beim Friseur machen, Tische in Restaurants reservieren und Öffnungszeiten erfragen.

Die Fähigkeit des Systems, eine Unterhaltung aufrechtzuerhalten, sei eng auf die Bereiche beschränkt, in denen es trainiert wurde, betonten die Entwickler. „Es kann keine allgemeine Unterhaltung führen.“

Bei Google Duplex kommen in einem Service Spracherkennung, Sprachausgabe und maschinelles Lernen zusammen. Es ist das aufsehenerregendste Beispiel für den Einsatz künstlicher Intelligenz bei Google, die ansonsten auch automatisch Fotos bearbeitet, Sätze in E-Mails vorschlägt oder durch ein smartes App-Management die Laufzeit von Smartphone-Batterien verlängert.

Google-Chef Pichai geht in seinem Auftritt jedoch nicht auf das Klima des allgemeinen Misstrauens gegenüber Technologie-Riesen ein, das einen Höhepunkt im Facebook-Datenskandal fand. Seine Eröffnungs-Rede der Google I/O ist von Technik-Begeisterung geprägt.

Datenschutz ist auf der Google I/O kein prominentes Thema – schließlich laufen die ganzen coolen Funktionen auch nicht ohne den Zugriff auf Nutzerinformationen. Zugleich versichert Pichai, dass Google bei künstlicher Intelligenz vorsichtig und verantwortungsvoll vorgehen werde.

Einen ungewöhnlichen neuen Ton brachte in die jährliche I/O-Konferenz aber die Debatte um eine Abhängigkeit der Menschen von digitaler Technik, vor allem von ihren Smartphones. Google will das „digitale Wohlbefinden“ fördern. Sprich: Nutzer sollen auch mal abschalten – und Google will ihnen dabei helfen. So soll man Zeitlimits für die tägliche Nutzung einzelner Apps festlegen können. Und wer das Smartphone auf dem Tisch mit dem Display nach unten dreht, kann den „Nicht-Stören“-Modus aktivieren, zum Beispiel wenn man beim Abendessen mit der Familie sitzt und nicht ständig durch ein brummendes Handy gestört werden möchte.

In einer weiteren Reaktion auf jüngste öffentliche Debatten lässt Google seinen Assistenten auch Kindern Manieren beibringen. Bei Eltern geht nämlich die Sorge um, dass ihre Sprösslinge sich einen rüden Umgangston angewöhnen, weil die digitalen Helfer wie Googles Assistant, Amazons Alexa oder Apples Siri sich beliebig herumkommandieren lassen. Die Google-Software wird nun die Kinder loben, wenn sie höflich „bitte“ sagen.