Samstag, 26. Mai 2018

Konferenz i/o oder wie Googles Smartphone der Zukunft aussieht Google will zu den Guten gehören

Google-Chef Sundar Pichai bei der Entwicklerkonferenz Google i/o

Wenn es nach Google geht, sollen Smartphone-Nutzer künftig nicht mehr, sondern weniger Zeit mit ihrem Handy verbringen. Eine neue Android-Version, ein verbesserter Assistant und sehr viel künstliche Intelligenz sollen dabei helfen.

Als Zweiter hat man es nicht leicht. Das gilt auch für Google. Einen Tag zuvor hatte Microsoft auf seiner Entwicklerkonferenz fast ausschließlich über Cloud und künstliche Intelligenz gesprochen, eigentlich Themen, die Google sich gern auf die Fahne schreibt. Also musste der Internetkonzern die Schwerpunkte auf der Keynote seiner Entwicklerkonferenz Google i/o anders setzen. Die Lösung von Google war es, den User in den Mittelpunkt zu stellen.

Firmenchef Sundar Pichai stellte das gleich zu Beginn der Veranstaltung klar, als er über die Verantwortung sprach, die große IT-Firmen heute tragen. Und über Fragen der Ethik im Informationszeitalter. Klar wurde dabei, dass er Google weg von der immer wieder auftauchenden Kritik an dem Megakonzern bringen will, das Image so aufpolieren möchte, dass Googler wieder als die Guten angesehen werden.

Nach ein paar Scherzen über das derzeit gute Wetter am Veranstaltungsort, gleich neben dem Google-Hauptquartier in Kalifornien, kam er zur Sache, sagte, es sei Googles Aufgabe "Information nützlicher machen, leichter verfügbar und besser nutzbar." Natürlich hatte er Beispiele parat, wie sein Unternehmen das machen kann. Und alle hatten irgendwas mit künstlicher Intelligenz zu tun.

KI, die Benachteiligten helfen soll

So zeigte er maschinenlernbare Systeme, die Retina-Scans besser und schneller interpretieren können als Menschen. So würden sich mögliche kardiovaskuläre Erkrankungen frühzeitig erkennen lassen. Im Anschluss wurde gezeigt, wie eine neue Funktion in Googles virtueller Tastatur Gboard körperlich Behinderten helfen kann, mithilfe von Morsezeichen zu kommunizieren, die sie etwa als Kopfbewegungen eingeben.

Ein wenig erinnerte das an Microsoft. Am Vortag hatte der Windows-Konzern seine Bemühungen betont, mit künstlicher Intelligenz Menschen mit Behinderungen zu helfen. Der Konzern hat dafür das mit 25 Millionen Dollar bestückte Förderprogramm AI for Accessibility gestartet. Soziales Engagement von Hightech-Konzernen scheint im Trend zu liegen.

Schluss mit "OK Google"

Dann aber ging es im Schnelldurchlauf um die konkreten Neuerungen, die der Konzern verbreiten wollte. Viel Zeit wurde dabei dem Google Assistant eingeräumt, der einige Verbesserungen erfahren hat.

So wurden sechs neue Stimmen für den digitalen Assistenten vorgeführt, die helfen sollen, die Stimme der künstlichen Intelligenz realistischer wirken zu lassen. Eine davon wurde von der Stimme des R&B-Musikers John Legend adaptiert. Bei einer kurzen Vorführung wirkten alle sechs tatsächlich natürlicher als bisher. Unklar ist derzeit aber noch, wann und in welcher Form es auch für deutsche Nutzer neue Stimmen geben wird.

Viel wichtiger für Nutzer dürften aber ohnehin die Verbesserungen im direkten Umgang mit dem Google Assistant sein. So kann man künftig mit dem System Gespräche führen, ohne vor jedem Satz "OK Google" sagen zu müssen. Stattdessen kann das System erkennen, wenn man kontextbezogene Fragen stellt. Zudem wird der Assistant komplexe Fragen verarbeiten können, wie etwa: Wer war in dem Jahr, in dem der HSV zuletzt Deutscher Meister wurde, Bundeskanzler?

Der Assistent kann ab dem Sommer auch in Google Maps genutzt werden, um beispielsweise jemandem mitzuteilen, wo man gerade ist und wie lange man noch braucht, um zu vereinbarten Treffpunkt zu kommen.

Das meiste Aufsehen erregte jedoch eine Technik namens Duplex. Es wurde in Form eines Telefongesprächs gezeigt, die der Google Assistant mit einem Restaurant führte, um einen Tisch für mehrere Personen zu reservieren. Die Stimme der KI klang dabei so realistisch, dass die angerufene Mitarbeiterin offensichtlich nicht erkannte, dass sie nicht mit einem echten Menschen spricht. Sprechpause, unregelmäßig eingestreute "Ahh"s und "Mhm"s halfen dabei.

Noch bezeichnet Google Duplex als Experiment. Im Sommer solle eine eingeschränkte Nutzergruppe anfangen, mit dem Assistenten Telefonate zu erledigen. Wer dazugehören wird und wann die Technik breiter verfügbar gemacht werden soll, ist vollkommen unklar. Der Konzern machte mit seiner Präsentation aber immerhin bereits deutlich, wie KIs künftig nutzbar sein könnten - und dass sie in bestimmten Szenarien durchaus menschenähnlich wirken können.

Seite 1 von 2
Kommentare
0
Diskussionsregeln

Wir freuen uns über lebendige, konstruktive und inspirierende Diskussionen auf manager magazin online. Um die Qualität der Debattenbeiträge sicherzustellen, werden unsere Moderatoren jeden Beitrag prüfen. Eine Nutzung der Kommentarfunktion zu kommerziellen Zwecken ist nicht erlaubt. Beiträge mit vorwiegend werblichem, strafbarem, beleidigendem oder anderweitig inakzeptablem Inhalt werden von unseren Moderatoren gelöscht.

© manager magazin 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der manager magazin Verlagsgesellschaft mbH