Zur Ausgabe
Artikel 16 / 27
Vorheriger Artikel
Nächster Artikel

Augmented Reality Wie funktioniert erweiterte Realität?

Kern der neuen Technik ist eine exakte digitale Kopie realer Objekte. Sie ermöglicht das Verschmelzen von echter und virtueller Welt.
aus Harvard Business manager 2/2018
Foto: SIMON DAWSON/ REUTERS

Ausgangspunkt für Augmented Reality (AR, deutsch: erweiterte Realität) ist immer ein Gerät mit integrierter Kamera, zum Beispiel ein Smartphone, ein Tablet oder eine Datenbrille, auf dem eine AR-Software läuft. Wenn die Nutzer dieses Gerät auf einen Gegenstand richten, erkennt die Software diesen mithilfe einer Technologie für maschinelles Sehen, die die Videoaufnahmen analysiert.

Anschließend lädt das Gerät aus der Cloud Informationen über den Gegenstand herunter, ähnlich wie ein Internetbrowser Webseiten mittels einer URL aufruft. Ein grundlegender Unterschied besteht darin, dass AR-Daten als 3-D-Erlebnis direkt auf das Objekt projiziert und nicht als zweidimensionale Seite auf einem Bildschirm angezeigt werden. Was die Nutzer sehen, ist zum Teil real und zum Teil virtuell.

Erweiterte Realität kann aktuelle Datenströme von Produkten sichtbar machen und Nutzern ermöglichen, die Produkte über einen Touchscreen, über Sprachbefehle oder Gesten zu steuern. Um eine Maschine anzuhalten, kann der Nutzer innerhalb eines AR-Erlebnisses entweder auf einer digitalen grafischen Überblendung einen Stoppknopf drücken oder einfach das Wort "Stopp" sagen und so über die Cloud einen Befehl an das Produkt senden. Ein Arbeiter, der über ein AR-Headset einen Industrieroboter steuert, sieht unter Umständen Daten zur Leistung des Roboters eingeblendet und kann über seine virtuelle Benutzeroberfläche den physischen Roboter steuern, ohne diesen zu berühren.

Wenn sich der Nutzer bewegt, passen sich Größe und räumliche Darstellung der AR-Anzeigen automatisch an. Neue grafische oder schriftliche Informationen geraten ins Blickfeld, während andere aus dem Blickfeld des Nutzers verschwinden. Im industriellen Kontext können Nutzer mit unterschiedlichen Rollen, etwa Maschinenbediener und Wartungstechniker, zu demselben Objekt unterschiedliche AR-Erlebnisse erhalten, die auf ihre jeweiligen Anforderungen abgestimmt sind.

Ein digitales 3-D-Modell in der Cloud ist gewissermaßen der "digitale Zwilling" eines Objekts und fungiert als Brücke zwischen dem intelligenten, vernetzten Gegenstand und der erweiterten Realität. Das Modell entsteht entweder durch computergestütztes Design (CAD), in der Regel im Rahmen der Produktentwicklung, oder durch eine spezielle Technologie, die physische Gegenstände digitalisiert. Dieser Zwilling sammelt Daten vom Produkt, aus Unternehmenssystemen und aus externen Quellen, um die aktuelle Wirklichkeit des Produkts abzubilden. Mit seiner Hilfe projiziert die AR-Software aktuelle Informationen präzise und in der nötigen Skalierung auf den physischen Gegenstand. © HBP 2018

Dieser Artikel erschien erstmals in der Februar-Ausgabe 2018 des Harvard Business manager.

Zur Ausgabe
Artikel 16 / 27
Vorheriger Artikel
Nächster Artikel