Der Weg zu einer AR Cloud ist fragmentiert und führt über spezialisierte AR Plattformen.

Smartphones mit schnellen Internet haben uns in die Lage gebracht, an jedem Ort jede verfügbare Information zu erhalten. Die Ubiquität der Informationen ist ein riesiger Vorteil. Die Beschaffung der Informationen über das Smartphone ist aber immer noch mit der zentralisierten Google Suche verbunden.

Computer Vision Technologien, wie Augmented Reality, bieten die Möglichkeit direkt und dezentral mit den Dingen in Interaktion zu treten. Dieser Vorteil ist entscheidend und ist das Futter für die gigantischen Umsatzprognosen des Augmented Reality Marktes.

Wo stehen wir eigentlich technologisch?

Die Geschichte der Computer Vision Algorithmen begann mit der Fähigkeit, einzelne zweidimensionale Strukturen wiedererkennen zu können. Das funktioniert heute sehr robust und zuverlässig. Später konnten die Algorithmen bestimmte Strukturen auf den Bildern erkennen. Das bedeutet, dass sie in bestimmten Fällen sagen konnten was sie auf den Bild erkennen – eine Kategorie Zuordnung wie: das ist ein Fahrrad, das ein Auto, das ein Blumenstrauß etc..

Die Erkennung von dreidimensionalen Dingen, Strukturen und Räumen ist bis heute nicht verlässlich. Zwar kann man mit Technologien wie SLAM (Simultaneous Localisation and Mapping) ich Echtzeit Räume Scannen und darin digitale Elemente darstellen aber diese müssen vorher vom Nutzer ausgewählt werden. Das Problem ist, das die Wiedererkennung einer Tasse nicht trivial ist.

Eine Tasse mit Henkel sieht von jeder Seite unterschiedlich aus. Der Kontext, in dem sich die Tasse befindet sieht auch unterschiedlich aus. Der Algorithmus bekommt die Kamera Daten und kann zuerst nicht zwischen den Tassenpixeln und den Pixeln, die zum Hintergrund/ Kontext gehören unterscheiden.

Die eindeutige Erkennung von 3D Dingen und Räumen wird aber in naher Zukunft durch die Kombination mehrerer Sensoren gelöst werden. Auch die AI wird vermutlich dabei ein führende Rolle einnehmen.

Der letzte Schritt der Entwicklung wird sich mit der Frage beschäftigen wie man es hinkriegt, dass ein Ding einem genau die Information gibt, die man in der jeweiligen Situation haben möchte. Also einen Kontextabhängige Content. Beispiel: ein Autoreifen könnte einem mitteilen, wie warm er ist, wie alt er ist, was er gekostet hat aber auch aus welchen Bestandteilen er gebaut ist und wer der CEO der Firma ist, von dem er gebaut wurde. Man will nicht alles wissen – man will nur die richtige Info zur richtigen Zeit haben.

Die Augmented Reality Technologie wurde zu lange für das Marketing in kostenintensiven Individualprojekten eingesetzt. Dadurch entwickelten sich nur sehr wenige Standards und deswegen ist die Technologie nicht in die breite Masse gegangen.

Der Flaschenhals ist die Content Produktion

Standardisierung ist der Schlüssel, wenn es darum geht in einem vernünftigen Kostenmaß AR Content zu produzieren. Es ist kein Problem AR Anwendungen für Smartphones, Tablets und AR Brillen zu bauen. Es ist aber eine enorme Herausforderung flächendeckenden AR Content zu produzieren.

Das sind einerseits jene Verknüpfungen der realen Dinge mit digitalen Inhalten und andererseits ist es die Aufbereitung und Produktion eben dieser Inhalte.

appear2media hat den Couple definiert. Der Couple ist als die Verknüpfung einer realen Entität mit einer digitalen Entität. Bisher existieren tausende Couples im 2D Bereich.

Über eine Plattform können nun auch nicht technisch versierte User Couples erstellen und so Tag für Tag standardisiert die reale Welt mit digitalen „Links“ versehen. Das ist einfach und günstig. Die Hürden der Technologienutzung sind niedrig.

Die kontinuierliche Entwicklung zahlreicher solcher Plattformen, die alle für sich einen bestimmten Teil der uns umgebenden Welt vernetzen aber in der Summe Schritt für Schritt zum erhofften Ziel führen ist die Lösung. Die Augmented Reality Cloud ist kein Mythos. Sie ist die Summer der AR Plattformen. Mit ihr wird der visuellen Austausch von den relevanten Informationen im Kontext der Umgebung möglich sein.