Das Ganze begann ja als Internet, das die Kommunikation von Menschen beschleunigen sollte. Später kam – nach einem kurzen Ausflug in das Internet der Tiere – das Internet der Dinge hinzu, das inzwischen alle Grenzen sprengt. Maschinen erzeugen während der Arbeit gigantische Datenmengen, in denen künstliche Intelligenzen nach Sinn suchen. Überraschenderweise ist nun die nächste Aufgabe, den Menschen wieder ins Spiel zu bringen. Wie das funktionieren kann, zeigte PTC in einer Videokonferenz letzte Woche bei einem Einblick in das Reality Lab in Boston. Valentin Heun, VP of Innovation Engineering, leitet das Labor und zeigte den Stand der Technik im Spatial Computing.
Heun definierte Spatial Computing als jede Art des digitalen Arbeitens mit Bewegungen und Räumen. Er zeigte Beispiele, wie Augmented Reality und Spatial Computing beispielsweise zum visuellen Teachen von Roboterbewegungen genutzt werden kann. Er nannte Spatial Computing ein „Doping“ für IoT, AR und Sensorik.
Das Reality Lab wurde kürzlich komplett 3D-gescannt und ist an der Decke mit Kinect-Sensoren versehen, die sämtliche Bewegungen erfassen. Die Lab-Mitarbeiter entwickelten Software, die es erlaubt, beliebige quaderförmige Bereiche im Lab als Sensoren zu definieren. So lässt sich beispielsweise an einem Handarbeitsplatz verfolgen, wie der Werker arbeitet, wohin er in welcher Reihenfolge greift. Auch eine Heat-Map-Darstellung ist möglich, die zeigt, wo der Werker wie oft war.
Die für die Entwicklung dieser Anwendung verwendete Software heißt Vuforia Spatial Toolbox und wird von PTC als Open Source kostenlos zur Verfügung gestellt. Heun erläuterte: „Mit IoT wissen wir genau, was in der Maschine passiert, aber wir haben keine Ahnung, was vor der Maschine passiert.“ Im Prinzip ist die Vuforia Spatial-Technologie IoT für Menschen – also nicht das Internet, das auf Kommunikation ausgelegt ist, sondern das, welches auf die Messung, Übermittlung und Sammlung von Daten analog zum IoT abzielt – sozusagen das IoW, das Internet of Workers.
Bei solchen Ideen poppt beim deutschen Leser sicher sofort das Thema „Überwachung am Arbeitsplatz“ hoch. Zum einen ist man in den USA da wesentlich weniger zimperlich, zum anderen macht es durchaus Sinn, manuelle Arbeitsabläufe aufzunehmen, zu analysieren und beispielsweise ergonomisch zu optimieren. Nichts anderes geschieht seit Ende der 1980er Jahre, wenn Arbeitsplätze nach Kaizen optimiert werden – nur eben mit manueller Aufnahme der Abläufe.
Allerdings steht ja nicht der Arbeiter im Mittelpunkt von Spatial Computing, sondern das Erfassen realer, dreidimensionaler Gegebenheiten und Abläufe. Insofern passt es eher in den Bereich des Digitalen Zwillings. Die typischen Sensoren, die im IoT-Bereich genutzt werden, erfassen ja eher „technische“ Werte – Geschwindigkeiten, Beschleunigungen, Temperatur, Vibration oder Kräfte. Ein Verständnis von der Position und Bewegung im Raum, von der Interaktion mit anderen Dingen oder von den räumlichen Gegebenheiten lässt sich damit höchstens sekundär gewinnen.
Spatial Computing bringt damit Raum und Bewegung in den digitalen Zwilling und erweitert so das „Wissen“, das im digitalen Zwilling gespeichert ist. Dass PTC diese interessante Technologie als Open Source freigegeben hat, hilft dem Hersteller natürlich, das Thema zu setzen, macht sie aber auch für eigene Experimente interessant. Wenn man sieht, dass Kinect-Sensoren für unter 50 Euro bei eBay zu finden sind, lässt sich eine faszinierende neue Technologie recht preiswert evaluieren.