Da hat man sich gerade mal an die Idee gewöhnt, dass monolithische PLM-Systeme passé sind und dass die Zukunft föderierten Systemen mit verlinkten Informationen gehört, da ist auch das schon fast wieder Schnee von gestern. In Zukunft brauchen wir die Informationen gar nicht mehr zu verlinken, sie verlinken sich mit Hilfe von LSTM-Netzen selbst. LSTM steht für Long Short Term Memory und bezeichnet einen bestimmten Typ von selbst lernenden Systemen. So ähnlich steht es in Wikipedia, und mehr weiß ich auch nicht darüber.
Das Überraschende ist nicht die Tatsache an sich, sondern wie schnell sich die künstliche Intelligenz anschickt, die klassischen Werkzeuge und Methoden der Informationsverarbeitung abzulösen. Kleinstcomputer haben heute schon mehr Rechenleistung als das menschliche Gehirn, so dass der gesunde Menschenverstand über kurz oder lang durch Computerverstand abgelöst wird. Ob das gesund ist, wage ich allerdings zu bezweifeln, zumal die ethische Diskussion über den Umgang mit künstlicher Intelligenz gerade erst in Gang kommt und von der Geschwindigkeit ihrer Entwicklung überrollt zu werden droht.
Vor ein paar Tagen besuchte ich eine interessante Veranstaltung in Darmstadt, bei der es um das Thema intelligente Verlinkung ging, und um die Auswirkungen auf PLM. Organisiert wurde Linked Data 2016 von der Firma Conweaver. Michael Schneider, Bereichsleiter Enterprise und Engineering Plattformen bei der Robert Bosch GmbH, erläuterte dort in einem Vortrag, wie Bosch die Herausforderung der Integration von vier Geschäftsbereichen mit höchst unterschiedlichen Prozessen und Produktspektren mit Hilfe der Verlinkung von Informationen zu meistern versucht. Grundlage ist der von Conweaver entwickelte ePLM Navigator. Was Schneider über die Möglichkeit sagte, Systeme bzw. die in ihnen steckenden Informationen künftig mit Hilfe künstlicher Intelligenz so zu verlinken, dass der heutige Dokumentationsaufwands weitgehend überflüssig wird, war für manche Teilnehmer ein Aha-Erlebnis. Und das waren alles Leute mit viel PLM-Background.
Die Verlinkung von Informationen mit Hilfe künstlicher Intelligenz ist vermutlich der einzige Weg, um die wachsende Flut an digitalen Daten, die noch dazu zum Großteil unstrukturiert ist, beherrschbar zu machen. Sie von Menschenhand und mit gesundem Menschenverstand strukturieren zu wollen, wäre viel zu aufwendig. Integrationen und Migrationen würden mit Hilfe selbstlernender Systeme viel einfacher, meinte Schneider. Man könne einfach ein System an die IT-Infrastruktur anschließen, der Computer durchsuche die Informationen und schlage vor, wie sie mit vorhandenen Informationen verknüpft werden könnten. Ein Traum für Systemadministratoren – und ein Alp für Systemintegratoren, die davon leben, unterschiedliche IT-Systeme zu verbinden.
Ist die Programmierung von Schnittstellen, über die Daten hin- und hergeschoben und aufeinander gemappt werden, also ein Auslaufmodell? Nicht ganz, denn die Sache hat einen Haken, und dieser Haken wird in dem Maße größer, in dem die Collaboration zunimmt: Die Verlinkung funktioniert eigentlich nur innerhalb der Firewall, nicht weil es technisch unmöglich wäre, Informationen unternehmensübergreifend zu verlinken, sondern weil kein Unternehmen sich von außen in seine Datentöpfe schauen lassen würde. Und schon gar nicht mit intelligenten Algorithmen, die dabei vielleicht zum Ausspähen von Informationen genutzt werden könnten.
Die Verlinkung löst also nicht alle Aufgaben, vor denen die Unternehmen bei der Restrukturierung ihrer PLM-Landschaften stehen, jedenfalls nicht hier und jetzt. Sie kann auch nur funktionieren, wenn die Menschen in den Unternehmen offener mit Informationen umgehen und wenn die Offenheit der IT-Systeme gegeben ist. Das waren zwei der wesentlichen Erkenntnisse aus den Diskussionsrunden über die Vorteile und Schwierigkeiten der Verlinkung aus Unternehmens-, Nutzer-, Implementierungs- und Prozesssicht. Die Linkung erlaubt es, Abläufe dynamischer zu gestalten und gleichzeitig die Prozesssicherheit zu gewährleisten. Eine große, strategische Herausforderung aber ist die Integration der neuen Lösungsansätze in die gewachsenen IT-Landschaften.
Ich bin der Meinung, dass die künstliche Intelligenz in vielen Bereichen helfen wird Daten und Dinge zu managen, für die wir einfach keine Zeit mehr haben. Bei der Menge an Daten und immer schneller werdenden Computern sowie der Zunahme an elektronischen Systeme im Alltag, wird es anders auch garnicht möglich werden mit der riesigen Datenmenge umzugehen. Die Frage nach Geheimhaltung bei Firmeninternen Daten sehe ich eher unkritisch. Die künstliche Intelligenz muss speziell für das Firmeninterne Netzwerk konzipiert werden und sollte an dem Schutz vor Viren und Spyware aktiv teilnehmen, wie auch immer das genau aussehen wird.
Liebe Grüße