KI meets Sensorik

„Es gibt sie nicht, die Definition der Künstlichen Intelligenz!“. Davon sind Dr. Gunther Kegel (li), Vorstandsvorsitzender der Pepperl+Fuchs AG und Dr. Stefan Gehlen, Geschäftsführer der Pepperl+Fuchs Tochter VMT Bildverarbeitungssysteme GmbH, überzeugt. (Bild: Schäfer)

Sensoren- und Bildverarbeitungslösungen integrieren zunehmend Methoden und Algorithmen der Künstlichen Intelligenz und des Machine Learnings. „Ein Ziel kann sein, dass der Sensor mit jeder Messung schlauer wird“, sagt Dr. Gunther Kegel, Vorstandsvorsitzender der Pepperl+Fuchs AG im Gespräch über Künstliche Intelligenz und die entsprechenden Sensorik-Entwicklungen. Wichtigstes Ziel ist zunächst aber die Konnektivität. Entscheidend dabei ist, „dass sich der Anwender durch die Vielfalt der zur Verfügung gestellten Daten ein präzises Bild seiner Maschine und Anlage und deren Umgebung machen kann“, sagt Dr. Stefan Gehlen, Geschäftsführer der Pepperl+Fuchs Tochter „VMT Bildverarbeitungssysteme GmbH“.

Es gibt sie nicht, die Definition der Künstlichen Intelligenz! Aber das hat KI immerhin mit der „menschlichen“ Intelligenz gemeinsam. „Jeder hat seinen eigenen Blickwinkel: der Naturwissenschaftler, der Pädagoge, der Mathematiker, der Ingenieur, der Psychologe oder der Philosoph“, drückt es Dr. Gunther Kegel, der Vorstandsvorsitzende von Pepperl+Fuchs in Mannheim aus. „Mal überwiegt die analytische oder die empathische, aber es gibt noch viel mehr mögliche Betrachtungsweisen“, ergänzt Dr. Stefan Gehlen, Geschäftsführer der VMT Bildverarbeitungssysteme GmbH.
Beide haben bereits nach ihrem Studium mit KI-Vorläufer-Modellen gearbeitet und wissen, wie heikel eine klare Definition sein kann. „KI ist nicht scharf zu definieren, in den 90er hat man sich darauf geeinigt von KI zu reden, wenn sich ein System intelligent zu verhalten scheint“, unterstreicht Gunther Kegel. Aber die Fähigkeiten sind trotz aller Euphorie begrenzt. Den Turing-Test, ein philosophisch angehauchter Knobel-Spaß für Gamer hat bisher kein KI-System geknackt. Solche „intelligenten“ Systeme lassen sich im Gegensatz zum Menschen noch immer „austricksen“. „Wenn man das System außerhalb seiner Logik- und Domaine-Ecke fordert, steigt es aus. Je banaler die Frage, desto merkwürdiger die Antworten. „Bei einer Erstanamnese durch einen simulierten Arzt reicht die Frage: „ was wollen Sie heute Mittag zum Essen, Herr Doktor?“ Ein KI- System weiß darauf heute häufig keine sinnvolle Antwort, während ein Mensch hier schnell die Ebene wechseln kann“, erklärt Gunther Kegel.

KI – ein etwas unglücklicher Begriff
In der frühen Phase der künstlichen Intelligenz gab es die Bemühungen um eine „starke“ KI, und den Versuch ein künstliches Bewusstsein zu erschaffen. In der industriellen Nutzung sind heute ausschließlich Ansätze der sogenannten „schwachen“ KI relevant, bei der lediglich intelligentes Verhalten erzeugt wird. Der Begriff „Künstliche Intelligenz“ wurde auf der Dartmouth Conference (Dartmouth Summer Research Project on Artificial Intelligence) im Sommer 1956 geprägt. „Eine Wortprägung, die bis heute mehr Vorbehalte als Klarheit schafft“, findet Dr. Kegel. Außerdem verspricht der Begriff mehr als er halten kann – vor allem in den 60er bis zu den 90er Jahren war das der Fall. Gunther Kegel beschreibt den Unterschied: „Heute stehen uns die Rechnerkapazitäten, die Speichertiefe aber vor allem jede Menge „gelabelte“ Daten zur Verfügung, so dass man mit den in den 90er Jahren entwickelten Algorithmen erst jetzt etwas anfangen kann. Damals war es problematisch, überhaupt geeignete Daten zu finden oder zu generieren, um z.B. neuronale Netze füttern zu können.“

Der Nutzen autonomer Systeme
Überhaupt der Begriff KI, war noch nie unumstritten, eindeutig – und vielleicht doch nicht die beste Wahl. „Autonome Systeme dagegen ist ein Begriff, der interessanter ist als der der KI.“, sagt Gehlen. Ausschlaggebend sei, welche Entscheidungen Maschinen und Anlagen treffen könnten, und ob sie fähig sind, sich autonom zu verhalten: „Wir wollen KI dazu nutzen, um teilautonome Systeme zu entwickeln, die in unterschiedlichen Gebieten eingesetzt werden“, formuliert Gehlen das faktische Ziel. Dabei komme es in erster Linie auf den Nutzen und weniger auf den Grad der Autonomie an. Diese ist nicht das Ziel: „Es wird viele Systeme geben, die mit Teilautonomie schon am Ende ihrer sinnvollen technisch machbaren Möglichkeiten sind“, findet Kegel. Er setzt in der jetzigen Entwicklungsphase auf Teilautonomie. „Beim Autofahren möchte auch nicht jeder gänzlich autonomes Fahren. Das Auto soll nicht entscheiden, ob es morgen nach Stuttgart fahren wird. Gefragt ist Teilautonomie, wie sie durch Assistenzsysteme möglich wird.“ Es komme darauf an, das Risiko zu minimieren Sensoren und Systeme in die Lage zu versetzen, den Menschen in der Fahrzeugführung und -Überwachung abzulösen. Angesichts von jährlich mehr als 3.000 Verkehrsopfern in Deutschland, ist das sichere, teilautonome Fahren ein erstrebenswertes Ziel, auch wenn es zu Lasten der individuellen Fahrfreude gehen mag. Früher hatten wir hunderte Unfalltote in Industriebetrieben, heute sind das noch bedauernswerte ein bis zwei Todesfälle im Jahr. Durch Maschinen kommt heute faktisch niemand mehr zu Schaden.“ Für Gunther Kegel ist es deshalb konsequent, dass teil-automatisierte Systeme das Führen des Fahrzeugs übernehmen.
So „richtig“ autonom passe derzeit aber auch noch nicht zu uns. Das Experiment eines autonomen Busses in Ostdeutschland endete nach 15 Minuten mit einem Unfall. Das lag nicht am Bus, sondern an einem PKWFahrer, der so erstaunt über den Geisterbus war, dass er seitlich in den Bus gefahren ist. „Die Gesellschaft muss für das autonomen Fahren auch vorbereitet werden“, ist Gunther Kegel überzeugt und bringt dabei das Kerngeschäft von Pepperl+Fuchs ins Spiel. „Die 3D Sensorik als Grundkomponente vieler Assistenzsystemen hilft diese Entwicklung voranzutreiben.“
Aber auch hier denken viele Sensorik-Anwender vor allem in industriellen Applikationen noch eher konservativ. „Einfache Sensoren ohne Ethernet Anbindung erfüllen immer noch sehr zuverlässig ihren Zweck. Der ausgereifte, verschleißfreie induktive Annäherungsschalter wird noch lange seinen Dienst tun – auch ohne IP-Schnittstelle und Zeitstempel räumt der Chef von Pepperl+Fuchs ein.

Konnektivität herstellen.
Aber ein innovativer Sensorentwickler will eigentlich mehr. „Die allererste Pflicht ist Konnektivität“, sagt Gunther Kegel. „Wir wollen informationstechnisch Konnektivität herstellen, so dass aus Sensorsignalen Daten entstehen. Das gesamte Portfolio der P+F Sensoren soll nach einem offenen Standard an Industrie 4.0-Netze anschlussfähig sein. Kunden, die IO-Link nutzen, verstehen, dass der Zusatznutzen den Mehrpreis für die Konnektivität rechtfertigt.“ Bei aller Begeisterung für Digitalisierung, komme es aber auch darauf an, den Primärnutzen der Sensorik weiter zu steigern, also den Sensor immer weiter zu innovieren. „Hier geht es rasend schnell voran, denn über die Preisreduzierung der Komponenten wird nicht nur Konnektivität immer attraktiver. Lasertechnik lässt sich heute sehr günstig aufbauen mit 10-Cent- Artikeln, die früher 70 bis 80 Euro kosteten. Das gleiche gilt für CMOS-Kamera-Chips – oder Zeilenkameras in Linienform mit super hoher Auflösung und zukünftig auch für 3D-Chips. Auch die Leistungsperformance steigt: Innovative CMOSChips weisen demnächst jedem Bildpunkt nicht nur eine Farb-, sondern auch eine Tiefeninformation zu. Dadurch erschließen optische Sensoren immer neue Anwendungen.

Sensoren erschließen immer weitere Anwendungen
Dr. Stefan Gehlen hebt einen weiteren Aspekt hervor: Die Anzahl der Sensoren in der Umwelt und in der Industrie nimmt dramatisch zu. Aber auch außerhalb der Industrie werden Sensoren immer breiter eingesetzt, beispielsweise bei der Erfassung von Füllständen in Müll- oder in Wasserbehältern. Wir sehen aber auch andere Entwicklungen, z.B. wo über Funktechnologien oder Radiowellen Werte übertragen werden, was sogleich wieder ganz neue Anwendungen ermöglicht. Die Pepperl+Fuchs Wilsen-Sensoren ren mit autonomer Stromversorgung melden, wenn z.B. Müllcontainer in engen, schwer zugänglichen Altstädten wie Rom oder Barcelona, entleert werden müssen. „Wir nutzen neue Basistechnologien, um die Funktionen der Sensoren stark zu verbessern. Zum Beispiel werden die Dimensionen der Information erweitert. Früher wurde mit Lichtschranken oder Näherungsschaltern nulldimensional nur die Anwesenheit eines Objekts detektiert. Heute sind wir z.B. mit dem VDM28, in die zweite Dimension, mit Hilfe der Puls-Ranging-Technologie vorgestoßen. Die dritte Dimension erreichen wir mit Scannern und später mit „Time of Flight“ Chip-Systemen.“

Den Bogen zur KI spannen
Damit lässt sich auch der Bogen zur Rolle der KI spannen. Denn bei der Leistungssteigerung der Sensoren kommt KI direkt ins Spiel. Als Beispiel nennt Stefan Gehlen die Bildverarbeitung. „Zunehmend werden neuronale Netze genutzt, um Muster zu erkennen. Dazu wird die Kontur oder Struktur des Musters nicht mehr explizit ausgerechnet. Solch ein mathematischer Aufwand ist nicht mehr notwendig, weil neuronale Netze diese Muster automatisch erlernen. Das macht die Wiedererkennungsgenauigkeit sogar höher.“ Dazu stellt Pepperl+Fuchs über den neuronalen Kern in der Software hinaus einen Werkzeugkasten zur Verfügung. Dieser erkennt Muster anhand der üblichen Algorithmen oder über neuronale Netze. „Der Entwicklungsingenieur entscheidet dann, ob die Mustererkennungsaufgabe mit herkömmlichen Algorithmen, mit neuronalen Netzen oder mit beidem gelöst wird“, beschreibt Gehlen das Vorgehen.

Machine Learning
In der Automatisierungstechnik sind autonome Systeme hilfreich, um den Zustand eines Systems auf der Basis von Messdaten zu klassifizieren und vorherzusagen: „Tausende Daten aus unterschiedlichen Messverfahren zum Verhalten eines Motors oder einer Pumpe ergeben Muster, aus denen sich ein bestimmter Zustand vorhersagen lässt. Aus den Daten werden Strukturen im Hinblick auf ein Ereignis extrahiert“, erklärt Stefan Gehlen. Dabei wird beispielsweise auch die Frage beantwortet, welche Bildmerkmale zu einem Objekt passen.“ Solche Verfahren sind in der Lage, aus zwei- oder drei-dimensionalen Daten einen Bezug herzustellen: „Sie besagen zum Beispiel beim autonomem Fahren, ob das Objekt eine Person, ein Fahrzeug oder ein Hindernis ist. In der Industrie können ebenfalls erschließen, ob bei der Montage ein falsches Teil eingebaut wurde.“
In solchen Anwendungen brauche KI nicht an die Leistungen des menschlichen Gehirns heranreichen. „Es genügt doch, wenn die Algorithmen leistungsstark und anwendungsfertig sind, um zuverlässig und effizient bestimmte Muster erkennen können. Menschliche Intelligenz soll dabei nicht ersetzt werden“, unterstreicht Gehlen. Dies sei ein übliches Horrorszenario. Allerdings gebe es derzeit zwei wesentliche Antreiber, die Machine Learning Verfahren attraktiver machen als dies noch vor 10 Jahren der Fall war: „Das eine ist die Rechnerleistung und das andere sind die verlässlichen, „gelabelten“ Daten, die uns zur Verfügung stehen.“ Gehlen zieht eine Parallele zum Geschäftsmodell der großen Plattformen. „Diese verfügen über Daten, die in hinreichender Qualität gelabelt sind. Das versetzt sie in die Lage, bestimmte Muster aus Daten hinsichtlich Kundenanalyse, Kreditwürdigkeit, Sozialverhalten etc. zu nutzen.“
Google und Apple gehen dabei davon aus, dass die von ihnen generierten Bewegungsdaten ihnen auch gehören und sie alleinig die Bewegungsprofile kommerzialisieren dürfen. Gunther Kegel sieht das kritisch: „Nicht zuletzt geht es darum, aus diesen Daten heraus zu verstehen, wie Menschen konsumieren und wie man diesen Konsum verstärken kann. Mit z.B. dynamischen IP Adressen versucht man zu verhindern, dass Drittanbieter IP- Adressen einsammeln und selbst die Daten nutzen können.“ Es geht um genaue Bewegungsprofile, also z.B. wie lange die Verweildauer vor einem Schaufenster ist, wieviel Zeit vergeht bis gekauft wird und was dann dort gekauft wird.“ Für solche Datenbeschaffung und Auswertung werden Milliarden investiert. „Von solchen „Use-Cases“ ist die Industrie heute noch meilenweit entfernt“, sagt Dr. Gunther Kegel.
„Hier geht es darum, bestimmte Aufgaben effizienter und schneller zu lösen. Aber ein neues komplett datengestütztes Geschäftsmodell ist noch nicht in Sicht“. Dennoch werde auch in der Industrie noch viel in KI Modelle investiert werden. Pepperl+Fuchs sieht sich hier in einer Vorreiterrolle: „Wir haben bereits Implementierungen, die zeigen, dass das funktioniert. Im Bereich Machine Learning steht uns ein sehr weit entwickelter Werkzeugkasten zur Verfügung, mit
dem Muster in Maschinen erkannt werden.

Je komplexer, umso besser
Je komplexer die Sensoren, desto sinnvoller ist die Anwendung von KI. Vorteilhaft wirke sich dabei auch aus, so Stefan Gehlen, dass die Einsatzkosten solcher Machine Learning-Funktionen weiter sinken und immer mehr Sensoren diese Funktionen nutzen. Seine Prognose: „In 5 Jahren werden z.B. komplexe Ultraschallsensoren bei klassischen Mustererkennungsaufgaben genau erkennen, ob das gewünschte, vollständige Objekt vorliegt oder dieses fehlerhaft ist. Dazu sind entsprechende Lern- und Feedbacksysteme nötig. Denn solch ein System lernt aus Fehlern und entwickelt sich weiter. Ziel ist, dass der Sensor mit jeder Messung schlauer wird: „Mit ihrem Tochterunternehmen VMT hat die Pepperl+Fuchs Gruppe dazu einen „Front-Runner“, und können das entsprechende Know-how für KI und Machine Learning aufbauen“, stellt VMT-Chef Dr. Stefan Gehlen in Aussicht.

Neue Geschäftsmodelle
Aus den durch Machine Learning vielfältig nutzbaren Daten entstehen neue Geschäftsmodelle. Ein
Beispiel ist der Teilestamm, der in produzierenden Industriebetrieben alle Roh- und Fertigwaren vollständig beschreibt und ihre Beziehung untereinander z.B. in Form von Stücklisten regelt. In vollautomatischen Prozessen ist dabei 100%-tige Fehlerfreiheit des Teilestamms unverzichtbar. „Jeder automatisierte digitale Prozess stoppt, wenn die zugrunde liegenden Daten des Teilestamms
– der digitale Zwilling – unvollständig oder falsch ausgeführt sind“, erklärt Gunther Kegel. Allein die Tatsache, dass jedes einzelne Teil durch einige 100 Parameter beschrieben wird, unterstreicht die Priorität. „Wenn der Entwickler eines Sensors bei der Spezifikation des Gewichts die Einheit Kilogramm anstelle von Gramm auswählt, dann „wiegt“ dieser kleine Sensor plötzlich z.B. 70 Kilo“. Diese Gewichtsdaten interessieren zunächst keinen. Der Transporteur wiegt nicht die einzelne Ware, und das Gewicht ist für die meisten Sensorapplikationen nicht relevant. Das geht solange gut, bis ein Palettier-Roboter, zwei streichholzgroße Schachteln auf die Palette hebt und meldet: „Ich bin fertig, das sind 140 Kilo Lastgewicht.“ Bei solchen Ungereimtheiten kommt der automatisierte Prozess zum Stillstand. Deshalb müssen Teilestämme zu 100 Prozent korrekt sein. „Bei solchen Prozessen wird uns in Zukunft Machine Learning sehr unterstützen“, erwartet der CEO von Pepperl+Fuchs.

www.pepperl-fuchs.de