© Stemmer Imaging AG © KIT
Anzeige

„Marktpotenzial ist nicht ansatzweise erschöpft“

Leistungsstarke Bildsensoren, steigende Datenübertragungsraten sowie multispektrale und multisensorische Ansätze erweitern das Anwendungsspektrum von Imaging-Lösungen stetig. Zudem trägt künstliche Intelligenz zur beschleunigten Auswertung der rasant zunehmenden Bilddatenvolumen bei. Über die Auswirkungen dieser Trends auf den Imaging-Markt sprechen Prof. Michael Heizmann, Leiter des Instituts für Industrielle Informationstechnik am Karlsruher Institut für Technologie (KIT), und Manfred Wütschner, Group Manager Field Application Engineering der STEMMER IMAGING AG im Interview. Daneben geht es um das Potenzial moderner Imaging-Verfahren in der Industrie 4.0 und vielversprechende Einsatzfelder abseits industrieller Anwendungen.

Wenn Sie die letzten 20 Jahre Revue passieren lassen: Welche Innovationen haben die tiefsten Spuren in der Bildverarbeitung hinterlassen?

Manfred Wütschner: Da würde ich mit GenICam – dem Generic Interface for Cameras – anfangen. Dank der generischen Schnittstelle können wir Kameras unterschiedlicher Hersteller direkt ansteuern, etwa um Features wie Belichtungszeit oder Geschwindigkeit zu setzen. Wir haben uns seit 2003 an dem Standardisierungsprozess beteiligt, auf den dann 2006 die ersten GigE Vision (Gigabit-Ethernet for Machine Vision) Kameras aufsetzten. Seither muss ich keine Bedienungsanleitungen mehr lesen, weil alle Informationen zur Leistung und zu den Features in der Kamerasoftware dokumentiert sind. GenICam und GigE-Vision sind mittlerweile in Fabriken weit verbreitet, ebenso wie USB3 Vision- und CoaXPress-Kameras, die ebenfalls auf GenICam aufsetzen. Die Standardisierung auf der Hard- und Softwareebene war ein Durchbruch, der uns und unseren Kunden viel mehr Handlungsspielraum verschafft hat. Kameras lassen sich heute austauschen, ohne die Software anpassen zu müssen.

Prof. Michael Heizmann: Ein weiterer Meilenstein neben der Standardisierung war der Übergang von CCD- auf CMOS-Bildsensoren. Auch die längst noch nicht abgeschlossene Entwicklung bei den Kameraperformances eröffnet neue Möglichkeiten. Und auch die Entwicklung von 3D-Sensoren, von aktiver Sensorik und multispektralen Kameras birgt jede Menge Innovationspotenzial, das es in den nächsten Jahren zu heben gilt. Neben diesen Hardware-Innovationen wäre auf jeden Fall auch der zunehmende Einsatz von Machine Learning (ML) Software zu nennen.

Wütschner: CCD auf CMOS ist tatsächlich eine Erfolgsgeschichte, die anfangs nicht ganz glatt lief. Die Bildqualität wurde ja zunächst schlechter. Aber in punkto Auflösung, Geschwindigkeit und Integration von Bildverarbeitung direkt in den Sensor hat uns dieser Wechsel enorm vorangebracht. Gleiches gilt für die Kosten und Verfügbarkeit – weil es heute statt einer Handvoll einige Dutzend Sensorhersteller gibt.

Das Stichwort Machine Learning ist schon gefallen. Wie wird sich Imaging dadurch verändern?

Heizmann: Seit einigen Jahren gehen wir der Frage nach, wie Systeme lernen können, ohne dass der Mensch eingreift. Denn das eröffnet die Möglichkeit, neue Zusammenhänge aus Bilddaten herauszulesen und sehr viel mehr Daten nutzbar zu machen als bisher, ohne Experten daransetzen zu müssen. Dadurch erweitert sich das Spektrum der Anwendungsmöglichkeiten, auch weil Machine Learning helfen kann, die Linie zwischen tolerabler Abweichung und tatsächlichem Produktionsfehler präziser zu ziehen. Allerdings setzt der ML-Einsatz neue Methoden voraus. Schon der Nachweis, dass ein solches System wie geplant funktioniert, ist deutlich schwieriger als bei klassischen Bildverarbeitungssystemen. Und damit so ein Projekt umsetzbar wird, müssen zunächst sehr viele Bilddaten von guten und defekten Teilen verfügbar sein, an denen die ML-Software lernt. Wo wir bisher anhand einiger Fehlerteile und Erfahrung ein Set an Parametern definiert haben, braucht es heute genügend Daten, die den Defekt in verschiedensten Ausprägungen und unter unterschiedlichen Randbedingungen zeigen. Es liegt an den Anwendern, diese Daten bereitzustellen. Das ist ein echtes Problem, wenn in einer Produktion kaum Fehler passieren.

Kommt Machine Learning im Markt an? Fragen Ihre Kunden danach, Herr Wütschner?

Wütschner: Wir arbeiten seit 2002 mit ML-Systemen. Das ist also bei vielen unserer Kunden etabliert. Und tatsächlich wird es schwierig, wenn keine oder nur sehr wenige Schlechtbeispiele verfügbar sind. Über die Algorithmik lässt sich zwar einiges kompensieren, doch ohne Lernbeispiele geht es nicht. Es kommt vor, dass Projekte genau deswegen nicht zustande kommen. Schwierig ist außerdem, dass ML eine Blackbox ist. Das System lernt ohne menschlichen Eingriff. Gerade, wo auf dieser Basis schnelle sicherheitsrelevante Entscheidungen fallen, stellt sich für Kunden die Frage der Produkthaftung; zumal nicht immer nachvollziehbar ist, wie die Entscheidung zustande gekommen ist. Doch unterm Strich gilt: Ist eine ML-Lösung erfolgreich integriert, dann löst sie Probleme, bei denen wir früher vom Machine-Vision-Einsatz abgeraten hätten.

Automation und engmaschige Inline-Qualitätsüberwachung ebnen smarten Fabriken den Weg. Sind Machine-Vision-Verfahren reif für die Industrie 4.0 oder gibt es noch Entwicklungsbedarf?

Heizmann: Bildverarbeitung ist fester Bestandteil der Automatisierungstechnik. Je näher Industrie 4.0 rückt – mit ihren Themen Integration, Vernetzung, Modularität, Flexibilität und Individualisierung – desto mehr Machine Vision wird benötigt. Denn sie macht automatisierte Prozesse einsehbar, dokumentiert sie und ist einer der Schlüssel zu gleichbleibend hoher Qualität. Entwicklungsbedarf gibt es vor allem, wo Produkte individualisiert und Prozesse in hoher Frequenz umgestellt werden. Dafür sind die heutigen Lösungen oft noch nicht adaptiv genug. Aber die Grundlagen für die Industrie 4.0 sind gelegt.

Wütschner: Machine Vision und Industrie 4.0 sind eng miteinander verknüpft, zumal Bildverarbeitung per se mit den Produktionsanlagen vernetzt ist. Heute kommunizieren Maschinen und Anlagen in der Regel über den Standard OPC-UA. Viele Imaging- und Komponentenanbieter haben diesen Standard längst implementiert. Machine Vision ist also schon heute in die Kommunikation vernetzter Prozessketten eingebunden, was sowohl das Nachverfolgen von Entscheidungen als auch die Übertragung der Bilddaten an Leitstände oder den Remote-Service erleichtert. Noch besteht auf Kundenseite aber einige Skepsis gegenüber der Vernetzung, sowohl die Cybersecurity als die Datenhoheit betreffend.

Technisch ist viel in Bewegung. Multisensorik, multispektrale Ansätze, neue Bildsensoren und Datenschnittstellen. Nimmt mit den Möglichkeiten auch der Beratungsbedarf Ihrer Kunden zu?

Wütschner: Ja. Zwar haben viele unserer Kunden internes Know-how, doch die steigende Auswahl erhöht die Komplexität mittlerweile in einem Maß, dass sie unsere Hilfestellung gerne annehmen. Die einzelnen Produkte werden immer anwenderfreundlicher und sind meist per Plug&Play anschließbar. Schwieriger ist es, die angebotenen Technologien mit all ihren Vor- und Nachteilen zu vergleichen. Es braucht Spezialisierung und möglichst branchenübergreifende Projekterfahrung, um sich in der Vielfalt zurechtzufinden. Entsprechend nehmen Beratung und Applikations-Engineering in unseren Projekten immer mehr Raum ein. Außerdem bauen wir unsere Schulungsangebote über unsere Virtual Imaging Academy stark aus, um unseren Kunden die Möglichkeiten der jeweiligen Technologien zu vermitteln und um ihre Spezialisten gezielt in Hard- oder Softwarethemen weiterzubilden.

Wie wirkt sich die Technologievielfalt auf Ihre Forschung und Lehre aus, Herr Prof. Heizmann?

Heizmann: Der Einfluss ist enorm. Wir entwickeln unsere Studiengänge kontinuierlich weiter und legen Wert auf die Vermittlung solider Grundlagen der Signal- und Bildverarbeitung, damit die Studierenden neue Ansätze nicht nur nutzen, sondern sie auch verstehen. In weiterführenden Masterveranstaltungen geht es öfter um jüngste Technologien etwa 3D-Sensorik, Hyperspectral Imaging, Informationsfusion oder Machine Learning. Wichtig sind auch Abschlussarbeiten, weil die Studierenden in Projekten tief in die Materie einsteigen und modernste Verfahren anwenden. Im Studium erwerben sie das methodische Rüstzeug, um im Beruf ein Leben lang weiter zu lernen. Denn die Bildverarbeitung entwickelt sich so schnell, dass dieses lebenslange Lernen unabdingbar ist.

Wütschner: Das kann ich bestätigen. Seit ich mich mit Bildverarbeitung beschäftige, lerne ich jeden Tag dazu. Dabei hilft es sehr, dass unsere Community eng vernetzt ist und viel mit Open Source Lösungen arbeitet. Wo ich früher oft zeitaufwändig in Fachbüchern recherchieren musste, sind hilfreiche Informationen heute oft nur ein paar Mausklicks entfernt. Und es gibt fast für jedes Problem frei zugängliche Lösungsansätze inklusive Beispielcodes, auf denen sich mit entsprechender Fachkenntnis aufbauen lässt.

STEMMER IMAGING strebt für 2022 kräftiges Wachstum an. Gibt es Marktsegmente, die sich besonders gut entwickeln?

Wütschner: Wir haben die Pandemie und die Komponentenknappheit bisher sehr gut überstanden. Das vielleicht auch, weil wir abseits der klassischen industriellen Machine Vision eine hohe Bandbreite an Anwendungsfeldern in der „Artificial Vision“ bedienen. Dazu gehören Bereiche wie Agriculture & Food, Sports & Enterntainment und vieles mehr. Die Landwirtschaft setzt zunehmend auf Precision Farming und bearbeitet Felder gezielt auf Basis von Daten, die Sensoren sammeln. Düngen nach Bedarf für genau die Pflanzen, die es wirklich brauchen oder mechanische Unkrautbekämpfung teils per Laser. Hier ist ein riesiges Potenzial zu heben – sowohl was die Nachhaltigkeit betrifft als auch die Marktchancen für die Bildverarbeitung. Im Sport gibt es heute Vision-Lösungen für die Torlinientechnik und das Spielertracking im Fußball, womit das Potenzial nicht ansatzweise erschöpft ist. Es kommen immer mehr Applikationen, die den Sport mit der digitalen Welt verknüpfen. Das Mittel dazu sind oft Kameras. Ein weiteres dynamisches Wachstumsfeld sind die Bereiche Mobility, Transport & Logistics.

Sehen Sie aus Vogelperspektive des Wissenschaftlers weitere spannende Zukunftsfelder, Herr Prof. Heizmann?

Heizmann: Spannend sind die Anwendungen, in denen der Mensch näher mit der Bildverarbeitung in Berührung kommt. Smartphones haben hier eine Bresche geschlagen. Noch sind deren kamerabasierte Features meist spielerisch. Aber ich denke, dass wir hier noch einige Entwicklungen sehen werden, die in Richtung „Assisted Living“ für ältere oder körperlich eingeschränkte Personen gehen. Hier ergibt sich ein herausforderndes Umfeld, weil Wohnungen individuell gestaltet und kaum standardisierbar sind. Die eingesetzten Systeme müssten beispielsweise auch damit klar kommen, dass jederzeit ein Haustier durchs Bild laufen kann. Mittlerweile ist Machine Learning technisch und auch von den Kosten her dafür bereit, solche Märkte anzugehen. Ein weiteres spannendes Feld sind autonome Fahrzeuge – ob diese als Drohnen herumfliegen oder auf Straßen und in Fabriken unterwegs sind.

Ein gutes Stichwort. Eine zentrale Anwenderbranche – die Automobilindustrie – steckt mitten in der Transformation. Liegen darin eher Chancen oder Risiken für die Bildverarbeitung?

Wütschner: Ich sehe es als Chance. Hier in Deutschland war und ist die Branche natürlich zentral. Sie wird auch in der Elektromotoren- und Batteriefertigung und im Karosseriebau auf Machine Vision setzen, um gewohnte Qualitätsstandards zu halten. Daneben gibt es aber auch viele andere Branchen mit Zukunft – und teils enormer Nachfrage nach Machine- und Artificial-Vision-Lösungen. STEMMER IMAGING hat den Weg der Diversifizierung schon vor Jahren eingeschlagen und ist dank des breiten regionalen und anwendungsbezogenen Spektrums nicht von einer Branche abhängig. Ich bin davon überzeugt, dass auch das Gros der Zulieferer aus anderen Bereichen den Übergang schaffen werden. Sie arbeiten auf einem technischen Niveau, mit dem sie sich auch in jeder anderen Anwenderbranche durchsetzen können.

Heizmann: Auch aus meiner Sicht überwiegen die Chancen. Natürlich entfallen in der Produktion von Verbrennungsmotoren und deren Komponenten viele Machine-Vision-Anwendungen. Aber auch für die Hochvoltsysteme der Zukunft gelten höchste Qualitätsanforderungen. Aktuell laufen in diesem Bereich sehr viele Forschungsprojekte, um Möglichkeiten engmaschiger Inline-Qualitätskontrollen auszuloten. Und auch für die Sicherheits- und Assistenzfunktionen bis hin zum autonomen Fahren braucht es auch in Zukunft Machine Vision, um die Umgebung zu erfassen und zu interpretieren. Gerade aus dem Forschungsfeld des autonomen Fahrens erwarte ich so manche Neuentwicklung, die auch für alle anderen Anwendungen der Machine Vision interessant werden können. Perspektivisch werden diese Welten weiter zusammenwachsen.

Wütschner: Da gehe ich mit. Die Grenzen zwischen Industrie- und Consumer-Bereich verschwimmen zusehends. Wir verfolgen sehr genau, was sich in der Sensorik tut – und inwieweit innovative Ansätze der Industrie auch unsere Artificial Vision Projekte voranbringen können.

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige