EN

Um KI-Potenzial zu heben, fehlt eine Photonomik

Als Leiter der European Conferences on Biomedical Optics – ECBO und ihrer Teilkonferenz Translational Biophotonics: Diagnostics and Therapeutics haben Prof. Ronald Sroka und Prof. Lothar Lilge Einblick in aktuelle Technologietrends und Herausforderungen der Biophotonik. Zumal Sroka als Wissenschaftlicher Leiter des Laser-Forschungslabors am Klinikum der Universität München und Lilge am Princess Margaret Cancer Centre Toronto, das Teil des kanadischen University Health Network ist, auch im Alltag auf diesem Gebiet tätig sind. Hier sprechen sie über neue diagnostische Verfahren auf dem Sprung in die klinische Praxis, ihre Wünsche an Laserhersteller und die Politik – sowie über ein Hemmnis, das einem produktiveren Einsatz von Maschine Learning und Künstlicher Intelligenz (KI) entgegensteht.

Wie fällt Ihr Rückblick auf die ECBO 2023 aus?

Prof. Ronald Sroka: Nach der pandemiebedingten vierjährigen Zwangspause war es großartig, dass wir uns wieder in München treffen und in direkten Austausch miteinander treten konnten. Die ECBO allein hatte sechs Teilkonferenzen und war nur eine der fünf Fachkonferenzen des World of Photonics Congress, auf dem diesmal mehr als 3.600 Wissenschaftlerinnen und Wissenschaftlern aus aller Welt in Fachvorträgen neueste Forschungsansätze und -ergebnisse vorgestellt haben.

Prof. Lothar Lilge: Im Rahmen der ECBO war die von Zhiwei Huang von der Nationalen Universität Singapur und mir geleitete Translational Biophotonics: Diagnostics and Therapeutics die größte Teilkonferenz. Als wir diese Konferenz aus der Taufe gehoben haben, war sie mit 40 Einreichungen die kleinste ECBO-Konferenz. Dieses Jahr hatten wir fast 120 Vorträge. Das belegt deutlich, dass die Biophotonik auf dem Sprung aus den Forschungslabors in die klinische Praxis ist. Fördergeber in aller Welt erwarten mittlerweile auch, dass ihre Investitionen der letzten 20 Jahre zur Marktreife kommen.

Auf Ihrer Konferenz geht es um biophotonische Diagnostik und Therapie. In welchem Bereich sehen Sie die größere Dynamik?

Lilge: Ganz eindeutig bei den diagnostischen Anwendungen. Sie machen 85 bis 90 Prozent aus. In den Fällen, in denen photonische Technologien therapeutisch genutzt werden, sehen wir einen Trend zu schwächeren Lichtquellen.

Sroka: Der lange diskutierte translatorische Effekt hat eingesetzt: Immer mehr photonische Verfahren finden den Weg in die medizinische Praxis. Doch was uns dabei große Sorge bereitet, ist die Medical Device Regulation in der EU. Ausgerechnet jetzt würgt die Regulierung die Aufbruchstimmung ab und löst an der Schnittstelle zwischen Forschung und Anwendung einen Stau aus. Viele Firmen schrecken vor dem Aufwand der Zulassung medizinischer Geräte zurück. Zugleich gibt es große Zurückhaltung auf klinischer Seite, noch nicht zertifizierte Verfahren in Pilotanwendungen und Studien zu erproben. Doch ohne klinische Erprobung kommen die Zulassungsverfahren erst recht nicht in Gang. Diesen Knoten gilt es zu lösen.

Welche biophotonischen Verfahren stehen an der Schwelle zum Markt und was ist ihr Nutzen?

Lilge: Da sich Licht in der Diagnostik als sehr vielseitiges, wertvolles Werkzeug erweist, sind das im Augenblick viele. Angefangen mit der Endoskopie, mit der sich dank fortschreitender Miniaturisierung fast jeder Bereich des menschlichen Körpers untersuchen lässt. Moderne Endoskope haben teilweise nur noch 1,2 Millimeter Außendurchmesser…

Sroka: … und werden zunehmend mit multimodalen Bildgebungsverfahren gekoppelt. Das ermöglicht ganz neue Einblicke in Gefäße und tiefe Gewebeschichten. Hierzu passend gibt es einen klaren Trend zur Bildgebung ohne Zugabe von Markern. Sei es per Optischer Kohärenztomographie (OCT), mit der Raman-Spektroskopie, multi- und hyperspektralem Imaging oder auch mithilfe der Photoakustik, die Zielgewebe mit kurzen Lichtpulsen anregt und dessen Reaktion per Ultraschall misst. Diese Verfahren verbindet die Selektivität des Lichts mit der Eindringtiefe des Ultraschalls und liefert so höher aufgelöste dreidimensionale Einblicke als die herkömmliche Ultraschall-Bildgebung. Durch die Verbindung von OCT und Endoskopie erweitert sich das OCT-Anwendungsspektrum von Haut- und Augenuntersuchungen in die Tiefen des Körpers. Damit wächst der Werkzeugkasten der minimalinvasiven Diagnostik um ein neues, hochpräzises Verfahren.

Lilge: Wo das hyperspektrale Imaging gerade anklingt: Hier werden für die Diagnostik immer breitere Spektralbereiche genutzt. Zugleich gibt es einen Trend zu Methoden, die auf dem Wellencharakter des Lichts aufsetzen und sich dafür beispielsweise die Polarisierung zunutze machen. Wir verstehen die Interaktion von zirkulär oder linear polarisiertem Licht immer besser – und können beispielsweise über rechts- oder linksdrehende Reflexion recht genau auf das bestrahlte Gewebe und die Eindringtiefe des Lichts schließen.

Wie verändern diese Anwendungen den Bedarf an Laserstrahlquellen?

Lilge: Beim hyperspektralen Imaging stoßen die aktuellen Laserstrahlquellen an Grenzen. Gerade in Weißlichtanwendungen lässt oft die Helligkeit zu wünschen übrig – und die einzelnen Wellenlängen beeinflussen einander in ihrer Interaktion mit dem Gewebe. Es bräuchte neue für klinische Einsätze praktikable Lösungen, die unterschiedlich – jeweils isolierte – Wellenlängen emittieren. Diese sollten einzeln ansteuerbar und bei Bedarf kombinierbar sein. Denkbar sind auch Systeme, die es erlauben, Wellenlängen sehr schnell, aber nicht kontinuierlich zu switchen. Das würde beim hyperspektralen Imaging helfen, durch gesteigerte Helligkeit in definierten Wellenlängenbereichen klarere Diagnosen zu erzielen. Neue Lichtquellen braucht es auch für das polarisationsgestützte Imaging. Es wäre sehr hilfreich, gäbe es Lichtquellen mit direkt programmierbarer Polarisationsrichtung und ebenfalls direkt elektronisch ansteuerbare Lösungen für die Detektion. Entwicklungsbedarf gibt es sowohl bei den Lichtquellen als auch im Bereich der Polarisationsfilter und der Empfänger- und Analysetools. Auch hier sehe ich als Perspektive die Kombination mit Endoskopen und anderen bildgebenden Geräten.
Solche Lösungen wären für die Früherkennung auffällig abweichender Gewebestrukturen, bei denen es sich oft um Vorstufen von Tumoren handelt, sehr hilfreich. Solche Strukturen minimalinvasiv ohne Gewebeentnahme diagnostizieren zu können, wäre ein fantastischer Fortschritt.

Sroka: Wir kommen der „optischen Biopsie“ mit den bisherigen und den so skizzierten Entwicklungen immer wieder einen Schritt näher. Diverse Forschungsteams befassen sich zudem mit dem Potenzial von Polarisierungs- und Depolarisierungsprozessen für Analysen auf zellulärer und vaskulärer Ebene. Im Blickpunkt stehen Parameter wie Elastizität und Durchlässigkeit, deren Monitoring auch bei der Identifikation von Resistenzen helfen könnte.

Wie sieht es bei den Strahlquellen für die Photoakustik aus?

Lilge: Hier geht, wie eben schon angeklungen, um Einblicke in tiefes Gewebe. Bei der Polarisation und OCT-Anwendungen geht es bisher meist um die Analyse von Gewebeoberflächen. Um mithilfe der Photoakustik oder auch mit diffuser optischer Spektroskopie tiefere Schichten zu untersuchen, sind leistungsstärkere Lichtquellen mit verschiedenen einzeln ansteuerbaren Wellenlängen gefragt. Nur damit lassen sich im klinischen Alltag größere Gewebebereiche untersuchen. Um beispielsweise mit der Photoakustik arterielles und venöses Blut unterscheiden zu können, braucht es verschiedene Wellenlängen. Diese Analyse wird interessant, wenn sie mit Strukturanalysen umliegender Gewebe auf Basis von deren Fluoreszenz kombiniert wird. Das kann mit Kontrastmitteln erfolgen. Aber dafür bedarf es die bereits angesprochene Weiterentwicklung der Lichtquellen – hin zu mehr Strahldichte, kontrollierter Pulslänge und mehr einzeln ansteuerbaren Wellenlängen. Diese dürfen allerdings nicht so komplex wie ein Optical Parametric Oscillator (OPO) sein, da in Kliniken üblicherweise keine Physiker verfügbar sind, die die Geräte bedienen. Es braucht praktikable, einfach bedienbare Lösungen. Denkbar wären Riegel mit selektiv steuerbaren, unterschiedlich dotierten Laserdioden, die in ihrer jeweiligen Wellenlänge hohe Leistungen erzielen. Anstatt zahlreiche verschiedene Laser einkoppeln zu müssen, wären Systeme ideal, die unterschiedlichen Wellenlängen aus einer Quelle liefern. Denn wir könnten sie dann sofort in der Endoskopie und anderen intravitalen Verfahren einsetzen.

Sroka: Zu den Möglichkeiten der „Diffuse Optical Spectroscopy and Imaging“ hatten wir eine eigene Session. Das ist ebenfalls ein sehr spannendes Innovationsfeld. Unter anderem geht es hier um die optische Erfassung der Gewebedurchblutung. Dafür gibt es vielfältige Verfahren, teils in Wearables integriert für ein kontinuierliches Gesundheitsmonitoring. Ob im Sport, in der häuslichen Pflege oder auch zur Wirksamkeitskontrolle von medikamentösen Therapien kann das sehr nützlich sein. Ich sehe auch großes Potenzial für die Frühdiagnostik, denn bei einer fortlaufenden Erfassung von Vitaldaten fallen Auffälligkeiten früher auf. Daneben gibt es spektakuläre Forschungsansätze wie die optische, nicht-invasive Beobachtung neuronaler Prozesse im Hirn – mit Licht durch die Schädeldecke.

Auf der ECBO 2023 ging es in vielen Vorträgen um den Einsatz von Deep Learning und KI. Wo steht die Biophotonik bei diesem Thema?

Lilge: Bei allem Optimismus was das Potenzial dieser Technologien betrifft, sehe ich hier ein großes Hemmnis. In der Biologie haben die Genomik, die Proteomik oder Metabolomik sowohl auf der Daten- als auch auf Verständnisebene die Basis dafür gelegt, dass KI und Deep Learning heute produktiv nutzbar sind. Das fehlt uns in der Photonik. Wir bräuchten eine Photonomik – um den Aufbau einer gemeinsamen, öffentlich zugänglichen Datenbasis im globalen Maßstab und ein gemeinsames methodisches Verständnis zu entwickeln. KI bietet für die biophotonische Diagnostik und Therapie enormes Potenzial. Das gilt ebenso für die Interpretation von Lichtsignalen wie für die Adaption von photonisch unterstützten Therapieverfahren an individuelle Patientinnen und Patienten.

Sroka: Der Einsatz von KI und Deep Learning war in den Vorträgen der ECBO fast allgegenwärtig. Mit entsprechend angelernten Algorithmen birgt er viel Potenzial zur Entlastung von Ärztinnen und Ärzten, da sie nur noch jenen Bruchteil der Bilddaten ansehen müssen, in denen die KI Auffälligkeiten findet. Doch die dafür benötigte Datenbasis ist tatsächlich zu dünn – wodurch es der KI-Förderung in vielen Fällen an inhaltlicher Substanz fehlt. Bis Algorithmen in Gewebeaufnahmen einen zuvor noch nicht erkannten Tumor identifizieren können, müssen sie an sehr großen Datenvolumen trainiert werden. Doch die gibt es nicht. Hinzu kommt das Problem der mangelnde Vergleichbarkeit von Aufnahmen der Geräte unterschiedlicher Hersteller. Hier fehlen Standards. Aktuell bemüht sich die Forschung, dieses Problem softwaretechnisch zu lösen: Ziel ist es, Bilddaten mithilfe von Software zu objektivieren und vergleichbar zu machen. Solche Referenzsysteme sind zwingende Voraussetzung dafür, dass wir die Algorithmen mit einer möglichst breiten Basis an Daten anlernen können. Rot muss rot sein, mit exakt denselben Farbwerten. Hier gibt es großen Entwicklungsbedarf und die Interoperabilität der Verfahren und Geräte unterschiedlicher Hersteller herzustellen.

Lilge: Es fehlt ein – idealerweise internationales – Konsortium, dass sich zum Aufbau einer öffentlich zugänglichen Datenbasis bekennt und auf politischer, rechtlicher, klinischer und praktischer Ebene für ihren Aufbau sorgt. Das geht in der Genomik doch auch. Es ist keine Raketentechnologie, Datensätze zu anonymisieren und Missbrauch auszuschließen. Das ist mit verbindlichen Regelwerken lösbar, die längst vorhanden sein sollten! Wir helfen uns bisher mit lokalen Kooperationen. Unser Institut teilt mit Partnern unter anderem anonymisierte Bilddaten aus der Krebsdiagnostik. Doch perspektivisch sind nicht hunderte oder tausende Datensätze, sondern angesichts der Vielfalt an Krankheitsbildern und der Varianz ihrer Erscheinungsformen hunderttausende davon erforderlich, um die Algorithmen in der nötigen Breite und Tiefe anzulernen. Und Ronald hat recht: Ebenso brauchen wir klare Standards in der Bildgebung. Wenn jeder Hersteller seine eigenen proprietären Lösungen beibehält, dann leidet die Vergleichbarkeit der Daten. Vergleichen Sie es mit der Entwicklung einer Sprache. Je mehr Dialekte einfließen, desto komplizierter und undurchschaubarer wird es für alle Beteiligten.