ddm Ausgabe 1 | 2020

ddm | Ausgabe 1 | 2020 28 Digitale Visionen Zunehmend werden CNNs auch eingesetzt, um dentale Pathologien (Karies, parodontaler Knochen- abbau, apikale Läsionen), aber auch andere medizinisch-relevante Pathologien (z. B. Sinusits, Osteo- porose) zu erkennen (Ekert et al. 2019a, Krois et al. 2019a, Lee et al. 2018b, Lee et al. 2018a). Die CNN sind oftmals ähnlich erfolgreich bei der Detektion der Pathologien wie erfahrene Vergleichszahn- ärzte; nicht immer wird das CNN jedoch gegen unabhängige Zahnärzte getestet. Bemerkenswert ist, dass die CNNs bisher selten besser als Zahnärzte sind und zahnärztliche Spezialisten momentan mindestens genauso genau oder sogar genauer als CNNs sind, vor allem wenn sie ausreichend Zeit (z. B. eben im Rahmen einer Studie) haben. Relevant werden diese Techniken vor allem aus einem weiteren Grund: Sie werden Teil einer „digita- len Bewegung“ in der Zahnmedizin. Bilddaten aus professionellen Quellen (z. B. eben Röntgenbilder, aber auch Oberflächenscans, Fotos etc.), aber auch der Patienten selbst (Handyfotos o. ä.) sowie weitere klinische Daten aus der Praxis oder dem Patientenalltag (Zahnbürstendaten, Ernährungsda- ten, Social Media-Daten) können zunehmend vernetzt werden und zur Diagnostik und Profilierung des Patienten eingesetzt werden. Gerade letzteres klingt ein Stück weit bedrohlich, werden doch von dem Patienten Datensätze kompiliert, deren Inhalte ihm selbst vielleicht nicht einmal bewusst waren. Zudem entsteht ein sog. „Digitaler Zwilling“; ein unberechtigter Zugriff auf diese sensiblen personenbezogenen Daten kann demnach massiv schädlich sein. Das Nutzen dieser Daten kann jedoch eine völlige andere Art der Medizin befördern: Statt Patienten „nur“ in Risikogruppen wie „hohes“ oder „niedriges“ Kariesrisiko einzugruppieren (stratifizierte Medizin), kann ein viel individuel- leres Bild jedes einzelnen Patienten gewonnen werden (personalisierte Medizin), wodurch Patienten sicherer, risikoärmer und erfolgreicher behandelt werden können (Präzisionsmedizin). Ebenso wird es dem individuellen Patienten zukünftig vermehrt möglich sein, seinen Gesundheitszustand zu „erleben“ und zu steuern; Patienten werden zunehmend Teil von Medizin, statt sie passiv zu „emp- fangen“ (partizipatorische Medizin). Die neuen Technologien sollen zudem ermöglichen, Erkran- kungen früher, teilweise vor ihrem „Ausbruch“ zu erkennen und verhindern zu können (präventive statt vor allem kurative Medizin). Die Umsetzung einer solchen sog. „P4-Zahnmedizin“ wird mit Her- ausforderungen, aber auch großen Chancen kommen (Hood 2018). Entscheidend wird dabei sein, KI-Technologien robust und vertrauenswürdig zu machen. Robuste KI = Vertrauen Die zahlreichen Anwendungsbeispiele demonstrieren das Potenzial dieser Techniken, schlussendlich durch eine bessere Diagnostik und eine sichere, wirksamere und effizientere Therapiezuordnung nützlich zu sein. Der Arzt und Medizinforscher Eric Topol geht sogar davon aus, dass KI in der Medizin Ärzte entlasten und das Arzt-Patientenverhältnis wieder menschlich machen könnte (Topol 2019). Eine große Schwäche der allermeisten Anwendungen von KI in der Medizin ist allerdings die Robust- heit dieser Modelle und die möglichen Verzerrungen, denen ihre Ergebnisse unterliegen. Anders als beim autonomen Fahren oder der Gesichtserkennung steht KI in der Medizin erst seit 2014 im Fokus – also gerade einmal fünf Jahre! Viele Entwicklungen und Studienergebnisse sind schlicht zu „jung“, um umfänglich validiert und im Alltag erprobt sein zu können. Umgekehrt ist der technologische Fortschritt zurzeit so rasant, dass es nahezu unethisch erscheint, diese Technologien zunächst für weitere drei bis fünf Jahre zu erproben und bis dahin demmedizinischen Alltag vorzuenthalten. Was gilt es also zumindest zu tun, um ein Grundvertrauen in KI zu befördern? 1. robuste, generalisierbare Trainingsdaten einsetzen und validieren: Viele in der Zahnmedizin angewandte CNNs sind auf kleinen Datensätzen entwickelt worden (Schwen- dicke et al. 2019); generell sind medizinische Datensätze verglichen mit anderen Domänen von KI oftmals klein. Stammen diese Datensätze dann nur aus einer Klinik oder beinhalten Daten nur einer Ethnie, eines Geräteherstellers o. ä. ist eine Generalisierbarkeit nicht gege- ben. Zahlreiche Beispiele für einen sog. Selektionsbias in KI-Technologien sind bekannt. Um

RkJQdWJsaXNoZXIy NzIxMjU=