Als ich Anfang der 2000er Jahre auf der High School war, verbrachte ich eine Woche meiner Sommerferien damit, einen Pathologen im örtlichen Krankenhaus zu beschatten. Jeder Tag in seinem Kellerbüro war im Grunde gleich; Er konzentrierte sein Mikroskop auf einen Objektträger, blinzelte minutenlang und machte sich methodisch Notizen über die Form der Zellen, ihre Größe und ihre Umgebung. Wenn er genügend Datenpunkte hatte, rief er an: »Plattenepithelkarzinom.« »Gezacktes Adenokarzinom.« »Gutartig.«
Seit Jahrzehnten verlassen sich Ärzte auf die gut ausgebildeten Augen von Humanpathologen, um ihren Patienten eine Krebsdiagnose zu stellen. Jetzt bringen die Forscher den Maschinen bei, diese zeitintensive Arbeit in nur wenigen Sekunden zu erledigen.
In einer neuen Studie, die heute in Nature Medicine veröffentlicht wurde, haben Wissenschaftler der New York University einen handelsüblichen Google Deep Learning-Algorithmus neu trainiert, um zwei der häufigsten Arten von Lungenkrebs mit einer Genauigkeit von 97 Prozent zu unterscheiden. Diese Art von KI - die gleiche Technologie, mit der Gesichter, Tiere und Objekte in Bildern identifiziert werden, die in die Onlinedienste von Google hochgeladen wurden - hat sich bereits bei der Diagnose von Krankheiten, einschließlich diabetischer Blindheit und Herzerkrankungen, bewährt. Das neuronale Netzwerk der NYU hat jedoch gelernt, wie man etwas macht, was noch kein Pathologe getan hat: Identifizieren Sie die genetischen Mutationen, die in jedem Tumor vorkommen, aus einem Bild.
"Ich dachte, die wirkliche Neuerung wäre, nicht nur zu zeigen, dass die KI so gut ist wie der Mensch, sondern dass sie Erkenntnisse liefert, die ein menschlicher Experte nicht gewinnen kann", sagt Aristotelis Tsirigos, Pathologe an der NYU School of Medicine und a Leitender Autor der neuen Studie.
Zu diesem Zweck startete das Team von Tsirigos mit Inception v3 von Google, einem Open-Source-Algorithmus, den Google zur Identifizierung von 1000 verschiedenen Objektklassen trainierte. Um dem Algorithmus beizubringen, zwischen Bildern von krebsartigem und gesundem Gewebe zu unterscheiden, zeigten die Forscher Hunderttausende von Bildern, die aus The Cancer Genome Atlas, einer öffentlichen Bibliothek von Patientengewebeproben, stammen.
Nachdem Inception herausgefunden hatte, wie man Krebszellen mit einer Genauigkeit von 99 Prozent ausfindig macht, lernte der nächste Schritt, zwei Arten von Lungenkrebs zu unterscheiden: Adenokarzinom und Plattenepithelkarzinom. Zusammen stellen sie die häufigsten Formen der Krankheit dar, an der jährlich mehr als 150.000 Menschen sterben. Während sie unter dem Mikroskop frustrierend ähnlich aussehen, werden die beiden Krebsarten sehr unterschiedlich behandelt. Das Richtige zu tun, kann für Patienten den Unterschied zwischen Leben und Tod bedeuten.
Als die Forscher Inception an unabhängigen Proben von Krebspatienten an der New York University testeten, ging die Genauigkeit etwas zurück, aber nicht sehr. Die Bilder wurden in 83 bis 97 Prozent der Fälle immer noch korrekt diagnostiziert. Das ist nicht überraschend, sagt Tsirigos, da die Proben des Krankenhauses viel mehr Lärm trugen - Entzündungen, totes Gewebe und weiße Blutkörperchen - und oft anders verarbeitet wurden als die gefrorenen TCGA-Proben. Um die Genauigkeit zu verbessern, müssen Pathologen Folien mit weiteren zusätzlichen Funktionen versehen, damit der Algorithmus lernen kann, diese ebenfalls auszuwählen.
Aber es war keine helfende menschliche Hand, die Inception lehrte, genetische Mutationen in diesen histologischen Objektträgern zu "sehen". Diesen Trick hat der Algorithmus von selbst gelernt.
Das Team von Tsirigos arbeitete erneut mit Daten aus dem TCGA und fütterte die Inception-Genprofile für jeden Tumor zusammen mit den Diabildern. Als sie ihr System an neuen Bildern testeten, konnten sie nicht nur diejenigen identifizieren, die Krebsgewebe aufwiesen, sondern auch die genetischen Mutationen dieser bestimmten Gewebeprobe. Das neuronale Netzwerk hatte gelernt, äußerst subtile Veränderungen im Erscheinungsbild einer Tumorprobe zu bemerken, die Pathologen nicht erkennen können. "Diese krebserregenden Mutationen scheinen mikroskopische Effekte zu haben, die der Algorithmus erkennen kann", sagt Tsirigos. Was diese subtilen Änderungen jedoch sind, „wissen wir nicht. Sie sind [im Algorithmus] begraben und niemand weiß wirklich, wie man sie extrahiert. “
Dies ist das Black-Box-Problem des tiefen Lernens, aber es ist besonders dringlich in der Medizin. Kritiker argumentieren, dass diese Algorithmen erst für ihre Schöpfer transparenter gemacht werden müssen, bevor sie allgemein angewendet werden können. Wie kann sonst jemand seine unvermeidlichen Ausfälle auffangen, die den Unterschied zwischen einem lebenden und einem sterbenden Patienten ausmachen können? Aber Leute wie Olivier Elemento, Direktor des Caryl und des Israel Englander Institute für Präzisionsmedizin in Cornell, sagen, es wäre dumm, keinen klinischen Test zu verwenden, der zu 99 Prozent die richtigen Antworten liefert, auch ohne zu wissen, wie es funktioniert.
„Damit ein Algorithmus dieser Art in einem klinischen Test eingesetzt werden kann, muss er keine vollständig interpretierbaren Funktionen aufweisen, sondern nur zuverlässig sein“, sagt Elemento. Eine nahezu perfekte Zuverlässigkeit zu erreichen, ist jedoch nicht so einfach. Verschiedene Krankenhäuser behandeln ihre Tumorproben mit unterschiedlichen Instrumenten und Protokollen. Es wird in der Tat eine schwierige Aufgabe sein, einem Algorithmus das Navigieren durch diese Variabilität beizubringen.
Aber genau das planen Tsirigos und sein Team. In den kommenden Monaten werden die Forscher ihr AI-Programm weiter mit mehr Daten aus verschiedenen Quellen ausbilden. Dann werden sie darüber nachdenken, ein Unternehmen zu gründen, um die FDA-Zulassung einzuholen. Aus Kosten- und Zeitgründen ist die Sequenzierung von Tumorproben in den USA nicht immer der Standard. Stellen Sie sich vor, Sie können ein digitales Foto einer Tumorprobe einsenden und erhalten fast augenblicklich eine Diagnose mit praktikablen Behandlungsoptionen. Das ist, wo das alles hingeht.
"Die große Frage ist, ob dies glaubwürdig genug ist, um die derzeitige Praxis zu ersetzen?", Sagt Daniel Rubin, Direktor für biomedizinische Informatik am Stanford Cancer Institute. Nicht ohne viel zukünftige Validierungsarbeit, sagt er. Aber es weist auf eine Zukunft hin, in der Pathologen in Partnerschaft mit Computern arbeiten. "Was dieses Papier wirklich zeigt, ist, dass es viel mehr Informationen in den Bildern gibt, als ein Mensch herausziehen kann."