Wissenschaftler forschen daran, künstliche Intelligenz zu verstehen
Dieser Ansatz hilft Benutzern, die Funktionsweise der „Black Boxes“ von KI-Algorithmen zu verstehen, insbesondere bei medizinischen Anwendungen und im Kontext des bevorstehenden europäischen Gesetzes zur künstlichen Intelligenz.
Ein Forscherteam der Universität Genf (UNIGE), der Universitätskliniken Genf (HUG) und der National University of Singapore (NUS) hat einen neuen Ansatz zur Bewertung des Verständnisses von Technologien der künstlichen Intelligenz entwickelt.
Dieser Durchbruch ermöglicht mehr Transparenz und Glaubwürdigkeit für KI-gestützte Diagnose- und Prognosetools. Die neue Methode enthüllt die mysteriöse Funktionsweise der sogenannten „Black Boxes“ von KI-Algorithmen und hilft Nutzern zu verstehen, was die von KI erzeugten Ergebnisse beeinflusst und ob ihnen vertraut werden kann.
Dies ist besonders wichtig in Szenarien, die erhebliche Auswirkungen auf die Gesundheit und das Wohlbefinden des Menschen haben, wie beispielsweise der Einsatz von KI im medizinischen Umfeld. Besondere Bedeutung kommt der Forschung im Zusammenhang mit dem bevorstehenden EU-Gesetz über künstliche Intelligenz zu, das die Entwicklung und Nutzung von KI in der EU regeln soll.
Die Ergebnisse wurden kürzlich veröffentlicht in der Zeitschrift Nature Machine IntelligenceZeitreihen von Daten, die die Entwicklung von Informationen im Laufe der Zeit darstellen, sind überall vorhanden: beispielsweise in der Medizin bei der Aufzeichnung der Herzaktivität mit einem Elektrokardiogramm (EKG), bei der Untersuchung von Erdbeben, der Verfolgung von Wettermustern oder in der Wirtschaft bei der Überwachung der Finanzmärkte.
Diese Daten können mithilfe von KI-Technologien modelliert werden, um Diagnose- oder Prognosetools zu entwickeln. Fortschritte in der KI, insbesondere im Deep Learning, bei dem eine Maschine mit großen Datenmengen trainiert wird, um diese zu interpretieren und nützliche Muster zu erlernen, ebnen den Weg für immer präzisere Diagnose- und Prognosetools. Der Mangel an Einblicken in die Funktionsweise von KI-Algorithmen und die Einflüsse auf ihre Ergebnisse wirft jedoch wichtige Fragen zur Zuverlässigkeit der „Black Box“-KI-Technologie auf.
„Die Funktionsweise dieser Algorithmen ist bestenfalls undurchsichtig“, sagt Professor Christian Lovis, Direktor der Abteilung für Radiologie und Medizinische Informatik an der Medizinischen Fakultät der UNIGE und Leiter der Abteilung für Medizinische Informatik an der HUG sowie einer der Autoren der Studie zum KI-Verständnis.
„Natürlich steht viel auf dem Spiel, vor allem finanziell. Aber wie können wir einer Maschine vertrauen, ohne die Grundlage ihrer Argumentation zu verstehen? Diese Fragen sind von entscheidender Bedeutung, insbesondere in Branchen wie der Medizin, wo KI-gesteuerte Entscheidungen Auswirkungen auf die Gesundheit und sogar das Leben der Menschen haben können, und im Finanzwesen, wo sie zu enormen Kapitalverlusten führen können.“
Verständnismethoden versuchen, diese Fragen zu beantworten, indem sie aufdecken, warum und wie die KI zu einer bestimmten Entscheidung gelangt ist und welche Gründe dahinter stecken. „Die Kenntnis der Elemente, die in einer bestimmten Situation den Ausschlag für oder gegen eine Lösung gegeben haben, und damit zumindest eine gewisse Transparenz zu ermöglichen, stärkt unser Vertrauen in die Leistungsfähigkeit der Tools“, sagt Assistenzprofessor Gianmarco Mengaldo, Direktor des MathEXLab an der Fakultät für Design und Ingenieurwesen der National University of Singapore.
„Aktuelle Verständnismethoden, die in praktischen Anwendungen und industriellen Schaltkreisen weit verbreitet sind, führen jedoch zu sehr unterschiedlichen Ergebnissen, selbst wenn sie auf dieselbe Aufgabe und denselben Datensatz angewendet werden. Dies wirft eine wichtige Frage auf: Welche Methode ist die richtige, wenn es eine eindeutige, richtige Antwort geben soll? Daher wird die Bewertung von Verstehensmethoden genauso wichtig wie das Verstehen selbst?“
Unterscheidung zwischen wichtigen und irrelevanten Informationen
Die Differenzierung der Daten ist der Schlüssel zur Entwicklung von KI-Technologien, um sie vollständig zu verstehen. Wenn KI beispielsweise Bilder analysiert, konzentriert sie sich auf einige hervorstechende Merkmale.
Der Doktorand im Labor von Professor Lovis und Erstautor der KI-Studie Hugues Turbé erklärt: „Zum Beispiel kann KI zwischen einem Bild eines Hundes und einem Bild einer Katze unterscheiden. Das gleiche Prinzip gilt für die Analyse von Zeitabläufen: Die Maschine muss in der Lage sein, die Elemente auszuwählen, auf denen sie schlussfolgern möchte. Bei EKG-Signalen bedeutet das, die Signale verschiedener Elektroden zu koordinieren, um mögliche Schwankungen zu beurteilen, die ein Zeichen für eine bestimmte Herzerkrankung wären.“
Es ist nicht einfach, unter allen für einen bestimmten Zweck verfügbaren Methoden eine Verständnismethode auszuwählen. Verschiedene KI-Methoden liefern oft sehr unterschiedliche Ergebnisse, selbst wenn sie auf denselben Datensatz und dieselbe Aufgabe angewendet werden.
Um dieser Herausforderung zu begegnen, haben die Forscher zwei neue Bewertungsmethoden entwickelt, um zu verstehen, wie KI Entscheidungen trifft: eine zur Identifizierung der wichtigsten Teile des Signals und die andere zur Bewertung ihrer relativen Bedeutung für die endgültige Vorhersage.
Um das Verständnis zu beurteilen, versteckten sie einen Teil der Daten, um zu sehen, ob sie für die KI-Entscheidungsfindung relevant waren. Dieser Ansatz führte jedoch manchmal zu Fehlern in den Ergebnissen. Um dieses Problem zu beheben, trainierten sie die Maschine mit einem erweiterten Datensatz, der versteckte Daten enthält, was dazu beitrug, Ausgewogenheit und Genauigkeit aufrechtzuerhalten. Anschließend entwickelte das Team zwei Möglichkeiten, um die Leistung der Verständnismethoden zu messen und zu zeigen, ob die KI die richtigen Daten für die Entscheidungsfindung verwendete und ob alle Daten ordnungsgemäß berücksichtigt wurden.
„Unsere Methode zielt darauf ab, das Modell zu bewerten, das wir tatsächlich in unserem Einsatzgebiet einsetzen werden, und so seine Zuverlässigkeit sicherzustellen“, erklärt Hugues Turbé. Um die Forschung fortzusetzen, entwickelte das Team einen synthetischen Datensatz, der der wissenschaftlichen Gemeinschaft zur Verfügung steht, um jede neue KI, die darauf ausgelegt ist, Sequenzen im Zeitverlauf zu interpretieren, einfach zu bewerten.
Die Zukunft der künstlichen Intelligenz in der Medizin
Das Team plant, seine Methode in einem klinischen Umfeld zu testen, wo die Angst vor KI noch immer weit verbreitet ist. „Der Aufbau von Vertrauen in die KI-Bewertung ist ein entscheidender Schritt zur Einführung im klinischen Umfeld“, erklärt Dr. Mina Bjelogrlic, die das Team für maschinelles Lernen in der Lovis-Abteilung leitet und Mitautorin dieser Studie ist. „Unsere Forschung konzentriert sich auf die Bewertung von KI basierend auf Zeitsequenzen, aber die gleiche Methodik könnte auch auf KI angewendet werden, die auf anderen Datentypen wie Bild- oder Textdaten basiert. Ziel ist es, Transparenz, Verständlichkeit und Verlässlichkeit von KI für Nutzer zu gewährleisten.“
Das Verständnis der Funktionsweise von KI ist der Schlüssel zum Aufbau von Vertrauen in ihren Einsatz, insbesondere in kritischen Bereichen wie der Medizin und dem Finanzwesen. Die von einem Forscherteam der Universität Genf und der National University of Singapore durchgeführte Studie bietet eine innovative Methode zur Bewertung des Verständnisses künstlicher Intelligenz, die Benutzern hilft, zu verstehen, warum und wie Entscheidungen getroffen werden. Besonders wichtig ist dieser Ansatz für medizinische Anwendungen, bei denen Entscheidungen durch künstliche Intelligenz lebensbedrohlich sein können.