[ccpw id="4879"]

KI in der Sackgasse: Warum künstliche Intelligenz bei der Entwicklung neuer Medikamente bisher scheitert

AI in healthcare

Künstliche Intelligenz versprach eine Revolution in der Arzneimittelforschung – doch die Realität sieht ernüchternd aus. Trotz Milliarden-Investitionen und tausender KI-Startups hat es bisher kein einziges KI-entdecktes Medikament durch alle klinischen Phasen geschafft. Die jüngsten Rückschläge bei Branchenführern wie Insilico Medicine und Recursion werfen fundamentale Fragen auf. Warum scheitert ausgerechnet die vielversprechendste Technologie unserer Zeit an einer der wichtigsten Herausforderungen der Medizin?

Die ernüchternde Bilanz: Erfolge nur in frühen Phasen

Die Zahlen sprechen eine deutliche Sprache: In Phase-I-Studien, wo es primär um Verträglichkeit geht, erreichen KI-entdeckte Moleküle beeindruckende 80-90% Erfolgsraten – weit über dem Branchendurchschnitt von 40-65%. Doch sobald es um tatsächliche Wirksamkeit in Phase II geht, fallen die Erfolgsraten auf etwa 40% zurück – vergleichbar mit traditionell entwickelten Wirkstoffen.

Brendan Frey von Deep Genomics bringt die Frustration auf den Punkt: „KI hat uns im letzten Jahrzehnt bei der Arzneimittelentwicklung wirklich enttäuscht, wir haben einfach Misserfolg nach Misserfolg gesehen.“ Diese Einschätzung wiegt schwer, da sie von einem Pionier der Branche stammt.

Besonders alarmierend: Trotz der tausenden KI-Pharmaunternehmen, die zwischen 2014 und 2019 weltweit entstanden sind, haben nur wenige die klinische Phase erreicht – und kein einziges hat bisher eine Zulassung erhalten.

Das Datendilemma: Garbage In, Garbage Out

Die fundamentale Herausforderung liegt in der Datenqualität. KI-Modelle sind nur so gut wie die Daten, mit denen sie trainiert werden. Wenn historische Datensätze Verzerrungen oder Lücken enthalten, perpetuieren KI-Systeme diese Probleme, anstatt sie zu lösen. Die Komplexität menschlicher Biologie, geprägt durch immense individuelle Variabilität, lässt sich nicht einfach in Datenpunkten abbilden. Hinzu kommen unzureichende Benchmarks, Probleme mit Datenkennzeichnung und rechtliche Hürden beim Datenaustausch, die den Fortschritt zusätzlich bremsen.

Die Black-Box-Problematik: Wenn niemand die KI versteht

Ein weiteres kritisches Problem ist die mangelnde Transparenz komplexer Deep-Learning-Modelle. Die „Black-Box“-Natur vieler KI-Systeme macht es praktisch unmöglich, ihre Entscheidungsprozesse nachzuvollziehen.

Das untergräbt nicht nur das Vertrauen von Medizinchemikern und Pharmakologen, die klare Begründungen für KI-Vorhersagen benötigen, sondern erschwert auch die Fehlersuche und Validierung erheblich. Wenn Modelle versagen oder unerwartete Ergebnisse liefern, ist die Diagnose der Ursache nahezu unmöglich.

Kein Wunder, dass laut Branchenumfragen zwei Drittel der Unternehmen geringes Vertrauen in die Genauigkeit von KI/ML-Daten haben. Nur 11% haben KI-Lösungen vollständig implementiert – ein klares Zeichen für die Vertrauenskrise.

Die Übersetzungslücke: Vom Labor in den Menschen

Der vielleicht unterschätzteste Faktor ist die fundamentale Übersetzungslücke zwischen präklinischen Modellen und der klinischen Realität. Wenn KI-gestützte Entwicklung auf sprachbasierten Datentypen (z.B. Sequenzierung oder Struktur) basiert und menschenrelevante Reaktionen auf KI-Medikamente erstmals in der Klinik getestet werden, stehen KI-Medikamente vor denselben Herausforderungen wie traditionell entwickelte Wirkstoffe.

Menschen zeigen eine hohe biologische Variabilität, verstärkt durch unzählige individuelle Umwelteinflüsse und Stressfaktoren. Dennoch verlassen wir uns auf einfache, oft nicht-physiologische Ergebnisse aus genetisch identischen Zelllinien oder Tiermodellen, um Targets zu validieren und Therapieprogramme durch die präklinische Entwicklung zu bringen.

Diese Diskrepanz zwischen Labormodellen und menschlicher Komplexität ist ein Hauptgrund für das 90%-Versagen klinischer Studien – mit oder ohne KI.

Der Weg nach vorn: Hybride Ansätze statt KI-Allmachtsphantasien

Die Lösung liegt nicht in mehr KI, sondern in besserer KI-Integration. Explainable AI (XAI) macht Modellausgaben transparent und zeigt, wie bestimmte Vorhersagen abgeleitet werden. Die multimodale Datenintegration – Bioassay-Messungen, validierte klinische Endpunkte und diverse In-vivo-Ergebnisse – stellt sicher, dass Modellausgaben komplexe biologische Kontexte widerspiegeln.

Vielversprechend sind auch Hybrid-Methoden, die hochdimensionale funktionelle Assays (wie High-Content-Imaging von primären menschlichen Zellen) während der gesamten präklinischen Entwicklung einsetzen und die komplementären Fähigkeiten von KI und Wissenschaftlern nutzen, während sie deren jeweilige Schwächen minimieren.

Mit realistischen Erwartungen zum Erfolg

KI ist kein Wundermittel, sondern ein Werkzeug, das unsere Fähigkeit zur Verarbeitung komplexer biologischer Daten erweitert. Der Schlüssel zum Erfolg liegt in realistischen Erwartungen und einem hybriden Ansatz, der menschliche Intuition mit KI-Stärken verbindet.

Die wahre Revolution in der KI-gestützten Arzneimittelentwicklung steht noch bevor – sie wird nicht durch überzogene Versprechungen, sondern durch pragmatische Innovation und geduldige Weiterentwicklung kommen. Statt auf den schnellen Durchbruch zu hoffen, sollten wir auf nachhaltige, schrittweise Verbesserungen setzen, die das volle Potenzial dieser Technologie erschließen können.

sciencedirect.com – How successful are AI-discovered drugs in clinical trials? A first analysis and emerging lessons

nature.com – The AI drug revolution needs a revolution

statnews.com – Is this the beginning of the AI-in-drug-discovery era, or the beginning of the end?

lifebit.ai – AI Driven Drug Discovery: 5 Powerful Breakthroughs in 2025

Share this article:

Related Articles