
KI in der Biologie
DNA, RNA und Proteine steuern die molekularen Prozesse in unseren Zellen maßgeblich. Neueste Modelle der Künstlichen Intelligenz sind in der Lage, die Funktion solcher biologischen Sequenzen vorherzusagen und sie neu zu erschaffen, etwa KI-generierte Viren. Bei einem Sandpit der Wübben Stiftung Wissenschaft diskutierten Expert:innen Strategien, um sich gegen Missbrauch zu wappnen.
Was generative KI-Modelle bereits leisten können, bewiesen Wissenschaftler:innen der Universität Stanford im September 2025. Sie erzeugten Genome funktionierender Bakteriophagen, die teilweise nichts mehr mit dem natürlichen Vorbild gemein hatten. Bakteriophagen sind Viren, die Bakterien befallen. Das künstlich erzeugte Virus bekämpfte im Labor erfolgreich Escherichia-coli-Bakterien – und zeigte damit, dass generative KI-Modelle ein großes Potenzial für eine Nutzung in der Medizin haben. So könnten generierte Bakteriophagen zum Beispiel ein Ansatz gegen multiresistente Keime sein. Oder von einer ähnlichen KI ersonnene Proteinstrukturen könnten als Basis für therapeutische Antikörper dienen, etwa gegen Krebs.
Wir wollen keine Horroszenarien heraufbeschwören, uns geht es darum, die möglichen Auswirkungen generativer KI-Modelle in den Lebenswissenschaften kritisch zu betrachten.
Doch wie lässt sich ausschließen, dass solche KI-Modelle verwendet werden, um biologische Sequenzen zu entwerfen, die eine schädliche Wirkung entfalten können? Lässt man der Fantasie freien Lauf, fallen einem zahllose Missbrauchsszenarien ein: Ein böswilliger Akteur könnte ein neuartiges Virus konstruieren, das als Biowaffe eingesetzt wird oder einen Erreger, der nur jene Sorten von Reispflanzen befällt, die im befeindeten Nachbarland wachsen.
„Wir wollen keine Horroszenarien heraufbeschwören, uns geht es darum, die möglichen Auswirkungen generativer KI-Modelle in den Lebenswissenschaften kritisch zu betrachten“, sagt der Bioinformatiker Maximilian Sprang von der Johannes Gutenberg-Universität Mainz. Er hat im November 2025 führende Expert:innen aus Informatik, Biologie, Ethik, Politik und angrenzenden Bereichen sowie der Pharmaindustrie zusammengebracht, um neben den Chancen die Risiken zu beleuchten, die von generativer KI ausgehen können. Der Fokus lag auf „Dual-Use-Szenarien“ also dem doppelten Verwendungszweck der KI-Technologie, die für lebensrettende Medizin genauso eingesetzt werden kann wie für tödliche Biowaffen. „Das Problem ist, dass die Modelle immer besser werden und dabei im Guten genauso wie im Schlechten Anwendung finden können“, sagt Sprang.
Das Sandpit-Prinzip: Viele unterschiedliche Disziplinen und produktive Missverständnisse
Drei Tage lang hatten die 24 Wissenschaftler:innen in Ingelheim die Möglichkeit, sich über den aktuellen Stand der Nutzung von KI in den Lebenswissenschaften auszutauschen, unterschiedliche Perspektiven zu diskutieren und Vorschläge für den Umgang mit potenziellen Risiken zu erarbeiten. Ein Ziel dabei war es, Strategien zu entwickeln, um Risiken zu vermeiden, Leitlinien zu verfassen und technische Expert:innen stärker mit der Politik zu vernetzen, und so den Umgang mit generativer KI sicherer zu machen. „Die Biologie versorgt uns mit der hochentwickeltsten ‚Hardware‘ des Universums, die wir für die Gesundheitsversorgung der Zukunft und das Wohlergehen unseres Planeten nutzen können“, sagt Teilnehmer Marc Güell, Systembiologe an der Pompeu Fabra University in Barcelona. „Aber wir müssen vorsichtig sein, wie wir diese Technologie am besten nutzen.“
Den Rahmen für den Austausch bot das Sandpit-Format, mit dem die Wübben Stiftung Wissenschaft dazu beitragen will, aktuelle Forschungsfragen in interdisziplinären Teams zu vertiefen. „Das Thema KI in den Lebenswissenschaften ist so vielschichtig, dass man es mit Silo-Denken gar nicht erfassen kann“, sagt Sprang, „Es braucht Wissen aus ganz unterschiedlichen Feldern, um die Konsequenzen zu durchdenken.“
Der Sandpit basierte auf drei Austauschformaten: Kurzen „Seed-Talks“ – also Denkanstößen –, Diskussionsrunden und interaktiven Sitzungen. In den Keynotes brachten die Expert:innen aus den Bereichen Informatik, Biotechnologie und Politik alle Teilnehmenden auf den aktuellen Stand ihres Fachgebiets. Die Diskussionsrunden in verschiedenen Zusammensetzungen und Größen erlaubten den Austausch über Herausforderungen, während in interaktiven Workshops – auf der Basis von Design-Thinking – Ideen für eine sichere KI-Nutzung entstanden. „Durch die wechselnden Konstellationen in Kleingruppen trafen viele unterschiedliche Disziplinen und Perspektiven aufeinander, was zwangsläufig zu Missverständnissen führte – die jedoch eher produktiv als hinderlich waren“, sagt Rosae María Martín Peña, eine der Teilnehmenden und Postdoc am Centre for Ethics and Law in the Life Sciences an der Leibniz Universität Hannover.
Sicherheitslücken, die es zu schließen gilt
Es existieren bereits Regularien und Verfahren, um die Sicherheit von neu erstellten biologischen Sequenzen zu gewährleisten. So gibt es beispielsweise Erkennungsprotokolle, die zumindest eine unfreiwillige Generierung schädlicher Sequenzen verhindern. Sie vergleichen künstlich herzustellende DNA mit bekannten gefährlichen Sequenzen und schlagen Alarm, wenn die Ähnlichkeit zu hoch ist. „Doch es gibt Sicherheitslücken, zum Beispiel wenn mit Hilfe von KI die Grauzone zwischen bekannten DNA-Sequenzen und neuen Teil-Sequenzen ausgereizt wird und die neue Sequenz so durchs Raster fällt“, sagt Sprang. „Ganz neue DNA-Sequenzen herzustellen ist bisher nicht möglich, aber es kann reichen, das Bekannte neu zusammenzusetzen, um eine zerstörerische Wirkung zu entfalten.“
Eine wichtige Diskussion betraf die Risikominimierung bei der Nutzung von KI-Modellen im Übergang von biomedizinischer Forschung zur klinischen Praxis. Denn selbst gut gemeinte Anwendungsszenarien können durch fehlende Genauigkeit oder eine Verzerrung der Datenbasis problematisch sein und schlimmstenfalls Patient:innen schaden. So muss man sich fragen, auf welcher Datenbasis KI-Modelle zu ihren Ergebnissen kommen. „Die Modelle sind sehr datenhungrig und die meisten Daten, die sie erhalten, beziehen sich nach wie vor auf kaukasische Männer, was eine Verzerrung der Vorhersagen mit sich bringt“, sagt Sprang. Genauso werden demografische oder sozioökonomische Unterschiede oft nicht ausreichend berücksichtigt. Armut zum Beispiel ist ein wichtiger Faktor für die Gesundheit. „Wenn solche Aspekte unbeachtet bleiben, kann es zu fehlerhaften Schlüssen kommen.“
Um solche Lücken zu schließen, ist eine ethische Regulierung erforderlich, die über technische Sicherheitsvorkehrungen hinausgeht und neben Innovation auch die Zuweisung von Verantwortung, Datenschutz auf Bevölkerungsebene und robuste Aufsichtsmechanismen umfasst.
Was eine wichtige Frage aufwirft: Wer ist verantwortlich, wenn etwas schiefläuft? Wenn in der Klinik zum Beispiel eine falsche Therapie auf der Basis von fehlgeleiteten KI-Modellen angeordnet wird. Meist verteilt sich die Verantwortung auf viele Akteure und ist die Haftung ungeklärt. „Um solche Lücken zu schließen, ist eine ethische Regulierung erforderlich, die über technische Sicherheitsvorkehrungen hinausgeht und neben Innovation auch die Zuweisung von Verantwortung, Datenschutz auf Bevölkerungsebene und robuste Aufsichtsmechanismen umfasst“, sagt Martín Peña.
Der Sandpit wirkt fort als aktives Expert:innen-Netzwerk
Wichtigstes Ziel des Sandpits war es, zunächst ein Whitepaper zu verfassen, das die ethisch korrekte Datennutzung und die Risiken von Dual-Use-Szenarien in den Blick nimmt – und Empfehlungen gibt, um diese zu minimieren. „Zum Ende des Sandpits haben wir in Kleingruppen Lösungen für sehr konkrete Problemstellungen erarbeitet, die als Basis für das Whitepaper dienen“, sagt Sprang. „Wir waren alle überrascht, wie viele gute Ansätze durch den Design-Thinking-Ansatz in so kurzer Zeit zusammengekommen sind.“ Das Whitepaper, das im Sommer 2026 an politische Gremien verschickt wird, soll eine Brücke zwischen politischen und wissenschaftlich-technischen Akteuren schlagen und eine fachlich fundierte Regulierung erleichtern.
KI-Modelle versprechen zahlreiche sinnvolle Nutzungsszenarien für die Zukunft, aber wir müssen uns dringend damit auseinandersetzen, was sie wirklich leisten können, was die Risiken und die Barrieren sind.
Aus dem Sandpit könnte zudem ein großes europäisches Forschungsprojekt entstehen, das KI-Modelle für das Design von DNA-Sequenzen entwickelt, die von sich heraus gegen Missbrauchsrisiken abgesichert sind. Verschiedene Förderanträge wurden bereits gestellt oder sind in Planung. Auch verbesserte Mechanismen zur Erkennung gefährlicher generierter DNA-Sequenzen haben die Teilnehmenden in Arbeit. „KI-Modelle versprechen zahlreiche sinnvolle Nutzungsszenarien für die Zukunft, aber wir müssen uns dringend damit auseinandersetzen, was sie wirklich leisten können, was die Risiken und die Barrieren sind“, sagt Sprang. „Gerade in der Medizin ist das besonders wichtig, weil da eine falsche Nutzung schnell lebensbedrohlich werden kann.“
Vom ersten Brainstorming bis zum Forschungsprojekt: In den Sandpits der Wübben Stiftung entstehen neue und mutige Ideen für die Forschung. Hier geht es zum Förderprogramm
Nachgefragt bei: Anne Schmieder
Wir können uns noch nicht blind auf generative KI-Modelle verlassen, aber die eingesparten Ressourcen machen sie zu einem unverzichtbaren Gewinn.
Welche Perspektive haben Sie in die Diskussion eingebracht?
Als Forscher in einem Protein-Design-Labor, dem Schoeder Lab an der Universität Leipzig, und als Mitglied des KI-Kompetenzzentrums ScaDS.AI arbeite ich täglich mit generativen KI-Tools. Ich habe mich am Sandpit beteiligt, um verschiedene Perspektiven darüber zu gewinnen, wie generative KI, kurz GenAI, die Biowissenschaften verändert – und, um in einen interdisziplinären Dialog zu treten. Meiner Meinung nach liegt das größte Potenzial von GenAI in den Bereichen Pharmazie, Medizin und Chemie. Die Geschwindigkeit und Kapazität, mit der wir nun nach potenziellen Wirkstoffkandidaten suchen können, hat sich exponentiell erhöht. Zwar bleibt die experimentelle Validierung im Labor nach wie vor unerlässlich, doch ist der anfängliche Suchprozess weitaus effizienter. Obwohl für mich die Vorteile die Risiken überwiegen, bleibt die Interpretierbarkeit die größte Herausforderung. Derzeit ist es schwierig, vollständig zu verstehen, wie diese Modelle Eingabedaten verarbeiten und wie man ihre Ergebnisse mit 100-prozentiger Sicherheit interpretieren kann. Wir können uns noch nicht blind auf generative KI-Modelle verlassen, aber die eingesparten Ressourcen machen sie zu einem unverzichtbaren Gewinn.
Warum war der Sandpit ein gutes Format, um die Diskussion zu generativer KI voranzubringen?
Das Sandpit-Format war hervorragend geeignet, um einen kontinuierlichen Austausch anzustoßen. Besonders gut hat mir gefallen, wie die Gruppenarbeit uns dazu ermutigt hat, auch außerhalb unserer spezifischen Nischen zu lernen. Die professionelle Moderation war entscheidend; sie hielt uns nicht nur auf Kurs, sondern ermöglichte auch wertvolle Nebendiskussionen, die zu starken Bindungen zwischen den Teilnehmenden führten. Da die Gruppen für jede Aufgabe neu zusammengestellt wurden, waren wir ständig mit neuen Sichtweisen konfrontiert. Diese dynamische Struktur ermöglichte es, die eigene Perspektive kontinuierlich zu verfeinern und die Qualität der gemeinsamen Ergebnisse zu verbessern.
Was erhoffen Sie sich auf lange Sicht vom Sandpit?
Ich hoffe, dass der Sandpit das Bewusstsein für diese Themen schärft und dazu beiträgt, das Fachwissen unter Wissenschaftler:innen zu verbreiten. Unsere Heimatinstitutionen profitieren direkt von diesem Wissenstransfer, da wir Kolleg:innen, die sich möglicherweise nicht täglich mit KI oder deren potenziellen Risiken befassen, besser schulen können. Was den verantwortungsvollen Einsatz von GenAI angeht, hoffe ich, dass zukünftige Projekte noch stärker den Wert auf Biosicherheit und proaktive Risikobewertung legen werden. Es ist entscheidend, diese Auswirkungen offen zu diskutieren, bevor erhebliche Risiken auftreten. Für mich persönlich war der Sandpit schon jetzt ein Erfolg: Ich habe unglaublich interessante Forschende kennengelernt, was zu spannenden Kooperationen geführt hat.

Anne Schmieder ist Bioinformatikerin an der Universität Leipzig und Mitglied des KI-Kompetenzzentrums Center for Scalable Data Analytics and Artificial Intelligence (ScaDS.AI).
Ansprechpartner
Dr. Maximilian Sprang, Universitätsmedizin der Johannes Gutenberg-Universität Mainz, The Mayer Lab, masprang@uni-mainz.de

