dummy version - only for preview
©Adobe Stock - only preview, no license
Sandpit
Uni­ver­si­tät MainzNa­tur­wis­sen­schaf­ten

KI in der Biologie

Wie lässt sich KI in der Bio­lo­gie nutzen, ohne Miss­brauch zu ris­kie­ren?

DNA, RNA und Pro­te­ine steuern die mo­le­ku­la­ren Pro­zes­se in unseren Zellen maß­geb­lich. Neueste Modelle der Künst­li­chen In­tel­li­genz sind in der Lage, die Funk­ti­on solcher bio­lo­gi­schen Se­quen­zen vor­her­zu­sa­gen und sie neu zu er­schaf­fen, etwa KI-ge­ne­rier­te Viren. Bei einem Sandpit der Wübben Stif­tung Wis­sen­schaft dis­ku­tier­ten Expert:innen Stra­te­gi­en, um sich gegen Miss­brauch zu wappnen.

Was ge­ne­ra­ti­ve KI-Modelle bereits leisten können, be­wie­sen Wis­sen­schaft­ler:innen der Uni­ver­si­tät Stan­ford im Sep­tem­ber 2025. Sie er­zeug­ten Genome funk­tio­nie­ren­der Bak­te­rio­pha­gen, die teil­wei­se nichts mehr mit dem na­tür­li­chen Vorbild gemein hatten. Bak­te­rio­pha­gen sind Viren, die Bak­te­ri­en be­fal­len. Das künst­lich er­zeug­te Virus be­kämpf­te im Labor er­folg­reich Esche­ri­chia-coli-Bak­te­ri­en – und zeigte damit, dass ge­ne­ra­ti­ve KI-Modelle ein großes Po­ten­zi­al für eine Nutzung in der Medizin haben. So könnten ge­ne­rier­te Bak­te­rio­pha­gen zum Bei­spiel ein Ansatz gegen mul­ti­re­sis­ten­te Keime sein. Oder von einer ähn­li­chen KI er­son­ne­ne Pro­te­in­struk­tu­ren könnten als Basis für the­ra­peu­ti­sche An­ti­kör­per dienen, etwa gegen Krebs.

Wir wollen keine Horr­o­sze­na­ri­en her­auf­be­schwö­ren, uns geht es darum, die mög­li­chen Aus­wir­kun­gen ge­ne­ra­ti­ver KI-Modelle in den Le­bens­wis­sen­schaf­ten kri­tisch zu be­trach­ten.

Maximilian Sprang

Doch wie lässt sich aus­schlie­ßen, dass solche KI-Modelle ver­wen­det werden, um bio­lo­gi­sche Se­quen­zen zu ent­wer­fen, die eine schäd­li­che Wirkung ent­fal­ten können? Lässt man der Fan­ta­sie freien Lauf, fallen einem zahl­lo­se Miss­brauchs­sze­na­ri­en ein: Ein bös­wil­li­ger Akteur könnte ein neu­ar­ti­ges Virus kon­stru­ie­ren, das als Bio­waf­fe ein­ge­setzt wird oder einen Erreger, der nur jene Sorten von Reis­pflan­zen befällt, die im be­fein­de­ten Nach­bar­land wachsen.

„Wir wollen keine Horr­o­sze­na­ri­en her­auf­be­schwö­ren, uns geht es darum, die mög­li­chen Aus­wir­kun­gen ge­ne­ra­ti­ver KI-Modelle in den Le­bens­wis­sen­schaf­ten kri­tisch zu be­trach­ten“, sagt der Bio­in­for­ma­ti­ker Ma­xi­mi­li­an Sprang von der Jo­han­nes Gu­ten­berg-Uni­ver­si­tät Mainz. Er hat im No­vem­ber 2025 füh­ren­de Expert:innen aus In­for­ma­tik, Bio­lo­gie, Ethik, Politik und an­gren­zen­den Be­rei­chen sowie der Phar­ma­in­dus­trie zu­sam­men­ge­bracht, um neben den Chancen die Risiken zu be­leuch­ten, die von ge­ne­ra­ti­ver KI aus­ge­hen können. Der Fokus lag auf „Dual-Use-Sze­na­ri­en“ also dem dop­pel­ten Ver­wen­dungs­zweck der KI-Tech­no­lo­gie, die für le­bens­ret­ten­de Medizin genauso ein­ge­setzt werden kann wie für töd­li­che Bio­waf­fen. „Das Problem ist, dass die Modelle immer besser werden und dabei im Guten genauso wie im Schlech­ten An­wen­dung finden können“, sagt Sprang.

Das Sandpit-Prinzip: Viele un­ter­schied­li­che Dis­zi­pli­nen und pro­duk­ti­ve Miss­ver­ständ­nis­se

Sandpit Teilnehmer
©WSW

Drei Tage lang hatten die 24 Wis­sen­schaft­ler:innen in In­gel­heim die Mög­lich­keit, sich über den ak­tu­el­len Stand der Nutzung von KI in den Le­bens­wis­sen­schaf­ten aus­zu­tau­schen, un­ter­schied­li­che Per­spek­ti­ven zu dis­ku­tie­ren und Vor­schlä­ge für den Umgang mit po­ten­zi­el­len Risiken zu er­ar­bei­ten. Ein Ziel dabei war es, Stra­te­gi­en zu ent­wi­ckeln, um Risiken zu ver­mei­den, Leit­li­ni­en zu ver­fas­sen und tech­ni­sche Expert:innen stärker mit der Politik zu ver­net­zen, und so den Umgang mit ge­ne­ra­ti­ver KI si­che­rer zu machen. „Die Bio­lo­gie ver­sorgt uns mit der hoch­ent­wi­ckelts­ten ‚Hard­ware‘ des Uni­ver­sums, die wir für die Ge­sund­heits­ver­sor­gung der Zukunft und das Wohl­erge­hen unseres Pla­ne­ten nutzen können“, sagt Teil­neh­mer Marc Güell, Sys­tem­bio­lo­ge an der Pompeu Fabra Uni­ver­si­ty in Bar­ce­lo­na. „Aber wir müssen vor­sich­tig sein, wie wir diese Tech­no­lo­gie am besten nutzen.“

Den Rahmen für den Aus­tausch bot das Sandpit-Format, mit dem die Wübben Stif­tung Wis­sen­schaft dazu bei­tra­gen will, ak­tu­el­le For­schungs­fra­gen in in­ter­dis­zi­pli­nä­ren Teams zu ver­tie­fen. „Das Thema KI in den Le­bens­wis­sen­schaf­ten ist so viel­schich­tig, dass man es mit Silo-Denken gar nicht er­fas­sen kann“, sagt Sprang, „Es braucht Wissen aus ganz un­ter­schied­li­chen Feldern, um die Kon­se­quen­zen zu durch­den­ken.“ 

Der Sandpit ba­sier­te auf drei Aus­tausch­for­ma­ten: Kurzen „Seed-Talks“ – also Denk­an­stö­ßen –, Dis­kus­si­ons­run­den und in­ter­ak­ti­ven Sit­zun­gen. In den Key­notes brach­ten die Expert:innen aus den Be­rei­chen In­for­ma­tik, Bio­tech­no­lo­gie und Politik alle Teil­neh­men­den auf den ak­tu­el­len Stand ihres Fach­ge­biets. Die Dis­kus­si­ons­run­den in ver­schie­de­nen Zu­sam­men­set­zun­gen und Größen er­laub­ten den Aus­tausch über Her­aus­for­de­run­gen, während in in­ter­ak­ti­ven Work­shops – auf der Basis von Design-Thin­king – Ideen für eine sichere KI-Nutzung ent­stan­den. „Durch die wech­seln­den Kon­stel­la­tio­nen in Klein­grup­pen trafen viele un­ter­schied­li­che Dis­zi­pli­nen und Per­spek­ti­ven auf­ein­an­der, was zwangs­läu­fig zu Miss­ver­ständ­nis­sen führte – die jedoch eher pro­duk­tiv als hin­der­lich waren“, sagt Rosae María Martín Peña, eine der Teil­neh­men­den und Postdoc am Centre for Ethics and Law in the Life Sci­en­ces an der Leibniz Uni­ver­si­tät Han­no­ver.

Si­cher­heits­lü­cken, die es zu schlie­ßen gilt

Es exis­tie­ren bereits Re­gu­la­ri­en und Ver­fah­ren, um die Si­cher­heit von neu er­stell­ten bio­lo­gi­schen Se­quen­zen zu ge­währ­leis­ten. So gibt es bei­spiels­wei­se Er­ken­nungs­pro­to­kol­le, die zu­min­dest eine un­frei­wil­li­ge Ge­ne­rie­rung schäd­li­cher Se­quen­zen ver­hin­dern. Sie ver­glei­chen künst­lich her­zu­stel­len­de DNA mit be­kann­ten ge­fähr­li­chen Se­quen­zen und schla­gen Alarm, wenn die Ähn­lich­keit zu hoch ist. „Doch es gibt Si­cher­heits­lü­cken, zum Bei­spiel wenn mit Hilfe von KI die Grau­zo­ne zwi­schen be­kann­ten DNA-Se­quen­zen und neuen Teil-Se­quen­zen aus­ge­reizt wird und die neue Sequenz so durchs Raster fällt“, sagt Sprang. „Ganz neue DNA-Se­quen­zen her­zu­stel­len ist bisher nicht möglich, aber es kann reichen, das Be­kann­te neu zu­sam­men­zu­set­zen, um eine zer­stö­re­ri­sche Wirkung zu ent­fal­ten.“

Eine wich­ti­ge Dis­kus­si­on betraf die Ri­si­ko­mi­ni­mie­rung bei der Nutzung von KI-Mo­del­len im Über­gang von bio­me­di­zi­ni­scher For­schung zur kli­ni­schen Praxis. Denn selbst gut ge­mein­te An­wen­dungs­sze­na­ri­en können durch feh­len­de Ge­nau­ig­keit oder eine Ver­zer­rung der Da­ten­ba­sis pro­ble­ma­tisch sein und schlimms­ten­falls Patient:innen schaden. So muss man sich fragen, auf welcher Da­ten­ba­sis KI-Modelle zu ihren Er­geb­nis­sen kommen. „Die Modelle sind sehr da­ten­hung­rig und die meisten Daten, die sie er­hal­ten, be­zie­hen sich nach wie vor auf kau­ka­si­sche Männer, was eine Ver­zer­rung der Vor­her­sa­gen mit sich bringt“, sagt Sprang. Genauso werden de­mo­gra­fi­sche oder so­zio­öko­no­mi­sche Un­ter­schie­de oft nicht aus­rei­chend be­rück­sich­tigt. Armut zum Bei­spiel ist ein wich­ti­ger Faktor für die Ge­sund­heit. „Wenn solche Aspekte un­be­ach­tet bleiben, kann es zu feh­ler­haf­ten Schlüs­sen kommen.“

Um solche Lücken zu schlie­ßen, ist eine ethi­sche Re­gu­lie­rung er­for­der­lich, die über tech­ni­sche Si­cher­heits­vor­keh­run­gen hin­aus­geht und neben In­no­va­ti­on auch die Zu­wei­sung von Ver­ant­wor­tung, Da­ten­schutz auf Be­völ­ke­rungs­ebe­ne und robuste Auf­sichts­me­cha­nis­men umfasst.

Martín Peña

Was eine wich­ti­ge Frage auf­wirft: Wer ist ver­ant­wort­lich, wenn etwas schief­läuft? Wenn in der Klinik zum Bei­spiel eine falsche The­ra­pie auf der Basis von fehl­ge­lei­te­ten KI-Mo­del­len an­ge­ord­net wird. Meist ver­teilt sich die Ver­ant­wor­tung auf viele Akteure und ist die Haftung un­ge­klärt. „Um solche Lücken zu schlie­ßen, ist eine ethi­sche Re­gu­lie­rung er­for­der­lich, die über tech­ni­sche Si­cher­heits­vor­keh­run­gen hin­aus­geht und neben In­no­va­ti­on auch die Zu­wei­sung von Ver­ant­wor­tung, Da­ten­schutz auf Be­völ­ke­rungs­ebe­ne und robuste Auf­sichts­me­cha­nis­men umfasst“, sagt Martín Peña.

Der Sandpit wirkt fort als aktives Expert:innen-Netz­werk

Sandpit Teilnehmer
©WSW

Wich­tigs­tes Ziel des Sand­pits war es, zu­nächst ein White­pa­per  zu ver­fas­sen, das die ethisch kor­rek­te Da­ten­nut­zung und die Risiken von Dual-Use-Sze­na­ri­en in den Blick nimmt – und Emp­feh­lun­gen gibt, um diese zu mi­ni­mie­ren. „Zum Ende des Sand­pits haben wir in Klein­grup­pen Lö­sun­gen für sehr kon­kre­te Pro­blem­stel­lun­gen er­ar­bei­tet, die als Basis für das White­pa­per dienen“, sagt Sprang. „Wir waren alle über­rascht, wie viele gute Ansätze durch den Design-Thin­king-Ansatz in so kurzer Zeit zu­sam­men­ge­kom­men sind.“ Das White­pa­per, das im Sommer 2026 an po­li­ti­sche Gremien ver­schickt wird, soll eine Brücke zwi­schen po­li­ti­schen und wis­sen­schaft­lich-tech­ni­schen Ak­teu­ren schla­gen und eine fach­lich fun­dier­te Re­gu­lie­rung er­leich­tern.

KI-Modelle ver­spre­chen zahl­rei­che sinn­vol­le Nut­zungs­sze­na­ri­en für die Zukunft, aber wir müssen uns drin­gend damit aus­ein­an­der­set­zen, was sie wirk­lich leisten können, was die Risiken und die Bar­rie­ren sind.

Maximilian Sprang

Aus dem Sandpit könnte zudem ein großes eu­ro­päi­sches For­schungs­pro­jekt ent­ste­hen, das KI-Modelle für das Design von DNA-Se­quen­zen ent­wi­ckelt, die von sich heraus gegen Miss­brauchs­ri­si­ken ab­ge­si­chert sind. Ver­schie­de­ne För­der­an­trä­ge wurden bereits ge­stellt oder sind in Planung. Auch ver­bes­ser­te Me­cha­nis­men zur Er­ken­nung ge­fähr­li­cher ge­ne­rier­ter DNA-Se­quen­zen haben die Teil­neh­men­den in Arbeit. „KI-Modelle ver­spre­chen zahl­rei­che sinn­vol­le Nut­zungs­sze­na­ri­en für die Zukunft, aber wir müssen uns drin­gend damit aus­ein­an­der­set­zen, was sie wirk­lich leisten können, was die Risiken und die Bar­rie­ren sind“, sagt Sprang. „Gerade in der Medizin ist das be­son­ders wichtig, weil da eine falsche Nutzung schnell le­bens­be­droh­lich werden kann.“

Vom ersten Brain­stor­ming bis zum For­schungs­pro­jekt: In den Sand­pits der Wübben Stif­tung ent­ste­hen neue und mutige Ideen für die For­schung. Hier geht es zum För­der­pro­gramm

Nach­ge­fragt bei: Anne Schmie­der

Wir können uns noch nicht blind auf ge­ne­ra­ti­ve KI-Modelle ver­las­sen, aber die ein­ge­spar­ten Res­sour­cen machen sie zu einem un­ver­zicht­ba­ren Gewinn.

Anne Schmieder

Welche Per­spek­ti­ve haben Sie in die Dis­kus­si­on ein­ge­bracht?
Als For­scher in einem Protein-Design-Labor, dem Schoeder Lab an der Uni­ver­si­tät Leipzig, und als Mit­glied des KI-Kom­pe­tenz­zen­trums ScaDS.AI arbeite ich täglich mit ge­ne­ra­ti­ven KI-Tools. Ich habe mich am Sandpit be­tei­ligt, um ver­schie­de­ne Per­spek­ti­ven darüber zu ge­win­nen, wie ge­ne­ra­ti­ve KI, kurz GenAI, die Bio­wis­sen­schaf­ten ver­än­dert – und, um in einen in­ter­dis­zi­pli­nä­ren Dialog zu treten. Meiner Meinung nach liegt das größte Po­ten­zi­al von GenAI in den Be­rei­chen Phar­ma­zie, Medizin und Chemie. Die Ge­schwin­dig­keit und Ka­pa­zi­tät, mit der wir nun nach po­ten­zi­el­len Wirk­stoff­kan­di­da­ten suchen können, hat sich ex­po­nen­ti­ell erhöht. Zwar bleibt die ex­pe­ri­men­tel­le Va­li­die­rung im Labor nach wie vor un­er­läss­lich, doch ist der an­fäng­li­che Such­pro­zess weitaus ef­fi­zi­en­ter. Obwohl für mich die Vor­tei­le die Risiken über­wie­gen, bleibt die In­ter­pre­tier­bar­keit die größte Her­aus­for­de­rung. Derzeit ist es schwie­rig, voll­stän­dig zu ver­ste­hen, wie diese Modelle Ein­ga­be­da­ten ver­ar­bei­ten und wie man ihre Er­geb­nis­se mit 100-pro­zen­ti­ger Si­cher­heit in­ter­pre­tie­ren kann. Wir können uns noch nicht blind auf ge­ne­ra­ti­ve KI-Modelle ver­las­sen, aber die ein­ge­spar­ten Res­sour­cen machen sie zu einem un­ver­zicht­ba­ren Gewinn.

Warum war der Sandpit ein gutes Format, um die Dis­kus­si­on zu ge­ne­ra­ti­ver KI vor­an­zu­brin­gen?
Das Sandpit-Format war her­vor­ra­gend ge­eig­net, um einen kon­ti­nu­ier­li­chen Aus­tausch an­zu­sto­ßen. Be­son­ders gut hat mir ge­fal­len, wie die Grup­pen­ar­beit uns dazu er­mu­tigt hat, auch au­ßer­halb unserer spe­zi­fi­schen Nischen zu lernen. Die pro­fes­sio­nel­le Mo­de­ra­ti­on war ent­schei­dend; sie hielt uns nicht nur auf Kurs, sondern er­mög­lich­te auch wert­vol­le Ne­ben­dis­kus­sio­nen, die zu starken Bin­dun­gen zwi­schen den Teil­neh­men­den führten. Da die Gruppen für jede Aufgabe neu zu­sam­men­ge­stellt wurden, waren wir ständig mit neuen Sicht­wei­sen kon­fron­tiert. Diese dy­na­mi­sche Struk­tur er­mög­lich­te es, die eigene Per­spek­ti­ve kon­ti­nu­ier­lich zu ver­fei­nern und die Qua­li­tät der ge­mein­sa­men Er­geb­nis­se zu ver­bes­sern.

Was er­hof­fen Sie sich auf lange Sicht vom Sandpit?
Ich hoffe, dass der Sandpit das Be­wusst­sein für diese Themen schärft und dazu bei­trägt, das Fach­wis­sen unter Wis­sen­schaft­ler:innen zu ver­brei­ten. Unsere Hei­ma­t­in­sti­tu­tio­nen pro­fi­tie­ren direkt von diesem Wis­sens­trans­fer, da wir Kolleg:innen, die sich mög­li­cher­wei­se nicht täglich mit KI oder deren po­ten­zi­el­len Risiken be­fas­sen, besser schulen können. Was den ver­ant­wor­tungs­vol­len Einsatz von GenAI angeht, hoffe ich, dass zu­künf­ti­ge Pro­jek­te noch stärker den Wert auf Bio­si­cher­heit und pro­ak­ti­ve Ri­si­ko­be­wer­tung legen werden. Es ist ent­schei­dend, diese Aus­wir­kun­gen offen zu dis­ku­tie­ren, bevor er­heb­li­che Risiken auf­tre­ten. Für mich per­sön­lich war der Sandpit schon jetzt ein Erfolg: Ich habe un­glaub­lich in­ter­es­san­te For­schen­de ken­nen­ge­lernt, was zu span­nen­den Ko­ope­ra­tio­nen geführt hat.

Anne Schmieder
©Uni­ver­si­tät Leipzig

Anne Schmie­der ist Bio­in­for­ma­ti­ke­rin an der Uni­ver­si­tät Leipzig und Mit­glied des KI-Kom­pe­tenz­zen­trums Center for Scala­b­le Data Ana­ly­tics and Ar­ti­fi­ci­al In­tel­li­gence (ScaDS.AI). 

An­sprech­part­ner
Dr. Ma­xi­mi­li­an Sprang, Uni­ver­si­täts­me­di­zin der Jo­han­nes Gu­ten­berg-Uni­ver­si­tät Mainz, The Mayer Lab, ma­sprang@uni-mainz.de