Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Forschende warnen: Freie Biodaten erleichtern KI das Entwickeln gefährlicher Erreger

ARCHIV: Ein Labortechniker verfolgt in Belgien am Computer Forschungen zum Coronavirus COVID-19.
ARCHIV: Ein Labortechniker in Belgien arbeitet am Computer an der Erforschung des Coronavirus COVID‑19. Copyright  Copyright 2020 The Associated Press. All rights reserved
Copyright  Copyright 2020 The Associated Press. All rights reserved
Von Marta Iraola Iribarren
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Mehr als einhundert Forschende fordern strenge Schutzregeln für riskante biologische Datensätze, damit KI nicht zum Bau tödlicher Erreger missbraucht wird.

KI-Modelle für die Biologie brauchen riesige Mengen an Daten, etwa genetische Sequenzen und Informationen über Krankheitserreger. Doch sollten diese Informationen für alle frei zugänglich sein – und wie lässt sich sicherstellen, dass sie nur rechtmäßig genutzt werden?

WERBUNG
WERBUNG

Mehr als einhundert Forschende warnen nun: Wenn bestimmte biologische Datensätze ohne Einschränkung verfügbar sind, könnten KI-Systeme damit gefährliche Viren entwerfen oder verbessern. Sie fordern strengere Schutzmaßnahmen, um Missbrauch zu verhindern.

In einem offenen Brief (Quelle auf Englisch) erklären Forschende führender Einrichtungen wie der Johns Hopkins University, der University of Oxford, der Fordham University und der Stanford University: Offen zugängliche wissenschaftliche Daten haben die Forschung enorm beschleunigt. Ein kleiner Teil neuer biologischer Daten berge jedoch erhebliche Biosicherheitsrisiken, wenn ihn jemand missbrauche.

„Es steht viel auf dem Spiel, wenn es um die Regeln für biologische Daten geht, denn KI-Modelle können bei der Entwicklung schwerwiegender biologischer Bedrohungen helfen“, schreiben die Autorinnen und Autoren.

KI-Modelle in der Biologie sagen Mutationen voraus, erkennen Muster und können Varianten von Pandemie-Erregern erzeugen, die sich leichter verbreiten.

Die Forschenden bezeichnen das als „besorgniserregende Fähigkeit“. Solche Modelle könnten die Entwicklung übertragbarer Krankheitserreger stark beschleunigen und vereinfachen – mit potenziellen Pandemien beim Menschen, aber auch bei Tieren, Pflanzen oder in ganzen Ökosystemen.

Im Grundsatz sollten biologische Daten offen zugänglich bleiben, betonen sie. Für „besorgniserregende Erregerdaten“ brauche es jedoch deutlich strengere Sicherheitsprüfungen.

„Wir wollen die problematischsten Datensätze definieren und regulieren, bevor sie allgemein für KI-Entwicklerinnen und -Entwickler verfügbar sind“, heißt es weiter. Der Vorschlag sieht dafür einen neuen Rahmen für den Zugang vor.

„In einer Zeit, in der weltweit immer mehr quelloffene KI-Modelle für die Biologie entstehen, gehört der begrenzte Zugang zu sensiblen Erregerdaten für legitimierte Forschende wohl zu den wirksamsten Hebeln, um Risiken zu senken“, sagt Moritz Hanke, Mitautor des Schreibens von der Johns Hopkins University.

Wie Entwicklerinnen und Entwickler reagieren

Bislang gibt es keinen einheitlichen Rahmen für den Umgang mit solchen Datensätzen. Einige Entwicklerinnen und Entwickler schließen Hochrisiko-Daten freiwillig aus. Forschende fordern jedoch klare und einheitliche Regeln für alle.

Die Teams hinter führenden biomedizinischen KI-Modellen wie Evo, entwickelt vom Arc Institute, der Stanford University und TogetherAI, sowie ESM3 von EvolutionaryScale, haben bestimmte Virus-Sequenzen bewusst nicht in ihre Trainingsdaten aufgenommen.

Im Februar zweitausendfünfundzwanzig erklärte das Team von EVO 2, es habe Krankheitserreger ausgeschlossen, die Menschen und andere komplexe Organismen infizieren. Grund seien ethische und sicherheitsrelevante Bedenken – und der Wunsch, einer Nutzung von Evo zur Entwicklung biologischer Waffen zuvorzukommen.

EVO 2 ist ein quelloffenes KI-Modell für die Biologie. Es kann die Auswirkungen von DNA-Mutationen vorhersagen, neue Genome entwerfen und Muster im genetischen Code aufspüren.

„Derzeit gibt es keine von Fachleuten abgestützte Leitlinie dazu, welche Daten tatsächlich relevante Risiken bergen“, schrieb Mitautor Jassi Panu auf LinkedIn. „Einige Vorreiter unter den Entwicklerinnen und Entwicklern müssen daher nach bestem Wissen entscheiden und schließen Virusdaten vorsorglich aus dem Training aus.“

Welche Daten als riskant gelten

Der vorgeschlagene Rahmen soll nur für einen kleinen Teil aller biologischen Datensätze gelten, betonen die Autorinnen und Autoren.

Dafür führen sie eine Skala namens Biosecurity Data Level (BDL) mit fünf Stufen ein. Sie ordnet Erregerdaten nach ihrem „Risiko“ ein – je nachdem, ob sie KI-Systemen helfen könnten, allgemeine Virusmuster oder neuartige Bedrohungen für Tiere und Menschen zu lernen.

BDL-0: Alltägliche biologische Daten. Sie sollten ohne Einschränkungen zugänglich sein und frei geteilt werden können.

BLD-1: Einfache Bausteine von Viren, etwa genetische Sequenzen. Hier reichen geringe Sicherheitsvorkehrungen; Zugänge sollten aber registriert und protokolliert werden.

BLD-2: Daten zu Eigenschaften von Tier-Viren, etwa zum Überspringen auf andere Arten oder zur Überlebensfähigkeit außerhalb des Wirts.

BLD-3: Daten zu Eigenschaften von Viren, die Menschen betreffen, etwa zur Übertragbarkeit, zu Symptomen oder zur Resistenz gegen Impfstoffe.

BLD-4: „Aufgerüstete“ Viren beim Menschen, zum Beispiel Mutationen des COVID-19-Erregers, die ihn ansteckender machen. Für diese Stufe sollen die strengsten Auflagen gelten.

Wie sich der Zugang sicher gestalten lässt

Um den Zugang sicher zu machen, fordert der Brief konkrete technische Lösungen. Damit sollen Datenanbieter berechtigte Nutzerinnen und Nutzer verifizieren und möglichen Missbrauch nachverfolgen können.

Vorgeschlagene Instrumente sind unter anderem Wasserzeichen, also versteckte eindeutige Kennungen in Datensätzen, mit denen sich Lecks nachvollziehen lassen. Hinzu kommen Nachweise zur Herkunft der Daten, Prüfprotokolle mit fälschungssicheren Signaturen für alle Zugriffe und Änderungen sowie Verhaltensbiometrie, die individuelle Nutzungsmuster erkennt.

Die Forschenden sind überzeugt: Je leistungsfähiger und verbreiteter KI-Systeme werden, desto wichtiger wird ein gutes Gleichgewicht zwischen Offenheit und den nötigen Sicherheitsauflagen für besonders riskante Daten.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Studie: Luftverschmutzung erhöht Risiko für Alzheimer

Studie: Einmalige DMT-Gabe aus Ayahuasca könnte Depression lindern

Forscher entdecken 5.000 Jahre alte Bakterien, resistent gegen moderne Antibiotika