Open Source vs. Closed Source KI: Was ist der Unterschied und warum ist er wichtig?

Im Mittelpunkt der Debatte steht die Frage, wie die Technologie demokratisiert werden kann, doch Sicherheit und Profit haben in diesem Streit Vorrang.
Im Mittelpunkt der Debatte steht die Frage, wie die Technologie demokratisiert werden kann, doch Sicherheit und Profit haben in diesem Streit Vorrang. Copyright Canva
Copyright Canva
Von Pascale Davies
Diesen Artikel teilenKommentare
Diesen Artikel teilenClose Button
Dieser Artikel wurde im Original veröffentlicht auf Englisch

Regulierungsbehörden, Start-ups und Big Tech sind in der Debatte um offene oder geschlossene künstliche Intelligenz in zwei Lager gespalten, wobei Sicherheit und Profit führende Rollen spielen.

WERBUNG

Der Kampf zwischen den Unternehmen für generative künstliche Intelligenz (KI) ist in vollem Gange, und es gibt zwei konkurrierende Lager: Open-Source-Software und Closed-Source-Software.

Im Mittelpunkt der Debatte steht die Frage, wie die Technologie demokratisiert wird, und Sicherheit und Gewinn spielen in diesem Streit eine vorrangige Rolle.

Bei Open-Source-Software ist der Quellcode allgemein zugänglich und kann von jedermann verwendet, verändert und weitergegeben werden. Sie fördert Kreativität und Innovation, da Entwickler auf KI-Algorithmen und vortrainierten Modellen aufbauen können, um ihre eigenen Produkte und Tools zu verändern.

Closed-Source-KI hingegen bedeutet, dass der Quellcode nur für den privaten Gebrauch bestimmt ist und von den Nutzern nicht verändert oder weiterentwickelt werden kann; das kann nur das Unternehmen, dem er gehört. Die Finanzierung dieser Closed-Source-Unternehmen ist jedoch einfacher, was bedeutet, dass sie über mehr Kapital für Innovationen verfügen.

Auch die Definition dessen, was ein Unternehmen zu einem Open-Source-Unternehmen macht, ist nicht so eindeutig.

Die Definition von Open-Source-Technologie

Die Open Source Initiative (OSI) ist für die Definition der Open-Source-Technologie zuständig.

Sie stellt fest, dass "Open Source nicht nur den Zugang zum Quellcode bedeutet" und dass zehn Kriterien erfüllt sein müssen, darunter die Möglichkeit, den Quellcode zu einem angemessenen Preis oder kostenlos zu erhalten, dass die Lizenz nicht diskriminierend ist und dass sie andere Software nicht einschränkt.

Die Erfüllung aller OSI-Anforderungen ist jedoch eine Seltenheit, und die meisten Open-Source-Unternehmen sind nur teilweise quelloffen, wie etwa der französische KI-Champion Mistral. Mistral veröffentlicht seine Modellgewichte - die numerischen Parameter, die die Leistung eines KI-Modells beeinflussen - aber nicht die Daten oder den Trainingsprozess.

Technologie für alle

KI-Unternehmen, die sich als Open-Source-Unternehmen bezeichnen, argumentieren, dass sie die Technologie für alle zugänglicher machen.

Open Source trägt zur Demokratisierung der Tech-Wirtschaft bei, so Alex Combessie, CEO des französischen Open-Source-KI-Unternehmens Giskard, das er mitbegründet hat, gegenüber Euronews Next.

"Es ebnet das Spielfeld, denn wenn es Open Source ist, ist es kostenlos, zumindest im Allgemeinen. Das bedeutet, dass kleinere Akteure mit größeren konkurrieren können, weil sie kostenlosen Zugang zu den Produkten haben", sagte er.

"Und das ist sehr wichtig, vor allem in einer Welt, die so sehr von Monopolen in der Technologie dominiert wird".

Open Source sorgt auch für politische Gleichheit, da jeder den Code überprüfen kann, da er für die Regulierungsbehörden sichtbar ist, während bei Closed Source die Details nicht transparent sind.

Sicherheitsbedenken

Closed-Source-KI-Unternehmen wie der ChatGPT-Hersteller OpenAI (trotz seines Namens) argumentieren jedoch, dass Open Source unsere Sicherheit bedroht.

Das OpenAI-Logo auf einem Mobiltelefon vor einem Computerbildschirm mit binären Zufallsdaten, Donnerstag, 9. März 2023
Das OpenAI-Logo auf einem Mobiltelefon vor einem Computerbildschirm mit binären Zufallsdaten, Donnerstag, 9. März 2023Michael Dwyer/Copyright 2023 The AP.

OpenAI wurde ursprünglich gegründet, um quelloffene KI-Systeme zu entwickeln. 2019 erklärte das Unternehmen jedoch, dass es zu gefährlich sei, sein GPT-Sprachmodell weiterhin der Öffentlichkeit zugänglich zu machen, da es der menschlichen Sprache zu ähnlich sei und in den falschen Händen hochwertige Fake News erzeugen könnte.

Bei Closed-Source-KI gibt es auch Nutzungsrichtlinien, die Anfragen höflich ablehnen, z. B. die Anweisung, eine Bombe zu bauen oder ein tödlicheres Coronavirus zu entwickeln.

Technisch gesehen kann man die Richtlinien aushebeln, d. h. man kann sie hacken, um die Sicherheitsvorkehrungen einer KI zu umgehen. Aber diese Schwachstellen werden oft schnell behoben.

Open-Source-KI-Systeme verfügen im Allgemeinen über Sicherheitsvorkehrungen oder einen Leitfaden zur verantwortungsvollen Nutzung. Doch so sehr sie auch versuchen, Diskriminierung oder Gefahren zu bekämpfen, sobald eine Kopie des KI-Modells zugänglich ist, kann derjenige, der sie besitzt, die Sicherheitsvorkehrungen selbst ändern.

WERBUNG

Ein Paradebeispiel dafür war, als Meta im Juli letzten Jahres sein quelloffenes großes Sprachmodell (LLM) Llama 2 veröffentlichte.

Nur wenige Tage später veröffentlichten Leute ihre eigenen unzensierten Llama 2-Versionen und stellten Fragen zum Bau einer Atombombe, die das LLM dann beantworten konnte.

Sobald jemand eine "unzensierte" Version eines KI-Modells veröffentlicht, kann der ursprüngliche KI-Hersteller kaum noch etwas dagegen tun, zumal die Version bereits von anderen Nutzern heruntergeladen wurde.

Big-Tech-Geschäft

Im Dezember gründeten Meta und IBM eine Gruppe namens AI Alliance, die sich gegen die Closed-Source-Giganten OpenAI, Google und Microsoft stellt.

Die AI Alliance setzt sich für einen "Open Science"-Ansatz für KI ein und umfasst 74 Unternehmen, darunter Start-ups, Großunternehmen und gemeinnützige Organisationen.

WERBUNG
Die Abgeordneten stimmen am Mittwoch, den 14. Juni 2023, im Europäischen Parlament in Straßburg über das Gesetz über künstliche Intelligenz ab.
Die Abgeordneten stimmen am Mittwoch, den 14. Juni 2023, im Europäischen Parlament in Straßburg über das Gesetz über künstliche Intelligenz ab.Jean-Francois Badias/Copyright 2023 The AP.

"Ein offener, verantwortungsvoller und transparenter Ansatz für KI kommt allen zugute - der Industrie, der Wissenschaft und der Gesellschaft insgesamt", so Alessandro Curioni, IBM Fellow, Vizepräsident für Europa und Afrika und Direktor von IBM Research.

Auf die Frage nach der Sicherheit sagte er, die Idee hinter offener und transparenter KI sei, Ängste zu minimieren.

"Offene, transparente und verantwortungsbewusste KI wird dazu beitragen, die Sicherheit der KI zu erhöhen, indem sie sicherstellt, dass die offene Gemeinschaft von Entwicklern und Forschern die richtigen Risiken der KI anspricht und sie mit den am besten geeigneten Lösungen minimiert", sagte er gegenüber Euronews Next.

"Es bedeutet nicht, dass alle Technologien offen sein sollten - und vor allem bedeutet offen nicht, dass sie nicht kontrolliert werden. Governance ist gleichermaßen wichtig, egal ob es sich um offene oder proprietäre KI handelt", stellte er klar.

Das Finanzierungsproblem

Während das Open-Source-Argument besagt, dass Entwickler frei auf den Open-Source-KI-Modellen aufbauen und Grenzen verschieben können, steht natürlich das Geld im Mittelpunkt der Debatte.

WERBUNG

Einige Investoren könnten von einem Open-Source-Modell abgeschreckt werden, da sie sich mit einem sicheren Internetprotokoll (IP) wohler fühlen.

"Eine Konversation mit einem großen Sprachmodell in Echtzeit verbraucht auch viel Rechenleistung und verbindet sich mit computergestützten Cloud-Lösungen, was nicht gerade billig ist", sagte Dr. Theodore Chen, ein Datenwissenschaftler bei Deloitte.

"Zum jetzigen Zeitpunkt kann ich erkennen, dass es wirklich auf Investitionen in die Monetarisierung ankommt. Die Spitzentechnologie braucht also eine Finanzierung dafür", sagte er Euronews Next.

"Die Monetarisierung wird auch für die Entwicklung verwendet, die dazu genutzt werden könnte, genauere Modelle zu erstellen, was der Branche insgesamt zugute kommt", so Chen.

Die Technologie kann aber auch mit Open-Source-Modellen vorangetrieben werden, da Entwickler kreativ sein und neue Anwendungen für KI entwickeln können.

WERBUNG

"Wenn mehr Menschen Zugang zu den Rohmaterialien haben, mit denen sie wirklich kreative und sehr interessante Dinge tun können, könnten wir sehen, wie sich die Dinge in Richtungen ausbreiten, die wahrscheinlich weder Sie noch irgendjemand vermuten würde", sagte Tiago Cardoso, Produktmanager beim Softwareentwickler Hyland, gegenüber Euronews Next.

Regulierung

Die Debatte über offene oder geschlossene Quellen war auch ein Knackpunkt für die Regulierungsbehörden in Europa und den Vereinigten Staaten, die gegensätzliche Ansichten vertreten.

In Europa wird erwartet, dass das EU-KI-Gesetz im April endgültig vom Parlament verabschiedet wird. Der zur Verabschiedung anstehende Text besagt jedoch, dass das Gesetz nicht für quelloffene KI-Systeme gilt, es sei denn, sie sind verboten oder werden als Hochrisiko-KI-Systeme eingestuft.

Dies ist eine gute Nachricht für Frankreich und Deutschland, die sich während der Verhandlungen für den Schutz ihrer Open-Source-Start-ups eingesetzt haben.

In den Vereinigten Staaten hat Präsident Biden Ende letzten Jahres eine weitreichende Verfügung erlassen, die besagt, dass Open-Source-Modelle - die er als Dual-Use-Grundlagenmodelle bezeichnete -, wenn sie öffentlich ins Internet gestellt werden, "erhebliche Vorteile für die Innovation, aber auch erhebliche Sicherheitsrisiken mit sich bringen können, wie z. B. die Aufhebung von Sicherheitsvorkehrungen innerhalb des Modells".

WERBUNG

Biden hat Handelsministerin Gina Raimondo bis Juli Zeit gegeben, mit Experten zu sprechen und Empfehlungen vorzulegen.

Diesen Artikel teilenKommentare

Zum selben Thema

Sorry, Elon, Grok ist keine quelloffene KI. Die Schöpfer der Definition erklären warum

"Hypnotisierte" KI-Chatbots geben Informationen preis und erteilen schädliche Ratschläge

Thierry Breton: Europa ist ein fantastischer Ort für KI-Entwicklungen im Tourismus