Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Manipulation, KI, Verbote: Die größten Social-Media-Skandale 2025

Soziale Medien prägen weiterhin unser Leben. Das gilt trotz großer Regulierungsreformen im Jahr 2025.
Trotz großer Einschnitte in der Regulierung 2025 prägen soziale Medien weiter unseren Alltag. Ihr Einfluss bleibt groß. Copyright  Canva
Copyright Canva
Von Amber Louise Bryce
Zuerst veröffentlicht am Zuletzt aktualisiert
Teilen Kommentare
Teilen Close Button

Künstliche Intelligenz, politische Einflussnahme und interne Krisen machten 2025 zu einem der turbulentesten Jahre für soziale Medien.

Mit dem Jahresende rechnen viele mit einer Flut an rückblickenden Instagram-Reels, gefilterten Erfolgsmeldungen und dem Vorsatz, weniger zu doomscrollen.

Soziale Medien prägen unseren Alltag. Wir messen damit Erfolge, knüpfen Kontakte und verfolgen Nachrichten und Trends. Sie haben sogar unsere Sprache verändert. Viele Wörterbücher küren Begriffe aus den sozialen Medien zu ihren Wörtern des Jahres: rage bait, parasocial und AI Slop, um nur einige zu nennen.

Seit dem Aufstieg künstlicher Intelligenz hat sich die Nutzung und Wahrnehmung sozialer Medien spürbar verändert. Wachsende Desinformation schürt Misstrauen und Ernüchterung. Das zeigt sich in der Nutzung der Plattformen.

Facebook bleibt laut der Suchmaschinen-Marketingfirma Semrush am beliebtesten. Gleichzeitig wachsen communitygetriebene Angebote wie Reddit und Discord weiter. Viele suchen nach persönlicheren, sinnstiftenden und authentischen Online-Räumen.

Gleichzeitig ringen Regulierer um die Balance zwischen offenem Internet und Sicherheit im Netz. Zweitausendfünfundzwanzig wirkt dadurch wie ein Wendepunkt für die Arbeit der Social-Media-Konzerne.

Von Altersprüfungen bis zu den Grok-Kontroversen rund um Elon Musks KI-Chatbot: Das sind die wichtigsten Debatten des Jahres in den sozialen Medien.

Verbote in sozialen Medien und Schutz von Minderjährigen

Am zehnten Dezember führte Australien eine Weltpremiere ein: ein Verbot sozialer Medien für alle unter 16. Kinder dürfen seitdem keine Konten mehr auf Plattformen wie Instagram, Snapchat, TikTok, YouTube, X und Facebook nutzen. Bei Verstößen drohen den Unternehmen hohe Geldstrafen.

Der Schritt ist drastisch. Er spiegelt die Sorge wider, dass soziale Medien der psychischen Gesundheit von Jugendlichen schaden. Laut der Weltgesundheitsorganisation (WHO) hat eine von zehn Jugendlichen negative Folgen durch die Nutzung erlebt.

Dänemark hat inzwischen Pläne angekündigt, nachzuziehen: Personen unter 15 sollen keinen Zugang zu sozialen Medien bekommen, es sei denn, Eltern füllen eine spezielle Selbstauskunft aus. Auch Spanien, Griechenland und Frankreich fordern ähnliche Schutzmaßnahmen.

Unterdessen traten im Juli im Rahmen des britischen Online Safety Act strenge Altersprüfungen in Kraft. Sie sollen Minderjährige daran hindern, Erwachsenen-Inhalte oder Inhalte zu sehen, die zu gefährlichem Verhalten verleiten.

Wie wirksam diese Gesetze sind, ist noch offen. Einige Experten äußern Skepsis. Jugendliche suchen derweil kreative Wege, die Regeln zu umgehen. Viele nutzen verstärkt Messenger wie WhatsApp. Einige kaufen sogar netzartige Masken, die erwachsen wirken, um die Gesichtserkennung auszutricksen.

AI Slop, Deepfakes und die Verbreitung von Desinformation

Zweitausendfünfundzwanzig hat AI Slop die Timelines erobert. Der Begriff steht für künstlich erzeugte Bilder und Videos aus generativen KI-Tools wie OpenAIs Sora. Sie fluten die Feeds mit absurden Schnellschüssen: Welpen, die sich in Zimtschnecken verwandeln, verhaftete Katzen oder die seltsam beliebten ‘Italian brain rot’-Memes.

Das wirkt harmlos, erschwert aber den Zugang zu echten, von Menschen gemachten Inhalten. Manchmal fördert es sogar Betrug und Desinformation, auch durch Politiker. US-Präsident Donald Trump zählt weiterhin als einer der überzeugtesten Nutzer; in einem Fall verbreitete er KI-generierte Bilder, die Sängerin Taylor Swift als Unterstützerin zeigten.

KI treibt auch die Produktion von Deepfakes voran, Videos, die Gesicht, Körper oder Stimme einer Person imitieren, um Falsches zu verbreiten. Ein Beispiel: Ein erfundenes TikTok-Video zeigte eine Frau in einer TV-Sendung, die Sozialbetrug gestand. Medien wie Fox News griffen es fälschlich auf.

Als Gegenmaßnahme kennzeichnen Plattformen wie Meta und TikTok inzwischen KI-generierte Inhalte. Doch die Masse macht eine lückenlose Umsetzung schwer. Ein Bericht des internen Aufsichtsgremiums von Meta aus dem Juni kam zu dem Urteil, die Kennzeichnung sei „uneinheitlich“.

Elon Musks Chatbot und Hassrede

Elon Musk, der die Social-Media-Plattform X (früher Twitter) im Jahr 2022 gekauft hat.
Elon Musk, der die Social-Media-Plattform X (früher Twitter) im Jahr 2022 gekauft hat. AP/ Pool Getty Images

Viele große Plattformen haben KI-Assistenten integriert. Sie unterstützen bei der Inhaltserstellung, bei Suchen und im Kundendienst. Am meisten Streit löste jedoch Elon Musks Chatbot Grok aus.

Grok stammt aus Musks Unternehmen xAI. Im Juli sorgte der Bot für Schlagzeilen, weil er Adolf Hitler lobte und ein Bot-Konto mit jüdischem Nachnamen beschuldigte, die Todesfälle weißer Kinder bei den Überschwemmungen in Zentraltexas zu feiern.

Musk erklärte damals, das System sei „zu eifrig, zu gefallen und sich manipulieren zu lassen“, daran werde „gearbeitet“. Trotzdem liefert Grok weiter bedenkliche Antworten, darunter antisemitische Verschwörungstheorien und Tipps, wie man Menschen nachstellt.

Strengere Regeln und Verantwortung für Algorithmen

Die Regulierung des Netzes hat in diesem Jahr angezogen. In Großbritannien trat der Online Safety Act in Kraft und verlangt mehr Transparenz und Verantwortung von den Social-Media-Unternehmen.

Auch der EU-Digital-Services-Act (DSA) verhängte erstmals eine Geldbuße: Elon Musks X soll 120 Millionen Euro zahlen. Die Werberichtlinien und die blauen Häkchen, früher ein Zeichen für verifizierte Konten und heute käuflich, verstoßen wegen mangelnder Klarheit gegen EU-Recht.

Im Mai erhielt auch TikTok eine Geldstrafe von 530 Millionen Euro durch die irische Datenschutzkommission (DPC), weil das Unternehmen beim Transfer nach China die personenbezogenen Daten von EU-Nutzern nicht ausreichend schützte.

Die gewaltigen Datenmengen und die damit verbundene Macht der Plattformen sowie die Sorge vor schädlichen Auswirkungen werden den Gesetzgeber wohl auch zweitausendsechsundzwanzig zu noch schärferer Kontrolle treiben.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

ChatGPT startet Jahresrückblick 2025 im Stil von Spotify Wrapped für Millionen Nutzende

Welche europäischen Länder erwägen ein Social-Media-Verbot für Kinder?

Roboter, die kuscheln, putzen und würzen: Das sind die verrücktesten Technik-Gadgets 2025