Meta und KI-Training: Was passiert mit Nutzerdaten auf Facebook und Instagram ab dem 27.05.2025?

Am 27. Mai 2025 hat Meta (der Betreiber von Facebook, Instagram, WhatsApp und Threads) offiziell begonnen, personenbezogene Daten europäischer Nutzer zum Training seiner generativen KI-Modelle zu verwenden. Vorausgegangen war eine umfassende Abstimmung mit der irischen Datenschutzbehörde (Data Protection Commission, DPC), die den aktualisierten Ansatz von Meta genehmigte. Zuvor hatte die EU-Kommission im vergangenen Jahr Meta‘s ursprüngliche Pläne gestoppt – vor allem wegen mangelnder Transparenz und fehlender Einwilligung der Nutzer.

In Vorbereitung auf den Start informierte Meta ab Anfang Mai 2025 sämtliche Nutzer in der EU und dem EWR per In-App-Benachrichtigungen über die geplante Datenverarbeitung. Zusätzlich wurde ein aktualisiertes Widerspruchsformular bereitgestellt. Wer der Nutzung seiner öffentlich zugänglichen Inhalte – etwa Posts, Kommentare und Profilinformationen – nicht bis zum 26. Mai 2025 widersprochen hat, dessen Daten fließen nun in das Training der KI-Systeme ein.

Widerspruch statt Einwilligung 

Meta setzt bei der Einbindung personenbezogener Daten in das Training seiner KI-Modelle auf ein Opt-out-Verfahren. Nutzer mussten der Nutzung ihrer öffentlich zugänglichen Inhalte nicht aktiv zustimmen, sondern konnten dieser innerhalb einer gesetzten Frist widersprechen. Ein vergleichbares Vorgehen ist beispielsweise auch im Zusammenhang mit der elektronischen Patientenakte im deutschen Gesundheitswesen bekannt. Die öffentliche Resonanz auf dieses Verfahren fiel bislang vergleichsweise zurückhaltend aus. Die rechtliche und ethische Bewertung dieser Praxis ist weiterhin Gegenstand fachlicher und gesellschaftlicher Diskussionen.

Wie legen Sie einen Widerspruch nach dem 27.05.2025 ein?

Der Widerspruch kann über die Facebook- oder Instagram-App eingereicht werden. Er erstreckt sich auf alle Profile, die mit dem jeweiligen Konto verknüpft sind, sodass keine mehrfachen Einreichungen erforderlich sind.

Schritt-für-Schritt Anleitung:

Facebook:

  1. Profilbild unten rechts antippen.
  2. Oben links das Zahnrad-Symbol (Einstellungen) wählen.
  3. „Datenschutzrichtlinie“ aufrufen.
  4. Im Text den Link „(erfahre, was das für deine Rechte bedeutet)“ anklicken.
  5. Im erscheinenden Fenster auf ,,Widerspruch‘‘ klicken. 
  6. Auf der sich öffnenden Seite – Widerspruchsrecht – auf ,,zu widersprechen‘‘ klicken.
  7. Dann Auswählen auf welches Produkt man sich bezieht und daraufklicken:
  • Facebook (In Ihrem Fall Facebook, da wir uns gerade auf dieser Plattform befinden.)
  • Instagram
  • Threads
  • Meta Quest
  • AI Glasses
  • Meta AI app
  1. Auf ,,Wie kann ich der Verarbeitung meiner Informationen widersprechen?‘‘ drücken.
  2. Anschließend auf ,,Ich möchte der Verwendung meiner Informationen für Meta AI widersprechen gehen.
  3. Im folgenden Fenster reicht es, unten auf „Senden“ zu klicken (eine Begründung ist optional).
  4. Sie erhalten eine E-Mail, die den Eingang des Widerspruchs bestätigt.

Instagram:

  1. Profilbild unten rechts antippen.
  2. Oben links das Menü (drei horizontale Striche) öffnen.
  3. „Privacy Center“ auswählen.
  4. Im erscheinenden Fenster auf ,,Zweckenwidersprechen‘‘ klicken. 
  5. Im folgenden Fenster reicht es, unten auf „Senden“ zu klicken (eine Begründung ist optional).
  6. Sie erhalten eine E-Mail, die den Eingang des Widerspruchs bestätigt.

Allgemeines Formular:

Zusätzlich besteht die Möglichkeit der Nutzung zu widersprechen, selbst wenn man kein Meta-Community-Mitglied ist. Auch Personen, die kein aktives Konto bei Facebook oder Instagram besitzen, können in bestimmten Fällen betroffen sein – etwa wenn ihre Daten in öffentlich zugänglichen Inhalten durch andere Nutzer erscheinen oder verarbeitet werden. Das hierfür vorgesehene Formular finden Sie unter:

https://www.facebook.com/help/contact/510058597920541

Was passiert mit Ihren Daten nach dem Widerspruch?

Laut Meta entfaltet ein Widerspruch Wirkung ab dem Tag seiner Erklärung – er gilt also ausschließlich für die Zukunft. In der Bestätigungs-E-Mail sowie in den Datenschutzinformationen heißt es dazu:

„…nicht mehr für die künftige Entwicklung und Verbesserung generativer KI-Modelle für KI von Meta verwenden.“

Das bedeutet: Daten, die bereits vor dem Widerspruch in bestehende Modelle eingeflossen sind, verbleiben dort und werden nicht entfernt. Nutzer, die rechtzeitig bis zum 26. Mai 2025 widersprochen haben, verhindern damit, dass ihre öffentlich zugänglichen Inhalte überhaupt in das Training der KI-Modelle einbezogen wurden.

Ein nachträglicher Widerspruch entfaltet keine rückwirkende Wirkung, schließt jedoch eine weitere Nutzung der betreffenden Daten aus. Darüber hinaus stellt er sicher, dass auch zukünftige öffentliche Inhalte dieser Nutzer nicht für KI-Trainingszwecke herangezogen werden. Ein Widerspruch kann daher auch nach dem Stichtag sinnvoll sein.

Was sind generative KI-Modelle?

Bei generativen KI-Modellen handelt es sich um Computermodelle, die mit Milliarden von Informationen von verschiedenen Daten (Bilder, Texte und Audio) trainiert werden. Durch Analyse und Auswertung dieser eingespeisten Daten lernt das Modell und kann so Beziehungen und Zusammenhänge von verschiedenen Inhalten lernen. Die Modelle sind dadurch in der Lage neue Inhalte zu erstellen. Und dies geschieht nach Anweisung oder aufgrund einer Frage einer Person – ähnlich wie bei ChatGPT. Es können also Bilder, Texte und Audios erstellt werden. Die bekanntesten Anwendungsbereiche sind:

  • Large Language Models (LLMs): Verstehen und generieren natürlichsprachliche Texte (z. B. Chatbots, Übersetzungen, Zusammenfassungen).
  • Bildgenerierungsmodelle: Erzeugen neuer Bilder auf Basis von Textbeschreibungen.
  • Multimodale Systeme: Verarbeiten und kombinieren verschiedener Input-Formate (z. B. Text + Bild).

Welche Daten werden von Meta für das Training ihrer KI-Modelle verwendet?

Laut Meta werden für das Training der KI-Modell öffentliche Informationen von Nutzern verwendet, die mindestens 18 Jahre alt. Dazu zählen:

  • Stets öffentlich einsehbare Informationen (also nicht private Chats) wie Nutzername, Profilname, Aktivitäten in öffentlichen Gruppen, Kommentare, Bewertungen, Rezensionen und Avatare.
  • Optional öffentliche Inhalte wie Beiträge, Fotos, Videos.
  • Interaktionsdaten, die im Zusammenhang mit der Nutzung von Meta-KI-Funktionen entstehen.

Es besteht die Möglichkeit, dass auch Personen ohne eigenes Meta-Konto indirekt betroffen sind. Wenn Inhalte, auf denen sie erkennbar sind (beispielsweise Fotos oder Kommentare), von anderen öffentlich geteilt werden, können diese ebenfalls in das KI-Training einfließen.

Unklarheit besteht hinsichtlich der Nutzung sensibler oder privater Daten, etwa Kontaktdaten. Meta gibt an, solche Informationen unter anderem zu verwenden, um „sensible Themen diskriminierungsfrei“ in den Modellen abzubilden.

Was passiert mit den trainierten Modellen?

Die auf Basis dieser Daten trainierten KI-Modelle kommen weltweit zum Einsatz – sowohl für private Nutzer als auch für Unternehmen. Sie stehen über verschiedene Angebote zur Verfügung, darunter:

  • Meta AI (beispielsweise Chatfunktionen oder kreative Tools),
  • KI-gestützte Creator-Werkzeuge,
  • sowie offene Plattformen für Forschung und Entwicklung.

Die Datenbasis wird somit nicht nur für interne Zwecke genutzt, sondern auch Dritten zugänglich gemacht. 

Rechtsgrundlage und aktuelle Rechtsprechung

Meta beruft sich bei der Nutzung personenbezogener Daten für KI-Trainings auf ein berechtigtes Interesse. Das Oberlandesgericht Köln bestätigte in einer vorläufigen Entscheidung vom 23. Mai 2025 (Az. 15 UKl 2/25), dass das Interesse von Meta an der Datenverwendung das informationelle Selbstbestimmungsrecht der betroffenen Nutzer überwiegt. Dabei sah das Gericht keinen Verstoß gegen die DSGVO oder den Digital Markets Act (DMA). Das Urteil erfolgte im Eilverfahren und ist nicht endgültig; das Hauptsacheverfahren steht noch aus.

Da Meta bereits mit dem Daten-Training begonnen hat und nach eigenen Angaben einzelne Daten nicht mehr aus den Modellen entfernt werden können, würde eine abweichende spätere Entscheidung vermutlich zu einer Löschung der betroffenen KI-Modelle führen.

Vor dem Hintergrund der enormen Entwicklung personenbezogener Daten seit Beginn sozialer Netzwerke stellt sich die Frage, ob die Berufung auf ein berechtigtes Interesse angemessen ist. Insbesondere da viele Nutzer ihre Profile als Minderjährige angelegt haben, deren Daten nun rückwirkend für das KI-Training verwendet werden. Eine datenschutzfreundlichere Alternative könnte sein, ausschließlich Daten zu verwenden, die unter den neuen Rahmenbedingungen ab dem 26. Mai 2025 veröffentlicht wurden. 

Das Urteil des OLG Köln nimmt diese grundsätzlichen Bedenken nicht in den Fokus, obwohl feststeht, dass einmal in KI-Modelle eingespeiste Daten nicht isoliert gelöscht werden können. Dies wirft weitergehende Fragen hinsichtlich Privatsphäre, Selbstbestimmung und der Kontrolle über persönliche Informationen auf.

Rechtliche Rahmenbedingungen bei einseitigen Vertragsänderungen

Das Urteil des Landgerichts Köln vom 15. Mai 2025 im Verfahren gegen Netflix (Az. 6 S 114/23) bietet Hinweise darauf, wie Gerichte einseitige Änderungen vertraglicher Vereinbarungen bewerten könnten. Im konkreten Fall wurde festgestellt, dass eine Vertragsänderung, die lediglich über ein Pop-up-Fenster mit einer einfachen „Zustimmen“-Option kommuniziert wird, den Anforderungen an wirksame Vertragsangebote nicht genügt. Auch die Aufnahme entsprechender Klauseln in Allgemeinen Geschäftsbedingungen, selbst wenn diese mit einem Sonderkündigungsrecht verbunden sind, wurde als unzureichend im Sinne des § 307 BGB beurteilt. In der Folge wurde Netflix zur Rückerstattung überzahlter Beträge verpflichtet.

Überträgt man diese rechtlichen Maßstäbe auf die Praxis von Meta, lassen sich Parallelen erkennen, wobei die Informationsvermittlung dort tendenziell weniger deutlich erfolgt. Meta informierte Nutzer vornehmlich über eine App-interne Benachrichtigung, die sich optisch in eine Vielzahl alltäglicher Hinweise einfügte und deren Relevanz für Vertragsänderungen von den Nutzern möglicherweise nicht als vorrangig wahrgenommen wird. Eine gesonderte und aktive Mitteilung, etwa in Form einer E-Mail, fand nicht statt.

Vor diesem Hintergrund stellt sich die Frage, ob eine derart gestaltete und positionierte Mitteilung als rechtlich ausreichende Grundlage für eine Vertragsänderung angesehen werden kann, durch welche Meta berechtigt wird, personenbezogene Daten ohne ausdrückliche Einwilligung der Nutzer für KI-Trainingszwecke zu verwenden. Eine solche einseitige Anpassung des Vertragsinhalts könnte dazu führen, dass Meta sich einen wirtschaftlichen Vorteil aus der Nutzung personenbezogener Daten verschafft, solange kein aktiver Widerspruch erfolgt.

Rechtlich gilt es daher zu prüfen, ob dieses Vorgehen den Anforderungen an Transparenz, Freiwilligkeit und Wirksamkeit von Vertragsänderungen entspricht. Das genannte Urteil verdeutlicht, dass technische Möglichkeiten zur Vertragsänderung nicht automatisch deren rechtliche Zulässigkeit begründen.

Ein Anlass zum Innehalten

Die Vorstellung, dass Daten, einmal in ein KI-Modell eingespeist, nicht wieder gelöscht werden können, hat etwas Endgültiges. Es ist ein digitaler Abdruck, der sich nicht mehr zurücknehmen lässt – unabhängig davon, ob sich die persönliche Haltung oder die rechtlichen Rahmenbedingungen im Nachhinein ändern. Diese Unumkehrbarkeit wirft Fragen auf: über Kontrolle, über Verantwortung, über das Verhältnis zwischen Individuum und Technologie.

Was passiert, wenn aus verstreuten Datenmustern plötzlich ein Bild entsteht – nicht nur irgendeines, sondern eines, das Rückschlüsse auf Charakter, Vorlieben oder Denkweisen zulässt? Die Fähigkeit künstlicher Intelligenz, aus scheinbar losen Enden komplexe Profile zu formen, wirkt faszinierend und beunruhigend zugleich. Man fragt sich, ob das noch reine Analyse ist – oder schon eine Art automatisierter Interpretation unseres digitalen Selbst.

Und dann ist da diese neue Grenze: Zwischen dem, was real ist, und dem, was technisch erzeugt werden kann. Stimmen, Gesichter, sogar ganze Szenarien lassen sich heute täuschend echt simulieren. Es braucht oft nur wenige Sekunden Tonmaterial, um daraus etwas zu erschaffen, das wie echt wirkt – aber keines ist. Was bedeutet das für Vertrauen? Für Beweisbarkeit? Für Identität?

Auch das Kräfteverhältnis verschiebt sich. Wenn wenige Akteure über gewaltige Datenmengen und die Mittel zu deren Verarbeitung verfügen, entsteht ein neues Maß an Gestaltungsmacht – nicht notwendigerweise mit böser Absicht, aber doch mit erheblichem Einfluss auf gesellschaftliche Dynamiken. Denn in einer Welt, in der Informationen zur Ressource geworden sind, entscheidet der Zugang zu Daten zunehmend auch über die Spielräume gesellschaftlicher Teilhabe und Kontrolle.

Vielleicht liegt die entscheidende Frage gar nicht in einem konkreten Risiko, sondern in der Summe vieler kleiner Unsicherheiten. Und vielleicht ist jetzt der richtige Moment, innezuhalten – nicht aus Angst, sondern um bewusst zu entscheiden, in welchem Verhältnis wir als Gesellschaft zu einer Technologie stehen wollen, die uns spiegelt, versteht – und möglicherweise auch formt.