LinkedIn startet KI-Training mit Nutzerdaten
Das Karriere-Netzwerk LinkedIn, das zu Microsoft gehört, führt ab dem 3. November 2025 eine neue Datennutzungsrichtlinie ein. Künftig sollen Inhalte und Daten der Mitglieder genutzt werden, um generative KI-Modelle zu trainieren.
Offiziell soll die Maßnahme dazu dienen, das Nutzererlebnis zu verbessern und Mitglieder „besser mit Möglichkeiten in Verbindung zu bringen“. Doch Datenschützer schlagen Alarm: Gerade in Europa, wo die DSGVO strenge Vorgaben setzt, könnte die Praxis zum Problem werden.
Welche Daten betroffen sind
Nach Angaben des Unternehmens fließen zahlreiche Datenkategorien in das KI-Training ein:
- Profildaten: Name, Foto, Position, Werdegang, Ausbildung, Standort, Kompetenzen, Zertifikate, Lizenzen, Ehrenämter, Veröffentlichungen, Patente, Empfehlungen und Bewertungen.
- Interaktionsdaten mit KI-Features: Eingaben, Prompts, Suchanfragen.
- Bewerbungsdaten: hochgeladene Lebensläufe, Antworten auf Stellenfragen (ohne direkte Bewerbungskontexte).
- Nutzerinhalte: Posts, Artikel, Kommentare, Umfragen.
Ausgenommen sind private Nachrichten (InMails), Login-Daten, Zahlungs- und Kreditkarteninformationen sowie sensible Gehalts- und Bewerbungsangaben. Minderjährige unter 18 Jahren sind ebenfalls ausgeschlossen.
Regionale Unterschiede – Widerspruch möglich
Die Umsetzung hängt stark von der Region ab:
- EU, Schweiz und UK: LinkedIn beruft sich auf „berechtigtes Interesse“ nach DSGVO – Nutzer können jedoch in den Einstellungen widersprechen.
- Kanada & Hongkong: Daten werden zusätzlich für personalisierte Werbung im Microsoft-Ökosystem geteilt.
- USA & andere Regionen: Hier ändern sich die bestehenden KI-Richtlinien zunächst nicht.
In der LinkedIn-App werden Mitglieder derzeit über ein Pop-up über die Änderungen informiert. Mit einem Schieberegler lässt sich der Datenverarbeitung widersprechen.
Surfshark-Experte warnt: „Eklatanter Missbrauch“
Besonders kritisch sieht das Karolis Kaciulis, leitender Systemingenieur beim VPN-Anbieter Surfshark. Seine Warnung fällt deutlich aus – und zeigt, wie tief die Sorgen reichen:
„Wenn KI aus öffentlichen Nutzerbeiträgen, Fotos und Texten lernt, ist das ein eklatanter Missbrauch und eine Fehlbehandlung von Nutzerdaten. Generative KI sollte nicht mit Nutzerdaten trainiert werden – und genau das zeigt, warum Regulierung für KI eine dringende Notwendigkeit ist“, sagt Karolis Kaciulis, leitender Systemingenieur bei Surfshark.
Er erklärte, dass persönliche Daten dem Menschen gehören – insbesondere in Europa, wo die DSGVO die Rechte der Nutzer schützt – und nicht Konzernen oder KI-Systemen.
„Das Teilen von Nutzerprofilen mit generativer KI kann dazu führen, dass diese gespeichert, analysiert und ohne volle Kontrolle der Nutzer verwendet werden – mit dem Risiko gezielter Manipulation, Identitätsdiebstahl oder Missbrauch.“
„Generative KI-Systeme basieren auf riesigen Datensätzen aus dem Internet – ohne Transparenz, Rechenschaftspflicht oder die Möglichkeit für Einzelne, zu widersprechen. Das widerspricht direkt den datenschutzorientierten Gesetzgebungen, an denen die EU arbeitet – und das muss geändert werden.“
„Wenn wir wollen, dass KI unsere Daten in Ruhe lässt, müssen wir die Entwicklung stoppen und von Grund auf neu beginnen. Einmal eingeflossene personenbezogene Daten lassen sich nicht mehr aus den KI-Algorithmen zu entfernen. Diese Systeme müssen daher nach neuen gesetzlichen Standards gestaltet werden, sodass generative KI die Rechte der Nutzer bei der Datenerhebung respektiert – und dies mit voller Transparenz.“
LinkedIn als Datensammler
Schon bisher gehört LinkedIn zu den datenhungrigsten Apps. Laut den offiziellen App-Store-Informationen sammelt die Plattform 26 von 35 von Apple definierten Datentypen – also rund 74 Prozent.
Dazu gehören unter anderem:
- Standort
- Kontakte
- Nutzungsdaten
- Identifikatoren
- Finanzinformationen
- Feed-Aktivitäten
- Nutzerinhalte
Diese Daten werden teilweise auch für Werbung durch Dritte genutzt.
Vergleich mit anderen Plattformen
LinkedIn ist mit dieser Strategie nicht allein. Auch andere Netzwerke setzen zunehmend auf Nutzerdaten für KI-Training:
- Meta (Facebook/Instagram) verwendet öffentliche Inhalte für KI-Modelle.
- Pinterest greift auf Nutzerposts zurück.
- Reddit hat sogar milliardenschwere Deals mit Google und OpenAI geschlossen, um Daten in KI-Training einzuspeisen.
- Anthropic nutzt Daten aus seinem Chatbot Claude für KI-Modelle.
Damit zeigt sich: Ein Trend zeichnet sich ab – die großen Plattformen wollen ihre Milliarden an Nutzerdaten in bares Geld umwandeln.
Was Nutzer jetzt tun können
- Einstellungen prüfen: In der LinkedIn-App lässt sich über die Privatsphäre-Einstellungen der Datenverarbeitung widersprechen.
- Datensparsamkeit üben: Je weniger Inhalte geteilt werden, desto weniger kann in KI-Systeme gelangen.
- Alternativen nutzen: Wer die Praxis ablehnt, könnte auf Netzwerke mit stärkerem Datenschutz ausweichen.
- Rechte nach DSGVO geltend machen: Nutzer können Auskunft, Berichtigung oder Löschung ihrer Daten beantragen.


