LinkedIn gaat data van EU burgers alsnog gebruiken voor AI-training
Wat betekent het, waarom is het controversieel, en wat kun je doen?
VOOR DE JEUGDVOOR NERDS


Wat is er aan de hand?
LinkedIn heeft aangekondigd dat het vanaf 3 november 2025 gegevens van gebruikers in de Europese Economische Ruimte (EER) en Zwitserland gaat gebruiken om generatieve AI-modellen te trainen.
Het gaat om openbare content: profielinformatie, openbare berichten, groepsactiviteiten, publieke bijdragen. Privéberichten vallen níét onder deze training.
Bepaalde onderwerpen worden expliciet uitgesloten: gegevens van gebruikers waarvan vermoed wordt dat ze minderjarig zijn, salarisgegevens, sollicitatiegegevens, en privéberichten.
LinkedIn blijft de data bewaren zolang de gebruiker deze niet verwijdert; er is geen automatische verjaring tenzij de gebruiker zelf actie onderneemt.
Gebruikers krijgen wel de mogelijkheid zich af te melden (opt-out).
Wat betekent dit voor jou als gebruiker?
Voor jouw als Belg verandert er dus het volgende:
Je openbare content (profiel, berichten, bijdragen) kan gebruikt worden voor het trainen van AI. Dat betekent dat wat je post publiekelijk op LinkedIn, effect kan hebben op AI-modellen (suggesties, contentgeneratie, etc.) die LinkedIn aanbiedt of gaat aanbieden.
Je hebt de mogelijkheid om je af te melden: zorg dat je nagaat wat de instellingen zijn. (LinkedIn)
Privacy is niet helemaal “out of the box” gegarandeerd: als je niet wil dat je openbare content gebruikt wordt, moet je actie ondernemen.
Mogelijke toekomstige juridische uitdagingen: toezichthouders of privacyrechtenorganisaties kunnen bepalen of LinkedIn’s interpretatie van gerechtvaardigd belang voldoende robuust is in dit geval.
Voor- en nadelen
Voordelen:
AI-functies kunnen beter worden: contentgeneratie, aanbevelingen, profielsuggesties, etc., kunnen relevanter worden omdat ze “leren” van reële content.
Concurrentievermogen: LinkedIn volgt de trend van andere platformen; als het deze data mag gebruiken, kan het sneller innoveren.
Nadelen:
Privacyzorgen: gebruikers kunnen (terecht) het gevoel hebben dat content “gebruikt” wordt op manieren waar ze niet om hebben gevraagd. Transparantie is kritisch.
Gebruikersvertrouwen: als mensen niet vertrouwen dat hun data veilig en correct gebruikt wordt, kan dat reputatieschade opleveren.
Juridisch risico: mogelijke klachten bij privacytoezichthouders, boetes indien regels niet strikt nageleefd worden.
Wat kun je doen als gebruiker?
Check je privacy-instellingen
Ga naar instellingen → privacy → “Data for Generative AI Improvement” (of soortgelijke naam). Kijk of de opt-out-mogelijkheid beschikbaar is, en schakel deze uit als je niet wilt deelnemen. (LinkedIn)Wees bewust van wat je publiek plaatst
Hoe meer openbaar je post (bijv. bijdragen, artikelen, updates), hoe groter de kans dat je content gebruikt wordt in AI-modellen. Overweeg of je bepaalde dingen alleen privé wilt houden.Verwijder oude content indien nodig
Omdat LinkedIn data bewaart totdat gebruikers deze verwijderen, kun je oude posts of bijdragen controleren en verwijderen als je wil dat ze niet (meer) toegankelijk zijn.Volg privacytoezicht & nieuws
Toezichthouders in de EU (zoals de Autoriteit Persoonsgegevens in Nederland/België, de EDPB) kunnen ingrijpen of richtsnoeren geven. Hou mededelingen van LinkedIn zelf, en van privacyorganisaties, in de gaten.
Conclusie
De wijziging dat LinkedIn vanaf 3 november 2025 Nederlandse / Europese / Zwitserse gebruikersdata wil gaan gebruiken voor AI-training markeert een belangrijke stap in de discussie tussen technologische innovatie en privacybescherming. Het klinkt misschien logisch dat AI-modellen “leren” van wat mensen delen, maar het roept terechte vragen op over transparantie, keuzevrijheid en hoe ver “publiek” in de praktijk gaat.