Een meerderheid van ons vertrouwt AI niet met onze gegevens. AI is niet stiekem ons leven binnengeslopen. Het is met een enorme knal binnengekomen, heeft een plaats verovert aan tafel en is onze gedachten gaan afmaken.
In plaats van een handige lijst met links probeert de zoekmachine nu onze vragen te beantwoorden. Een digitale assistent stelt antwoorden op voor je baas nog voordat je koffie hebt gedronken. Je telefoon vat gesprekken samen die je, je soms niet eens meer herinnert.
Elk groot techbedrijf probeert zo snel mogelijk AI aan zijn producten of productnamen toe te voegen, omdat niemand achter wil blijven. En het publiek wordt vaak gedwongen zich aan te passen aan dergelijke grillen van bedrijven vanwege de toenemende effecten van verwatering.
Mensen gebruiken AI. Maar ze vertrouwen het niet en maken zich zorgen over AI die onze gegevens gebruikt zonder toestemming.
Dat zijn niet zomaar een paar sceptici. Maar bijna iedereen maakt zich zorgen over hoeveel persoonlijke gegevens die AI verzamelt en wat het ermee gaat doen, dus dat is een goede graadmeter voor hoe belangrijk het voor iedereen is.
Dit wantrouwen is niet begonnen met AI natuurlijk krijgt AI alle aandacht in de media. Maar mensen maken zich al lange tijd zorgen over de bescherming van hun persoonlijke gegevens.
We maken ons zorgen over het feit dat onze persoonsgegevens “ongepast worden gebruikt”. Of over het feit dat onze persoonsgegevens ongepast worden ingezien en gebruikt.
Jarenlange datalekken, dubieuze trackingpraktijken en gevaarlijk misbruik door datahandelaren hebben ons vertrouwen in organisaties om onze gegevens te beschermen ondermijnd. Het afgelopen jaar hebben instellingen herhaaldelijk melding gemaakt van grote beveiligingslekken die gevoelige gegevens betreffen. De autoriteiten waarschuwde voor “schokkende” commerciële surveillancepraktijken waar de meeste consumenten nooit mee hebben ingestemd, en persoonlijke gegevens zijn gebruikt bij oplichtingspraktijken die op jou of je familie gericht zijn.
Wanneer mensen sociale media gebruiken, begrijpen ze over het algemeen dat hun klikken en likes worden bijgehouden. Wanneer mensen online winkelen, verwachten ze dat de winkel hun aankoopgeschiedenis opslaat of bijhoudt in welke artikelen ze geïnteresseerd waren. Ze begrijpen het concept van reclame en zien hoe het past binnen sociale of commerciële websites.
Wanneer we ideeën, aantekeningen van vergaderingen, persoonlijke dilemma’s en gezondheidsvragen delen met een AI-assistent, behandelen we die als een vertrouwenspersoon. Misschien hebben we betaald voor een toegangsniveau dat belooft dat de modellen niet op onze gegevens worden getraind. Zelfs wanneer we chatten over bouwpakketten en ontbrekende schroeven met de AI-chatbot van een website, gedragen we ons alsof we met een ander persoon praten en zenden we dat gesprek niet uit naar de hele wereld.
De interactie met AI voelt intiem en conversatieachtig aan, ook al zijn we ons er allemaal van bewust dat we met een bot praten. Dat maakt de onzekerheid over hoe die AI omgaat met de gegevens die we hebben ingevoerd persoonlijker en directer.
We weten dat AI-assistenten van een bedrijf vaak zijn gekoppeld aan andere tools. We weten dat GPT’s door elke ontwikkelaar of oplichter kunnen worden gemaakt. We weten dat bijna elk zakelijk of persoonlijk platform tegenwoordig wel een of andere vorm van AI-gebaseerde gegevensverzameling bevat. Wat de gemiddelde persoon niet weet over AI is beangstigend.
Waar worden onze prompts opgeslagen?
Worden die prompts gebruikt om de AI te trainen?
Hoe lang worden ze bewaard?
Kan iedereen binnen het bedrijf ze lezen?
Kunnen ze worden gekocht? Gebruikt voor reclame? Gelekt?…
Hoewel de bezorgdheid over misbruik van gegevens nog steeds groot is, voelen minder mensen zich volledig machteloos.
We nemen praktische stappen om de blootstelling van hun gegevens te beperken.
Sommigen hebben het gebruik van bepaalde platforms verminderd of volledig stopgezet vanwege privacy bezwaren.
Anderen delen minder persoonlijke informatie online of vermijden gevoelige onderwerpen in digitale gesprekken.
Ook is er een toename in het gebruik van privacybeschermende tools voor onze gegevens, apparaten en identiteit.
Al wist dit geen historische gegevenssporen uit, maar beperkt wel nieuwe blootstelling.
Privacybescherming kan binair aanvoelen: of alles is openbaar, of alles is veilig. Maar het is een stapsgewijs proces, waarbij we steeds meer controle over onze gegevens terugnemen.
Waardoor bedrijven die AI in hun producten integreren, te maken krijgen met een complexere consument dan ze aanvankelijk dachten.
Jarenlang gingen productteams ervan uit dat gebruikers meer data zouden inruilen voor meer gemak. Maar toen bijna negen op de tien mensen aangaven zich zorgen te maken over AI die hun data zonder toestemming gebruikt, werd vertrouwen onderdeel van het product zelf.
Het is niet langer voldoende om te benadrukken wat AI kan doen. Gebruikers willen begrijpen wat er gebeurt nadat ze op “verzenden” drukken.
Wanneer de bezorgdheid het niveau bereikt, roept dat onvermijdelijk de lastige vraag over regelgeving op.
Nationale wetgeving steunen we als die regelt hoe bedrijven onze persoonlijke gegevens mogen verzamelen, opslaan, delen of gebruiken.
Het probleem gaat minder over één tool, maar meer over het gevoel dat de waarborgen onduidelijk zijn. Generatieve AI-systemen kunnen juridische documenten opstellen, e-mails schrijven en gevoelige data razendsnel verwerken. Veel van de bestaande privacywetgeving zijn geschreven voordat AI gemeengoed was.
Toezichthouders proberen de achterstand in te halen. De AI-wet van de Europese Unie, die in 2024 werd aangenomen, introduceerde een risicogebaseerde aanpak voor de regulering van bepaalde AI-systemen. In de VS hebben federale instanties, waaronder de FTC, richtlijnen en waarschuwingen uitgegeven met betrekking tot commerciële surveillance en geautomatiseerde besluitvorming, maar er is nog geen alomvattende privacywetgeving specifiek voor AI.
De behoefte aan nationale wetten en regelgeving is groter dan ooit. Consumenten willen grenzen die begrijpelijk en afdwingbaar zijn.
We gaan natuurlijk niet alle technologie opgeven. AI zal zichzelf niet overbodig maken. Het kan erg nuttig zijn. We gebruiken AI om bedreigingen en oplichtingspraktijken te vinden die nog niemand eerder heeft gezien, wat leidt tot veel betere bescherming. Veel mensen gebruiken ze om tijd te besparen, documenten op te stellen of ideeën te verkennen. Helaas creëren ze ook kleine karikaturen van zichzelf.
Beperk de informatie die u aan openbare AI-tools verstrekt, met name gezondheidsgegevens, financiële gegevens en klantgevoelige informatie.
Bekijk regelmatig het privacy- en gegevensbewaarbeleid van AI-tools die u gebruikt.
Verwijder accounts en apps die u niet meer nodig hebt.
Controleer de app-machtigingen minstens twee keer per jaar.
Gebruik een VPN om tracking door uw internetprovider te verminderen.
Verwijder uw informatie van grote databrokers. Controleer of uw persoonlijke gegevens openbaar zijn met een digitale voetafdrukscan.
Gebruik een betrouwbare wachtwoordmanager en vermijd het hergebruiken van wachtwoorden voor verschillende services.
We geloven dat privacy een mensenrecht is. De bescherming van persoonsgegevens is onlosmakelijk verbonden met de bescherming van persoonlijke veiligheid. Hoe meer informatie er zonder toezicht circuleert, hoe groter de kans op misbruik, fraude en schade.
AI zal zich blijven ontwikkelen. Die ontwikkeling zal waarschijnlijk niet vertragen. De vraag is of het vertrouwen daarin meegroeit.