ai act

AI-wet
De AI-wet is het allereerste wettelijk kader voor AI, dat de risico’s van AI aanpakt en Europa wereldwijd een leidende rol geeft.

De AI-wet (Verordening (EU) 2024/1689 tot vaststelling van geharmoniseerde regels inzake kunstmatige intelligentie) is wereldwijd het allereerste uitgebreide wettelijke kader voor AI. Het doel van de regels is om betrouwbare AI in Europa te bevorderen.

De AI-wet bevat een duidelijke reeks risicogebaseerde regels voor AI-ontwikkelaars en -invoerders met betrekking tot specifieke toepassingen van AI. De AI-wet maakt deel uit van een breder pakket beleidsmaatregelen ter ondersteuning van de ontwikkeling van betrouwbare AI, waaronder ook het AI-innovatiepakket, de lancering van AI-fabrieken en het gecoördineerde plan voor AI. Samen garanderen deze maatregelen veiligheid, fundamentele rechten en mensgerichte AI, en versterken ze de toepassing, investeringen en innovatie in AI in de hele EU.

Om de overgang naar het nieuwe regelgevingskader te vergemakkelijken, heeft de Commissie het AI Pact gelanceerd, een vrijwillig initiatief dat de toekomstige implementatie wil ondersteunen, met belanghebbenden wil samenwerken en AI-aanbieders en -inzetverstrekkers uit Europa en daarbuiten wil uitnodigen om zich vroegtijdig te houden aan de belangrijkste verplichtingen van de AI Act.

Waarom hebben we regels voor AI nodig?
De AI Act zorgt ervoor dat Europeanen kunnen vertrouwen op wat AI te bieden heeft. Hoewel de meeste AI-systemen weinig tot geen risico’s met zich meebrengen en kunnen bijdragen aan het oplossen van veel maatschappelijke uitdagingen, creëren bepaalde AI-systemen risico’s die we moeten aanpakken om ongewenste uitkomsten te voorkomen.

Zo is het vaak niet mogelijk om te achterhalen waarom een ​​AI-systeem een ​​beslissing of voorspelling heeft genomen en een bepaalde actie heeft ondernomen. Het kan dus moeilijk worden om te beoordelen of iemand onterecht benadeeld is, bijvoorbeeld bij een beslissing tot aanstelling of bij een aanvraag voor een uitkering.

Hoewel de bestaande wetgeving enige bescherming biedt, is deze onvoldoende om de specifieke uitdagingen aan te pakken die AI-systemen met zich mee kunnen brengen.

Een risicogebaseerde aanpak
De AI-wet definieert vier risiconiveaus voor AI-systemen:

Piramide met de vier risiconiveaus: Onaanvaardbaar risico; Hoog risico; Beperkt risico, minimaal of geen risico

Alle AI-systemen die als een duidelijke bedreiging voor de veiligheid, het levensonderhoud en de rechten van mensen worden beschouwd, zijn verboden. De AI-wet verbiedt acht praktijken, namelijk:

schadelijke AI-gebaseerde manipulatie en misleiding
schadelijke AI-gebaseerde uitbuiting van kwetsbaarheden
sociale scoring
Individuele risicobeoordeling of -voorspelling van strafbare feiten
Ongerichte scraping van internet of CCTV-materiaal om gezichtsherkenningsdatabases te creëren of uit te breiden
emotieherkenning op de werkplek en in onderwijsinstellingen
biometrische categorisatie om bepaalde beschermde kenmerken af ​​te leiden
realtime biometrische identificatie op afstand voor rechtshandhavingsdoeleinden in openbaar toegankelijke ruimtes
Hoog risico

AI-toepassingen die ernstige risico’s kunnen vormen voor de gezondheid, veiligheid of grondrechten, worden geclassificeerd als hoog risico. Deze risicovolle use cases omvatten:

AI-veiligheidscomponenten in kritieke infrastructuren (bijv. transport), waarvan het uitvallen het leven en de gezondheid van burgers in gevaar kan brengen.
AI-oplossingen die worden gebruikt in onderwijsinstellingen en die de toegang tot onderwijs en het verloop van iemands beroepsleven kunnen bepalen (bijv. het beoordelen van examens).
AI-gebaseerde veiligheidscomponenten van producten (bijv. AI-toepassing in robotgeassisteerde chirurgie).
AI-tools voor werkgelegenheid, personeelsbeheer en toegang tot zelfstandig ondernemerschap (bijv. cv-sorteersoftware voor werving).
Bepaalde AI-use cases die worden gebruikt om toegang te geven tot essentiële private en publieke diensten (bijv. kredietscores die burgers de mogelijkheid ontzeggen om een ​​lening te krijgen).
AI-systemen die worden gebruikt voor biometrische identificatie op afstand, emotieherkenning en biometrische categorisatie (bijv. een AI-systeem om achteraf een winkeldief te identificeren).
AI-use cases in rechtshandhaving die de fundamentele rechten van mensen kunnen schenden (bijv. de beoordeling van de betrouwbaarheid van bewijs).
AI-use cases in migratie-, asiel- en grenscontrolebeheer. (bijv. geautomatiseerde beoordeling van visumaanvragen)
AI-oplossingen die worden gebruikt in de rechtsbedeling en democratische processen (bijv. AI-oplossingen ter voorbereiding van rechterlijke uitspraken)
AI-systemen met een hoog risico zijn onderworpen aan strenge verplichtingen voordat ze op de markt kunnen worden gebracht:

adequate systemen voor risicobeoordeling en -beperking
hoge kwaliteit van de datasets die het systeem voeden om de risico’s van discriminerende uitkomsten te minimaliseren
registratie van activiteiten om de traceerbaarheid van resultaten te waarborgen
gedetailleerde documentatie met alle benodigde informatie over het systeem en het doel ervan, zodat autoriteiten de naleving ervan kunnen beoordelen
duidelijke en adequate informatie aan de uitvoerder
passende maatregelen voor menselijk toezicht
hoge mate van robuustheid, cyberbeveiliging en nauwkeurigheid
transparantierisico

Dit verwijst naar de risico’s die gepaard gaan met de behoefte aan transparantie rond het gebruik van AI. De AI-wet introduceert specifieke openbaarmakingsverplichtingen om ervoor te zorgen dat mensen worden geïnformeerd wanneer dat nodig is om het vertrouwen te behouden. Bij het gebruik van AI-systemen zoals chatbots moeten mensen er bijvoorbeeld van bewust worden gemaakt dat ze met een machine communiceren, zodat ze informatie kunnen opnemend besluit.

Bovendien moeten aanbieders van generatieve AI ervoor zorgen dat door AI gegenereerde content identificeerbaar is. Bovendien moet bepaalde door AI gegenereerde content duidelijk en zichtbaar worden gelabeld, met name deepfakes en tekst die wordt gepubliceerd om het publiek te informeren over zaken van algemeen belang.

Minimaal of geen risico

De AI-wet introduceert geen regels voor AI die als minimaal of geen risico wordt beschouwd. De overgrote meerderheid van de AI-systemen die momenteel in de EU worden gebruikt, valt in deze categorie. Dit omvat toepassingen zoals AI-gestuurde videogames of spamfilters.

Hoe werkt dit in de praktijk voor aanbieders van AI-systemen met een hoog risico?

Hoe werkt dit in de praktijk voor aanbieders van AI-systemen met een hoog risico?
Stapsgewijs proces voor conformiteitsverklaring

Zodra een AI-systeem op de markt is, zijn de autoriteiten verantwoordelijk voor het markttoezicht, zorgen exploitanten voor menselijk toezicht en monitoring, en beschikken aanbieders over een systeem voor post-market monitoring. Aanbieders en exploitanten melden ook ernstige incidenten en storingen.

Een oplossing voor het betrouwbare gebruik van grote AI-modellen
Algemene AI-modellen kunnen een breed scala aan taken uitvoeren en vormen de basis voor veel AI-systemen in de EU. Sommige van deze modellen kunnen systeemrisico’s met zich meebrengen als ze zeer capabel zijn of op grote schaal worden gebruikt. Om veilige en betrouwbare AI te garanderen, stelt de AI-wet regels vast voor aanbieders van dergelijke modellen. Dit omvat transparantie- en auteursrechtregels. Voor modellen die systeemrisico’s met zich mee kunnen brengen, moeten aanbieders deze risico’s beoordelen en beperken.

De regels van de AI-wet inzake algemene AI treden in augustus 2025 in werking. Het AI-Bureau faciliteert het opstellen van een gedragscode om deze regels te specificeren. De code moet een centraal instrument vormen voor aanbieders om naleving van de AI-wet aan te tonen, met inbegrip van de modernste praktijken.

Bestuur en implementatie
Het Europees AI-Bureau en de autoriteiten van de lidstaten zijn verantwoordelijk voor de implementatie, het toezicht en de handhaving van de AI-wet. De AI-Raad, het Wetenschappelijk Panel en het Adviesforum sturen en adviseren over het bestuur van de AI-wet. Meer informatie over het bestuur en de handhaving van de AI-wet.

valkuilen

Het specifiek verzamelen van informatie over door gebruikers gegenereerde data is op zijn zachtst gezegd ingewikkeld en tijdrovend. Daarom stappen we steeds meer over op automatische sentimentanalysemethoden, maar de bestaande basismodellen zijn niet altijd toereikend.

Mensen gebruiken allerlei manieren forums, sociale netwerken, blogs en andere communicatiemiddelen om hun mening te delen, waardoor er een enorme hoeveelheid data wordt gegenereerd. Tegelijkertijd willen gebruikers of consumenten weten wat te doen of wat kijken, dus lezen ze ook recensies en proberen ze hun beslissingen op basis daarvan te nemen.

Het specifiek verzamelen van informatie over door gebruikers gegenereerde data is tijdrovend. Daarom zijn we steeds meer geïnteresseerd in automatische sentimentanalysemethoden om deze te begrijpen.

Sentimentanalyse is het proces waarbij de meningen en emoties van mensen worden bestudeerd, meestal met behulp van taalkundige aanwijzingen. Op het eerste gezicht lijkt het slechts een tekstclassificatieprobleem, maar als we dieper ingaan, zullen we ontdekken dat er veel uitdagende problemen zijn die de nauwkeurigheid van sentimentanalyse ernstig beïnvloeden.

Met sarcastische uiten mensen hun negatieve gevoelens met behulp van positieve woorden. Dit feit maakt het gemakkelijk voor sentimentanalysemodellen om sarcasme te misleiden, tenzij ze specifiek ontworpen zijn om rekening te houden met de mogelijkheid ervan.

Sarcasme komt het vaakst voor in door gebruikers gegenereerde content, zoals reacties, tweets, enz. Sarcasmedetectie in sentimentanalyse is erg moeilijk te realiseren zonder een goed begrip van de context van de situatie, het specifieke onderwerp en de omgeving.

Het kan niet alleen moeilijk te begrijpen zijn voor een machine, maar ook voor een mens. De voortdurende variatie in de woorden die in sarcastische zinnen worden gebruikt, maakt het lastig om sentimentanalysemodellen succesvol te trainen. Gemeenschappelijke onderwerpen, interesses en historische informatie moeten tussen twee mensen worden gedeeld om sarcasme toegankelijk te maken.

In de taalkunde is uitsluiting een manier om de polariteit van woorden, woordgroepen en zelfs zinnen om te keren. Daarbij gebruiken we verschillende taalkundige regels om te bepalen of er sprake is van ontkenning, maar het is ook belangrijk om het bereik te bepalen van de woorden die door ontkenningswoorden worden beïnvloed.

Er is geen vaste grootte voor de reikwijdte van de beïnvloede woorden. De oorspronkelijke betekenis van de woorden verandert als een positief of negatief woord binnen de reikwijdte van een ontkenning valt, in dat geval wordt er een tegengestelde polariteit geretourneerd.

De eenvoudigste aanpak voor het omgaan met ontkenning in een zin, die wordt gebruikt in de meeste geavanceerde sentimentanalysetechnieken, is het markeren als ontkend van alle woorden van een ontkenningscue tot het volgende leesteken. De effectiviteit van het ontkenningsmodel kan variëren vanwege de specifieke constructie van taal in verschillende contexten.

Dubbelzinnigheden is een andere valkuil die je tegenkomt bij het werken aan een sentimentanalyseprobleem. Het probleem van dubbelzinnigheid is de onmogelijkheid om polariteit vooraf te definiëren, omdat de polariteit van sommige woorden sterk afhankelijk is van de zinscontext.

Soms vertoont een bepaalde zin, document of gesprek we ook willen analyseren, multipolariteit. In deze gevallen kan het misleidend zijn om alleen het totale resultaat van de analyse te hebben, net zoals een gemiddelde soms waardevolle informatie over alle cijfers die erin zijn verwerkt, kan verbergen.

Stel je voor dat auteurs in een artikel of recensie over verschillende mensen, producten of bedrijven (of aspecten daarvan) praten. Het komt vaak voor dat binnen een tekst sommige onderwerpen worden bekritiseerd en andere worden geprezen.

Eén enkele misstap in de gegevensverwerking kan de klantloyaliteit ondermijnen en aanleiding geven tot juridische stappen. Daarom moeten we het met dezelfde voorzichtigheid benaderen als elke vorm van een extern gegevensoverdrachtsproces. Zonder goed databeheer kan het gebruik van snel leiden tot een schending van het vertrouwen van de gebruiker of consument en het niet naleven van regelgeving.

Een goed gedocumenteerd verantwoord beleid fungeert daarbij als kompas voor ethisch en veilig gebruik. Het moet duidelijke richtlijnen voor acceptabel gebruik, toegestane soorten gegevens, vereiste beveiligingsmaatregelen en verboden praktijken definiëren. Dit omvat het schetsen van goedkeuringsprotocollen en het specificeren welke technieken geautoriseerd zijn voor specifieke taken.

Het is belangrijk dat dit beleid niet statisch is. Naarmate technologieën en -risico’s evolueren, moeten we het beleid regelmatig bijwerken om de relevantie en effectiviteit te behouden. Dit zorgt ervoor dat medewerkers geïnformeerd en verantwoordelijk blijven naarmate het ecosysteem zich ontwikkelt.

waardeschaal

Sentimentanalyse is een natuurlijke taalverwerkingstechniek die gericht is op het detecteren van de stemming of houding in teksten en gesprekken. Het wordt gebruikt om automatisch meningen op sociale media, gesprekken, beoordelingen of enquêtes te evalueren.

Het succes of falen wordt niet alleen bepaald door de cijfers, die snel kunnen veranderen, maar ook door de meningen. Hierbij gaat het vooral om de manier waarop we er over praten, ongeacht of we er een band mee hebben of niet.

Sentimentanalyse, ook wel ‘stemmingsdetectie’ genoemd, is gebaseerd op de geautomatiseerde evaluatie van commentaren om te bepalen of het positief of negatief bedoeld is. Hiervoor wordt gebruik gemaakt van methoden van ‘sentiment mining’ (zie ook data mining), dat wil zeggen de automatische analyse van in natuurlijke taal.

Natuurlijke taal bestaat niet uit positieve en negatieve lijsten; de betekenis ervan verandert afhankelijk van de context

Analysemethoden die zoeken naar woorden met een positieve of negatieve betekenis volgens een eerder samengesteld woordenboek dat geschikt is voor het onderwerp, bieden slechts een zeer ruw overzicht

De frequentie van woorden die als positief of negatief worden beschouwd in de context van de subjectieve evaluatie van een product, is niet betekenisvol

In sociale netwerken worden meningen niet altijd volgens de regels van de grammatica geformuleerd

Afhankelijk van de doelgroep kun je trends in taalgebruik vinden.

De belangrijkste taak van een sentimentanalyse is het bepalen van de algemene stemming binnen een gedefinieerde doelgroep. Naast beoordelingen, wordt er ook op sociale netwerken gezocht naar thematisch relevante berichten. En de tendens in gesprekken van de gedefinieerde doelgroep

Sentimentanalyses zijn bedoeld om de emoties te identificeren en vast te leggen om te bepalen wat de doelgroep daadwerkelijk bedoelde.

Sentimentanalyse biedt talloze voordelen, door de geautomatiseerde analyse van grote hoeveelheden data is het mogelijk om de meningen, houdingen en emoties gericht te analyseren en te benutten.

Sentimentanalyse wordt gebruikt in gebieden waar meningen, beoordelingen of stemmingen een rol spelen. En worden gebruikt om inzicht te krijgen in het gedrag om sneller te kunnen reageren.

Natural Language API is een voorbeeld van een programmeerinterface waarmee onder andere eenvoudige sentimentanalysemethoden onder de knie kunnen worden gekregen.

Naast de reeds genoemde Natural Language zijn er nog andere professionele analysetools die grote hoeveelheden data kunnen evalueren. Bij het selecteren van een tool is het belangrijk om te controleren of de tool de gekozen taal beheerst en woordenlijsten en databases bevat met typische zinnen in semantische contexten die door moedertaalsprekers zijn ontwikkeld. Elke taal heeft haar eigen nuances, zeker in de spreektaal. Een automatische vertaler kan die nuances niet weergeven zonder de sfeer van de data te vervormen.

Sentimentanalyse helpt bij het vinden van de emotionele toon. Het helpt om meningen en sentimenten te begrijpen die in sentimentdata worden uitgedrukt, wat belangrijk is voor toepassingen zoals monitoring, analyse van feedback en meer. Sentimentanalyse is ontworpen om data op social media en informeel taalgebruik te analyseren. En is het beste in het detecteren van sentiment, zoals tweets, recensies of reacties die straattaal, emoji’s en afkortingen bevatten. Het maakt gebruik van een vooraf samengesteld lexicon van woorden die geassocieerd worden met sentimentwaarden en past specifieke regels toe om sentimentscores te berekenen.

Analyseert de polariteit van woorden en kent aan elk woord een sentimentscore toe op basis van de emotionele waarde. Deze individuele woordscores worden vervolgens gecombineerd om een ​​algehele sentimentscore voor de hele tekst te berekenen.

Het gebruikt een samengestelde score, een genormaliseerde waarde tussen -1 en +1 die het algehele sentiment weergeeft:

Samengestelde score > 0,05: Positief sentiment

Samengestelde score < -0,05: Negatief sentiment

Samengestelde score tussen -0,05 en 0,05: Neutraal sentiment

De beoordelingen van de afzonderlijke zinnen resulteren in een totaalscore voor de sentimentdata, gebaseerd op een vooraf gedefinieerde waardeschaal.

wees voorzichtig

AI stelt ons in staat om sentimentanalyses uit te voeren op de mensen met wie we contact hebben.

Sentimentanalyse maakt gebruik van kunstmatige intelligentie om gezichtsbewegingen en spraak te scannen en conclusies te trekken over de stemming en betrokkenheid van de persoon. Het wordt ook wel emotionele AI genoemd en maakt deel uit van Human State Sensing. Het voedt zich met beeld- en spraakgegevens.

Sentimentanalysetools kunnen gebruikt worden om de emotionele toon van de gesprekken te meten, om medewerkers te helpen hun pitches te verbeteren. Het is een mooi voorbeeld, maar niet geheel representatief. Hier zijn enkele voorbeelden van hoe het ook kan worden gebruikt:

Om de effectiviteit van vergaderingen te vergroten door te zoeken naar mensen die te veel praten, te weinig luisteren, eindeloos doorpraten of minder betrokken lijken.

Om te beoordelen hoe tevreden een klant is met de geleverde dienst, zoals bij claims

Om de persoon te beoordelen op fraude

Om te peilen in hoeverre iemand heeft begrepen wat u hem of haar heeft verteld

Om de fysieke en/of mentale gezondheid van de persoon te beoordelen

Om de persoon te beoordelen op tekenen van kwetsbaarheid

Het gebruik van sentimentanalyse in dergelijke omstandigheden moet om verschillende redenen met de nodige voorzichtigheid worden uitgevoerd. Ten eerste is de wetenschap achter sentimentanalyse controversieel. De wetenschappelijke gemeenschap is verdeeld over hoe emoties zich uiten. Dit brengt een aanzienlijk risico met zich mee dat de analyse ons gewoon niet vertelt wat we denken.

Onderzoek naar sentimentanalyse heeft veel bewijs aan het licht gebracht dat het onaanvaardbare niveaus van vertekening oplevert. Het is goed in het analyseren van gezichten van blanke mannen, maar niet goed in bijvoorbeeld de gezichten van zwarte vrouwen.

De gegevens die door sentimentanalyse worden verwerkt vereisen in veel rechtsgebieden dat het bedrijf de gebruiker vertelt wat er wordt verzameld en hoe deze worden geanalyseerd. Gezien de voorkeur van bedrijven voor zeer generieke vormen van toestemming, introduceert sentimentanalyse een privacyrisico dat ver boven het gemiddelde ligt.

En laten we tot slot de houding van consumenten ten opzichte van de gegevens die bedrijven verzamelen en hoe ze die gebruiken niet vergeten. Onderzoek omschreef die houding in een enquête als een ‘dubbele lens van wantrouwen’. Een bedrijf kan het gebruik van sentimentanalyse dus niet loskoppelen van het soort relatie dat het met zijn klanten wil opbouwen. Het gebruik ervan zou geen neutrale stap zijn.

Hoe sentimentanalyse kan worden gebruikt bij claims, fraudebestrijding en klantenservice lijkt bij veel bedrijven bekend. Maar dat diezelfde technologie gebruikt kan worden om directie en personeel persoonlijk te beoordelen, is bij vele onbekend. Met andere woorden, we zien het eerste gebruik als ethisch en het tweede als onethisch.

Wat dit ons vertelt, is dat het afwegen van ethische kwesties zoals eerlijkheid en privacy niet los kan worden gezien van de positie van waaruit je ze afweegt. Tegenwichten zoals de drie verdedigingslinies zijn op zijn best ontoereikend. Deskundigen op dit gebied kunnen helpen, zolang er maar een is die data-ethiek serieus neemt.

Bij veel bedrijven wordt de sentimentanalyse als een acceptatietool voor bedrijven in de markt voor reputatierisico’s. Misschien zelfs voor een bedrijf om hun eigen reputatie in kaart te brengen. Op het eerste gezicht klinkt het handig en slim. Datastromen om overzichtelijke grafieken te maken in managementinformatiepakketten.

En dat zou het ook kunnen zijn, ware het niet dat de onderliggende wetenschap zo fel betwist wordt, er geen problemen zijn met privacy en toestemming, er geen sterk verhoogd risico op vooringenomenheid is, enzovoort.

Maken bedrijven gebruik van sentimentanalyse? Sommigen doen dat, en een paar bevinden zich in wat zij misschien een behoorlijk vergevorderd stadium vinden. Hebben ze een gefundeerde analyse gemaakt van de ethische risico’s die ermee gepaard gaan?

Wat we dan hebben, is een gebruik van dataanalyse dat een hoog reputatierisico met zich meebrengt. En dat risico zal bij de meeste bedrijven worden beheerd door juridisch advies en drie verdedigingslinies, die beide zwak zijn als het om ethiek gaat. Het probleem voor bedrijven is dat ze de komende drie jaar te maken kunnen krijgen met kritiek op hun gebruik van sentimentanalyse. Het is beter om zichzelf nu al aan te spreken, in plaats van te wachten op de meest destructieve kritiek.

Hoevelen van ons zijn ooit op een online geplaatste foto verschenen? Of hebben we gesproken met een spraakassistent zoals Alexa of Siri? Of gewoon via de telefoon met een bedrijf gesproken? De meesten van ons, zo niet allemaal, zullen dat de afgelopen jaren wel eens hebben gedaan. En dat betekent dat je een dataspoor achterlaat dat nu wordt gebruikt om je emoties te begrijpen en te volgen. Hoe gaan bedrijven hiermee om en wat zijn de ethische implicaties?

En aan die spraakinteracties kunnen we het aantal jaren toevoegen dat we onze foto’s al online zetten. Samen vormen deze spraak- en beeldopnames een enorm deel van onze digitale voetafdruk.

Die spraak- en beeldopnames zijn enorm veelzeggend. Terwijl winkelaankopen en locatiegegevens een bedrijf vertellen wat we doen en waar we het doen, vertellen spraak- en beeldgegevens een bedrijf veel meer over waarom we deden wat we deden en hoe we ons daarbij voelden. Spraak- en beeldgegevens openen een venster naar ons emotionele leven.

Dit zal sommige medewerkers niet verbazen. Spraakanalyse wordt immers al jaren gebruikt om claimfraude op te sporen. Wanneer ons telefonisch wordt gevraagd om de omstandigheden van het verlies in onze eigen woorden uit te leggen, worden we in feite onderworpen aan een leugendetectortest op afstand.

Daar zit echter iets bijna ouderwets aan. De nieuwe focus ligt minder op dergelijke persoonlijke interactie en meer op passieve dataverzameling. Deze verschuiving is ontstaan ​​doordat de kunstmatige intelligentie waarop spraak- en beeldanalyse is gebaseerd, zo uitgebreid mogelijk getraind moet worden. Hoe meer data het kan verwerken, hoe meer het over ons kan leren. En hoe beter het dan in staat is om te gaan van begrijpen hoe we er nu voor staan ​​naar waarnemen hoe we er in de toekomst uit zouden kunnen zien.

We bevinden ons midden in een significante verschuiving naar ‘sociaal luisteren’. Wat we zeggen op sociale media, hoe we eruit zien op die selfie en hoe we reageren op een online bericht, wordt steeds meer vastgelegd.

Bovendien verzamelen onze verschillende apparaten data, of het nu gaat om een ​​Apple Watch die je van je werkgever of verzekeraar krijgt, of via het telematica-apparaat in je auto. Bedrijven zijn nu klaar om deze stroom aan data volledig te benutten voor hun producten.

Wat al deze data samenbindt en waarde geeft, is de kunstmatige intelligentie (AI) die wordt gebruikt om al die inzichtelijke patronen en trends te ontdekken. En de waarde die het een bedrijf oplevert, zou enorm kunnen zijn. Samenvattend ‘zou kunnen’, want net als bij veel beslissingen in het leven en op het werk, zijn er keuzes. En hoe we op die keuzes reageren, bepaalt ons, en het bedrijf, in de ogen van klanten. We zouden veel kunnen doen, maar dat is niet hetzelfde als wat we zouden moeten doen. Daarin schuilt de ethische uitdaging die schuilt op het snijvlak van data over onze emoties, de analyses van kunstmatige intelligentie (AI) en de belangen van verzekeringsstrategen.

Nu spraak- en beelddata de data lakes van bedrijven zich vullen, vormt de toepassing van AI in veel sectoren op ons emotionele leven een van de fundamentele uitdagingen voor bedrijven. Dus hoe moeten bedrijven reageren op de uitdagingen die inherent zijn aan emotionele AI?

Die reactie moet rekening houden met de meeste functies binnen een gemiddelde bedrijf. Emotionele AI wordt al gebruikt bij acceptatie, denk aan al die ‘psychologische prijsstelling’ die wordt geïntroduceerd. En bij claims wordt het gebruikt om te meten hoeveel een claimant bereid is te accepteren als schikking. Marketing weet natuurlijk maar al te goed hoe belangrijk emotie is bij aankoopbeslissingen. En elk van deze functies weegt af hoe we van het begrijpen van ons emotionele heden naar het voorspellen van onze emotionele toekomst kunnen gaan.

Laten we eens een paar voorbeelden bekijken. Een toonaangevende bedrijf financiert onderzoek naar wat foto’s kunnen zeggen over je geestelijke gezondheid. Niet alleen je mentale gezondheid nu, maar ook hoe die zich in de toekomst zou kunnen ontwikkelen. Ze doen dit door middel van gezichtsanalyse, en met name hoe je lacht.

Dan is er de bedrijf met een zeer grote particuliere portefeuille die de data die uit de telematicaboxen van hun klanten komt, wil gebruiken om de stressgevoeligheid van de bestuurder te meten.

Deze voorbeelden maken allemaal gebruik van de data die over onze emoties wordt verzameld. En het vertelt ons dat ons emotionele leven wordt toegewezen een economische waarde. Een behoorlijk grote zelfs, gezien hoe duur dataverzameling en AI tegenwoordig zijn. En het rendement dat bedrijven ermee verwachten te verdienen, zal tweeledig zijn: marktaandeel en winstgevendheid. Met andere woorden, ze willen meer omzet, en betere omzet.

En wat is daar mis mee, zou je je kunnen afvragen. Het is een vraag die de moeite waard is om te stellen, maar vergeet niet dat het een vraag is die niet alleen gesteld moet worden binnen het kader van kortetermijnrendementen, maar ook binnen dat van langetermijnrendementen (meer daarover hier). Bedrijven zullen immers ook op de lange termijn betalen voor die datalakes en AI.

Er is nog iets anders dat belangrijk is op de lange termijn: vertrouwen en de reputatie van de markt. Emotionele AI roept een aantal enorm belangrijke ethische kwesties op, en hoe de sector daarop reageert, zal van invloed zijn op de duurzaamheid van die langetermijnrendementen. Zoals ik al eerder zei, kunnen tools zoals AI bedrijven doen denken dat ze dichter bij hun klant komen. Maar dat verwart nabijheid met intimiteit. Bij dat laatste draait het erom of de klant dichter bij je wil komen. En bedrijven verdienen dat door hun betrouwbaarheid.

Als je over emotionele AI leest, klinkt het als heel slim. Scan gewoon een foto en wij voorspellen je toekomstige mentale gezondheid. Draai aan het stuur en wij vertellen je wat voor type persoon je bent. Er ligt een nadruk, een gevoel van zekerheid, op hoe het inzicht in ons emotionele leven zich zal openbaren. Zoals een toonaangevende Europese bedrijf schreef: “emoties kunnen absoluut niet liegen”.

Helaas, waren mensen maar zo helder, zo transparant. Die bedrijven verwarren onze emoties met hun vermogen om emoties te lezen en te interpreteren. Met andere woorden, ze verwarren wie we zijn met wie ze denken dat we zijn. ‘Hé, leer er maar mee leven’, denk je misschien. Maar als die bedrijven zo vasthoudend zijn in wat hun emotionele AI hen over een klant vertelt, hoe gaan ze de claim van die klant dan eerlijk afhandelen? Het is een verschil dat telt.

En het is een verschil dat zijn wortels heeft in het wetenschappelijk begrip van onze emoties. Of beter gezegd, wetenschappelijke inzichten, want er zijn twee brede denkrichtingen als het gaat om het begrijpen van emoties. De ene is de categorische en de andere de dimensionale.

De categorische benadering stelt dat er een aantal primaire basisemoties zijn die diepgeworteld zijn in onze hersenen en universeel herkenbaar zijn. Het Facial Action Coding System is hier een voorbeeld van. Het is ontwikkeld rond een taxonomie van menselijke emoties en gezichtsuitdrukkingen. Deze systematisering van gezichtsuitdrukkingen is aantrekkelijk gebleken voor het bedrijfsleven, omdat het perfect aansluit bij al die clustering, categorisering en correlatie die de kern vormen van data en AI.

De dimensionale benadering verwerpt het idee van basisemoties. In plaats daarvan ziet ze emoties als linguïstisch en sociaal geconstrueerd. Neem bijvoorbeeld glimlachen. In Japan is glimlachen sterk afhankelijk van de sociale context en wordt het aangestuurd door unieke en complexe weergaveregels. Sommige kunnen bijvoorbeeld negatieve emoties aangeven.

Dit verschil is om twee redenen significant. Ten eerste is de categorische benadering aantrekkelijk gebleken voor het bedrijfsleven en ligt deze aan de basis van veel van de emotionele AI die sectoren zoals de verzekeringssector toepassen. Toch is deze benadering, in niet geringe mate, omstreden. De dimensionale benadering geniet aanzienlijke steun. Het gevaar voor bedrijven is dus dat ze een benadering van emotionele AI hanteren die hen de zekerheid biedt die de meeste bedrijven wensen, maar uiteindelijk ongelijk heeft. Of in ieder geval niet zo zeker gelijk als aanbieders van emotionele AI-systemen beweren.

De tweede reden waarom het verschil tussen de categorische en de dimensionale benadering belangrijk is, heeft te maken met privacy. Categorisch denken ziet emoties als lekken: met andere woorden, onze gezichten zeggen dingen over ons die we misschien niet willen onthullen. En bedrijven vinden dit leuk, want het betekent dat ze kunnen vertrouwen op wat die emotionele lekken signaleren, in plaats van op wat we zelf zeggen.

Dat argument van ‘emoties als lekken’ is belangrijk, omdat het leidt tot de opvatting dat onze gezichtsuitdrukkingen openbaar zijn. Ze zijn niet privé, omdat ze universeel zijn voor ons allemaal. En dit argument stelt aanbieders van emotionele AI in staat om het massaal verzamelen van gezichtsuitdrukkingen te rechtvaardigen.

Maar hoe zit het dan met de AVG, vraagt ​​u zich misschien af. Onze gezichtsuitdrukkingen zijn toch zeker persoonlijk identificeerbare informatie (PII)? Nou, dat hoeft niet zo te zijn, als u uw data en analyses zo organiseert dat ze net buiten de AVG vallen. Identificeerbare data wordt omschreven als ‘giftig’, omdat een bedrijf deze anders moet behandelen en er extra voor moet betalen, ondanks dat het weinig tot geen extra functioneel voordeel oplevert.

Onze gezichtsuitdrukkingen worden verzameld en geanalyseerd met behulp van targeting in kleine groepen en inferentiële analyses. Zolang de data geen verband houdt met een ‘geïdentificeerde of ideële’ als we het hebben over een ‘identificeerbare persoon’, is de AVG niet van toepassing. Inferentiële analyse wordt vervolgens gebruikt om wat er via targeting in kleine groepen is geleerd, terug te koppelen aan jou als marketing-, acceptatie- of claimdoelgroep.

Gegevens over onze emoties zijn gevoelig, niemand kan het tegendeel beweren. Maar dat betekent niet dat ze persoonlijk zijn. Het verschil is cruciaal.

Laten we het omdraaien. Hoewel de privacy van ons emotionele leven, naar mijn mening, belangrijk is voor ons allemaal, is er een andere manier om hierover na te denken. Die andere manier gaat over respect, zelfsturing en keuze. Het houdt in dat ons recht op autonomie boven de voordelen van verzekeringen en de richting die de sector inslaat, wordt gesteld. Ons gezicht en onze emoties worden door sommigen misschien als verhandelbaar beschouwd, maar willen we dat er op manieren die steeds duidelijker worden, inbreuk op wordt gemaakt?

Nu zouden bedrijven kunnen zeggen dat ze weinig keus hebben. Als er een risico bestaat dat iemand anders emotionele trackingtechnieken gebruikt om meer te weten te komen over de toekomstige stemmingen van een klant, dan zegt de marktconcurrentie dat zij hetzelfde moeten doen. Maar vergeet niet: Warren Buffett, heeft die uitdrukking ‘iedereen doet het’ omschreven als de drie gevaarlijkste woorden in het bedrijfsleven.

Bij de beslissing om technologische mogelijkheden zoals emotionele AI te introduceren, is het belangrijk dat bedrijven niet vergeten dat het publiek, en hun vertegenwoordigers in de overheid, dergelijke ontwikkelingen zullen bekijken vanuit het perspectief van sociale en ethische waarden, niet vanuit bedrijfswaarden. Marktdruk zal weinig uitmaken als bedrijven emotionele AI gaan inzetten om onze geestelijke gezondheid te voorspellen en hun producten en prijzen daarop aanpassen. Er zijn hier twee vragen, niet één: ‘kunnen we’ en ‘moeten we’. Stel nooit de eerste zonder de laatste.