AI stelt ons in staat om sentimentanalyses uit te voeren op de mensen met wie we contact hebben.
Sentimentanalyse maakt gebruik van kunstmatige intelligentie om gezichtsbewegingen en spraak te scannen en conclusies te trekken over de stemming en betrokkenheid van de persoon. Het wordt ook wel emotionele AI genoemd en maakt deel uit van Human State Sensing. Het voedt zich met beeld- en spraakgegevens.
Sentimentanalysetools kunnen gebruikt worden om de emotionele toon van de gesprekken te meten, om medewerkers te helpen hun pitches te verbeteren. Het is een mooi voorbeeld, maar niet geheel representatief. Hier zijn enkele voorbeelden van hoe het ook kan worden gebruikt:
Om de effectiviteit van vergaderingen te vergroten door te zoeken naar mensen die te veel praten, te weinig luisteren, eindeloos doorpraten of minder betrokken lijken.
Om te beoordelen hoe tevreden een klant is met de geleverde dienst, zoals bij claims
Om de persoon te beoordelen op fraude
Om te peilen in hoeverre iemand heeft begrepen wat u hem of haar heeft verteld
Om de fysieke en/of mentale gezondheid van de persoon te beoordelen
Om de persoon te beoordelen op tekenen van kwetsbaarheid
Het gebruik van sentimentanalyse in dergelijke omstandigheden moet om verschillende redenen met de nodige voorzichtigheid worden uitgevoerd. Ten eerste is de wetenschap achter sentimentanalyse controversieel. De wetenschappelijke gemeenschap is verdeeld over hoe emoties zich uiten. Dit brengt een aanzienlijk risico met zich mee dat de analyse ons gewoon niet vertelt wat we denken.
Onderzoek naar sentimentanalyse heeft veel bewijs aan het licht gebracht dat het onaanvaardbare niveaus van vertekening oplevert. Het is goed in het analyseren van gezichten van blanke mannen, maar niet goed in bijvoorbeeld de gezichten van zwarte vrouwen.
De gegevens die door sentimentanalyse worden verwerkt vereisen in veel rechtsgebieden dat het bedrijf de gebruiker vertelt wat er wordt verzameld en hoe deze worden geanalyseerd. Gezien de voorkeur van bedrijven voor zeer generieke vormen van toestemming, introduceert sentimentanalyse een privacyrisico dat ver boven het gemiddelde ligt.
En laten we tot slot de houding van consumenten ten opzichte van de gegevens die bedrijven verzamelen en hoe ze die gebruiken niet vergeten. Onderzoek omschreef die houding in een enquête als een ‘dubbele lens van wantrouwen’. Een bedrijf kan het gebruik van sentimentanalyse dus niet loskoppelen van het soort relatie dat het met zijn klanten wil opbouwen. Het gebruik ervan zou geen neutrale stap zijn.
Hoe sentimentanalyse kan worden gebruikt bij claims, fraudebestrijding en klantenservice lijkt bij veel bedrijven bekend. Maar dat diezelfde technologie gebruikt kan worden om directie en personeel persoonlijk te beoordelen, is bij vele onbekend. Met andere woorden, we zien het eerste gebruik als ethisch en het tweede als onethisch.
Wat dit ons vertelt, is dat het afwegen van ethische kwesties zoals eerlijkheid en privacy niet los kan worden gezien van de positie van waaruit je ze afweegt. Tegenwichten zoals de drie verdedigingslinies zijn op zijn best ontoereikend. Deskundigen op dit gebied kunnen helpen, zolang er maar een is die data-ethiek serieus neemt.
Bij veel bedrijven wordt de sentimentanalyse als een acceptatietool voor bedrijven in de markt voor reputatierisico’s. Misschien zelfs voor een bedrijf om hun eigen reputatie in kaart te brengen. Op het eerste gezicht klinkt het handig en slim. Datastromen om overzichtelijke grafieken te maken in managementinformatiepakketten.
En dat zou het ook kunnen zijn, ware het niet dat de onderliggende wetenschap zo fel betwist wordt, er geen problemen zijn met privacy en toestemming, er geen sterk verhoogd risico op vooringenomenheid is, enzovoort.
Maken bedrijven gebruik van sentimentanalyse? Sommigen doen dat, en een paar bevinden zich in wat zij misschien een behoorlijk vergevorderd stadium vinden. Hebben ze een gefundeerde analyse gemaakt van de ethische risico’s die ermee gepaard gaan?
Wat we dan hebben, is een gebruik van dataanalyse dat een hoog reputatierisico met zich meebrengt. En dat risico zal bij de meeste bedrijven worden beheerd door juridisch advies en drie verdedigingslinies, die beide zwak zijn als het om ethiek gaat. Het probleem voor bedrijven is dat ze de komende drie jaar te maken kunnen krijgen met kritiek op hun gebruik van sentimentanalyse. Het is beter om zichzelf nu al aan te spreken, in plaats van te wachten op de meest destructieve kritiek.
Hoevelen van ons zijn ooit op een online geplaatste foto verschenen? Of hebben we gesproken met een spraakassistent zoals Alexa of Siri? Of gewoon via de telefoon met een bedrijf gesproken? De meesten van ons, zo niet allemaal, zullen dat de afgelopen jaren wel eens hebben gedaan. En dat betekent dat je een dataspoor achterlaat dat nu wordt gebruikt om je emoties te begrijpen en te volgen. Hoe gaan bedrijven hiermee om en wat zijn de ethische implicaties?
En aan die spraakinteracties kunnen we het aantal jaren toevoegen dat we onze foto’s al online zetten. Samen vormen deze spraak- en beeldopnames een enorm deel van onze digitale voetafdruk.
Die spraak- en beeldopnames zijn enorm veelzeggend. Terwijl winkelaankopen en locatiegegevens een bedrijf vertellen wat we doen en waar we het doen, vertellen spraak- en beeldgegevens een bedrijf veel meer over waarom we deden wat we deden en hoe we ons daarbij voelden. Spraak- en beeldgegevens openen een venster naar ons emotionele leven.
Dit zal sommige medewerkers niet verbazen. Spraakanalyse wordt immers al jaren gebruikt om claimfraude op te sporen. Wanneer ons telefonisch wordt gevraagd om de omstandigheden van het verlies in onze eigen woorden uit te leggen, worden we in feite onderworpen aan een leugendetectortest op afstand.
Daar zit echter iets bijna ouderwets aan. De nieuwe focus ligt minder op dergelijke persoonlijke interactie en meer op passieve dataverzameling. Deze verschuiving is ontstaan doordat de kunstmatige intelligentie waarop spraak- en beeldanalyse is gebaseerd, zo uitgebreid mogelijk getraind moet worden. Hoe meer data het kan verwerken, hoe meer het over ons kan leren. En hoe beter het dan in staat is om te gaan van begrijpen hoe we er nu voor staan naar waarnemen hoe we er in de toekomst uit zouden kunnen zien.
We bevinden ons midden in een significante verschuiving naar ‘sociaal luisteren’. Wat we zeggen op sociale media, hoe we eruit zien op die selfie en hoe we reageren op een online bericht, wordt steeds meer vastgelegd.
Bovendien verzamelen onze verschillende apparaten data, of het nu gaat om een Apple Watch die je van je werkgever of verzekeraar krijgt, of via het telematica-apparaat in je auto. Bedrijven zijn nu klaar om deze stroom aan data volledig te benutten voor hun producten.
Wat al deze data samenbindt en waarde geeft, is de kunstmatige intelligentie (AI) die wordt gebruikt om al die inzichtelijke patronen en trends te ontdekken. En de waarde die het een bedrijf oplevert, zou enorm kunnen zijn. Samenvattend ‘zou kunnen’, want net als bij veel beslissingen in het leven en op het werk, zijn er keuzes. En hoe we op die keuzes reageren, bepaalt ons, en het bedrijf, in de ogen van klanten. We zouden veel kunnen doen, maar dat is niet hetzelfde als wat we zouden moeten doen. Daarin schuilt de ethische uitdaging die schuilt op het snijvlak van data over onze emoties, de analyses van kunstmatige intelligentie (AI) en de belangen van verzekeringsstrategen.
Nu spraak- en beelddata de data lakes van bedrijven zich vullen, vormt de toepassing van AI in veel sectoren op ons emotionele leven een van de fundamentele uitdagingen voor bedrijven. Dus hoe moeten bedrijven reageren op de uitdagingen die inherent zijn aan emotionele AI?
Die reactie moet rekening houden met de meeste functies binnen een gemiddelde bedrijf. Emotionele AI wordt al gebruikt bij acceptatie, denk aan al die ‘psychologische prijsstelling’ die wordt geïntroduceerd. En bij claims wordt het gebruikt om te meten hoeveel een claimant bereid is te accepteren als schikking. Marketing weet natuurlijk maar al te goed hoe belangrijk emotie is bij aankoopbeslissingen. En elk van deze functies weegt af hoe we van het begrijpen van ons emotionele heden naar het voorspellen van onze emotionele toekomst kunnen gaan.
Laten we eens een paar voorbeelden bekijken. Een toonaangevende bedrijf financiert onderzoek naar wat foto’s kunnen zeggen over je geestelijke gezondheid. Niet alleen je mentale gezondheid nu, maar ook hoe die zich in de toekomst zou kunnen ontwikkelen. Ze doen dit door middel van gezichtsanalyse, en met name hoe je lacht.
Dan is er de bedrijf met een zeer grote particuliere portefeuille die de data die uit de telematicaboxen van hun klanten komt, wil gebruiken om de stressgevoeligheid van de bestuurder te meten.
Deze voorbeelden maken allemaal gebruik van de data die over onze emoties wordt verzameld. En het vertelt ons dat ons emotionele leven wordt toegewezen een economische waarde. Een behoorlijk grote zelfs, gezien hoe duur dataverzameling en AI tegenwoordig zijn. En het rendement dat bedrijven ermee verwachten te verdienen, zal tweeledig zijn: marktaandeel en winstgevendheid. Met andere woorden, ze willen meer omzet, en betere omzet.
En wat is daar mis mee, zou je je kunnen afvragen. Het is een vraag die de moeite waard is om te stellen, maar vergeet niet dat het een vraag is die niet alleen gesteld moet worden binnen het kader van kortetermijnrendementen, maar ook binnen dat van langetermijnrendementen (meer daarover hier). Bedrijven zullen immers ook op de lange termijn betalen voor die datalakes en AI.
Er is nog iets anders dat belangrijk is op de lange termijn: vertrouwen en de reputatie van de markt. Emotionele AI roept een aantal enorm belangrijke ethische kwesties op, en hoe de sector daarop reageert, zal van invloed zijn op de duurzaamheid van die langetermijnrendementen. Zoals ik al eerder zei, kunnen tools zoals AI bedrijven doen denken dat ze dichter bij hun klant komen. Maar dat verwart nabijheid met intimiteit. Bij dat laatste draait het erom of de klant dichter bij je wil komen. En bedrijven verdienen dat door hun betrouwbaarheid.
Als je over emotionele AI leest, klinkt het als heel slim. Scan gewoon een foto en wij voorspellen je toekomstige mentale gezondheid. Draai aan het stuur en wij vertellen je wat voor type persoon je bent. Er ligt een nadruk, een gevoel van zekerheid, op hoe het inzicht in ons emotionele leven zich zal openbaren. Zoals een toonaangevende Europese bedrijf schreef: “emoties kunnen absoluut niet liegen”.
Helaas, waren mensen maar zo helder, zo transparant. Die bedrijven verwarren onze emoties met hun vermogen om emoties te lezen en te interpreteren. Met andere woorden, ze verwarren wie we zijn met wie ze denken dat we zijn. ‘Hé, leer er maar mee leven’, denk je misschien. Maar als die bedrijven zo vasthoudend zijn in wat hun emotionele AI hen over een klant vertelt, hoe gaan ze de claim van die klant dan eerlijk afhandelen? Het is een verschil dat telt.
En het is een verschil dat zijn wortels heeft in het wetenschappelijk begrip van onze emoties. Of beter gezegd, wetenschappelijke inzichten, want er zijn twee brede denkrichtingen als het gaat om het begrijpen van emoties. De ene is de categorische en de andere de dimensionale.
De categorische benadering stelt dat er een aantal primaire basisemoties zijn die diepgeworteld zijn in onze hersenen en universeel herkenbaar zijn. Het Facial Action Coding System is hier een voorbeeld van. Het is ontwikkeld rond een taxonomie van menselijke emoties en gezichtsuitdrukkingen. Deze systematisering van gezichtsuitdrukkingen is aantrekkelijk gebleken voor het bedrijfsleven, omdat het perfect aansluit bij al die clustering, categorisering en correlatie die de kern vormen van data en AI.
De dimensionale benadering verwerpt het idee van basisemoties. In plaats daarvan ziet ze emoties als linguïstisch en sociaal geconstrueerd. Neem bijvoorbeeld glimlachen. In Japan is glimlachen sterk afhankelijk van de sociale context en wordt het aangestuurd door unieke en complexe weergaveregels. Sommige kunnen bijvoorbeeld negatieve emoties aangeven.
Dit verschil is om twee redenen significant. Ten eerste is de categorische benadering aantrekkelijk gebleken voor het bedrijfsleven en ligt deze aan de basis van veel van de emotionele AI die sectoren zoals de verzekeringssector toepassen. Toch is deze benadering, in niet geringe mate, omstreden. De dimensionale benadering geniet aanzienlijke steun. Het gevaar voor bedrijven is dus dat ze een benadering van emotionele AI hanteren die hen de zekerheid biedt die de meeste bedrijven wensen, maar uiteindelijk ongelijk heeft. Of in ieder geval niet zo zeker gelijk als aanbieders van emotionele AI-systemen beweren.
De tweede reden waarom het verschil tussen de categorische en de dimensionale benadering belangrijk is, heeft te maken met privacy. Categorisch denken ziet emoties als lekken: met andere woorden, onze gezichten zeggen dingen over ons die we misschien niet willen onthullen. En bedrijven vinden dit leuk, want het betekent dat ze kunnen vertrouwen op wat die emotionele lekken signaleren, in plaats van op wat we zelf zeggen.
Dat argument van ‘emoties als lekken’ is belangrijk, omdat het leidt tot de opvatting dat onze gezichtsuitdrukkingen openbaar zijn. Ze zijn niet privé, omdat ze universeel zijn voor ons allemaal. En dit argument stelt aanbieders van emotionele AI in staat om het massaal verzamelen van gezichtsuitdrukkingen te rechtvaardigen.
Maar hoe zit het dan met de AVG, vraagt u zich misschien af. Onze gezichtsuitdrukkingen zijn toch zeker persoonlijk identificeerbare informatie (PII)? Nou, dat hoeft niet zo te zijn, als u uw data en analyses zo organiseert dat ze net buiten de AVG vallen. Identificeerbare data wordt omschreven als ‘giftig’, omdat een bedrijf deze anders moet behandelen en er extra voor moet betalen, ondanks dat het weinig tot geen extra functioneel voordeel oplevert.
Onze gezichtsuitdrukkingen worden verzameld en geanalyseerd met behulp van targeting in kleine groepen en inferentiële analyses. Zolang de data geen verband houdt met een ‘geïdentificeerde of ideële’ als we het hebben over een ‘identificeerbare persoon’, is de AVG niet van toepassing. Inferentiële analyse wordt vervolgens gebruikt om wat er via targeting in kleine groepen is geleerd, terug te koppelen aan jou als marketing-, acceptatie- of claimdoelgroep.
Gegevens over onze emoties zijn gevoelig, niemand kan het tegendeel beweren. Maar dat betekent niet dat ze persoonlijk zijn. Het verschil is cruciaal.
Laten we het omdraaien. Hoewel de privacy van ons emotionele leven, naar mijn mening, belangrijk is voor ons allemaal, is er een andere manier om hierover na te denken. Die andere manier gaat over respect, zelfsturing en keuze. Het houdt in dat ons recht op autonomie boven de voordelen van verzekeringen en de richting die de sector inslaat, wordt gesteld. Ons gezicht en onze emoties worden door sommigen misschien als verhandelbaar beschouwd, maar willen we dat er op manieren die steeds duidelijker worden, inbreuk op wordt gemaakt?
Nu zouden bedrijven kunnen zeggen dat ze weinig keus hebben. Als er een risico bestaat dat iemand anders emotionele trackingtechnieken gebruikt om meer te weten te komen over de toekomstige stemmingen van een klant, dan zegt de marktconcurrentie dat zij hetzelfde moeten doen. Maar vergeet niet: Warren Buffett, heeft die uitdrukking ‘iedereen doet het’ omschreven als de drie gevaarlijkste woorden in het bedrijfsleven.
Bij de beslissing om technologische mogelijkheden zoals emotionele AI te introduceren, is het belangrijk dat bedrijven niet vergeten dat het publiek, en hun vertegenwoordigers in de overheid, dergelijke ontwikkelingen zullen bekijken vanuit het perspectief van sociale en ethische waarden, niet vanuit bedrijfswaarden. Marktdruk zal weinig uitmaken als bedrijven emotionele AI gaan inzetten om onze geestelijke gezondheid te voorspellen en hun producten en prijzen daarop aanpassen. Er zijn hier twee vragen, niet één: ‘kunnen we’ en ‘moeten we’. Stel nooit de eerste zonder de laatste.