Verklaarbare intelligentie.

Waarom we explainable AI (XAI) nodig hebben, niet alleen responsabele AI.

Organisaties moeten niet alleen verantwoord omgaan met brondata, maar ook het gebruikte rekenmodellen moet verklaarbaar zijn. Vooringenomenheid blijft namelijk een groot probleem als het om AI gaat.

AI heeft steeds meer invloed op ons dagelijks leven, van het versnellen van de zoektocht naar een vaccins tot het voorspellen van de onderzoeksresultaten.

Maar er zijn groeiende zorgen over hoe organisaties, bedrijven en overheden ervoor kunnen zorgen dat ze brondata op een verantwoorde wijze gebruiken. Het verbeteren van de maatschappelijke waarde, het verminderen van risico’s, het vergroten van vertrouwen en transparantie van de rekenmodellen voor AI.

Verantwoorde AI, is hierin een waardevol concept, maar niet voldoende om AI te redden van zorgen over mogelijke vooroordelen en discriminatie.

Nu kunstmatige intelligentie steeds vaker wordt gebruikt in het bedrijfsleven en in de samenleving, moeten organisaties, bedrijven en overheden zich bewust zijn, van de menselijke vooringenomenheid die in hun rekenmodellen binnensluipt.

Als het vertrouwen in een nieuwe technologie eenmaal is verdwenen, is het buitengewoon moeilijk om deze terug te winnen. Organisaties, bedrijven en overheden die AI ontwikkelen en gebruiken, moeten dus verder gaan dan verantwoorde AI als ze de betrouwbaarheid en transparantie van hun AI-toepassingen willen vergroten.

De oplossing is om explainable AI (XAI) te implementeren, met het doel, de grondgedachte en het besluitvormingsproces van de AI-oplossing te beschrijven op een Jip en Janneke manier, die door iedereen kan worden begrepen.

Explaineble AI (XAI) geeft de organisatie die deze oplossing implementeert de zekerheid dat de besluitvorming plaatsvindt op een manier die uit te leggen is aan hun klanten of gebruikers. Het is daarbij cruciaal dat het elke beslissing snel en gemakkelijk kan worden gerechtvaardigd om beschuldigingen van vooringenomenheid te vermijden.

Explaineble AI (XAI) kan er ook voor zorgen dat beslissingen die eruit voortvloeien, onpartijdig en onafhankelijk zijn zodat er meer vertrouwen is in de beslissingen. Daarbij krijgt het gevoel dat men eerlijk wordt behandeld, en niet onderworpen te zijn aan een bevooroordeeld rekenmodel. In de gebieden waar het publieke belang bij betrokken is, is het essentieel dat het besluitvormingsproces volledig transparant zijn.

Vergissen is menselijk dus pas op voor het onfeilbare rekenmodel dat beslissingen neemt met enige vooringenomenheid.

Er zijn veel technieken die organisaties, bedrijven en overheden kunnen gebruiken om explainable AI (XAI) te ontwikkelen. Ze moeten hierbij niet alleen hun systeem voortdurend nieuwe dingen leren, maar ze moeten er ook voor zorgen dat de juiste informatie beschikbaar is en er geen foute of bevooroordeelde informatie gebruikt wordt als basis van toekomstige rekenmodellen.

Organisaties, bedrijven en overheden zouden ook een menselijk element aan hun AI moeten toevoegen, vooral als er signalering plaats vindt op basis van het rekenmodel. Als een systeem strafrechtelijke veroordelingen automatisch signaleert zonder rekening te houden met de ernst van de overtreding, kan een persoon met een boete voor snelheidsovertredingen op dezelfde manier worden behandeld als iemand die een levensdelict heeft begaan.

Aan explainable AI (XAI) systemen zou het voordeel van de twijfel moeten worden gegeven. Zodat als er een rode vlag wordt gehesen, er geen uitsluiting volgt, maar een waarschuwing wordt geven voor nadere controle.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *