Je wilt verantwoord aan de slag met AI dat kan al snel overweldigend zijn door het aantal technische,juridische, ethische en organisatorische aspecten dat daarin moet samenkomen. De doorontwikkeling van de techniek (bijvoorbeeld Generatieve AI) zorgt voor steeds meer kansen. Tegelijkertijd zien we met het explicieter worden van vereisten (AI Act en bijbehorende standaarden) de balans steeds meer verschuiven naar verplichtingen die AI met zich meebrengt.
Uiteindelijk willen we AI op een waardevolle manier inzetten, met oog voor waarden en risico’s. Hoe zorg je ervoor dat al deze elementen op het juiste moment samenkomen en waardevolle innovatie met AI stimuleren? Hoe zorg je voor de juiste balans tussen de beoogde waarden, benodigde middelen 7• en mogelijke risico’s van AI voor jouw organisatie?
En hoe zorg je ervoor dat mensen in staat worden gesteld deze keuzes te maken? Op basis van vier jaar ervaring en het analyseren van AI use cases in de praktijk pleiten we ervoor de aandacht te verbreden van techniek en gebruik naar verantwoorde keuzes. Daarbij zijn er zeven belangrijke aanbevelingen.
1. Formuleer een expliciete doelstelling en beschouw AI enkel als middel
2. Investeer in een interdisciplinaire aanpak
3. Zorg voor een veilige experimenteeromgeving
4. Zorg voor een gestructureerd ontwikkelproces inclusief expliciete keuzemomenten
5. Ontwikkel een AI-visie en maak het eigenaarschap van AI toepassingen duidelijk
6. Investeer in AI kennis en -vaardigheden van medewerkers
In de praktijk moet er meer aandacht komen voor het faciliteren van verantwoorde keuzes. De mensen binnen de organisatie moeten in staat worden gesteld om deze afwegingen expliciet te maken, waaronder de doel-waarden-middelen-risico’s- balans.
Organisaties ervaren uitdagingen in het aansturen van het ontwikkelproces, het valideren of de innovatie verantwoord is, en de stap maken naar implementatie. Hierbij spelen twee aspecten een essentiële rol. Ten eerste wordt er te weinig aandacht besteed aan het faciliteren van verantwoorde keuzes. Ten tweede is er te weinig expliciete aandacht voor de balans tussen 1) toegevoegde waarde en doel, 2) publieke waarden, 3) benodigde middelen, en 4) bijkomende risico’s. We noemen dit de doel-waarden-middelen-risico’s-balans, of kortweg de DWMR-balans.
Er wordt te weinig aandacht wordt besteed aan het faciliteren van verantwoorde keuzes. De huidige focus van Al-ontwikkeling richt zich met name op twee perspectieven 1) de Al-techniek, en 2) de inzet in de organisatie. Het techniekperspectief legt de focus op de ontwikkeling van technische methodes die aspecten van verantwoorde AI ondersteunen.
Denk aan het verhogen van de prestaties, het ontwikkelen van biasdetectie en – mitigatietechnieken, het vergroten van de uitlegbaarheid van algoritmes en het ontwikkelen van hybride AI. Vanuit een breder perspectief wordt er gekeken naar de inzet van AI. Hier draait het om het werkproces waarin het algoritme wordt gebruikt, en de interactie tussen mens en algoritme.
Er wordt onder andere gekeken naar hoe de uitkomsten van de AI worden gebruikt, wat de rol is van de gebruiker, hoe de gebruiker kritisch kan blijven reflecteren, wat de maatregelen zijn om ongewenste bias te voorkomen en hoe er over de inzet van de AI wordt gecommuniceerd.
In beide perspectieven zijn het mensen die verschillende keuzes maken om te waarborgen dat de techniek en inzet verantwoord zijn.
De overtuiging zou moeten zijn dat een derde perspectief is, waar het draait om verantwoorde keuzes faciliteren, essentieel is voor het bereiken van waardevolle, verantwoorde Al- innovatie. Dit gaat om keuzes over de beoogde doelen en onderliggende (publieke) waarden, keuzes in het technische ontwerp en de manier van inzetten, de verbinding tussen techniek en organisatie, overkoepelende keuzes over het ontwikkelproces en de verantwoording van deze keuzes.
Denk bij overkoepelende keuzes aan de DWMR-balans en de beslissing om een algoritme wel of niet te gebruiken. Veel van deze keuzes zijn zeer afhankelijk van de context van de toepassing en vraagt daarom om de juiste kennis, samenwerking tussen expertises en vakmanschap. Organisaties moeten hun mensen in staat stellen om deze keuzes te maken.
Alle genoemde (technische, juridische en ethische) instrumenten zijn behulpzaam, maar voor verantwoorde AI is het essentieel om in de werkpraktijk voldoende middelen en expertise op te bouwen om deze instrumenten in de praktijk toe te passen.
Meer lezen over verantwoorde keuze zie de whitepaper van TNO