Gebruik op eigen risico

Bij AI lijken we er een op eigen risico methodiek op na te houden.

Een gebrek aan verantwoording bij AI kan leiden tot boetes, merkschade en verloren klanten, dit alles kan worden voorkomen door due diligence uit te voeren en te voldoen aan een aantal simpele principes.

De risico’s van het verkeerd gebruik van AI zijn reëel en helaas vallen ze niet altijd rechtstreeks onder de controle van organisaties, overheden en onderneming.

“Risicobeoordeling van alle AI-bronnen wordt bemoeilijkt door een uitgebreide toeleveringsketen van componenten met mogelijk effecten op de output van het AI-systeem”.

De meeste organisaties, overheden en ondernemingen werken samen met andere partijen in AI-systemen meestal omdat de nodige technologie en vaardigheden niet in huis zijn.

Er kunnen zich problemen voordoen met verschillende toeleveranciers van onderdelen in de AI keten. En omdat we in de keten ook nog taalbarrieres tegen komen kunnen we soms niet volledig begrijpen waar dingen voor zijn of waar ze vandaan komen. Verkeerd gelabelde gegevens of onvolledige gegevens kunnen leiden tot schadelijke fouten, vooroordelen, privacy geschillen en zelfs veiligheidsproblemen.

Het hoogste risico op een systeemfout met negatieve gevolgen lijkt dan niet ver weg. Zeker als we AI gaan gebruiken voor medische diagnoses, strafrechtelijke veroordelingen en kredietbepaling, begeven we ons in gebieden waar een fout in AI ernstige gevolgen kan hebben.

Dit wil niet zeggen dat we geen AI moeten gebruiken voor deze doeleinden, we moeten gewoon heel voorzichtig zijn. Begrijpen en kunnen uitleggen hoe de AI-systemen gebouwd zijn en waar de kwetsbaarheden liggen. Want de complexiteit van AI-systemen is kwetsbaar voor fouten en net zo vatbaar voor vooroordelen als de gemiddelde inwoners van ons land.

Daarbij is er ook het risico dat AI-systemen worden gebruikt voor andere doelen dan waar ze ooit voor gebouwd zijn. Waardoor doelen veranderen en een simpel algoritme ineens een wapen kan in de strijd kan zijn.

Verklaarbare intelligentie.

Waarom we explainable AI (XAI) nodig hebben, niet alleen responsabele AI.

Organisaties moeten niet alleen verantwoord omgaan met brondata, maar ook het gebruikte rekenmodellen moet verklaarbaar zijn. Vooringenomenheid blijft namelijk een groot probleem als het om AI gaat.

AI heeft steeds meer invloed op ons dagelijks leven, van het versnellen van de zoektocht naar een vaccins tot het voorspellen van de onderzoeksresultaten.

Maar er zijn groeiende zorgen over hoe organisaties, bedrijven en overheden ervoor kunnen zorgen dat ze brondata op een verantwoorde wijze gebruiken. Het verbeteren van de maatschappelijke waarde, het verminderen van risico’s, het vergroten van vertrouwen en transparantie van de rekenmodellen voor AI.

Verantwoorde AI, is hierin een waardevol concept, maar niet voldoende om AI te redden van zorgen over mogelijke vooroordelen en discriminatie.

Nu kunstmatige intelligentie steeds vaker wordt gebruikt in het bedrijfsleven en in de samenleving, moeten organisaties, bedrijven en overheden zich bewust zijn, van de menselijke vooringenomenheid die in hun rekenmodellen binnensluipt.

Als het vertrouwen in een nieuwe technologie eenmaal is verdwenen, is het buitengewoon moeilijk om deze terug te winnen. Organisaties, bedrijven en overheden die AI ontwikkelen en gebruiken, moeten dus verder gaan dan verantwoorde AI als ze de betrouwbaarheid en transparantie van hun AI-toepassingen willen vergroten.

De oplossing is om explainable AI (XAI) te implementeren, met het doel, de grondgedachte en het besluitvormingsproces van de AI-oplossing te beschrijven op een Jip en Janneke manier, die door iedereen kan worden begrepen.

Explaineble AI (XAI) geeft de organisatie die deze oplossing implementeert de zekerheid dat de besluitvorming plaatsvindt op een manier die uit te leggen is aan hun klanten of gebruikers. Het is daarbij cruciaal dat het elke beslissing snel en gemakkelijk kan worden gerechtvaardigd om beschuldigingen van vooringenomenheid te vermijden.

Explaineble AI (XAI) kan er ook voor zorgen dat beslissingen die eruit voortvloeien, onpartijdig en onafhankelijk zijn zodat er meer vertrouwen is in de beslissingen. Daarbij krijgt het gevoel dat men eerlijk wordt behandeld, en niet onderworpen te zijn aan een bevooroordeeld rekenmodel. In de gebieden waar het publieke belang bij betrokken is, is het essentieel dat het besluitvormingsproces volledig transparant zijn.

Vergissen is menselijk dus pas op voor het onfeilbare rekenmodel dat beslissingen neemt met enige vooringenomenheid.

Er zijn veel technieken die organisaties, bedrijven en overheden kunnen gebruiken om explainable AI (XAI) te ontwikkelen. Ze moeten hierbij niet alleen hun systeem voortdurend nieuwe dingen leren, maar ze moeten er ook voor zorgen dat de juiste informatie beschikbaar is en er geen foute of bevooroordeelde informatie gebruikt wordt als basis van toekomstige rekenmodellen.

Organisaties, bedrijven en overheden zouden ook een menselijk element aan hun AI moeten toevoegen, vooral als er signalering plaats vindt op basis van het rekenmodel. Als een systeem strafrechtelijke veroordelingen automatisch signaleert zonder rekening te houden met de ernst van de overtreding, kan een persoon met een boete voor snelheidsovertredingen op dezelfde manier worden behandeld als iemand die een levensdelict heeft begaan.

Aan explainable AI (XAI) systemen zou het voordeel van de twijfel moeten worden gegeven. Zodat als er een rode vlag wordt gehesen, er geen uitsluiting volgt, maar een waarschuwing wordt geven voor nadere controle.

Data om ons heen.

Welke data kun je vinden in openbare bronnen op het internet, de data van 2,4 miljoen individuen, 650 duizend organisaties, 2,3 miljard nieuwsartikelen en 2,1 miljard posts op sociale media. Verzameld via middelen die algemeen bekend zijn binnen de gegevensverzamelingsindustrie en gebruik makend van relatief ongecompliceerde gegevensverzamelingstechnieken.

Hiermee bouw je een database rond talrijke bestaande databases of platforms in één grote database met meerdere overlappingen. Aanzienlijke hoeveelheden gegevens die zijn te crawlen uit beheerde databases. Om zo persoonlijke en professionele profielen van personen wereldwijd op te bouwen.

Persoonlijke gegevens kunnen worden opgebouwd rond sleutelfiguren in de familiaire omgeving en zakelijke contacten. En worden gecrawld van bekende platforms als Facebook, Twitter en LinkedIn, evenals als andere openbare bronnen. Naast persoonlijke informatie is informatie over berichten, vind-ik-leuks en reTweets te crawlen.

Daarbij is het mogelijk foto’s van individuen in openbare sites, zoals Twitter, Facebook of LinkedIn te crawlen. Deze foto’s uit openbare bronnen kunnen vervolgens opgeslagen met de reeds opgeslagen data van een persoon of organisatie. Zo ontstaat een gedetailleerd beeld van een persoon dat via openbare sites, zoals Twitter, Facebook of LinkedIn ook nog up to data kan worden gehouden.

En al deze data hebben of wordt namens ons gedeeld met een ieder die het in wil zien. Daarbij staan we op het punt om nog meer data te delen of wordt er straks nog meer data over ons gedeeld. Hierbij schuilt een ongeluk in een klein stukje data waardoor dingen opeens heel anders kunnen worden uitgelegd. Reden te meer dat we voorzichtig zijn met hoe we wat met wie gaan delen voor er verdien modellen zijn om deze data ten gelde te maken.

Kunstmatig intelligentie.

Hoe zit het met de gevaren van kunstmatige intelligentie misschien heb je een of alle van de volgende films gezien. The Matrix, The Terminator, Battlestar Galactica, Westworld of Lost in Space? Deze verhalen delen allemaal een toekomst met antihelden en een vorm van kunstmatige intelligentie (AI) die ontspoord is.

Gefascineerd door onze relatie met machines en visa versa. Hebben deze films onze perceptie op het gebied van AI gevormd.

Maar hoe krachtig is AI en is het zo bedreigend als ons soms wordt voorgeschoteld? Is AI een bedreiging voor de mensheid of een kans op een beter leven buiten de anonimiteit?

Wat doet kunstmatige intelligentie echt?

Kunstmatige intelligentie is een kracht voor het goede in goede handen.

De privacy-compliance-technologie die we willen gaan gebruiken of reeds gebruiken is voor een groot deel afhankelijk van kunstmatige intelligentie. Dat komt omdat AI verzoeken omtrent privacy, inclusief bescherming en verwijdering op verzoek van gegevens, sneller en efficiënter verwerkt dan een mens. Bovendien beschermt uw zichzelf door gegevens te laten afhandelen zonder blootstelling aan menselijke ogen.

Maar er ligt al we een nadeel op de loer emotie-AI, “een systeem dat je begrijp en je taal spreekt en met je communiceert doormiddel van soft skills”. Eindelijk iemand die denkt als jij, doet als jij en begrijpt wat je behoeftes zijn. Maar ook iemand die zorgt dat je geen flater meer kan slaan en je altijd de juiste richting in stuurt. Zodat je leven zich afspeelde in volledige harmonie tussen mensen onderling en tussen de mens en natuur om hem heen.

Kwetsbaarheden

Kwetsbaarheden in apparaten die zijn verbonden met WiFi in uw huis, auto of op uw werk kunnen uw gegevens en locatie onthullen. Zo weet je tv dat je naar oude afleveringen van Vrienden hebt gekeken. Uw slimme broodrooster kan worden gehackt om deel te nemen aan een ddos aanval op een bedrijf of de overheid.

Maar gelukkig zijn er eenvoudige stappen die u zelf kunt nemen om dit te voorkomen, zoals controleren hoe uw persoonlijke gegevens worden gebruikt en gedeeld, en apparaten met internetverbinding uitschakelen wanneer u ze niet nodig heeft of gebruikt, zo kunnen we de privacyrisico’s helpen te verminderen.

Zeker nu steeds meer alledaagse voorwerpen met elkaar worden verbonden via het internet. Enkele voorbeelden zijn:

* beveiligingssystemen

* digitale assistenten

* verbonden speelgoed

* digitale gezondheidstechnologieën

Deze apparaten vormen het Internet of Things (IoT). Over het algemeen is het IoT het netwerken van fysieke objecten, waardoor ze verbinding kunnen maken via internet en gegevens kunnen delen. Deze aangesloten apparaten kunnen onafhankelijk functioneren zonder menselijke tussenkomst of beslissingen. Velen werken ook samen met uw smartphone, computer of tablet, zodat u toegang hebt tot IoT-apparaatgerelateerde gegevens en uw apparaat kunt bedienen.

Verhoogde connectiviteit biedt voordelen, zoals het bijhouden van uw fitnessvoortgang of het bewaken van de veiligheid van uw huis wanneer u weg bent. Digitale gezondheidstechnologieën, zoals glucosemeters of apparaten die medicatie toedienen, kunnen u helpen chronische gezondheidsproblemen beter te beheren. Ze kunnen echter ook risico’s voor uw privacy opleveren.

Naarmate het IoT groeit, worden uw dagelijkse activiteiten en gedrag steeds vaker gevolgd, gemeten en geanalyseerd. Dit roept vragen op als:

* Wie kan uw gegevens zien?

* Hoe worden uw gegevens gebruikt?

* Wat kunt u doen om te bepalen hoe uw persoonlijke gegevens worden gebruikt en gedeeld?

Bovenmenselijke intelligentie (AI).


Onderzoek toont aan dat AI zoveel meer is dan een verbetering van bestaande technologie, maar om het effectief in te zetten, is er vertrouwen nodig. Om het volledige potentieel van deze techniek, strategisch toe te passen, moet de dagelijkse structuur van ons leven opnieuw worden bekeken en moet worden nagegaan hoe we de voortgang meten. De identiteit van onze kernwaarden en wijzigingen hier in zijn beladen met onzekerheid en risico’s, maar dit is een risico dat nodig is om nieuwe ideeën een kans te geven. Integratie, implementatie en indicatie moeten gelaagd zijn om een ​​harmonische omgeving te creëren die wordt bestuurd met AI. Om dit te bereiken, moet we anders gaan denken, begrijpen hoe het werk en wat er wordt gedaan in overeenstemming is met geldende normen en waarden, en hoe het voldoet aan onze behoeften.

Wetgeving.

Wetgeving en fundamentele belangen: AI-systemen moeten in overeenstemming zijn met de wet en mogen niet worden gebruikt voor onethische of criminele activiteiten, vooral omdat AI-systemen kwetsbaar kunnen zijn voor invloeden van buiten af. Het ontbreken van een traditionele ‘mentale toestand’ van kennis of intentie die aan een persoon kan worden toegeschreven, en een beslissing die door een AI-systeem wordt genomen, gewoonlijk een lange oorzakelijke keten van systeemcreatie tot implementatie.

Met de effecten, het welzijn en de veiligheid zullen ontwerpers en implementeerders van AI-systemen rekening moeten houden, maar ook met de waarschijnlijke effecten van het AI-systeem gedurende de hele levenscyclus, inclusief veiligheid, beveiliging, juridische, ethische en andere kwesties, door risico- en impact beoordelingen en het uitvoeren van evaluaties. AI-systeem moet rationeel, eerlijk en zonder opzettelijke of onopzettelijke vooroordelen zijn. Door rekening te houden met factoren als menselijke emoties, empathie en persoonlijke privacy.

Risico’s uitsluiten, door met respect voor waarden en cultuur, ethisch gebruik van gegevens te werken in alle omgevingen. Makers moeten rekening houden met “veilig door ontwerp” -vereisten, om voor zover redelijkerwijs uitvoerbaar een ontwerpplan voor te bereiden dat alle voorzienbare ontwerprisico’s elimineert, inclusief onbedoelde programmeerpaden en na opschaling van het AI-systeem in de bredere toepassing.

Bovendien moeten AI-systemen worden ontworpen om inherente vooringenomenheid of waarden te vermijden, terwijl beslissingen worden genomen binnen de risicobereidheid voor privacy en ethiek die aanvaardbaar zijn voor de cultuur van de gemeenschap. Het gebruik van persoonsgegevens moet ook in overeenstemming zijn met de gegevensbeschermingswetten en goede praktijk.

Hoe en waarom een ​​AI-systeem een ​​bepaalde beslissing heeft genomen, moet vindbaar zijn, d.w.z. via traceerbaarheid, uitlegbaarheid, verifieerbaarheid en interpreteerbaarheid. We moeten kunnen vertrouwen op ‘eerlijke’ interacties, inclusief transparantie over hoe compromissen worden gesloten bij het nemen van AI-beslissingen.

Datagedreven

Bedrijven zoeken in toenemende mate naar datagedreven oplossingen voor bijvoorbeeld mobiliteit, energie, veiligheid of huisvesting. Zij verzamelen of combineren data en daarbij gaat het vaak ook om de verwerking van persoonsgegevens.

De digitale samenleving is een van de aandachtsgebieden de komende jaren, denk daarbij aan grondrechten en de keuzevrijheden van mensen. Het gebruik van data raakt namelijk iedereen.

Je verwacht een zekere mate van anonimiteit als je op straat loopt, maar in werkelijkheid hangen er steeds meer camera’s en sensoren die je registreren of volgen, soms zonder dat je het meteen door hebt.

Bij een datalek, gaat daarom direct om persoonsgegevens van heel veel burgers. Dit maakt een zorgvuldige afweging over het verzamelen en gebruiken van persoonsgegevens van groot belang.

Het in kaart brengen van welke privacyrisico’s erbij komen kijken, bij het ontwikkelen van toepassingen. Deze privacyrisico’s moeten beheersbaar gemaakt worden vóór de start van de verwerking van de persoonsgegevens – ook als het gaat om kleinschalige pilots.

Als men geen maatregelen kan treffen om de privacyrisico’s af te dekken en er hoge restrisico’s blijven bestaan, moet de verwerking bovendien in een voorafgaande raadpleging aan de Autoriteit persoonsgegevens worden voorgelegd.

Waarbij het voorkomen van datalekken, is beter dan genezen. Dat begint met eerst nadenken en dan pas doen.”

In de onderzoeken moet ook aandacht worden besteed aan de rollen en betrokkenheid van verschillende personen en instanties bij de ontwikkeling van de toepassingen. Daarbij dienen de rechten en vrijheden van burgers hoog in het vaandel te staan.

Handvest algoritmen

Instanties, bedrijven en organisaties gebruiken gegevens om ons dagelijks te informeren, communicatie te verbeteren en diensten te leveren. Eenvoudige algoritmen kunnen worden gebruikt om deze handelingen te standaardiseren en er voor te zorgen dat schaarse middelen eerlijk worden verdeeld.

Complexere algoritmen kunnen worden gebruikt om informatie uit grote of complexe datasets te distilleren ter ondersteuning van menselijke besluitvorming en om inzichten te geven die niet gemakkelijk zouden kunnen worden gerealiseerd door alleen menselijke analyse.

Deze kennis helpt om goede beslissingen te nemen en diensten te leveren die effectiever en efficiënter zijn. Het gebruik van algoritmen kan het risico dat er menselijke vooroordelen in dossiers terechtkomen, verkleinen en voor iedereen reële voordelen opleveren. Maar deze nieuwe kansen brengen ook uitdagingen met zich mee.

Zo kan menselijke vooringenomenheid worden bevestigd of zelfs versterkt door algoritmen die niet doordacht zijn ontworpen en uitgevoerd. Transparantie en verantwoording zijn van cruciaal belang om ervoor te zorgen dat het publiek de instanties, bedrijven en organisaties kan vertrouwen en ondersteunen om deze instrumenten op gepaste manieren te gebruiken.

Nieuw-Zeeland heeft als eerste een handvest samengesteld dat vooraf aangeeft waaraan het algoritme voldoet voor het wordt geformuleerd. Dit handvest hebben we vertaald zodat ook instanties, bedrijven en organisaties in ons land het handvest kunnen gebruiken.

Een handvest is zo een toezegging om zorgvuldig te werk te gaan en open te zijn over hoe algoritmen zullen worden gebruikt om het juiste evenwicht te vinden tussen privacy en transparantie, onbedoelde vooroordelen te voorkomen en de principes betrouwbare partner te weerspiegelen.

Opzet handvest:

Onze organisatie begrijpt dat beslissingen die worden genomen door algoritmen van invloed zijn op mensen. We verbinden ons ertoe een beoordeling te maken, van de impact van de beslissingen die door onze algoritmen worden geformuleerd. 

We verbinden ons er verder toe, de toezeggingen van het Algoritme-handvest toe te passen, geleid door de geïdentificeerde risico’s.

Algoritme Handvestverbintenissen:

TRANSPARANTIE

We behouden transparantie, door duidelijk uit te leggen hoe beslissingen worden geformuleerd door algoritmen:

›› We zorgen voor duidelijke documentatie over het algoritme,

›› We Informatie over de gegevens en processen beschikbaar stellen (tenzij een wettelijke beperking dit verhindert),

›› We Informatie publiceren over hoe gegevens worden verzameld, beveiligd en opgeslagen.

NOODZAKELIJKHEID 

• Er een duidelijk openbaar voordeel is:

›› We een perspectief verankeren in de ontwikkeling en het gebruik van algoritmen die in overeenstemming is met de principes van het Verdrag voor de rechten van de Mens.

MENSEN

• We focussen op mensen:

›› We mensen, gemeenschappen en groepen identificeren en actief betrekken bij opstellen van de algoritmen, en overleg plegen met degenen die door gebruik worden beïnvloed.

GEGEVENS

• We ervoor zorgen dat de gegevens geschikt zijn:

›› We beperkingen begrijpen,

›› We vooroordelen identificeren en beheren.

PRIVACY, ETHIEK EN MENSENRECHTEN

• We zorgen ervoor dat privacy, ethiek en mensenrechten in acht worden genomen:

›› We regelmatige toetsing van algoritmen toepassen om onbedoelde fouten, gevolgen te voorkomen.

MENSELIJK OVERZICHT

• We menselijk toezicht behouden:

›› We een contactpunt hebben voor vragen over algoritmen,

›› We een mogelijkheid bieden voor bezwaar of aanvechten van beslissingen die op basis van algoritmen zijn genomen,

›› We de menselijke factoren duidelijk uitleggen in beslissingen die door algoritmen worden geformuleerd.

NextGenerationEU

The NextGenerationEU heeft een enorme en ongekende financiële vuurkracht van € 1.8 biljoen. Dat is de conclusies van de speciale bijeenkomst van de Europese Raad. Het akkoord dat is bereikt is een enorme prestatie en een Europese investering in de Europese Unie. En een van de grootste stimulansen voor investeringen en hervormingen overal ter wereld – investeren in de uitrol van 5G, netinfrastructuur, in AI en industriële digitalisering, in hernieuwbare energiebronnen, duurzaam transport, energiezuinige gebouwen. Zo bestrijden we klimaatverandering en moderniseren we volledig transparant. Het belang van het beschermen van onze waarden, en met name de rechtsstaat. We mogen hierbij het grotere plaatje niet uit het oog verliezen het belang om verenigd te blijven in de reactie op deze crisis: We hebben nu de kans om iets historischs voor Europa te bereiken. De druk van de crisis heeft deuren geopend die al lang gesloten waren. Hoe triest het ook is, dit is ook een kans voor Europa, voor onze gemeenschap. NextGenerationEU is een geweldig teken van solidariteit. Omdat NextGenerationEU gebaseerd is op de gemeenschapsmethode, zal het helpen om wonden te helen en ons samen te brengen. We dragen de last van de verantwoordelijkheid voor het lot van Europa en de toekomstige kansen van onze kinderen samen op al onze schouders.  En toch zullen we kritisch moeten zijn om er zeker van te zijn dat een verenigd Europa geen herhaling wordt van fouten uit ons verleden.