Bovenmenselijke intelligentie (AI).


Onderzoek toont aan dat AI zoveel meer is dan een verbetering van bestaande technologie, maar om het effectief in te zetten, is er vertrouwen nodig. Om het volledige potentieel van deze techniek, strategisch toe te passen, moet de dagelijkse structuur van ons leven opnieuw worden bekeken en moet worden nagegaan hoe we de voortgang meten. De identiteit van onze kernwaarden en wijzigingen hier in zijn beladen met onzekerheid en risico’s, maar dit is een risico dat nodig is om nieuwe ideeën een kans te geven. Integratie, implementatie en indicatie moeten gelaagd zijn om een ​​harmonische omgeving te creëren die wordt bestuurd met AI. Om dit te bereiken, moet we anders gaan denken, begrijpen hoe het werk en wat er wordt gedaan in overeenstemming is met geldende normen en waarden, en hoe het voldoet aan onze behoeften.

Wetgeving.

Wetgeving en fundamentele belangen: AI-systemen moeten in overeenstemming zijn met de wet en mogen niet worden gebruikt voor onethische of criminele activiteiten, vooral omdat AI-systemen kwetsbaar kunnen zijn voor invloeden van buiten af. Het ontbreken van een traditionele ‘mentale toestand’ van kennis of intentie die aan een persoon kan worden toegeschreven, en een beslissing die door een AI-systeem wordt genomen, gewoonlijk een lange oorzakelijke keten van systeemcreatie tot implementatie.

Met de effecten, het welzijn en de veiligheid zullen ontwerpers en implementeerders van AI-systemen rekening moeten houden, maar ook met de waarschijnlijke effecten van het AI-systeem gedurende de hele levenscyclus, inclusief veiligheid, beveiliging, juridische, ethische en andere kwesties, door risico- en impact beoordelingen en het uitvoeren van evaluaties. AI-systeem moet rationeel, eerlijk en zonder opzettelijke of onopzettelijke vooroordelen zijn. Door rekening te houden met factoren als menselijke emoties, empathie en persoonlijke privacy.

Risico’s uitsluiten, door met respect voor waarden en cultuur, ethisch gebruik van gegevens te werken in alle omgevingen. Makers moeten rekening houden met “veilig door ontwerp” -vereisten, om voor zover redelijkerwijs uitvoerbaar een ontwerpplan voor te bereiden dat alle voorzienbare ontwerprisico’s elimineert, inclusief onbedoelde programmeerpaden en na opschaling van het AI-systeem in de bredere toepassing.

Bovendien moeten AI-systemen worden ontworpen om inherente vooringenomenheid of waarden te vermijden, terwijl beslissingen worden genomen binnen de risicobereidheid voor privacy en ethiek die aanvaardbaar zijn voor de cultuur van de gemeenschap. Het gebruik van persoonsgegevens moet ook in overeenstemming zijn met de gegevensbeschermingswetten en goede praktijk.

Hoe en waarom een ​​AI-systeem een ​​bepaalde beslissing heeft genomen, moet vindbaar zijn, d.w.z. via traceerbaarheid, uitlegbaarheid, verifieerbaarheid en interpreteerbaarheid. We moeten kunnen vertrouwen op ‘eerlijke’ interacties, inclusief transparantie over hoe compromissen worden gesloten bij het nemen van AI-beslissingen.

Datagedreven

Bedrijven zoeken in toenemende mate naar datagedreven oplossingen voor bijvoorbeeld mobiliteit, energie, veiligheid of huisvesting. Zij verzamelen of combineren data en daarbij gaat het vaak ook om de verwerking van persoonsgegevens.

De digitale samenleving is een van de aandachtsgebieden de komende jaren, denk daarbij aan grondrechten en de keuzevrijheden van mensen. Het gebruik van data raakt namelijk iedereen.

Je verwacht een zekere mate van anonimiteit als je op straat loopt, maar in werkelijkheid hangen er steeds meer camera’s en sensoren die je registreren of volgen, soms zonder dat je het meteen door hebt.

Bij een datalek, gaat daarom direct om persoonsgegevens van heel veel burgers. Dit maakt een zorgvuldige afweging over het verzamelen en gebruiken van persoonsgegevens van groot belang.

Het in kaart brengen van welke privacyrisico’s erbij komen kijken, bij het ontwikkelen van toepassingen. Deze privacyrisico’s moeten beheersbaar gemaakt worden vóór de start van de verwerking van de persoonsgegevens – ook als het gaat om kleinschalige pilots.

Als men geen maatregelen kan treffen om de privacyrisico’s af te dekken en er hoge restrisico’s blijven bestaan, moet de verwerking bovendien in een voorafgaande raadpleging aan de Autoriteit persoonsgegevens worden voorgelegd.

Waarbij het voorkomen van datalekken, is beter dan genezen. Dat begint met eerst nadenken en dan pas doen.”

In de onderzoeken moet ook aandacht worden besteed aan de rollen en betrokkenheid van verschillende personen en instanties bij de ontwikkeling van de toepassingen. Daarbij dienen de rechten en vrijheden van burgers hoog in het vaandel te staan.

Handvest algoritmen

Instanties, bedrijven en organisaties gebruiken gegevens om ons dagelijks te informeren, communicatie te verbeteren en diensten te leveren. Eenvoudige algoritmen kunnen worden gebruikt om deze handelingen te standaardiseren en er voor te zorgen dat schaarse middelen eerlijk worden verdeeld.

Complexere algoritmen kunnen worden gebruikt om informatie uit grote of complexe datasets te distilleren ter ondersteuning van menselijke besluitvorming en om inzichten te geven die niet gemakkelijk zouden kunnen worden gerealiseerd door alleen menselijke analyse.

Deze kennis helpt om goede beslissingen te nemen en diensten te leveren die effectiever en efficiënter zijn. Het gebruik van algoritmen kan het risico dat er menselijke vooroordelen in dossiers terechtkomen, verkleinen en voor iedereen reële voordelen opleveren. Maar deze nieuwe kansen brengen ook uitdagingen met zich mee.

Zo kan menselijke vooringenomenheid worden bevestigd of zelfs versterkt door algoritmen die niet doordacht zijn ontworpen en uitgevoerd. Transparantie en verantwoording zijn van cruciaal belang om ervoor te zorgen dat het publiek de instanties, bedrijven en organisaties kan vertrouwen en ondersteunen om deze instrumenten op gepaste manieren te gebruiken.

Nieuw-Zeeland heeft als eerste een handvest samengesteld dat vooraf aangeeft waaraan het algoritme voldoet voor het wordt geformuleerd. Dit handvest hebben we vertaald zodat ook instanties, bedrijven en organisaties in ons land het handvest kunnen gebruiken.

Een handvest is zo een toezegging om zorgvuldig te werk te gaan en open te zijn over hoe algoritmen zullen worden gebruikt om het juiste evenwicht te vinden tussen privacy en transparantie, onbedoelde vooroordelen te voorkomen en de principes betrouwbare partner te weerspiegelen.

Opzet handvest:

Onze organisatie begrijpt dat beslissingen die worden genomen door algoritmen van invloed zijn op mensen. We verbinden ons ertoe een beoordeling te maken, van de impact van de beslissingen die door onze algoritmen worden geformuleerd. 

We verbinden ons er verder toe, de toezeggingen van het Algoritme-handvest toe te passen, geleid door de geïdentificeerde risico’s.

Algoritme Handvestverbintenissen:

TRANSPARANTIE

We behouden transparantie, door duidelijk uit te leggen hoe beslissingen worden geformuleerd door algoritmen:

›› We zorgen voor duidelijke documentatie over het algoritme,

›› We Informatie over de gegevens en processen beschikbaar stellen (tenzij een wettelijke beperking dit verhindert),

›› We Informatie publiceren over hoe gegevens worden verzameld, beveiligd en opgeslagen.

NOODZAKELIJKHEID 

• Er een duidelijk openbaar voordeel is:

›› We een perspectief verankeren in de ontwikkeling en het gebruik van algoritmen die in overeenstemming is met de principes van het Verdrag voor de rechten van de Mens.

MENSEN

• We focussen op mensen:

›› We mensen, gemeenschappen en groepen identificeren en actief betrekken bij opstellen van de algoritmen, en overleg plegen met degenen die door gebruik worden beïnvloed.

GEGEVENS

• We ervoor zorgen dat de gegevens geschikt zijn:

›› We beperkingen begrijpen,

›› We vooroordelen identificeren en beheren.

PRIVACY, ETHIEK EN MENSENRECHTEN

• We zorgen ervoor dat privacy, ethiek en mensenrechten in acht worden genomen:

›› We regelmatige toetsing van algoritmen toepassen om onbedoelde fouten, gevolgen te voorkomen.

MENSELIJK OVERZICHT

• We menselijk toezicht behouden:

›› We een contactpunt hebben voor vragen over algoritmen,

›› We een mogelijkheid bieden voor bezwaar of aanvechten van beslissingen die op basis van algoritmen zijn genomen,

›› We de menselijke factoren duidelijk uitleggen in beslissingen die door algoritmen worden geformuleerd.