Vertrouwen en AI

Kunnen Europeanen vertrouwen op wat AI te bieden heeft. Evenredige en flexibele regels zullen de specifieke risico’s van KI-systemen aanpakken en de hoogste norm wereldwijd bepalen.  Om Europa’s leidende positie in de ontwikkeling van mensgerichte, duurzame, veilige, inclusieve en betrouwbare AI te versterken.

De Europese benadering van betrouwbare AI

De nieuwe regels worden in alle lidstaten op dezelfde manier toegepast, op basis van een toekomstbestendige definitie van AI. Daarbij wordt een risicogebaseerde benadering gevolgd:

Onaanvaardbaar risico: bedreigingen voor de veiligheid, het levensonderhoud en de rechten van mensen.

Daarbij worden toepassingen bedoeld die menselijk gedrag manipuleren om de vrije wil van gebruikers te omzeilen (bijv. Speelgoed dat spraakondersteuning gebruikt om gevaarlijk gedrag van minderjarigen aan te moedigen) en systemen die ‘sociale scores’ door overheden mogelijk maken.

Hoog risico: Zijn AI-technologieën die wordt gebruikt in:

Kritieke infrastructuren (bv. Vervoer) die het leven en de gezondheid van burgers in gevaar kunnen brengen;

Onderwijs- of beroepsopleiding, die de toegang tot onderwijs en de professionele loop van iemands leven kan bepalen (bijv. Het scoren van examens);

Veiligheidscomponenten van producten (bijv.KI-toepassing bij door robots ondersteunde chirurgie);

Tewerkstelling, personeelsbeheer en toegang tot zelfstandig ondernemerschap (bv. Cv-sorteersoftware voor wervingsprocedures);

Essentiële particuliere en openbare diensten (bijv. Kredietscore waardoor burgers de mogelijkheid worden ontzegd om een ​​lening te krijgen);

Wetshandhaving die inbreuk kan maken op de grondrechten van mensen (bv. Evaluatie van de betrouwbaarheid van bewijs);

Migratie-, asiel- en grenscontrolebeheer (bv. Verificatie van de authenticiteit van reisdocumenten);

Rechtsbedeling en democratische processen (bv. De wet toepassen op een concrete reeks feiten).

AI-systemen met een hoog risico zullen aan strikte verplichtingen worden onderworpen voordat ze op de markt kunnen worden gebracht:

Adequate risicobeoordeling en risicobeperkende systemen;

Hoge kwaliteit van de datasets die het systeem voeden om risico’s en discriminerende resultaten te minimaliseren;

Loggen van activiteiten om traceerbaarheid van resultaten te garanderen;

Gedetailleerde documentatie met alle informatie die nodig is over het systeem en het doel ervan zodat de autoriteiten de naleving ervan kunnen beoordelen;

Duidelijke en adequate informatie voor de gebruiker;

Passende maatregelen voor menselijk toezicht om risico’s te minimaliseren;

Hoge mate van robuustheid, veiligheid en nauwkeurigheid.

In het bijzonder worden alle biometrische identificatiesystemen op afstand als risicovol beschouwd en aan strenge eisen onderworpen. Het live gebruik ervan in openbaar toegankelijke ruimtes voor wetshandhavingsdoeleinden is in principe verboden. Beperkte uitzonderingen zijn strikt gedefinieerd en gereguleerd (zoals waar strikt noodzakelijk om naar een vermist kind te zoeken, om een ​​specifieke en onmiddellijke terroristische dreiging te voorkomen of om een ​​dader of verdachte van een ernstig strafbaar feit op te sporen, te lokaliseren, te identificeren of te vervolgen). Dergelijk gebruik is onderhevig aan toestemming van een gerechtelijke of andere onafhankelijke instantie en aan passende limieten in tijd, geografisch bereik en de doorzochte databases.

Beperkt risico, d.w.z. AI-systemen met specifieke transparantieverplichtingen: bij het gebruik van AI-systemen zoals chatbots moeten gebruikers zich ervan bewust zijn dat ze interactie hebben met een machine, zodat ze een weloverwogen beslissing kunnen nemen om door te gaan of een stap terug te doen.

Minimaal risico: het wetsvoorstel staat het gratis gebruik van applicaties toe, zoals AI-compatibele videogames of spamfilters. De overgrote meerderheid van AI-systemen valt in deze categorie. De ontwerpverordening komt hier niet tussen, aangezien deze KI-systemen slechts een minimaal of geen risico vormen voor de rechten of veiligheid van burgers.

Wat governance betreft, stelt de Commissie voor dat de nationale bevoegde markttoezichtautoriteiten toezicht houden op de nieuwe regels, terwijl de oprichting van een Europese Raad voor kunstmatige intelligentie de implementatie ervan zal vergemakkelijken en de ontwikkeling van normen voor AI zal stimuleren. Daarnaast worden vrijwillige gedragscodes voorgesteld voor niet-risicovolle AI, evenals regelgevende sandboxen om verantwoorde innovatie mogelijk te maken

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *