Vertrouwen en AI

Kunnen Europeanen vertrouwen op wat AI te bieden heeft. Evenredige en flexibele regels zullen de specifieke risico’s van KI-systemen aanpakken en de hoogste norm wereldwijd bepalen.  Om Europa’s leidende positie in de ontwikkeling van mensgerichte, duurzame, veilige, inclusieve en betrouwbare AI te versterken.

De Europese benadering van betrouwbare AI

De nieuwe regels worden in alle lidstaten op dezelfde manier toegepast, op basis van een toekomstbestendige definitie van AI. Daarbij wordt een risicogebaseerde benadering gevolgd:

Onaanvaardbaar risico: bedreigingen voor de veiligheid, het levensonderhoud en de rechten van mensen.

Daarbij worden toepassingen bedoeld die menselijk gedrag manipuleren om de vrije wil van gebruikers te omzeilen (bijv. Speelgoed dat spraakondersteuning gebruikt om gevaarlijk gedrag van minderjarigen aan te moedigen) en systemen die ‘sociale scores’ door overheden mogelijk maken.

Hoog risico: Zijn AI-technologieën die wordt gebruikt in:

Kritieke infrastructuren (bv. Vervoer) die het leven en de gezondheid van burgers in gevaar kunnen brengen;

Onderwijs- of beroepsopleiding, die de toegang tot onderwijs en de professionele loop van iemands leven kan bepalen (bijv. Het scoren van examens);

Veiligheidscomponenten van producten (bijv.KI-toepassing bij door robots ondersteunde chirurgie);

Tewerkstelling, personeelsbeheer en toegang tot zelfstandig ondernemerschap (bv. Cv-sorteersoftware voor wervingsprocedures);

Essentiële particuliere en openbare diensten (bijv. Kredietscore waardoor burgers de mogelijkheid worden ontzegd om een ​​lening te krijgen);

Wetshandhaving die inbreuk kan maken op de grondrechten van mensen (bv. Evaluatie van de betrouwbaarheid van bewijs);

Migratie-, asiel- en grenscontrolebeheer (bv. Verificatie van de authenticiteit van reisdocumenten);

Rechtsbedeling en democratische processen (bv. De wet toepassen op een concrete reeks feiten).

AI-systemen met een hoog risico zullen aan strikte verplichtingen worden onderworpen voordat ze op de markt kunnen worden gebracht:

Adequate risicobeoordeling en risicobeperkende systemen;

Hoge kwaliteit van de datasets die het systeem voeden om risico’s en discriminerende resultaten te minimaliseren;

Loggen van activiteiten om traceerbaarheid van resultaten te garanderen;

Gedetailleerde documentatie met alle informatie die nodig is over het systeem en het doel ervan zodat de autoriteiten de naleving ervan kunnen beoordelen;

Duidelijke en adequate informatie voor de gebruiker;

Passende maatregelen voor menselijk toezicht om risico’s te minimaliseren;

Hoge mate van robuustheid, veiligheid en nauwkeurigheid.

In het bijzonder worden alle biometrische identificatiesystemen op afstand als risicovol beschouwd en aan strenge eisen onderworpen. Het live gebruik ervan in openbaar toegankelijke ruimtes voor wetshandhavingsdoeleinden is in principe verboden. Beperkte uitzonderingen zijn strikt gedefinieerd en gereguleerd (zoals waar strikt noodzakelijk om naar een vermist kind te zoeken, om een ​​specifieke en onmiddellijke terroristische dreiging te voorkomen of om een ​​dader of verdachte van een ernstig strafbaar feit op te sporen, te lokaliseren, te identificeren of te vervolgen). Dergelijk gebruik is onderhevig aan toestemming van een gerechtelijke of andere onafhankelijke instantie en aan passende limieten in tijd, geografisch bereik en de doorzochte databases.

Beperkt risico, d.w.z. AI-systemen met specifieke transparantieverplichtingen: bij het gebruik van AI-systemen zoals chatbots moeten gebruikers zich ervan bewust zijn dat ze interactie hebben met een machine, zodat ze een weloverwogen beslissing kunnen nemen om door te gaan of een stap terug te doen.

Minimaal risico: het wetsvoorstel staat het gratis gebruik van applicaties toe, zoals AI-compatibele videogames of spamfilters. De overgrote meerderheid van AI-systemen valt in deze categorie. De ontwerpverordening komt hier niet tussen, aangezien deze KI-systemen slechts een minimaal of geen risico vormen voor de rechten of veiligheid van burgers.

Wat governance betreft, stelt de Commissie voor dat de nationale bevoegde markttoezichtautoriteiten toezicht houden op de nieuwe regels, terwijl de oprichting van een Europese Raad voor kunstmatige intelligentie de implementatie ervan zal vergemakkelijken en de ontwikkeling van normen voor AI zal stimuleren. Daarnaast worden vrijwillige gedragscodes voorgesteld voor niet-risicovolle AI, evenals regelgevende sandboxen om verantwoorde innovatie mogelijk te maken

Wat we willen

Freud vroeg zich al af: ‘wat willen vrouwen?’

Wat vragen bedrijven, organisaties en de overheid zich af: ‘wat willen mensen?’ In tegenstelling tot Freud denken ze echter vaak dat ze het antwoord weten.

De ontvangen wijsheid – heel vaak – is dat mensen “een overtuigend verhaal ” willen.

Keer op keer hoor je: als je een overtuigend verhaal hebt, vertrouwen mensen je meer. Dit is allemaal de taal van homo economicus – rationeel, lineair, deductief, op gegevens gebaseerd.

Slechts één probleem: het is aantoonbaar niet waar. Of, om preciezer te zijn, het verklaart veel minder het vertrouwen dat burgers in bedrijven, organisaties en de overheid hebben maar ze geloven het graag.

Wat vertellen de gegevens ons? Werkt een goed verhaal echt? Mooi verwoord: “Mensen geloven met hun hart – en rechtvaardigen het dan met hun brein.”

Samengevat: ‘Mensen geloven liever in wat ze nodig hebben van mensen die begrijpen wat dat is. zij willen.” Dat niet van degenen met een slecht verhaal.

Uitgaande van het feit dat 95% van onze beslissingen in het onderbewustzijn plaatsvinden. “Vertrouwen mensen niet om logische redenen, maar om emotionele redenen. “

Vertrouwen is niet gebaseerd op data, of rationele argumentatie, of iets dat lijkt op een ‘een goed verhaal’.

De term “een goed verhaal” in het dagelijkse gebruik erkent dit op gegevens gebaseerde feit eenvoudigweg niet.

Met andere woorden, wat mensen bijblijft en hen volgers maakt, zijn zaken als ‘betrouwbaarheid’, ‘geven om’, ‘tijd besparen’, ‘slimmer maken’. Met andere woorden, de diepere, emotionele, vage dingen.

Waarom zou dit zijn? Is het onwetendheid? Ontkenning? Schizofrenie? Waarom zouden intelligente mensen vertrouwen stellen in logica, waarvan is bewezen dat logica – logischerwijs – faalt? Hoe kunnen we dit onlogische gedrag rechtvaardigen?

Wat betekent het verkopen van je ziel. Het betekent manipulatie.

En daarvoor worden geen morele principes opgeven, vaardig worden in de kunst van manipulatie, het bedriegen en geld aannemen van bedrijven, organisaties en overheden die je leuk vind? Allemaal voor een beleving, voedsel en een wrede wereld?

Of behouden we onze principes, en geven inkomen, loopbaanontwikkeling en succes op.

Volg je hart. Bouw de relatie op. Vertel de waarheid. Wees transparant. Bekijk transacties als tussenstops, niet als eindpunten. Doe het goede.

Op deze manier bekeken, is de juiste rol de hersenen te voeden met de rationalisatie die ze nodig hebben om het hart te dienen. De waarde die je dan krijgt is een vertrouwensrelatie.

Digitale tweeling

Digitale tweelingen in de echte wereld zijn nodig om het volledige potentieel te realiseren.

Het concept van een digitale tweeling bestaat al bijna twee decennia. Een digitale tweeling is per definitie een exacte weergave van een apparaat, object, gebouw, infrastructuur, bedrijf, overheid of personen in een digitale omgeving.

Meestal worden digitale tweelingen gebruikt voor kwaliteitscontrole, verbetering, systeemdiagnostiek, bewaking, optimalisatie en voorspelling van resultaten en prestaties. Het optimaliseren van digitale tweelingen vereist investeringen in hardware als in software die gegevens omzetten in bruikbare inzichten.

Inmiddels vertrouwen we erop dat al dan niet onder toezicht staande algoritmen voor machine learning zullen ontdekken hoe we kwaliteit kunnen verbeteren op basis van de terabytes aan gegevens die dagelijks worden gegenereerd.

Een digitale tweeling bestaat uit gegevens, computermodellen en interfaces, zoals een object in een objectgeoriënteerde programmeertaal die gegevens, methoden en interfaces nodig heeft.

Een digitale tweeling bevat gegevens over het werkelijkheid die de modellen nodig hebben om de toestanden en het gedrag weer te geven en te begrijpen. In veel gevallen kan het bestaan ​​uit gegevens over de volledige levenscyclus.

Een digitale tweeling bevat reken- of analytische modellen die nodig zijn om de toestand en het gedrag beschrijven, begrijpen en voorspellen, evenals modellen die worden gebruikt om acties te omschrijven op basis van logica en doelstellingen.

Deze modellen kunnen, modellen bevatten op basis van fysica- of scheikunde-, technische- of simulatiemodellen, datamodellen op basis van statistieken, machine learning en kunstmatige intelligentie (AI).

Door te vertrouwen op een digitale weergave die mogelijk wordt gemaakt door de digitale tweeling, kunnen we een groot aantal slimme toepassingen in de echte wereld laten werken, waardoor deze activiteiten optimaal worden verbeterd.

Het abstractieniveau van een digitale tweeling is zodanig dat het voldoende is, voor de vereisten van een specifieke toepassing of use case.

Een discrete digitale tweeling is een enkele entiteit die waarde biedt zonder verder te hoeven worden opgesplitst. Het samenstellen van discrete digitale tweelingen om een samengestelde digitale tweeling te creëren.

Een digitale tweeling is een oplossing voor het informatiesiloprobleem: de informatie over een entiteit is meestal verspreid over meerdere informatiebronnen, die worden ontwikkeld en onderhouden door verschillende organisaties.

Digitale tweelingen kunnen worden ingezet om het informatiesiloprobleem aan te pakken. De digitale tweeling is een middel en een interface om toegang te krijgen tot informatie.

Omdat informatie uit verschillende bronnen komt, op verschillende tijdstippen en in verschillende formaten, is het automatisch tot stand brengen van een interface, één van de grootste uitdagingen bij het ontwerpen van digitale tweelingen.

Eenmaal tot stand gebracht zal echter een digitale tweeling ontstaan die de standaard bepaald. Voor het verwerken en samenvoegen van gegevens tot een werkbaar model. Waaruit voorspellingen, berekeningen en optimalisaties ontstaan die een waardevolle toevoeging zijn aan bestaande processen en vraagstukken.

Datascience

Door de onbedoelde gevolgen van AI is de kans dat de massa er zich tegen keert. Al bijna een decennium zijn we geobsedeerd door het maximaliseren van voorspellende prestaties. Zeker gezien als we kijken naar het vermogen waarmee AI de prestaties op menselijk niveau bij sommige taken kan benaderen.

Er zijn steeds meer voorbeelden van onbedoelde gevolgen, zo kennen we het  toeslagen schandaal van de belastingdienst, het algoritme van sociale zaken, het discrimineren van vrouwelijke kandidaten tot het geven van prioriteit aan blanke sollicitanten boven allochtonen sollicitanten. Op de Mensgerichte AI gericht op privacy, ethiek en transparantie moet voorrang krijgen op winst in voorspellende kracht.

In data science zijn deze definities belangrijk. Er is nog steeds geen unanieme overeenstemming over wat het betekent om een ​​ethische datawetenschapspraktijk op te bouwen. Dit begint bij de ethische datawetenschap met eerlijkheid en waardeert privacy, ethiek, transparantie en menselijk welzijn boven voorspellende kracht.

Er zijn veel briljante geesten die aan deze uitdagingen werken. Zelfs Facebook, Google en Microsoft hebben “Responsible AI” -teams opgericht om deze problemen aan te pakken, maar met beperkt succes. Ook de Europesche gemeenschap kent een dergelijk programma. Waarbij er buiten dergelijke initiatieven weinig tot geen investeringen worden gedaan in ethische datawetenschap buiten deze beperkte groep bedrijven.

De kernprincipe van ethische datawetenschap, moeten we gaan begrijpen en waarom dit zo complex is. Hoewel er meer vragen dan antwoorden zijn, moeten inzichten worden gedeeld uit de lessen die gaandeweg worden geleerd.

Wat is eerlijkheid eigenlijk?

We kunnen geen ethische gegevenswetenschap hebben zonder eerst aandacht te besteden aan eerlijkheid. In grote lijnen betekent eerlijkheid dat verschillende individuen gelijk worden behandeld onder dezelfde omstandigheden.

Laten we zeggen dat we proberen een bruikbaar model te bouwen dat geen rekening houd met etniciteit of geslacht en individuen aanbeveelt door rekening te houden met hun opleiding en werkervaring. In theorie zou dit de individuele vooroordelen die bij het nemen van beslissingen betrokken zijn, kunnen verminderen.

Laten we nu aannemen dat we een historische dataset van individuen kunnen vinden, compleet met educatieve geschiedenis, werkposities en de geaccepteerde salarissen. De kans is groot dat deze dataset enige vertekening bevat. Ook kunnen in veel gevallen ‘proxyvariabelen’ – factoren zoals postcode, persoonlijke interesses, winkeltransacties, onder andere – indirecte indicatoren zijn van beschermde statussen zoals leeftijd, geslacht en etniciteit.

Het is misschien onmogelijk om te voldoen aan zowel de criteria voor ‘statistische pariteit’ als ‘gelijke kansen’ definities van eerlijkheid.

Dit wordt snel ingewikkeld. In feite zijn er verschillende definities van eerlijkheid, waarbij er verschillende manieren zijn om eerlijkheid te definiëren die elkaar kunnen tegenspreken of niet tegelijkertijd waar kunnen zijn. De realiteit is dat er geen eenduidige definitie van eerlijk is. Datawetenschappers hebben de taak om belangrijke beslissingen te nemen over welke vragen ze moeten stellen en welke modellen ze moeten gebruiken. Hoewel veel goedbedoeld zijn, betekent dit dat het moeilijk kan zijn voor iemand die het juiste wil doen om te weten welke vereiste hij moet doen.

Als je bedenkt dat datawetenschap momenteel nog de laagste homogeniteit kent qua diversiteit in technische beroepen , wordt dit nog problematischer. Dus als de definitie van ‘eerlijk’ subjectief is aan de homogeniteit van de data teams, hoe kunnen we dan eerlijke beslissingen nemen en daarmee ethische datawetenschap beoefenen?

Wat wordt gemeten, wordt beheerd en wat wordt beheerd, wordt verbeterd

We worden geleefd door onze kernwaarden, evalueren en hebben onze doelen geïdentificeerd door collectief te zoeken. Navigeren door ethiek is een van onze kernwaarden, we erkennen dat er soms niet één juist antwoord is.

* Er zijn geen reguliere mogelijkheden om de nuances van ethische datawetenschap te bespreken.

* We bouwen geen oplossingen voor situaties van leven of dood.

* Ik heb niet genoeg vertrouwen in mijn vermogen om onbedoelde gevolgen te herkennen.

* Ik heb onvoldoende grip op rechtvaardigheid en eerlijkheid, vooral niet als het om verschillende groepen gaat.

Datawetenschap is niet nieuw, maar in de afgelopen 10 jaar zouden de meeste professionals het beschouwen als een opkomende discipline.

Hoewel datawetenschap nog grotendeels ongereguleerd is, groeit de consensus dat het noodzakelijk is. Dit is een vroeg teken van regelgeving die naar de data science-wereld komt.

Maar we bouwen data- en AI-systemen die mensen op verschillende manieren meten, beïnvloeden en ondersteunen. Maar wat als we elke oplossing die we hebben gebouwd door de lens van de impact op mensen zouden bekijken? Een standaard ethisch beoordelingsproces kan risico’s herkennen en bescherming te bieden tegen onbedoelde gevolgen.