GAIA-X cloud

GAIA-X cloud computing op Europees niveau als een hybride dataplatform.

Met GAIA-X is een ambitieus project om een ​​Europese data-infrastructuur te bouwen. Een data-ecosysteem bedoeld om de technologische afhankelijkheid van internationale hyperscalers te verminderen en tegelijkertijd de waardeketens in de digitale interne markt van de EU te versterken.

In de toekomst zal GAIA-X zich richten op de Industrie 4.0: slim wonen, financiën, geo-informatie, gezondheidszorg, de publieke sector, mobiliteit, landbouw en energie. Een dataplatform voor duurzame financiering op basis van kunstmatige intelligentie (AI) en machine learning. Of een raamwerk voor veilige uitwisseling van zorggegevens om de patiëntenzorg te verbeteren. In de transportsector kan het onder meer geoptimaliseerde onderhoudsoplossingen mogelijk maken op basis van voorspellend onderhoud. Intelligente algoritmen berekenen wanneer en waar onderhoudswerkzaamheden aan de transportinfrastructuur moeten worden uitgevoerd wanneer dat nodig is. Voor deze en vele andere toepassingsgebieden biedt een open dataplatform op basis van Europese standaarden enorme voordelen.

GAIA-X en te verwachte doelen:

1. Actief vormgeven aan vooruitgang & innovatie in de cloud

De GAIA-X technologie stelt bedrijven in staat om gegevens en diensten in realtime aan miljoenen gebruikers te leveren. Samenwerken aan documenten, in videoconferenties, online bankieren en zelfs het streamen van muziek en films. De belangrijkste argumenten voor de technologie de hoge schaalbaarheid, mobiele toegang tot operationele middelen en het vermogen om te innoveren door middel van technologieën zoals AI en big data-analyse.

Met de gestage digitalisering in de gezondheidszorg, kritieke nutsbedrijven en vele andere industrieën, verhuizen steeds meer processen naar de cloud – en dat creëert afhankelijkheden.

2. Doorbreken van eenzijdige marktdominantie

De cloudmarkt wordt gedomineerd door wereldwijde hyperscalers, digitale soevereiniteit en autonomie cruciale factoren om de crisis te boven te komen. Alternatieven die voldoen aan de vereisten worden te vaak genegeerd vanwege bestaande vendor lock-in-effecten en minder wijdverbreide naamsbekendheid. Deze strategie kan een gebruikelijke benadering zijn om operationele storingen in uitzonderlijke situaties te voorkomen. Bedrijven die voortdurend de vereisten van de Algemene Verordening Gegevensbescherming (AVG) en andere wettelijke vereisten schenden, moeten echter consequenties verwachten voor het gebruik van buitenlandse cloud providers.

3. Gegevensbescherming en IT-beveiliging.

De AVG biedt Europa een unieke tool om gevoelige gegevens te beschermen. Internationaal is de regelgeving een symbool geworden van consistente gegevensbescherming en gegevensintegriteit, waar veel landen naar op zoek zijn als model. EU-bedrijven gebruiken de AVG ook als kwaliteitskeurmerk om te voldoen aan de strengste eisen op het gebied van gegevensbescherming. Daarnaast definieert de EU-richtlijn beveiliging van netwerk- en informatiesystemen (de NIS-richtlijn) de eisen voor een uniform niveau van IT-beveiliging op Europees niveau. De richtlijn heeft met name tot doel de kritieke infrastructuur te beschermen tegen cyberincidenten. GAIA-X bouwt precies voort op deze enorme basis voor gegevensbescherming en IT-beveiliging.

4. Versterk de interne markt, promoot lokale spelers

EU-conforme gegevensbescherming is een van de belangrijkste selectiecriteria bij de aanschaf van nieuwe clouddiensten. Bovendien mogen cloudgebaseerde diensten uitsluitend worden geleverd vanuit lokale datacenters in de EU.

5. Verhoog de prestaties en het gemak

Door te focussen op open en modulaire standaarden, wil GAIA-X ook de interoperabiliteit in cloud computing vergroten. Het platform wil data zo vrij mogelijk toegankelijk maken, zodat het bedrijfsleven, de wetenschap en de samenleving er direct van kunnen profiteren. Gedeelde datapools stimuleren bijvoorbeeld het werken aan machine learning en AI. Dit bevordert op zijn beurt de implementatie van innovatieve technologieën in bestaande clouddiensten. Voor de betrokken bedrijven en organisaties betekent dit extra voordelen op het gebied van prestaties en gemak – zonder concessies te doen op het gebied van gegevensbescherming en beveiliging.

Data analyse

Wat is data-analyse is de systematische toepassing van statistische en logische technieken om de gegevens te beschrijven, te moduleren, te condenseren, te illustreren, te evalueren en zinvolle conclusies af te leiden die bekend staan ​​als gegevensanalyse. Deze analyse stelt ons in staat om uit gegevens gevolgtrekking te induceren door de onnodige chaos die door de rest van de gegevens wordt veroorzaakt, te elimineren. Datageneratie is een continu proces; dit maakt data-analyse tot een continu, iteratief proces waarbij het verzamelen en uitvoeren van data-analyse gelijktijdig plaatsvindt. Het waarborgen van de gegevensintegriteit is een van de essentiële componenten van gegevensanalyse.

Er zijn verschillende voorbeelden waarin data-analyse wordt gebruikt, variërend van transport, risico- en fraudedetectie, klantinteractie, stadsplanning, gezondheidszorg, zoeken op internet, advertenties en meer.

Methoden voor gegevensanalyse

Er zijn twee hoofdmethoden voor gegevensanalyse:

1. Kwalitatieve analyse

Beantwoordt voornamelijk de vragen ‘waarom’, ‘wat’ of ‘hoe’.

2. Kwantitatieve analyse

Deze analyse meer in termen van aantallen.

De andere technieken zijn:

3. Tekstanalyse

Tekstanalyse is een techniek om teksten te analyseren om machineleesbare feiten te extraheren. Het is bedoeld om gestructureerde gegevens te creëren uit vrije en ongestructureerde inhoud.

4. Statistische analyse

Statistiek omvat het verzamelen, interpreteren en valideren van gegevens. Statistische analyse is de techniek van het uitvoeren van verschillende statistische bewerkingen om de gegevens te kwantificeren en statistische analyse toe te passen.

5. Diagnostische analyse

Diagnostische analyse is een stap verder naar statistische analyse om een ​​meer diepgaande analyse te bieden om de vragen te beantwoorden. Het wordt ook wel root cause analysis genoemd, omdat het processen omvat zoals data discovery, mining en drill-down en drill-through.

6. Voorspellende analyse

Voorspellende analyse maakt gebruik van historische gegevens en voert deze in het machine learning-model in om kritieke patronen en trends te vinden.

7. Prescriptieve analyse

Prescriptieve analyse suggereert verschillende acties en schetst de mogelijke implicaties die kunnen worden bereikt na voorspellende analyse.

Zodra u gegevens gaat verzamelen voor analyse, wordt u overweldigd door de hoeveelheid informatie die u vindt om een ​​duidelijke, beknopte beslissing te nemen. De volgende eenvoudige stappen helpen u bij het identificeren en sorteren van uw gegevens voor analyse.

1. Specificatie – definieer uw bereik:

Definieer korte en duidelijke vragen, de antwoorden waarop u uiteindelijk een beslissing moet nemen.

2. Gegevensverzameling

Verzamel uw gegevens op basis van uw meetparameters.

Verzamel gegevens uit databases, websites en vele andere bronnen. Deze gegevens zijn mogelijk niet gestructureerd of uniform.

3. Gegevensverwerking

Organiseer uw gegevens en zorg ervoor dat u eventuele kanttekeningen toevoegt.

Controleer gegevens met betrouwbare bronnen.

Converteer de gegevens volgens de meetschaal die u eerder hebt gedefinieerd.

4. Gegevensanalyse

Nadat u uw gegevens hebt verzameld, kunt u de correlaties sorteren, plotten en identificeren.

5. Resultaten afleiden en interpreteren

Controleer of het resultaat uw eerste vragen beantwoordt

Als je eenmaal een gevolgtrekking hebt gemaakt, onthoud dan altijd dat het slechts een hypothese is. In Data-analyse zijn er een paar gerelateerde terminologieën die overeenkomen met verschillende fasen van het proces.

1. Datamining

Dit proces omvat methoden voor het vinden van patronen in de gegevenssteekproef.

2. Gegevensmodellering

Verwijst naar hoe een organisatie haar gegevens organiseert en beheert.

Er zijn verschillende technieken voor gegevensanalyse, afhankelijk van de vraag, het type gegevens en de hoeveelheid verzamelde gegevens. Elk richt zich op het overnemen van de nieuwe gegevens, het ontginnen van inzichten en het doorboren van de informatie om feiten en cijfers om te zetten in besluitvormingsparameters. 

Data core

Als we kijken naar de concurrentievoordelen die kunnen worden behaald door inzichten uit real-time data-analyse het sneller begrijpen en erop te reageren. 

Dan onthult zich een datalandschap waarin digitale transformatie, de proliferatie van edge-apparaten en de verschuiving naar mobiel werken in een wereldwijde pandemie.

De explosie van data verder versneld die data die organisaties soms niet hebben, niet alleen hoeven te managen, maar zouden moeten exploiteren voor operationeel en commercieel gewin. In feite zou er op korte termijn meer moeten worden geïnvesteerd in realtime data-analyseoplossingen.

Daarbij vormt de data cultuur een belemmering voor het verminderen van de tijd om waarde uit hun gegevens te halen omdat men kampt met een gebrek aan mensen en vaardigheden. Het succesvol afstemmen van technologieën, processen, vaardigheden en cultuur om een ​​bedrijfsmodel van continue intelligentie te implementeren doormiddel van realtime analyses duidelijk een belangrijk aandachtspunt.

“Daarbij bevestigen bevindingen wat data ons lijkt vertellen, het halen van meer waarde uit data, zou zo dicht mogelijk bij het punt van het vastlegging van die data moeten zijn en is een cruciale zakelijke vereiste aan het worden” 

“De waarde van de meeste gegevens neemt af op het moment dat ze worden gecreëerd, hierdoor is het ontsluiten en operationeel maken van die cruciale inzichten op het moment waarop prioriteiten en investeringen worden gericht.”

In 2020 zagen bijna alle bedrijven een toename in het volume en de verscheidenheid aan gegevens die hun organisatie binnenkwamen in een groot aantal kernactiviteiten. De gegevens over webverkeer zijn het meest significant gestegen, terwijl gegevens via e-commercekanalen op een goede seconde volgen. Een nieuwe bron van data die een aanzienlijke toename kende is die van sensordata, terwijl volumes klant data, operationele prestatiegegevens en financiële data ook aanzienlijke stijging laten zien.

Daardoor lijkt belangrijker te worden om toegang te hebben tot realtime gegevens om slimmere beslissingen te kunnen nemen, het van cruciaal belang om naast volume ook rekening te houden met snelheid. Bovendien, blijkt dat bedrijven realtime gegevens als het meest waardevol beschouwen. Al waarderen ze ook de combinatie van historische en realtime gegevens bij het nemen van zakelijke beslissingen.

Organisaties die al over de tools beschikken om realtime inzichten vast te leggen, lijken daarbij een concurrentievoordeel hebben. Degenen die voorop lopen als het gaat om realtime analyses, gebruiken gegevens al in grote mate om zakelijke beslissingen te nemen. En erkennen ook dat het erg belangrijk is om toegang te hebben tot realtime gegevens om slimmere zakelijke beslissingen te nemen.

Hoe sneller ze gegevens kunnen gebruiken, hoe meer winst er te behalen is. Terwijl de huidige tools slechts enigszins zijn voorbereid op de transitie, is het essentieel om in de juiste technologieën en mensen te investeren.

Realtime dataleiders gebruiken gegevens al in grote mate als het gaat om zakelijke beslissingen, en zullen zich eerder goed voorbereid voelen met hun huidige tools en middelen om te profiteren van real- tijdgegevens om het gevoel te hebben om de concurrentiedruk het hoofd te bieden.

Een aanzienlijke kans voor data gestuurde besluitvorming op grotere schaal, aangezien het potentieel hiervan het realiseren van betere bedrijfsresultaten en concurrentievoordeel.

Om zo een ​​cultuur en capaciteit op te bouwen rond realtime data-analyse en continue intelligentie.

Nieuwe apps

Een hele golf nieuwe apps die uw gegevens kunnen opslaan. Aangezien er gemakkelijk inkomsten kunnen worden gegenereerd met gegevens, zijn deze apps meestal ‘gratis’ voor gebruikers – immers bedrijven betalen graag voor informatie. De nieuwe apps willen hiervoor een ​​echt alternatief bieden en ondersteunen de standaarden die we gebruiken om gegevens uit te wisselen, dit geeft de gebruiker, de mogelijkheid om te beslissen wie u toegang geeft, waartoe en voor hoelang.

Wat doen de apps en waarom

De Apps doen in principe drie dingen:

* ze ontvangen gegevens en slaan deze veilig op

* laat u de keuze deze gegevens bekijken, om ervan te leren, om uw activiteiten te volgen en conditie te verbeteren

* staat u toe om, 100% op uw voorwaarden, te delen, vrienden of zelfs overheid, bedrijven, instellingen en onderzoeksorganisaties.

Niemand kiest ervoor om gegevens te delen zonder dat hij of zij dit weet, dus niemand mag worden gediscrimineerd op basis van hun gegevens. Het streven zou moeten zijn dat iedereen weer controle te geven over zijn gegevens, in plaats van dat deze worden uitgebuit voor economisch gewin.

Persoonlijke gegevens worden nu vaak uitgebuit en gebruikt om mensen te discrimineren, waardoor hun vermogen om een ​​baan te vinden, verzekeringsdekking en economische stabiliteit worden verwoest. Overheden, fabrikanten van apparaten en softwarebedrijven delen uw gezondheidsgegevens uit zodat bedrijven deze kunnen exploiteren.

Veel apps hebben een verdienmodel dat is gebaseerd op het verkopen van de data aan verzekerings- en farmaceutische bedrijven en gebruikers worden niet expliciet bewust gemaakt van de gevolgen van het gebruik van deze apps.

Een betere wereld zou er een zijn waarin gebruikers bepalen waar hun gegevens zijn en wie er zelf toegang toe heeft, in plaats van deze zonder hun medeweten te laten verkopen.

Gebruikers kunnen hun data gebruiken om inzicht te krijgen in hun eigen leven. En een verscheidenheid aan gegevens opnemen en volgen, en zelfs  bekijken. Op deze manier kan er worden gewerkt aan verbeteringen, vooral op gebieden die niet goed in beeld zijn zonder deze data.

Bedrijven, instellingen en overheden, verzamelen miljarden datapunten en genereren talloze beelden, maar dat omvat niet altijd alles wat belangrijk is voor uw als klant patiënt of burger. Fysieke activiteit, voedingsgegevens, mentale en emotionele gegevens zijn gegevens die de mogelijkheid gegevens om deze te verkennen en ervan te leren.

Op het meest basale niveau weet iedereen dat ze meer moeten bewegen, gezonder moeten eten, een goede nachtrust moeten krijgen en minder alcohol moeten consumeren. Mensen veranderen echter zelden alleen omdat ze weten dat ze dat moeten doen of als ze dat moeten doen. In plaats daarvan, wanneer mensen zelf het verband tussen fysieke activiteit, voeding en welzijn ervaren, zullen ze waarschijnlijk positieve gedragsveranderingen behouden. En met dit aanhoudende en gezondere gedrag heeft het menselijk lichaam een ​​ongelooflijk potentieel voor zelfgenezing.

Informatie in de vorm van data stelt mensen in staat om systematisch activiteit, slaap, gewicht, voeding, supplementen, vitale functies en gegevens over de mentale en emotionele toestanden te beheren. Visualisatietools stellen mensen in staat de relaties tussen de gegevens te begrijpen en hen aan te moedigen gezondere keuzes te maken.

Delen is de sleutel voor gegevens en ook u wilt misschien ook gegevens met anderen delen, op een veilige en zeer gecontroleerde manier. Beheren voor u eigen voordeel, of de samenleving als geheel! Gegevens veilig te delen, of het nu gaat om je vertrouwde vrienden en familie of als een anonieme deelnemer aan onderzoek. Dit stelt u in staat u eigen gegevens te gebruiken om uzelf of de samenleving in het algemeen ten goede te komen.

Door een geanonimiseerde versie van gegevens te delen met de onderzoeksgemeenschap, versnellen we innovatie. Bovendien de wetenschap dat we niet de enige zijn, maar een deel uitmaken van een grotere geheel wekt vertrouwen. Door een geanonimiseerde versie van gegevens te delen, kan er sneller vooruitgang worden geboekt.

Waar zit de waarde

Data heeft veel waarde, maar alleen als deze is opgeschoond om zo de informatie die ze bevat vrij te geven. Daarbij moeten we denken aan actiegerichte data en kunstmatige intelligentie (AI).

Edge-oplossingen werken dicht bij de plek waar de data wordt gegenereerd, met de mogelijkheid van lokale verwerking en analyse voordat het eventueel verder wordt verwerkt. Als zodanig profiteren we van een lagere latentie, snellere reacties bij veranderende condities en kunnen de kosten van verwerking en analyse worden verlaagd.

Een van de meest kritische functies van het genereren van data is het meta register, waarmee het platform kan begrijpen welke gegevens er worden verzameld. Het meta register verwijst naar een schema met daarin de gegevensbronnen en de gegevensuitwisseling die er plaatsvinden.

Het dataplatform moet data uit talloze databronnen, leveren aan applicaties  waarvoor we tot niet zolang terug datameren werden gebruikt.

Echter door het ontkoppelen van datastromen naar gedistribueerde fout toleranten stromen, zorgt ongelooflijk hoge prestaties, is extreem compact en kan eenvoudig worden geschaald door de toevoeging van hardware.

Gegevensverwerking kan batch- en stream verwerking omvatten. Batch verwerking verwerkt grote hoeveelheid transacties in één run, met meerdere bewerkingen bij zware gegevensbelastingen.

Stream processing houdt zich bezig met transformatie waarbij extreem snelle afhandeling vereist is, met minder data.

Hogere verwerkingssnelheden en configureerbare, automatische, op regels gebaseerde acties en een lagere latentie tussen een gebeurtenis en de daaropvolgende actie, waardoor er waarde wordt toegevoegd.

Gegevensverrijking is van onschatbare waarde. Het voegt gegevens van derden uit een externe bron samen met de bestaande database.

Een voorspellende analyse creëert vervolgens een datagestuurd model om de waarschijnlijkheid te berekenen, waarmee kan worden geanticipeerd.

Door te analyseren en patronen te leren om voorspellingen te doen een dataplatform dat dienovereenkomstig schaalt en dat de meest veelbelovende technieken zijn om verborgen inzichten en waarde uit data te halen.

‘Detectie’ van anomalieën om defecten te identificeren, behoeften te voorspellen en mogelijke problemen op te sporen. ‘Waarschijnlijkheid’ functies testen hoe veranderingen in specifieke variabelen de uitkomsten zullen beïnvloeden en ‘Optimalisatie’ kan vervolgens worden bereikt door de waarschijnlijkheid van verschillende uitkomsten te berekenen en de parameters dienovereenkomstig aan te passen.

Samenwerken

Naarmate kunstmatige systemen (AI) steeds complexer worden, worden ze gebruikt om voorspellingen te doen of liever voorspellende modelresultaten te genereren in steeds meer gebieden van ons leven.

Tegelijkertijd neemt de bezorgdheid toe over de betrouwbaarheid, temidden van toenemende foutmarges in uitgebreide AI-voorspellingen.

Menselijke intuïtie verslaat AI nog steeds zonder twijfel bij het maken van oordelen in een crisis. Mensen en vooral degenen die in hun ervarings- en expertisegebieden werken zijn gewoon betrouwbaarder.

Het ontwikkelen van het vermogen om fouten op te sporen, te beheersen, te herstellen, en improvisatieprobleemoplossing te oefenen lijken de weg vooruit.

Daarbij letten we constant op afwijkingen en behandelen die als symptomen van een mogelijke storingen in het systeem. Afwijkingen worden, in plaats van terzijde te worden geschoven, vervolgens onderzocht op mogelijke verklaringen.

Mensen brengen daarbij veel hogere niveaus van ‘situationeel bewustzijn’ met zich mee daarbij kunnen ze ook nog andere expertise inzetten.

Deze principes zijn handig bij het nadenken over hoe je een volledig autonoom en betrouwbaar AI-systeem kunt bouwen, of hoe je manieren kunt bedenken waarin mensen en AI-systemen kunnen samenwerken.

AI-systemen kunnen ook een hoog situationeel bewustzijn verwerven, dankzij hun vermogen om gegevens uit meerdere bronnen te integreren en de risico’s voortdurend opnieuw te beoordelen.

De huidige AI-systemen hebben dan wel een situationeel bewustzijn, maar anomaliedetectie voor het vermogen om afwijkingen te verklaren en oplossingen te improviseren lijkt daarbij te ontbreken.

Er is nog veel nodig voordat een AI-systeem op betrouwbare wijze bijna ongevallen kan identificeren en verklaren. Inmiddels kunnen systemen veel voorkomende storingen diagnosticeren, maar hoe diagnosticeren we onbekende storingen?

Wat zou het betekenen voor een AI-systeem om improviserende problemen op te lossen die op de een of andere manier de ruimte van mogelijkheden kunnen uitbreiden buiten het oorspronkelijke probleem waarvoor het systeem was ingericht? oplossen?

Waar AI-systemen en mensen samenwerken, is een gedeeld mentaal model nodig. AI mag zijn menselijke tegenhangers bijvoorbeeld niet bombarderen met irrelevante informatie, aangezien mensen zich bewust moeten zijn van de details, mogelijkheden en faalwijzen van het AI-systeem.

Een andere vorm van anomalie is een storing in het samenwerken tussen de mens en de AI of tussen verschillende mensen aan de menselijke kant van de organisatie. Bovendien mogen menselijke fouten niet buiten beschouwing worden gelaten.

AI-systemen moeten daarom ook het gedrag van mensen begrijpen en kunnen voorspellen. Een manier om machines te trainen om anomalieën te verklaren of om met spontaniteit om te gaan.

Een AI-systeem moet een model hebben van zijn eigen beperkingen en mogelijkheden en deze kunnen communiceren.

Een daarvan is een competentiemodel dat kwantielregressies kan berekenen om AI-gedrag te voorspellen, met behulp van de “conforme voorspelling” een methode om aanvullende correcties aan te brengen. Deze benadering vereist echter veel gegevens en blijft vatbaar voor verkeerde interpretaties.

De andere manier is om autonome systemen te laten omgaan met hun “onbekende onbekenden” via open detectie. Een zelfrijdende auto die op Europese wegen is gemodelleerd, zou bijvoorbeeld in Groot Brittannië aan de verkeerde kant van de weg kunnen rijden. Een afwijkingsdetector die niet gelabelde gegevens gebruikt, kan het AI-systeem helpen effectiever op veranderingen te reageren.

Vertrouwen en AI

Kunnen Europeanen vertrouwen op wat AI te bieden heeft. Evenredige en flexibele regels zullen de specifieke risico’s van KI-systemen aanpakken en de hoogste norm wereldwijd bepalen.  Om Europa’s leidende positie in de ontwikkeling van mensgerichte, duurzame, veilige, inclusieve en betrouwbare AI te versterken.

De Europese benadering van betrouwbare AI

De nieuwe regels worden in alle lidstaten op dezelfde manier toegepast, op basis van een toekomstbestendige definitie van AI. Daarbij wordt een risicogebaseerde benadering gevolgd:

Onaanvaardbaar risico: bedreigingen voor de veiligheid, het levensonderhoud en de rechten van mensen.

Daarbij worden toepassingen bedoeld die menselijk gedrag manipuleren om de vrije wil van gebruikers te omzeilen (bijv. Speelgoed dat spraakondersteuning gebruikt om gevaarlijk gedrag van minderjarigen aan te moedigen) en systemen die ‘sociale scores’ door overheden mogelijk maken.

Hoog risico: Zijn AI-technologieën die wordt gebruikt in:

Kritieke infrastructuren (bv. Vervoer) die het leven en de gezondheid van burgers in gevaar kunnen brengen;

Onderwijs- of beroepsopleiding, die de toegang tot onderwijs en de professionele loop van iemands leven kan bepalen (bijv. Het scoren van examens);

Veiligheidscomponenten van producten (bijv.KI-toepassing bij door robots ondersteunde chirurgie);

Tewerkstelling, personeelsbeheer en toegang tot zelfstandig ondernemerschap (bv. Cv-sorteersoftware voor wervingsprocedures);

Essentiële particuliere en openbare diensten (bijv. Kredietscore waardoor burgers de mogelijkheid worden ontzegd om een ​​lening te krijgen);

Wetshandhaving die inbreuk kan maken op de grondrechten van mensen (bv. Evaluatie van de betrouwbaarheid van bewijs);

Migratie-, asiel- en grenscontrolebeheer (bv. Verificatie van de authenticiteit van reisdocumenten);

Rechtsbedeling en democratische processen (bv. De wet toepassen op een concrete reeks feiten).

AI-systemen met een hoog risico zullen aan strikte verplichtingen worden onderworpen voordat ze op de markt kunnen worden gebracht:

Adequate risicobeoordeling en risicobeperkende systemen;

Hoge kwaliteit van de datasets die het systeem voeden om risico’s en discriminerende resultaten te minimaliseren;

Loggen van activiteiten om traceerbaarheid van resultaten te garanderen;

Gedetailleerde documentatie met alle informatie die nodig is over het systeem en het doel ervan zodat de autoriteiten de naleving ervan kunnen beoordelen;

Duidelijke en adequate informatie voor de gebruiker;

Passende maatregelen voor menselijk toezicht om risico’s te minimaliseren;

Hoge mate van robuustheid, veiligheid en nauwkeurigheid.

In het bijzonder worden alle biometrische identificatiesystemen op afstand als risicovol beschouwd en aan strenge eisen onderworpen. Het live gebruik ervan in openbaar toegankelijke ruimtes voor wetshandhavingsdoeleinden is in principe verboden. Beperkte uitzonderingen zijn strikt gedefinieerd en gereguleerd (zoals waar strikt noodzakelijk om naar een vermist kind te zoeken, om een ​​specifieke en onmiddellijke terroristische dreiging te voorkomen of om een ​​dader of verdachte van een ernstig strafbaar feit op te sporen, te lokaliseren, te identificeren of te vervolgen). Dergelijk gebruik is onderhevig aan toestemming van een gerechtelijke of andere onafhankelijke instantie en aan passende limieten in tijd, geografisch bereik en de doorzochte databases.

Beperkt risico, d.w.z. AI-systemen met specifieke transparantieverplichtingen: bij het gebruik van AI-systemen zoals chatbots moeten gebruikers zich ervan bewust zijn dat ze interactie hebben met een machine, zodat ze een weloverwogen beslissing kunnen nemen om door te gaan of een stap terug te doen.

Minimaal risico: het wetsvoorstel staat het gratis gebruik van applicaties toe, zoals AI-compatibele videogames of spamfilters. De overgrote meerderheid van AI-systemen valt in deze categorie. De ontwerpverordening komt hier niet tussen, aangezien deze KI-systemen slechts een minimaal of geen risico vormen voor de rechten of veiligheid van burgers.

Wat governance betreft, stelt de Commissie voor dat de nationale bevoegde markttoezichtautoriteiten toezicht houden op de nieuwe regels, terwijl de oprichting van een Europese Raad voor kunstmatige intelligentie de implementatie ervan zal vergemakkelijken en de ontwikkeling van normen voor AI zal stimuleren. Daarnaast worden vrijwillige gedragscodes voorgesteld voor niet-risicovolle AI, evenals regelgevende sandboxen om verantwoorde innovatie mogelijk te maken

Wat we willen

Freud vroeg zich al af: ‘wat willen vrouwen?’

Wat vragen bedrijven, organisaties en de overheid zich af: ‘wat willen mensen?’ In tegenstelling tot Freud denken ze echter vaak dat ze het antwoord weten.

De ontvangen wijsheid – heel vaak – is dat mensen “een overtuigend verhaal ” willen.

Keer op keer hoor je: als je een overtuigend verhaal hebt, vertrouwen mensen je meer. Dit is allemaal de taal van homo economicus – rationeel, lineair, deductief, op gegevens gebaseerd.

Slechts één probleem: het is aantoonbaar niet waar. Of, om preciezer te zijn, het verklaart veel minder het vertrouwen dat burgers in bedrijven, organisaties en de overheid hebben maar ze geloven het graag.

Wat vertellen de gegevens ons? Werkt een goed verhaal echt? Mooi verwoord: “Mensen geloven met hun hart – en rechtvaardigen het dan met hun brein.”

Samengevat: ‘Mensen geloven liever in wat ze nodig hebben van mensen die begrijpen wat dat is. zij willen.” Dat niet van degenen met een slecht verhaal.

Uitgaande van het feit dat 95% van onze beslissingen in het onderbewustzijn plaatsvinden. “Vertrouwen mensen niet om logische redenen, maar om emotionele redenen. “

Vertrouwen is niet gebaseerd op data, of rationele argumentatie, of iets dat lijkt op een ‘een goed verhaal’.

De term “een goed verhaal” in het dagelijkse gebruik erkent dit op gegevens gebaseerde feit eenvoudigweg niet.

Met andere woorden, wat mensen bijblijft en hen volgers maakt, zijn zaken als ‘betrouwbaarheid’, ‘geven om’, ‘tijd besparen’, ‘slimmer maken’. Met andere woorden, de diepere, emotionele, vage dingen.

Waarom zou dit zijn? Is het onwetendheid? Ontkenning? Schizofrenie? Waarom zouden intelligente mensen vertrouwen stellen in logica, waarvan is bewezen dat logica – logischerwijs – faalt? Hoe kunnen we dit onlogische gedrag rechtvaardigen?

Wat betekent het verkopen van je ziel. Het betekent manipulatie.

En daarvoor worden geen morele principes opgeven, vaardig worden in de kunst van manipulatie, het bedriegen en geld aannemen van bedrijven, organisaties en overheden die je leuk vind? Allemaal voor een beleving, voedsel en een wrede wereld?

Of behouden we onze principes, en geven inkomen, loopbaanontwikkeling en succes op.

Volg je hart. Bouw de relatie op. Vertel de waarheid. Wees transparant. Bekijk transacties als tussenstops, niet als eindpunten. Doe het goede.

Op deze manier bekeken, is de juiste rol de hersenen te voeden met de rationalisatie die ze nodig hebben om het hart te dienen. De waarde die je dan krijgt is een vertrouwensrelatie.

Digitale tweeling

Digitale tweelingen in de echte wereld zijn nodig om het volledige potentieel te realiseren.

Het concept van een digitale tweeling bestaat al bijna twee decennia. Een digitale tweeling is per definitie een exacte weergave van een apparaat, object, gebouw, infrastructuur, bedrijf, overheid of personen in een digitale omgeving.

Meestal worden digitale tweelingen gebruikt voor kwaliteitscontrole, verbetering, systeemdiagnostiek, bewaking, optimalisatie en voorspelling van resultaten en prestaties. Het optimaliseren van digitale tweelingen vereist investeringen in hardware als in software die gegevens omzetten in bruikbare inzichten.

Inmiddels vertrouwen we erop dat al dan niet onder toezicht staande algoritmen voor machine learning zullen ontdekken hoe we kwaliteit kunnen verbeteren op basis van de terabytes aan gegevens die dagelijks worden gegenereerd.

Een digitale tweeling bestaat uit gegevens, computermodellen en interfaces, zoals een object in een objectgeoriënteerde programmeertaal die gegevens, methoden en interfaces nodig heeft.

Een digitale tweeling bevat gegevens over het werkelijkheid die de modellen nodig hebben om de toestanden en het gedrag weer te geven en te begrijpen. In veel gevallen kan het bestaan ​​uit gegevens over de volledige levenscyclus.

Een digitale tweeling bevat reken- of analytische modellen die nodig zijn om de toestand en het gedrag beschrijven, begrijpen en voorspellen, evenals modellen die worden gebruikt om acties te omschrijven op basis van logica en doelstellingen.

Deze modellen kunnen, modellen bevatten op basis van fysica- of scheikunde-, technische- of simulatiemodellen, datamodellen op basis van statistieken, machine learning en kunstmatige intelligentie (AI).

Door te vertrouwen op een digitale weergave die mogelijk wordt gemaakt door de digitale tweeling, kunnen we een groot aantal slimme toepassingen in de echte wereld laten werken, waardoor deze activiteiten optimaal worden verbeterd.

Het abstractieniveau van een digitale tweeling is zodanig dat het voldoende is, voor de vereisten van een specifieke toepassing of use case.

Een discrete digitale tweeling is een enkele entiteit die waarde biedt zonder verder te hoeven worden opgesplitst. Het samenstellen van discrete digitale tweelingen om een samengestelde digitale tweeling te creëren.

Een digitale tweeling is een oplossing voor het informatiesiloprobleem: de informatie over een entiteit is meestal verspreid over meerdere informatiebronnen, die worden ontwikkeld en onderhouden door verschillende organisaties.

Digitale tweelingen kunnen worden ingezet om het informatiesiloprobleem aan te pakken. De digitale tweeling is een middel en een interface om toegang te krijgen tot informatie.

Omdat informatie uit verschillende bronnen komt, op verschillende tijdstippen en in verschillende formaten, is het automatisch tot stand brengen van een interface, één van de grootste uitdagingen bij het ontwerpen van digitale tweelingen.

Eenmaal tot stand gebracht zal echter een digitale tweeling ontstaan die de standaard bepaald. Voor het verwerken en samenvoegen van gegevens tot een werkbaar model. Waaruit voorspellingen, berekeningen en optimalisaties ontstaan die een waardevolle toevoeging zijn aan bestaande processen en vraagstukken.

Datascience

Door de onbedoelde gevolgen van AI is de kans dat de massa er zich tegen keert. Al bijna een decennium zijn we geobsedeerd door het maximaliseren van voorspellende prestaties. Zeker gezien als we kijken naar het vermogen waarmee AI de prestaties op menselijk niveau bij sommige taken kan benaderen.

Er zijn steeds meer voorbeelden van onbedoelde gevolgen, zo kennen we het  toeslagen schandaal van de belastingdienst, het algoritme van sociale zaken, het discrimineren van vrouwelijke kandidaten tot het geven van prioriteit aan blanke sollicitanten boven allochtonen sollicitanten. Op de Mensgerichte AI gericht op privacy, ethiek en transparantie moet voorrang krijgen op winst in voorspellende kracht.

In data science zijn deze definities belangrijk. Er is nog steeds geen unanieme overeenstemming over wat het betekent om een ​​ethische datawetenschapspraktijk op te bouwen. Dit begint bij de ethische datawetenschap met eerlijkheid en waardeert privacy, ethiek, transparantie en menselijk welzijn boven voorspellende kracht.

Er zijn veel briljante geesten die aan deze uitdagingen werken. Zelfs Facebook, Google en Microsoft hebben “Responsible AI” -teams opgericht om deze problemen aan te pakken, maar met beperkt succes. Ook de Europesche gemeenschap kent een dergelijk programma. Waarbij er buiten dergelijke initiatieven weinig tot geen investeringen worden gedaan in ethische datawetenschap buiten deze beperkte groep bedrijven.

De kernprincipe van ethische datawetenschap, moeten we gaan begrijpen en waarom dit zo complex is. Hoewel er meer vragen dan antwoorden zijn, moeten inzichten worden gedeeld uit de lessen die gaandeweg worden geleerd.

Wat is eerlijkheid eigenlijk?

We kunnen geen ethische gegevenswetenschap hebben zonder eerst aandacht te besteden aan eerlijkheid. In grote lijnen betekent eerlijkheid dat verschillende individuen gelijk worden behandeld onder dezelfde omstandigheden.

Laten we zeggen dat we proberen een bruikbaar model te bouwen dat geen rekening houd met etniciteit of geslacht en individuen aanbeveelt door rekening te houden met hun opleiding en werkervaring. In theorie zou dit de individuele vooroordelen die bij het nemen van beslissingen betrokken zijn, kunnen verminderen.

Laten we nu aannemen dat we een historische dataset van individuen kunnen vinden, compleet met educatieve geschiedenis, werkposities en de geaccepteerde salarissen. De kans is groot dat deze dataset enige vertekening bevat. Ook kunnen in veel gevallen ‘proxyvariabelen’ – factoren zoals postcode, persoonlijke interesses, winkeltransacties, onder andere – indirecte indicatoren zijn van beschermde statussen zoals leeftijd, geslacht en etniciteit.

Het is misschien onmogelijk om te voldoen aan zowel de criteria voor ‘statistische pariteit’ als ‘gelijke kansen’ definities van eerlijkheid.

Dit wordt snel ingewikkeld. In feite zijn er verschillende definities van eerlijkheid, waarbij er verschillende manieren zijn om eerlijkheid te definiëren die elkaar kunnen tegenspreken of niet tegelijkertijd waar kunnen zijn. De realiteit is dat er geen eenduidige definitie van eerlijk is. Datawetenschappers hebben de taak om belangrijke beslissingen te nemen over welke vragen ze moeten stellen en welke modellen ze moeten gebruiken. Hoewel veel goedbedoeld zijn, betekent dit dat het moeilijk kan zijn voor iemand die het juiste wil doen om te weten welke vereiste hij moet doen.

Als je bedenkt dat datawetenschap momenteel nog de laagste homogeniteit kent qua diversiteit in technische beroepen , wordt dit nog problematischer. Dus als de definitie van ‘eerlijk’ subjectief is aan de homogeniteit van de data teams, hoe kunnen we dan eerlijke beslissingen nemen en daarmee ethische datawetenschap beoefenen?

Wat wordt gemeten, wordt beheerd en wat wordt beheerd, wordt verbeterd

We worden geleefd door onze kernwaarden, evalueren en hebben onze doelen geïdentificeerd door collectief te zoeken. Navigeren door ethiek is een van onze kernwaarden, we erkennen dat er soms niet één juist antwoord is.

* Er zijn geen reguliere mogelijkheden om de nuances van ethische datawetenschap te bespreken.

* We bouwen geen oplossingen voor situaties van leven of dood.

* Ik heb niet genoeg vertrouwen in mijn vermogen om onbedoelde gevolgen te herkennen.

* Ik heb onvoldoende grip op rechtvaardigheid en eerlijkheid, vooral niet als het om verschillende groepen gaat.

Datawetenschap is niet nieuw, maar in de afgelopen 10 jaar zouden de meeste professionals het beschouwen als een opkomende discipline.

Hoewel datawetenschap nog grotendeels ongereguleerd is, groeit de consensus dat het noodzakelijk is. Dit is een vroeg teken van regelgeving die naar de data science-wereld komt.

Maar we bouwen data- en AI-systemen die mensen op verschillende manieren meten, beïnvloeden en ondersteunen. Maar wat als we elke oplossing die we hebben gebouwd door de lens van de impact op mensen zouden bekijken? Een standaard ethisch beoordelingsproces kan risico’s herkennen en bescherming te bieden tegen onbedoelde gevolgen.