ai-modellen

AI-modellen kunnen worden gebruikt om veel taken uit te voeren en complexe problemen op te lossen. Kunstmatige intelligentiemodellen zijn ontworpen om menselijk gedrag na te bootsen.

AI-modellen, waaronder grote taalmodellen die menselijke taal kunnen begrijpen en genereren, vertrouwen op algoritmen voor machinaal leren en kunstmatige neurale netwerken om een ​​logisch besluitvormingsproces na te bootsen met behulp van beschikbare informatie en invoergegevenssets.

Deze modellen vormen de ruggengraat van moderne intelligentietools en zijn bedreven in het analyseren van informatie, het nemen van beslissingen en voorspellingen en het bieden van waardevolle inzichten.

Kunstmatige intelligentie is een van de meest fascinerende vakgebieden van de computerwetenschap. AI-studies zijn gericht op het creëren van een machine die menselijke intelligentie in realtime kan repliceren. Echte AI-tools die kunnen denken als mensen zijn nog niet bereikt. Dit betekent echter niet dat we geen profijt kunnen hebben van het gebruik van AI-algoritmen.

Een AI-model is een programma of algoritme dat afhankelijk is van trainingsgegevens om patronen te herkennen en voorspellingen of beslissingen te nemen. Hoe meer datapunten een AI-model ontvangt, hoe nauwkeuriger het kan zijn in zijn data-analyse en voorspellingen.

AI-modellen vertrouwen op computer vision, natuurlijke taalverwerking en machine learning om verschillende patronen te herkennen. AI-modellen gebruiken ook besluitvormingsalgoritmen om te leren van hun training, datapunten te verzamelen en te beoordelen en uiteindelijk hun kennis toe te passen om hun vooraf gedefinieerde doelen te bereiken.

AI-modellen zijn erg goed in het oplossen van complexe problemen met een grote hoeveelheid data. Als gevolg hiervan kunnen ze complexe problemen nauwkeurig oplossen met een zeer hoge mate van nauwkeurigheid.

Veel mensen verwarren machine learning en kunstmatige intelligentie ten onrechte. Dit komt waarschijnlijk omdat ML een subset is van kunstmatige intelligentie. U moet zich echter bewust zijn van een belangrijk verschil tussen de twee.

Zoals we eerder hebben gedefinieerd, houdt kunstmatige intelligentie zich bezig met het creëren van machines die menselijke gedachten, intelligentie en gedrag simuleren.

Aan de andere kant houdt ML zich bezig met het bieden van machines de mogelijkheid om zelf te leren van ervaringen en lessen zonder dat ze expliciet geprogrammeerd hoeven te worden.

Alle Machine Learning-modellen zijn AI-modellen, maar niet alle AI-modellen zullen noodzakelijkerwijs ML-modellen zijn. Dit is een belangrijk onderscheid om te maken.

Een Machine Learning-model is een essentieel onderdeel hiervan. Een groot deel van menselijke intelligentie is immers het leren van dingen en het voorspellen van toekomstige uitkomsten op basis van eerdere ervaringen en lessen.

In een begeleid leermodel traint of leert een mens het algoritme waar het op moet letten. Vaak is deze persoon die de training geeft een datawetenschapper die een deskundige is in de taak die het algoritme moet uitvoeren.

Een algoritme dat werkt aan beeldherkenning kan bijvoorbeeld worden onderwezen door een datawetenschapper waarin afbeeldingen aanstootgevende of expliciete inhoud bevatten. Het algoritme gebruikt deze informatie vervolgens om andere afbeeldingen met vergelijkbare inhoud te vinden.

AI-modellen die zijn gebouwd met begeleid leren, zoals ondersteunende vectormachines, worden vaak gebruikt om voorspellende analyses uit te voeren. Deze modellen gebruiken eerdere beslissingen van deskundigen om toekomstige keuzes te voorspellen die een deskundige zou kunnen maken.

Een AI die is getraind op een enorme dataset met foto’s van hoge kwaliteit, kan bijvoorbeeld leren om specifieke objecten of scènes binnen een afbeelding te identificeren, wat automatische tagging van afbeeldingen of organisatie van inhoud mogelijk maakt.

AI-modellen hoeven niet te worden ontwikkeld door menselijke training. In plaats daarvan traint software in een ongeleid leermodel het algoritme. In sommige gevallen zal de trainingsmethode die door de trainingssoftware wordt gebruikt die van een mens nabootsen.

AI-modellen die zijn gebouwd met ongeleid leren, worden vaak gebruikt om beschrijvende analyses uit te voeren. Deze taken omvatten inhoudssamenvatting, classificatie, extractie en videoanalyse. Deze typen AI-modellen kunnen patronen identificeren en gegevens categoriseren zonder menselijke training.

Semi-supervised learning-modellen combineren een beetje van beide eerdere modellen die we hebben besproken. In deze setting doet een mens een deel van de training en software moet de rest afhandelen op basis van de initiële training die door de mens is uitgevoerd.

Aangezien AI-modellen die zijn gebouwd met semi-supervised learning een beetje van beide leerstijlen krijgen, kunnen ze ook zowel voorspellende als beschrijvende analysetaken uitvoeren, afhankelijk van het doel waarvoor ze zijn ontworpen.

open data en AI

Kunstmatige intelligentie (AI)-systemen zijn complexe wiskundige modellen die zijn getraind op data. Deze systemen zijn ontworpen om grote hoeveelheden data te verwerken en analyseren met als doel patronen te herkennen en voorspellingen te doen. AI-systemen worden steeds nauwkeuriger en geavanceerder, deels vanwege de vooruitgang in de technieken en algoritmen die worden gebruikt voor AI, toegang tot grotere computerverwerkingskracht en de bredere beschikbaarheid van data.

Data is een cruciaal onderdeel van AI-systemen. Dit verhaal benadrukt het verband tussen open data en de prestaties van AI-systemen.

Open data en AI hebben het potentieel om elkaars mogelijkheden te ondersteunen en te verbeteren. Enerzijds kan open data AI-systemen verbeteren. Over het algemeen vergroot het blootstellen van AI-systemen aan een groter volume en een grotere verscheidenheid aan data de kans dat het systeem nauwkeurige en nuttige voorspellingen doet. Als zodanig kan open data een bron zijn van grote hoeveelheden uiteenlopende informatie voor AI-systemen.

Op deze manier draagt ​​de beschikbaarheid van open data bij aan beter presterende AI. Een AI-systeem dat is getraind om consumptiepatronen van consumenten in Europa te voorspellen, zal bijvoorbeeld waarschijnlijk beter presteren als het een representatieve selectie van goederen- en dienstentransacties door consumenten in verschillende landen, gemeenten en inkomensgroepen omvat.

Anderzijds kan AI extra waarde uit open data halen. AI kan grote hoeveelheden data analyseren en trends en patronen identificeren die mogelijk niet door andere analysetechnieken aan het licht waren gekomen. Open data bevat rijke informatie en complexe patronen waaruit inzichten kunnen worden afgeleid.

Als krachtige analysetool kan AI de waarde van open data benutten. Een AI-systeem dat is getraind om bosbranden te voorspellen, kan bijvoorbeeld zoeken naar patronen in weergegevens, satellietbeelden en historische trends die standaard statistische vergelijkingen niet kunnen identificeren.

Open data omvat een breed scala aan vakgebieden. Deze verscheidenheid aan gegevens vergroot de mogelijke use cases waarvoor AI-systemen kunnen worden ontwikkeld, waardoor nieuwe AI-gestuurde producten en diensten mogelijk worden. Deze use cases kunnen alleen worden ontwikkeld als de relevante gegevens beschikbaar en gemakkelijk toegankelijk zijn.

De vrije beschikbaarheid van diverse datasets, zoals via open data, is essentieel om innovatie te stimuleren en nieuwe economische kansen te creëren. De hoop is dat innovatieve AI-systemen vervolgens kunnen worden gebruikt om maatschappelijke uitdagingen op te lossen, waardoor sociaaleconomische waarde wordt gecreëerd.

De diverse pool van informatie die open data met name voor AI-systemen kan bieden, kan multidisciplinaire toepassingen mogelijk maken die gegevens over verschillende onderwerpen combineren om nieuwe inzichten te verkrijgen. Een weerdataset kan bijvoorbeeld worden gebruikt om weersvoorspellingen te doen.

Hoewel de breedte van de onderwerpen die door open data worden bestreken brede use cases voor AI-systemen mogelijk maakt, kunnen AI-systemen beter presteren als er uitgebreide open data beschikbaar is over een specifieke use case.

Neem bijvoorbeeld een AI-systeem dat is ontwikkeld om woongebouwen te herkennen. Als de AI alleen wordt getraind op afbeeldingen die in de zomer zijn gemaakt van herenhuizen op het platteland, zal het model slecht presteren als het wordt gevraagd om een ​​stadsappartement te herkennen als een woongebouw. ​

Het model moet daarom worden getraind op een uitgebreide set voorbeelden om de variaties te begrijpen van wat als een woongebouw wordt beschouwd (in dit geval kunnen factoren zoals architecturale stijl, grootte van het gebouw en de omgeving relevant zijn).

Gegevens die het onderwerp uitgebreid weergeven, stellen AI-systemen bloot aan een breder scala aan scenario’s en variaties. Uiteindelijk kunnen AI-modellen hierdoor beter presteren in situaties in de echte wereld en hun kennis generaliseren wanneer ze worden geconfronteerd met nieuwe gegevens (zoals een foto van een individueel huis dat het model nog niet eerder heeft gezien).

AI-systemen die zijn getraind op niet-representatieve of onvolledige gegevens, lopen het risico bevooroordeelde voorspellingen te doen en onbetrouwbaar te zijn.

De volledigheid van open data draagt ​​bij aan het vermogen van AI-systemen om te generaliseren naar ongeziene voorbeelden zodra deze worden ingezet in de ‘echte wereld’, maar het draagt ​​ook bij aan het concept van datakwaliteit. Enkele kenmerken van datakwaliteit zijn de volledigheid, relevantie, consistentie, uniformiteit en betrouwbaarheid van de gegevens voor de use case die wordt ontwikkeld.

Aan de andere kant worden clusteralgoritmen minder beïnvloed door de nauwkeurigheid van het doel (geen verkeerde labeling van gegevens), uniciteit (geen redundante of gedupliceerde gegevens) en klassebalans. Verschillende open data-initiatieven op wetenschappelijk gebied tonen de impact van open repositories met gestructureerde catalogi van data en gestandaardiseerde dataformaten.

Een grotere vraag naar open data voor nieuwe producten en diensten zou de release van meer datasets en verbeteringen in datakwaliteit kunnen aanmoedigen.

gerechtvaardigd belang

De European Data Protection Board (EDPB) heeft richtlijnen aangenomen over de grondslag ‘gerechtvaardigd belang’. Dit is één van de zes grondslagen in de AVG om persoonsgegevens te mogen verwerken.

Persoonsgegevens mogen slechts onder drie voorwaarden verwerkt worden op deze grondslag:
1. er is daadwerkelijk een gerechtvaardigd belang;
2. de verwerking van persoonsgegevens is noodzakelijk om dit belang te behartigen;
3. het gerechtvaardigd belang weegt zwaarder dan de belangen van betrokkenen.


De EDPB geeft uitleg bij het toepassen van deze stappen en voorbeelden van situaties waarin het (al dan niet) mogelijk is om een beroep te doen op gerechtvaardigd belang.

Deze richtlijnen analyseren de criteria die zijn vastgelegd in artikel 6(1)(f) AVG waaraan verwerkingsverantwoordelijken moeten voldoen om op rechtmatige wijze de verwerking van persoonsgegevens uit te voeren die “noodzakelijk is voor de doeleinden van de gerechtvaardigde belangen van de verwerkingsverantwoordelijke of van een derde”.

Artikel 6(1)(f) AVG is een van de zes rechtsgrondslagen voor de rechtmatige verwerking van persoonsgegevens zoals bedoeld in de AVG. Artikel 6(1)(f) AVG mag niet worden beschouwd als een “laatste redmiddel” voor zeldzame of onverwachte situaties waarin andere rechtsgrondslagen niet van toepassing worden geacht, noch mag het automatisch worden gekozen of mag het gebruik ervan ten onrechte worden uitgebreid op basis van de perceptie dat artikel 6(1)(f) AVG minder beperkend is dan andere rechtsgrondslagen.

Om verwerking te baseren op artikel 6(1)(f) AVG, moeten drie cumulatieve voorwaarden worden vervuld:

• Ten eerste, het nastreven van een gerechtvaardigd belang door de verwerkingsverantwoordelijke of door een derde;

• Ten tweede, de noodzaak om persoonsgegevens te verwerken voor de doeleinden van het gerechtvaardigde belang/de gerechtvaardigde belangen die worden nagestreefd; en

• Ten derde hebben de belangen of fundamentele vrijheden en rechten van de betrokkenen geen voorrang op het/de gerechtvaardigde belang(en) van de verwerkingsverantwoordelijke of van een derde.

Met betrekking tot de derde voorwaarde moet de verwerkingsverantwoordelijke zijn gerechtvaardigde belang(en) of die van een derde afwegen tegen de “belangen of fundamentele rechten en vrijheden van de betrokkenen”. Deze “evenwichtsoefening” tussen de fundamentele rechten, vrijheden en belangen die op het spel staan, moet worden uitgevoerd voor elke verwerking die is gebaseerd op gerechtvaardigd belang als wettelijke basis en moet worden uitgevoerd vóór de uitvoering van de relevante verwerkingshandeling(en).

Om te bepalen of een bepaalde verwerking van persoonsgegevens kan worden gebaseerd op artikel 6(1)(f) AVG, moeten verwerkingsverantwoordelijken zorgvuldig beoordelen en documenteren of aan deze drie cumulatieve voorwaarden is voldaan. Deze beoordeling moet worden uitgevoerd voordat de relevante verwerkingshandelingen worden uitgevoerd.

Met betrekking tot de voorwaarde met betrekking tot het nastreven van een gerechtvaardigd belang, kunnen niet alle belangen van de verwerkingsverantwoordelijke of een derde als gerechtvaardigd worden beschouwd; alleen die belangen die rechtmatig, nauwkeurig geformuleerd en aanwezig zijn, kunnen geldig worden ingeroepen om te vertrouwen op artikel 6(1)(f) AVG als rechtsgrond. Het is ook de verantwoordelijkheid van de verwerkingsverantwoordelijke om de betrokkene te informeren over de gerechtvaardigde belangen die worden nagestreefd wanneer die verwerking is gebaseerd op artikel 6(1)(f) AVG.

Een belang kan als “gerechtvaardigd” worden beschouwd als aan de volgende cumulatieve criteria is voldaan:

– Het belang is rechtmatig, d.w.z. niet in strijd met het EU- of lidstaatrecht.27 Hoewel het concept van “gerechtvaardigd belang” in de zin van artikel 6(1)(f) AVG niet beperkt is tot belangen die in de wet zijn vastgelegd en door de wet zijn bepaald, vereist het dat het beweerde gerechtvaardigde belang rechtmatig is.

– Het belang is duidelijk en nauwkeurig geformuleerd. De reikwijdte van het nagestreefde gerechtvaardigde belang moet duidelijk worden geïdentificeerd om ervoor te zorgen dat het op de juiste manier wordt afgewogen tegen de belangen of fundamentele rechten en vrijheden van de betrokkene.

– Het belang is reëel en actueel, en niet speculatief. Zoals verduidelijkt door het HvJ-EU, moet het gerechtvaardigde belang aanwezig en effectief zijn op de datum van de gegevensverwerking en mag het op die datum niet hypothetisch zijn.

Met betrekking tot de voorwaarde dat de verwerking van persoonsgegevens noodzakelijk is voor de doeleinden van de nagestreefde gerechtvaardigde belangen, moet worden vastgesteld of de nagestreefde gerechtvaardigde belangen niet redelijkerwijs even effectief kunnen worden bereikt met andere middelen die minder beperkend zijn voor de fundamentele rechten en vrijheden van de betrokkenen, ook rekening houdend met de beginselen die zijn vastgelegd in artikel 5(1) AVG. Indien dergelijke andere middelen bestaan, mag de verwerking niet worden gebaseerd op artikel 6(1)(f) AVG.

Met betrekking tot de voorwaarde dat de belangen of fundamentele rechten en vrijheden van de betrokkene bij de gegevensverwerking niet prevaleren boven de gerechtvaardigde belangen van de verwerkingsverantwoordelijke of van een derde, houdt die voorwaarde een afweging in van de tegengestelde rechten en belangen in kwestie die in beginsel afhankelijk is van de specifieke omstandigheden van de relevante verwerking. De verwerking mag alleen plaatsvinden als de uitkomst van deze afweging is dat de nagestreefde gerechtvaardigde belangen niet worden overschreven door de belangen, rechten en vrijheden van de betrokkenen.

Een juiste beoordeling van artikel 6(1)(f) AVG is geen eenvoudige oefening. In plaats daarvan vereist de beoordeling — en met name de afweging van tegengestelde belangen en rechten — volledige overweging van een aantal factoren, zoals de aard en bron van de relevante legitieme belangen, de impact van de verwerking op de betrokkene en diens redelijke verwachtingen over de verwerking, en het bestaan ​​van aanvullende waarborgen die onterechte impact op de betrokkene kunnen beperken. De huidige richtlijnen bieden richtlijnen over hoe een dergelijke beoordeling in de praktijk moet worden uitgevoerd, inclusief in een aantal specifieke contexten (bijv. fraudepreventie, direct marketing, informatiebeveiliging, enz.) waarin deze rechtsgrondslag kan worden overwogen.

De richtlijnen leggen ook de relatie uit die bestaat tussen artikel 6(1)(f) AVG en een aantal rechten van betrokkenen onder de AVG.

data ongelijkheid

Als we medewerkers zouden ondervragen over hun AI-angsten, zal een derde van de werknemers hun bezorgdheid uiten dat AI hun baan zou kunnen verdampen. Maar als we ze vragen naar de rol van AI bij het aannemen en promoten, uitte een veel groter percentage van twee derde van de medewerkers hun zorgen. Het dubbele van het aantal dat zich zorgen maakte over hun eigen baan.

Dit benadrukt een belangrijk maar vaak over het hoofd gezien punt: AI staat op het punt om niet alleen te veranderen wat we doen, maar ook hoe het wordt gedaan. Naarmate AI-tools zich ontwikkelen, kunnen we verwachten dat we steeds meer door algoritmen worden beoordeeld. Zelfs nu hebben werkgevers toegang tot door AI aangestuurde tools om werknemers werven, compenseren, monitoren, aansturen en evalueren. Hoewel de uiteindelijke effecten van deze tools onbekend zijn, vormen ze een reëel risico op het uithollen van de kwaliteit van banen en het verergeren van inkomensongelijkheid.

Helaas missen we momenteel de gegevens die nodig zijn om te begrijpen hoe AI op de werkplek werknemers en bedrijven beïnvloedt. Bestaande AI-gegevensverzamelingsinspanningen richten zich vaak op de automatisering van taken en de productiviteit van nieuwe technologieën, waarbij een cruciaal aspect ontbreekt: de rol van AI als manager.

Door de geschiedenis heen hebben nieuwe technologieën hun weg gevonden naar management van bedrijven. In de film Modern Times van Charlie Chaplin uit 1936, geprezen om zijn dystopische karikatuur van het fabriekstijdperk, is het eerste technologische wonder dat wordt getoond geen industriële machine, maar een tweerichtingstelevisie die door de baas wordt gebruikt om werknemers te monitoren.

CCTV-systemen namen al snel de rol van supervisors van de productielijn over. Ponskaarten maakten plaats voor RFID- en biometrische scanners. Fabrieksmanagers hingen hun stopwatches aan de wilgen en lieten assemblagelijnen het tempo bepalen.

Tegenwoordig gebruiken werkgevers AI-tools om een ​​breed scala aan managementfuncties uit te voeren. Algoritmen richten vacatures op werkzoekenden, screenen cv’s, kalibreren loonoffertes en stellen loonsverhogingen voor. Monitoringsoftware houdt de oogbewegingen van chauffeurs bij, registreert het app-gebruik van kantoorpersoneel en leidt de stemming van callcentermedewerkers af. In hightechmagazijnen sturen door AI aangestuurde systemen de bewegingen van werknemers en scoren ze deze in realtime.

De koplopers in de verschuiving naar AI-gestuurd management zijn platformwerkbedrijven als Uber en TaskRabbit, waar algoritmen bijna elk aspect van de baan beïnvloeden. Machine learning-tools koppelen klanten aan werknemers en stellen salarisniveaus vast. Werving en ontslag vinden grotendeels plaats via een app.

Toch is gig-werk niet de enige sector waar AI-tools een rol spelen in personeelsbezetting en management. Eerder gaven HR-professionals toe  dat ze een vorm van AI te gebruiken, voornamelijk voor werving en selectie. En dat hun bedrijf AI-gestuurde monitoringsystemen gebruikten. En AI-gestuurde hiring tools gebruiken, zoals cv-screeners of systemen voor het beoordelen van sollicitanten.

Als managementtechnologie al zo lang bestaat, verandert AI dan echt iets? Het korte antwoord is ja. De standaardvisie in de economie is dat automatisering historisch gezien ontstond toen routinematige taken konden worden opgedeeld in codificeerbare stappen: draad weven, metaal stempelen, getallen toevoegen. Waar werk niet routinematig was of alleen stilzwijgend begrepen werd, zoals bij creatief werk en sommige handmatige arbeid, vormde automatisering weinig bedreiging.

AI verandert deze oude patronen. AI-systemen kunnen handschriften ontcijferen, röntgenfoto’s interpreteren en originele sonnetten schrijven. Ze doen dit zonder een reeks gedetailleerde instructies, maar vertrouwen in plaats daarvan op trainingsgegevens en machine learning-algoritmen. Met de juiste gegevens kunnen AI-systemen ook worden getraind om te detecteren wanneer een werknemer aan het lanterfanten is of om het loon te voorspellen dat een werkzoekende zou accepteren. Dit is iets nieuws onder de zon.

Hoewel economen robuuste theorieën hebben ontwikkeld over de impact van AI op werkgelegenheid, hebben ze zich minder beziggehouden met AI in management en HR. Deze kloof ontstaat deels omdat een zogenaamd takenmodel wordt gebruikt, waarbij banen worden gezien als bundels taken met verschillende gradaties van vatbaarheid voor automatisering. Deze focus op de inhoud van werk abstraheert van de context van werk, met name hoe werknemers worden aangestuurd.

De economische implicaties van AI in management en human resources kunnen aanzienlijk zijn. Hoe AI de macht van werknemers kan beïnvloeden, met de nadruk op AI die wordt gebruikt om werknemers te bemannen, te monitoren, te sturen en te evalueren. Een reeks theoretische modellen laat zien hoe AI-tools het loon van werknemers kunnen verlagen of ongelijkheid kunnen vergroten. Om het academische jargon te gebruiken: AI kan werkgevers in staat stellen een groter deel van de “economische huur” te vangen die aan een baan is gekoppeld. Vertaald: werknemers krijgen uiteindelijk een kleiner stuk van de taart.

Het hoeft natuurlijk niet allemaal slecht nieuws te zijn. AI-gestuurde aanbevelingen voor banen kunnen werknemers naar betere kansen sturen. Wervingsalgoritmen zijn mogelijk minder bevooroordeeld dan de mensen die ze aanvullen. Zelfs een AI-monitoringsysteem kan te verkiezen boven een grillige kantoortiran.

De brede effecten van AI-tools op de werkplek zijn onbekend. De hierboven uiteengezette theoretische zorgen hebben enige basis in casestudies en populaire rapportages, maar ze zijn nog niet kwantitatief getest. Daarvoor hebben ze gegevens nodig.

Aan de kant van de werknemer geven overtuigende nieuwe bevindingen aan dat miljoenen werknemers het gewicht van digitale managementtools op de werkplek voelen. Meer dan twee derde van de werknemers ondervind een vorm van digitale monitoring op het werk, terwijl bijna de helft meldt dat algoritmische toewijzing van taken of schema’s aan de orde van de dag is. Intensievere managementtechnologieën werden geassocieerd met lagere tevredenheid over het werk en welzijn.

Om deze bevindingen aan de kant van de werknemer aan te vullen en uit te breiden, hebben we ook gegevens aan de kant van de werkgever nodig, en idealiter gegevens die gekoppeld kunnen worden aan door de overheid verzamelde belasting- en administratieve gegevens. Buiten een paar inspanningen van de particuliere sector hebben we een beperkt inzicht in de prevalentie van AI in management en HR. Idealiter zou de SER vragen over dit onderwerp op moeten nemen in zijn onderzoeken onder particuliere bedrijven.

In sommige jaren zijn er reeds vragen opgenomen over AI die door bedrijven wordt gebruikt bij de productie van goederen en diensten, met uitzondering van andere AI-toepassingen zoals werving en ontslag. En hoewel het beantwoorden van nieuwe censusvragen lastig zal zijn, is het noodzakelijk. Meer inzicht in de rol van AI op de werkplek zal betere besluitvorming en beleidsontwikkeling ondersteunen, van de werkvloer tot de gangen van de eerste en tweede kamer.

Andere statistische bureaus over de hele wereld hebben al enige ervaring met het ondervragen van bedrijven over AI die in de hele organisatie wordt gebruikt. De enquête van de EU over nieuwe technologieën heeft gevraagd naar het gebruik van AI in verschillende bedrijfsprocessen, waaronder personeelsbeheer en werving.

Nu AI de economie blijft transformeren, is het cruciaal dat we toegang hebben tot uitgebreide gegevens over de reikwijdte, schaal en impact van AI. Alleen dan kunnen we de prestaties van leidinggevenden interpeteren en beslissingen nemen over hoe we willen dat onze toekomstige werkplekken eruit gaan zien.

data beschikbaarheid

Een data beschikbaarheidsstatement is een korte verklaring die beschrijft hoe, waar en onder welke voorwaarden de data beschikbaar, toegankelijk is. Alle datasets zouden een data beschikbaarheidsstatement moeten bevatten, zelfs als er nog geen data is gekoppeld, omdat dit een belangrijke stap is in het geven van erkenning aan datamakers en in het ondersteunen van de reproduceerbaarheid.

In publicaties voor bladen en kranten staat de data beschikbaarheidsstatement meestal aan het einde van een artikel, vóór het gedeelte ‘referenties’. De auteur(s) van het artikel schrijven de data beschikbaarheidsstatement en deze verklaring moet altijd opgenomen voordat er publicatie plaats vind.

De data beschikbaarheidsstatement geeft duidelijke informatie over waar de data toegankelijk is en of de toegang tot de data open is of op een of andere manier beperkt is. Het moet ook een digitale referentie of link bevatten naar waar de data online te vinden is.

Bij het verzamelen of produceren van nieuwe gegevens, moet je deze gegevens uploaden naar een geschikte online gegevensopslagplaats. Alle gegevens moeten samen worden opgeslagen als één dataset, idealiter in een domeinspecifieke opslagplaats. In je verklaring over de beschikbaarheid van gegevens noem je vervolgens de opslagplaats waar de gegevens zich bevinden. Als er sprake van hergebruik van gegevens is die door een derde partij zijn verzameld of geproduceerd, moet je informatie verstrekken over waar deze gegevens te vinden zijn.

Idealiter moet je een persistente identificatie (PID) opgeven die een langdurige digitale verwijzing is naar een document, bestand, webpagina of ander object online, en stabieler is dan een URL. Wanneer je een persistente identificatie opgeeft, zoals een DOI-nummer, is het voor iedereen veel gemakkelijker om de gegevens online te vinden. Meestal wordt er een unieke en persistente identificatie aan de dataset toegewezen zodra je de gegevens uploadt naar een datarepository en op de knop ‘publiceren’ klikt. Het is belangrijk om een ​​persistente identificatie op te nemen in de verklaring over de beschikbaarheid van gegevens, omdat dit helpt de exacte dataset te vinden waarnaar wordt verwezen.

Het is belangrijk om een ​​licentie toe te passen op de gegevens, omdat dit duidelijk maakt wat iemand anders met deze gegevens mag doen. Datarepositories vragen vaak om te kiezen uit een reeks Creative Commons-licentieopties. Als je bijvoorbeeld anderen in staat wilt stellen om de data te gebruiken, aan te passen of erop voort te bouwen, terwijl de juiste credits voor de gegevens worden weergegeven, bij Creative Commons Naamsvermelding (CC-BY)-licentie toepassen. Als je anderen in staat wilt stellen om de gegevens te gebruiken, maar niet wilt dat deze commercieel worden gebruikt, kunt je een Creative Commons Niet-commercieel (CC BY-NC)-licentie toepassen. Voor de volledige lijst met opties voor het licenseren van data, zie de Creative Commons licentie-opties.

Data is openbaar beschikbaar in een repository die geen DOI’s uitgeeft. Gegevens zijn meestal afkomstig van bronnen in het publieke domein.