data als product

Data is in de meeste gevallen een ‘bijproduct’ van processen en technologieën geweest. Om inkomsten of kostenbesparingen te genereren, creëerden we processen om de transacties af te handelen. Deze processen zijn in wezen de overdracht van informatie van de ene punt naar de andere om de voltooiing van een proces te bewerkstelligen.

Gegevens worden verzameld – persoonlijke basisgegevens, financiële gegevens en de vereiste gegevens voor de dienst of product – en worden vervolgens verwerkt. Elke stap is gemaakt voor een specifieke taak en de gegevens worden verzameld om dat proces vooruit te helpen. En technologie wordt ingezet om deze processen te automatiseren. Allemaal met zijn unieke end-to-end processen en de verschillende mechanismen voor het verzamelen, opslaan en verwerken van die gegevens.

Echter praten de meeste van deze systemen en processen niet met elkaar en zijn ze steeds complexer geworden naarmate ze zich verder ontwikkelen.

Terwijl elke transactie wordt onderdeel van verschillende processen, en persoonlijke identificatie-informatie wordt gedistribueerd naar systemen, datastores en rapporten, wat resulteert in complexe controles. Dit heeft geresulteerd in de volgende grote uitdagingen voor elke privacyregelgeving die data-attributen probeert te beheren.

Een andere complicatie is dat de definitie van wat ‘persoonlijke gegevens’ zijn, regelmatig verandert naarmate bij elke nieuwe digitale uitvinding nieuwe gegevens over ons bestaan worden gecreëerd. De oorspronkelijke definitie van persoonlijke gegevens had betrekking op het burgerservicenummer (SIN), adres, telefoonnummer en andere zeer persoonlijke informatie van een individu die voor een beperkt doel met een organisatie zou worden gedeeld.

Voor geavanceerde analyses en gepersonaliseerde ervaringen hebben grote techbedrijven en grote organisaties veel aanvullende gedragsgegevens verzameld om hun gebruikers te kunnen begrijpen – grotendeels mogelijk gemaakt door hun internetgebruik en smartphone-activiteiten te monitoren. Het is veilig om te zeggen dat de hoeveelheid persoonlijke gegevens die door smartphones wordt gegenereerd de afgelopen jaren aanzienlijk is toegenomen.

Mensen kunnen nu met één klik op de knop enorme hoeveelheden persoonlijke informatie genereren, opslaan en delen, waaronder foto’s, video’s, locatiegegevens, sms-berichten en activiteiten op sociale media. Veel apps op smartphones verzamelen ook gegevens zoals browsegeschiedenis, zoekopdrachten en koopgedrag – soms met toestemming, soms niet.

Er zijn organisaties die vingerafdrukken en netvliesscans gebruiken als onderdeel van hun proces – wat net zo uniek is als het hebben van uw DNA in ons bestand. Deze worden allemaal onderdeel van ‘persoonlijke gegevens’ die nu moeten worden beheerd, maar die verder gaan dan de definitie van persoonsgegevens. De angstaanjagende gedachte is dat het allemaal bovenop een zeer ingewikkeld data-ecosysteem zit dat nog niet volledig in kaart is gebracht.

Terwijl we aan onze reis zijn begonnen om ‘datagedreven’ te worden en onze analytische capaciteiten verder te ontwikkelen, verzamelden we alle stukjes over alles en iedereen, maar zuiverden die data niet. Deze gegevens zijn verspreid over meerdere gegevensopslagplaatsen en -processen.

Dit levert kopzorgen op als we waarde proberen te genereren; zeker nu er over de hele wereld verschillende belangrijke mondiale privacyregels zijn of opkomst zijn, elk met hun specifieke vereisten en bepalingen om het sentiment van het land/de regio ten aanzien van privacy te weerspiegelen.

overdenking


Navigerend door de data-ethiek op zoek naar een referentiekader voor dataprivacy met vijf belangrijke pijlers.

We verzamelen te veel informatie over gebruikers, klanten en medewerkers?

Waar trekken we de grens voor wat overmatig verzamelen van gegevens is?

Tegenwoordig wordt vrijwel ieder mens ergens op de planeet tot op zekere hoogte digitaal gevolgd. Hun bewegingen, interesses, gewoonten en gesprekken worden bekeken, geanalyseerd en opgeslagen door duizenden organisaties die ze voor verschillende doeleinden gebruiken – sommige met toestemming, andere zonder.

Er is explosie van analyse-, personalisatie- en voorspellende modellen die door de technologiegiganten is teweeggebracht, heeft geresulteerd in de haast om elk klein detail over een persoon te verzamelen en te gebruiken.

Wij zijn de eerste generatie die let op het aantal stappen dat we zetten, de calorieën die we eten en de keren dat we ’s nachts wakker zijn geworden. Het feit dat we het met technologie kunnen doen, is niet zo belangrijk als het feit dat we deze inzichten belangrijk vinden; dan gebruiken we het om de volgende dag beslissingen te nemen.

Het verzamelen van deze stukjes informatie uitsluitend voor persoonlijk gebruik voelt empowerend; Maar anderen die deze informatie verzamelen voor het genereren van inkomsten, reclame, productontwikkeling, marketinginzichten en strategieën die puur voor hun eigenbelang zijn, kunnen opdringerig zijn.

Al deze informatie afkomstig vanuit digitale bronnen kan worden gebruikt op manieren die onze veiligheid en privacy in gevaar kunnen brengen als ze niet op de juiste manier worden beschermd en gebruikt. Er is een trend van overmatige verzameling en gebrek aan bescherming van persoonlijke gegevens, die aanzienlijke schade kan berokkenen als ze met slechte bedoelingen worden verzameld en gebruikt.

Verzamelen we te veel informatie voor doeleinden die verder gaan dan wat we nodig hebben en een ethische grens beginnen te overschrijden?

Waar trekken we de grens voor het te veel verzamelen van gegevens in een wereld van influencers en tiktokers die bedrijfsmodellen hebben gecreëerd die gebaseerd zijn op het te veel delen van persoonlijke gegevens als nooit tevoren?

Zoals vaak het geval is, hebben toezichthouders individuen en bedrijven zien duiken in het delen/verzamelen van gegevens en besloten hierop te reageren.

Als we dit vanuit het standpunt van een organisatie bekijken, hebben ze data vaak met de beste bedoelingen benaderd: om de klantervaring te verbeteren en de omzet- en kostenbesparingen te vergroten ten behoeve van de organisatie.

Data en inzicht brengen veel meer waarde met zich mee dan ‘onderbuikgevoelens’ in de wereld van vandaag, maar organisaties die al tientallen jaren bestaan, hebben een data-ecosysteem dat vol zit met legacy-platforms, organisch gegroeide systemen en weinig documentatie.

De discipline Data Governance is vrij nieuw in vergelijking met het gebruik van applicaties. Het is dus geen verrassing dat de meeste organisaties momenteel worstelen met hun datalandschap.

Ze hebben verschillende strategieën geprobeerd om het probleem van het volume, de variëteit en de snelheid van de gegevens op te lossen die nodig zijn om hun volledige zakelijke potentieel te bereiken.

En hebben geïnvesteerd in magazijnen, het datameer, het lakehouse, datafabrics en elke oplossing daartussenin. Nu er in elk rechtsgebied privacyregels opdoemen, zal het ongelooflijk moeilijk zijn om aan de regelgeving te voldoen als er geen controle is van gegevens.

We hebben nu moderne manieren nodig om na te denken over de gegevens om aan alle verschillende eisen te voldoen: waarde, kostenbeheer en regeldruk.

gevoelig

Gevoelige persoonlijke informatie?

Volgens complianceregels omvat gevoelige persoonlijke informatie twee soorten informatie die moeten worden onderscheiden.

Er is persoonlijke informatie en gevoelige informatie.

Persoonlijke gegevens omvatten gegevens die kunnen worden gebruikt om je als individu te identificeren; zaken zoals je naam, geboortedatum of e-mailadres.

Gevoelige gegevens zijn een meer specifieke reeks categorieën. Deze categorieën omvatten gezondheidsinformatie, ras of etnische achtergrond, politieke opvattingen, religieuze of filosofische overtuigingen, lidmaatschap van een vakbond, seksleven of seksuele geaardheid, genetische gegevens en biometrische gegevens.

Er moet met grote zorgvuldigheid met deze gegevens worden omgegaan, omdat het lekken van deze informatie tot discriminatie kan leiden.

Er bestaat echter enige verwarring over welke gegevens in welke categorie vallen. Laten we eens kijken naar de meest gestelde vragen over gevoelige gegevens.

Leeftijd is geen gegeven dat je als een persoon kan identificeren en is een persoonlijke gegeven dat naar verwachting in de database kan voorkomen. Leeftijd valt onder de categorie ‘persoonsgegevens’ en is niet gevoelig in relatie tot de AVG wetgeving.

Een e-mailadres valt onder de categorie persoonsgegevens, omdat het wel betrekking heeft op de persoon en deze kan identificeren. Het worden echter niet als gevoelige gegevens beschouwd omdat ze op zichzelf geen directe en ernstige impact hebben op de privacy.

Gevoelige gegevens kunnen zich vaak ophopen in de e-mails van werknemers. Met een GDPR Risk Scan van DataMapper krijgt u een rapport dat eventuele GDPR-risico’s in de e-mails van het bedrijf laat zien.

Namen worden gecategoriseerd als persoonsgegevens, omdat ze kunnen leiden tot de identificatie van een persoon, maar ze worden niet geclassificeerd als gevoelige gegevens omdat namen op zichzelf geen risico vormen op ernstige schending van de privacy.

Aan de andere kant kunnen sommige soorten identificerende gegevens, zoals het burgerservicenummer van een persoon, als gevoelig worden beschouwd, omdat deze een grotere impact kunnen hebben op de privacy.

Een foto is een direct identiteitsbewijs en valt onder de categorie gevoelige persoonsgegevens met betrekking tot ras en etnische achtergrond.

Dit betekent dat deze niet zonder uitdrukkelijke toestemming van iemand dat dit in het bezit mag zijn van iemand, tenzij de wetgeving een uitzondering bepaalt.

Salarisgegevens worden gezien als gevoelige gegevens beschouwd. Hoewel het niet direct onder de categorie valt die volgens de AVG als gevoelige persoonsgegevens wordt gedefinieerd, is salarisinformatie een bijzondere categorie, met een grotere impact op de privacy dan andere persoonsgegevens zoals iemands leeftijd, e-mailadres of naam.

Nationaliteit hangt nauw samen met de gevoelige gegevenscategorie ras en etnische achtergrond. Wees voorzichtig bij het opslaan van dit soort gegevens, aangezien de regels voor het omgaan met gevoelige persoonlijke gegevens strenger zijn, wat een uitdaging vormt als u nationaliteiten opneemt in de werknemersinformatie die in uw database is opgeslagen.

Een paspoort is een volledig bewijs van uw identiteit, inclusief ras en etnische achtergrond. Bedrijven mogen zonder uitdrukkelijke toestemming geen toegang krijgen tot iemands paspoort, tenzij de wetgeving een uitzondering toestaat.

Initialen zijn persoonlijke gegevens die in principe kunnen worden afgeleid van de naam van het individu. Het heeft op zichzelf geen directe en serieuze gevolgen voor de privacy.

Adresgegevens op zich zelf zijn niet gevoelig. Maar een adres is persoonlijke informatie, omdat het kan worden gebruikt om een persoon te identificeren. Op zichzelf heeft het geen directe impact op de privacy.

Verjaardag wordt echter beschouwd als persoonlijke informatie, omdat deze geen direct verband houdt met privacy.

Volgens de Verordening Persoonsgegevens is het burgerservicenummer geen gevoelige informatie. Het burgerservicenummer behoort echter tot een categorie die buiten de AVG-categorieën voor gevoelige persoonsgegevens valt. Dit gezegd hebbende, wordt het burgerservicenummer behandeld als gevoelige informatie, omdat het nummer alleen wordt gebruikt om een persoon te identificeren. Niet alle landen hebben een persoonlijk identificatienummer.

Voordat we informatie gaan verzamelen, moeten we weten of het gevoelige persoonlijke informatie betreft. De praktijk voor het opslaan en beschermen van deze informatie zal verschillen afhankelijk van of het om gevoelige persoonsgegevens gaat of niet.

Als we niet zeker weten of dit soort gegevens in de systemen staan, hebben, waar deze zich bevinden en hoeveel we ervan opslaan, daarbij is het raadzaam Datamapper te gebruiken om deze in alle gegevenssystemen teruggekeerd te kunnen vinden.

Data mesh

De laatste tijd hebben er een verschuiving plaatsgevonden in de manier waarop we databeheer benaderen. Vroeger vertrouwden we op gecentraliseerde datawarehouses om gegevens op te slaan en te analyseren. Omdat de datavolumes echter exponentieel groeien, is dit model onhoudbaarder geworden.

Data Mesh, is een revolutionaire aanpak die data-architectuur, data-eigendom en -beheer decentraliseert, datasilo’s afbreekt en ons in staat stelt om efficiënter en efficiënter met data te werken.

Data mesh is een architectonisch paradigma dat tot doel heeft het eigendom en de toegang tot gegevens te decentraliseren. Simpel gezegd splitst een datagaas het monolithische datawarehouse op in kleinere, op zichzelf staande eenheden die ‘dataproducten’ worden genoemd.

Elk dataproduct is verantwoordelijk voor één specifiek domein of functie en is eigendom van en wordt beheerd door diegene die het dichtst bij dat domein staat. Deze gedecentraliseerde aanpak zorgt voor meer flexibiliteit en flexibiliteit bij het beheren, opslaan en interpreteren van gegevens.

De belangrijkste voordelen van het gebruik van een datamesh. Gemakkelijke aanpassing aan veranderingen: Met datamesh kunnen we ons snel aanpassen aan veranderende vereisten, doordat datadomeinen onafhankelijk worden beheerd.

Schaalbaar doordat de data-infrastructuur efficiënt naar behoefte kan schalen zonder bestaande systemen te verstoren.

Gegevens worden toegankelijk door gegevens toegankelijker te maken, en uitsluitend te concentreren op het analyseren van grote datasets.

Verbeterde communicatie door het stimuleren van cross-functionele samenwerking door traditionele silo’s af te breken en de communicatie te bevorderen.

Lagere kosten door de infrastructuurkosten die gepaard gaan met het opslaan en verwerken van grote datasets verlagen door gecentraliseerde datawarehouses of datameren te elimineren.

Het kiezen van de juiste tools en technologieën die het beste aansluiten bij specifieke behoeften bij het beheren van datadomeinen.

De algehele systeemprestaties te verbeteren door werklasten over meerdere knooppunten te verdelen, zo kan data mesh de algehele systeemprestaties en betrouwbaarheid verbeteren.

Data mesh vergemakkelijkt een naadloze integratie met tools en services van derden via gestandaardiseerde API’s en interfaces.

Transparantie in het proces door inzicht te bieden in de manier waarop verschillende datasets worden beheerd en verwerkt.

Data mesh-architectuur biedt een gedecentraliseerde strategie voor het omgaan met gegevens door het eigendom en de controle te verdelen over individuele domeinen die verantwoordelijk zijn voor specifieke onderdeel.

In plaats van alle databewerkingen in één datawarehouse of datameer te centraliseren, worden data over meerdere domeinen verdeeld. Elk domein is verantwoordelijk voor het definiëren van zijn schema, opslagmechanismen, toegangscontroles en verwerkingspijplijnen.

In een traditioneel gecentraliseerd datasysteem zouden alle klantgegevens, productinformatie en transactiegegevens in één centrale database worden opgeslagen. Naarmate de hoeveelheid gegevens toeneemt, wordt het echter steeds uitdagender om dit systeem te beheren en te schalen.

Door een datamesh met domeingestuurde decentralisatie te implementeren, kan men gegevens opsplitsen in afzonderlijke domeinen, zoals klantprofielen, productcatalogi, voorraadbeheer en verkooptransacties. Elk domein is verantwoordelijk voor het beheer van zijn gegevens en heeft zijn eigen services en API’s om toegang te krijgen tot relevante gegevens en deze te manipuleren.

Gegevens worden behandeld als een eersteklasburger, met duidelijke eigendoms-, verantwoordelijkheids- en serviceniveauovereenkomsten (SLA’s) die voor elke dataset zijn gedefinieerd. Dit moedigt ons aan om data te beschouwen als een waardevol bezit dat kan worden gedeeld en hergebruikt

Het klantanalyseteam binnen een organisatie kan een speciaal domein hebben waar het gegevens over klantgedrag opslaat. Dit team behandelt deze gegevens als een product en stelt kwaliteitsnormen voor de manier waarop deze moeten worden verzameld, opgeslagen en geanalyseerd. Ze kunnen ook API’s of andere tools leveren waarmee andere teams toegang kunnen krijgen tot deze gegevens over klantgedrag en deze kunnen gebruiken in hun analyses.

Hoewel elk domein autonomie heeft over zijn dataactiviteiten, moeten er nog steeds gecentraliseerde bestuursmechanismen aanwezig zijn om de naleving van regelgeving, beveiligingsprotocollen en kwaliteitsnormen te garanderen. Dit omvat het opzetten van gemeenschappelijke metadataschema’s, monitoringtools en auditprocessen.

Data mesh benadrukt het decentraliseren van data-eigendom en -beheer. In plaats van een gecentraliseerd dataplatform te hebben, ondersteunt data mesh de verdeling van dataverantwoordelijkheden Er zijn verschillende teams of eenheden waar elk verantwoordelijk is voor het beheer van zijn eigen datapijplijnen, opslag en verwerking.

datadelen

Het concept van een gegevensdelen kan verwarrend zijn omdat het meerdere doeleinden kan dienen. Het kan een platform zijn voor het vinden van datasets via een directory of catalogus, of een platform voor het delen van data-assets, of zelfs een bestemming voor het publiceren van data of dataproducten.

We slaan enorme hoeveelheden gegevens op: gemiddeld enkele petabytes, of het equivalent van ongeveer 500+ miljard pagina’s of meer aan tekst. Dit maakt data tot het meest omvangrijke en waardevolle bezit.

Gezien de toegenomen focus en het belang van data is het effectief verwerven van data van cruciaal belang om ervoor te zorgen dat deze niet alleen op de juiste manier worden ingezet, maar ook worden gedemocratiseerd om de inherente waarde van data te maximaliseren.

Het belang van gegevensdelen kunnen in twee reden worden verdeeld. Eén daarvan is de manier waarop er samengewerkt wordt met het grotere data-ecosysteem als een systeem dat rijke metagegevens verzamelt, die worden beheerd, de data vindbaar en toegankelijker maakt.

De tweede reden is de interactie die we gebruiken, omdat het data democratiseert voor research en hergebruik.

Een data-uitwisseling gaat ook hand in hand met het vermogen om data te gelde te maken voor zowel interne als, in sommige gevallen, externe consumptie. Soms wordt er ook wel gesproken van een ‘datamarktplaats’ of een ‘datashare’. Het doel ervan is om een alomvattend beeld te geven van de data-sets die eigendom zijn van de organisatie, bedrijf of overheid.

Een alomvattend beeld dat betrekking heeft op de inhoud, die gegevens echt begrijpelijk maakt voor de betrokkenen. Aanvullende context naast onbewerkte schema-informatie en hostingsysteeminformatie zou het volgende moeten omvatten:

Context van de gegevens. Waar wordt het voor gebruikt?

Informatie over de eigenaar/beheerder waaraan we vragen kunnen stellen of diepere toegang kunnen aanvragen.

Transparantie is van cruciaal belang en er moet worden gezorgd voor vertrouwen voor de algehele kwaliteit van de gegevens.

Een deel van de gegevens is beheerst en wordt in hoge mate beheerd. Andere gegevens kunnen door de gebruiker aangeleverd en experimenteel zijn, maar dat doet niets af aan de potentiële waarde ervan.

Afstamming en connectiviteit helpen gebruikers te bepalen hoe de gegevens zijn samengesteld.

Toegangsmethoden om gebruikers inzicht te geven in de verschillende manieren waarop de gegevens toegankelijk zijn. Sommige gegevens zijn ongestructureerd, zoals onderzoeksrapporten, en vereisen mogelijk toegang tot een BI-platform. Andere gegevens zijn toegankelijk via een SQL-query of een API.

Een uitwisseling is een belangrijke maatregel die de volwassenheid weergeeft. Er zijn verschillende kerncomponenten die het ontsluiten van een data-uitwisseling mogelijk maken, waaronder:

1. Wendbaarheid

Zowel dataproducenten als consumenten passen zich aan aan veranderingen in de manier waarop zij met de data omgaan. Producenten denken er niet alleen over na om de data voor hun relevante branche te gebruiken, maar beginnen ook na te denken over hoe ze de data kunnen openstellen waarvoor ze niet de financiering hebben om waarde te ontginnen.

Consumenten kunnen daarentegen ontdekken wat er al in hun ecosysteem bestaat en dat kunnen ze gebruiken voordat ze op pad gaan om een op maat gemaakte dataset te bouwen.

2. Het stimuleren van datageletterdheid

Een van de belangrijkste doelstellingen is het mogelijk maken van datageletterdheid. Wat is de dataset, waar kan ik deze vinden en hoe kan ik deze gebruiken? Kan ik op basis van deze gegevens een profiel samenstellen? Dit zijn enkele van de vragen die door de Data deling kunnen worden beantwoord.

Als er bovendien expertise op het gebied van data-analyse bestaat, kan het toevoegen van nieuwe datasets of het delen van updates over bestaande datasets, gebruikers aan te moedigen om samen na te denken over problemen en oplossingen.

Data moeten een bezit zijn, die door het begrip bezit kan worden gedeeld. De hulpbron kan in silo’s bestaan, maar zodra we een dataproduct als een data-

set labelen, betekent dit dat dit wordt geproduceerd met deelbare attributen in gedachten.

Dit houdt ook in dat gegevens die op de uitwisseling worden gedeeld, het juiste beheer hebben, zoals rechten, beveiliging en gestandaardiseerde contracten. Elk data-item dat zichtbaar is via een contract omvat ingebouwde betrouwbaarheid, zoals operationele uptime.

Het hebben van een data-uitwisseling en het kunnen beschikbaar stellen vanaf een centrale locatie voorkomt duplicatie van datasets en bespaart kosten. Het ondersteunt ook het hebben van minder, betekenisvollere datasets en minder eigendom, waardoor het gemakkelijker wordt om de juiste eigenaren te vinden en wijzigingsverzoeken in te dienen. Het kan een gemakkelijke afstamming bieden en het gemakkelijker maken om gegevensafwijkingen te vinden en op de hoogte te stellen van afwijkingen.

Interoperable

De Interoperable Europe Act: implicaties en impact op de digitale toekomst van de EU

De goedkeuring door de Europese Commissie van de Interoperable Europe Act markeert een belangrijke ontwikkeling in het versterken van de digitale publieke sector van de EU.

Deze wet is bedoeld om een netwerk van onderling verbonden digitale overheidsdiensten te creëren, dat niet alleen de grensoverschrijdende samenwerking versterkt, maar ook de digitale transformatie van Europa versnelt.

In de kern schrijft de wet interoperabiliteitsbeoordelingen voor, waardoor wijzigingen in het IT-systeem in lijn zijn met het Europese interoperabiliteitskader en gedeelde ‘interoperabele Europa-oplossingen’. Transparantie wordt bevorderd via de publicatie van deze beoordelingen, waardoor overheidsdiensten in de richting van uniforme normen worden gestuurd.

Krachtens de wet zijn overheidsinstanties verplicht om interoperabiliteitsoplossingen zoals open-sourcesoftware te delen, met als doel technische en organisatorische hindernissen te slechten die grensoverschrijdende digitale diensten belemmeren.

Het ‘Interoperable Europe Portal’ zal het delen en hergebruiken van deze oplossingen centraliseren, waardoor administratieve processen en grensoverschrijdende dienstverleningsefficiëntie worden gekatalyseerd.

Bovendien zullen bestuursstructuren zoals de ‘Interoperable Europe Board’ en de gemeenschap toezicht houden op de implementatie, terwijl initiatieven zoals regelgevingssandboxen innovatie zullen stimuleren.

De Interoperable Europe Act biedt aanzienlijke kansen voor open data-initiatieven. Door een interoperabel netwerk van digitale overheidsdiensten op te zetten, bevordert het het delen en samenwerken van gegevens, waardoor de creatie van een gemeenschappelijke Europese dataruimte voor de publieke sector wordt vergemakkelijkt.

Open data zullen profiteren van een grotere interoperabiliteit, omdat het de toegang tot en het delen van overheidsgegevens over de grenzen heen gemakkelijker maakt. Deze afstemming op de beginselen van open data zal bijdragen aan grotere transparantie, innovatie en efficiëntie in de digitale publieke sector, ten gunste van burgers en bedrijven in heel Europa.

Interoperabiliteit is een kernkenmerk van een functionerende digitale eengemaakte markt en draagt bij tot een effectievere implementatie van de digitale kenmerken van overheidsbeleid, van justitie tot gezondheidszorg en transport.

Burgers, bedrijven en overheden zullen het grootste deel van de nieuwe regelgeving profiteren als zij gebruik maken van onderling verbonden digitale overheidsdiensten die grensoverschrijdende gegevensuitwisseling vereisen.

Voorbeelden van dergelijke diensten zijn onder meer de wederzijdse erkenning van academische diploma’s of beroepskwalificaties, de uitwisseling van voertuiggegevens voor de verkeersveiligheid, toegang tot socialezekerheids- en gezondheidsgegevens, de uitwisseling van informatie met betrekking tot belastingen, douane, accreditatie van openbare aanbestedingen, digitale rijbewijzen, handelsregisters.

Het opzetten van een samenwerkingskader op meerdere niveaus dat de hoogste digitale overheidsprofessionals uit de lidstaten samenbrengt, evenals een brede gemeenschap van het maatschappelijk middenveld, experts, academici en lokale actoren, om een gemeenschappelijke interoperabiliteitsagenda en een evoluerend ecosysteem van gemeenschappelijke interoperabiliteitsoplossingen te definiëren.

De introductie van verplichte interoperabiliteitsbeoordelingen om openbare diensten ‘interoperabel door ontwerp’ te bouwen. Dit zal overheidsinstanties helpen grensoverschrijdende interoperabiliteitsaspecten al in de ontwerpfase van nieuwe diensten of instrumenten te verkennen en, waar nodig, aan te pakken.

Het ‘Interoperable Europe Portal’, een one-stop-shop om het delen en hergebruiken van hoogwaardige en betrouwbare interoperabiliteitsoplossingen tussen overheidsdiensten aan te moedigen.

Versterkte innovatie- en beleidsondersteuningsmechanismen, waaronder training, regelgevingszandbakken voor beleidsexperimenten, publiek-private GovTech en ondersteuningsprojecten voor beleidsimplementatie, om oplossingen te ontwikkelen, testen en opschalen.

Interoperabiliteit in de publieke sector is het vermogen van overheden om samen te werken en publieke diensten te laten functioneren over grenzen, sectoren en organisatorische grenzen heen. Het speelt een cruciale rol bij het ontwerpen van veilige gegevensstromen en het vermijden van dubbel werk in de publieke dienstverlening.

Bij verschillende crises van de afgelopen jaren heeft de interoperabiliteit van de publieke sector gezorgd voor een betere coördinatie tussen de lidstaten, het mobiliseren van middelen daar waar deze het meest nodig waren, en het snel formuleren van gezamenlijke oplossingen.

Cyberbeveiligingsstrategie

De Strategie heeft betrekking op de veiligheid van essentiële diensten zoals ziekenhuizen, energienetwerken en spoorwegen. Het dekt ook de beveiliging van het steeds toenemende aantal verbonden objecten in onze huizen, kantoren en fabrieken.

De Strategie richt zich op het opbouwen van collectieve capaciteiten om te reageren op grote cyberaanvallen en op het samenwerken met partners over de hele wereld om de internationale veiligheid en stabiliteit in cyberspace te waarborgen. Er wordt geschetst hoe een gezamenlijke cybereenheid kan zorgen voor de meest effectieve reactie op cyberdreigingen, waarbij gebruik wordt gemaakt van de collectieve middelen en expertise waarover de EU en de lidstaten beschikken.

Wetgeving en certificering

Richtlijn betreffende maatregelen voor een hoog gemeenschappelijk niveau van cyberbeveiliging in de hele Unie (NIS2-richtlijn)

Bedreigingen op het gebied van de cyberveiligheid zijn bijna altijd grensoverschrijdend, en een cyberaanval op de kritieke faciliteiten van één land kan gevolgen hebben voor de EU als geheel. EU-landen hebben sterke overheidsinstanties nodig die toezicht houden op de cyberveiligheid in hun land en die samenwerken met hun tegenhangers in andere lidstaten door informatie te delen. Dit is vooral belangrijk voor sectoren die van cruciaal belang zijn voor onze samenleving.

De Richtlijn betreffende de beveiliging van netwerk- en informatiesystemen (NIS-richtlijn), die inmiddels door alle landen is geïmplementeerd, waarborgt de oprichting en samenwerking van dergelijke overheidsinstanties. Deze richtlijn is eind 2020 herzien.

Als resultaat van het evaluatieproces werd op 16 december 2020 door de Commissie het voorstel voor een richtlijn betreffende maatregelen voor een hoog gemeenschappelijk niveau van cyberbeveiliging in de hele Unie (NIS2-richtlijn) gepresenteerd.

De richtlijn is in december 2022 gepubliceerd in het Publicatieblad van de Europese Unie en is op 16 januari 2023 in werking getreden. De lidstaten hebben vanaf de inwerkingtreding van de richtlijn 21 maanden de tijd om de bepalingen in hun nationale wetgeving (feitelijke wetgeving) op te nemen. datum: 18 oktober 2024).

ENISA – het EU-agentschap voor cyberbeveiliging

ENISA (European Union Agency for Cybersecurity) is het EU-agentschap dat zich bezighoudt met cyberbeveiliging. Het biedt steun aan de lidstaten, EU-instellingen en bedrijven op belangrijke gebieden, waaronder de implementatie van de NIS-richtlijn.

De Wet Cyberweerbaarheid

Het voorstel voor een verordening inzake cyberbeveiligingseisen voor producten met digitale elementen, bekend als de Cyber Resilience Act, versterkt de cyberbeveiligingsregels om veiliger hardware- en softwareproducten te garanderen.

Wet cyberveiligheid

De Cybersecurity Act versterkt de rol van ENISA. Het agentschap heeft nu een permanent mandaat en is bevoegd om bij te dragen aan het intensiveren van zowel de operationele samenwerking als het crisisbeheer in de hele EU. Het land beschikt ook over meer financiële en personele middelen dan voorheen. Op 18 april 2023 heeft de Commissie een gerichte wijziging van de EU-cyberbeveiligingswet voorgesteld.

Cybersolidariteitswet

Op 18 april 2023 heeft de Europese Commissie de EU Cyber Solidarity Act voorgesteld, om de reactie op cyberdreigingen in de hele EU te verbeteren. Het voorstel omvat een Europees cyberbeveiligingsschild en een alomvattend cybernoodmechanisme om een betere cyberdefensiemethode te creëren.

Certificering

Onze digitale levens kunnen alleen goed functioneren als er een algemeen publiek vertrouwen is in de cyberbeveiliging van IT-producten en -diensten. Het is belangrijk dat we kunnen zien dat een product is gecontroleerd en gecertificeerd om te voldoen aan de hoge cyberveiligheidsnormen. Er zijn momenteel in de hele EU verschillende beveiligingscertificeringsregelingen voor IT-producten. Het zou voor iedereen gemakkelijker en duidelijker zijn om één gemeenschappelijk certificeringssysteem te hebben.

Nieuwe regels

De technologielobby vreest dat de bijgewerkte AVG-regels het aantal klachten over misbruik zullen doen toenemen en de langdurige procedures zullen vertragen.

Wetgevers zullen volgende week (10 april) regels goedkeuren onder de Algemene Verordening Gegevensbescherming (AVG) van de EU, bedoeld om de grensoverschrijdende samenwerking tussen nationale gegevensbeschermingsautoriteiten te vergemakkelijken.

De procedureregels, die de Europese Commissie in juli 2023 heeft voorgesteld als aanvulling op de AVG, hebben tot doel ervoor te zorgen dat privacyklachten waarbij meerdere lidstaten betrokken zijn snel worden opgelost en bedrijven meer rechtszekerheid te geven. De regels zijn er tevens op gericht om zowel klagers als partijen tegen wie een onderzoek loopt meer rechten te geven bij geschillen.

Op grond van de AVG, die in 2018 van kracht werd, worden klachten ingediend bij de nationale autoriteiten en – in het geval van bedrijven in de hele EU – naar het land van het hoofdkantoor gestuurd. Voor Big Tech-bedrijven is dit vaak Ierland, wat betekent dat de Ierse toezichthouder het merendeel van de zaken afhandelt.

Bedrijven vrezen echter dat de nieuwe regels hun rechten feitelijk beperken, en beweren dat de betrokkenheid van de verdachte bij de zaken waarschijnlijk zal afnemen.

De AVG zelf wordt deze zomer ook herzien. In een commissierapport zal worden uiteengezet hoe de regels tot nu toe zijn toegepast. Uit een eerder onderzoek uit 2020 is gebleken dat, hoewel de nationale gegevensbeschermingsautoriteiten samenwerken onder het Europees Comité voor gegevensbescherming (EDPB), er nog ruimte voor verbetering is.

Gegevensbeschermingsautoriteiten zelf hebben vaak geklaagd over het gebrek aan middelen om klachten snel af te handelen.

Schone data

In het digitale tijdperk zijn gegevens de basis geworden van de besluitvorming. De effectiviteit van deze beslissingen hangt echter af van de kwaliteit van de beschikbare gegevens.

Het gegevensopschoningsproces is een cruciale stap. Het omvat het identificeren en corrigeren van fouten, inconsistenties en onnauwkeurigheden in datasets om de nauwkeurigheid en betrouwbaarheid ervan te garanderen.

Door problemen als ontbrekende waarden, dubbele invoer en formatverschillen aan te pakken, verbetert het dataopschoningsproces de integriteit van informatie, wat leidt tot betere analyses en betrouwbare resultaten.

Het dataopschoningsproces is van enorm belang vanwege de cruciale rol die het speelt bij het waarborgen van de nauwkeurigheid, betrouwbaarheid en geloofwaardigheid van de informatie waarop beslissingen worden genomen. In het hedendaagse landschap dat wordt aangedreven door datagedreven inzichten, is de kwaliteit van deze inzichten slechts zo goed als de data zelf.

Het opschonen van gegevens pakt de inherente onvolkomenheden, fouten en inconsistenties aan die van nature voorkomen tijdens het verzamelen en opslaan van gegevens. Als er geen aandacht aan wordt besteed, kunnen deze onvolkomenheden de analyseresultaten vertekenen, besluitvormers misleiden en tot verkeerde conclusies leiden.

Door het systematisch identificeren en corrigeren van problemen zoals duplicaten, irrelevante gegevens, opmaakfouten, uitschieters en ontbrekende waarden, creëert het gegevensopschoonproces een solide basis voor zinvolle analyses en geïnformeerde besluitvorming.

Het belang van dit dataopschoningsproces strekt zich uit over sectoren – van het bedrijfsleven en de financiële sector tot de gezondheidszorg en het onderzoek – waar de nauwkeurigheid van conclusies en strategieën sterk afhangt van de kwaliteit van de onderliggende gegevens.

Het dataopschoningsproces overbrugt de kloof tussen ruwe data en betrouwbare inzichten en zorgt ervoor dat de informatie die onze acties aanstuurt zo nauwkeurig en betrouwbaar mogelijk is.

Duplicaten en irrelevante gegevens zijn twee veel voorkomende boosdoeners die de integriteit van uw gegevensanalyse aanzienlijk in gevaar kunnen brengen. Ze vertekenen niet alleen de resultaten, maar verbruiken ook waardevolle bronnen op het gebied van opslag en verwerkingskracht.

Om deze problemen te bestrijden, is de eerste stap van het gegevensopschoningsproces het verwijderen van duplicaten of het ontdubbelen van gegevens. Door identieke of vrijwel identieke records te identificeren en te elimineren, creëert u een schone dataset die de ware reikwijdte van uw informatie weerspiegelt.

Om dit te bereiken worden unieke identificatiegegevens zoals unieke ID’s, tijdstempels of combinaties van attributen gebruikt. Dit proces stroomlijnt uw gegevens, verbetert de nauwkeurigheid ervan en vermindert redundantie.

Nauwkeurigere vormen van gegevensopschoning vormen aanzienlijke belemmeringen voor effectieve analyses. Om deze hindernissen te overwinnen, is het essentieel om gegevens te standaardiseren en opmaak te corrigeren.

Dit gegevensopschoningsproces omvat het harmoniseren van diverse gegevensformaten, zoals datums en cijfers, waardoor uniformiteit in de hele dataset wordt gewaarborgd. Bovendien verbetert het verifiëren van consistente eenheden en het corrigeren van typografische fouten de nauwkeurigheid en betrouwbaarheid van de gegevens verder.

Deze nauwgezette aandacht voor detail elimineert discrepanties en vergemakkelijkt een naadloze integratie en vergelijking tussen verschillende datapunten. Tools voor het opschonen van gegevens stroomlijnen processen en verbeteren de nauwkeurigheid en efficiëntie.

Uitschieters, datapunten die aanzienlijk verschillen van de rest, bezitten de kracht om analyses te vertekenen en modellen te beïnvloeden. Het is van cruciaal belang om deze problemen op de juiste manier aan te pakken op het gebied van het opschonen van gegevens.

De eerste stap in het gegevensopschoningsproces omvat de detectie van uitschieters, waarbij onderscheid wordt gemaakt tussen foutieve invoer en legitieme afwijkingen. Dit vraagt om een genuanceerd begrip van de datacontext.

Eenmaal geïdentificeerd, ontstaan er drie opties: ze verwijderen voor een nauwkeurigere weergave, hun waarden aanpassen om hun impact te minimaliseren, of ze afzonderlijk analyseren om unieke inzichten te verkrijgen.

Dit besluitvormingsproces helpt de statistische integriteit te behouden, terwijl rekening wordt gehouden met uitzonderlijke gevallen. Door zorgvuldig om te gaan met uitschieters wordt de analyse robuuster en beter afgestemd op de complexiteit van de praktijk.

Ontbrekende gegevens, een veelvoorkomend probleem bij data-analyse, kunnen de nauwkeurigheid van de inzichten ondermijnen. Bij het verwerken van ontbrekende gegevens is een strategische aanpak nodig om dit probleem aan te pakken. Begin met het begrijpen van de aard van de ontbrekende informatie: is deze willekeurig of systematisch?

Dit onderscheid is bepalend voor de handelwijze. Als er sprake is van vermissing willekeurig zijn, overweeg dan om imputatietechnieken te gebruiken die ontbrekende waarden schatten op basis van bestaande gegevenspatronen. Als alternatief kan het nodig zijn om de overeenkomstige rijen of kolommen te verwijderen voor gevallen met overmatig ontbrekende gegevens.

Deze zorgvuldige aanpak garandeert de volledigheid van de gegevens en maakt de weg vrij voor een uitgebreidere en betrouwbaardere analyse die rekening houdt met de complexiteit van gegevens uit de echte wereld. Er bestaan verschillende tools voor het opschonen van gegevens om informatie te valideren, corrigeren en verrijken.

Voorafgaand aan de analyse is het uitvoeren van een gegevenskwaliteitscontrole van het grootste belang. Valideer de nauwkeurigheid van de gegevens door deze te vergelijken met betrouwbare bronnen. Bevestig dat de gegevens overeenkomen met de verwachtingen en logische redenering. Gebruik gegevensopschonings- en validatietechnieken om afwijkingen aan het licht te brengen die de resultaten kunnen vertekenen.

Dit zorgvuldige proces voor het opschonen en valideren van gegevens zorgt ervoor dat een analyse op een solide basis rust, waardoor het vertrouwen in de betrouwbaarheid van de inzichten en beslissingen wordt vergroot.

Zorg ervoor dat de gegevens de belangrijkste kenmerken bezitten: nauwkeurigheid (juiste waarden), volledigheid (geen ontbrekende waarden), consistentie (uniforme formaten), betrouwbaarheid (betrouwbare bronnen), tijdigheid (actueel) en relevantie (relevant voor analysedoelen) – trefwoorden: componenten van datakwaliteit, data-integriteit, betrouwbare data.

Samenwerking is de sleutel. Communiceer regelmatig met belanghebbenden om inzicht te krijgen in de gegevensvereisten en verwachtingen. Betrek domeinexperts om afwijkingen te identificeren. Houd iedereen op de hoogte van het dataopschoningsproces en de beslissingen.

Het dataopschoningsproces biedt een reeks waardevolle voordelen die de kwaliteit en betrouwbaarheid van uw datagestuurde inspanningen aanzienlijk verbeteren:

Door fouten en inconsistenties te verwijderen, zorgt het gegevensopschoonproces ervoor dat de inzichten uit de gegevens nauwkeurig en betrouwbaar zijn. Deze nauwkeurigheid vertaalt zich rechtstreeks in beter geïnformeerde besluitvorming.

Schone data vormt de basis voor betrouwbare beslissingen. Wanneer gegevens vrij zijn van fouten en rommel, kunnen we vol vertrouwen strategieën formuleren en middelen toewijzen op basis van solide informatie.

Nauwkeurige gegevens zijn essentieel voor taken als machine learning. Schone data verbeteren de nauwkeurigheid van modellen, wat leidt tot betere voorspellingen en resultaten.

Schone data vergroot de geloofwaardigheid van rapporten en analyses. Belanghebbenden kunnen op uw informatie vertrouwen, waardoor sterkere relaties en geïnformeerde samenwerkingen worden bevorderd.

Het opschoningsproces van gegevens lijkt misschien tijdrovend, maar het bespaart op de lange termijn tijd en middelen. Doordat we minder moeite hoeven te doen om fouten te corrigeren en gebrekkige gegevens opnieuw te analyseren.

In gereguleerde sectoren zijn nauwkeurige gegevens niet alleen een voordeel, maar ook een noodzaak. Door het opschonen en valideren van gegevens kunt u voldoen aan de normen voor gegevenskwaliteit en nalevingsvereisten.

Het opslag- en gegevensopschoningsproces is efficiënter na het schonen waardoor de opslagkosten worden verlaagd en de uitgaven voor gegevensverwerking worden geoptimaliseerd.

Positieve klantervaring: Schone data zorgen voor nauwkeurige communicatie en diensten op maat, waardoor de klanttevredenheid en loyaliteit verbeteren.

Soepele gegevensintegratie: het gegevensopschoonproces zorgt voor consistentie bij het combineren van gegevens uit verschillende bronnen, waardoor integratieproblemen en fouten worden voorkomen.

Zelfverzekerde communicatie: Met schone data kunt u vol vertrouwen op inzichten en bevindingen communiceren, wetende dat de informatie accuraat en betrouwbaar is.

Ai & data

Er bestaat geen unieke definitie van kunstmatige intelligentie (AI), maar de term wordt vaak gebruikt om te verwijzen naar computer-systemen die functies uitvoeren die gewoonlijk door menselijke capaciteiten worden uitgevoerd. AI kan vragen stellen, hypothesen ontdekken en testen, en automatisch beslissingen nemen op basis van geavanceerde analyses die op uitgebreide datasets werken.

Machine learning is een subcategorie van AI, waarbij computers het vermogen hebben om van gegevens te leren via geschikte algoritmen, waardoor computers verborgen patronen (correlaties) in gegevens kunnen identificeren zonder dat ze daarvoor daadwerkelijk zijn geprogrammeerd, om een concrete taak uit te voeren.

Big Data Analytics (BDA) verwijst gewoonlijk naar grote hoeveelheden gegevens die kunnen worden gegenereerd, verwerkt en in toenemende mate kunnen worden gebruikt door digitale hulpmiddelen en informatiesystemen voor het maken van voorspellende, beschrijvende en prescriptieve analyses.

Deze mogelijkheid wordt aangedreven door de toegenomen beschikbaarheid van gestructureerde gegevens, de mogelijkheid om ongestructureerde gegevens te verwerken, toegenomen mogelijkheden voor gegevensopslag en vooruitgang in rekenkracht.

In de huidige digitale samenleving is er echter een toenemende beschikbaarheid van nieuwe bronnen en soorten gegevens (bijvoorbeeld IoT-gegevens, beeldgegevens of sociale-mediagegevens), die kunnen worden verwerkt door steeds krachtigere en complexere algoritmen, waaronder AI-systemen, wat verschillende kansen met zich meebrengt. , maar ook enkele uitdagingen.

De toepassing van kunstmatige intelligentie op alle gebieden brengt specifieke kansen en uitdagingen met zich mee.

De belangrijkste voordelen van het gebruik van kunstmatige intelligentie zijn:

  • efficiëntere en geautomatiseerde processen
  • nauwkeurigheid van de voorspelling
  • meer gepersonaliseerde producten en diensten

Enkele van de uitdagingen die voortvloeien uit het gebruik van kunstmatige intelligentie zijn:

  • problemen met transparantie en verklaarbaarheid
  • de potentiële impact van sommige AI-gebruiksscenario’s op de eerlijke behandeling van consumenten
  • beperkte financiële inclusie van consumenten met een hoog risico of kwetsbare consumenten

Data speelt een fundamentele en onmisbare rol in systemen voor kunstmatige intelligentie (AI). Het fungeert als de levensader die machine learning-algoritmen voedt, waardoor ze patronen kunnen leren, voorspellingen kunnen doen en inzichten kunnen genereren.

De maatschappelijke impact van AI brengt tal van uitdagingen met zich mee. Het opbouwen van vertrouwen vereist het opzetten van kaders, richtlijnen en mechanismen om deze problemen aan te pakken. Het is duidelijk dat het begrijpen en voorkomen van gegevensmisbruik van cruciaal belang is. Actie is noodzakelijk, en een duidelijk, verenigd, mondiaal traject dat zich richt op gegevensprivacy en -integriteit is van cruciaal belang.