Data om ons heen.

Welke data kun je vinden in openbare bronnen op het internet, de data van 2,4 miljoen individuen, 650 duizend organisaties, 2,3 miljard nieuwsartikelen en 2,1 miljard posts op sociale media. Verzameld via middelen die algemeen bekend zijn binnen de gegevensverzamelingsindustrie en gebruik makend van relatief ongecompliceerde gegevensverzamelingstechnieken.

Hiermee bouw je een database rond talrijke bestaande databases of platforms in één grote database met meerdere overlappingen. Aanzienlijke hoeveelheden gegevens die zijn te crawlen uit beheerde databases. Om zo persoonlijke en professionele profielen van personen wereldwijd op te bouwen.

Persoonlijke gegevens kunnen worden opgebouwd rond sleutelfiguren in de familiaire omgeving en zakelijke contacten. En worden gecrawld van bekende platforms als Facebook, Twitter en LinkedIn, evenals als andere openbare bronnen. Naast persoonlijke informatie is informatie over berichten, vind-ik-leuks en reTweets te crawlen.

Daarbij is het mogelijk foto’s van individuen in openbare sites, zoals Twitter, Facebook of LinkedIn te crawlen. Deze foto’s uit openbare bronnen kunnen vervolgens opgeslagen met de reeds opgeslagen data van een persoon of organisatie. Zo ontstaat een gedetailleerd beeld van een persoon dat via openbare sites, zoals Twitter, Facebook of LinkedIn ook nog up to data kan worden gehouden.

En al deze data hebben of wordt namens ons gedeeld met een ieder die het in wil zien. Daarbij staan we op het punt om nog meer data te delen of wordt er straks nog meer data over ons gedeeld. Hierbij schuilt een ongeluk in een klein stukje data waardoor dingen opeens heel anders kunnen worden uitgelegd. Reden te meer dat we voorzichtig zijn met hoe we wat met wie gaan delen voor er verdien modellen zijn om deze data ten gelde te maken.

Kunstmatig intelligentie.

Hoe zit het met de gevaren van kunstmatige intelligentie misschien heb je een of alle van de volgende films gezien. The Matrix, The Terminator, Battlestar Galactica, Westworld of Lost in Space? Deze verhalen delen allemaal een toekomst met antihelden en een vorm van kunstmatige intelligentie (AI) die ontspoord is.

Gefascineerd door onze relatie met machines en visa versa. Hebben deze films onze perceptie op het gebied van AI gevormd.

Maar hoe krachtig is AI en is het zo bedreigend als ons soms wordt voorgeschoteld? Is AI een bedreiging voor de mensheid of een kans op een beter leven buiten de anonimiteit?

Wat doet kunstmatige intelligentie echt?

Kunstmatige intelligentie is een kracht voor het goede in goede handen.

De privacy-compliance-technologie die we willen gaan gebruiken of reeds gebruiken is voor een groot deel afhankelijk van kunstmatige intelligentie. Dat komt omdat AI verzoeken omtrent privacy, inclusief bescherming en verwijdering op verzoek van gegevens, sneller en efficiënter verwerkt dan een mens. Bovendien beschermt uw zichzelf door gegevens te laten afhandelen zonder blootstelling aan menselijke ogen.

Maar er ligt al we een nadeel op de loer emotie-AI, “een systeem dat je begrijp en je taal spreekt en met je communiceert doormiddel van soft skills”. Eindelijk iemand die denkt als jij, doet als jij en begrijpt wat je behoeftes zijn. Maar ook iemand die zorgt dat je geen flater meer kan slaan en je altijd de juiste richting in stuurt. Zodat je leven zich afspeelde in volledige harmonie tussen mensen onderling en tussen de mens en natuur om hem heen.

Kwetsbaarheden

Kwetsbaarheden in apparaten die zijn verbonden met WiFi in uw huis, auto of op uw werk kunnen uw gegevens en locatie onthullen. Zo weet je tv dat je naar oude afleveringen van Vrienden hebt gekeken. Uw slimme broodrooster kan worden gehackt om deel te nemen aan een ddos aanval op een bedrijf of de overheid.

Maar gelukkig zijn er eenvoudige stappen die u zelf kunt nemen om dit te voorkomen, zoals controleren hoe uw persoonlijke gegevens worden gebruikt en gedeeld, en apparaten met internetverbinding uitschakelen wanneer u ze niet nodig heeft of gebruikt, zo kunnen we de privacyrisico’s helpen te verminderen.

Zeker nu steeds meer alledaagse voorwerpen met elkaar worden verbonden via het internet. Enkele voorbeelden zijn:

* beveiligingssystemen

* digitale assistenten

* verbonden speelgoed

* digitale gezondheidstechnologieën

Deze apparaten vormen het Internet of Things (IoT). Over het algemeen is het IoT het netwerken van fysieke objecten, waardoor ze verbinding kunnen maken via internet en gegevens kunnen delen. Deze aangesloten apparaten kunnen onafhankelijk functioneren zonder menselijke tussenkomst of beslissingen. Velen werken ook samen met uw smartphone, computer of tablet, zodat u toegang hebt tot IoT-apparaatgerelateerde gegevens en uw apparaat kunt bedienen.

Verhoogde connectiviteit biedt voordelen, zoals het bijhouden van uw fitnessvoortgang of het bewaken van de veiligheid van uw huis wanneer u weg bent. Digitale gezondheidstechnologieën, zoals glucosemeters of apparaten die medicatie toedienen, kunnen u helpen chronische gezondheidsproblemen beter te beheren. Ze kunnen echter ook risico’s voor uw privacy opleveren.

Naarmate het IoT groeit, worden uw dagelijkse activiteiten en gedrag steeds vaker gevolgd, gemeten en geanalyseerd. Dit roept vragen op als:

* Wie kan uw gegevens zien?

* Hoe worden uw gegevens gebruikt?

* Wat kunt u doen om te bepalen hoe uw persoonlijke gegevens worden gebruikt en gedeeld?

Bovenmenselijke intelligentie (AI).


Onderzoek toont aan dat AI zoveel meer is dan een verbetering van bestaande technologie, maar om het effectief in te zetten, is er vertrouwen nodig. Om het volledige potentieel van deze techniek, strategisch toe te passen, moet de dagelijkse structuur van ons leven opnieuw worden bekeken en moet worden nagegaan hoe we de voortgang meten. De identiteit van onze kernwaarden en wijzigingen hier in zijn beladen met onzekerheid en risico’s, maar dit is een risico dat nodig is om nieuwe ideeën een kans te geven. Integratie, implementatie en indicatie moeten gelaagd zijn om een ​​harmonische omgeving te creëren die wordt bestuurd met AI. Om dit te bereiken, moet we anders gaan denken, begrijpen hoe het werk en wat er wordt gedaan in overeenstemming is met geldende normen en waarden, en hoe het voldoet aan onze behoeften.

Wetgeving.

Wetgeving en fundamentele belangen: AI-systemen moeten in overeenstemming zijn met de wet en mogen niet worden gebruikt voor onethische of criminele activiteiten, vooral omdat AI-systemen kwetsbaar kunnen zijn voor invloeden van buiten af. Het ontbreken van een traditionele ‘mentale toestand’ van kennis of intentie die aan een persoon kan worden toegeschreven, en een beslissing die door een AI-systeem wordt genomen, gewoonlijk een lange oorzakelijke keten van systeemcreatie tot implementatie.

Met de effecten, het welzijn en de veiligheid zullen ontwerpers en implementeerders van AI-systemen rekening moeten houden, maar ook met de waarschijnlijke effecten van het AI-systeem gedurende de hele levenscyclus, inclusief veiligheid, beveiliging, juridische, ethische en andere kwesties, door risico- en impact beoordelingen en het uitvoeren van evaluaties. AI-systeem moet rationeel, eerlijk en zonder opzettelijke of onopzettelijke vooroordelen zijn. Door rekening te houden met factoren als menselijke emoties, empathie en persoonlijke privacy.

Risico’s uitsluiten, door met respect voor waarden en cultuur, ethisch gebruik van gegevens te werken in alle omgevingen. Makers moeten rekening houden met “veilig door ontwerp” -vereisten, om voor zover redelijkerwijs uitvoerbaar een ontwerpplan voor te bereiden dat alle voorzienbare ontwerprisico’s elimineert, inclusief onbedoelde programmeerpaden en na opschaling van het AI-systeem in de bredere toepassing.

Bovendien moeten AI-systemen worden ontworpen om inherente vooringenomenheid of waarden te vermijden, terwijl beslissingen worden genomen binnen de risicobereidheid voor privacy en ethiek die aanvaardbaar zijn voor de cultuur van de gemeenschap. Het gebruik van persoonsgegevens moet ook in overeenstemming zijn met de gegevensbeschermingswetten en goede praktijk.

Hoe en waarom een ​​AI-systeem een ​​bepaalde beslissing heeft genomen, moet vindbaar zijn, d.w.z. via traceerbaarheid, uitlegbaarheid, verifieerbaarheid en interpreteerbaarheid. We moeten kunnen vertrouwen op ‘eerlijke’ interacties, inclusief transparantie over hoe compromissen worden gesloten bij het nemen van AI-beslissingen.

Datagedreven

Bedrijven zoeken in toenemende mate naar datagedreven oplossingen voor bijvoorbeeld mobiliteit, energie, veiligheid of huisvesting. Zij verzamelen of combineren data en daarbij gaat het vaak ook om de verwerking van persoonsgegevens.

De digitale samenleving is een van de aandachtsgebieden de komende jaren, denk daarbij aan grondrechten en de keuzevrijheden van mensen. Het gebruik van data raakt namelijk iedereen.

Je verwacht een zekere mate van anonimiteit als je op straat loopt, maar in werkelijkheid hangen er steeds meer camera’s en sensoren die je registreren of volgen, soms zonder dat je het meteen door hebt.

Bij een datalek, gaat daarom direct om persoonsgegevens van heel veel burgers. Dit maakt een zorgvuldige afweging over het verzamelen en gebruiken van persoonsgegevens van groot belang.

Het in kaart brengen van welke privacyrisico’s erbij komen kijken, bij het ontwikkelen van toepassingen. Deze privacyrisico’s moeten beheersbaar gemaakt worden vóór de start van de verwerking van de persoonsgegevens – ook als het gaat om kleinschalige pilots.

Als men geen maatregelen kan treffen om de privacyrisico’s af te dekken en er hoge restrisico’s blijven bestaan, moet de verwerking bovendien in een voorafgaande raadpleging aan de Autoriteit persoonsgegevens worden voorgelegd.

Waarbij het voorkomen van datalekken, is beter dan genezen. Dat begint met eerst nadenken en dan pas doen.”

In de onderzoeken moet ook aandacht worden besteed aan de rollen en betrokkenheid van verschillende personen en instanties bij de ontwikkeling van de toepassingen. Daarbij dienen de rechten en vrijheden van burgers hoog in het vaandel te staan.

Handvest algoritmen

Instanties, bedrijven en organisaties gebruiken gegevens om ons dagelijks te informeren, communicatie te verbeteren en diensten te leveren. Eenvoudige algoritmen kunnen worden gebruikt om deze handelingen te standaardiseren en er voor te zorgen dat schaarse middelen eerlijk worden verdeeld.

Complexere algoritmen kunnen worden gebruikt om informatie uit grote of complexe datasets te distilleren ter ondersteuning van menselijke besluitvorming en om inzichten te geven die niet gemakkelijk zouden kunnen worden gerealiseerd door alleen menselijke analyse.

Deze kennis helpt om goede beslissingen te nemen en diensten te leveren die effectiever en efficiënter zijn. Het gebruik van algoritmen kan het risico dat er menselijke vooroordelen in dossiers terechtkomen, verkleinen en voor iedereen reële voordelen opleveren. Maar deze nieuwe kansen brengen ook uitdagingen met zich mee.

Zo kan menselijke vooringenomenheid worden bevestigd of zelfs versterkt door algoritmen die niet doordacht zijn ontworpen en uitgevoerd. Transparantie en verantwoording zijn van cruciaal belang om ervoor te zorgen dat het publiek de instanties, bedrijven en organisaties kan vertrouwen en ondersteunen om deze instrumenten op gepaste manieren te gebruiken.

Nieuw-Zeeland heeft als eerste een handvest samengesteld dat vooraf aangeeft waaraan het algoritme voldoet voor het wordt geformuleerd. Dit handvest hebben we vertaald zodat ook instanties, bedrijven en organisaties in ons land het handvest kunnen gebruiken.

Een handvest is zo een toezegging om zorgvuldig te werk te gaan en open te zijn over hoe algoritmen zullen worden gebruikt om het juiste evenwicht te vinden tussen privacy en transparantie, onbedoelde vooroordelen te voorkomen en de principes betrouwbare partner te weerspiegelen.

Opzet handvest:

Onze organisatie begrijpt dat beslissingen die worden genomen door algoritmen van invloed zijn op mensen. We verbinden ons ertoe een beoordeling te maken, van de impact van de beslissingen die door onze algoritmen worden geformuleerd. 

We verbinden ons er verder toe, de toezeggingen van het Algoritme-handvest toe te passen, geleid door de geïdentificeerde risico’s.

Algoritme Handvestverbintenissen:

TRANSPARANTIE

We behouden transparantie, door duidelijk uit te leggen hoe beslissingen worden geformuleerd door algoritmen:

›› We zorgen voor duidelijke documentatie over het algoritme,

›› We Informatie over de gegevens en processen beschikbaar stellen (tenzij een wettelijke beperking dit verhindert),

›› We Informatie publiceren over hoe gegevens worden verzameld, beveiligd en opgeslagen.

NOODZAKELIJKHEID 

• Er een duidelijk openbaar voordeel is:

›› We een perspectief verankeren in de ontwikkeling en het gebruik van algoritmen die in overeenstemming is met de principes van het Verdrag voor de rechten van de Mens.

MENSEN

• We focussen op mensen:

›› We mensen, gemeenschappen en groepen identificeren en actief betrekken bij opstellen van de algoritmen, en overleg plegen met degenen die door gebruik worden beïnvloed.

GEGEVENS

• We ervoor zorgen dat de gegevens geschikt zijn:

›› We beperkingen begrijpen,

›› We vooroordelen identificeren en beheren.

PRIVACY, ETHIEK EN MENSENRECHTEN

• We zorgen ervoor dat privacy, ethiek en mensenrechten in acht worden genomen:

›› We regelmatige toetsing van algoritmen toepassen om onbedoelde fouten, gevolgen te voorkomen.

MENSELIJK OVERZICHT

• We menselijk toezicht behouden:

›› We een contactpunt hebben voor vragen over algoritmen,

›› We een mogelijkheid bieden voor bezwaar of aanvechten van beslissingen die op basis van algoritmen zijn genomen,

›› We de menselijke factoren duidelijk uitleggen in beslissingen die door algoritmen worden geformuleerd.

NextGenerationEU

The NextGenerationEU heeft een enorme en ongekende financiële vuurkracht van € 1.8 biljoen. Dat is de conclusies van de speciale bijeenkomst van de Europese Raad. Het akkoord dat is bereikt is een enorme prestatie en een Europese investering in de Europese Unie. En een van de grootste stimulansen voor investeringen en hervormingen overal ter wereld – investeren in de uitrol van 5G, netinfrastructuur, in AI en industriële digitalisering, in hernieuwbare energiebronnen, duurzaam transport, energiezuinige gebouwen. Zo bestrijden we klimaatverandering en moderniseren we volledig transparant. Het belang van het beschermen van onze waarden, en met name de rechtsstaat. We mogen hierbij het grotere plaatje niet uit het oog verliezen het belang om verenigd te blijven in de reactie op deze crisis: We hebben nu de kans om iets historischs voor Europa te bereiken. De druk van de crisis heeft deuren geopend die al lang gesloten waren. Hoe triest het ook is, dit is ook een kans voor Europa, voor onze gemeenschap. NextGenerationEU is een geweldig teken van solidariteit. Omdat NextGenerationEU gebaseerd is op de gemeenschapsmethode, zal het helpen om wonden te helen en ons samen te brengen. We dragen de last van de verantwoordelijkheid voor het lot van Europa en de toekomstige kansen van onze kinderen samen op al onze schouders.  En toch zullen we kritisch moeten zijn om er zeker van te zijn dat een verenigd Europa geen herhaling wordt van fouten uit ons verleden.

Niets is wat het lijkt

Smartphone apps worden in steeds meer landen verboden, waaronder TikTok, SHAREiT en WeChat uit veiligheidsoverwegingen. Het misbruik van smartphone-apps die beschikbaar zijn op Android- en iOS-platforms voor het stelen en heimelijk verzenden locatie gegevens neemt zienderogen toe. Het verzamelen van deze gegevens, het verzamelen en profileren ervan doet uiteindelijk afbreuk aan de soevereiniteit en integriteit, en is een zaak van zeer diepe en onmiddellijke zorg.

Twee toonaangevende cyberbeveiligingsbedrijven kwamen in 2016 al met bewijs dat smartphone apps werden gebruikt om de opinie van gebruikers te beïnvloeden. Tevens werden gebruikers naar nieuwssites geleid die hun gedachtegoed in een bepaalde richting stuurden.

Hierdoor kijken we misschien niet langer naar smartphone apps vanuit een technologisch of kostenvoordeelperspectief, maar puur vanuit een strategisch perspectief. Of het nu gaat om cyberaanvallen of investeringen in technologiebedrijven. De meningen over smartphone apps zijn verdeeld zeker als we verleden kijken en de schandalen rond een overheid die gegevens stal, UC Browser, SHAREit, WeChat en enkele Mi-apps. De meeste hiervan waren Chinese apps en onder de niet-Chinese apps bevond zich TrueCaller. Sinds 2017 worden beveiligingsproblemen van deze smartphone apps erkend omdat er ook sprake was van voorgevoeligheid van datagevoeligheid en datamining-problemen.

We lekken informatie.

De meesten van ons hebben al genoeg moeite om alles in huis up-to-date te houden. Daarbij komt dat onlangs een reeks kwetsbaarheden werd gevonden in een softwareprogramma dat wordt gebruikt om honderden miljoenen apparaten te verbinden. Terwijl deze kwetsbaarheid wordt aangepakt, is de vraag of onze privacy is gewaarborgd. Want hoeveel apparaten hebben we in huis die communiceren met de buitenwereld waarop we geen invloed uit kunnen oefenen. Om te kunnen waken over onze privacy is het van cruciaal belang dat we er voor zorgen dat we inzage hebben in de communicatie van alle apparaten in ons huis.

Vrijwel iedereen is bekend met internet en het algemene gebruik ervan om apparaten zoals camera’s, lampen, koelkast, speakers, computers en mobiele telefoons aan te sluiten, echter kunnen we niet makkelijk zien met wie we aansluiting maken. Naarmate we meer dingen aansluiten, werd het mogelijk vrijwel alles dat via een netwerk is verbonden te bedienen of uit te lezen. Zo maakten we eenvoudige elektronica slimmer en lieten steeds dingen zich op afstand beheren. Waardoor het mogelijk is om elk apparaat in uw huis te bedienen en te bewaken, van verwarming en koeling tot het sproeisysteem van de koelkast tot babyfoons.

Dit leid echter tot kwetsbaarheden die onze privacy bedreigen. Een recente wake-up call over de kwetsbaarheid in het TCP / IP-protocol dat wordt gebruikt om honderden miljoenen apparaten met elkaar te verbinden druk ons met de neus op de feiten. De software van één bedrijf dat wordt gebruikt om honderden miljoenen apparaten met elkaar te verbinden. Blijkt zo lek als een mandje bevat zeker 20-kwetsbaarheden, en de fabrikanten die de software gebruiken, zijn mogelijk niet op de hoogte welke apparaten de kwetsbare software gebruiken.