Metadata

Met datagovernance is een kritiek keerpunt bereikt. Een essentieel onderdeel van risicobeheer dat gebaseerd is op het bereiken van naleving van de regelgeving, het handhaven van gegevensprivacy en het waarborgen van gegevens.

Het gaat echter verder dan risicobeheermogelijkheden voor het bepalen of beïnvloeden van gegevensgestuurde acties. Recente ontwikkelingen hebben het mogelijk gemaakt om dit dynamisch, vrijwel onmiddellijk, met de mogelijkheden van downstream-analyses en de daaruit voortvloeiende besluitvorming vorm te geven.

“Met actieve metadata realtime gebruikt in verschillende toepassingen.’

De operationele functionaliteit met betrekking tot metadatabeheer, datamodellering, datastewardship, machine learning en kunstmatige intelligentie, en verschillende andere componenten.

De overgang van een voornamelijk statische, passieve reeks principes en protocollen naar realtime toepasbaarheid in een reeks gebruiksscenario’s die concurrerende waarde opleveren.

Expressieve datamodellen waar semantiek en taxonomieën, machine-intelligentie gebruiken om af te leiden hoe we verschillende data stromen in datasystemen kunnen worden gemengd. Vergelijkbare informatie in verschillende systemen en governance oplossingen wanneer je communiceert tussen die stromen en systemen.

Slimme inferentiemogelijkheden, met het vermogen om nieuwe inzichten te genereren. Bijvoorbeeld de naleving van regelgeving, waarbij logische gevolgtrekkingen over gegevenstoegang voor de ene gegevensbron, regelgeving of groep gebruikers invloed kunnen hebben op die voor een andere gegevensbron, regelgeving of gebruikersgroep om nalevingsmaatregelen te automatiseren.

Met metadata in datamodellen kunnen we taxonomieën stroomlijnen voor content engines, met wereldwijde en lokale bronnen. Door cognitieve computertechnieken kunnen we de invoer van metadata snel automatiseren. Metadata beschrijvingen, trefwoorden, gedetailleerde inzichten ofwel een voorbode van gebeurtenissen of een routekaart van eerdere gebeurtenissen die de datakwaliteit waarborgen.

Het verbinden van metadata met Data life cycle en BI die de traceerbaarheid gebruiken die door metadata wordt geboden, noodzakelijk om de informatie in analyses te begrijpen en te vertrouwen. Een dashboard waar data kan onthullen wie ernaar kijkt en waar die gegevens vandaan komen.

Analyse op hoofdoorzaken: eventuele abnormaliteiten of afwijkingen in processen die verband houden met analyses eenvoudig kunnen worden geïllustreerd door metadata te analyseren. Waarbij een anomalie of iets dat lijkt oplicht in het dashboard, en laat zien hoe de gegevens daar zijn gekomen, waardoor de oorzaak te analyseren is.

Door metagegevens te onderzoeken in elk facet van je datawarehouse dat wordt gebruikt om informatie over tabellen, kolommen en rijen met gegevens te genereren. Waardoor een wijziging in gegevens realtime beschikbaar zijn zodat we precies zien wat er gaat gebeuren.

Het vermogen om metadata in te zetten, verbreedt de bruikbaarheid met het oog op datagovernance om alles te omvatten, van referentiegegevens tot gecontroleerde steekwoordenlijsten. Het verzamelen van metadata is van cruciaal belang om er nieuwe inzichten verkrijgen en te voldoen aan de datagovernance.

Een andere aspect van actieve metadata: niet alleen wat bestaat, maar wat kan worden gegenereerd of afgeleid uit iets, waarbij dit expliciet wordt vermeld bij het resultaat.

Toekomst van data

Wat biedt de toekomst op het gebied van tooling en technologieën voor data-analyse en engineering.

Datastacks zijn:

* cloud gebaseerd

* modulair en aanpasbaar

* metadata-gedreven

* draaien op SQL (althans voorlopig)

1. Data lakes en datawarehouses zijn niet meer van elkaar te onderscheiden

Datawarehouses bestaan ​​al tientallen jaren en maakten een sprong voorwaarts met cloudgebaseerde warehousing. Aanpasbare en flexibele data lakes zijn de afgelopen jaren steeds populairder geworden, en we moesten evalueren of een datawarehouse of data lake de juiste keuze was. Die keuze hoeven we in de nabije toekomst niet meer te maken.

“Meer en meer komen data lakes en datawarehouses samen.”

En binnen afzienbare tijd zullen ze niet meer van elkaar te onderscheiden zijn. Het is echt of je het als een bestand bekijkt, of dat je het als een relationele tabel bekijkt. Dat is de juiste abstractie om aan te denken. Er zijn momenten waarop bestanden waardevol zijn, vooral als het gaat om uitwisseling, maar de meeste bewerkingen die we uitvoeren, worden feitelijk uitgevoerd in een relationele architectuur. En zo komen het idee van een data lakes en datawarehouse samen.

2. Analytics worden samengevoegd in op SQL gebaseerde systemen binnen dataplatforms

In feite zijn er cloud platform waar we bovenop kunnen bouwen. En deze analytische systemen zullen opgaan in de dataplatforms. Een zeer competitieve samenvoeging van zowel analyses als geavanceerde analyse- en machine learning-systemen, met op SQL gebaseerde datamanagementsystemen.

3. Universele standaarden zullen verschijnen

We beginnen met het ontwikkelen van standaarden rond datagovernance. Belangrijke standaarden in de moderne datastack met betrekking tot governance, afkomst, inclusiviteit, interoperabiliteit tussen deze platforms en tussen tools.

Governance is geen eenvoudig probleem, maar het is een belangrijk probleem, het beschermen van de informatie is iets dat voor iedereen belangrijk is. Het is belangrijk als het gaat om reputatie. Het is van belang in termen van intellectuele eigendomsrechten. We evolueren en moeten er bovenop blijven zitten. En hoewel de moderne datastack veel ongelooflijke mogelijkheden bieden om met data te werken, ze moeten ook worden beschermd en op de juiste manier worden beheerd om ervoor te zorgen dat alleen de mensen die toegang moeten hebben tot data die toegang krijgen.

4. Voorspellende analyses evolueren

Voorspellende analyses de huidige generatie voorspellende analytische systemen is gebouwd. En hoewel dit effectief is we bevinden ons op een heel, heel primitief niveau. Tot dramatische verbeteringen te zien zijn in de manier waarop machine learning wordt uitgevoerd.

5. De vraag naar kennis

Dataplatforms zullen evolueren om daar aan te voldoen.

De moderne datastack zal zich gaan ontwikkelen om het mogelijk te maken kennis op te bouwen. De logica die bij iets hoort, embed in de database is het onderscheid.

6. Datadeling vereist governance binnen (en tussen) organisaties

Het delen van gegevens zowel binnen organisaties als tussen organisaties, staat centraal in de toekomst.

Data wordt gecreëerd en is een troef die je creëert, waar je vervolgens waarde uit kunt halen en op de juiste manier kunt gebruiken. Data mesh en het idee van organisatieprincipes en domeinoriëntatie van data.

Hoe dat tot stand komt, zal er anders uitzien waarschijnlijk niet een heleboel verschillende datadomeinen. De mechanismen die je gebruikt om dat daadwerkelijk te doen? Het idee van het delen van gegevens om te bouwen aan een ​​domeingericht model. Dat is wat het delen van gegevens is. Data-uitwisseling kan met verschillende domeinen van data-expertise en die data vervolgens weer delen.

Mensen data hebben, en ook de kennis ze die data naartoe willen brengen. Data plus kennis over in een applicatie die autonoom in actie kan komen op basis van wat er binnen die data gebeurt. De volgende generatie datamarktplaatsen en delen omdat we overal expertise bij de hand zullen hebben.

Je hebt misschien niet de capaciteiten van datawetenschappers, maar je kunt ze inlenen. Duizenden analytische gericht op verticale industrieën waar ze expertise over hebben die ze kunnen toepassen.

Om ons te concentreren op het oplossen van het probleem van gegevensvertrouwen om mogelijkheden te bieden voor het werken met data binnen en tussen organisaties. Naarmate er een meer domein georiënteerde architectuur kan worden geadopteerd waarin we gegevens delen of verkopen, hierdoor zal de behoefte aan consistente, branchebrede normen voor vertrouwen en betrouwbaarheid van gegevens dringender worden.

Of het nu gaat om de waarneembaarheid en prestaties van gegevens, of het gaat om metadatabeheer en governance. Er is nog steeds een enorme kans om te verbeteren en problemen op te lossen.

Vertrouwen

De Focus komt te liggen op vertrouwen in de zoektocht naar perfecte data, om de puzzel rond privacy op te lossen

Privacy is een onderwerp aan de bestuurstafel wat moeilijk lijkt te visualiseren. Hoe kunnen we ervoor zorgen dat bedrijven privacy-compliant zijn terwijl ze flexibel blijven voor toekomstige veranderingen?

Inbreukmakend privacyzaken, zoals Cambridge Analytica, hebben het verzamelen en gebruiken van gegevens op de agenda gezet, en we maken ons zorgen over onze gegevens. Updates om de privacy te beschermen zijn inmiddels aan de orde van de dag, waardoor we leren hoe apps gebruikers volgen, evenals de de mogelijkheden van open tracking in e-mails.

Het blijft echter absoluut noodzakelijk dat alle bedrijven een privacy-first beleid gaan volgen, en idealiter een strategie die wendbaar genoeg is om rekening te houden met veranderingen, wetgeving en technologie die de komende jaren zullen plaatsvinden.

Het is van cruciaal belang om elke privacystrategie te centreren rond twee peilers: de mensen die er meewerken en de mensen wie het betreft. Privacyregels nu en in de toekomst zullen worden bepaald op basis van wat nodig is. Door inspanningen te concentreren op het waarborgen van respect en vertrouwen, vormen we de kern, met strategieën die flexibel genoeg zijn om aan de toekomstige veranderingen te voldoen.

Waarbij de zoektocht naar perfecte data een mythe blijkt te zijn die meer kwaad dan goed doet. De waarheid is dat de zoektocht naar perfecte data een inefficiënt gebruik middelen is, aangezien de meeste, zo niet alle, beslissingen kunnen worden genomen zonder deze data.

Bedrijven, organisaties en overheden zouden zich meer op hun gemak moeten voelen bij het nemen van beslissingen op basis van realtime gegevens, die waarschijnlijk niet perfect zijn. Maar bedrijven, organisaties en overheden in staat stelt om strategische beslissingen te nemen op basis van realtime data en flexibel te blijven in het omgaan met veranderingen die plaatsvinden. We denken ten onrechte dat onze persoonlijke gegevens de kern vormen van privacyveranderingen. Data is slechts een strategisch hulpmiddel.

Daarbij moeten we de verleiding om snelle oplossingen te implementeren of te vinden zien te vermijden. En niet zoeken naar technologie die de huidige privacy-uitdagingen oplost.

Privacy is veel meer dan een probleem. Het is een kans om het vertrouwen en de loyaliteit te behouden. De uitdagingen die voor ons liggen, zijn een kans om te heroverwegen en betere manieren te vinden. We lijken verstrikt te zijn geraakt in het najagen van technologie en regelgeving, en zijn vergeten wat er echt toe doet. Als we eerlijk kunnen zeggen dat we blij zijn met de manier waarop onze gegevens worden verzameld, opgeslagen en gebruikt, dan zijn we op de goede weg.

Voorspellende data

Hoe big data de toekomst gaat vormgeven en de toekomst van alles is. Hoe kan big data helpen nieuwe ervaringen te creëren en de juiste doelgroepen te bereiken?

Big data en analyses van workflows beïnvloeden prestaties en hebben ze versneld.

We ontdekken langzaam hoeveel verschillende sectoren de nieuwe mogelijkheden met analyses door een datagestuurde cultuur te omarmen en uitgaven verlagen en tegelijkertijd nieuwe inkomsten en groeimogelijkheden openen.

Het valt niet te ontkennen dat de acceptatie van Big Data een uitdagend en tijdrovend proces kan zijn. Maar eenmaal geaccepteerd kan Big Data helpen bij het optimaliseren van digitale strategieën.

Big Data is essentieel, omdat het ons in staat stelt het gedrag en de intenties van personen te achterhalen. De trend van voorspellende analyses heeft de wereld in een storm overnomen, en daarop zijn er bijna geen uitzonderingen.

De grote vraag naar en de steeds groter wordende hoeveelheden gegenereerde gegevens creëren een sterke behoefte aan nieuwe benaderingen en technologieën voor gegevensanalyse.

Dat is de reden waarom uitgebreide databases worden verwerkt met machine learning-algoritmen.

Big Data om de ervaring en personalisatie te verbeteren en de vrucht van uitgebreide datagebruik. Met machine learning-algoritmen synchroniseren we gegevens om de efficiëntie van beoordelingen en recensies te verbeteren.

Om het maximale uit Big Data te halen, moeten we nieuwe technologieën omarmen en ervoor zorgen dat er voldoende middelen zijn voor verdere analyse. Met de snelle ontwikkeling van AI is ook de vraag naar Big Data enorm gestegen. De reden hiervoor is vrij eenvoudig:. AI-toepassingen hebben grote datasets nodig om algoritmen te trainen.

Dit is echter niet alles. We gebruiken Big Data om AI gebaseerde strategieën te verbeteren en de betrokkenheid te vergroten.

Big Data in combinatie met AI verbetert de digitale strategie op meerdere manieren door de groei te stimuleren, de gebruikerservaring te verbeteren en de workflow te automatiseren.

Slechts een paar jaar geleden was het niet ongebruikelijk dat we tientallen uren besteedden aan het uitzoeken wat er mis ging met campagnes.

Big Data vertraagt ​​en vernietigt uiteindelijk de traditionele rapportage.

Het enige wat daardoor zeker wisten, was of campagnes liepen en hoeveel van het budget er nog over was.

Tegenwoordig wordt er steeds meer geautomatiseerd en kunnen we nu 24/7/365 de vinger aan de pols houden en snel de problemen lokaliseren door alle data te stroomlijnen. Daarbij hebben we alle benodigde gegevens om te zien wat en waarom iets gebeurd en hoe groot impact is, en dat allemaal zonder rapportages die nodig zijn om die gegevens te verzamelen en te analyseren.

Snel groeiende hoeveelheden informatie hebben ons nieuwe technologieën opgeleverd voor de organisatie en consolidatie van gegevens. Door gebruik te maken van Big Data kunnen we voorspellen hoe dingen zouden kunnen verlopen zonder snelheid van levering en flexibiliteit te verliezen.

Bovendien besparen we met geautomatiseerde gegevensnormalisatie en datamapping op routinematige gegevensbewerkingen. Het stelt ons in staat om ons te concentreren op de analyse zelf in plaats van handmatig gegevens te verzamelen en te matchen.

En bruikbare inzichten uit data kunnen halen, om zo de vruchten plukken van big data.

Differentiële privacy

Leer machines leren en AI-technieken toe te passen op gegevens en ontdek hoe ethische kaders u kunnen helpen voorkomen dat u uw machines slechte gewoonten aanleert

Er zijn veel toepassingen waarin machine learning de samenleving ten goede zou kunnen komen als de privacy van gegevens kon worden gegarandeerd. 

Er is een enorm potentieel voor het verbeteren van of het vinden van patronen, bijvoorbeeld als we machine learning-systemen zouden kunnen trainen om patronen te herkennen in grote databases met gegevens.

Iets wat tegenwoordig in wezen onmogelijk is omdat methoden voor gegevensprivacy nog niet schaalbaar zijn.

Met behulp van Differentiële privacy kan een kleine samenvatting van een enorme database met gevoelige records worden gemaakt.

Deze samenvattingen zijn veilig en kunnen openbaar beschikbaar worden gemaakt voor algoritmen die het gebruiken als een van de basisbouwstenen van machine learning, en voor machine learning-programma’s die algemene taken uitvoeren zoals classificatie, rangschikking en regressieanalyse. Het zou ons in staat stellen om zo de vruchten te plukken van grootschalige, gedistribueerde machine learning als een rigoureuze vorm van gegevensprivacy, differentiële privacy genaamd, te handhaven.

Differentiële privacy, die door meer dan één technologiegigant wordt gebruikt, is gebaseerd op het idee om willekeurige ruis toe te voegen om individuele informatie te verduisteren.

Er zijn tegenwoordig elegante en krachtige technieken om te voldoen aan de verschillende privacynormen, maar geen een daarvan is schaalbaar.

De computationele overhead en de geheugenvereisten groeien exponentieel naarmate gegevens meer dimensionaal worden.

Gegevens worden steeds hoger-dimensionaal, wat betekent dat ze zowel veel waarnemingen als veel individuele kenmerken van elke waarneming bevatten.

De samenvattingen die via Differentiële privacy zijn gemaakt, zijn klein en de reken- en geheugenvereisten om ze te maken, zijn ook gemakkelijk te spreiden.

Bedrijven moeten tegenwoordig kiezen ofwel hun budget of de privacy van hun gebruikers opofferen als ze grote hoeveelheden data willen gebruiken, verandert de welwillendheid rond het vrijgeven van hoogdimensionale informatie met differentiële privacy.

Dan is het eenvoudig, snel en 100 keer goedkoper om te gebruiken dan bestaande methoden.

Dit is de nieuwste innovatie, en de talloze algoritmische strategieën hebben het in zich om verder te ontwikkelen, om zo machine learning en datawetenschap sneller en schaalbaarder te maken.

Data risico’s

Elke nieuwe dag brengt met zich mee dat er iemand slachtoffer is geworden van een cyberaanval. De kosten waarmee we daardoor worden geconfronteerd, zijn enorm: verloren kritieke gegevens, gestolen activa en beschadigde reputaties.

Hoeveel beveiliging “net genoeg” is nodig om dit te voorkomen? 

We zijn gewent om beslissingen te nemen op basis van risico. Een effectief risico identificeren en een echt risico identificeren en bepalen hoe dit risico tot een acceptabel niveau kan worden teruggebracht.

Door een acceptabel niveau van cyberrisico’s in te calculeren en inventariseren, wordt cyberbeveiliging een onderdeel van ons dagelijks leven. En de beste manier om dit te doen, is door een risicobeoordeling te maken.

Er zijn simpelweg te veel bedreigingen, te veel potentiële kwetsbaarheden die zouden kunnen bestaan, en simpelweg niet genoeg middelen om een ​​onneembare beveiligingsinfrastructuur te creëren.

Over het algemeen helpen risicobeoordelingen bij het bepalen van beveiligingsrisico’s door het volgende te doen:

Het identificeren, inschatten en prioriteren van risico’s.

Het bepalen van de mogelijke bedreigingen van kwaadwillenden die de vertrouwelijkheid, integriteit of beschikbaarheid van de informatie die we verwerken, opslaan of verzenden in gevaar kunnen brengen.

Identificeren welke maatregelen of controles er zijn om de kritieke activa te beschermen en welke maatregelen/controles ontbreken.

Na het aanbevelen van preventieve maatregelen en het investeren in beveiligingsupgrades om hoge risiconiveaus te verminderen.

Wat betekent dit? Het hangt af van veel dingen. Want niet alle risico’s gelijk.

Een risicobeoordeling zou ons kunnen vertellen waaraan we prioriteit moeten geven, aan preventie om de vertrouwelijkheid van onze gegevens te beschermen met privacygerelateerde controles en andere beveiligingsmaatregelen. De risicobeoordeling kan er ook op wijzen dat we kwetsbaar zijn voor een ransomware-aanval, dus moeten we een herstelplan implementeren en dagelijkse en wekelijkse systeemback-ups maken. Maar de risicobeoordeling kan erop wijzen dat er minder risico is voor de beschikbaarheid of integriteit van onze gegevens, zodat we niet zoveel in deze gebieden hoeven te investeren.

Een risicobeoordeling zet immateriële concepten zoals veiligheid, risico en preventie om in tastbare realiteiten met werkelijke kosten. Onopgemerkte/onvoorziene cyberaanvallen kunnen immers gelijk staan aan financiële rampspoed. En dat is een onvermijdelijkheid in de onderling verbonden wereld van vandaag.

Een wereld waarin onze data een steeds belangrijkere rol heeft zou het beschermen van onze persoonlijke data een hoge prioriteit moeten hebben. Echter ondanks alle goede voornemens zijn onze pogingen tot het beschermen van onze persoonlijke data meestal al gestrand voordat we er echt aan zijn begonnen. 

En ondertussen hebben veel van onze apps, bezochte websites en browsers meer informatie over ons dan we zelf op onze harde schijf hebben staan. Daarbij blijken we steeds meer informatie ongewild te lekken aan grote bedrijven die deze persoonlijke data zien als verdienmodel. En daarbij niet schromen om onze inloggegevens te stelen en op te slaan. Als deze gegevens dan ook nog worden gedeeld en samengevoegd ontstaan er profielen die het niet zo nou met de waarheid nemen.

En belanden we op lijstjes op basis van een eenmalige zoekactie of een gekocht item. Soms ook omdat iemand iets verdachts heeft gezien of omdat een van de buren betrokken is geraakt in een onderzoek. Deze informatie is interessant voor cybercriminelen maar ook voor bedrijven, instanties en overheden.

Het verzamelen en delen van persoonlijke data door overheden, organisaties en bedrijven is dus eigenlijk een bedreiging voor onze persoonlijke data. Een risicobeoordeling zou ook hier op zijn plek zijn en zet immateriële concepten zoals vrijheid, veiligheid, risico en preventie om in tastbare realiteiten met werkelijke dreigingen. Onopgemerkte/onvoorziene blijkt het verzamelen en delen van data door overheden, organisaties en bedrijven gelijk kunnen staan aan cyberaanvallen immers gecombineerde data staat meestal ook gelijk aan financiële rampspoed.

Standaard Privacy

Naarmate de normen voor gegevensprivacy zich steeds verder ontwikkelen, zal strengere naleving steeds meer onderdeel worden van onze samenleving.

Gegevensprivacy wordt van ons het nieuwe normaal en een integraal onderdeel van ons leven, met verschillende wetten die over de hele wereld evolueren.

Belangrijk om te overwegen bij gegevensprivacy en -bescherming die onze interesse kan aan te wakkeren, is bewustzijn.

De gegevens die we aanleveren, zijn gebaseerd op het vertrouwen dat we stellen in een organisatie of merk.

De werkwijze moet veranderen naar ‘privacy by default’ om vertrouwen te bouwen, in plaats van ‘privacy by design’ om naleving te bereiken.

Gegevensprivacy moet een integraal onderdeel van elke dienst, artikel of service die we afnemen, met inachtneming van verschillende wetten die zich over de hele wereld aan het ontwikkelen zijn.

Bedrijven, overheden en organisaties kunnen verschillende soorten gegevens verwerken, waaronder persoonsgegevens. Het beheren van deze enorme hoeveelheid gegevens wordt een zware taak met technologische vooruitgang en een hoeveelheid gegevens die elke seconde groeit.

Alvorens in te gaan op de talrijke wetten en normen voor gegevensprivacy, is het van cruciaal belang om eerst te begrijpen wat persoonlijk data is. Persoonlijke data is informatie die kan worden gebruikt om de identiteit van een persoon te bepalen op basis van hun persoonlijke informatie. Elke wet- en regelgeving op het gebied van gegevensprivacy definieert dit anders.

Volgens de privacywet van de Europese Unie (EU), AVG (Algemene Verordening Gegevensbescherming), zijn persoonlijke gegevens, data die bestaat uit persoonlijke of gevoelige gegevens, zoals voornaam, achternaam, adres, identificatienummer of factoren zoals biometrie, culturele, sociale identiteit, economische , mentaal of genetisch. Evenzo wordt informatie met betrekking tot de gezondheid van een persoon beschouwd als persoonlijke gegevens, samen met adres, rijbewijs, burgerservicenummer , creditcardgegevens en paspoortnummer.

De AVG is een uitgebreide verordening inzake gegevensprivacy die zich concentreert op de bescherming van de persoonlijke gegevens van EU-ingezetenen, ongeacht de locatie of bedrijf, overheid, organisatie die die gegevens verwerkt.

De Indiase Data Privacy Act – de voorgestelde Indiase wet op de bescherming van persoonsgegevens (PDPB) de persoonlijke informatie van Indiërs beschermen.

De California Consumer Privacy Act (CCPA) is ingevoerd om de gegevensprivacyrechten en consumentenbescherming voor inwoners van Californië te versterken.

En als laatste voor nu de implementatie van de wet op de bescherming van persoonsgegevens die in China is aangenomen. De wet Personal Information Protection Law (PIPL) gaat op 1 november in. 

De rechten van een persoon om erop te vertrouwen dat anderen de bijbehorende persoonlijke en gevoelige informatie op gepaste en respectvolle wijze zullen gebruiken, opslaan, delen en verwijderen binnen de context en in overeenstemming met de doeleinden waarvoor deze is verzameld of afgeleid.

Afgezien van compliance, is een van de grootste uitdagingen waarmee een bedrijf, overheid of organisatie kan worden geconfronteerd op het gebied van gegevensprivacy- en beschermingsregels, het naleven van tal van wetten, vooral wanneer het gaat om gebruikers in verschillende landen, regio’s en gebieden.

De grote zorg is hoe te voldoen aan de vereisten voor gegevensprivacy, waaronder weten wie de verwerkers en verwerkingsverantwoordelijken zijn en wat hun rollen zijn.

Een andere kernzorg betreft het beheer van grensoverschrijdende overdrachten van gegevens en het waarborgen van de veiligheid van de verwerking van persoonsgegevens in de bedrijven, overheden en organisaties of door een derde partij.

Deze taak is immens, maar het is belangrijk om hoge boetes en straffen te vermijden en het vertrouwen bij klanten te behouden. Een van de belangrijke pijlers is “Privacy for Trust”. Privacy is een recht dat aan individuen wordt verleend.

De gegevens die van gebruikers, werknemers of klanten worden verzameld en verwerkt voor zakelijke functionaliteit zijn cruciaal. De gegevens die gebruikers, werknemers of klanten aanleveren, zijn gebaseerd op het vertrouwen dat ze stellen in een bedrijf, overheid, organisatie of merk.

Gebruikers, werknemers of klanten zijn de belangrijkste bron van groei voor elke bedrijf of organisatie, ongeacht de grootte, en hun vertrouwen is als de motorolie die het bedrijf of organisatie draaiende houdt. Gegevens van gebruikers, werknemers en klanten zijn eveneens van cruciaal belang in termen van privacy.

Het essentiële punt is data verzamelen transparant en wettig dient te zijn, en dat er vooraf toestemming is gevraagd voor gebruik, om ervoor te zorgen dat we de bedrijven, overheden en organisaties kunnen vertrouwen met onze gegevens.

En werknemers,klanten en gebruikers moeten volledige zeggenschap hebben over persoonsgegevens. Het beste voorbeeld zijn de cookie-instellingen op de website van de bedrijven, overheden en organisaties, die voor veel gebruikers als vervelend worden ervaren, hoewel de pop-up cruciaal is voor zowel de werknemers, klanten, gebruikers als de bedrijven, overheden en organisaties.

Naarmate de wetten, voorschriften en normen op het gebied van gegevensprivacy zich ontwikkelen, zal een strengere naleving verplicht worden en zal de vraag naar privacy en bescherming toenemen.

Privacy by Design zal worden gebruikt om naleving van de privacyvereisten te waarborgen naarmate nieuwe technologieën en werkmodellen worden ontwikkeld en geïmplementeerd.

Maar pas als bedrijven, overheden en organisaties een Privacybeleid standaard hanteren, verbetert ook het vertrouwen dat werknemers, gebruikers en klanten zullen hebben in bedrijven, overheden en organisaties.

Verwerking/strategie.

Databewerkingen en Datastrategie: zijn niet één en hetzelfde

In het competitieve datalandschap van vandaag correleert het hebben van een goede strategie met betere data intelligentie en data optimalisatie binnen een organisatie. Het doorbreken van het gebruik van data silo’s en het mogelijk maken van datademocratisering voor een betere flexibiliteit en schaalbaarheid. Maar de datastrategie als methodologie moet niet worden verward met databewerkingen, waarmee organisaties de waarde van de data die ze bezitten en de infrastructuur die deze ondersteunt, kunnen maximaliseren om de doelstelling voor het bereiken van volledig gerealiseerde data-empowerment te versnellen. Dat wil zeggen, de mogelijkheid om data te gebruiken om te transformeren en alles te kunnen veranderen.

Maar om de kansen die data ons bied volledig te begrijpen, moeten we eerst herkennen waar datastrategie en alle andere strategieën kritieke processen kunnen versterken, en begrijpen hoe de belangrijkste strategieën dienovereenkomstig passen in de adoptie van datastrategieën.

Datastrategie versus databewerkingen wat is het verschil?

Datastrategie is het samenvoegen van verschillende datastromen voor gegevensbeheer die is gericht op het verbeteren van de communicatie, integratie en automatisering van gegevensstromen voor gegevensbeheerders en consumenten binnen een organisatie. Het doel van datastrategie is om sneller waarde te genereren door voorspelbare toelevering en wijzigingsbeheer van gegevens, gegevensmodellen en gerelateerde objecten te creëren. Datastrategie gebruikt technologie om het ontwerp, de implementatie en het beheer van datastromen te automatiseren met de juiste beveiligingsnormen voorgeschreven in de wetgeving, en het gebruikt metadata om de bruikbaarheid en waarde van data in een dynamische omgeving te verbeteren.

Datastrategie, op zich bestaat al enkele jaren, en is nog steeds een evoluerend concept. Uit een recent onderzoek bleek dat een mix van handmatige en geautomatiseerde processen bij minder dan de helft van alle organisaties reeds de praktijk is, maar dat er ruimte is om meer automatisering in gegevensverwerking op. Daarbij was bijna elk organisatie dat deelnam aan het onderzoek het eens. Als dit goed wordt gedaan, kan datastrategie zorgen voor data-analyseteams die datastromen lokaliseren en de algehele samenwerking tussen organisatie onderdelen verbeteren. Dat is datastrategie in een notendop, maar dataverwerking is veel meer dan dat.

Wat gegevensverwerking anders doet, is rekening houden met de bredere kijk op de gegevens, die in een hybride infrastructuur aanwezig zijn. Met meer aandacht voor welke gegevens er zijn, waar de gegevens zich bevinden en de operationele behoeften van gegevens en prestaties om het potentieel te maximaliseren. Als de kennis over gegevensverwerking niet aanwezig is, kunnen echt innovatieve gegevensbewerkingen niet worden gerealiseerd. In wezen is het alleen mogelijk door de integratie van een volledig geoptimaliseerde datastrategie, met een degelijke gegevensverwerkingsplan, kan data-intelligentie kan worden bereikt.

Gegevensverwerking lijkt een cruciale pijler voor het realiseren van vertrouwen data gegenereerde beslissingen.

Samen met data wetgeving en gegevensbescherming spelen datastrategie en dataverwerking een essentiële rol bij het democratiseren van data die ons in staat te stellen de volledige mogelijkheden van data te realiseren; met als einddoel datavolwassenheid. Als we over data beschikken, zijn we beter in staat om data te benutten om operationele en strategische beslissingen te stimuleren, naleving van de regelgeving te monitoren en groei te stimuleren.

Naarmate het bewustzijn en acceptatie van datastrategieën steeds weer een stukje groter wordt, zal het interessant zijn om te zien welke strategieën het volgende middelpunt worden binnen onze samenleving. En hoe we de te volgen strategie kunnen uitleggen aan iedereen die er een onderdeel van is.

Data-analyse

Data-analyse is de verwerking van onbewerkte gegevens tot nieuwe en nuttige inzichten die bedrijven kunnen helpen transformeren, innovatie versnellen en toekomstige resultaten voorspellen.

Data-analyse kan ons helpen het verleden te begrijpen en de toekomst te vormen, zo dan niet te bepalen. Met andere woorden, een goede data-analyse kan het verschil zijn tussen succes en een gemiste kans.

Hoewel het concept van data-analyse al bestaat sinds de jaren veertig van de vorige eeuw, technologische ontwikkelingen hebben in de afgelopen decennia geleid tot een exponentiële toename van het genereren van gegevens, of het nu gaat om internet, of de snelle opkomst van slimme technologie binnen of buiten ons huis. Wat overblijft zijn virtuele bergen van gegevens die wachten om verwerkt te worden.

Hoe interpreteren we de vele vormen van data, en met behulp van welke methoden zoals datamining, databeheer en statistische analyse gaan we werken. Het rigoureuze extraheren en scrubben van gestructureerde, semi-gestructureerde en ongestructureerde gegevens. Om inzichten te ontdekken die klaar zijn om te delen, en bevindingen in de vorm van datavisualisatie, waardoor we de nieuwe informatie gemakkelijk kunnen verwerken.

Elke stap van het proces speelt een cruciale rol bij het creëren van betekenisvolle nieuwe richtingen en innovaties.

Hoewel de exacte methode van data-analyse verschilt van applicatie tot applicatie, vallen ze elk in een of meerdere categorieën: prescriptief, diagnostisch, beschrijvend, voorspellend en cyber.

Prescriptieve analyse: helpt bij het identificeren van de best mogelijke aanbeveling voor een scenario in realtime, net als een kortetermijnversie van voorspellende analyses.

Diagnostische analyse: bepaalt waarom iets is gebeurd, met behulp van technieken zoals datamining, drill-downs en correlaties om trends te identificeren en beslissende acties te ondernemen.

Beschrijvende analyse: net als diagnostische analyse, kamt historische gegevens uit om een ​​nieuw perspectief te vinden. Maar in plaats van te beantwoorden waarom iets is gebeurd, geeft beschrijvende analyse meer details over wat er is gebeurd, met behulp van tactieken zoals statistieken, clustering en segmentatie.

Voorspellende analyse: zoals de naam al aangeeft, voorspelt deze techniek toekomstige resultaten op basis van statistieken, modellering, datamining, machine learning en andere vormen van gegevens.

Cyberanalyse: een van de nieuwste vormen van analyse, deze methodologie combineert aspecten van cyberbeveiliging en datawetenschap om potentiële kwetsbaarheden en bestaande cyberbedreigingen te identificeren.

Wat er ook gebeurt, we gebruiken de methode die zal helpen de vraag die we proberen te beantwoorden, te ontrafelen, met behulp van een willekeurig aantal analytische tools en platforms die vandaag beschikbaar zijn.

Moderne data-analyse kan een gemist potentieel omzetten in krachtige inzichten. Door diepgaande data-analyse kunnen we de wereld om ons heen beter begrijpen, inclusief onze eigen interne werkomgeving. Gegevens zijn zelfs een van de belangrijkste redenen waarom we zinvolle, geïnformeerde acties kunnen ondernemen en innovatieve producten kunnen lanceren, vaak in een versneld tempo. Tegenwoordig is data-analyse altijd in beweging, waarbij op elk moment een verscheidenheid aan menselijke en technologische bronnen wordt gecombineerd.

Door gedrag van mensen in een willekeurig aantal bronnen in kaart te brengen, kunnen we potentiële en bestaande relaties van dichterbij bekijken, wat kan leiden tot meer gepersonaliseerde ervaringen in digitale en traditionele wereld. Deze ervaringen kunnen vrijwel van alles zijn, van gerichte e-mail- en sociale campagnes tot zorgvuldig vervaardigde winkeldisplays en bewegwijzering tot relevantere productaanbevelingen. Inzichten kunnen zelfs leiden tot nieuwe producten en diensten.

Het is echter belangrijk om te onthouden dat niet alle gegevens van mensen afkomstig zijn, het kan ook worden verzameld vanuit een willekeurig aantal andere bronnen. Het Internet of Things (IoT) en machine learning maken het mogelijk om petabytes aan onbewerkte gegevens te verzamelen van externe sensoren die overal ter wereld zijn geplaatst, van de rand van een thermische geiser tot een slimme thermostaat voor in huis.

Opendata

Open data zou gestructureerde, leesbare data moeten zijn die vrijelijk gedeeld, gebruikt en samengesteld kan worden zonder beperkingen of kosten.

Maar bezoek een Open Data Portal van de stad, gemeente of overheidsdienst om de beschikbare open data gratis te downloaden. En ondervind dat er aan veel open data voorwaarden worden gesteld die de bruikbaarheid inperken.

Instanties zullen proactief datasets op hun Open Data Portal blijven publiceren en het publiek kan soms ook suggesties doen over datasets die als open data kunnen worden vrijgegeven. Deze programma’s zullen doorlopend en binnen de bestaande middelen worden uitgevoerd.

Echter heeft deze manier van werken een nadeel zodra meer mensen gebruik maken stijgen de kosten voor het beschikbaar maken van data. Dit zorgt ervoor dat er beperkingen worden ingesteld om de kosten binnen de bestaande middelen te laten vallen.

Open data met een licentie die weinig beperkingen kent, zodat de data eenvoudig hergebruikt kunnen worden. Lijkt dus nu nog een utopie door de beperkte beschikbaarheid ingegeven door de kosten die worden gemaakt om data beschikbaar te stellen.

Datasets die als open data worden vrijgegeven, worden geleverd zoals ze zijn verzameld, tenzij privacy-, contractuele, beveiligings-, privilege- of andere beperkingen de vrijgave van alle of delen van de data in de dataset beperken.

De afgelopen jaren hebben ontwikkelaars die open data van stad, gemeente of overheidsdienst gebruikt om gratis web- of mobiele applicaties te ontwikkelen, zoals verkeersveiligheid-apps, meldingen over bouwvergunningen in de buurt, parkeer-apps, inspectie-apps, monitoren van waterkwaliteit, plattegronden, enz.

Voorstanders en organisaties zoals het Global Open Data initiatief willen dat gegevens van overheden openbaar toegankelijk zijn, aangezien publiek geld werd gebruikt om deze gegevens te verzamelen. De open data-beweging wint wereldwijd aan terrein en open data  door steeds meer door steden, gemeenten of overheidsdiensten geadopteerd.

Burgers, organisaties en bedrijven willen dat steden, gemeenten of overheidsdiensten die over open data beschikken deze beschikbaar stellen omdat zij kunnen profiteren van de informatie en er waarde aan kunnen toevoegen.

Daarbij kan Open Data de transparantie en verantwoordingsplicht verbeteren;

Vertrouwen opbouwen tussen de steden, gemeenten of overheidsdiensten en de burgerij;

De betrokkenheid van burgers bevorderen en hen in staat te stellen beter geïnformeerde input te leveren aan de steden, gemeenten of overheidsdiensten;

De effectiviteit en efficiëntie van de steden, gemeenten of overheidsdiensten verbeteren;

Het verbeteren van de communicatie en het delen van gegevens met andere steden, gemeenten of overheidsdiensten gelijke toegang bieden;

De waarde van data vergroten door er waarde aan toe te laten voegen; en

bijdragen aan innovatie en economische groei.

Open data transformeert steden, gemeenten of overheidsdiensten van dienstverleners naar organisaties die groei stimuleren en inspireren. Open data wordt daarmee een waardevolle hulpbron van deze eeuw.

Ook al zullen Privacy, beveiliging en juridische implicaties altijd een overweging blijven. Het vrijgeven van datasets moet voldoen aan de vereisten van de Wetgeving op het gebied van de privacy en alle andere toepasselijke wetgeving. Datasets die persoonlijk identificeerbare informatie bevatten of onderworpen zijn aan enige privacy-, veiligheids-, wettelijke of andere beperkingen kunnen niet worden vrijgegeven als open data.

De steden, gemeenten of overheidsdiensten kunnen ook contractuele of andere verplichtingen hebben, die beschikbaar stellen van de gegevens kunnen beperken die op het Open Data Portal kunnen worden gepubliceerd. Wanneer een dataset niet kan worden vrijgegeven als zodanig vanwege beperkingen, zullen de steden, gemeenten of overheidsdiensten moeten evalueren of een aangepaste versie van de dataset kan worden vrijgegeven die aan alle vereisten zou kunnen voldoen.

“Open Data als standaard ” is het eerste principe van het G8 Open Data Handvest, die reeds in 2013 werd aangenomen.