Digital Services Act

Regulerende platforms voor een veiligere online omgeving voor gebruikers.

Maatregelen om illegale producten, diensten en online-inhoud tegen te gaan, inclusief duidelijk omschreven procedures om deze te verwijderen.

Meer opties voor tracking-free adverteren en een verbod op het gebruik van de gegevens van een minderjarige voor gerichte advertenties.

Ontvangers van diensten hebben het recht om schadevergoeding te eisen.

Verplichte risicobeoordelingen en meer transparantie over algoritmen om schadelijke inhoud en desinformatie te bestrijden.

De Digital Services Act behandelt problemen die ons dagelijks leven beïnvloeden, ook wanneer we communiceren in sociale-medianetwerken op het internet.

De leden van het Europees Parlement zijn het eens geworden over een reeks conceptmaatregelen om illegale inhoud aan te pakken, ervoor te zorgen dat platforms verantwoordelijk worden gehouden voor hun algoritmen en om de moderatie van inhoud te verbeteren.

De tekst die vandaag door het Parlement is goedgekeurd met 530 stemmen voor en 78 tegen en 80 onthoudingen, zal worden gebruikt als onderhandelingsmandaat met het Franse voorzitterschap van de Raad, dat de lidstaten vertegenwoordigt.

Na de stemming zei Christel Schaldemose (S&D, DK), die het onderhandelingsteam van het Parlement leidt: “De stemming van vandaag toont aan dat de leden van het Europees Parlement en de EU-burgers een ambitieuze digitale verordening willen die geschikt is voor de toekomst. Er is veel veranderd in de 20 jaar sinds we de e-commercerichtlijn hebben aangenomen. Online platforms zijn steeds belangrijker geworden in ons dagelijks leven en brengen nieuwe kansen, maar ook nieuwe risico’s met zich mee. Het is onze plicht om ervoor te zorgen dat wat offline illegaal is, ook online illegaal is. We moeten ervoor zorgen dat we digitale regels invoeren in het voordeel van consumenten en burgers. Nu kunnen we onderhandelingen aangaan met de Raad en ik denk dat we deze kwesties kunnen waarmaken”.

Illegale inhoud verwijderen en de verspreiding van desinformatie voorkomen.

Het voorstel van de Digital Services Act (DSA) definieert duidelijke verantwoordelijkheden en aansprakelijkheid voor aanbieders van intermediaire diensten, en met name online platforms, zoals sociale media en marktplaatsen.

De Digital Services Act stelt een “kennisgevings- en actie”-mechanisme in, evenals waarborgen, voor het verwijderen van illegale producten, diensten of online inhoud. Aanbieders van hostingdiensten moeten handelen na ontvangst van een dergelijke kennisgeving “zonder onnodige vertraging, rekening houdend met het soort illegale inhoud dat wordt gemeld en de urgentie om actie te ondernemen”. De leden van het Europees Parlement hebben ook sterkere waarborgen ingebouwd om ervoor te zorgen dat kennisgevingen worden verwerkt op een niet-willekeurige en niet-discriminerende manier en met respect voor de grondrechten, waaronder de vrijheid van meningsuiting.

Online marktplaatsen moeten ervoor zorgen dat consumenten veilige producten online kunnen kopen, zeggen Europarlementariërs, waardoor de verplichting om handelaren te traceren wordt versterkt (het ‘ken je klant’-principe).

Aanvullende verplichtingen voor zeer grote platforms.

Zeer grote onlineplatforms (VLOP’s) zullen onderworpen zijn aan specifieke verplichtingen vanwege de specifieke risico’s die ze met zich meebrengen met betrekking tot de verspreiding van zowel illegale als schadelijke inhoud. De Digital Services Act zou helpen schadelijke inhoud (die misschien niet illegaal is) en de verspreiding van desinformatie aan te pakken door bepalingen op te nemen over verplichte risicobeoordelingen, risicobeperkende maatregelen, onafhankelijke audits en de transparantie van zogenaamde “aanbevelingssystemen” (algoritmen die bepalen wat gebruikers zien).

Andere belangrijke punten:

Het Parlement heeft verschillende wijzigingen aangebracht in het voorstel van de Commissie, onder meer met betrekking tot:

Micro- en kleine ondernemingen vrijstellen van bepaalde DSA-verplichtingen;

Gerichte reclame: de tekst voorziet in een meer transparante en geïnformeerde keuze voor de ontvangers van digitale diensten, met inbegrip van informatie over hoe hun gegevens te gelde zullen worden gemaakt. Het weigeren van toestemming zal voor de ontvanger niet moeilijker of tijdrovender zijn dan het geven van toestemming. Als hun toestemming wordt geweigerd of ingetrokken, krijgen de ontvangers andere opties om toegang te krijgen tot het online platform, waaronder “opties op basis van trackingvrije advertenties”;

Targeting- of amplificatietechnieken waarbij gegevens van minderjarigen worden gebruikt voor het weergeven van advertenties worden verboden, evenals het targeten van individuen op basis van speciale gegevenscategorieën die het mogelijk maken kwetsbare groepen te targeten;

Compensatie: ontvangers van digitale diensten en organisaties die hen vertegenwoordigen, moeten verhaal kunnen halen voor eventuele schade die voortvloeit uit platforms die hun zorgvuldigheidsverplichtingen niet naleven;

Het moet onlineplatforms worden verboden om misleidende of nudging-technieken te gebruiken om het gedrag van gebruikers te beïnvloeden door middel van “donkere patronen”;

Meer keuze in op algoritmen gebaseerde rangschikking: VLOP’s moeten ten minste één aanbevelingssysteem bieden dat niet is gebaseerd op profilering.

Verdere amendementen die in de plenaire vergadering zijn goedgekeurd, hebben betrekking op de noodzaak voor aanbieders om in hun algemene voorwaarden de vrijheid van meningsuiting en vrijheid en pluralisme van de media te respecteren, evenals een nieuwe bepaling over het recht van anoniem gebruiken en betalen voor digitale diensten.

Geen Cookie

Toekomst zonder cookie, de ondergang van de cookie wat betekent dat.

De toekomst zonder cookies baart veel marketeers zorgen. In de afgelopen jaren zijn ze gewend geraakt aan het hebben van een enorme hoeveelheid gegevens om hun werk te ondersteunen, strategieën te optimaliseren en campagnes in te richten.

Naarmate het digitale tijdperk vordert, worden er steeds meer gegevens gegenereerd en verzameld.

Elke keer dat we op een link klikken of naar een webpagina gaan, laten we sporen achter terwijl we op het internet surfen.

De gegevens die websites over ons verzamelen, worden cookies genoemd. Helpen bedrijven bezoekers die hun website bezoeken beter te begrijpen en hun ervaringen op de website te verbeteren.

Het probleem is dat het verzamelen en gebruiken van deze gegevens niet geheel onomstreden meer is. Er is twijfel ontstaan met betrekking tot de privacy van gebruikers.

Het probleem is zo hot dat de meest gebruikte browser ter wereld, het einde van cookies van derden heeft aankondigt.

Deze maatregel draagt ​​bij aan de bescherming van persoonsgegevens, maar heeft tegelijkertijd invloed op digitale marketingstrategieën die de afgelopen jaren op browsercookies vertrouwden.

Het doel van deze cookies is belangrijke gegevens op te slaan en uw browse-ervaring te helpen verbeteren. En ze worden door meeste websites gebruikt en zijn tegenwoordig een standaard bijvangst voor het gebruik van internet.

Cookies bewaren de toegangsgeschiedenis van de gebruiker tot pagina’s en applicaties en hun interacties (klikken, formulieren, wachtwoorden, enz.) voor een bepaalde periode.

Dus elke keer dat de we de website opnieuw bezoeken die de cookies heeft verzonden, stuurt de browser de gegevens terug zodat de pagina’s sneller worden geladen, met al de voorkeuren van eerdere bezoeken.

Naast het optimaliseren van websitebezoeken, dienen cookies ook om digitale marketingstrategieën te verbeteren door de ervaring te personaliseren en de inhoud af te stemmen op de interesses en het gedrag van elke bezoeker.

Om te begrijpen wat cookies zijn en waarom dit onderwerp de laatste tijd hot is, is het ook essentieel om de verschillen te kennen tussen first-party cookies en cookies van derden.

Beide soorten cookies werken technisch gezien op dezelfde manier. Dit zijn gegevens die door de website worden verzameld en naar de browser worden verzonden, met de browsegeschiedenis en interacties van elke gebruiker.

Het verschil tussen eerste en derde partij cookies is hoe ze worden verzameld en waarvoor ze worden gebruikt.

First-party cookies worden gemaakt door dezelfde website die we bezoeken.

Ze verzamelen gegevens zoals taal- en betalingsmethodevoorkeuren, formulierinformatie zoals gebruikersnaam en wachtwoord, producten die in het winkelwagentje zijn opgeslagen, enzovoort.

Cookies van derden worden gemaakt door een ander domein dan het domein dat de gebruiker bezoekt. Ze worden over het algemeen gebruikt voor marketing- en reclamedoeleinden, omdat ze:

Controleer de navigatie van de gebruiker tussen verschillende websites (cross-site tracking).

Directe retargeting-advertenties, op basis van gedrag in het verleden.

Advertenties op een geoptimaliseerde manier weergeven op verschillende websites (adserving).

De huidige oorzaak van controverse zijn cookies van derden, die al zijn stopgezet in sommige browsers, waaronder Google Chrome.

Cookies kunnen voor veel verschillende doeleinden worden gebruikt.

Ondanks de controverse over gegevensprivacy, zijn cookies niet altijd slecht.

Over het algemeen worden cookies gebruikt om de webervaringen van gebruikers te optimaliseren en de inhoud en advertenties die ze te zien krijgen te verbeteren op basis van hun interesses.

Cookie-waarschuwingen zijn gebruikelijker geworden sinds de opkomst van gegevensbeschermingswetten, die vereisen dat gebruikers worden geïnformeerd dat hun gegevens worden opgeslagen en waarvoor ze zullen worden gebruikt.

Over het algemeen zijn cookies onschadelijk en kunnen ze alleen worden gebruikt om uw ervaring op websites te verbeteren. Het probleem is dat cookies van derden de veiligheid en bescherming van de gegevens van gebruikers mogelijk niet garanderen, wat de transparantie in hun verwerking aantast.

Een risico voor de bescherming van persoonlijke gegevens is de mogelijkheid dat bedrijven de informatie die ze verzamelen aan andere bedrijven verkopen zonder dat gebruikers het weten.

Vanaf dat moment wordt het gebruik onrechtmatig, ook al gebruiken ze de gegevens alleen voor bekende doeleinden.

Als we het hebben over een toekomst zonder cookies, hebben we het over het einde van cookies van derden.

Het is mogelijk om op een transparante en veilige manier van internetten te bouwen met cookies en Big Data. Maar om dat te doen, moeten we de manier waarop internet en digitale marketing de afgelopen jaren hebben gewerkt, hervormen.

Voor gebruikers heeft een toekomst zonder cookies in digitale marketing de neiging om meer veiligheid voor hun gegevens te brengen tijdens het browsen op internet. Dit is de bedoeling van deze hele beweging.

Aan de andere kant kunnen de gevolgen voor online adverteren ook een browse-ervaring betekenen die minder gepersonaliseerd en relevant is voor uw interesses, tenminste totdat de marketingindustrie zich aanpast aan deze transformatie.

In een wereld waarin privacy voorop staat, is het belangrijk om nauwe en directe relaties met klanten op te bouwen in plaats van te vertrouwen op derden.

Verzamel gegevens rechtstreeks van je klanten.

In plaats van te vertrouwen op cookies van derden, zijn er andere mechanismen voor gegevensverzameling te verkennen.

U kunt bijvoorbeeld marktonderzoek, tevredenheidsenquêtes en peilingen op sociale media uitvoeren.

Bied ook gratis interactieve inhoud of nuttig materiaal aan in ruil voor gebruikersgegevens. Op deze manier bouwt u een nauwere en directere relatie op met consumenten zonder hun gegevensbescherming in gevaar te brengen.

In het licht van zorgen over de privacy van persoonsgegevens en de geldigheid van richtlijnen voor gegevensbescherming, is er geen andere manier om met gebruikers om te gaan door transparant te zijn.

Er is geen ruimte meer voor duistere houdingen die de echte redenen voor het verzamelen van gebruikersgegevens verbergen. Klanten moeten weten hoe en waarom we hun gegevens willen verzamelen.

Dit is nu niet alleen een wettelijke verplichting, maar ook een manier om een ​​vertrouwensrelatie met de klant op bouwen.

Het privacybeleid is ook een verplichting die gedefinieerd in de richtlijnen voor gegevensbescherming.

Privacybeleid moet op de website toegankelijk zijn, in duidelijke en transparante taal, en informatie verstrekken over het gebruik en het doel van het verzamelen van gebruikersgegevens.

Mensen moeten ook weten hoe ze controle over hun gegevens kunnen uitoefenen, bijvoorbeeld om zich af te melden voor de bedrijfsgegevens of om bepaalde informatie uit hun bedrijfsregistratie te verwijderen.

Elke dag doordringt het internet meer aspecten van ons leven. Dit betekent dat er steeds vaker gevoelige gegevens worden verzameld.

Daarom willen gebruikers veilige relaties met bedrijven hebben, zodat hun informatie niet wordt misbruikt.

De toekomst zonder cookies nadert snel en bedrijven zullen zich aan moeten passen.

Richtlijnen

Waar blijven de ontwerprichtlijnen met aanbevelingen voor belanghebbenden over het gebruik van digitale technologieën voor het verzamelen van gegevens op afstand.

Door digitale technologieën te gebruiken voor het verzamelen van gegevens op afstand, kunnen bedrijven de toegangsbarrières verminderen voor populaties die mogelijk transport- of geografische obstakels hebben. Bovendien stellen deze technologieën bedrijven in staat om gegevens over het dagelijks leven, op afstand vast te leggen.

De vooruitgang in sensortechnologie, algemene computerplatforms en methoden voor gegevensoverdracht en -opslag hebben een revolutie teweeggebracht in de mogelijkheid om op afstand relevante informatie van individuen te verkrijgen en te analyseren.

De digitale technologieën die worden gebruikt voor data-acquisitie op afstand spelen een steeds grotere rol en bieden belangrijke kansen. In vergelijking met intermitterende proefbezoeken, kan het gebruik van digitale technologieën om op afstand gegevens te verzamelen, een continue of frequentere gegevensverzameling mogelijk maken.

Digitale technologieën brengen echter veiligheids- en privacyrisico’s met zich mee waarmee belanghebbenden rekening moeten houden, samen met risico’s.

We dringen er daarom op aan om eventuele cyberbeveiligingsrisico’s te evalueren die mogelijk de functionaliteit van het digitale technologieën zouden kunnen beïnvloeden of een risico zouden kunnen vormen voor de privacy. Bovendien moeten we na het verzamelen van de gegevens ervoor zorgen dat de gegevens veilig kunnen worden opgeslagen en verzonden.

We moeten zo het risico van mogelijke openbaarmaking van identificeerbare informatie aanpakken via een inbreuk, het algemene computerplatform of de duurzame elektronische gegevensopslag.

Samenwerken met fabrikanten om licentieovereenkomsten of servicevoorwaarden voor eindgebruikers te wijzigen voor bepaalde doeleinden. Doorgaans maken licentieovereenkomsten voor eindgebruikers het delen van gegevens met de fabrikant en andere partijen mogelijk. Als het echter om beschermde informatie gaat, mogen die gegevens alleen worden gedeeld met noodzakelijke partijen.

Het advies is altijd om adequate beveiligingsmaatregelen te nemen om gegevens te beveiligen en te voorkomen dat kwaadwillenden toegang krijgen tot.

Behalve dat we rekening moeten houden met cyberbeveiligingsproblemen, moeten we ook transparant zijn over de privacy en geïnformeerde toestemming verkrijgen. Het proces van geïnformeerde toestemming moet details over het verzamelen en gebruiken van gegevens tijdens en na duidelijk communiceren.

Waar van toepassing, moeten we ervoor zorgen dat het proces van geïnformeerde toestemming goed uitlegt dat gegevens kunnen worden gedeeld voor algemene doeleinden of derden, in overeenstemming met de licentieovereenkomst of servicevoorwaarden.

Licentieovereenkomsten en servicevoorwaarden zijn doorgaans lang en maken gebruik van complexe terminologie. Voor gegevensverzameling voorstellen, moeten we begrijpen hoe dergelijke overeenkomsten of servicevoorwaarden van invloed kunnen zijn en deze informatie in overweging nemen bij het ontwikkelen van documenten met geïnformeerde toestemming.

Het ontwikkelen van nieuwe technologieën, methoden en apparaten die enorme hoeveelheden gegevens kunnen verzamelen, kan mogelijk een revolutie teweegbrengen. Echter de voordelen van dergelijke technologieën en de potentiële beveiligings- en privacyrisico’s horen we in gelijke mate af te wegen.

Metaverse

De bottleneck van de Metaverse lijkt data te worden? Hoe neemt de  gewone man deel aan de nieuwe werelden in Metaverse?

Vorig jaar was het een gamebedrijf genaamd Roblox die het concept van Metaverse presenteerde en daar achteraan volgde de tech giganten zoals Facebook, Tencent en Bytedance.

Er zijn veel mogelijkheden, toepassingsscenario’s en toekomstige ontwikkelingsrichtingen voor Metaverse, maar ook de angst is aangewakkerd over het ontstaan van een virtuele wereld, omdat de Metaverse tenslotte een onbekende en vol vitaliteit is. Maar ook de vereisten van Meta Universe en het gebruik van persoonlijke gegevens zorgen voor twijfels.

De ultieme uitdaging van de Metaverse: het effectief omgaan met en toepassen van persoonsgegevens.

De Metaverse heeft ten minste acht elementen nodig: identiteit, vrienden, onderdompeling, lage latentie, diversificatie, overgave, economisch systeem en beschaving. Om te zorgen dat we er volledig in op kunnen gaan.

In zo’n virtuele wereld is alles gepersonaliseerd rond persoonlijke gegevens zodat ons hersenen denken dat het allemaal is zoals het zou moeten zijn. En een gewone tijdsbesteding een manier van leven kan worden al roept dat voor ouderen wel de herinnering op aan de matrix. Het is niet moeilijk om te zien dat we voor de bovenstaande 8 elementen zeker zullen zorgen naar een nieuwe belangstelling voor persoonlijke gegevens.

In de Metaverse hoef je je niet langer te haasten, is materieel productie niet noodzakelijk, ongeacht activa, identiteit, beschaving en economische grondslag. In dit universum zijn het, alleen gegevenswijzigingen en wijzigingen in programmaparameters. Die bepalen hoe je universum eruit ziet en hoe je er je in beweegt. Dit maakt ieder van ons in de toekomst het belangrijkste dataknooppunt in de Metaverse. Elke nieuwkomer heeft zijn eigen databestand.

Maar het verschil is dat in de echte wereld die we kennen, internetgegevens rond de gebruiker zijn gebouwd door ondernemingen. Internetbedrijven kunnen enorme hoeveelheden gegevens ordenen en archiveren met enorme rekenkracht. Dit is eigenlijk heel inefficiënt als je van deze wereld naar een andere wereld wilt springen. Maar in de Metaverse zal deze situatie moeten worden doorbroken en zullen we als gebruikers de verantwoordelijkheid op ons moeten nemen om onze gegevens in eigen bestanden te organiseren, zodat big data ons echt van dienst kan zijn.

Als de Metaverse zich ontwikkelt en wordt gebruikt door het bedrijfsleven en in ons leven, zullen enorme hoeveelheden gegevens worden gegenereerd en dit zal veel hardware en datacentra’s voor de cloud naar de echte wereld brengen.

Metaverse is zelfs disruptief, een enorme internet transformatie. En het verschijnen van een bron universum, zal ongetwijfeld grote veranderingen in ons leven veroorzaken.

Maar zelfs als we niets doen, zullen we de komende 10 jaar de invloed van de Metaverse om ons heen voelen. Omdat er een data profiel voor ons zal moeten worden opgebouwd en beheerd. Een digitale tweeling waarmee we samen optrekken in een fysieke en een virtuele wereld ongeremd door grenzen of obstakels.

Volgend jaar

Welke metafoor je ook gebruikt – van olie, goud, grond of zelfs zand – de rol van data in het bedrijfsleven zal niet afnemen. Bedrijven willen data gebruiken die ze hebben, en ze willen dat deze de applicaties en services aansturen waarmee ze geld verdienen. Gegevens zijn echter niet eenvoudig. De services die worden gebruikt voor langetermijnanalyses zijn anders dan die voor een bedrijf.

Hoewel er veel aandacht en geld is besteed aan die analytische kant van de markt, zal de snelle datakant de plaats zijn waar in 2022 de grootste veranderingen plaatsvinden.

Na jarenlang the next big thing te zijn geweest, bestaat NoSQL nu lang genoeg om installaties op lange termijn te zien. Met alles in IT zal er altijd een discussie zijn over het migreren naar de nieuwste technologie. In dit geval zullen IT-teams, gezien de wereld van cloud en cloud-native data, debatteren over de juiste keuzes voor de komende tien jaar.

In die vergaderingen die volgend jaar plaatsvinden, zal er een interessante nieuwe taal zijn wanneer iemand “Legacy NoSQL” zegt wanneer hij het heeft over bestaande systemen die niet native draaien. Mainstream NoSQL zal nauwer worden afgestemd op cloud-native applicaties, en er zal meer ontwikkelingswerk plaatsvinden rond hoe NoSQL-databases worden uitgevoerd als onderdeel van die cloudimplementaties.

Zolang cloudproviders actief zijn, is er een scheve prijsstelling voor gegevens die binnenkomen en uitgaan. Gegevens die binnenkomen zijn meestal gratis, wat een geweldige manier was om de acceptatie naar de cloud te stimuleren. Gegevens die cloudproviders verlaten, zijn waar de echte kosten begonnen op te lopen. Nogmaals, om niet alleen de acceptatie te stimuleren, maar gebruikers te stimuleren om gegevens in de cloud te houden.

Er zijn scheuren ontstaan ​​in dit businessplan nu er stoutmoedig is aangekondigd door sommige cloud providers dat er geen uitgaande kosten zullen voor maximaal één terabyte aan data, terwijl een handvol kleinere providers een vast bedrag in rekening brengen voor bandbreedte. De bestaande cloud providers reageerden hierop door hun gratis niveau voor data-uitgang te verhogen.

Net zoals opslag het wapen werd in een prijzenoorlog, zullen we in 2022 in een race naar de bodem zien dat de kosten voor in- en uitstappen veel lager en genormaliseerd worden. Zal dit ertoe leiden dat meer bedrijven alternatieve cloudproviders overwegen, of zal het AWS meer kansen geven? Nu al populair bij prijsbewuste klanten?

In de praktijk zullen in 2022 meer applicaties worden geïmplementeerd met dat gedistribueerde model in gedachten van centrum tot rand. Dit zal ook meer bedrijven dwingen om te kijken hoe ze gedistribueerde databenaderingen toepassen die hetzelfde doen: de data naast de applicatie plaatsen, of dit nu één cloud is of meerdere, of in het midden naar de rand.

Na jarenlang boos te zijn geweest op sociale-mediaplatforms en technologie in het algemeen, zal overheidsregulering over de hele wereld eindelijk de publieke opinie inhalen. De Amerikaanse staat Californië heeft regels voor gegevensprivacy aangenomen op basis van de Algemene Verordening Gegevensbescherming van de Europese Unie, terwijl de EU haar werk heeft uitgebreid tot gebieden als open data en kunstmatige intelligentie.

Al dit werk is nodig voor de privacy, maar het resultaat zal een zeer ingewikkeld doolhof van regelgeving zijn voor iedereen die datagestuurde applicaties bouwt. Dat wil zeggen, iedereen. Gegevensregulering heeft geen gelijke tred gehouden met de verfijning van privacykwesties die voortdurend naar voren komen. Dit jaar zagen we de particuliere industrie proberen zichzelf te reguleren.

2022 wordt het begin van een meerjarige reis door nieuwe regelgeving en deadlines. Om dit bij te houden, zullen bedrijven controle willen houden over waar hun gegevens worden ingezet, hoe deze gegevens worden beheerd en hoe ze deze voor hun bedrijf gebruiken. Deze snelle data-aanpak is afhankelijk van een open-source stack om te werken.

Metadata

Data is de valuta van de toekomst, gekenmerkt door de hoeveelheid gegevens die inmiddels worden verzameld.

Maar wat als deze gegevens niet goed worden opgeslagen?

Er begint zich een moeras te ontwikkelen vol gegevens en toegang tot die gegevens is moeilijk of soms onmogelijk.

Het internet, sociale media, het internet der dingen (IoT) en de vooruitgang in gegevensopslag en -verzamelen hebben gezorgd voor een manier alles vast te leggen. Dit varieert van winkelgewoonten, persoonlijke voorkeuren, financiële en nog veel meer.

Bovendien biedt IoT de mogelijkheid om grote hoeveelheden gegevens te verzamelen over processen, machines, het weer en bijna alles wat je maar kunt bedenken.

Indien correct verwerkt en geanalyseerd, kan deze informatie belangrijke inzichten opleveren om de efficiëntie te verbeteren en de effectiviteit te vergroten.

Echter het opslaan van gegevens zonder de juiste registratie en beveiliging stelt ons echter bloot aan uitbuiting, gegevensinbreuken en andere potentiële gevaren en aansprakelijkheden.

In eenvoudige bewoordingen kan een ongeorganiseerde verzameling gegevens leiden tot een datamoeras. Stelt u zich voor een constante stroom brieven en pakketten die bij PostNL binnenkomen. Deze brieven worden meestal gesorteerd op basis van hun bestemming, grootte en prioriteit. Dit maakt het gemakkelijk om ze te sorteren en te distribueren. Maar wat als er geen goed sorteer- of bezorging systeem was voor het afhandelen van de constante aanvoer van pakketten? Dan zou het chaotisch worden, met brieven naar de verkeerde bestemmingen en onbekende pakketten die het sorteercentrum overvol maken.

Een vergelijkbare situatie doet zich voor wanneer de data-infrastructuur niet georganiseerd is of niet klaar is om binnenkomende informatie te verwerken.

Aan de andere kant van het spectrum bevinden zich data lakes. Dit zijn inmiddels een gevestigde en adequaat ingerichte manier van data-opslag in een gereguleerde omgeving voor het opslaan en ongeorganiseerd gegevens, die later gemakkelijk toegankelijk zijn met de juiste tools.

Data lakes zijn schaalbare opslagplaatsen die grote hoeveelheden onbewerkte gegevens kunnen bevatten. Deze gegevens kunnen worden georganiseerd met de juiste metadata. De ideale omgeving om de onbewerkte gegevens te beheren totdat ze nodig zijn.

Het grote voordeel van het gebruik van een data lake is dat het elk type gegevens kan worden opgeslagen. Of het nu gaat om een ​​IoT-apparaat, sociale-mediagegevens of machine learning uit logbestanden, alles kan in een data lake terechtkomen.

Bij een traditioneel data-opslag wordt daarentegen een index geplaatst voordat er gegevens worden opgeslagen. Dit zorgt ervoor dat de informatie op de juiste manier wordt opgeslagen en georganiseerd, al introduceert dit ook beperkingen en limieten voor gegevens die mogelijk niet zijn verantwoord.Het vereist ook dat gegevens een gegevensextractieproces doorlopen, zoals ETL (Extract Transform, Load) of ELT.

Dus hoe verandert een data lake in een datamoeras? Een data lake kan snel veranderen in een datamoeras wanneer ongeorganiseerde data zonder precieze metadata in het systeem wordt geïntroduceerd. Dit kan het opslagsysteem snel overspoelen met nutteloze en irrelevante gegevens die het systeem rommelig maken en het ophalen bemoeilijken.

Dit kan op verschillende manieren gebeuren:

1. Mist je de juiste protocollen en richtlijnen voor het organiseren en filteren van gegevens. Dan kan dit leiden tot een opeenhoping van oude en irrelevante gegevens.

2. Een data-extractieproces zoals ETL/ELT (Extract, Load, Transform) is niet goed opgezet of geïntegreerd. Dan neemt ELT bedrijfsgegevens en maakt in wezen een identieke kopie, als dit proces niet correct wordt geïmplementeerd, dan zal het het data lake snel overspoelen met niet-identificeerbare gespiegelde gegevens.

3. Het data lake wordt een stortplaats voor niet-toepasbare of niet-gerelateerde data.

Dus, hoe kun je een datamoeras opruimen en het weer transformeren in een ongerept data lake? Hier zijn verschillende richtlijnen voor:

Implementeer de juiste processen en richtlijnen: Zorg er allereerst voor dat uw bestaande protocollen hun werk doen. Zonder duidelijke richtlijnen heb je een eindeloze stroom van irrelevante en ongeorganiseerde gegevens. Initiële protocollen moeten dienen als een filter om ervoor te zorgen dat alleen waardevolle gegevens in het opslagsysteem terechtkomen. Bovendien moet het de juiste metadata worden toegewezen om te worden gelokaliseerd en aangeroepen wanneer dat nodig is.

Houd het relevant: verzamel geen gegevens als het niet relevant is. Stel parameters in om oude en verouderde gegevens te verwijderen en op te schonen.

Dit kan worden gedaan door processen op te zetten die ervoor zorgen dat het data lake alleen bepaalde gegevens accepteert. De verkregen gegevens moeten een duidelijk doel en een duidelijke rol hebben om het ophopen van nutteloze informatie te helpen voorkomen. Dit moet natuurlijk worden afgewogen tegen het idee dat een data lake waarin gegevens worden opgeslagen die mogelijk niet onmiddellijk worden gebruikt, maar in onbewerkte vorm worden bewaard voor toekomstig gebruik.

Stel behoeften en doelen vast: omdat we elk soort gegevens kunnen verzamelen, betekent nog niet dat we dat zouden moeten doen. Stel een duidelijke intentie vast over wat voor soort gegevens we willen verzamelen en welke doelen ermee moeten worden bereikt. Dit helpt ervoor te zorgen dat een data lake zich niet vult met irrelevante of nutteloze informatie.

Weet waar gevoelige gegevens staat en beheer deze: het is één ding om nutteloze prestatiegegevens te hamsteren, maar het hamsteren van gevoelige gegevens kan ook een verplichting zijn in termen van wettelijke verplichtingen, naleving en beveiligingsrisico’s. Weet daarom waar u gevoelige gegevens in uw dataopslag heeft. Het is van vitaal belang om een ​​duidelijk beleid voor gegevenstoegang te hebben voor gevoelige gegevens.

Gegevens spelen een cruciale rol in het huidige data landschap. Gegevens zijn kostbaar, of het nu gaat om het bieden van inzicht in de mentaliteit van mensen of het verbeteren van de efficiëntie door middel van machine learning. En daarom is het cruciaal om het als zodanig te behandelen. Door een onberispelijke data omgeving voor uw gegevens te onderhouden en te beheren, is deze voldoende beschermd en klaar voor gebruik.

Met andere woorden, alleen omdat het goedkoop is om gegevens op te slaan en vervolgens te verwerken, wil dat nog niet zeggen dat we ongeorganiseerd kunnen zijn met de data in onze data lakes en data-opslag plaatsen.

Metadata

Met datagovernance is een kritiek keerpunt bereikt. Een essentieel onderdeel van risicobeheer dat gebaseerd is op het bereiken van naleving van de regelgeving, het handhaven van gegevensprivacy en het waarborgen van gegevens.

Het gaat echter verder dan risicobeheermogelijkheden voor het bepalen of beïnvloeden van gegevensgestuurde acties. Recente ontwikkelingen hebben het mogelijk gemaakt om dit dynamisch, vrijwel onmiddellijk, met de mogelijkheden van downstream-analyses en de daaruit voortvloeiende besluitvorming vorm te geven.

“Met actieve metadata realtime gebruikt in verschillende toepassingen.’

De operationele functionaliteit met betrekking tot metadatabeheer, datamodellering, datastewardship, machine learning en kunstmatige intelligentie, en verschillende andere componenten.

De overgang van een voornamelijk statische, passieve reeks principes en protocollen naar realtime toepasbaarheid in een reeks gebruiksscenario’s die concurrerende waarde opleveren.

Expressieve datamodellen waar semantiek en taxonomieën, machine-intelligentie gebruiken om af te leiden hoe we verschillende data stromen in datasystemen kunnen worden gemengd. Vergelijkbare informatie in verschillende systemen en governance oplossingen wanneer je communiceert tussen die stromen en systemen.

Slimme inferentiemogelijkheden, met het vermogen om nieuwe inzichten te genereren. Bijvoorbeeld de naleving van regelgeving, waarbij logische gevolgtrekkingen over gegevenstoegang voor de ene gegevensbron, regelgeving of groep gebruikers invloed kunnen hebben op die voor een andere gegevensbron, regelgeving of gebruikersgroep om nalevingsmaatregelen te automatiseren.

Met metadata in datamodellen kunnen we taxonomieën stroomlijnen voor content engines, met wereldwijde en lokale bronnen. Door cognitieve computertechnieken kunnen we de invoer van metadata snel automatiseren. Metadata beschrijvingen, trefwoorden, gedetailleerde inzichten ofwel een voorbode van gebeurtenissen of een routekaart van eerdere gebeurtenissen die de datakwaliteit waarborgen.

Het verbinden van metadata met Data life cycle en BI die de traceerbaarheid gebruiken die door metadata wordt geboden, noodzakelijk om de informatie in analyses te begrijpen en te vertrouwen. Een dashboard waar data kan onthullen wie ernaar kijkt en waar die gegevens vandaan komen.

Analyse op hoofdoorzaken: eventuele abnormaliteiten of afwijkingen in processen die verband houden met analyses eenvoudig kunnen worden geïllustreerd door metadata te analyseren. Waarbij een anomalie of iets dat lijkt oplicht in het dashboard, en laat zien hoe de gegevens daar zijn gekomen, waardoor de oorzaak te analyseren is.

Door metagegevens te onderzoeken in elk facet van je datawarehouse dat wordt gebruikt om informatie over tabellen, kolommen en rijen met gegevens te genereren. Waardoor een wijziging in gegevens realtime beschikbaar zijn zodat we precies zien wat er gaat gebeuren.

Het vermogen om metadata in te zetten, verbreedt de bruikbaarheid met het oog op datagovernance om alles te omvatten, van referentiegegevens tot gecontroleerde steekwoordenlijsten. Het verzamelen van metadata is van cruciaal belang om er nieuwe inzichten verkrijgen en te voldoen aan de datagovernance.

Een andere aspect van actieve metadata: niet alleen wat bestaat, maar wat kan worden gegenereerd of afgeleid uit iets, waarbij dit expliciet wordt vermeld bij het resultaat.

Toekomst van data

Wat biedt de toekomst op het gebied van tooling en technologieën voor data-analyse en engineering.

Datastacks zijn:

* cloud gebaseerd

* modulair en aanpasbaar

* metadata-gedreven

* draaien op SQL (althans voorlopig)

1. Data lakes en datawarehouses zijn niet meer van elkaar te onderscheiden

Datawarehouses bestaan ​​al tientallen jaren en maakten een sprong voorwaarts met cloudgebaseerde warehousing. Aanpasbare en flexibele data lakes zijn de afgelopen jaren steeds populairder geworden, en we moesten evalueren of een datawarehouse of data lake de juiste keuze was. Die keuze hoeven we in de nabije toekomst niet meer te maken.

“Meer en meer komen data lakes en datawarehouses samen.”

En binnen afzienbare tijd zullen ze niet meer van elkaar te onderscheiden zijn. Het is echt of je het als een bestand bekijkt, of dat je het als een relationele tabel bekijkt. Dat is de juiste abstractie om aan te denken. Er zijn momenten waarop bestanden waardevol zijn, vooral als het gaat om uitwisseling, maar de meeste bewerkingen die we uitvoeren, worden feitelijk uitgevoerd in een relationele architectuur. En zo komen het idee van een data lakes en datawarehouse samen.

2. Analytics worden samengevoegd in op SQL gebaseerde systemen binnen dataplatforms

In feite zijn er cloud platform waar we bovenop kunnen bouwen. En deze analytische systemen zullen opgaan in de dataplatforms. Een zeer competitieve samenvoeging van zowel analyses als geavanceerde analyse- en machine learning-systemen, met op SQL gebaseerde datamanagementsystemen.

3. Universele standaarden zullen verschijnen

We beginnen met het ontwikkelen van standaarden rond datagovernance. Belangrijke standaarden in de moderne datastack met betrekking tot governance, afkomst, inclusiviteit, interoperabiliteit tussen deze platforms en tussen tools.

Governance is geen eenvoudig probleem, maar het is een belangrijk probleem, het beschermen van de informatie is iets dat voor iedereen belangrijk is. Het is belangrijk als het gaat om reputatie. Het is van belang in termen van intellectuele eigendomsrechten. We evolueren en moeten er bovenop blijven zitten. En hoewel de moderne datastack veel ongelooflijke mogelijkheden bieden om met data te werken, ze moeten ook worden beschermd en op de juiste manier worden beheerd om ervoor te zorgen dat alleen de mensen die toegang moeten hebben tot data die toegang krijgen.

4. Voorspellende analyses evolueren

Voorspellende analyses de huidige generatie voorspellende analytische systemen is gebouwd. En hoewel dit effectief is we bevinden ons op een heel, heel primitief niveau. Tot dramatische verbeteringen te zien zijn in de manier waarop machine learning wordt uitgevoerd.

5. De vraag naar kennis

Dataplatforms zullen evolueren om daar aan te voldoen.

De moderne datastack zal zich gaan ontwikkelen om het mogelijk te maken kennis op te bouwen. De logica die bij iets hoort, embed in de database is het onderscheid.

6. Datadeling vereist governance binnen (en tussen) organisaties

Het delen van gegevens zowel binnen organisaties als tussen organisaties, staat centraal in de toekomst.

Data wordt gecreëerd en is een troef die je creëert, waar je vervolgens waarde uit kunt halen en op de juiste manier kunt gebruiken. Data mesh en het idee van organisatieprincipes en domeinoriëntatie van data.

Hoe dat tot stand komt, zal er anders uitzien waarschijnlijk niet een heleboel verschillende datadomeinen. De mechanismen die je gebruikt om dat daadwerkelijk te doen? Het idee van het delen van gegevens om te bouwen aan een ​​domeingericht model. Dat is wat het delen van gegevens is. Data-uitwisseling kan met verschillende domeinen van data-expertise en die data vervolgens weer delen.

Mensen data hebben, en ook de kennis ze die data naartoe willen brengen. Data plus kennis over in een applicatie die autonoom in actie kan komen op basis van wat er binnen die data gebeurt. De volgende generatie datamarktplaatsen en delen omdat we overal expertise bij de hand zullen hebben.

Je hebt misschien niet de capaciteiten van datawetenschappers, maar je kunt ze inlenen. Duizenden analytische gericht op verticale industrieën waar ze expertise over hebben die ze kunnen toepassen.

Om ons te concentreren op het oplossen van het probleem van gegevensvertrouwen om mogelijkheden te bieden voor het werken met data binnen en tussen organisaties. Naarmate er een meer domein georiënteerde architectuur kan worden geadopteerd waarin we gegevens delen of verkopen, hierdoor zal de behoefte aan consistente, branchebrede normen voor vertrouwen en betrouwbaarheid van gegevens dringender worden.

Of het nu gaat om de waarneembaarheid en prestaties van gegevens, of het gaat om metadatabeheer en governance. Er is nog steeds een enorme kans om te verbeteren en problemen op te lossen.

Vertrouwen

De Focus komt te liggen op vertrouwen in de zoektocht naar perfecte data, om de puzzel rond privacy op te lossen

Privacy is een onderwerp aan de bestuurstafel wat moeilijk lijkt te visualiseren. Hoe kunnen we ervoor zorgen dat bedrijven privacy-compliant zijn terwijl ze flexibel blijven voor toekomstige veranderingen?

Inbreukmakend privacyzaken, zoals Cambridge Analytica, hebben het verzamelen en gebruiken van gegevens op de agenda gezet, en we maken ons zorgen over onze gegevens. Updates om de privacy te beschermen zijn inmiddels aan de orde van de dag, waardoor we leren hoe apps gebruikers volgen, evenals de de mogelijkheden van open tracking in e-mails.

Het blijft echter absoluut noodzakelijk dat alle bedrijven een privacy-first beleid gaan volgen, en idealiter een strategie die wendbaar genoeg is om rekening te houden met veranderingen, wetgeving en technologie die de komende jaren zullen plaatsvinden.

Het is van cruciaal belang om elke privacystrategie te centreren rond twee peilers: de mensen die er meewerken en de mensen wie het betreft. Privacyregels nu en in de toekomst zullen worden bepaald op basis van wat nodig is. Door inspanningen te concentreren op het waarborgen van respect en vertrouwen, vormen we de kern, met strategieën die flexibel genoeg zijn om aan de toekomstige veranderingen te voldoen.

Waarbij de zoektocht naar perfecte data een mythe blijkt te zijn die meer kwaad dan goed doet. De waarheid is dat de zoektocht naar perfecte data een inefficiënt gebruik middelen is, aangezien de meeste, zo niet alle, beslissingen kunnen worden genomen zonder deze data.

Bedrijven, organisaties en overheden zouden zich meer op hun gemak moeten voelen bij het nemen van beslissingen op basis van realtime gegevens, die waarschijnlijk niet perfect zijn. Maar bedrijven, organisaties en overheden in staat stelt om strategische beslissingen te nemen op basis van realtime data en flexibel te blijven in het omgaan met veranderingen die plaatsvinden. We denken ten onrechte dat onze persoonlijke gegevens de kern vormen van privacyveranderingen. Data is slechts een strategisch hulpmiddel.

Daarbij moeten we de verleiding om snelle oplossingen te implementeren of te vinden zien te vermijden. En niet zoeken naar technologie die de huidige privacy-uitdagingen oplost.

Privacy is veel meer dan een probleem. Het is een kans om het vertrouwen en de loyaliteit te behouden. De uitdagingen die voor ons liggen, zijn een kans om te heroverwegen en betere manieren te vinden. We lijken verstrikt te zijn geraakt in het najagen van technologie en regelgeving, en zijn vergeten wat er echt toe doet. Als we eerlijk kunnen zeggen dat we blij zijn met de manier waarop onze gegevens worden verzameld, opgeslagen en gebruikt, dan zijn we op de goede weg.

Voorspellende data

Hoe big data de toekomst gaat vormgeven en de toekomst van alles is. Hoe kan big data helpen nieuwe ervaringen te creëren en de juiste doelgroepen te bereiken?

Big data en analyses van workflows beïnvloeden prestaties en hebben ze versneld.

We ontdekken langzaam hoeveel verschillende sectoren de nieuwe mogelijkheden met analyses door een datagestuurde cultuur te omarmen en uitgaven verlagen en tegelijkertijd nieuwe inkomsten en groeimogelijkheden openen.

Het valt niet te ontkennen dat de acceptatie van Big Data een uitdagend en tijdrovend proces kan zijn. Maar eenmaal geaccepteerd kan Big Data helpen bij het optimaliseren van digitale strategieën.

Big Data is essentieel, omdat het ons in staat stelt het gedrag en de intenties van personen te achterhalen. De trend van voorspellende analyses heeft de wereld in een storm overnomen, en daarop zijn er bijna geen uitzonderingen.

De grote vraag naar en de steeds groter wordende hoeveelheden gegenereerde gegevens creëren een sterke behoefte aan nieuwe benaderingen en technologieën voor gegevensanalyse.

Dat is de reden waarom uitgebreide databases worden verwerkt met machine learning-algoritmen.

Big Data om de ervaring en personalisatie te verbeteren en de vrucht van uitgebreide datagebruik. Met machine learning-algoritmen synchroniseren we gegevens om de efficiëntie van beoordelingen en recensies te verbeteren.

Om het maximale uit Big Data te halen, moeten we nieuwe technologieën omarmen en ervoor zorgen dat er voldoende middelen zijn voor verdere analyse. Met de snelle ontwikkeling van AI is ook de vraag naar Big Data enorm gestegen. De reden hiervoor is vrij eenvoudig:. AI-toepassingen hebben grote datasets nodig om algoritmen te trainen.

Dit is echter niet alles. We gebruiken Big Data om AI gebaseerde strategieën te verbeteren en de betrokkenheid te vergroten.

Big Data in combinatie met AI verbetert de digitale strategie op meerdere manieren door de groei te stimuleren, de gebruikerservaring te verbeteren en de workflow te automatiseren.

Slechts een paar jaar geleden was het niet ongebruikelijk dat we tientallen uren besteedden aan het uitzoeken wat er mis ging met campagnes.

Big Data vertraagt ​​en vernietigt uiteindelijk de traditionele rapportage.

Het enige wat daardoor zeker wisten, was of campagnes liepen en hoeveel van het budget er nog over was.

Tegenwoordig wordt er steeds meer geautomatiseerd en kunnen we nu 24/7/365 de vinger aan de pols houden en snel de problemen lokaliseren door alle data te stroomlijnen. Daarbij hebben we alle benodigde gegevens om te zien wat en waarom iets gebeurd en hoe groot impact is, en dat allemaal zonder rapportages die nodig zijn om die gegevens te verzamelen en te analyseren.

Snel groeiende hoeveelheden informatie hebben ons nieuwe technologieën opgeleverd voor de organisatie en consolidatie van gegevens. Door gebruik te maken van Big Data kunnen we voorspellen hoe dingen zouden kunnen verlopen zonder snelheid van levering en flexibiliteit te verliezen.

Bovendien besparen we met geautomatiseerde gegevensnormalisatie en datamapping op routinematige gegevensbewerkingen. Het stelt ons in staat om ons te concentreren op de analyse zelf in plaats van handmatig gegevens te verzamelen en te matchen.

En bruikbare inzichten uit data kunnen halen, om zo de vruchten plukken van big data.