ai wetgeving

Standaardisatie van de AI-wet
Geharmoniseerde standaarden bieden rechtszekerheid onder de AI-wet, ondersteunen innovatie en stellen de EU in staat om wereldwijde normen te stellen voor betrouwbare AI.

Een effectieve en duidelijke implementatie van de AI-wet is een prioriteit voor de Commissie. De AI-wet reguleert ‘hoogrisico’-AI-systemen die van invloed zijn op de veiligheid, gezondheid en fundamentele rechten, bijvoorbeeld in kritieke infrastructuur en rechtshandhaving (zie artikel 6 en bijlage III van de AI-wet). Aan deze eisen moet worden voldaan voordat ze op de markt worden gebracht, zodat hoogrisico-AI-systemen gedurende hun hele levenscyclus worden gemonitord.

Normen vertalen wettelijke vereisten naar een gemeenschappelijke technische taal, waardoor de naleving voor bedrijven en andere belanghebbenden wordt vereenvoudigd.

Europese geharmoniseerde standaarden vervullen verschillende cruciale functies:

Rechtszekerheid en lagere nalevingskosten: Europese geharmoniseerde standaarden bieden een duidelijk traject naar naleving voor bedrijven van elke omvang.

Marktbenchmarking: Europese geharmoniseerde standaarden worden vaak de facto wereldwijde benchmarks. Zo zijn de standaarden die momenteel in ontwikkeling zijn en gericht zijn op het vaststellen van methodologieën voor risicobeheer en kwaliteitsbeheer, sterke kandidaten om in de toekomst marktbenchmarks te worden.

Innovatie en concurrentievermogen: Europese geharmoniseerde normen bevorderen vertrouwen en marktacceptatie, waardoor ontwikkelaars die deze normen toepassen, wereldwijd kunnen concurreren en tegelijkertijd kunnen garanderen dat hun oplossingen voldoen aan de hoogste veiligheidsnormen.

Hoe worden normen ontwikkeld en wat zijn de huidige normen?

Het Europees Comité voor Normalisatie (CEN) en het Europees Comité voor Elektrotechnische Normalisatie (CENELEC) zijn Europese normalisatieorganisaties. Werkgroepen binnen deze twee organisaties werken actief aan de ontwikkeling van geharmoniseerde normen voor AI-systemen met een hoog risico. Ze werken samen in een gezamenlijk technisch comité, JTC 21 genaamd.

De Europese Commissie heeft CEN en CENELEC verzocht normen te ontwikkelen op tien belangrijke gebieden:

risicobeheer
governance en kwaliteit van datasets
registratie
transparantie
menselijk toezicht
nauwkeurigheid
robuustheid
cyberbeveiliging
kwaliteitsbeheer
conformiteitsbeoordeling


Nadat CEN en CENELEC geharmoniseerde normen hebben gepubliceerd, beoordeelt de Commissie of deze voldoen aan de beoogde doelstellingen en wettelijke vereisten van de AI-wetgeving. Na deze laatste stap worden de normen opgenomen in het Officiële Journal van de EU.

Het toepassen van standaarden blijft vrijwillig. Aanbieders kunnen elk ander raamwerk kiezen om aan te tonen dat zij voldoen aan de AI-wetgeving. Geharmoniseerde standaarden waarnaar in het Officiële Journal van de EU wordt verwezen, bieden echter rechtszekerheid. Bedrijven die geharmoniseerde standaarden toepassen, worden geacht te voldoen aan de wettelijke vereisten.

Op 30 oktober 2025 werd prEN 18286: Kunstmatige intelligentie – Kwaliteitsmanagementsysteem voor de regelgevingsdoeleinden van de EU AI-wetgeving de eerste geharmoniseerde standaard voor AI die ter openbare raadpleging werd voorgelegd. Dit gaf nationale normalisatie-instanties de mogelijkheid om commentaar te leveren op het ontwerp vóór de definitieve publicatie. Deze geharmoniseerde standaard is specifiek ontworpen om aanbieders van AI-systemen met een hoog risico te helpen voldoen aan de vereisten van artikel 17 van de AI-wetgeving, en biedt een productgericht raamwerk voor het beheer van de AI-levenscyclus.

De digitale omnibus en standaardisatie
Begeleiding en ondersteuning zijn essentieel voor de implementatie van elke nieuwe wetgeving, en dit is niet anders voor de AI-wetgeving. Op 19 november 2025 werd in de Digital Omnibus voorgesteld om de inwerkingtreding van de regels voor AI-systemen met een hoog risico te koppelen aan de beschikbaarheid van ondersteunende instrumenten, waaronder, maar niet beperkt tot, standaarden.

De uiterste datum waarop de regels van toepassing zouden worden is 2 december 2027 voor AI-systemen met een hoog risico die vallen onder bijlage III van de AI-wet, en 2 augustus 2028 voor AI-systemen die vallen onder de EU-harmoniseringswetgeving die is opgenomen in bijlage I. Indien ondersteunende instrumenten, waaronder standaarden, eerder beschikbaar zijn, kan de Commissie besluiten de regels eerder van toepassing te laten worden.

AI-standaarden als sleutel tot wereldwijde afstemming
Europese normalisatieorganisaties werken niet geïsoleerd aan standaarden. Een ‘internationaal eerst’-benadering is een van de leidende principes van normalisatie. Dit betekent dat internationale standaarden, wanneer beschikbaar en afgestemd op de EU-vereisten, Europese geharmoniseerde standaarden kunnen worden.

Europese normalisatieorganisaties en Europese bedrijven werken actief samen met internationale normalisatie-instanties en dragen zo bij aan de opbouw van een breder wereldwijd kader van AI-standaarden.

Zo ontwikkelt ISO/IEC SC 42 bijvoorbeeld al internationale standaarden met betrekking tot AI, en Europese vertegenwoordigers geven actief vorm aan dit proces. Deze afstemming is cruciaal om fragmentatie van de regelgeving te voorkomen en ervoor te zorgen dat AI-ontwikkelaars in meerdere markten kunnen opereren zonder dubbele nalevingsinspanningen.

De benchmarks en standaarden die vandaag worden vastgesteld, zullen de rol van AI in onze samenleving voor generaties bepalen. Door de ontwikkeling van geharmoniseerde Europese standaarden te bevorderen,Door normen vast te stellen, kan de EU de veilige ontwikkeling en toepassing van AI-systemen wereldwijd bevorderen en daarin een voortrekkersrol spelen.

ai-regelgeving

Beleid, ethische normen en de toekomst van governance rondom kunstmatige intelligentie. De snelle vooruitgang van kunstmatige intelligentie (AI) heeft industrieën, economieën en samenlevingen over de hele wereld getransformeerd.

Naarmate AI-systemen echter krachtiger worden en meer geïntegreerd raken in het dagelijks leven, nemen de zorgen over privacy, vooringenomenheid, verantwoording en veiligheid toe. Overheden, internationale organisaties en technologieleiders werken nu hard aan het opzetten van alomvattende kaders om AI op een verantwoorde manier te reguleren.

Het onderwerp AI-regelgeving is een van de meest besproken onderwerpen in technologie- en beleidskringen, wat de dringende noodzaak weerspiegelt om innovatie in evenwicht te brengen met ethisch toezicht.

AI-regelgeving verwijst naar het creëren van wetten, richtlijnen en ethische kaders die de ontwikkeling, implementatie en het gebruik van kunstmatige intelligentietechnologieën reguleren.

Het doel is ervoor te zorgen dat AI-systemen veilig, transparant en eerlijk werken en tegelijkertijd potentiële schade aan individuen en de samenleving minimaliseren.

Het belang van AI-regulering ligt in het vermogen om cruciale kwesties aan te pakken zoals gegevensprivacy, algoritmische vooringenomenheid, desinformatie en misbruik van autonome systemen.

Zonder adequaat toezicht zou AI ongelijkheid kunnen vergroten, mensenrechten kunnen bedreigen of zelfs risico’s voor de nationale veiligheid kunnen opleveren.

Daarom werken overheden en organisaties wereldwijd aan het vaststellen van duidelijke regels die verantwoorde innovatie bevorderen en tegelijkertijd het publieke belang beschermen.

Deze wereldwijde inspanningen weerspiegelen een groeiende consensus dat AI gereguleerd moet worden om misbruik te voorkomen en tegelijkertijd innovatie te bevorderen.

Een van de meest urgente problemen is algoritmische bias, waarbij AI-systemen onbedoeld discrimineren op basis van ras, geslacht of sociaaleconomische status.

Ook rijzen er juridische vragen over aansprakelijkheid: wie is verantwoordelijk wanneer een AI-systeem schade veroorzaakt? 

Bovendien overtreft het snelle tempo van AI-innovatie vaak het vermogen van wetgevers om bij te blijven, wat leidt tot lacunes in de regelgeving. Het aanpakken van deze uitdagingen vereist samenwerking tussen beleidsmakers, technologen, ethici en het maatschappelijk middenveld om adaptieve kaders te creëren die meegroeien met technologische ontwikkelingen.

Gezien het wereldwijde karakter van kunstmatige intelligentie is internationale samenwerking in AI-regulering essentieel. AI-technologieën overstijgen grenzen en inconsistente regelgeving kan leiden tot mazen in de wet of concurrentieverstoringen.

Het Global Partnership on AI (GPAI), opgericht door verschillende toonaangevende landen, heeft als doel de samenwerking op het gebied van onderzoek, beleidsontwikkeling en ethische normen te bevorderen. Deze initiatieven tonen een groeiend besef dat effectief AI-governance een gecoördineerde wereldwijde inspanning vereist om ervoor te zorgen dat innovatie de mensheid als geheel ten goede komt.

De toekomst van AI-regulering zal afhangen van samenwerking, transparantie en aanpassingsvermogen, zodat innovatie aansluit bij de waarden van eerlijkheid, verantwoording en menselijke waardigheid. 

Door goed geïnformeerd en betrokken te blijven, kunnen bedrijven, beleidsmakers en burgers bijdragen aan een toekomst waarin AI het leven verbetert zonder ethische principes in gevaar te brengen.

ai verandert zoeken

AI heeft de manier waarop veel mensen informatie van internet halen veranderd. Voor veel bedrijven is hun website een essentieel visitekaartje, dus het verlies van bezoekers zou een groot probleem zijn.

Net als bij veel andere bedrijven die zijn getroffen door een cruciale verandering in de manier waarop we op internet zoeken.

Nu heb je direct toegang tot alle informatie ter wereld. De manier waarop mensen informatie vinden en vervolgens actie ondernemen, is enorm veranderd.

Zoekmachines hebben hun algoritmes aangepast om de rommel van AI tegen te gaan, waardoor het belangrijker is geworden voor een website om als geloofwaardig te worden beschouwd op een kernonderwerp.

Gebruikers stappen steeds vaker over van zoekmachines naar AI-tools. Tegelijkertijd tonen zoekmachines zelf AI-overzichten bovenaan hun resultaten, wat er vaak toe leidt dat gebruikers antwoord krijgen op hun vragen zonder door te hoeven klikken naar een andere website.

Bedrijven proberen daarom uit te zoeken hoe ze prominent aanwezig kunnen zijn in de antwoorden die AI geeft.

Generative Engine Optimization (GEO) genoemd, is erop gericht websites te helpen goed te scoren in AI-tools, waaronder AI-overzichten en tools zoals ChatGPT.

Deze zijn gebouwd op een AI-technologie genaamd Large Language Models (LLM’s).

Veel bedrijven AEO wordt gecombineerd met zoekmachineoptimalisatie (SEO), wat tot doel heeft websites hoger te laten scoren in zoekmachines.

Bij een AI-zoekmachine is de gemiddelde lengte 40 tot 60 woorden. Dus je hebt het over een verandering in specificiteit van een orde van grootte.

Iemand zou AI kunnen vragen om een ​​compleet vakantieplan voor een gezin van vijf, inclusief de mogelijkheid om een ​​favoriet dier te zien.

Om in het antwoord te worden geciteerd, zou een website die wil worden opgenomen een artikel moeten publiceren over de populairste dieren in Nieuw-Zeeland die kinderen kunnen bezoeken. Het artikel moet geschreven zijn in natuurlijke taal die aansluit bij de vragen die mensen zouden kunnen stellen.

De nieuwe structuur maakt gebruik van kleine stukjes content die de AI gemakkelijk kan extraheren. Als iemand bijvoorbeeld vraagt ​​naar de functie voor contactbeheer, kunnen AI-tools dat stukje informatie gemakkelijk vinden.

De content evolueert. Het gaat niet alleen om het praten over een product. Het gaat er meer om hoe dit product je kan helpen een probleem op te lossen.”

Zoekmachines waren op zoek naar zoekwoorden, maar AI-systemen moeten de betekenis van de pagina gemakkelijk kunnen verwerken. Daarom bevatten de nieuwe pagina’s van MKM een samenvatting, opsommingen om de informatie overzichtelijk te maken.

Hoewel veel mensen alleen het antwoord van de AI zullen lezen, zullen sommigen doorklikken naar de bron. Het afgelopen jaar is het verkeer van MKM afkomstig van AI gestegen en het blijft stijgen.

data voor trainen

Steeds vaker wordt de data van tools die we gebruiken ingezet voor het trainen van nieuwe ai-modellen. Simpel alleen omdat er te korten zijn aan realtime data die elke dag weer uitgebreid wordt met nieuwe data. Goed voorbeeld is Githhup die deze week zijn voorwaarden heeft aangepast.

We hebben een aantal belangrijke updates doorgevoerd in onze privacyverklaring en gebruiksvoorwaarden om u te informeren over hoe wij met uw gegevens omgaan. Vanaf 24 april zullen we interactiegegevens – met name invoer, uitvoer, codefragmenten en bijbehorende context – van Copilot Free-, Pro- en Pro+-gebruikers gebruiken om onze AI-modellen te trainen en te verbeteren, tenzij u zich hiervoor afmeldt. Gebruikers van Copilot Business en Copilot Enterprise worden niet door deze update beïnvloed.

Hieronder vindt u een kort overzicht van de wijzigingen en hoe deze van invloed zijn op uw GitHub-ervaring.

Wat is er nieuw in de privacyverklaring?

U zult de volgende wijzigingen en verduidelijkingen in deze update van de privacyverklaring opmerken:

Delen met partners: We hebben het gedeelte ‘Partners’ bijgewerkt om de doeleinden waarvoor we persoonsgegevens delen met GitHub-partners, waaronder Microsoft, uit te breiden. GitHub-partners zijn bedrijven binnen onze bedrijfsfamilie – dit omvat geen externe leveranciers van AI-modellen of andere onafhankelijke dienstverleners. Gelieerde bedrijven kunnen gedeelde gegevens nu gebruiken voor aanvullende doeleinden, waaronder het ontwikkelen en verbeteren van technologieën voor kunstmatige intelligentie en machine learning, met inachtneming van de toepasselijke wetgeving en hun eigen privacyverplichtingen. Als GitHub uw gegevens deelt met gelieerde bedrijven voor het trainen van AI-modellen, worden uw voorkeuren voor het weigeren van gegevens en de bedrijfsgegevensbescherming met de gegevens meeverwerkt. U kunt het privacybeleid van Microsoft raadplegen in de privacyverklaring van Microsoft.

Productontwikkeling en -verbetering: We hebben een nieuw verwerkingsdoel toegevoegd om uit te leggen hoe we persoonsgegevens gebruiken om onze producten, diensten en technologieën te ontwikkelen, te verbeteren en te trainen, inclusief AI- en machine learning-modellen. Dit omvat het verbeteren van functies, het ontwikkelen van nieuwe aanbiedingen, het verbeteren van de veiligheid en beveiliging en het trainen van modellen die de AI-ondersteunde functies van GitHub, zoals GitHub Copilot, aandrijven. We passen passende technische beveiligingsmaatregelen toe, waaronder filters die zijn ontworpen om gevoelige gegevens te detecteren en te verwijderen, en anonimiseringstechnieken.

Wettelijke grondslag voor AI-ontwikkeling: Voor gebruikers in de Europese Economische Ruimte (EER) en het Verenigd Koninkrijk hebben we onze sectie over wettelijke grondslagen bijgewerkt om de ontwikkeling van technologieën voor kunstmatige intelligentie en machine learning als een legitiem belang te specificeren. Deze verwerking vindt alleen plaats wanneer onze belangen niet zwaarder wegen dan uw rechten op gegevensbescherming of uw fundamentele rechten en vrijheden.

Toegang tot privérepositories geconsolideerd in de Servicevoorwaarden: We hebben de beschrijving van wanneer GitHub-medewerkers toegang hebben tot de inhoud van privérepositories verplaatst van de Privacyverklaring naar Sectie E (Privérepositories) van de Servicevoorwaarden. Dit is een consolidatie, geen wijziging – dezelfde toegangsbeperkingen blijven van kracht. We hebben deze verplaatsing gedaan omdat toegangsrechten tot privérepositories contractuele verplichtingen zijn over hoe we met uw inhoud omgaan, en deze horen thuis naast onze geheimhoudingsverplichtingen in de Servicevoorwaarden in plaats van in een document dat zich richt op de verwerking van persoonsgegevens. De Privacyverklaring blijft verwijzen naar Sectie E voor meer informatie.

Wat is er nieuw in de Servicevoorwaarden?

Naast de wijzigingen in de Privacyverklaring hebben we de Servicevoorwaarden bijgewerkt om duidelijk te beschrijven hoe AI-functies werken, hoe uw gegevens kunnen worden gebruikt voor training als u zich niet afmeldt, en welke controle u hierover hebt. Hier is een overzicht:

Bijgewerkte definities: We hebben nieuwe definities toegevoegd aan de term ‘AI-functie’, ‘Affiliate’, ‘Input’, ‘Output’ en ‘Uw content’, zodat de overeenkomst duidelijker en gemakkelijker te volgen is.

Vernieuwde sectie over door gebruikers gegenereerde content (sectie D): We hebben sectie D herschreven in begrijpelijker taal om uw rechten en verantwoordelijkheden duidelijker te maken. De eigendoms- en licentiestructuur is gemakkelijker te volgen. De licentie die aan GitHub wordt verleend, geldt nu expliciet ook voor onze affiliates en verduidelijkt dat deze het gebruik van uw content voor het leveren en verbeteren van AI-modellen en AI omvat. U blijft eigenaar van uw content. Dat is niet veranderd.

Privé-repositories en AI (sectie E): We hebben een nieuwe bepaling toegevoegd die aangeeft dat als u content uit een privé-repository als input voor een AI-functie aanlevert, we die input mogen gebruiken om AI-functies te verbeteren (onder voorbehoud van uw recht om u af te melden). We zullen uw content uit uw privé-repository echter verder niet gebruiken of openen.

Nieuwe sectie J — AI-functies, training en uw gegevens: We hebben een speciale sectie toegevoegd waarin alle AI-gerelateerde termen op één plek zijn verzameld. Tenzij u zich afmeldt, verleent u GitHub en onze partners een licentie om uw invoer (bijv. prompts en codecontext) en uitvoer (bijv. suggesties) te verzamelen en te gebruiken voor het ontwikkelen, trainen en verbeteren van AI-modellen. Zodra u zich afmeldt, stoppen we met het verzamelen van uw gegevens. We zullen uw invoer of uitvoer niet delen met externe aanbieders van AI-modellen voor hun eigen onafhankelijke training. GitHub claimt geen eigendom van uw invoer of uitvoer. Deze zijn van u.

AI-modeltraining: Wat u moet weten

Dit betekent in de praktijk:

Toepasselijke producten: Dit geldt voor GitHub Copilot Free, Pro en Pro+. Naarmate onze AI-functies zich ontwikkelen, kan de lijst met toepasselijke producten worden uitgebreid en zullen deze verplichtingen van toepassing zijn op die producten. oo.

Uw controle: U beheert uw gegevens, inclusief invoer, uitvoer, codefragmenten en de bijbehorende context. U kunt het gebruik ervan voor AI-training uitschakelen via uw instellingen. Deze opt-out geldt voor GitHub en aan GitHub gelieerde bedrijven.

Gegevensminimalisatie: We streven ernaar de minimale hoeveelheid persoonsgegevens te gebruiken die nodig is. Waar mogelijk anonimiseren of aggregeren we uw gegevens tijdens het trainingsproces om uw privacy te beschermen.

Zakelijke klanten: Deze wijzigingen gelden alleen voor individuele consumentenaccounts. Zakelijke accounts en accounts die door organisaties worden aangeboden, blijven vallen onder uw gegevensbeschermingsovereenkomst. Uw gegevens worden niet gebruikt voor AI-training.

Privé-repositories: Deze update verandert niets aan onze behandeling van broncode in privé-repositories die op GitHub zijn opgeslagen. We gebruiken de inhoud van privé-repositories in rust niet om AI-modellen te trainen. De interactiegegevens die onder deze update vallen (bijv. prompts, suggesties en codefragmenten die tijdens uw gebruik van Copilot worden gegenereerd) kunnen worden gegenereerd terwijl u in een privérepository werkt, maar we hebben geen toegang tot de opgeslagen inhoud van die repository en trainen er ook niet mee.

Wanneer gaan deze wijzigingen in?

Deze wijzigingen gaan in op 24 april. Niet geïnteresseerd? Schakel dit uit in de instellingen onder ‘Privacy’. Als u zich eerder hebt afgemeld voor de instelling waarmee GitHub deze gegevens mag verzamelen voor productverbeteringen, is uw voorkeur behouden. Uw keuze blijft geldig en uw gegevens worden niet gebruikt voor training, tenzij u zich opnieuw aanmeldt.

Wie wordt hierdoor getroffen?

Deze wijzigingen zijn van toepassing op gebruikers van Copilot Free, Pro en Pro+. Gebruikers van Copilot Business en Copilot Enterprise worden niet door deze update getroffen.

Uw privacyrechten

U behoudt de rechten zoals beschreven in onze privacyverklaring, waaronder:

Het recht op inzage in uw gegevens

Het recht om onjuiste gegevens te corrigeren

Het recht om verwijdering van uw gegevens aan te vragen

Het recht om bezwaar te maken tegen verwerking op basis van legitieme belangen

Om deze rechten uit te oefenen, kunt u contact met ons opnemen via privacy@github.com.

Heeft u vragen?

Als u vragen heeft, kunt u onze FAQ en gerelateerde discussies raadplegen.

Bedankt dat u deel uitmaakt van GitHub. We zetten ons in om onze diensten continu te verbeteren en tegelijkertijd uw privacy te respecteren.

Het GitHub-team

investeringsbubbel

De investeringshausse in datacenters is een van de grootste infrastructurele gokken van dit tijdperk.

De belangrijkste financiers, AI bedrijven, die nooit schromen voor overdrijving, beloofde enorme economische voordelen met faciliteiten die mensen zouden helpen AI te gebruiken.

Nu lijken de AI bedrijven zich terug te trekken uit een deel van de deals in de chips en energiecentrales die nodig zijn om AI te bouwen en te draaien.

Dit is misschien geen probleem men kan vermoedelijk andere datacenters vinden. Minder goed nieuws dat al miljarden zijn uitgegeven aan hardware. Het is een van de vele scheuren die ontstaan ​​in de kapitaalmarkt van de AI-economie en die investeerders behoorlijk nerveus maken.

Toekomstige datacenterleasecontracten die zijn afgesloten door de grootste cloudcomputing bedrijven zijn in twee jaar tijd met bijna 340% gestegen en bedragen nu meer dan 700 miljard dollar. Dat is een enorm bedrag als de technologie niet begint te leveren wat beloofd is om de economische productiviteit te verhogen.

Belangrijke projecten zijn vertraagd of onwaarschijnlijk, cruciale ‘investeringen’ zijn in feite vage overeenkomsten tussen voornamelijk technologiebedrijven, een motor voor economische groei.

Als de scheuren in deze datacenterboom groter worden, variëren de gevolgen van het feit dat we niet langer beschikt over de AI-infrastructuur die het nodig heeft om mee te kunnen komen in de wereldeconomie, tot het veel ernstiger risico dat de hele AI-bubbel barst, een herhaling van de dotcomcrash van 2001 die de wereldeconomie ernstig zou kunnen ontwrichten.

Er is veel blind optimisme geweest rond de uitbouw van AI-infrastructuur. Hoewel er een ongelooflijke boom gaande is, met bouwactiviteiten op een ongekende schaal, is het al geruime tijd duidelijk dat veel projecten niet door zullen gaan, of dat de bouw en ingebruikname veel langer zullen duren dan veel beweringen doen vermoeden.

Een nieuwer chipmodel is de oorzaak dat hardware tijdens de ontwikkeling van de infrastructuur mogelijk niet meer de nieuwste technologie. De snelheid waarmee chips verouderen werpt een verdere schaduw over de beweringen over massale AI-investeringen.  Chips zijn geen geld, ze verliezen waarde, mogelijk zelfs sneller dan de meeste investeerders beweren.

Dit betekent dat het ertoe doet wanneer een datacenter online moet zijn. Tegen de tijd dat ze klaar zijn en de extra elektriciteit is geregeld, zullen de sprongen in het ontwerp van AI-systemen betekenen dat het gebruik van verouderde chips net zo vanzelfsprekend is als het bezitten van een propellervliegtuig in het straalvliegtuigtijdperk?

Datacenters, met name de grote, AI-datacenters met een hoge dichtheid, zijn zeer complexe engineering projecten. Weinig datacenters worden binnen twee jaar operationeel, en meestal duurt het veel langer. Het is niet ongebruikelijk dat sommige projecten jarenlang worden vertraagd of voor onbepaalde tijd worden uitgesteld.

De investeringshausse in datacenters is een van de grootste infrastructurele gokken van deze of welke tijd dan ook. Of een AI datacenter project uiteindelijk een echte AI-fabriek wordt, kan veel zeggen over wie er wint en wie er verliest.

vertrouwen

Een meerderheid van ons vertrouwt AI niet met onze gegevens. AI is niet stiekem ons leven binnengeslopen. Het is met een enorme knal binnengekomen, heeft een plaats verovert aan tafel en is onze gedachten gaan afmaken.

In plaats van een handige lijst met links probeert de zoekmachine nu onze vragen te beantwoorden. Een digitale assistent stelt antwoorden op voor je baas nog voordat je koffie hebt gedronken. Je telefoon vat gesprekken samen die je, je soms niet eens meer herinnert.

Elk groot techbedrijf probeert zo snel mogelijk AI aan zijn producten of productnamen toe te voegen, omdat niemand achter wil blijven. En het publiek wordt vaak gedwongen zich aan te passen aan dergelijke grillen van bedrijven vanwege de toenemende effecten van verwatering.

Mensen gebruiken AI. Maar ze vertrouwen het niet en maken zich zorgen over AI die onze gegevens gebruikt zonder toestemming.

Dat zijn niet zomaar een paar sceptici. Maar bijna iedereen maakt zich zorgen over hoeveel persoonlijke gegevens die AI verzamelt en wat het ermee gaat doen, dus dat is een goede graadmeter voor hoe belangrijk het voor iedereen is.

Dit wantrouwen is niet begonnen met AI natuurlijk krijgt AI alle aandacht in de media. Maar mensen maken zich al lange tijd zorgen over de bescherming van hun persoonlijke gegevens.

We maken ons zorgen over het feit dat onze persoonsgegevens “ongepast worden gebruikt”. Of over het feit dat onze persoonsgegevens ongepast worden ingezien en gebruikt.

Jarenlange datalekken, dubieuze trackingpraktijken en gevaarlijk misbruik door datahandelaren hebben ons vertrouwen in organisaties om onze gegevens te beschermen ondermijnd. Het afgelopen jaar hebben instellingen herhaaldelijk melding gemaakt van grote beveiligingslekken die gevoelige gegevens betreffen. De autoriteiten waarschuwde voor “schokkende” commerciële surveillancepraktijken waar de meeste consumenten nooit mee hebben ingestemd, en persoonlijke gegevens zijn gebruikt bij oplichtingspraktijken die op jou of je familie gericht zijn.

Wanneer mensen sociale media gebruiken, begrijpen ze over het algemeen dat hun klikken en likes worden bijgehouden. Wanneer mensen online winkelen, verwachten ze dat de winkel hun aankoopgeschiedenis opslaat of bijhoudt in welke artikelen ze geïnteresseerd waren. Ze begrijpen het concept van reclame en zien hoe het past binnen sociale of commerciële websites.

Wanneer we ideeën, aantekeningen van vergaderingen, persoonlijke dilemma’s en gezondheidsvragen delen met een AI-assistent, behandelen we die als een vertrouwenspersoon. Misschien hebben we betaald voor een toegangsniveau dat belooft dat de modellen niet op onze gegevens worden getraind. Zelfs wanneer we chatten over bouwpakketten en ontbrekende schroeven met de AI-chatbot van een website, gedragen we ons alsof we met een ander persoon praten en zenden we dat gesprek niet uit naar de hele wereld.

De interactie met AI voelt intiem en conversatieachtig aan, ook al zijn we ons er allemaal van bewust dat we met een bot praten. Dat maakt de onzekerheid over hoe die AI omgaat met de gegevens die we hebben ingevoerd persoonlijker en directer.

We weten dat AI-assistenten van een bedrijf vaak zijn gekoppeld aan andere tools. We weten dat GPT’s door elke ontwikkelaar of oplichter kunnen worden gemaakt. We weten dat bijna elk zakelijk of persoonlijk platform tegenwoordig wel een of andere vorm van AI-gebaseerde gegevensverzameling bevat. Wat de gemiddelde persoon niet weet over AI is beangstigend.

Waar worden onze prompts opgeslagen?

Worden die prompts gebruikt om de AI te trainen?

Hoe lang worden ze bewaard?

Kan iedereen binnen het bedrijf ze lezen?

Kunnen ze worden gekocht? Gebruikt voor reclame? Gelekt?…

Hoewel de bezorgdheid over misbruik van gegevens nog steeds groot is, voelen minder mensen zich volledig machteloos.

We nemen praktische stappen om de blootstelling van hun gegevens te beperken.

Sommigen hebben het gebruik van bepaalde platforms verminderd of volledig stopgezet vanwege privacy bezwaren.

Anderen delen minder persoonlijke informatie online of vermijden gevoelige onderwerpen in digitale gesprekken.

Ook is er een toename in het gebruik van privacybeschermende tools voor onze gegevens, apparaten en identiteit.

Al wist dit geen historische gegevenssporen uit, maar beperkt wel nieuwe blootstelling.

Privacybescherming kan binair aanvoelen: of alles is openbaar, of alles is veilig. Maar het is een stapsgewijs proces, waarbij we steeds meer controle over onze gegevens terugnemen.

Waardoor bedrijven die AI in hun producten integreren, te maken krijgen met een complexere consument dan ze aanvankelijk dachten.

Jarenlang gingen productteams ervan uit dat gebruikers meer data zouden inruilen voor meer gemak. Maar toen bijna negen op de tien mensen aangaven zich zorgen te maken over AI die hun data zonder toestemming gebruikt, werd vertrouwen onderdeel van het product zelf.

Het is niet langer voldoende om te benadrukken wat AI kan doen. Gebruikers willen begrijpen wat er gebeurt nadat ze op “verzenden” drukken.

Wanneer de bezorgdheid het niveau bereikt, roept dat onvermijdelijk de lastige vraag over regelgeving op.

Nationale wetgeving steunen we als die regelt hoe bedrijven onze persoonlijke gegevens mogen verzamelen, opslaan, delen of gebruiken.

Het probleem gaat minder over één tool, maar meer over het gevoel dat de waarborgen onduidelijk zijn. Generatieve AI-systemen kunnen juridische documenten opstellen, e-mails schrijven en gevoelige data razendsnel verwerken. Veel van de bestaande privacywetgeving zijn geschreven voordat AI gemeengoed was.

Toezichthouders proberen de achterstand in te halen. De AI-wet van de Europese Unie, die in 2024 werd aangenomen, introduceerde een risicogebaseerde aanpak voor de regulering van bepaalde AI-systemen. In de VS hebben federale instanties, waaronder de FTC, richtlijnen en waarschuwingen uitgegeven met betrekking tot commerciële surveillance en geautomatiseerde besluitvorming, maar er is nog geen alomvattende privacywetgeving specifiek voor AI.

De behoefte aan nationale wetten en regelgeving is groter dan ooit. Consumenten willen grenzen die begrijpelijk en afdwingbaar zijn.

We gaan natuurlijk niet alle technologie opgeven. AI zal zichzelf niet overbodig maken. Het kan erg nuttig zijn. We gebruiken AI om bedreigingen en oplichtingspraktijken te vinden die nog niemand eerder heeft gezien, wat leidt tot veel betere bescherming. Veel mensen gebruiken ze om tijd te besparen, documenten op te stellen of ideeën te verkennen. Helaas creëren ze ook kleine karikaturen van zichzelf.

Beperk de informatie die u aan openbare AI-tools verstrekt, met name gezondheidsgegevens, financiële gegevens en klantgevoelige informatie.

Bekijk regelmatig het privacy- en gegevensbewaarbeleid van AI-tools die u gebruikt.

Verwijder accounts en apps die u niet meer nodig hebt.

Controleer de app-machtigingen minstens twee keer per jaar.

Gebruik een VPN om tracking door uw internetprovider te verminderen.

Verwijder uw informatie van grote databrokers. Controleer of uw persoonlijke gegevens openbaar zijn met een digitale voetafdrukscan.

Gebruik een betrouwbare wachtwoordmanager en vermijd het hergebruiken van wachtwoorden voor verschillende services.

We geloven dat privacy een mensenrecht is. De bescherming van persoonsgegevens is onlosmakelijk verbonden met de bescherming van persoonlijke veiligheid. Hoe meer informatie er zonder toezicht circuleert, hoe groter de kans op misbruik, fraude en schade.

AI zal zich blijven ontwikkelen. Die ontwikkeling zal waarschijnlijk niet vertragen. De vraag is of het vertrouwen daarin meegroeit.

voorspellen

Een strandtenthouder die een AI-chatbot vraagt ​​om de winterverkoop te voorspellen op basis van de zomerresultaten, kan zich al snel geconfronteerd zien met een vriezer vol onverkochte lekkernijen.

Dat komt niet doordat algoritmes altijd foute voorspellingen doen. Het komt doordat kunstmatige intelligentie vaak zelfverzekerd klinkende antwoorden geeft, zelfs als het niet over de benodigde informatie beschikt voor betrouwbare reacties.

Het idee is om managers te leren hoe ze de AI-tool moeten gebruiken wanneer deze waarschijnlijk een goede aanbeveling geeft misschien zelfs beter dan hun eigen aanbeveling.

Daarom moeten bedrijven erkennen dat AI er soms naast kan zitten en de aanbevelingen in twijfel trekken of er zelfs van afzien wanneer de resultaten niet kloppen.

“AI kan niet alles, toch? We willen dat mensen zelf kunnen kiezen wanneer ze een algoritme wel en niet willen volgen,”

Nu bedrijven steeds meer op AI vertrouwen voor beslissingen zoals het voorspellen van de klantvraag, lijkt een waarschuwing om niet te veel op AI te vertrouwen op zijn plaats. Richtlijnen voor hoe bedrijven de samenwerking tussen mens en AI kunnen vormgeven, zodat werknemers beter in staat zijn om slecht advies van algoritmes te herkennen en te corrigeren.

Een simpele verbetering in het AI-ontwerp kan een groot verschil maken: het toevoegen van korte, goed getimede waarschuwingen aan chatbotreacties hielp gebruikers te begrijpen wanneer ze AI-voorspellingen konden vertrouwen en wanneer ze deze moesten aanpassen of negeren. Met name door mensen te laten weten wanneer AI met gezag reageerde in bekend terrein en hen te waarschuwen wanneer dat niet het geval was werden gebruikersfouten met bijna de helft verminderd.

Het inbouwen van waarschuwingen zal ons beter toerusten met de gezonde dosis scepsis die nodig is bij het evalueren van AI-aanbevelingen, zodat we uiteindelijk betere beslissingen kunnen nemen.

Het idee, is om ons te leren hoe we de AI-tool moeten gebruiken en wanneer die waarschijnlijk een goede aanbeveling geeft, misschien zelfs beter dan onze eigen aanbeveling. Of, als alternatief, om op ons gevoel te vertrouwen, om onze intuïtie en kennis te gebruiken wanneer de AI-tool het waarschijnlijk mis heeft.

Toen AI voor het eerst opdook, zorgde de afkeer van algoritmes ervoor dat veel gebruikers de output ervan met scepsis benaderden. Sindsdien is de slinger in veel organisaties de andere kant opgeslagen, naar ongeremd enthousiasme. Maar in sommige gevallen accepteren we de aanbevelingen van AI nu te gemakkelijk en stellen algoritmes niet kritisch in twijfel, zelfs niet als iets niet helemaal klopt.

Een reeks online experimenten om te onderzoeken hoe we presteren wanneer ons wordt gevraagd de vraag naar een product te voorspellen met behulp van alleen een door AI gegenereerde prognose en een paar basisproductdetails.

Met het voorbeeld van een strandtent kan een algoritme leren dat de verkoop stijgt op warme dagen (inlier-informatie), maar kan het nog steeds moeite hebben om te begrijpen hoe de strandtent het in de winter zou doen (outlier-informatie).

“Een echt goede trainingsset met representatieve gegevens leidt tot AI-voorspellingen van hoge kwaliteit”. “Als die trainingsset verouderd, beschadigd of gebrekkig raakt, zullen de AI-voorspellingen falen.”

We presteerden het slechtst wanneer we tegelijkertijd met zowel bekende als ongebruikelijke gegevens te maken hadden, omdat we te veel corrigeerden voor bekende patronen en te weinig voor ongebruikelijke patronen. Hun extreem onnauwkeurige voorspellingen waren veel slechter dan als we ons alleen op ongebruikelijke gegevens concentreerden.

Signalen die gebruikers lieten weten dat de gegevens bekend waren en waarschijnlijk accurate antwoorden zouden opleveren en “waarschuwingen” signalen dat het algoritme mogelijk niet bekend was met de informatie, waardoor de antwoorden mogelijk niet betrouwbaar waren. Verbeterde de kwaliteit van de voorspellingen.

Eenvoudige ontwerpverbeteringen, zoals het toevoegen van waarschuwingen en aanbevelingen, maken algoritmen nauwkeuriger.

Data analyse

Als we dingen lezen over data analyse, zien we geen luiheid. Maar aarzeling en angst van iemand die aan de vooravond staat van een nieuwe stap, niet zeker weet wel of niet gekwalificeerd.

De wereld van data kan er van buitenaf overweldigend uitzien. Overal zie je geavanceerde dashboards. Machine learning-modellen. Technische discussies vol jargon. Je gaat er al snel vanuit dat je achterloopt voordat je überhaupt begint.

Maar veel van wat je hebt gehoord, klopt niet. Het zijn mythes die zo vaak herhaald zijn dat ze als vereisten zijn gaan klinken.

“Data-analyse vereist programmeervaardigheden.”

Data-analyse draait in de eerste plaats om denken, niet om programmeren. Het gaat erom te begrijpen hoe data is gestructureerd, hoe je patronen interpreteert, hoe je betere vragen stelt en hoe je bevindingen uitlegt op een manier die besluitvormers begrijpen.

Als je analytisch denkvermogen zwak is, zullen geavanceerde tools de verwarring alleen maar vergroten. Als je goed kunt nadenken, wordt het leren van nieuwe tools makkelijker.

Als je net begint, focus je dan op het begrijpen van de data zelf. Leer hoe de data zich gedraagt. Leer hoe je er vragen over kunt stellen. De tools kunnen daarop voortbouwen.

“Alleen afgestudeerden in de informatica kunnen data scientist worden.”

Veel mensen denken dat ze zonder een technische opleiding buitenstaanders zijn in de datawereld. Maar data is niet beperkt tot informaticaopleidingen. Het is aanwezig in het bedrijfsleven, de gezondheidszorg, de financiële sector, marketing, operations, de olie- en gasindustrie.

Wat telt, is je vermogen om de context te begrijpen.

Domeinkennis maakt iemand vaak waardevoller, omdat diegene cijfers kan interpreteren in realistische scenario’s. Een afgestudeerde in bedrijfskunde begrijpt bijvoorbeeld het omzetverloop diepgaand. Een ingenieur kan operationele inefficiënties sneller herkennen dan iemand met een puur technische achtergrond.

“Data opschonen is niet zo belangrijk; de data is meestal al schoon.”

In projecten in de praktijk is data zelden perfect. Je zult ontbrekende waarden, dubbele records, inconsistente formaten, onjuiste tijdstempels en vreemde uitschieters tegenkomen, zelfs in “betrouwbare” systemen. Na verloop van tijd realiseer je iets belangrijks: als de data gebrekkig is, zullen je inzichten dat ook zijn.

Data opschonen is geen kleine stap die je afraffelt. Het is vaak 60-70% van het werk. Meestal neemt het het grootste deel van het analyseproces in beslag. Goede analisten haasten zich niet in deze fase. Ze analyseren niet alleen. Ze bereiden de data goed voor. Ze respecteren de data. Want vertrouwen in je resultaten begint met vertrouwen in je data.

“Ik heb een mentor nodig voordat ik verder kan.”

Sommige van de grootste sprongen voorwaarts in vaardigheden vind je wanneer je consistent zelf oefent. Wanneer je projecten probeert. Wanneer je worstelt met verwarring. Wanneer je zoekt, documentatie leest, test, faalt en het opnieuw probeert. Een mentor kan je denkproces verfijnen. Een mentor kan je leercurve verkorten. Maar ze kunnen je discipline niet vervangen.

“Als het dashboard eenmaal gebouwd is, ben je klaar.”

Het bouwen van een dashboard is vaak slechts het begin. Metrieken veranderen. Definities evolueren. Stakeholders stellen nieuwe vragen. Iemand merkt een discrepantie op. Een databron wordt bijgewerkt. Een pijplijn loopt vast. Dataverwerking is iteratief. Een belangrijk deel van het werk bestaat uit het onderhouden van systemen, het verduidelijken van cijfers, het herhaaldelijk uitleggen van inzichten en het inspelen op veranderingen.

Het is geen eenmalige prestatie. Het is een voortdurende betrokkenheid. En die voortdurende interactie is wat zorgt voor echte relaties. Blijf in gesprek met je stakeholders.

Het draait om consistentie. Het draait om leren met een doel. Het draait om oefenen met echte datasets. Het draait om je inzichten helder uitleggen. Het draait om beetje bij beetje verbeteren.

Ergens onderweg is je misschien verteld dat programmeren voorop moet staan. Of dat je opleiding bepaalt hoe ver je kunt komen. Of dat je een mentor nodig hebt voordat je vooruitgang kunt boeken. Of dat je “het gemaakt hebt” zodra je een dashboard hebt gebouwd.

Neem even de tijd om terug te denken… welke van deze dingen geloofde je toen je begon?

Soms komt de grootste verandering niet voort uit het leren van iets nieuws. Het komt voort uit het afleren van iets wat je verkeerd hebt aangeleerd.

Je hoeft je niet klaar te zijn om te beginnen. Je hoeft alleen maar te beginnen en door te gaan.

eerder gezien

Heb jij het ook wel eens gevoeld? Dat rare, onheilspellende gevoel dat het internet elke dag dommer, luidruchtiger en vreemder wordt. Zoekresultaten lijken steeds minder nuttig, productrecensies klinken verdacht veel op elkaar en sociale media lijken overspoeld met reacties die net even anders zijn. Het is geen verbeelding. We zijn getuige van de eerste grote vervuiling van het digitale tijdperk, een vloedgolf van goedkope, synthetische tekst en afbeeldingen. Ze hebben er een naam voor: “prut”. En het is een groter probleem dan je denkt, het dreigt de bron waaruit AI zijn voeding haalt te vergiftigen.

De hele belofte van grote taalmodellen was dat ze zouden leren van de enorme hoeveelheid menselijke kennis die online is opgeslagen. Ze schrapen triljoenen woorden en afbeeldingen onze blogposts, onze boeken, onze kunst en onze gesprekken om te leren communiceren. Maar nu hebben we een fatale wending aan het verhaal toegevoegd. We vragen AI om eindeloos veel content te genereren, die vervolgens weer op het internet wordt gedumpt. We vervuilen het trainingsveld en vragen de leerling om te leren van zijn eigen halfbakken, vaak onzinnige huiswerk.

Dit creëert een angstaanjagende feedbackloop, een concept dat onderzoekers ‘modelcollaps’ hebben genoemd. Zie het als een fotokopie van een fotokopie. De eerste kopie ziet er redelijk goed uit, maar maak daar een kopie van en het beeld wordt een beetje waziger. Ga zo door en al snel heb je niets anders dan een vervormde, onherkenbare bende. AI-modellen die getraind zijn op de door AI gegenereerde content van hun voorgangers lopen hetzelfde risico: ze drijven met elke generatie verder af van de menselijke realiteit en leren en versterken hun eigen vreemde fouten.

Stel je voor dat je een topkok probeert te worden door alleen maar instantnoedels te eten. Je zou heel goed worden in het begrijpen van instantnoedels. Je zou misschien zelfs leren om nieuwe, licht afwijkende smaken van zoutzakjes te creëren. Maar je zou geen idee hebben van een vers kruid, een complexe saus of de textuur van een perfect gebakken biefstuk. Je kookkunsten zouden een bleke, beperkte imitatie zijn van echte culinaire kunst. Dit is het risico voor een AI die gevoed wordt met zijn eigen output. Het leert een oppervlakkige versie van de realiteit en mist de diepte en rijkdom van zijn oorspronkelijke menselijke trainingsdata.

Plotseling maakt de AI niet alleen fouten met de feiten; ze begint ook de rijkdom en diversiteit van menselijke expressie te vergeten. Als een AI getraind wordt op een miljoen generieke, door AI geschreven zakelijke e-mails, zal ze er alleen maar meer kunnen schrijven. Ze zal de nuance van een gedicht of de geestigheid van een slimme tweet vergeten. De digitale wereld zou een echokamer kunnen worden, niet van menselijke ideeën, maar van saaie, statistische gemiddelden. De vreemde, wonderlijke en chaotische hoekjes van het web die het zo menselijk maakten, zouden kunnen worden gladgestreken en vervangen door een voorspelbare, synthetische brij.

Maar het gaat niet alleen om feiten; het gaat om smaak. Echte menselijke taal is rommelig, vreemd en zit vol inside jokes. Het bevat sarcasme en lokale slang, dingen die emotioneel perfect kloppen, zelfs als ze niet logisch zijn. AI, in haar eindeloze zoektocht naar het ‘meest waarschijnlijke’ woord, is een machine die gebouwd is om die interessante, ruwe kantjes af te vlakken. Ze leert het gemiddelde, de meest voorkomende manier om iets te zeggen, en herhaalt dat vervolgens. Het risico is dat de stem van het internet wordt afgevlakt tot een saai, voorspelbaar gezoem.

En denk niet dat dit een abstracte dreiging voor de toekomst is. Vraag het maar aan een kunstenaar die tien jaar aan zijn vakmanschap heeft gewerkt, om vervolgens te zien hoe een machine binnen een minuut een goedkope imitatie van zijn stijl produceert. Zijn unieke visie, zijn ziel, wordt slechts een datapunt dat een systeem kan kopiëren. Zijn levenswerk wordt gereduceerd tot een sjabloon voor het maken van eindeloos, wegwerpbaar behang. Het gaat niet om het verliezen van een baan aan een robot; het gaat om de klap in je gezicht wanneer je ziet hoe iets waar je van houdt betekenisloos wordt.

Deze verloedering verspreidt zich veel verder dan creatief werk en sluipt binnen in beroepen die afhankelijk zijn van onwrikbare waarheid. De hele verkooppraat voor AI was dat het onderzoek zou versnellen. In plaats daarvan creëert het een paranoïde nachtmerrie. Een medisch onderzoeker kan het zich niet veroorloven om een ​​door AI gegenereerd onderzoek aan te halen dat nooit heeft plaatsgevonden. De hele zaak van een advocaat kan instorten als deze is gebouwd op een vals juridisch precedent dat de AI zojuist heeft verzonnen. Het bespaart geen werk; Het creëert een nieuwe, uitputtende baan voor iedereen: digitale detective, die zich constant moet afvragen: “Is dit wel echt?”

Deze hele puinhoop is een verraad aan de oorspronkelijke belofte van het internet. Het vroege web was een grensgebied, een plek voor individuele stemmen, nichegemeenschappen en authentieke menselijke verbinding. Het was rommelig en vreemd, maar het was van ons. De opkomst van de rommel voelt als de laatste fase van een overname door een groot bedrijf, waarbij die levendige chaos wordt geplaveid met een homogeen, perfect onderhouden en oer saai suburbane landschap. Het doel is niet langer verbinding of expressie, maar de oneindige schaalvergroting van content voor maximale betrokkenheid.

De grote techbedrijven beloven natuurlijk dat ze filters en oplossingen hebben. Ze beweren dat ze de mens van de machine kunnen scheiden, het signaal van de ruis. Maar kunnen ze dat echt? En belangrijker nog, willen ze dat wel? Een internet overspoeld met content, zonder enige ma Hoe beter de kwaliteit, hoe meer clicks, engagement en advertentie-inkomsten het genereert. De beloningsstructuur van onze digitale wereld is niet ontworpen om kwaliteit te belonen, maar om aandacht te belonen. En Slop, met al zijn tekortkomingen, is er een meester in om die aandacht te grijpen.

Dus waar brengt dit ons? We staan ​​op een vreemd kruispunt. De technologie die ongekende kennis en creativiteit beloofde te ontsluiten, zou wel eens precies datgene kunnen zijn dat ons gevangen houdt in een vicieuze cirkel van steeds verdergaande middelmatigheid. De droom was een digitale Bibliotheek van Alexandrië, een bewaarplaats van alle menselijke wijsheid. De realiteit zou wel eens een lachspiegel kunnen zijn, die voor altijd een vervormde, vereenvoudigde en uiteindelijk dommere versie van onszelf aan ons terugkaatst. Het internet vreet zichzelf op en we moeten ons afvragen of er nog wel iets overblijft dat de moeite waard is om te redden.

stoppen met sparen

Jarenlang is de technologiesector geobsedeerd geweest door het concept van “de singulariteit”, dat hypothetische moment waarop technologische groei oncontroleerbaar en onomkeerbaar wordt.

Een fundamentele ontkoppeling van menselijk overleven van het concept arbeid.

In deze visie bewegen we ons niet alleen naar een wereld van robots; we bewegen ons naar een wereld waarin het concept kosten zelf verdwijnt, waardoor geld zoals we dat kennen een achterhaalde techniek wordt uit het verleden.

De kern van de voorspelling is de combinatie van algemene kunstmatige intelligentie en geavanceerde robotica. Zodra een machine elke taak kan uitvoeren die een mens voorheen uitvoerde, de kosten van goederen en diensten dalen tot de kosten van de grondstoffen en de energie die nodig is om de robot aan te sturen. Een verschuiving van Universeel Basisinkomen naar Universeel Hoog Inkomen.

Terwijl het Universeel Basisinkomen vaak wordt gezien als een “basis” om verhongering in een geautomatiseerde wereld te voorkomen, en het Universeel Hoog Inkomen als een maatschappij zonder “plafond” waar iedereen toegang heeft tot een luxueuze levensstandaard omdat er geen tekort aan arbeidskrachten is die de productie beperkt.

Daarbij is er in een recente podcast van een bekende tech miljardair een financiële bom vallen: hij adviseerde mensen te stoppen met “geld opzijzetten” voor hun pensioen. Volgens de tech miljardair wordt het traditionele concept van een spaarpot irrelevant als AI alles kan produceren.

Automatisering zal de productiviteit zo sterk kan verhogen dat veel goederen en diensten veel goedkoper worden, wat een krachtige deflatoire druk zou creëren. Is dit verstandig of juist heel erg dom? Voor de gemiddelde persoon is het opvolgen van dit advies vandaag de dag aantoonbaar extreem riskant:

De overgang tussen de twee systemen zal hobbelig verlopen. Als je met pensioen gaat tijdens dat hobbelige decennium voordat de robots alles hebben opgelost, en je geen spaargeld hebt, ben je straatarm.

Momenteel zijn de robots eigendom van bedrijven in plaats van van iedereen. Zonder een enorme politieke verschuiving om die rijkdom te herverdelen, blijft overvloed mogelijk achter een betaalmuur verborgen.

Het is makkelijk voor ’s werelds rijkste elite – met een vermogen van honderden miljarden – om te zeggen dat geld er niet toe doet. Voor alle anderen is geld nog steeds het enige waarmee ze hun eten, drinken en de huur kunnen betalen.

De laatste voorspellingen suggereren dat AI de collectieve menselijke intelligentie in 2030 zal overtreffen. Men verwacht dat Optimus tussen 2027 en 2029 op grote schaal gebruikt zal worden.

Als deze mijlpalen standhouden, zien we het ‘Tijdperk van Overvloed’ zich manifesteren tussen 2040 en 2045. Dit is geen probleem dat ‘over een eeuw’ speelt; het is een probleem dat zich midden in een carrièreovergang voordoet voor de huidige beroepsbevolking.

Door alle arbeid te automatiseren, maakt de rijkste der aarde hun eigen enorme bankrekening in feite overbodig. Volgens hen is de ware valuta van de toekomst niet te zoeken in monetaire zaken, maar energie. Zodra AI en robots zelfstandig grondstoffen kunnen delven en chips kunnen produceren, sluit de ‘energiekringloop’ zich en verdwijnt de behoefte aan een monetair medium.

Als geld verdwijnt, wat komt er dan voor in de plaats? Deze toekomst past niet in de hokjes van de afgelopen decennia.

In eerste instantie zullen de eigenaren van de robots hun rijkdom explosief zien groeien.

Uiteindelijk, als goederen in feite gratis zijn, zou de ‘staat’ (als die nog bestaat) zich richten op universele basisvoorzieningen. In plaats van een cheque krijg je een huis, een robot en voedsel als geboorterecht.

Wat gebeurt er met de rijken die in het oude systeem voortkwamen? Ze verliezen hun belangrijkste machtsmiddel: schaarste. Wanneer iedereen ‘rijk’ is, verschuift de invloed van financieel kapitaal naar sociaal en intellectueel kapitaal.

Het gevaarlijkste aspect van de geschetste  toekomst is niet armoede, maar zingeving. Sociologen waarschuwen dat we zonder strijd in een existentieel vacuüm terechtkomen.

Je wordt wakker als je uitgerust bent. Je huis gebouwd door robots en aangedreven door alomtegenwoordige zonne-energie. Het zorgt voor een perfect klimaat zonder kosten. Je hoeft niet naar je werk. In plaats daarvan kun je de ochtend besteden aan samenwerken met een AI aan een project waar je een passie voor hebt, of aan ‘dorpswerk’ zoals mentorschap of tuinieren niet omdat het moet, maar voor de menselijke connectie.

Voor degenen wier identiteit verbonden is aan het ‘winnen’ van een financiële hiërarchie, kan het aanvoelen als een fluwelen gevangenis. Ironisch genoeg denk ik dat veel rijken een hekel zou hebben aan leven in de wereld die we voor ogen heeft.

De kans dat dit resultaat wordt bereikt, hangt af van het oplossen van drie knelpunten: energie, wereldwijde regelgeving en het ‘afstemmingsprobleem’ (ervoor zorgen dat AI menselijke waarden deelt). Om je voor te bereiden, moet je niet zomaar stoppen met sparen. Investeer in plaats daarvan in aanpassingsvermogen. Leer samenwerken met AI en bedenk wat je met je leven zou doen als je nooit meer een cent hoefde te verdienen.

Visie op absolute overvloed is een opvallende afwijking van dystopische clichés. We gokken erop dat technologie armoede zal oplossen door geld en arbeid overbodig te maken.

Aanbeveling om te stoppen met sparen voor je pensioen blijft echter een riskante gok die de hobbelige decennia van transitie negeert.

Hoewel we uiteindelijk een wereld zullen bereiken waarin geld geen bepalende rol speelt, wordt de brug naar die toekomst nog steeds gebouwd. En voorlopig moet er nog betaald worden in traditionele valuta.