investeringsbubbel

De investeringshausse in datacenters is een van de grootste infrastructurele gokken van dit tijdperk.

De belangrijkste financiers, AI bedrijven, die nooit schromen voor overdrijving, beloofde enorme economische voordelen met faciliteiten die mensen zouden helpen AI te gebruiken.

Nu lijken de AI bedrijven zich terug te trekken uit een deel van de deals in de chips en energiecentrales die nodig zijn om AI te bouwen en te draaien.

Dit is misschien geen probleem men kan vermoedelijk andere datacenters vinden. Minder goed nieuws dat al miljarden zijn uitgegeven aan hardware. Het is een van de vele scheuren die ontstaan ​​in de kapitaalmarkt van de AI-economie en die investeerders behoorlijk nerveus maken.

Toekomstige datacenterleasecontracten die zijn afgesloten door de grootste cloudcomputing bedrijven zijn in twee jaar tijd met bijna 340% gestegen en bedragen nu meer dan 700 miljard dollar. Dat is een enorm bedrag als de technologie niet begint te leveren wat beloofd is om de economische productiviteit te verhogen.

Belangrijke projecten zijn vertraagd of onwaarschijnlijk, cruciale ‘investeringen’ zijn in feite vage overeenkomsten tussen voornamelijk technologiebedrijven, een motor voor economische groei.

Als de scheuren in deze datacenterboom groter worden, variëren de gevolgen van het feit dat we niet langer beschikt over de AI-infrastructuur die het nodig heeft om mee te kunnen komen in de wereldeconomie, tot het veel ernstiger risico dat de hele AI-bubbel barst, een herhaling van de dotcomcrash van 2001 die de wereldeconomie ernstig zou kunnen ontwrichten.

Er is veel blind optimisme geweest rond de uitbouw van AI-infrastructuur. Hoewel er een ongelooflijke boom gaande is, met bouwactiviteiten op een ongekende schaal, is het al geruime tijd duidelijk dat veel projecten niet door zullen gaan, of dat de bouw en ingebruikname veel langer zullen duren dan veel beweringen doen vermoeden.

Een nieuwer chipmodel is de oorzaak dat hardware tijdens de ontwikkeling van de infrastructuur mogelijk niet meer de nieuwste technologie. De snelheid waarmee chips verouderen werpt een verdere schaduw over de beweringen over massale AI-investeringen.  Chips zijn geen geld, ze verliezen waarde, mogelijk zelfs sneller dan de meeste investeerders beweren.

Dit betekent dat het ertoe doet wanneer een datacenter online moet zijn. Tegen de tijd dat ze klaar zijn en de extra elektriciteit is geregeld, zullen de sprongen in het ontwerp van AI-systemen betekenen dat het gebruik van verouderde chips net zo vanzelfsprekend is als het bezitten van een propellervliegtuig in het straalvliegtuigtijdperk?

Datacenters, met name de grote, AI-datacenters met een hoge dichtheid, zijn zeer complexe engineering projecten. Weinig datacenters worden binnen twee jaar operationeel, en meestal duurt het veel langer. Het is niet ongebruikelijk dat sommige projecten jarenlang worden vertraagd of voor onbepaalde tijd worden uitgesteld.

De investeringshausse in datacenters is een van de grootste infrastructurele gokken van deze of welke tijd dan ook. Of een AI datacenter project uiteindelijk een echte AI-fabriek wordt, kan veel zeggen over wie er wint en wie er verliest.

vertrouwen

Een meerderheid van ons vertrouwt AI niet met onze gegevens. AI is niet stiekem ons leven binnengeslopen. Het is met een enorme knal binnengekomen, heeft een plaats verovert aan tafel en is onze gedachten gaan afmaken.

In plaats van een handige lijst met links probeert de zoekmachine nu onze vragen te beantwoorden. Een digitale assistent stelt antwoorden op voor je baas nog voordat je koffie hebt gedronken. Je telefoon vat gesprekken samen die je, je soms niet eens meer herinnert.

Elk groot techbedrijf probeert zo snel mogelijk AI aan zijn producten of productnamen toe te voegen, omdat niemand achter wil blijven. En het publiek wordt vaak gedwongen zich aan te passen aan dergelijke grillen van bedrijven vanwege de toenemende effecten van verwatering.

Mensen gebruiken AI. Maar ze vertrouwen het niet en maken zich zorgen over AI die onze gegevens gebruikt zonder toestemming.

Dat zijn niet zomaar een paar sceptici. Maar bijna iedereen maakt zich zorgen over hoeveel persoonlijke gegevens die AI verzamelt en wat het ermee gaat doen, dus dat is een goede graadmeter voor hoe belangrijk het voor iedereen is.

Dit wantrouwen is niet begonnen met AI natuurlijk krijgt AI alle aandacht in de media. Maar mensen maken zich al lange tijd zorgen over de bescherming van hun persoonlijke gegevens.

We maken ons zorgen over het feit dat onze persoonsgegevens “ongepast worden gebruikt”. Of over het feit dat onze persoonsgegevens ongepast worden ingezien en gebruikt.

Jarenlange datalekken, dubieuze trackingpraktijken en gevaarlijk misbruik door datahandelaren hebben ons vertrouwen in organisaties om onze gegevens te beschermen ondermijnd. Het afgelopen jaar hebben instellingen herhaaldelijk melding gemaakt van grote beveiligingslekken die gevoelige gegevens betreffen. De autoriteiten waarschuwde voor “schokkende” commerciële surveillancepraktijken waar de meeste consumenten nooit mee hebben ingestemd, en persoonlijke gegevens zijn gebruikt bij oplichtingspraktijken die op jou of je familie gericht zijn.

Wanneer mensen sociale media gebruiken, begrijpen ze over het algemeen dat hun klikken en likes worden bijgehouden. Wanneer mensen online winkelen, verwachten ze dat de winkel hun aankoopgeschiedenis opslaat of bijhoudt in welke artikelen ze geïnteresseerd waren. Ze begrijpen het concept van reclame en zien hoe het past binnen sociale of commerciële websites.

Wanneer we ideeën, aantekeningen van vergaderingen, persoonlijke dilemma’s en gezondheidsvragen delen met een AI-assistent, behandelen we die als een vertrouwenspersoon. Misschien hebben we betaald voor een toegangsniveau dat belooft dat de modellen niet op onze gegevens worden getraind. Zelfs wanneer we chatten over bouwpakketten en ontbrekende schroeven met de AI-chatbot van een website, gedragen we ons alsof we met een ander persoon praten en zenden we dat gesprek niet uit naar de hele wereld.

De interactie met AI voelt intiem en conversatieachtig aan, ook al zijn we ons er allemaal van bewust dat we met een bot praten. Dat maakt de onzekerheid over hoe die AI omgaat met de gegevens die we hebben ingevoerd persoonlijker en directer.

We weten dat AI-assistenten van een bedrijf vaak zijn gekoppeld aan andere tools. We weten dat GPT’s door elke ontwikkelaar of oplichter kunnen worden gemaakt. We weten dat bijna elk zakelijk of persoonlijk platform tegenwoordig wel een of andere vorm van AI-gebaseerde gegevensverzameling bevat. Wat de gemiddelde persoon niet weet over AI is beangstigend.

Waar worden onze prompts opgeslagen?

Worden die prompts gebruikt om de AI te trainen?

Hoe lang worden ze bewaard?

Kan iedereen binnen het bedrijf ze lezen?

Kunnen ze worden gekocht? Gebruikt voor reclame? Gelekt?…

Hoewel de bezorgdheid over misbruik van gegevens nog steeds groot is, voelen minder mensen zich volledig machteloos.

We nemen praktische stappen om de blootstelling van hun gegevens te beperken.

Sommigen hebben het gebruik van bepaalde platforms verminderd of volledig stopgezet vanwege privacy bezwaren.

Anderen delen minder persoonlijke informatie online of vermijden gevoelige onderwerpen in digitale gesprekken.

Ook is er een toename in het gebruik van privacybeschermende tools voor onze gegevens, apparaten en identiteit.

Al wist dit geen historische gegevenssporen uit, maar beperkt wel nieuwe blootstelling.

Privacybescherming kan binair aanvoelen: of alles is openbaar, of alles is veilig. Maar het is een stapsgewijs proces, waarbij we steeds meer controle over onze gegevens terugnemen.

Waardoor bedrijven die AI in hun producten integreren, te maken krijgen met een complexere consument dan ze aanvankelijk dachten.

Jarenlang gingen productteams ervan uit dat gebruikers meer data zouden inruilen voor meer gemak. Maar toen bijna negen op de tien mensen aangaven zich zorgen te maken over AI die hun data zonder toestemming gebruikt, werd vertrouwen onderdeel van het product zelf.

Het is niet langer voldoende om te benadrukken wat AI kan doen. Gebruikers willen begrijpen wat er gebeurt nadat ze op “verzenden” drukken.

Wanneer de bezorgdheid het niveau bereikt, roept dat onvermijdelijk de lastige vraag over regelgeving op.

Nationale wetgeving steunen we als die regelt hoe bedrijven onze persoonlijke gegevens mogen verzamelen, opslaan, delen of gebruiken.

Het probleem gaat minder over één tool, maar meer over het gevoel dat de waarborgen onduidelijk zijn. Generatieve AI-systemen kunnen juridische documenten opstellen, e-mails schrijven en gevoelige data razendsnel verwerken. Veel van de bestaande privacywetgeving zijn geschreven voordat AI gemeengoed was.

Toezichthouders proberen de achterstand in te halen. De AI-wet van de Europese Unie, die in 2024 werd aangenomen, introduceerde een risicogebaseerde aanpak voor de regulering van bepaalde AI-systemen. In de VS hebben federale instanties, waaronder de FTC, richtlijnen en waarschuwingen uitgegeven met betrekking tot commerciële surveillance en geautomatiseerde besluitvorming, maar er is nog geen alomvattende privacywetgeving specifiek voor AI.

De behoefte aan nationale wetten en regelgeving is groter dan ooit. Consumenten willen grenzen die begrijpelijk en afdwingbaar zijn.

We gaan natuurlijk niet alle technologie opgeven. AI zal zichzelf niet overbodig maken. Het kan erg nuttig zijn. We gebruiken AI om bedreigingen en oplichtingspraktijken te vinden die nog niemand eerder heeft gezien, wat leidt tot veel betere bescherming. Veel mensen gebruiken ze om tijd te besparen, documenten op te stellen of ideeën te verkennen. Helaas creëren ze ook kleine karikaturen van zichzelf.

Beperk de informatie die u aan openbare AI-tools verstrekt, met name gezondheidsgegevens, financiële gegevens en klantgevoelige informatie.

Bekijk regelmatig het privacy- en gegevensbewaarbeleid van AI-tools die u gebruikt.

Verwijder accounts en apps die u niet meer nodig hebt.

Controleer de app-machtigingen minstens twee keer per jaar.

Gebruik een VPN om tracking door uw internetprovider te verminderen.

Verwijder uw informatie van grote databrokers. Controleer of uw persoonlijke gegevens openbaar zijn met een digitale voetafdrukscan.

Gebruik een betrouwbare wachtwoordmanager en vermijd het hergebruiken van wachtwoorden voor verschillende services.

We geloven dat privacy een mensenrecht is. De bescherming van persoonsgegevens is onlosmakelijk verbonden met de bescherming van persoonlijke veiligheid. Hoe meer informatie er zonder toezicht circuleert, hoe groter de kans op misbruik, fraude en schade.

AI zal zich blijven ontwikkelen. Die ontwikkeling zal waarschijnlijk niet vertragen. De vraag is of het vertrouwen daarin meegroeit.

voorspellen

Een strandtenthouder die een AI-chatbot vraagt ​​om de winterverkoop te voorspellen op basis van de zomerresultaten, kan zich al snel geconfronteerd zien met een vriezer vol onverkochte lekkernijen.

Dat komt niet doordat algoritmes altijd foute voorspellingen doen. Het komt doordat kunstmatige intelligentie vaak zelfverzekerd klinkende antwoorden geeft, zelfs als het niet over de benodigde informatie beschikt voor betrouwbare reacties.

Het idee is om managers te leren hoe ze de AI-tool moeten gebruiken wanneer deze waarschijnlijk een goede aanbeveling geeft misschien zelfs beter dan hun eigen aanbeveling.

Daarom moeten bedrijven erkennen dat AI er soms naast kan zitten en de aanbevelingen in twijfel trekken of er zelfs van afzien wanneer de resultaten niet kloppen.

“AI kan niet alles, toch? We willen dat mensen zelf kunnen kiezen wanneer ze een algoritme wel en niet willen volgen,”

Nu bedrijven steeds meer op AI vertrouwen voor beslissingen zoals het voorspellen van de klantvraag, lijkt een waarschuwing om niet te veel op AI te vertrouwen op zijn plaats. Richtlijnen voor hoe bedrijven de samenwerking tussen mens en AI kunnen vormgeven, zodat werknemers beter in staat zijn om slecht advies van algoritmes te herkennen en te corrigeren.

Een simpele verbetering in het AI-ontwerp kan een groot verschil maken: het toevoegen van korte, goed getimede waarschuwingen aan chatbotreacties hielp gebruikers te begrijpen wanneer ze AI-voorspellingen konden vertrouwen en wanneer ze deze moesten aanpassen of negeren. Met name door mensen te laten weten wanneer AI met gezag reageerde in bekend terrein en hen te waarschuwen wanneer dat niet het geval was werden gebruikersfouten met bijna de helft verminderd.

Het inbouwen van waarschuwingen zal ons beter toerusten met de gezonde dosis scepsis die nodig is bij het evalueren van AI-aanbevelingen, zodat we uiteindelijk betere beslissingen kunnen nemen.

Het idee, is om ons te leren hoe we de AI-tool moeten gebruiken en wanneer die waarschijnlijk een goede aanbeveling geeft, misschien zelfs beter dan onze eigen aanbeveling. Of, als alternatief, om op ons gevoel te vertrouwen, om onze intuïtie en kennis te gebruiken wanneer de AI-tool het waarschijnlijk mis heeft.

Toen AI voor het eerst opdook, zorgde de afkeer van algoritmes ervoor dat veel gebruikers de output ervan met scepsis benaderden. Sindsdien is de slinger in veel organisaties de andere kant opgeslagen, naar ongeremd enthousiasme. Maar in sommige gevallen accepteren we de aanbevelingen van AI nu te gemakkelijk en stellen algoritmes niet kritisch in twijfel, zelfs niet als iets niet helemaal klopt.

Een reeks online experimenten om te onderzoeken hoe we presteren wanneer ons wordt gevraagd de vraag naar een product te voorspellen met behulp van alleen een door AI gegenereerde prognose en een paar basisproductdetails.

Met het voorbeeld van een strandtent kan een algoritme leren dat de verkoop stijgt op warme dagen (inlier-informatie), maar kan het nog steeds moeite hebben om te begrijpen hoe de strandtent het in de winter zou doen (outlier-informatie).

“Een echt goede trainingsset met representatieve gegevens leidt tot AI-voorspellingen van hoge kwaliteit”. “Als die trainingsset verouderd, beschadigd of gebrekkig raakt, zullen de AI-voorspellingen falen.”

We presteerden het slechtst wanneer we tegelijkertijd met zowel bekende als ongebruikelijke gegevens te maken hadden, omdat we te veel corrigeerden voor bekende patronen en te weinig voor ongebruikelijke patronen. Hun extreem onnauwkeurige voorspellingen waren veel slechter dan als we ons alleen op ongebruikelijke gegevens concentreerden.

Signalen die gebruikers lieten weten dat de gegevens bekend waren en waarschijnlijk accurate antwoorden zouden opleveren en “waarschuwingen” signalen dat het algoritme mogelijk niet bekend was met de informatie, waardoor de antwoorden mogelijk niet betrouwbaar waren. Verbeterde de kwaliteit van de voorspellingen.

Eenvoudige ontwerpverbeteringen, zoals het toevoegen van waarschuwingen en aanbevelingen, maken algoritmen nauwkeuriger.

Data analyse

Als we dingen lezen over data analyse, zien we geen luiheid. Maar aarzeling en angst van iemand die aan de vooravond staat van een nieuwe stap, niet zeker weet wel of niet gekwalificeerd.

De wereld van data kan er van buitenaf overweldigend uitzien. Overal zie je geavanceerde dashboards. Machine learning-modellen. Technische discussies vol jargon. Je gaat er al snel vanuit dat je achterloopt voordat je überhaupt begint.

Maar veel van wat je hebt gehoord, klopt niet. Het zijn mythes die zo vaak herhaald zijn dat ze als vereisten zijn gaan klinken.

“Data-analyse vereist programmeervaardigheden.”

Data-analyse draait in de eerste plaats om denken, niet om programmeren. Het gaat erom te begrijpen hoe data is gestructureerd, hoe je patronen interpreteert, hoe je betere vragen stelt en hoe je bevindingen uitlegt op een manier die besluitvormers begrijpen.

Als je analytisch denkvermogen zwak is, zullen geavanceerde tools de verwarring alleen maar vergroten. Als je goed kunt nadenken, wordt het leren van nieuwe tools makkelijker.

Als je net begint, focus je dan op het begrijpen van de data zelf. Leer hoe de data zich gedraagt. Leer hoe je er vragen over kunt stellen. De tools kunnen daarop voortbouwen.

“Alleen afgestudeerden in de informatica kunnen data scientist worden.”

Veel mensen denken dat ze zonder een technische opleiding buitenstaanders zijn in de datawereld. Maar data is niet beperkt tot informaticaopleidingen. Het is aanwezig in het bedrijfsleven, de gezondheidszorg, de financiële sector, marketing, operations, de olie- en gasindustrie.

Wat telt, is je vermogen om de context te begrijpen.

Domeinkennis maakt iemand vaak waardevoller, omdat diegene cijfers kan interpreteren in realistische scenario’s. Een afgestudeerde in bedrijfskunde begrijpt bijvoorbeeld het omzetverloop diepgaand. Een ingenieur kan operationele inefficiënties sneller herkennen dan iemand met een puur technische achtergrond.

“Data opschonen is niet zo belangrijk; de data is meestal al schoon.”

In projecten in de praktijk is data zelden perfect. Je zult ontbrekende waarden, dubbele records, inconsistente formaten, onjuiste tijdstempels en vreemde uitschieters tegenkomen, zelfs in “betrouwbare” systemen. Na verloop van tijd realiseer je iets belangrijks: als de data gebrekkig is, zullen je inzichten dat ook zijn.

Data opschonen is geen kleine stap die je afraffelt. Het is vaak 60-70% van het werk. Meestal neemt het het grootste deel van het analyseproces in beslag. Goede analisten haasten zich niet in deze fase. Ze analyseren niet alleen. Ze bereiden de data goed voor. Ze respecteren de data. Want vertrouwen in je resultaten begint met vertrouwen in je data.

“Ik heb een mentor nodig voordat ik verder kan.”

Sommige van de grootste sprongen voorwaarts in vaardigheden vind je wanneer je consistent zelf oefent. Wanneer je projecten probeert. Wanneer je worstelt met verwarring. Wanneer je zoekt, documentatie leest, test, faalt en het opnieuw probeert. Een mentor kan je denkproces verfijnen. Een mentor kan je leercurve verkorten. Maar ze kunnen je discipline niet vervangen.

“Als het dashboard eenmaal gebouwd is, ben je klaar.”

Het bouwen van een dashboard is vaak slechts het begin. Metrieken veranderen. Definities evolueren. Stakeholders stellen nieuwe vragen. Iemand merkt een discrepantie op. Een databron wordt bijgewerkt. Een pijplijn loopt vast. Dataverwerking is iteratief. Een belangrijk deel van het werk bestaat uit het onderhouden van systemen, het verduidelijken van cijfers, het herhaaldelijk uitleggen van inzichten en het inspelen op veranderingen.

Het is geen eenmalige prestatie. Het is een voortdurende betrokkenheid. En die voortdurende interactie is wat zorgt voor echte relaties. Blijf in gesprek met je stakeholders.

Het draait om consistentie. Het draait om leren met een doel. Het draait om oefenen met echte datasets. Het draait om je inzichten helder uitleggen. Het draait om beetje bij beetje verbeteren.

Ergens onderweg is je misschien verteld dat programmeren voorop moet staan. Of dat je opleiding bepaalt hoe ver je kunt komen. Of dat je een mentor nodig hebt voordat je vooruitgang kunt boeken. Of dat je “het gemaakt hebt” zodra je een dashboard hebt gebouwd.

Neem even de tijd om terug te denken… welke van deze dingen geloofde je toen je begon?

Soms komt de grootste verandering niet voort uit het leren van iets nieuws. Het komt voort uit het afleren van iets wat je verkeerd hebt aangeleerd.

Je hoeft je niet klaar te zijn om te beginnen. Je hoeft alleen maar te beginnen en door te gaan.