Herhalen we de fouten die in de jaren 90 bij de implantatie van AI.
De meeste AI-initiatieven mislukken een schokkende 95 procent, vergeleken met slechts 25 procent van de traditionele IT-projecten.
De reden is niet de slechte technologie, het is dat we AI onbeperkte autonomie blijven geven zonder de beperkingen ervan te begrijpen of hoe het van toepassing is op onze behoeften.
We hebben deze patronen al eerder gezien bij elke nieuwe technische innovatie. De huidige AI-mislukkingen volgen een script dat tientallen jaren geleden is geschreven, en we zouden allemaal aandacht moeten besteden aan de patronen uit eerdere mislukkingen.
Het is hetzelfde patroon dat huidige AI-mislukkingen dwingt tot een regelgevende interventie.
De parallel met de huidige AI-implementaties is treffend, indrukwekkende technologie die de praktische realiteit van alledaagse consumenten negeert.
AI of welke technologie dan ook opdringen aan gebruikers die er bang voor zijn of het wantrouwen, staat garant voor mislukking. De huidige AI-implementaties stuiten op dezelfde weerstand van mensen die geautomatiseerde systemen geen belangrijke beslissingen toevertrouwen.
Elke mislukte technologiegolf volgt vier voorspelbare stappen:
Eerste, Magisch denken daarbij beschouwen we nieuwe technologie als een wondermiddel. Rechtvaardigt deze denkwijze het geven van onbeperkte autonomie aan technologie, omdat “het de toekomst is”.
Tweede, Onbeperkte implementatie daarbij implementeren we zonder beperkingen. AI kan elk antwoord genereren. Maar vragen we, ”moeten we?”, of alleen “kunnen we?”.
Derde, Cascade van mislukkingen daarbij stapelen problemen zich exponentieel op. Eén AI-hallucinatie verspreidt binnen enkele uren gevaarlijke desinformatie naar miljoenen gebruikers.
Vierde, gedwongen correctie waarbij een publieke tegenreactie en regelgevende interventie tegelijk komen. Er wordt momenteel gewerkt aan AI-regelgeving, de vraag is of deze zal helpen vormgeven of erdoor gevormd zal worden.
Voor iedereen die zich voor het eerst in AI verdiept, is het duidelijk dat AI catastrofale schade kan toebrengen, misschien wel meer dan in voorgaande tijdperken, gezien de autonomie van AI zelf.
Begin met beperkingen, niet met mogelijkheden: Voordat we ons afvragen wat AI kan, definieren we wat het niet mag doen. Elke succesvolle implementatie van technologie begint met grenzen.
Creëer killswitches vóór de lancering, we hebben drie niveaus van shutdown nodig: direct (stop deze reactie), tactisch (schakel deze functie uit) en strategisch (stop het hele systeem).
Meet twee keer, lanceer één keer: Voer piloten uit met duidelijke succescijfers. Test met vijandige input van gebruikers die proberen je systeem te kraken.
Beheer de resultaten we kunnen geen AI-successen claimen terwijl we AI-falen ontkennen. Stel duidelijke verantwoordingsketens vast vóór de implementatie. Als je voor een AI implementatie een belofte doet, komt die na. Als het een fouten maakt, neem daarvoor verantwoordelijk.
De AI successen, zullen niet het snelst geïmplementeerd worden of het meest aan uitgeven worden. We zullen leren van drie decennia aan technologische mislukkingen in plaats van ze te herhalen. Vergeet niet dat het opdringen van technologie aan onwillige gebruikers een recept voor een ramp is.
Het patroon is duidelijk. De blauwdruk bestaat. De enige vraag is of je de 95 procent volgt in de mislukking of je aansluit bij de 5 procent die van de afgelopen drie technologie decennia heeft geleerd.
