Nog niet zolang geleden was AI iets wat veel indrukwekkende teksten kan genereren, maar deze tekst niet echt kan beredeneren. Het is allemaal een oppervlakkige nabootsing van een bestaand iets, gewoon wat gekrijs.
Destijds was het gemakkelijk te begrijpen waar dit perspectief vandaan kwam. Kunstmatige intelligentie had momenten van indrukwekkende en interessante vaardigheid, maar het faalde ook consequent in basistaken. Door de modellen gewoon steeds groter en beter te maken, ook wanneer achter de schermen alles bij elkaar wordt gehouden met lijm, ducttape en laagbetaalde werknemers.
Dit afwijzende perspectief geld nog steeds, vaak, wanneer we luisteren naar academici in de taalkunde en filosofie. Om de AI-bubbel te laten knappen wordt er beweerd wordt dat AI’s niet echt kunnen redeneren en blijven hangen bij de bewering dat de modellen slechts onzingenerators zijn die niet veel beter worden en ook niet veel beter zullen worden.
Steeds vaker blijkt dat het herhalen van die beweringen ons tekortdoet, en dat men er niet in slaagt de belangrijkste implicaties van AI aan te pakken.
Mensen die normaal gesproken niet veel over AI lezen, hoorden over AI, erkende dat de AI-prestaties bij taken van “matige moeilijkheidsgraad” verbeterden, concentreerden veel samenvattingen van de belangrijkste bevindingen zich op de bewering een fundamentele schaalbeperking in het denkvermogen van huidige redeneermodellen.
Voor een groot deel van het hen bevestigd dit iets wat ze graag willen geloven: dat generatieve AI niet echt werkt en dat is iets dat voorlopig niet zal veranderen.
De prestaties van moderne, hoogwaardige taalmodellen bij “redeneertaken” in feite ingewikkelde puzzels. Na een bepaald punt worden die prestaties slechter, wat vervolgens lijkt aan te tonen dat de modellen geen echte plannings- en probleemoplossende vaardigheden hebben ontwikkeld.
Deze modellen slagen er niet in om generaliseerbare probleemoplossende vaardigheden voor planningstaken te ontwikkelen, waarbij de prestaties tot nul dalen boven een bepaalde complexe drempel.
Dat is de belangrijkste conclusie die veel mensen en de bredere discussie erover trekken. Maar als je de details verdiept, zul je zien dat deze bevinding niet verrassend is en eigenlijk niet zoveel zegt over AI.
Een groot deel van de reden waarom de modellen falen bij het gegeven probleem, niet omdat ze het niet kunnen oplossen, maar omdat ze hun antwoorden niet kunnen uitdrukken in het specifieke formaat dat we hebben gekozen.
Als je het AI model vraagt een programma te schrijven dat het juiste antwoord geeft, dan kan dat moeiteloos. Als je ze daarentegen vraagt het antwoord in tekst, regel voor regel, te geven, bereiken ze uiteindelijk de grens.
Dat lijkt een interessante beperking van huidige AI-modellen, maar het heeft weinig te maken met “generaliseerbare probleemoplossende vaardigheden” of “het plannen van taken”.
Stel je voor dat je “echt” geen “generaliseerbare” vermenigvuldigingen kunt uitvoeren, omdat we weliswaar probleemloos tweecijferige vermenigvuldigingen kunnen berekenen, maar de meesten van ons ergens onderweg een fout zullen maken als we tiencijferige vermenigvuldigingen in ons hoofd proberen op te lossen. Het probleem is niet dat we “geen algemene redeneerders zijn”. Het komt doordat we niet geëvolueerd zijn om grote getallen in ons hoofd te verwerken, grotendeels omdat we dat nooit nodig hadden.
Als de reden waarom we ons zorgen maken over “of AI redeneert” fundamenteel filosofisch is, dan is het onderzoeken wanneer problemen te lang worden om ze op te lossen relevant, als filosofisch argument. De meeste mensen maken zich om veel praktischere redenen zorgen maken over wat AI wel en niet kan.
Veel taken worden de komende jaren geautomatiseerd, dat wil je natuurlijk niet. Maar je kunt het zien aankomen. Vraag AI’s regelmatig om een nieuwsbrief te schrijven, gewoon om te zien waar het voor staat. Het nog niet zover, maar AI wordt steeds beter.
Zeker, AI zal veel banen elimineren, maar het zal nog meer nieuwe banen creëren. Een positievere transitie zou best kunnen plaatsvinden, maar het zou nog steeds betekenen dat we veel vaardigheden plotseling minder belangrijk zouden vinden. Waardoor we een compleet nieuwe set vaardigheden zouden moeten ontwikkelen.
AI-vervangers zullen langzaam al langzaam hun intrede doen. Juist omdat een snelle intrede een vooruitzicht is dat angstaanjagend is, verklaringen dat AI’s slechts gekrijs is en niet echt kan denken, worden daardoor aantrekkelijk. We willen horen dat banen veilig zijn en dat de AI’s een nietsnut is.
Maar in feite kun je de vraag of AI een baan zal inpikken niet beantwoorden aan de hand van een gedachte-experiment, of aan de hand van hoe AI presteert wanneer je alle stappen moet opschrijven. De manier om de vraag of AI banen zal inpikken te beantwoorden, is door AI uit te nodigen het te proberen.
Is het “echt redeneren”? Misschien niet. Maar het hoeft niet zo te zijn dat iemand mogelijk werkloos word.
Simuleren of niet, het doet er niet toe of de machines in staat zijn de wereld ten goede of ten kwade te veranderen” wat, raad eens, ik ook niet kan.
Critici maken zichzelf irrelevant wanneer we ze het hardst nodig hebben.
Veel recente kritische stukken over AI… lezen als extreem wensdenken over wat systemen precies wel en niet kunnen. Een beeld van wat AI wel en niet kan, terwijl dat beeld al jaren niet klopt. Maar voor de werkgelegenheidseffecten van AI en op de langere termijn, voor de wereldwijde catastrofale risico’s die ze met zich mee kunnen brengen, is het natuurlijk niet van belang of AI’s tot domme fouten kunnen worden verleid, maar wat ze kunnen doen als ze klaar zijn voor succes.
Problemen die AI’s nog steeds niet kunnen oplossen ze zijn behoorlijk slecht in schaken maar ik denk niet dat dit aan het publiek verkocht moet worden als een glimp van de “echte waarheid” over AI. En het ontkracht zeker niet de behoorlijk angstaanjagende toekomst waarin sommige experts steeds meer geloven en die we tegemoet gaan.