Hardware&Data

Honger naar hardware en data is wat we het komende jaar verder zien ontwikkelen. Een van de dingen die we vooral terug zien in de grote taal-modellen om nog maar te zwijgen van grote machine learning-modellen. Omdat dit een prestatieverbeteringen geeft door het toevoegen van het parameters waarmee we een model trainen, in plaats van het algoritme ervan aan te passen. Dit vereist meer innovatieve hardware, zowel chips voor grotere data verwerking als de hardware zelf. Op basis van de opkomst van chips die voor andere doeleinden werden ingezet zoals NVIDIA kunnen we meer chipspelers verwachten, met een drang naar hogere data verwerking (en obscure datasets) om te groeien.

Te beginnen met architectuur die van cruciaal belang is, omdat de vraag naar kunstmatige intelligentie het vermogen van sommige organisaties om bij te blijven overtreft. Samen bepalen of uw hardware over de juiste chipsets, software, hardware, databeheersoftware en andere infrastructuur beschikt. Ervoor zorgen dat de cloudproviders dat ook doen. In termen van data: kijk naar de data waarover u beschikt en die concurrentievoordeel kunnen definiëren wanneer deze worden gebruikt om een basismodel te verfijnen. Bedrijfseigen gegevens in grote taal-modellen zullen de komende jaren het volgende waardeniveau in kunstmatige intelligentie bepalen.

Een van de redenen voor de enorme drang naar nieuwe data en hardware is een platformverschuiving naar een nieuw besturingssysteem gedefinieerd door grote taal-modellen. We hebben dit in het verleden vaak gezien, meest recentelijk bij de ontwikkeling van het mobiele besturingssysteem, welke duizenden apps genereerde. We zien nu al aankondigingen van app-achtige modellen ter ondersteuning van niche-applicaties, met als voornaamste voorbeeld de ChatGPT Store van OpenAI. Verwacht dat het internet deze nieuwe, op modellen gebaseerde kenmerken ook zal gaan overnemen.

Daarbij zouden we ons af moeten vragen hoe onze strategie moet evolueren nu we overgaan naar een wereld van besturingssystemen die zijn gebaseerd op grote taal-modellen. Hoe kunnen we deze taal-modellen gebruiken om op maat gemaakte applicaties te maken op basis van de behoeften van gebruikers? Kunnen we daarbij nadenken over het optimaliseren van privacy, geheugen en prestaties? En wat betekent een dataomgeving waarin taal- modellen centraal staan?

Kunnen we twee manieren uiteenzette waarop we denken – snel, instinctief en emotioneel, maar ook langzamer, bedachtzamer en logischer. We gaan taal-modellen zien die worden gekenmerkt door diepere redeneringen en langzamere gedachten. denken. Nu we alle ‘snelle’ modellen al hebben gezien, die snel, automatisch en zelfs onbewust inhoud genereren (hallucinaties, onverwachte nieuwe ideeën), maar niet erg goed zijn in rationele, logische, langzamere besluitvorming. De geboorte van langzamere en redelijker denkende modellen zal hierbij een verademing zijn. Het trainen van taal-modellen met pauzetokens, die hen ertoe aanzetten te pauzeren en enkele van hun antwoorden te controleren voordat ze deze aan ons presenteren.

Omdat deze langzamere modellen de mogelijkheid vergroten om encryptiemethoden te doorbreken, moeten we er voorzichtig mee omgaan totdat er meer onderzoek en ontwikkeling is gedaan om ze te beschermen. Juist om deze reden zullen deze modellen wellicht niet in de openbaarheid komen. Tegelijkertijd kunnen langzamere kunstmatige intelligentie-modellen een cruciale brug vormen voor ons om te begrijpen wat er gebeurt in zeer complexe datagebieden, bijvoorbeeld kwantumcomputing.

Iedereen in de hedendaagse dataruimte ziet hoeveel tools er nodig zijn: tools voor data governance, visualisatie, catalogisering, verzamelen en samenvoegen van data uit meerdere bronnen, enzovoort? Zal de ontwikkeling blijven verschuiven naar geconsolideerde mastertools, vergelijkbaar met analyse-platformen. We zullen blijven zien dat er alles-in-één oplossingen zullen ontstaan gericht op een bedachte standaard van een grote speler in de markt. Velen zullen worden gebruikt in cloudimplementaties om meerdere functies te consolideren, en zullen verlichting bieden aan IT- en dataafdelingen met beperkte budgetten.

Enterprise-architecten en Chief Data Officers zullen zich serieus met deze vragen moeten bezighouden en naar hun huidige infrastructuur moeten kijken. Hebben ze tien verschillende tools nodig die individueel gespecialiseerde dingen doen, of migreren ze naar een of twee tools die veel verschillende gebieden bestrijken?

Iedereen die een kunstmatige intelligentie-assistent heeft gebruikt, heeft uit de eerste hand gezien wat een verschil ze kunnen maken. We steeds meer tools zien die grote taal-modellen zullen bevatten of een vorm van kunstmatige intelligentie-automatisering zullen bieden. De angst is dat deze rolverandering sneller plaatsvindt dan wij ons kunnen aanpassen. We vragen zich terecht af: wat betekent dit voor mijn werk? Hoe pas ik me aan? Een andere legitieme zorg is dat kunstmatige intelligentie de bestaande digitale kloof over de hele wereld zal vergroten en tegelijkertijd de noodzaak van een vierjarige hoger beroepsonderwijs in twijfel zal trekken. Heb je zelfs een vierjarige opleiding nodig? je hebt basisvaardigheden plus een kunstmatige intelligentie-assistent? Hoewel veel bedrijven zich nog steeds tegen deze verschuiving verzetten, blijkt uit het gebruik van kunstmatige intelligentie -tools als aanvulling op vaardigheden dat medewerkers op B-niveau gemakkelijker kunnen bijscholen naar A-niveau-prestaties.

Het goede nieuws uit voorlopig onderzoek is dat individuen die toegang krijgen tot taal-modellen die ze naast hun baan kunnen gebruiken, meer taken uitvoeren en daar beter in presteren. We moeten de kans aangrijpen om rollen te herdefiniëren op een manier die de ongerustheid van werknemers wegneemt, ook al blijft de kans op sociale onrust en zelfs onrust, veroorzaakt door kunstmatige intelligentie, zal toenemen.

Een technologie- (en kunstmatige intelligentie-)optimist, kan veilige zones creëren voor taal model-gebruik en -training, ook al maakt dit nog geen deel uit van de dagelijkse bedrijfsvoering. Bedenk dat computers veertig jaar geleden onze wereld binnenkwamen als ‘co-piloten’ op de werkplek. Ze hebben het niet overgenomen, maar hebben de zaken alleen sneller en efficiënter laten verlopen. Daarom moeten we altijd kijken naar de banen, de doelen, de opleiding, de training en de bijscholing die we nodig hebben om te beheren wat er op onze werkplek gebeurt. Laat team’s en collega’s hun nieuwsgierigheid volgen naar wat ze met data kunnen doen, en ongeacht de datatrends, zodat we een betere toekomst zult hebben.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *