wrijving

Ondanks al het enthousiasme over generatieve kunstmatige intelligentie, is er terechte bezorgdheid over de mogelijkheid van vooringenomenheid of onnauwkeurigheden, zelfs met enige mate van menselijke tussenkomst.

Deze zorgen worden groter naarmate de technologie toegankelijker wordt en de manieren waarop het gebruikt wordt toenemen.

Om ons op de hoogte houden is er de roep om toezicht te houden op AI in de hoop vertrouwen te behouden en risico’s te beperken. Maar de meeste mensen zijn niet zo goed in het herkennen van fouten als ze denken en hebben de neiging om zich te baseren op door AI gegenereerde content, zelfs als ze weten dat er een kans op fouten is.

Wrijving over het gebruik van ai modellen moet niet universeel als slecht worden beschouwd in de context van AI, maar eerder kan dienen als een doelbewust hulpmiddel om verantwoordelijker en succesvoller generatief AI-gebruik te bevorderen.

Echter evolueer de gereedheid en volwassenheid van de organisatie voordat generatieve AI wordt uitgerold in de organisatie. Organisaties moeten eerst hun volwassenheidsniveau begrijpen als het gaat om verantwoordelijke AI, inclusief hun vermogen om te voldoen aan normen en voorschriften.

Beoordeel het risico van het AI-systeem. Niet alle AI-systemen vereisen hetzelfde niveau van controle. Bij het gebruik van hulpmiddelen zoals gerichte wrijving is het belangrijk om drempels aan te passen aan wanneer en waar het nodig is in de context van het algehele risico.

Omarm systematische, gestructureerde ondersteuning. Individuele oplossingen zullen de nauwkeurigheid en vooringenomenheid niet grondig aanpakken, omdat gebruikers hun vermogen om door AI gegenereerde fouten te identificeren, kunnen overschatten. Hoewel we baat hebben bij drempels, realiseren we ons niet dat de drempels ons hielpen om nauwkeuriger te zijn. Dit suggereert een overmoedige bias, waarbij we misschien denken dat we beter in staat zijn om door AI gegenereerde fouten te detecteren dan we in werkelijkheid zijn.

Stimuleer een cultuur van experimenteren. Voordat AI-tools en -modellen worden ingezet, moet worden getest hoe we ermee omgaan, inclusief mogelijke gevolgen voor nauwkeurigheid, snelheid en vertrouwen. Experimenteren biedt belangrijke inzichten in hoe de rol van werknemers kan worden verbeterd, inclusief wanneer de toepassing het meest zinvol is.

AI-modellen zijn dynamische systemen en zodra ze in productie zijn, kunnen in gegevens en outputs afwijken van de oorspronkelijke doelstellingen, wat na verloop van tijd onnauwkeurigheden veroorzaakt. Toezicht- en monitoringsystemen moeten aanwezig zijn om systemen voortdurend te evalueren, potentiële incidenten en problemen te identificeren en de juiste interventies te creëren.

Onderwijs en training zijn essentieel. Naarmate het gebruik van AI toeneemt, moeten werknemers worden meegenomen, vooral omdat de technologie zo snel verandert. Als het gaat om generatieve AI, is educatie over de rol en implementatie bijzonder belangrijk, omdat het een belangrijk gebied is voor potentiële vooroordelen.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *