Datascience

Door de onbedoelde gevolgen van AI is de kans dat de massa er zich tegen keert. Al bijna een decennium zijn we geobsedeerd door het maximaliseren van voorspellende prestaties. Zeker gezien als we kijken naar het vermogen waarmee AI de prestaties op menselijk niveau bij sommige taken kan benaderen.

Er zijn steeds meer voorbeelden van onbedoelde gevolgen, zo kennen we het  toeslagen schandaal van de belastingdienst, het algoritme van sociale zaken, het discrimineren van vrouwelijke kandidaten tot het geven van prioriteit aan blanke sollicitanten boven allochtonen sollicitanten. Op de Mensgerichte AI gericht op privacy, ethiek en transparantie moet voorrang krijgen op winst in voorspellende kracht.

In data science zijn deze definities belangrijk. Er is nog steeds geen unanieme overeenstemming over wat het betekent om een ​​ethische datawetenschapspraktijk op te bouwen. Dit begint bij de ethische datawetenschap met eerlijkheid en waardeert privacy, ethiek, transparantie en menselijk welzijn boven voorspellende kracht.

Er zijn veel briljante geesten die aan deze uitdagingen werken. Zelfs Facebook, Google en Microsoft hebben “Responsible AI” -teams opgericht om deze problemen aan te pakken, maar met beperkt succes. Ook de Europesche gemeenschap kent een dergelijk programma. Waarbij er buiten dergelijke initiatieven weinig tot geen investeringen worden gedaan in ethische datawetenschap buiten deze beperkte groep bedrijven.

De kernprincipe van ethische datawetenschap, moeten we gaan begrijpen en waarom dit zo complex is. Hoewel er meer vragen dan antwoorden zijn, moeten inzichten worden gedeeld uit de lessen die gaandeweg worden geleerd.

Wat is eerlijkheid eigenlijk?

We kunnen geen ethische gegevenswetenschap hebben zonder eerst aandacht te besteden aan eerlijkheid. In grote lijnen betekent eerlijkheid dat verschillende individuen gelijk worden behandeld onder dezelfde omstandigheden.

Laten we zeggen dat we proberen een bruikbaar model te bouwen dat geen rekening houd met etniciteit of geslacht en individuen aanbeveelt door rekening te houden met hun opleiding en werkervaring. In theorie zou dit de individuele vooroordelen die bij het nemen van beslissingen betrokken zijn, kunnen verminderen.

Laten we nu aannemen dat we een historische dataset van individuen kunnen vinden, compleet met educatieve geschiedenis, werkposities en de geaccepteerde salarissen. De kans is groot dat deze dataset enige vertekening bevat. Ook kunnen in veel gevallen ‘proxyvariabelen’ – factoren zoals postcode, persoonlijke interesses, winkeltransacties, onder andere – indirecte indicatoren zijn van beschermde statussen zoals leeftijd, geslacht en etniciteit.

Het is misschien onmogelijk om te voldoen aan zowel de criteria voor ‘statistische pariteit’ als ‘gelijke kansen’ definities van eerlijkheid.

Dit wordt snel ingewikkeld. In feite zijn er verschillende definities van eerlijkheid, waarbij er verschillende manieren zijn om eerlijkheid te definiëren die elkaar kunnen tegenspreken of niet tegelijkertijd waar kunnen zijn. De realiteit is dat er geen eenduidige definitie van eerlijk is. Datawetenschappers hebben de taak om belangrijke beslissingen te nemen over welke vragen ze moeten stellen en welke modellen ze moeten gebruiken. Hoewel veel goedbedoeld zijn, betekent dit dat het moeilijk kan zijn voor iemand die het juiste wil doen om te weten welke vereiste hij moet doen.

Als je bedenkt dat datawetenschap momenteel nog de laagste homogeniteit kent qua diversiteit in technische beroepen , wordt dit nog problematischer. Dus als de definitie van ‘eerlijk’ subjectief is aan de homogeniteit van de data teams, hoe kunnen we dan eerlijke beslissingen nemen en daarmee ethische datawetenschap beoefenen?

Wat wordt gemeten, wordt beheerd en wat wordt beheerd, wordt verbeterd

We worden geleefd door onze kernwaarden, evalueren en hebben onze doelen geïdentificeerd door collectief te zoeken. Navigeren door ethiek is een van onze kernwaarden, we erkennen dat er soms niet één juist antwoord is.

* Er zijn geen reguliere mogelijkheden om de nuances van ethische datawetenschap te bespreken.

* We bouwen geen oplossingen voor situaties van leven of dood.

* Ik heb niet genoeg vertrouwen in mijn vermogen om onbedoelde gevolgen te herkennen.

* Ik heb onvoldoende grip op rechtvaardigheid en eerlijkheid, vooral niet als het om verschillende groepen gaat.

Datawetenschap is niet nieuw, maar in de afgelopen 10 jaar zouden de meeste professionals het beschouwen als een opkomende discipline.

Hoewel datawetenschap nog grotendeels ongereguleerd is, groeit de consensus dat het noodzakelijk is. Dit is een vroeg teken van regelgeving die naar de data science-wereld komt.

Maar we bouwen data- en AI-systemen die mensen op verschillende manieren meten, beïnvloeden en ondersteunen. Maar wat als we elke oplossing die we hebben gebouwd door de lens van de impact op mensen zouden bekijken? Een standaard ethisch beoordelingsproces kan risico’s herkennen en bescherming te bieden tegen onbedoelde gevolgen.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *