Maak AI ethischer in drie stappen

BrandPost By Hylke Visser
Jan 30, 2020
IT Leadership

AI wordt steeds vaker toegepast in het bedrijfsleven en heeft grote invloed op het dagelijkse leven van consumenten. Het is dan ook niet zo gek dat er steeds meer vragen worden gesteld over de ethische kant van AI.rn

AI
Credit: AI

Het interessante is dat AI soms ethische problemen veroorzaakt omdat het te efficiënt en precies is. Denk hierbij bijvoorbeeld aan het in het openbaar identificeren van mensen op basis van gezichtsherkenning en het beoordelen van hun gedrag op basis van de daarbij bijbehorende persoonsinformatie. Andere keren is het omdat het niet nauwkeurig genoeg is, bijvoorbeeld bij het voorspellen van risico’s voor recidive bij criminelen.

Mythe of niet?

Is ethische AI dan een mythe? Het is waar dat ethiek zelf subjectief is. Het kan immers niet kwantitatief worden gemeten. Dit wordt geïllustreerd door een recent onderzoek in Nature over hoe culturen van elkaar verschillen in perceptie bij een ethische AI-beslissing.

Geen simpele formule

Daar komt nog bij dat ethiek ook een controversieel onderwerp is dat vaak ter discussie staat. Het is een onderwerp dat alle disciplines combineert: filosofie, wetenschap, sociale wetenschappen, technologie, recht, etc. Daarom is het onmogelijk hier een simpele formule voor te bedenken. Dus als er geen universele AI-ethiek bestaat, hoe kunnen bedrijven dit onderwerp dan wél aanpakken?

Stap 1: Definieer de ethische regels van de organisatie

Voor organisaties die AI willen inzetten is de eerste stap het definiëren van een nauwkeurig kader van ethische regels die binnen het eigen bedrijf gevolgd of juist niet gevolgd moet worden. Het risico van bevooroordeling op geslacht hoeft bijvoorbeeld geen groot probleem te zijn voor een retail webshop die kleding aanbeveelt, maar het is een compleet ander verhaal voor financiële instellingen.

Het vaststellen van deze criteria in overeenstemming met de bedrijfsactiviteiten en de waarden heeft twee belangrijke voordelen:

  1. Het zorgt ervoor dat het bedrijf een duidelijk standpunt inneemt over alle bedrijfsprincipes.
  2. Het vergemakkelijkt de communicatie van deze principes tussen en over alle teams heen.

Stap 2: Accountability & Empowerment

Als er één ding is dat het risico van het gebruik van AI verhoogt, is het de perceptie dat AI intrinsiek objectief is. Dat wil zeggen dat de aanbevelingen, voorspellingen of welke output dan ook van AI niet onderhevig zijn aan menselijke vooroordelen. Als AI objectief zou zijn, dan zou ethiek niet relevant zijn. Dan zou een algoritme simpelweg een onbetwistbare weergave van de realiteit zijn.

Deze misvatting is buitengewoon gevaarlijk. Niet alleen omdat het niet klopt, maar ook omdat het een vals gevoel van juistheid geeft. Hierdoor kunnen teams en individuen zich onterecht minder verantwoordelijk voelen bij AI-projecten. De realiteit is dat algoritmes juist gevoelig zijn voor vooroordelen, waaronder:

  • De keuze van data – AI is gebouwd op basis van reeds bestaande data. Het kiezen van deze data heeft fundamentele invloed op het gedrag van het systeem. Het algoritme voor gezichtsherkenning van Amazon had bijvoorbeeld problemen met het herkennen van vrouwen en niet-blanke mensen. Dit kwam omdat blanke mannen oververtegenwoordigd waren in de data die werd gebruikt voor de creatie ervan. Omdat het systeem alleen had geleerd onderscheid te maken tussen verschillende blanke mannen, kon het andere gezichten onmogelijk herkennen.
  • Reeds bestaande vooroordelen in data – Datasets bevatten vaak zelf vooroordelen. Een voorbeeld hiervan is een wervingssysteem dat vrouwelijke sollicitanten automatisch weigerde. Dit systeem was grotendeels gekoppeld aan vroegere vooroordelen bij werving. Kortom, als gegevens worden gebruikt die eerdere keuzes bevatten van recruiters, en die keuzes waren bevooroordeeld, dan zal AI dezelfde fouten maken.
  • De keuze van modelleringstechnieken en validatie – Elke stap van het ontwikkelen van AI kan al vooroordelen en afwijkingen veroorzaken.

Investeren in mensen en in technologie

De oplossing voor het beperken van deze risico’s zit zowel in het investeren in mensen als in technologie. Het is essentieel om teams goed op te leiden. Daarmee zijn mensen in staat goede AI-systemen te bouwen. Mensen, die een AI-model ontwikkelen en implementeren, moeten zich bewust zijn van de mogelijke tekortkomingen en verantwoordelijkheid nemen voor eventuele fouten. Daarom is het belangrijk mensen hierop te trainen.

Aanvullende analyse

Er zijn natuurlijk ook technologische manieren om deze risico’s te beperken. Dit kan bijvoorbeeld door te analyseren of er sprake kan zijn van mogelijke vooroordelen bij verschillende subpopulaties. Maar het is tevens van cruciaal belang te erkennen dat succesvolle teams voor AI – zowel met training als met tools – sterk afhankelijk zijn van stap één: het definiëren van de ethische richtlijnen van de organisatie.

Stap 3: AI Governance in overeenstemming met de organisatie-ethiek

De derde stap is het opzetten van AI-governance binnen bedrijven. Tegenwoordig hebben veel organisaties die begonnen zijn met data science AI-governance-systemen die zich semi-organisch hebben ontwikkeld. Het is niet ongebruikelijk dat verschillende, zelfs tientallen teams binnen één grote groep verschillende AI-systemen ontwikkelen, die elk verschillende technologieën en data gebruiken. Eenmaal geïmplementeerd, worden modellen individueel gemonitord door hun eigenaren.

Uitgebreide governance betekent echter dat alle projecten centraal worden bewaakt, dat in één oogopslag te zien is hoe deze modellen presteren. Het monitoren van alle projecten op basis van de ethische principes die in stap één zijn gedefinieerd en in stap twee worden ondersteund door bevoegde en verantwoordelijke teams, is de beste garantie voor verantwoorde AI.

Ethiek ligt bij de AI-ontwikkelaar

Uiteindelijk moet de kwestie van ethiek worden aangepakt door degenen die zich bezighouden met AI-ontwikkeling. Hoewel het niet kwantitatief meetbaar is, is het cruciaal te zorgen dat acties die door AI-systemen worden ondernomen ethische regels respecteren die consistent zijn met hun omgeving. Hiervoor kun je als organisatie eigen AI-frameworks definiëren en ontwikkelen. Daarnaast zijn er technologie en tools beschikbaar die zorgen voor de juiste governance. Door deze te gebruiken ontstaat er een stevig fundament voor meer ethische AI.