Vooringenomen AI is je grootste risico op rampen

De introductie van AI zou gevaar opleveren voor de werkgelegenheid en mogelijk zelfs voor de maatschappij. Maar de grootste risico's zitten niet daarin, maar in de vooroordelen en vooringenomenheid die AI ongemerkt kunnen beïnvloeden. Hier is waarom.

Onderzoekers van MIT en Stanford hebben drie commerciële gezichtsanalyseprogramma's getest van grote tech-bedrijven en zullen bewijzen dat de software vooroordelen in zich heeft op het gebied van gelaatskleur en geslacht. Programma's voor gezichtsherkenning zijn goed in het herkennen van blanke mannen, maar falen met vrouwen, vooral als ze donkerder van huid zijn. Het nieuws sijpelde vorige week al naar buiten, maar komt volledig in de openbaarheid op de komende Conference on Fairness, Accountability and Transparency.

Vooroordelen en vooringenomenheid schaden de relatie tussen het bedrijf en het publiek. Het kan een firma onderwerp van kritiek maken, waarbij critici het een bewijs vinden dat de firma niet de normen en waarden van hun klanten deelt. En omdat AI steeds meer beslissingen maakt in zaken als investeringen, zorg, leningen en andere financiële zaken, is het risico op het benadelen van mensen groot, naast het maken van financiële schade en mogelijk juridische overtredingen.

Sinds we waardevolle, vaak persoonlijke en financiële data opslaan en versturen, hebben we de mogelijkheden voor een datalek vergroot. In het tijdperk van kunstmatige intelligentie en automatisering is bias het nieuwe datalek. Kunstmatige intelligentie (AI) en automatisering zijn belangrijk voor je bedrijfsstrategie. Maar het komt met nieuwe vormen van risico die de CIO en andere leiders moeten aanpakken.

Het is belangrijk om systemen en processen te creëren die voorkomen dat bias in je AI-software sluipt, en als dat toch gebeurt is het evident dat dat snel wordt herkend en verwijderd wordt. Dat wordt de grootste uitdaging met AI in de komende jaren, in tegenstelling tot het verlies van banen of bedreigingen voor je persoonlijke veiligheid door AI.

Publieke voorbeelden

Het klinkt raar, een softwareprogramma met een ingebouwde vooringenomenheid, maar de reden daarvoor is erg simpel. De experts die AI-technologie ontwikkelen zijn degenen die data in hun programma pompen. Als ze data gebruiken die al de standaard menselijke vooroordelen bevatten, dan zal hun AI-software dat reflecteren. Dat wordt niet bewust gedaan, maar helaas is het niet in overweging genomen toen er gestart werd met het bouwen aan systemen als Alexa, Siri of Google Home.

Sommige critici zouden graag willen dat de interactie met AI zowel gender- als etnisch neutraal is. We zouden meer generieke robotachtige stemmen willen hebben in plaats van de standaard vrouwelijke stem die we tot nu toe voor de kiezen krijgen. Dat gaat wellicht wat ver, maar het punt is legitiem. We moeten constant strijden tegen de mogelijkheid op bias als we AI integreren in organisaties.

Vermijd vooringenomen datasets

Een van de sterke punten van machine learning is dat het vergeleken met traditionele analytics zeer aantrekkelijke voorspellende modellen kan genereren uit relatief kleine datasets. Vaak leidt dat tot opwindende en zeer waardevolle inzichten. Maar er is een groot risico in die grote opbrengsten. Als we AI volledig onbevooroordeeld willen laten zijn, moeten we ze het best mogelijke startpunt geven. De huidige datasets kunnen al overhellen naar automatische aannames die gebaseerd zijn op gender of etniciteit.

We moeten dit onderkennen als we vanaf scratch een AI-systeem opbouwen. De data moet totaal transparant zijn en vrij van onze persoonlijke bias. Alleen dan zal een AI-systeem in staat zijn ons de beste ondersteuning te geven zonder enige vooringenomenheid.

Constante training en evaluatie

Als een systeem eenmaal is gecreëerd en geïntegreerd in een bedrijfsnetwerk, is het werk nog niet gedaan. Bias kan er altijd nog insluipen - vooral als nieuwe data wordt ingevoerd. Medewerkers die werken aan de implementatie van nieuwe systemen moeten op de juiste manier worden opgeleid. Ze zullen moeten weten hoe ze moeten speuren naar sluipende bias. Wanneer het systeem zich ontwikkelt, moet het vrij blijven van menselijke tekortkomingen.

Etnische en genderdiversiteit

Als een bedrijf wil starten met software voor gezichtsherkenning bijvoorbeeld, zou het systeem getraind moeten worden om de diversiteit van de werknemers en klanten van het bedrijf te herkennen. Het moet in staat zijn de juiste gender te herkennen, ongeacht de etnische achtergrond van de betrokkene. Een goede start is te zorgen dat de technici en degenen die werken aan nieuwe AI-programma's zelf van verschillende afkomst zijn.

Creëer diversiteit

Etnische en genderdiversiteit lijken simpel genoeg om erin bij te sturen, maar ze zijn niet de enige soorten bias die in een AI-systeem kan sluipen. Tot dusver is AI-technologie gecreëerd door een relatief kleine groep mensen en ze zijn allen zeer hoog opgeleid. Ze zijn niet representatief voor de gemiddelde mens in de maatschappij. Daarom moeten CIO's zich bewust zijn dat ze ook de diversiteit in achtergrond in hun AI-programma's moeten inbouwen.

Nu die systemen volwassener worden en zich ontwikkelen, is het tevens belangrijk om meer mensen met een brede diversiteit en achtergrond bij het ontwikkelproces te betrekken. Het idee is de AI-software te voeden met zoveel valide informatie als mogelijk vanuit zoveel mogelijk bronnen. Op de langere termijn biedt dit de beste kans op een succesvolle integratie in een bedrijfssysteem.

Rigoureuse en doorlopende testen

Ongeacht alle arbeid die een implementatieteam stopt in de integratie van een nieuw AI-systeem bestaat toch nog het risico dat er gaandeweg wat bias in het proces sluipt. Om dat te voorkomen moeten CIO's een doorlopend test- en evaluatieproces invoeren. Eindgebruikers moeten de tools krijgen om bias te ontdekken en te corrigeren in de programma's die ze gebruiken.

Crisismanagement

Tenslotte: neem aan dat je het nooit helemaal goed krijgt. Werk proactief samen met de juridische afdeling, human resources, de communicatie-afdeling en anderen, om een praktisch en bewezen plan te maken om om te gaan met rampen. Wees eerlijk over je zorgen. Automatisering is de toekomst, maar we moeten die toekomst ingaan met een open blik en gezond verstand.

Related:

Copyright © 2018 IDG Communications, Inc.

7 secrets of successful remote IT teams