5 dingen in kunstmatige intelligentie waar je je zorgen om moet maken

Als mensen praten over hun angst voor kunstmatige intelligentie (AI) gaat het meestal over robots die onze banen afpakken, ons veranderen in willoze wezens of die de mensheid willen uitroeien. 

Dat soort angsten is gebaseerd op (g)een idee over AI dat weinig te maken heeft met de realiteit. Wat niet betekent dat je je helemaal geen zorgen hoeft te maken over de ontwikkelingen van AI. En dan heb ik het niet over de verre toekomst, maar over nu.

In het artikel Five Things That Should Scare you About AI geeft Rachel Thomas vijf redenen om je zorgen te maken over de richting die AI nu al uit gaat. Waar het op neer komt is dat men veel te veel vertrouwen heeft in de algoritmes en de programmeurs en bedrijven achter die algoritmes.

Computer says No!

1. Algoritmes worden vaak geïmplementeerd zonder mechanisme om fouten te herkennen.

Rachel geeft twee voorbeelden van beslissingen op basis van een algoritme dat de plank volledig mis slaat. In het ene geval reduceert het algoritme de zorg van een mevrouw die echt niet zonder intensieve hulp kan en in het andere geval ontslaat het algoritme 200 leraren waaronder de beste leerkrachten van de school. Alleen met kostbare en intensieve rechtszaken werden deze fouten hersteld. Want ja, de computer kan het natuurlijk niet mis hebben.

AI gaat fout

2. AI maakt het makkelijker om je niet verantwoordelijk te voelen.

Dit is het typische “Computer says no”-gedrag waarbij de organisatie die het algoritme gebruikt om beslissingen te nemen alle verantwoordelijkheid vermijdt. De computer zegt dat het zo is dus is het zo. Dus is een rechtszaak om alsnog je gelijk te krijgen vaak de enige weg.

computer says no

AI versterkt racisme en extremisme

3. AI automatiseert en versterkt vooroordelen.

Algoritmes bevatten vooroordelen die programmeurs zelf hebben of die uit de datasets tevoorschijn komen en daarmee worden de vooroordelen weer verder versterkt. Rachel geeft meerdere voorbeelden van dit soort vooroordelen. Waar het op neer komt is dat mensen met een niet-blanke huidskleur, vrouwen en niet-westerlingen vaak aan het kortste eind trekken in de algoritmes.

4. Het optimaliseren van ‘metrics’ leidt boven alles tot negatieve uitkomsten.

Rachel neemt hier YouTube als voorbeeld van een algoritme dat mensen met extremistische ideeën, klimaatontkenners, vaccinatietegenstanders en anderen nóg meer video’s met dit soort ideeën voedt.

Een ander fenomeen is dat mensen risico’s vermijden om binnen de marges te blijven van wat de algoritmes als ‘goed’ beschouwen. Zoals chirurgen die bepaalde operaties met een hoger risico niet langer willen uitvoeren, want elke mislukking kost hen geld of mogelijk hun baan.

Slap optreden tegen misstanden

5. De grote ‘tech companies’ hoeven geen verantwoordelijkheid af te dragen.

We weten inmiddels wel dat Facebook, Amazon, Google en andere technologische reuzen fout op fout stapelen en soms doelbewust de wet overtreden. Maar een paar boetes en een bevel om op het Amerikaanse Congres te komen verschijnen heeft tot nu toe weinig verandert in hun gedrag.

Een ander ‘must read’ artikel over het ontstaan van vooroordelen in AI is Pay Attention to that Man Behind the Curtain van Cassie Kozyrkov. Zij beschrijft duidelijk hoe vooroordelen in algoritmes sluipen omdat mensen zelf bevooroordeeld zijn. Voor wie dit wil tegenspreken is er een inzichtelijke en ietwat ontluisterende List of Cognitive Biases.

Het kan en moet beter

Rachel besluit wel met enig optimisme. Algoritmes zijn van zichzelf natuurlijk niet verkeerd. Wij mensen moeten gewoon beter met algoritmes omgaan. Ze doet enkele aanbevelingen. Het is raadzaam om de houding tegenover fouten in AI nu aan te pakken, voordat het te laat is.

  • Bouw bij het gebruik van algoritmes altijd de mogelijkheid in dat mensen kunnen protesteren tegen de genomen beslissingen.
  • Bepaal ook van tevoren hoe je omgaat met het opsporen en verbeteren van fouten.
  • Neem verantwoordelijkheid, ook als jouw bijdrage maar een deel is van het hele systeem.
  • Wees altijd alert op vooroordelen.
  • Werk aan AI-richtlijnen en -standaarden voor de technologische industrie.

Joyce Xu schreef een technisch artikel over het voorkomen van vooroordelen (‘bias’) in algoritmes in Algorithmic Solutions to Algorithmic Bias: A Technical Guide.

Relevantie voor informatieprofessionals: wees alert!

Het bestaan – en voorkomen – van vooroordelen in algoritmes is wat mij betreft een aandachtspunt voor iedere informatieprofessional die te maken heeft of krijgt met toepassingen van kunstmatige intelligentie in welke vorm dan ook.

Wijs collega’s, management en opdrachtgevers op dit fenomeen, vertel waar ze op moeten letten, leg uit hoe het kan worden voorkomen of gecorrigeerd en besteed aandacht aan de kwaliteit van de gebruikte data(sets) en algoritmes. De wereld heeft veel behoefte aan AI-bewuste informatieprofessionals.