De voorbeelden liggen voor het oprapen: de toeslagenaffaire, waarbij mensen onterecht tot fraudeur werden bestempeld, op basis van een algoritme. Een Amerikaans techbedrijf dat een computerprogramma sollicitanten liet selecteren, waarna alleen nog mannen werden uitgenodigd voor een gesprek.
Of een ander Amerikaans techbedrijf dat een chatbot met artificiële intelligentie (AI) startte, als een experiment in het begrijpen van conversaties. In minder dan 24 uur ontspoorde de bot en begon hij racistische berichten te spuwen. Het kan dus helemaal misgaan als je kunstmatige intelligentie loslaat in de samenleving.
Toch werkt de flexsector steeds vaker met artificiële intelligentie. Denk aan een AI-gestuurde videocamera waarmee kandidaten kunnen solliciteren. Of een tool waarmee recruiters snel de juiste kandidaten kunnen vinden bij een vacature. Wat zijn de haken en ogen als we een robot belangrijkere beslissingen laten nemen met kunstmatige intelligentie? En waar ligt de grens?
“Wat inderdaad opvalt, is hoeveel tools met kunstmatige intelligentie flexbedrijven al gebruiken. En alle producenten van die tools zeggen dat ze voldoen aan alle regelgeving en volstrekt neutraal zijn. Een heleboel klanten slikken dat. Ik zou daar wat sceptischer over zijn.” Aan het woord is Mark van Assema, HR-projectleider en oprichter van HRTech Review. “Vaak komt dat door onwetendheid. De technische vaardigheden van de meeste gebruikers zijn namelijk beperkt. Logisch: als ik mijn auto laat repareren, vertrouw ik de monteur ook gewoon. Maar met AI is dat gevaarlijk, want daar gaat het nog wel eens fout.” Dat is ook de reden dat de EU met AI-wetgeving komt, zegt Van Assema. “Kunstmatige intelligentie moet uitlegbaar zijn. Je moet als producent van software kunnen laten zien: waarom komt de AI tot bepaalde beslissingen?”
Kunstmatige intelligentie moet uitlegbaar zijn
Toch is die wetgeving er nog niet. Dus is het belangrijk dat je als flexbedrijf kritisch bent over de software die je wordt aangeboden. “Er zijn ook al voorbeelden geweest waarbij organisaties niet kritisch genoeg waren en er vooroordelen in de AI zijn geslopen. Als je daar te laat achter komt - het systeem pikt er te veel witte mannen uit, of te weinig vrouwen, mensen van een bepaalde leeftijd enzovoort - dan is dat gewoon discriminatie. En dat is verboden.”
Het is niet alleen verboden, het is ook nog eens slecht voor de zaken. Want je sluit mensen uit die misschien wel heel geschikt zijn. Normaal al onverstandig, en nu in veel branches personeel moeilijk te vinden is, al helemaal.
Matching met kunstmatige intelligentie is al ingeburgerd, maar vaak onbewust, bevestigt Inge Brattinga. Zij is associate bij VRF advocaten en docent Recht aan de Juridische Hogeschool. “Niemand weet nog wat hij doet en daar zit een risico in.” Ethisch is het niet allemaal slecht, meent ze. Het zorgt ook dat een werkgever bijvoorbeeld de juiste medewerker vindt. “Maar er kunnen keuzes gemaakt worden, onbewust, waardoor je als gebruiker discrimineert en dat zelf helemaal niet door hebt. Ben ik daar als gebruiker dan voor aansprakelijk? Of ligt die verantwoordelijkheid bij de ontwikkelaar van de software? Eerlijk gezegd weet ik dat niet. In de voorwaarden is daar namelijk niets over geregeld, behalve een algemene disclaimer met ‘wij zijn niet aansprakelijk’. Maar hoe het wettelijk zit, is een andere vraag.”
Het laat zien hoezeer kunstmatige intelligentie nog een juridisch onontgonnen terrein is, zegt Brattinga. “Als iemand ergens onterecht van uitgesloten wordt, heeft die persoon dan het recht om bij de partij die hem of haar uitsloot aan te kloppen? Want dat is een onrechtmatige daad. Maar in de voorwaarden wordt alle verantwoordelijkheid doorgeschoven naar de gebruiker, ofwel de flexbedrijven. Die vaak niet eens doorhebben hoe de algoritmes precies functioneren. Het slachtoffer wordt juridisch gezien beschermd, maar ben je je als flexbedrijf bewust van de risico’s?”
De toeslagenaffaire heeft laten zien dat er nog op veel fronten uitdagingen zijn, meent ze. “Vanuit het Applicant Tracking System (ATS), dat de recruiter formats geeft om allerlei zoektermen te vullen, kan al veel gebeuren. Als ik een profiel opstel, hoe objectief is dat? En hoe dwingt zo’n ATS mij tot ob- of subjectiviteit? En dan heb je nog de personen die zo’n systeem bouwen. Die kunnen ook allerlei aannames in een ATS stoppen.” Zo zijn er op heel veel fronten risico’s. “Bijvoorbeeld dat doelgroepen onterecht uitgesloten worden. Stel, zo’n algoritme kijkt naar de wijk waar iemand vandaan komt. Die wordt dan beoordeeld als slecht, want er is ervaring met mensen uit die omgeving en die is niet positief. Maar is dat relevant? En mag die selectie wel? De Autoriteit Persoonsgegevens en het College voor de Rechten van de Mens zullen zeggen van niet.”
En dan is er de vraag of de informatie, die door een systeem wordt gebruikt om beslissingen te nemen, nog actueel is. “Volgens de Algemene Verordening Gegevensbescherming (AVG) moet alle data die je gebruikt up-to-date zijn. Stel, ik woon op een adres waar eerst iemand woonde met schulden. Dan is die data niet meer actueel. Maar je ziet dus vaak gebeuren, dat zulke achterhaalde data nog wel worden gebruikt. Heb je hier als eindgebruiker, dus als flexbedrijf, een onderzoeksplicht in hoeverre de data die je matchingstool hanteert nog actueel is?"
Ook dat is juridisch nog helemaal niet duidelijk. "De data moet dus actueel zijn, maar er is geen eis die van mij als eindgebruiker vraagt: check of het algoritme in de tool juist is. Wellicht komt er in de Europese wetgeving een verplichting dat de partijen die de tools maken hier goed naar moeten kijken. Maar die wetgeving is er nog niet. Toch is het wel iets dat je heel erg in de gaten moet houden als flexondernemer, want als de matchingtool met een algoritme tot discriminatie leidt, ben je hier als flexondernemer wel voor aansprakelijk.”
De technologie moet ondersteunend zijn, niet leidend
In veel gevallen koop je met een matchingstool dus een ‘black box’ als het gaat om het algoritme, meent Brattinga. “Een belangrijke vraag hierin is: is er sprake van profiling? Want profiling zonder menselijke tussenkomst, waarbij bijvoorbeeld acht van de tien mensen worden afgekeurd zonder dat daar een mens bij aan te pas komt, daar is de AVG duidelijk over: dat mag niet zonder uitdrukkelijke toestemming van de sollicitanten. Daarin staat namelijk dat de betrokkene het recht heeft om niet te worden onderworpen aan 'uitsluiten automatische beoordeling'. Doe je dat als flexbedrijf wel, dan overtreed je de AVG. Ik heb er geen bewijzen voor, maar gevoelsmatig zeg ik dat dit lang niet altijd goed gaat.”
Van Assema stelt dat je in de nieuwe Europese wetgeving straks helemaal geen beslissingen meer mag laten nemen door computers, zonder tussenkomst van de mens. “Dat geldt voor alles. De technologie moet ondersteunend zijn, niet leidend. Daar kun je als producent en als flexbedrijf dus maar beter op voorbereid zijn.”
Tjerk Timan, senior scientist bij TNO, ziet nog een ander gevaar. Namelijk dat AI een bepaalde bias nog eens versterkt. “Waar je normaal bijvoorbeeld nog een goed gesprek met een sollicitant kunt hebben om je mening bijstellen, komt die persoon nu niet eens meer op gesprek. Want hij of zij komt niet op de juiste stapel.”
Dit gebeurt eerder met mensen die nu al zwakker staan op de arbeidsmarkt, wat dus bestaande ongelijkheid nog eens extra versterkt. “Het zoeken naar iemand voor een topfunctie bij een groot bedrijf zal niet snel worden geautomatiseerd. Recruiters weten wel wie er in de vijver zitten, het gaat tenslotte niet om duizenden mensen. Kunstmatige intelligentie heeft dan dus niet zoveel zin. Maar hoe lager geschoold het werk is, hoe meer er geautomatiseerd zal worden in het recruitmentproces.”
Wat dus betekent dat juist lager opgeleide mensen het meest te maken zullen krijgen met een eventuele bias in de recruitment algoritmes. Maar kun je daar niet op corrigeren? Tja, zegt Timan, als je dat goed wil doen, zul je lokale datasets nodig hebben, om zo de controle te houden. “Het probleem is alleen dat dit makkelijker gezegd is dan gedaan. Het gaat namelijk niet om enkelvoudige identiteiten, zoals man of vrouw. Je zult allerlei datasets moeten combineren, bijvoorbeeld vrouwen die niet autochtoon zijn en die een bepaald inkomen hebben. En de datasets waarmee je dat soort controles zou kunnen uitvoeren zijn er nog helemaal niet.”
Kunstmatige intelligentie is ook een kans om de wereld gelijker te maken. Alleen gaat dit niet vanzelf
En dan nog moet je je afvragen of je alle correlaties die een AI-systeem haalt uit de beschikbare data, wil meenemen in je recruitment. “Wat als AI, bij het kijken naar je geschiktheid voor een bepaalde managementbaan, een relatie vindt tussen woordgebruik op sociale media, het type kleding dat je draagt en naar welke supermarkt je gaat? Oké, misschien is het waar. Maar willen we mensen zo indelen?” Toch wil Timan ook niet te pessimistisch zijn. “Mensen indelen op basis van bepaalde karakteristieken gebeurde natuurlijk altijd al. Met AI kun je dat soort bias er ook juist uithalen. Kunstmatige intelligentie is dus ook een kans om de wereld wat gelijker te maken. We moeten er alleen niet van uitgaan dat dit vanzelf gaat.”
Er zitten inderdaad ook heel veel positieve kanten aan AI, vindt Van Assema. “Juist als je goede, uitlegbare en transparante kunstmatige intelligentie gebruikt die onbevooroordeeld is, kun je daar veel profijt van hebben. Neem bijvoorbeeld de markt voor werknemers van 50+. Als je kunt laten zien dat je met die doelgroep betere matches kunt maken dan je op het eerste gezicht zou denken, heb je natuurlijk een enorm concurrentievoordeel. Laten we dus vooral niet vergeten dat kunstmatige intelligentie veel voor ons kan gaan betekenen. Alleen moeten we wel ons hoofd erbij houden.”