Een algoritme herkent ingewikkelde patronen veel beter dan de mens
De overheid gebruikt bijvoorbeeld algoritmes om fraude en criminaliteit op te sporen, maar ook om in te schatten wat voor zorg iemand nodig heeft en wat de kans is dat een leerling van school gaat voordat zijn of haar opleiding is afgerond, zo blijkt uit een reportage van het NOS Journaal. Als bijvoorbeeld bekend is welke kenmerken een voortijdige schoolverlater heeft, kan een computer met behulp van een algoritme onderzoeken wie nog meer aan die kenmerken voldoen. Computers kunnen ingewikkelde patronen immers veel beter herkennen dan mensen.
Op de vraag of ze gebruikmaken van algoritmes geeft circa 50 procent van de overheidsinstanties aan dat te doen, zo blijkt uit een verkennend CBS-onderzoek. Een deel van die algoritmes maakt gebruik van vormen van kunstmatige intelligentie. Tegelijkertijd experimenteren veel Nederlandse bedrijven met algoritmes en artificial intelligence.
De Artificial Intelligence training In deze interactieve AI training van 1 dag leer je als manager, bestuurder, directeur of (business) controller alle essentiële facetten van Kunstmatige Intelligentie kennen. Bovendien ga je leren hoe je AI met succes kan inzetten in jouw eigen organisatie. Deze Artificial Intelligence masterclass met Daan van Beek MSc leert je ook om te gaan met de belangrijkste ethische dillema's, de risico's en te letten op de succesfactoren. Maak werk van AI en een betere toekomst.
Het grote risico van discriminatie ligt op de loer
“Bij het gebruik van voorspellende algoritmes bestaat een groot risico op discriminatie”, zo licht onderzoeker Marlies van Eck van de Universiteit Leiden desgevraagd toe. Zij doet onderzoek naar gebruik van algoritmes. “Discriminatie is inherent aan deze technologie”, aldus Van Eck tegen de onderzoekers. Zij is verbaasd over de omvang van het gebruik van algoritmes binnen overheidsinstellingen. “Ik vind het bizar dat er zoveel onder de motorkap gaande is dat we niet weten.”
Als bijvoorbeeld een politieagent bewust of onbewust mensen uit een bepaalde bevolkingsgroep vaker staande houdt, komen hun kenmerken frequenter voor in de politiestatistieken. En zo wordt een bepaalde groep buitensporig vaak gecontroleerd maar kunnen criminelen met andere kenmerken onopgemerkt blijven.
Maar ook buiten de overheid bestaat volgens de onderzoekers het risico op discriminatie. Vrijwel alle zelfrijdende auto’s herkennen mensen met een donkere huidskleur bijvoorbeeld slechter dan mensen met een lichtere huidskleur. Dat is de opvallende conclusie van een recent onderzoek. En gevaarlijk bovendien, omdat auto’s hierdoor niet goed anticiperen op getinte voetgangers.
Mogen overheden hun algortimes geheim houden of niet?
Iedereen zou beter geïnformeerd moeten worden over het gebruik van algoritmes volgens Van Eck. “Het vindt buiten ons gezichtsveld plaats, en dat druist in tegen hoe we tot nu toe omgingen met de macht van de overheid.” Eerder oordeelde staatssecretaris Van Ark van Sociale Zaken en Werkgelegenheid juist dat overheden hun gebruikte algoritmes geheim mogen houden.
Algoritmes om bijstandsfraude op te sporen
Ook Werk en Inkomen Lekstroom (WIL), een samenwerkingsverband van gemeenten ten zuiden van Utrecht dat bijstandsuitkeringen uitkeert en fraude opspoort met algoritmes, is zich bewust van de risico’s ervan. “Het heeft de schijn van discriminatie”, aldus het samenwerkingsverband van onder meer Nieuwegein, Houten en IJsselstein.
Bestuurders in de regio Lekstroom willen in ieder geval elke schijn van discriminatie voorkomen. “Wij willen dat klanten die recht hebben op een uitkering, een uitkering krijgen, en andersom niet”, zegt Rob Esser van het Utrechtse samenwerkingsverband in het NOS Journaal. “Dat is een arbeidsintensief proces, maar met algoritmes kunnen we dat slimmer doen.” Maar juist daarbij bestaat een risico op discriminatie, betoogde ook hoogleraar ICT-recht Lokke Moerel in dezelfde aflevering van het NOS Journaal. “Het probleem is dat je gegevens uit het verleden in het algoritme stopt”, zegt Moerel. “Maar vaak zit er in die data al een bias, een vooringenomenheid.”
De opleiding Data Science Tijdens deze 'Master of Data Science' training maak je in tien intensieve dagen kennis met Data Science, Data Analytics, Predictive Analytics, textmining, Big Data, machine learning en het ontwikkelen van algoritmes. Maar je leert ook business cases opstellen, de valkuilen herkennen en je denkt samen met de groep na over privacyaspecten en ethiek. Deze Data Science training richt zich niet alleen op de techniek maar legt vooral de nadruk op de businesskant, de governance en het managen van de succesfactoren.
Algoritmes nemen geautomatiseerde besluiten
In geen van de door de NOS onderzochte gevallen leidden de algoritmes overigens tot een automatische beslissing. Zo wordt bijvoorbeeld een uitkering niet automatisch stopgezet als een algoritme dat dicteert. Uiteindelijk zit er altijd nog een ambtenaar aan de knoppen die de beslissing neemt.
Maar zijn of haar beslissing kan wel worden gestuurd door de uitkomsten van het algoritme, zegt het Centrum Indicatiestelling Zorg. “Medewerkers vinden het soms lastig af te wijken van het algoritme als de situatie van de cliënt daar om vraagt”, schrijft die instantie aan de onderzoekers.
Dat risico ziet ook de gemeente Uden, die er bewust voor heeft gekozen om geen voorspellende algoritmes in te zetten. “Het risico is te groot om data als werkelijkheid te zien”, schrijft de gemeente aan de NOS. Als data een te grote rol krijgen, “zijn er meer problemen te verwachten dan we er mee oplossen”.
Wat gebeurt er onder de motorkap van Machine Learning?
Overheden zijn volgens de NOS-onderzoekers niet altijd even open over hun gebruik van algoritmes en machine learning. Als uit een algoritme van een gemeente komt rollen dat er een kans is dat jij fraudeert, en die gemeente begint een onderzoek, dan kom je vaak niet te weten dat de extra controle een gevolg is van een algoritmische beslissing. “De AVG vereist dat je transparant bent, ook als het algoritme slechts ondersteunt”, zegt ict-jurist Arnoud Engelfriet.
De Raad van State heeft in haar Ongevraagd advies over de effecten van de digitalisering voor de rechtsstatelijke verhoudingen uitgebreid aangegeven waarom overheidsinstellingen altijd moeten onderbouwen hoe zo’n beslissing tot stand is gekomen. Een door een computer gegenereerd besluit van de overheid moet nu al aan dezelfde eisen voldoen als een besluit dat door overheidsdienaren wordt genomen. Digitale besluiten moeten inzichtelijk worden gemaakt, anders kunnen ze worden vernietigd.
Word het niet tijd voor een algoritmewaakhond?
De Tweede Kamer maakt zich ook zorgen om het gebruik van algoritmes. Onlangs diende zowel D66 als de VVD een Kamerstuk in. Volgens beide partijen moet er meer toezicht op het gebruik van algoritmes komen. D66 pleitte al eerder in een Actieplan kunstmatige intelligentie voor het instellen van een algoritmewaakhond. Een algoritmewaakhond zou elk algoritmesysteem, inclusief de datasets die aan het systeem toegevoegd worden, moeten gaan controleren. De waakhond zou ook bedrijven moeten kunnen controleren. Eerder al pleitte gemeente Amsterdam op eigen houtje voor “eerlijke” computers in de stad en het screenen van alle algoritmes, waarmee de hoofdstad enkele kritisch Kamervragen uitlokte.
De opleiding Business Intelligence Vind de praktische business intelligence kaders met Daan van Beek, auteur van het boek 'De intelligente, datagedreven organisatie' en versterk het immuunsysteem van je organisatie. In deze compacte 3-daagse BI training neemt de docent je mee in alle relevante aspecten van BI & Analytics: het opstellen van KPI's, data analytics, Big Data & AI, BI-projectmanagement, roadmaps, verandermanagement, consultancyvaardigheden, datavisualisatie en de succesfactoren van BI, Analytics & Data Science.
Menselijke grip op algoritmes
Het VVD Tweede Kamerlid Middendorp doet nu in zijn initiatiefnota een aantal voorstellen om de menselijke grip op algoritmes te behouden. Data-analyse, kunstmatige intelligentie en de algoritmes die deze twee aansturen maken volgens Middendorp ons leven mooier, makkelijker en vrijer. We moeten volgens hem daarom in Nederland de grote mogelijkheden die algoritmes bieden, benutten.
Pleidooi voor publieke algoritme-toezichthouder
Het gebruik van algoritmes kan volgens Middendorp echter ook een keerzijde hebben omdat zij ook gebruikt kunnen worden om mensen emotioneel of financieel te benadelen of te sturen. Vaak zonder dat zij dat zelf door hebben.
Hoe kunnen we innovatie ruim baan geven, zonder ons helemaal over te leveren aan de sturing van algoritmes?
“We moeten innovatie de ruimte geven, maar mensen niet, in een digitale jungle overlaten aan de sturing van algoritmes. Ook in een digitale toekomst, waarin we de enorme kansen pakken die algoritmes bieden moeten mensen online veilig zijn en in vrijheid zelf keuzes kunnen blijven maken”, aldus Middendorp, die onder meer pleit voor een specifiek algoritmetoezicht. Accountants zouden bijvoorbeeld met algoritme gebruikende instellingen moeten gaan meekijken. Daarnaast moet er volgens hem een publieke algoritmetoezichthouder komen.
Maatschappelijk debat over dehumanisering
Gebruik van algoritmes kunnen volgens Middendorp onze grondrechten aantasten en bijvoorbeeld (1) dehumanisering, (2) discriminatie, (3) beperking keuzevrijheid, (4) kansenongelijkheid en (5) het aantasten van onze privacy veroorzaken. De snelle opkomst van algoritmes vereist daarom een maatschappelijk debat over normen en waarden in de digitale toekomst. Immers onze grondrechten moeten ook in de digitale wereld geborgd zijn.
Om menselijke grip op algoritmes te behouden is samenwerking, transparantie, bewustwording nodig. Maar ook nieuwe instrumenten die mensen weerbaar maken en een slim georganiseerd toezicht. Een concrete eerste stap daartoe is meer communicatie met de samenleving over algoritmes door de instellingen die deze gebruiken. Dat begint ermee dat instellingen zelf meer inzicht creëren in kansen, risico’s en vooral de gevolgen van de algoritmes die zij gebruiken.
Geef je mening, plaats je reactie hieronder
Daan van Beek, eindbaas van Passionned Group, gaf onlangs al zijn visie op algoritmes in een speciale uitzending van Brandpunt+. Volgens hem moeten AI en algoritmes altijd ten dienste staan van de mens. Wat is jouw mening?
- Mogen besluiten volledig geautomatiseerd worden genomen, of moet er altijd nog een mens aan te pas komen?
- Mogen overheidsdiensten en bedrijven hun algoritmes geheimhouden, of zou iedereen onder de motorkap mogen kijken?
- Moet er een algoritmewaakhond komen?
- Mensen discrimineren net zo hard als algoritmes
Reacties op dit artikel
Er is afgelopen week veel ophef geweest over het feit dat algoritmes zouden discrimineren. Mijn stelling is dat een algoritme dat niet discrimineert geen effectief algoritme is. Het doel van een algoritme is juist om te “discrimineren” om zo de krenten uit de pap te halen zodat je als (overheids)organisatie veel effectiever kunt handelen. Je geeft de aandacht aan die burgers, klanten, prospects, boeven, et cetera die het het hardst nodig hebben.
Natuurlijk moet er altijd een mens aan te pas komen, al was het maar om de validiteit van het algoritme met regelmaat te toetsen. De wereld verandert natuurlijk ook steeds sneller en fraudeurs passen zich ook aan op het algoritme. Maar de mens heeft ook een limiet als het gaat om tot hoever hij of zij de beslissingen van een algoritme nog kan volgen. Zie ook volgende punt.
Algoritmes geheim houden hoeft niet per se. Je mag er open over zijn dat je algoritmes inzet om je effectiviteit als team en organisatie te vergroten. De vraag is natuurlijk als je uitleg verlangt van een algoritme of de mens die uitleg nog kan volgen, zeker als het gaat om neurale netwerken en meer geavanceerde algoritmes zoals bij deep learning. Er zitten ook tegenstrijdigheden in algoritmes, die nemen voor jouw gevoel misschien volstrekt onlogische beslissingen. Daarnaast: een mens kan in een analyse hooguit 4-6 variabelen tegelijkertijd in ogenschouw nemen en een optimum bereiken, een algoritme kan voor honderden zo niet duizenden variabelen tegelijkertijd een optimum zoeken. Dit gaat de pet van de gemiddelde mens te boven. En in die situaties heeft het dus geen zin om uitleg te verlangen van een algoritme. Laat staan dat het zin heeft om een algoritmewaakhond op te richten.
Als het verhaal achter data niet helder is, kun je ook geen goede algoritmes opstellen. Op korte termijn zou ik overheidsalgoritmes niet vertrouwen. En al zeker niet als ze ten grondslag liggen aan overheidsbesluiten waartegen niet meer in beroep gegaan kan worden. Of aan vonnissen die nog niet onherroepelijk zijn. Biases en vooroordelen sluipen niet alleen ongemerkt in het gewone leven binnen, maar ook in algoritmes.
Toen ik het nieuws gisteren las, miste ik nog een groot onderwerp waar ik nog niks over heb gezien: datakwaliteit. Ik heb van dichtbij meegemaakt dat de interpretatie van ingevoerde data soms heel lastig is en ook vaak gewoon foutief of inconsistent. Ik geef een concreet voorbeeld. Toen een consultingfirma bij gemeente Rotterdam bezig was om de data te analyseren met programma’s zoals R, hadden ze niet zonder een sleutelfunctionaris gekund, die constant met mensen in gesprek is geweest om het verhaal achter de data te zoeken. Zonder dat verhaal is de kans echt groot dat de verkeerde conclusies worden getrokken.
Ik denk dat we een onderscheid moeten maken voor het sociale en het fysieke domein. Onze discussie betreft het sociale domein, daar waar gedrag en motivatie de hoofdrol spelen!
Algoritmes geven een beeld van historisch (wellicht fout) gedrag en keuzes van die ambtenaren. Dat was prima geweest als deze het ook echt snapten. Dat “snappen” zullen we eerst moeten voeden om de algoritmes in de toekomst beter en bruikbaarder te kunnen maken.
Ik sluit me bij het standpunt van Leo aan. We zien nog te vaak dat algoritmes onbedoeld vooroordelen reproduceren.
De overheid dat zijn wijzelf! Wij willen regulering en vertegenwoordiging en dat laten we uitvoeren door een groep die we de naam van ‘overheid’ hebben gegeven. En natuurlijk gaat elke groep zichzelf belangrijk maken, regels stellen met allerlei gewenste en ongewenste effecten. Tot zover mijn wereldbeeld…
Als die groep voor ons en namens ons handelt, lijkt het mij dat zij zich open opstellen over de wijze waarop zij dat (voor en namens ons) doet. Dus transparantie voor de overheid en de bedrijven die in opdracht van de overheid een maatschappelijke taak uitvoeren.
Algoritmes discrimineren per definitie; dat is de kern van een goed algoritme. Het is de mens die er betekenis aan geeft.
Niet een mens hoeft een besluit te nemen – de mens aan de knoppen van het algoritme is wel een charmant idee – maar welke kwaliteitseisen stellen we dan aan die mens? Beter is het om een mens verantwoordelijk te houden voor de werking van het algoritme en die eventueel op het jasje te spugen. Laten we de focus leggen op degenen die richten en niet op degenen die verrichten. Dit principe kennen we al met de toepassing van bestuurlijke verantwoordelijkheid en indien nodig het inzetten van het rechtssysteem. Maar misschien zijn er denkers die vinden dan bestuurlijke verantwoordelijkheid niet sterk genoeg is en te willekeurig wordt toegepast.
Omdat elke groep het eigen bestaansrecht wil onderbouwen cq wil vergroten vind ik het onwenselijk om een waakhond te hebben die meer mag dan blaffen. Dus aan de ketting met die waakhond! Laten wijzelf maar goed blijven luisteren naar het geblaf.