Amsterdam, 16 december – Artificial Intelligence (AI) wordt met de dag slimmer, en de afgelopen jaren wordt AI dan ook steeds meer gebruikt. Hiermee groeien echter ook de risico’s op misbruik en corruptie. Experts van Transparency International waarschuwen dat AI op verschillende manieren voor corruptie gebruikt kan worden. Daarnaast zouden sommige eigenschappen van AI corruptie ook nog eens aanlokkelijker maken. Wetgeving om misbruik tegen te gaan en corruptie te voorkomen is dan ook hard nodig.
Misbruik van AI
Met het groeiende gebruik van AI nemen ook de risico’s op misbruik toe. Een bekend voorbeeld van de risico’s van AI zijn de zogenoemde ‘deep-fakes’. Met dit soort filmpjes lijken bekende personen dingen te zeggen die zij eigenlijk nooit hebben gezegd. Deze videos kunnen bijvoorbeeld worden gebruikt om politieke tegenstanders in diskrediet te brengen. Ook kunnen met AI bijvoorbeeld bots op sociale media worden gemaakt, om zo de publieke opinie te manipuleren.
Voor dit soort toepassingen moeten nieuwe AI-systemen worden ontwikkeld, maar ook bestaande AI-systemen kunnen worden gebruikt voor andere zaken dan zij eigenlijk bedoeld zijn. Bedrijven gebruiken bijvoorbeeld algoritmes om met hun online advertenties de juiste doelgroepen te bereiken. Dit systeem is de afgelopen jaren echter ook gebruikt door politieke partijen om specifieke groepen kiezers te targetten tijdens verkiezingen. Een ander voorbeeld zijn de onthullingen over het Pegasus-project enkele jaren geleden. Software die eigenlijk bedoeld was om terrorisme op te sporen en te bestrijden, bleek in verschillende landen te worden gebruikt om journalisten en activisten te bespioneren.
Manipulatie van codering
Naast het misbruiken van AI-systemen kan de codering achter AI-systemen ook worden gemanipuleerd of onjuist worden ingezet. AI-systemen voor selectie van sollicitaties kunnen dan bijvoorbeeld bepaalde groepen of mensen voortrekken of juist benadelen. Zo’n algoritme kan ook op individueel niveau worden gemanipuleerd, zonder toegang tot de codering. De zorg gebruikt soms bijvoorbeeld AI-systemen om te bepalen welke patiënten prioriteit krijgen, of toegang krijgen tot schaarse medicijnen of behandelingen. Iemand die bekend is met dit systeem kan foto’s of andere data manipuleren om zo een gewenst resultaat te krijgen.
Het kan hierbij om zulke kleine verschillen gaan, dat deze manipulatie met het blote, ongetrainde oog niet is op te merken. Dit sluit aan op andere zorgen die corruptie-experts hebben over AI. Niet alleen de manieren waarop AI valt te gebruiken voor corruptie maar ook sommige eigenschappen van AI baren experts namelijk zorgen. Sommige eigenschappen van AI zouden misbruik en corruptie makkelijker, en daarmee ook aanlokkelijker, maken.
Vergroot risico op corruptie
De algoritmes achter AI werken autonoom. Soms zijn antwoorden die zo’n programma geeft niet na te gaan door de makers van het programma. Zulke programma’s zijn dus niet altijd transparant, wat het lastig maakt om manipulatie op te sporen. Dit gebrek aan transparantie maakt de kans om ontdekt te worden kleiner, wat de kans op corruptie juist vergroot. De mogelijkheid AI de schuld te kunnen geven maakt corruptie daarmee aanlokkelijker. Hierbij speelt ook een rol dat het gebruik van AI menselijk contact vermindert. Mogelijke slachtoffers van corruptie hebben hierdoor voor daders minder een gezicht.
Kansen voor corruptiebestrijding
Naast deze risico’s biedt AI echter ook mogelijkheden voor de strijd tegen corruptie. AI kan grote hoeveelheden data door spitten. Op basis van nieuwsberichten, archieven en financiële rapporten zou het volgens experts mogelijk zijn om met AI risico’s op corruptie in te schatten en zelfs te voorspellen. AI wordt ook al gebruikt om grote aantallen financiële transacties te onderzoeken om witwaspraktijken op te sporen. Verdachte transacties kunnen hiermee tijdig worden gepauzeerd en onderzocht.
Wetgeving om gebruik te stroomlijnen
De verdere ontwikkeling van AI gaat dus gepaard met zowel kansen als risico’s op het gebied van corruptie. Wetgeving om de ontwikkeling en toepassing van AI te stroomlijnen is dan ook hard nodig, maar dit ontbreekt veelal. Wel introduceerde de EU vorige zomer als eerste ter wereld wetgeving. De wetgeving richt zich op de makers van AI, en verbiedt enkele toepassingen van AI. Toepassingen die een onacceptabel risico met zich meebrengen worden verboden. Hierbij gaat het bijvoorbeeld om systemen voor ‘social scoring’, waarin mensen met een puntensysteem door AI worden gerangschikt. Andere gebruiken van AI op de arbeidsmarkt of voor de financiële dienstverlening blijven toegestaan. Wel zijn dit soort systemen geclassificeerd als hoog-risico, en moeten zij over een paar jaar aan strenge eisen voldoen.
De wet zal in de komende jaren stapsgewijs in werking treden, en is ook meteen in Nederland bindend. EU-lidstaten zijn wel zelf verantwoordelijk voor de naleving van de regels. In Nederland is besloten hier geen nieuw toezichtsorgaan voor op te richten, omdat veel verschillende sectoren AI gebruiken. In plaats hiervan zal het toezicht per sector worden geregeld.
Wil jij TI-NL ondersteunen in haar strijd voor klokkenluidersbescherming, politieke integriteit en een samenleving vrij van corruptie? Word dan lid, of steun ons via een donatie: