Maak van AI-engineer een beschermd beroep

Vandana Dwarka, Marieke Kootte

De WRR kenmerkt kunstmatige intelligentie (AI) als een systeemtechnologie met grote impact op de samenleving. Controle op AI-gebruik wordt cruciaal. Maak daarom van AI-engineer een gereglementeerd beroep, schrijven Vandana Dwarka en Marieke Kootte van de TU Delft.

Begin november overhandigde de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) aan demissionair premier Mark Rutte het rapport ‘Opgave AI. De nieuwe systeemtechnologie’. In dit rapport wordt een aantal aanbevelingen gedaan om kunstmatige intelligentie (AI) op een zo verantwoord mogelijke manier onderdeel van de samenleving te laten worden.

Volgens de WRR ‘moet AI gezien worden als een systeemtechnologie, een technologie met zodanige invloed dat de effecten niet te overzien vallen, te vergelijken met elektriciteit in de 19e eeuw’. Eén van de WRR-aanbevelingen is de ontwikkeling van een vaardigheidsbewijs voor mensen die met AI moeten omgaan, een zogenaamd AI-brevet. Maar deze aanbeveling gaat niet ver genoeg. De samenleving is erbij gebaat als de AI-engineer een beschermd beroep wordt.

In sectoren als de geneeskunde, advocatuur en accountancy biedt een systeem van titelbescherming zowel naar de burger als naar bedrijven en organisaties bescherming tegen ondeskundig of onzorgvuldig handelen. Net als in de advocatuur, geldt ook in de wereld van AI een aantal basisprincipes die adequaat toegepast moeten worden.

Juiste kennis

Al in 2018 bracht Gartner een rapport uit, waarin het adviesbureau voorspelde dat in 2022 85% van de AI-projecten foute resultaten zullen opleveren vanwege het ontbreken van de juiste kennis bij de teams die het product managen. Dit, terwijl machine learning-modellen sterk onderhevig zijn aan de correcte toepassing van algoritmiek, lineaire algebra, optimalisatie, kansrekening en statistiek.

Dat correlatie geen causaliteit impliceert heeft onderhand iedereen wel een keer gehoord, maar dat herkennen is een tweede. Hetzelfde geldt voor het bullshit in, is bullshit out-principe. Toch ontbreekt nog vaak een kwaliteitskeuring van de input-data, waardoor bias ontstaat dat doorwerkt in het model.

Daarnaast moet je je afvragen of de gegenereerde resultaten wel reproduceerbaar zijn, welke metrieken voor foutanalyse worden gebruikt, of voor de ontwerpers en gebruikers bekend is in welke mate er sprake is van een niet-deterministisch of non-linear model en in hoeverre daar duidelijke instructies bij worden geplaatst.

Als we kijken naar de bankensector dan zien we dat banken sinds de kredietcrisis verplicht zijn hun modellen te valideren en te corrigeren. Dit systeem van stresstesten vormt nu een integraal deel van het risicomanagement.

AI-stresstest

Ook een beroepsbeoefenaar van AI zou zich, naast het ontwikkelen en implementeren van modellen, voor een belangrijk deel moeten toespitsen op het valideren en corrigeren van de bestaande modellen. We hebben bijvoorbeeld bij de Belastingdienst allemaal kunnen zien dat het gebruik van AI niet zonder risico’s is en bij onkundige inzet tot verkeerde resultaten leidt. Het mitigeren, herkennen en monitoren van deze risico’s is daarom onlosmakelijk verbonden met het gebruik van AI. Het uitvoeren van zogenaamde stresstesten van modellen en algoritmes zou daarom óók bij de AI-praktijk tot de normale gang van zaken moeten horen.

Daarnaast gaat het voeren van een beschermde titel hand in hand met het dragen van verantwoordelijkheid en het creëren van zichtbaarheid en transparantie. De basis hiervoor ligt in een opleiding die aan allerlei wettelijke eisen moet voldoen. Om het begrip ‘expert’ in een almaar in populariteit toenemende beroepsgroep te harmoniseren, moet ook de reikwijdte van het beroep van AI-engineer of data scientist wettelijk vast komen te liggen.

Een meerderheid van de Tweede Kamer heeft zich recent uitgesproken voor het verplicht stellen van een algoritmeregister voor overheden. Dit zal enige transparantie creëren. Maar de vraag naar waar de verantwoordelijkheid voor het AI-gebruik concreet komt te liggen, blijft ook hier nog steeds onbeantwoord. Daarom zou het wenselijk zijn om een beroepsopleiding te creëren waarvan alle afgestudeerde AI-engineers en data scientists een AI-registratie krijgen, die we kunnen koppelen aan de algoritmeregisters.

Waarborg

Het dragen van de titel staat daarmee in direct verband met de verantwoordelijkheid voor de juiste implementatie en gebruik van de titel. Het is voor de samenleving van groot belang dat bij toenemend en ingrijpender AI-gebruik een waarborg voor deskundigheid komt.

Zoals we van de accountant mogen verwachten dat de controle op de jaarrekening klopt, zo zouden we de AI-engineer moeten kunnen vertrouwen op de juiste inzet van algoritmes.

Vandana Dwarka en Marieke Kootte zijn onderzoeker in de wiskunde aan de TU Delft. Lees het volledige artikel: https://fd.nl/opinie/1422160/maak-van-ai-engineer-een-beschermd-beroep

Reacties zijn gesloten.