Binnen de Europese Unie is dit jaar een primeur gerealiseerd: de eerste uitgebreide wetgeving die het gebruik van AI reguleert, namelijk de EU AI Act.
De EU AI Act verbiedt sinds 2 februari 2025 specifieke toepassingen van AI waarbij mensenrechten te veel in het geding komen. En organisaties dienen uiterlijk 2 augustus 2026 AI toepassingen die wel zijn toegestaan te voorzien van een risicoanalyse en waar nodig passende beheersing in te richten.
Mijn persoonlijke zoektocht naar wat de EU AI Act voor een organisatie betekent karakteriseer ik als artificiële ironie: ik gebruikte ChatGPT om wegwijs te worden. Dat beviel goed. Niet dat ik vanaf nu blindvaar op ChatGPT, want er kan altijd een hallucinatie tussen de zinnige teksten verschijnen. Daarom is het raadzaam om de antwoorden van ChatGPT altijd te fact-checken.
Ik beschreef in één zin aan ChatGPT de essentie van een AI-toepassing (zonder te veel gevoelige informatie prijs te geven) en vroeg in welke van de vier risico categorieën uit de EU AI Act dit zou vallen. Hierop gaf ChatGPT een heel bruikbaar antwoord. De bewuste AI-toepassing werd, met gedegen argumentatie, als ‘hoog-risico AI’ bestempeld.
Om ChatGPT te challengen vroeg ik ook: “Kan er ook worden beargumenteerd dat deze AI-toepassing in de categorie beperkt of minimaal risico valt?” Voor elk van de categorieën leverde ChatGPT een goede redevoering op. Dit alles in luttele seconden. Zonder ChatGPT had ik de volledige EU AI Act moeten lezen en was ik een veelvoud aan tijd kwijt geweest.
Je zou hier tegenover kunnen zetten dat dit het begin van het einde is: een mens die niet langer zelf nadenkt en handelt, maar dit uitbesteed aan een AI-toepassing. Een terechte zorg, hoewel ik die (nog) niet persoonlijk opvat. Omdat ik AI puur als sparringpartner zie en niet als mijn vervanger.
De echte valkuil is blind te varen op AI of te afhankelijk te worden van AI, waardoor ongewenste persoonlijke of maatschappelijke gevolgen kunnen ontstaan. We moeten bijvoorbeeld oppassen met het uitbesteden van ethische beslissingen aan AI en de ethische consequenties van de toepassing van AI in de gaten blijven houden en waar nodig hierop bijsturen. Ook technisch geeft AI met onder andere hallucinaties nog problemen.
Maar, ook Human Intelligence is feilbaar: een mens kan enerzijds soms blindvaren op emotie en anderzijds juist te rationeel vanuit een eenzijdig perspectief handelen en onvoldoende rekening houden met medemensen en andere perspectieven. De kernvraag is dan ook: hoe kan AI een bijdrage leveren aan mensenwerk, zonder dat je er als mens en maatschappij minder van wordt (we moeten niet het ‘waarom’ en de consequenties uit het oog verliezen)? De keerzijde van deze medaille is: hoe leveren we als mens een bijdrage aan AI, zodanig dat het nuttig en ethisch verantwoord kan worden ingezet?
Ben je nieuwsgierig naar AI-hulpmiddelen die je als actuaris kunt inzetten, lesmateriaal over dit onderwerp, casestudies en meer? Check dan onder andere:
Zoek je naar meer verdieping in de ethische aspecten van AI, bekijk dan bijvoorbeeld:
- De Volksbank als pionier in ethische AI - met Joris Krijger en DTC Inspire Day - Joris Krijger over AI en Ethiek
- Ethics in the Age of AI | Davos 2024 | World Economic Forum
- Philosophy Eats AI: What Leaders Should Know
- Podcast EU AI ACT
- The Ethics of AI & Machine Learning [Full Course]
Deze blog is op persoonlijke titel geschreven door Leendert de Rijke BSc, lid van de Commissie ERM van het Koninklijk Actuarieel Genootschap.