Interpreteerbaarheid van Machine Learning

Kennisbank •

Steeds meer van onze dagelijkse beslissingen worden gemaakt door machinelearningmodellen. Deze modellen zijn getraind op historische data en kunnen mogelijk een ongewenste bias vertonen. Wanneer zulke modellen worden ingezet voor kritieke besluitneming is het belangrijk om het model te kunnen verklaren.

Interpreteerbaarheid van Machine Learning

Ook vanuit het oogpunt van eerlijkheid, privacy, betrouwbaarheid en transparantie is

Interpreteerbaarheid een erg belangrijk speerpunt. Mocht dit nog niet genoeg redenen zijn, onder nieuwe Europese wetgeving (de Digital Services Act) wordt van online platforms verwacht dat ze aan hun gebruikers kunnen uitleggen hoe hun algoritmen beslissingen maken en in de recente AI Act is een voorstel gedaan voor nieuwe regulatie omtrent AI-modellen. Kortom, het kunnen interpreteren en uitleggen van machinelearningmodellen is niet iets wat alleen beperkt is tot het domein van Finance & Risk, maar iets waar veel bedrijven straks mee bezig zullen moeten zijn. 

 

Omdat er niet een eenduidige definitie is van wat interpreteerbaarheid en uitlegbaarheid precies inhoudt, is het goed om wat dieper in te gaan op de taxonomie. We sluiten het artikel af met wat praktische tips voor bedrijven en datawetenschappers.

 

Lees het hele artikel van Max Knobbout onder Download.

Downloads

Over de auteur

Max Knobbout

M. Knobbout PhD is Lead Data Scientist bij Just Eat Takeaway.com.