Abstract
Het verkrijgen van begrip en vertrouwen in een machine learning model toepassing is iets wat van wezenlijk belang is voor het slagen van deze toepassing. Explainable Artificial Intelligence of XAI kan helpen meer begrip en vertrouwen te krijgen door de door het model gemaakte beslissingen via rapportages uit te leggen. Zijn deze XAI rapportages echter wel door iedereen te begrijpen en bieden deze (rapportages) wel meerwaarde voor alle betrokkenen?Dit onderzoek zal aan een eenvoudig machine learning model een tweetal XAI rapportages toevoegen, gebaseerd op de XAI techniek Lime. Van deze rapportages zal worden onderzocht of deze invloed hebben op begrip en vertrouwen bij betrokken niet-deskundigen. Naast de uitleg via XAI rapportages is ook de invloed van het tonen van de model nauwkeurigheid onderzocht.
Duidelijk zal worden uit dit onderzoek, dat binnen de gekozen onderzoeksopzet, XAI rapportages weinig meerwaarde geven voor de betrokken niet-deskundigen. Daarentegen heeft het tonen van de nauwkeurigheid van het model wel invloed op deze groep.
Date of Award | 25 Feb 2022 |
---|---|
Original language | Dutch |
Supervisor | Laury Bollen (Examiner) & Tim Huygh (Co-assessor) |
Keywords
- Explainable Artificial Intelligence
- Begrip
- Vertrouwen
- Model Nauwkeurigheid
- Machine Learning
Master's Degree
- Master Business Process management & IT (BPMIT)