Kennisbank Kwaliteit Onbemenste Toepassingen

Transparantie

Een belangrijk factor bij het vergroten van klantvertrouwen is dat organisaties inzicht geven in en uitleg geven over de totstandkoming van adviezen en beslissingen, oftewel transparantie bieden. Met transparantie wordt bedoeld het inzichtelijk maken van de totstandkoming van een resultaat. Hierin spelen 2 aspecten een belangrijk rol, namelijk herleidbaarheid en uitlegbaarheid.

Dit deel van de kennisbank bevat bronnen die inzicht geven in de belangrijkste aspecten rond herleidbaarheid en op welke wijze men de traceerbaarheid van de processen en data binnen toepassingen kan vormgegeven.

Nr. Titel Link Omschrijving Checklist thema('s) Type content Bron Auteur(s) Datum publicatie
2 Artificial Intelligence Impact Assesment De Artificial Intelligence Impact Assessment (AIIA) bevat 8 concrete stappen voor organisaties om een AI assessment uit te voeren. Dit artikel van ECP beschrijft de 8 stappen die helpen bij het inzichtelijk maken van relevante juridische en ethische normen en afwegingen bij besluitvorming rondom de inzet van AI-toepassingen. Wetgeving en afspraken; Risico's van de toepassing; Testen; Transparantie; Monitoren Whitepaper ECP | Platform voor de InformatieSamenleving 2018
5 Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable Claims Dit wetenschappelijk artikel beschrijft waar de huidige wet- en regelgeving tekortschiet om een verantwoorde AI-ontwikkeling te garanderen. Aanbevelingen voor AI-ontwikkelaars worden gedaan over de drie assen van Institutional Mechanisms, Software Mechanisms en Hardware Mechanisms om te komen tot een verantwoorde en betrouwbare manier van AI-ontwikkeling. Risico's van de toepassing; Testen; Transparantie; Monitoren Paper Cornel University Miles Brundage 2020
9 Artificiële Intelligentie in de verzekeringssector een verkenning De Autoriteit Financiële Markten (AFM) en De Nederlandsche Bank (DNB) voorzien een snel toenemende inzet van artificiële intelligentie (AI) in de Nederlandse verzekeringssector. Het is daarbij van belang dat AI wordt ingezet op een manier die verantwoord en in lijn is met de eisen rondom integere en beheerste bedrijfsvoering, productontwikkeling en zorgplicht. De AFM en DNB presenteren een verkenning met tien aandachtspunten waarop verdere verdieping noodzakelijk is. Wetgeving en afspraken; Risico's van de toepassing; Testen; Transparantie; Monitoren Rapport AFM en DNB 2019
11 New AI checklists address complexity and accountability Dit artikel beschrijft de nieuwe (en nog in ontwikkeling zijnde) AI Checklisten van TM Forum. De AI-checklisten richten zich op zes fasen van AI-acceptatie: inkoop, pre-ontwikkeling, post-ontwikkeling, implementatie, in-life en end of life. Elke fase kent eigen doelen en daarmee normen die gevolgd moeten worden. Risico's van de toepassing; Testen; Transparantie; Monitoren Artikel TM Forum Dawn Bushuis 2020
21 Ethics guidelines for trustworthy AI De ethische richtlijnen voor betrouwbare AI is een document waarin de zeven belangrijkste eisen staan waaraan het AI systeem moet voldoen om betrouwbaar te zijn, voor alle belanghebbenden in de levenscyclus van het AI systeem: ontwikkelaars, gebruikers, eindgebruikers en de maatschappij. Wetgeving en afspraken; Risico's van de toepassing; Testen; Transparantie; Monitoren Whitepaper Europese Commissie 2018
23 AI in Control KPMG voorziet organisaties van advies en audits over de werking van AI systemen. AI In Control is een set van op maat gemaakte diensten om AI gecontroleerd en beheerst te implementeren: AI risk assessment, Algoritme-review, AI In Control walk along en AI Volwassenheidsscan. Met deze diensten voert KPMG onafhankelijke reviews uit en legt (mogelijke) kwetsbaarheden en risico’s bloot. In dit artikel worden voor de verschillende diensten van KPMG de inhoud en resultaten uiteengezet. Wetgeving en afspraken; Risico's van de toepassing; Testen; Transparantie; Monitoren Artikel KPMG 2020
24 Ethische code Artificial intelligence De ethische gedragscode van NLdigital bestaat uit 8 algemene uitgangspunten voor de ICT-sector. Het is een verdieping op de 7 principes en richtsnoeren van de EU, geldend voor de leden van de NLdigital (digitale sector in Nederland). Wetgeving en afspraken; Risico's van de toepassing; Testen; Transparantie; Monitoren Artikel NLdigital 2020
25 Het Algoritme Keurmerk Het algoritme keurmerk heeft als doel om de transparantie en de zekerheid op het gebied van algoritmes te vergroten. Dit toetsingskader is ontwikkeld door VKA en Totta Data Lab en helpt organisaties bij het toetsen of het algoritme goed is gebouwd, goed wordt beheerd en goed wordt gebruikt. Het toetsingskader kent 8 onderdelen, waarin 60 taktische en opterationele richtlijnen worden beschreven. Dit artikel geeft algemene uitleg over het algoritme keurmerk. Wetgeving en afspraken; Risico's van de toepassing; Testen; Transparantie; Monitoren Artikel VKA & Totta Data Lab 2018
33 Managing algorithmic risks - Deloitte Dit whitepaper beschrijft de belangrijkste risico's die ontstaan bij het inzetten bij algoritmes voor (semi-)geautomatiseerde toepassingen. Een raamwerk voor algoritmisch risicobeheer is geïntroduceerd om inzicht te krijgen in de kwetsbaarheden, de impact te bepalen van de risico's op de organisatie en de onderliggende factoren die ze veroorzaken. Daarnaast worden facetten besproken waaraan een organisatie invulling moet geven voor een effectief risicobeheer bij de inzet van algoritmes. Risico's van de toepassing; Testen; Transparantie; Monitoren Whitepaper 2017
50 Examen voor de Robo-adviseur? In dit whitepaper beschrijft SIVI een verkenning naar de invoering van een branchebreed kwaliteitssysteem voor toetsing van autonome toepassingen. Het kwaliteitssysteem moet een normenkader bieden voor het borgen van het klantbelang rond de inzet van autonome toepassingen. Het doel is tweeledig: aantoonbaar voldoen aan de wetgeving en borgen van de juiste inzet van de technologie. SIVI start met dit paper de discussie over de invulling van het kwaliteitssysteem. Wetgeving en afspraken; Risico's van de toepassing; Testen; Transparantie; Monitoren Whitepaper SIVI 2017
73 General principles for the use of Artificial Intelligence in the financial sector Dit paper geeft achtergrondinformatie over AI, alsmede het huidige en toekomstige gebruik van AI in de Nederlandse financiële sector. Ook geeft het een aantal algemene principes voor een verantwoorde toepassing van AI in de financiële sector. Transparantie Paper DNB 2019
75 Practices for Engineering Trustworthy Machine Learning Applications In dit compacte paper koppelen de onderzoekers richtlijnen met betrekking tot de ontwikkeling van betrouwbare machine learning (ML) aan een aantal praktijkcases en geven zij aan hoe e.e.a. onderdeel moet worden van de levenscyclus van ML-ontwikkeling. Transparantie Paper Cornel University 2021
76 A Survey on Explainable Artificial Intelligence (XAI): Toward Medical XAI In dit onderzoek naar de uitlegbaarheid van AI is gekeken naar toepassing van AI voor medische doeleinden waarbij een hoge mate van tranparantie vereist is. De onderzoekers schetsen een overzicht van interpretatiemogelijkheden uit verschillende onderzoeken en categoriseren deze. Transparantie Paper IEEE 2011
77 A Checklist for Explainable AI in the Insurance Domain In dit paper gaan de auteurs dieper in op vragen als: Wat is AI eigenlijk? Verstaan we allemaal hetzelfde onder AI? Kunnen mensen nog uitleggen of herleiden wat een AI-toepassing heeft gedaan? Hoe zit het met de vooringenomenheid van een AI-toepassing? Ook leggen zij het dilemma bloot tussen uitlegbaarheid en accuraatheid. Hoe innovatiever de AI-toepassing, hoe groter de accuraatheid wordt. Tegelijkertijd neemt de uitlegbaarheid wel af. Welke keuze maakt een verzekeraar dan? Transparantie Paper Universiteit van Leiden & SIVI 2022