Om de kwaliteit en actualiteit van onbemenste toepassingen te borgen is het noodzakelijk dat er binnen de organisatie medewerkers zijn die inhoudelijke kennis hebben over de correctheid van de resultaten en deze kunnen monitoren en reviewen.
Daarnaast is het noodzakelijk dat er binnen de organisatie medewerkers zijn die de technologie begrijpen en deze kunnen monitoren en reviewen op een correcte werking binnen de toepassing.
Deze sectie van de kennisbank geeft inzicht in de belangrijkste factoren die een rol spelen bij het monitoren van de correctheid en actualiteit van toepassingen.
Nr.
Titel
Link
Omschrijving
Checklist thema('s)
Type content
Bron
Auteur(s)
Datum publicatie
2
Artificial Intelligence Impact Assesment
De Artificial Intelligence Impact Assessment (AIIA) bevat 8 concrete stappen voor organisaties om een AI assessment uit te voeren. Dit artikel van ECP beschrijft de 8 stappen die helpen bij het inzichtelijk maken van relevante juridische en ethische normen en afwegingen bij besluitvorming rondom de inzet van AI-toepassingen.
Wetgeving en afspraken; Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
Whitepaper
ECP | Platform voor de InformatieSamenleving
2018
5
Toward Trustworthy AI Development:
Mechanisms for Supporting Verifiable Claims
Dit wetenschappelijk artikel beschrijft waar de huidige wet- en regelgeving tekortschiet om een verantwoorde AI-ontwikkeling te garanderen. Aanbevelingen voor AI-ontwikkelaars worden gedaan over de drie assen van Institutional Mechanisms, Software Mechanisms en Hardware Mechanisms om te komen tot een verantwoorde en betrouwbare manier van AI-ontwikkeling.
Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
Paper
Cornel University
Miles Brundage
2020
7
Introducing the responsible AI Design Assistant
AI Global is een (non-profit) samenwerkingsinitiatief dat zich ten doel stelt een gezamenlijk raamwerk op te zetten voor verantwoorde Artificial Intelligence toepassingen. Een van de aangeboden tools is de Design Assistent. De Responsible AI Design Assistant is een virtuele beoordeling die ontwerpers, ontwikkelaars en producteigenaren te helpen rekening te houden met de belangrijkste AI-uitdagingen langs vijf dimensies: 1. Accountability; 2. Explainability and Interpretability; 3. Data Quality; 4. Bias and Fairness; 5. Robustness. Daarnaast biedt de Design Assistent een geautomatiseerde rapportage van de ingevulde checklist inclusief aanbevelingen en verbeterpunten.
Wetgeving en afspraken; Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
Tool
AI Global
2020
9
Artificiële Intelligentie in
de verzekeringssector
een verkenning
De Autoriteit Financiële Markten (AFM) en De Nederlandsche Bank (DNB) voorzien een snel toenemende inzet van artificiële intelligentie (AI) in de Nederlandse verzekeringssector. Het is daarbij van belang dat AI wordt ingezet op een manier die verantwoord en in lijn is met de eisen rondom integere en beheerste bedrijfsvoering, productontwikkeling en zorgplicht. De AFM en DNB presenteren een verkenning met tien aandachtspunten waarop verdere verdieping noodzakelijk is.
Wetgeving en afspraken; Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
Rapport
AFM en DNB
2019
11
New AI checklists address complexity and accountability
Dit artikel beschrijft de nieuwe (en nog in ontwikkeling zijnde) AI Checklisten van TM Forum. De AI-checklisten richten zich op zes fasen van AI-acceptatie: inkoop, pre-ontwikkeling, post-ontwikkeling, implementatie, in-life en end of life. Elke fase kent eigen doelen en daarmee normen die gevolgd moeten worden.
Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
Artikel
TM Forum
Dawn Bushuis
2020
21
Ethics guidelines for trustworthy AI
De ethische richtlijnen voor betrouwbare AI is een document waarin de zeven belangrijkste eisen staan waaraan het AI systeem moet voldoen om betrouwbaar te zijn, voor alle belanghebbenden in de levenscyclus van het AI systeem: ontwikkelaars, gebruikers, eindgebruikers en de maatschappij.
Wetgeving en afspraken; Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
Whitepaper
Europese Commissie
2018
23
AI in Control
KPMG voorziet organisaties van advies en audits over de werking van AI systemen. AI In Control is een set van op maat gemaakte diensten om AI gecontroleerd en beheerst te implementeren: AI risk assessment, Algoritme-review, AI In Control walk along en AI Volwassenheidsscan. Met deze diensten voert KPMG onafhankelijke reviews uit en legt (mogelijke) kwetsbaarheden en risico’s bloot. In dit artikel worden voor de verschillende diensten van KPMG de inhoud en resultaten uiteengezet.
Wetgeving en afspraken; Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
Artikel
KPMG
2020
24
Ethische code Artificial intelligence
De ethische gedragscode van NLdigital bestaat uit 8 algemene uitgangspunten voor de ICT-sector. Het is een verdieping op de 7 principes en richtsnoeren van de EU, geldend voor de leden van de NLdigital (digitale sector in Nederland).
Wetgeving en afspraken; Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
Artikel
NLdigital
2020
25
Het Algoritme Keurmerk
Het algoritme keurmerk heeft als doel om de transparantie en de zekerheid op het gebied van algoritmes te vergroten. Dit toetsingskader is ontwikkeld door VKA en Totta Data Lab en helpt organisaties bij het toetsen of het algoritme goed is gebouwd, goed wordt beheerd en goed wordt gebruikt. Het toetsingskader kent 8 onderdelen, waarin 60 taktische en opterationele richtlijnen worden beschreven. Dit artikel geeft algemene uitleg over het algoritme keurmerk.
Wetgeving en afspraken; Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
Artikel
VKA & Totta Data Lab
2018
33
Managing algorithmic risks - Deloitte
Dit whitepaper beschrijft de belangrijkste risico's die ontstaan bij het inzetten bij algoritmes voor (semi-)geautomatiseerde toepassingen. Een raamwerk voor algoritmisch risicobeheer is geïntroduceerd om inzicht te krijgen in de kwetsbaarheden, de impact te bepalen van de risico's op de organisatie en de onderliggende factoren die ze veroorzaken. Daarnaast worden facetten besproken waaraan een organisatie invulling moet geven voor een effectief risicobeheer bij de inzet van algoritmes.
Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
whitepaper
2017
38
Semantically Enhanced Software Traceability Using Deep Learning Techniques
Traceerbaarheid en deep learning staan op gespannen voet. Voor het vergroten van betrouwbaarheid en veiligheid, wordt de noodzak van traceerbaarheid in software voorgeschreven. In dit paper wordt een model beschreven hoe geautomatiseerd en door middel van deep learning traceerbaarheidslinks te genereren.
Risico's van de toepassing; monitoren
paper
2017
50
Examen voor de Robo-adviseur?
In dit whitepaper beschrijft SIVI een verkenning naar de invoering van een branchebreed kwaliteitssysteem voor toetsing van autonome toepassingen. Het kwaliteitssysteem moet een normenkader bieden voor het borgen van het klantbelang rond de inzet van autonome toepassingen. Het doel is tweeledig: aantoonbaar voldoen aan de wetgeving en borgen van de juiste inzet van de technologie. SIVI start met dit paper de discussie over de invulling van het kwaliteitssysteem.
Wetgeving en afspraken; Risico's van de toepassing; Testen; Herleidbaarheid; Monitoren
whitepaper
SIVI
2017
Deze website maakt gebruik van cookies om je een optimale gebruikerservaring te bieden. Met deze anonieme informatie over jouw websitegebruik help je ons de website te verbeteren. AccepteerLees meer
Privacy-statement
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
Dynamic title for modals
Weet je het zeker?
Bevestig alstublieft de verwijdering. Het ongedaan maken van deze actie is niet mogelijk!