Peter Mols in AM | 23 april 2024

Geautomatiseerde systemen brengen veel goeds. Zoals het Nederlandse Forest Foresight, dat met AI en satellietbeelden voorspelt waar tropische regenwouden massaal gekapt gaan worden. Het stelt lokale organisaties en overheden in staat om tijdig in actie te komen. En zo zijn er inmiddels voorbeelden te over die de toegevoegde waarde van geautomatiseerde, of onbemenste toepassingen, stevig onderstrepen.

Binnen onze branche experimenteren we volop en zien innovatieve initiatieven continue het daglicht. De processen binnen onze applicatielandschappen worden daarmee steeds vaker ‘zelfsturend en autonoom’ van karakter. Input leidt tot inzichten en output, waarmee we de procesgang verder kunnen optimaliseren, zonder menselijke tussenkomst.

Roboadvies was nog te beladen

Vanaf 1 juli is er nieuwe wetgeving van toepassing: ‘Geautomatiseerd advies’. Met daarin een definitie en een normenkader. Dit behelst specifieke ‘product oversight and governance’ (POG) regels voor het gebruik van dit soort systemen. Zo’n zeven jaar geleden startten we het project dat nu heeft geleid tot het SIVI platform Onbemenste Toepassingen. En waar destijds de term ‘Roboadvies’ beladen bleek, wordt iedereen zich meer en meer bewust van het gegeven dat kunstmatige intelligentie de mensheid meer en meer ondersteunt. Of je nu adviseur bent en gebruik maakt van adviessoftware, of verzekeraar om patronen in portefeuilles te ontdekken.

De inzet van dit soort systemen komt met een verantwoordelijkheid. Daarbij kun je discussiëren of de door de wetgever gestelde regels niet te ruim of juist te eng zijn. Maar dat ga ik niet doen. De basis vormt de verantwoordelijkheid die je zelf hebt als je een onbemenste toepassing in je processen opneemt. Het maakt niet uit of het nu gaat om geautomatiseerd advies of een ander proces. Je moet weten wanneer iets mis gaat! Hoe ontdek je dat en welk proces treedt dan in werking? Handhavingservaringen uit het verleden bieden geen garantie voor de toekomst, maar ik verwacht dat de wetgever streng zal toezien op navolging van de wet op ‘Geautomatiseerd advies’.

Vooraf checken en toetsen en jezelf bevragen of je het goede hebt gedaan en het goede gaat doen is cruciaal als je een onbemenste toepassing implementeert. En de checklist Onbemenste Toepassingen van SIVI ondersteunt je daarbij.

Pilot met Adfiz en CGA

Ik kijk uit naar de uitkomsten van de pilot die SIVI samen met Adfiz en de Contactgroep Automatisering (met Blinqx) gaat uitvoeren. Voor het eerst gaan we vanuit een tweetal perspectieven ervaren wat we in de breedte kunnen leren van de reviews van de ingevulde checklists. De pilotdeelnemers gaan individueel ervaren hoe het proces intern is verlopen bij de ontwikkeling en implementatie. Waar zijn de verantwoordelijkheden belegd? Hoe breed is het testwerk uitgevoerd? Enzovoort.

En daarna gaan we de beelden over elkaar heen leggen, van zowel ontwikkelaars als gebruikers. De leerpunten hieruit stellen we ter beschikking aan de branche. Dan neem je als keten verantwoordelijkheid! Zeker als we dit structureel en in de breedte van de applicatielandschappen in onze branche gaan doen.

Geautomatiseerd advies of welke onbemenste toepassing dan ook: er kan altijd iets misgaan, altijd. Maar met wetgeving en structurele initiatieven doen we wat we kunnen, en moeten. Het blijft mensenwerk…