2. HULPMIDDELEN

Er is al veel geschreven over ethische en juridische aspecten van digitalisering. Deze inzichten kunt u met behulp van onderstaande tools toepassen in uw organisatie, om toe te werken naar een integere digitale werkomgeving.

Het Huis voor Klokkenluiders heeft een overzicht gemaakt van bruikbare hulpmiddelen die de zoektocht is tegengekomen. Bij ieder hulpmiddel staat wie het ontwikkeld heeft, en waar u het voor kan gebruiken. Omdat de techniek zo snel gaat, zijn er mogelijk al weer nieuwere (betere) hulpmiddelen te vinden.

Waarden en belangenafweging

Voor het faciliteren van het gesprek over integer gebruik van digitale middelen kunt u verschillende gesprekstools gebruiken. De Utrecht Data School (DEDA) helpt organisaties met brainstormen over ethische overwegingen bij datamanagement. Het is een handige tool om inzicht te krijgen in de waarden die relevant zijn in de digitale werkomgeving, zoals privacy en betrouwbaarheid. Dit kan helpen bij het maken van een rechten- en belangenafweging bij de inzet van digitale middelen.

De AIIA (Rijksoverheid) is een tool die helpt met het afwegen van het doel en de noodzaak van de inzet van een digitaal middel ten opzichte van de impact op duurzaamheid en andere publieke waarden bij de inzet van artificiële intelligentie (AI). De tool kan gebruikt worden in alle fases van het werken met AI, van de inkoop van het digitale systeem tot het evalueren van de impact van AI in werkprocessen. Bij impact assessment van AI kan een organisatie ook de IAMA (Rijksoverheid) gebruiken: deze tool toetst de impact van AI op mensenrechten.

Risicomanagement

Het Huis voor Klokkenluiders heeft hulpmiddelen die betrekking hebben op moreel leren in het gebruik van digitale middelen opgenomen, omdat een integere digitale werkomgeving verder gaat dan handelen in lijn met de wet. Iets kan legaal zijn en tegelijkertijd maatschappelijk onwenselijk. Digitale middelen die draaien op AI zijn voor de efficiëntie van werkprocessen heel aantrekkelijk. Juist deze middelen die zakelijk aantrekkelijk zijn, verdienen extra aandacht voor en reflectie op het gebruik ervan.

Een voorbeeld hiervan is predictive policing. Dit is het gebruik van AI-gebaseerde modellen om efficiënt de inzet van de politie te informeren. De Nationale Politie experimenteerde hiermee in 2017 met het Criminaliteits Anticipatie Systeem (CAS), maar uit de pilot bleek dat het systeem leidde tot een zichzelf-vervullende voorspelling. Hoe meer politie er werd ingezet in een bepaald gebied, hoe meer misdaad er werd opgespoord in dat gebied, wat zorgde voor een vooringenomenheid in de dataset waar het systeem zich op baseerde. Dit is een voorbeeld van een systeem wat destijds voldeed aan wet- en regelgeving, en toch maatschappelijk onwenselijke gevolgen had.

Actualiseren integriteitsbeleid

Door de snelle ontwikkeling van digitale middelen is het integriteitsbeleid van organisaties en het gebruik van die middelen nog niet overal met elkaar in overeenstemming. Doe dit zo snel mogelijk. Dit is belangrijk om de ethische vraagstukken die innovaties met zich brengen te beantwoorden en gemaakte keuzes verdedigen. Het beschermt de organisatie en de mensen die erin werken. Ontwikkel eerst een heldere visie op het ethisch gebruik van digitale middelen, zodat niet iedere innovatie die nog volgt vraagt om beleidsaanpassing.

Ga voor informatie over ethisch gebruik van digitale middelen  en inspiratie naar de e-learnings van de Rijksorganisatie voor Ontwikkeling, Digitalisering en innovatie.