Maaike werkt samen met praktijkpartners uit de creatieve industrie, overheid en zorg om AI op een verantwoorde manier te ontwerpen en inzetten. Ze onderzoekt hoe ontwerpers rekening kunnen houden met waarden als inclusiviteit, autonomie en duurzaamheid, en hoe diverse perspectieven betrokken kunnen worden bij AI-besluitvorming.
Als leading lector binnen het RAAIT-programma (Responsible Applied AI) werkt Maaike aan verantwoord gebruik van AI en bevordert ze AI-ethiek in het onderwijs. Ze heeft kunstmatige intelligentie (MSc) en filosofie (MA) gestudeerd en promoveerde in 2011 op Explainable AI.
Projecten
van MaaikeDuidelijke TAAL
Overheidsinformatie, zoals teksten op websites en in brieven van de overheid is moeilijk te begrijpen voor een grote groep mensen.
Overheidscommunicatie moet dus eenvoudiger en beter aansluiten bij de leefwereld van mensen, maar verschillende richtlijnen en programma’s met dit doel zijn onvoldoende effectief. Ambtenaren geven aan te worstelen met de vraag hoe dit te realiseren. Het is lastig om eenvoudig te schrijven of te berichten over complexe onderwerpen. Temeer omdat verschillende doelgroepen verschillende taalbehoeften hebben. Dit maakt eenvoudig schrijven een tijds- en arbeidsintensief proces, waarbij externe blikken onontbeerlijk zijn. De opkomst van AI voor taalverwerking zoals ChatGPT lijkt uitkomst te bieden. Deze taalmodellen kunnen teksten automatisch herschrijven en vereenvoudigen. Er zijn echter ook zorgen over de inzet van AI voor overheidscommunicatie, want de werking van taalmodellen is niet transparant, privacy is veelal niet gewaarborgd en is behoud van betekenis in een vereenvoudigde tekst is niet gegarandeerd.
Doel van dit project is om gemeenten te ondersteunen bij het verantwoord inzetten van AI teneinde hun communicatie te vereenvoudigen en beter te laten aansluiten bij de beleving van burgers. Hiertoe ontwikkelen we criteria waaraan AI moet voldoen zodat het verantwoord kan worden gebruikt en maten waarmee kan worden vastgesteld of een AI-oplossing aan deze criteria voldoet.
Met behulp van de criteria en maten ontwikkelen we prototypes van AI-toepassingen voor taalvereenvoudiging. Dit gebeurt aan hand van drie praktijkcasussen bij gemeenten. De ontwikkeling van de criteria, maten en prototypes wordt in co-creatie uitgevoerd met een Research-through Design aanpak met meerdere iteraties van informatie verzamelen, analyseren, prototypen en evalueren.
Algorithmic Affordances
Maatschappelijke discussies over de invloed van kunstmatige intelligentie (of AI) op ons leven tieren welig, met als terugkerende vraag of AI-toepassingen – met name recommendersystemen – dreiging of redding zijn. De impact van een verkeerd gekozen film, met behulp van het recommenderalgoritme van Netflix, is beperkt. De impact van algoritmes in datingsites, navigatiesystemen en sociale media is al groter. De impact van recommenders in bijvoorbeeld gezondheidszorg, bij werving en selectie, fraudedetectie, en financieringsvraagstukken is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.
Om op een goede manier Responsible AI te ontwerpen moeten technische en contextuele vraagstukken worden opgelost, maar ook vraagstukken over hoe mens en algoritme met elkaar communiceren. Op technisch en contextueel vlak is veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die bijvoorbeeld ‘inclusiviteit’ in hun berekeningen incorporeren, en door ontwikkeling van wettelijke kaders. Over vraagstukken op communicatie tussen mens en algoritme bestaat daarentegen nog weinig concrete kennis. Bekend is wel dat gebruikers die via interacties het algoritme bij kunnen sturen vaak meer transparantie en betrouwbaarheid ervaren dan zonder de mogelijkheid tot interactie. Echter, slecht ontworpen interactiemogelijkheden kosten juist tijd, veroorzaken mentale overbelasting en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.
Het ontbreekt aan systematische en concrete bronnen over deze interactiemogelijkheden, hun toepasbaarheid, en hun ethische grenzen. Ontwerpers – de beroepsgroep die deze interacties vormgeeft – voelen zich daardoor niet volledig in staat om met vertrouwen verantwoorde interactiemogelijkheden te ontwikkelen.
RAAIT (SPRONG-project)
De Hogeschool van Amsterdam (HvA), Hogeschool Rotterdam (HR), Hogeschool Utrecht (HU) en de kernpartners Gemeenten Amsterdam en Rotterdam, Provincies Zuid-Holland en Utrecht, Cupola XS, Media Perspectives en CGI, hebben de ambitie om de komende acht jaar een krachtige onderzoeksgroep op te bouwen die regionaal en nationaal wordt (h)erkend als hét centrum voor praktijkgericht onderzoek op het gebied van Responsible Applied AI.
Deze SPRONG-groep bouwt voort op bestaande onderzoeksgroepen met complementaire expertise van het Centre of Expertise Applied Artificial Intelligence van de HvA, het Datalab: Livinglab voor AI & Ethiek van HR en het Kenniscentrum Digital Business & Media van de HU.