Menu Zoeken English

Onderzoek naar kunstmatige intelligentie helpt zowel hogescholen als mediabedrijven

06 oktober 2021

Op 7 oktober vindt de aftrap van onderzoeksproject Designing Responsible AI for Media Applications (DRAMA) plaats. Het praktijkgerichte onderzoek naar verantwoorde toepassingen van kunstmatige intelligentie bij mediaorganisaties, mogelijk gemaakt door een RAAK-publiek subsidie van Regieorgaan SIA, is een samenwerking tussen drie hogescholen en de mediabedrijven NPO, Beeld en Geluid, RTL, VPRO en Media Perspectives.

Zoeken naar verantwoord gebruik kunstmatige intelligentie 

Terwijl kunstmatige intelligentie (KI) een steeds grotere rol speelt binnen mediaorganisaties, worstelen zij met het ethisch verantwoorde gebruik ervan. In project DRAMA zullen aan de hand van drie casussen ethische instrumenten zoals handleidingen en workshops worden ontwikkeld. Zo zoeken onderzoekers van de Hogeschool van Amsterdam naar mogelijkheden voor inclusieve spraakherkenning en trekt de Hogeschool Utrecht een onderzoek naar het borgen van diversiteit en inclusie in mediaproducten zoals video’s en verslagen die door KI-toepassingen worden gegenereerd.  

De derde casus betreft de zoektocht naar pluriforme aanbevelingssystemen en wordt geleid door de Hogeschool Rotterdam. Deze systemen bevelen bezoekers van de NPO-website volgende video’s aan nadat een eerdere video is bekeken. Ook de NPO, Beeld en Geluid en de VPRO zijn bij deze casus betrokken, vertelt Maaike Harbers, lector Artificial Intelligence & Society bij de Hogeschool Rotterdam. Samen met Sarah van der Land, senior adviseur digitale innovatie bij de NPO, vertelt ze aan ScienceGuide over de casus. “Ik vind het bij de aard van het praktijkgericht onderzoek passen dat we ook dit interview gezamenlijk doen”, merkt Harbers echter eerst op. “We werken namelijk heel graag nauw samen met de praktijk, dus ik vind dit mooi.” 

Abstracte richtlijnen vertalen naar praktijk van ontwikkeling 

Kunstmatige intelligentie wordt op steeds meer manieren en plaatsen toegepast, en dat gaat niet altijd goed, licht Harbers het gehele project toe. Zo werken algoritmes soms discriminerend of veroorzaken ze andere ongewenste bijeffecten. Hoewel men reeds veel heeft nagedacht over ethische standaarden waaraan toepassingen van kunstmatige intelligentie moeten voldoen – Harbers gokt dat er minstens negentig verschillende richtlijnen zijn – zijn deze richtlijnen nog te abstract en daarom niet direct toepasbaar bij het bouwen van een KI-toepassing.  

“Wij willen daarom onderzoek doen naar de vertaling van die in hoge mate abstracte ethische richtlijnen naar de context van een concrete toepassing. Juist in de media, dus ook bij onze partners in dit onderzoek, is men veel bezig met het vaker toepassen van kunstmatige intelligentie. Daar leven dus de ethische vraagstukken die dat met zich meebrengt”, aldus de Rotterdamse lector.   

Mediabedrijven pakken die vraagstukken al op, vertelt Van der Land. Zo is er afgelopen februari een ‘intentieverklaring ethische richtlijnen’ ondertekend door de NPO, Beeld en Geluid, de VPRO, netwerkorganisatie Media Perspectives en andere mediabedrijven. “We hebben deze richtlijnen opgesteld omdat we verwachten dat er wetgeving aankomt”, legt Van der Land uit. “Er is natuurlijk al de AVG, maar die voldoet niet voor de richting waarin wij opschuiven. Als mediabedrijven wilden we daarom de handen ineenslaan en nieuwe, algemene Europese regelgeving voor zijn.” 

We gebruiken cookies voor analyse en marketing om de website te verbeteren.

Wijzig cookie-instellingen