Cookies

We gebruiken cookies om u de beste ervaring op onze website te bieden. U kunt meer informatie vinden over welke cookies we gebruiken of deze uitschakelen in de instellingen. - Bekijk cookie instellingen

Ga naar inhoud
Dit zijn de 10 toegekende projecten van de call ‘Responsible AI in de praktijk’

Dit zijn de 10 toegekende projecten van de call ‘Responsible AI in de praktijk’

SIDN fonds en Topsector ICT hebben subsidie toegekend voor diverse vernieuwende onderzoeksprojecten die praktijkoplossingen bieden voor responsible AI. 

In dit artikel maken we de tien toegekende projectvoorstellen bekend.

Gepubliceerd op 13 juni 2025

Contactpersoon

Sjoerd Meihuizen

Programmamanager KIA Digitalisering

Topsector ICT

In de call ‘Responsible AI in de praktijk’ werken SIDN fonds en Topsector ICT samen. Het is de eerste call die zich richt op het derde luik binnen de Kennis- en Innovatieagenda (KIA) Digitalisering: reflectie op digitale informatietechnologieën. Dit luik draait om ontwikkeling en inbreng van randvoorwaarden om op een verantwoorde manier te digitaliseren.

Bij deze specifieke call gaat het om de ontwikkeling van praktisch toepasbare kaders, randvoorwaarden en ontwerpprincipes (by design) voor verantwoorde AI en AI-toepassingen en oplossingen die daarop gebaseerd zijn. Die toepassingen kunnen gericht zijn op een specifieke sector of op een specifieke maatschappelijke uitdaging, maar het uitgangspunt is hierbij altijd dat het gaat om het concretiseren van hoe je dat op een verantwoorde manier kan doen. Op 6 maart 2025 werd in Den Haag een matchmaking event georganiseerd om geïnteresseerde partijen samen te brengen en inspireren. U leest hier het verslag.

1,1 miljoen subsidie

De projecten moesten voor 31 maart 2025 ingediend worden door een kennisinstelling die met minimaal één bedrijf samenwerkt. Na sluiting van de call en de eerste beoordeling van de ingestuurde projecten bleek dat er een groot aantal kwalitatief sterke aanvragen was ingediend. In totaal ging het om 39 voorstellen.

Na een eerste beoordeling zijn 16 voorstellen voorgelegd aan de Raad van Advies, die over de volgende 10 voorstellen positief adviseerde:

  • Van Responsible AI naar Explainable AI bij het begrijpen van het online publieke debat
  • Democratie in het Verkeer: een 5-sterrenmodel voor verantwoorde inzet van iVRI’s
  • Validatiekader betrouwbare LLMs voor publieke informatievoorziening
  • Verantwoorde AI in de bibliotheek
  • DiBiLi: Diagnosing Bias in Library Recommender Systems
  • The Responsible Design and Use of AI-Driven Period and Fertility Tracking Technologies ("Femtech")
  • Functioneringsgesprek voor AI (FG-AI)
  • Explaining Fairness scores of AI-based assurance risk and analytics Responibly (eFAIR)
  • Responsible AI for Clinical Decision Support (RACliDeS)
  • Fair AI Attribution (FAIA)

Het totaalbudget bedraagt 1,1 miljoen euro voor deze call. De projecten krijgen maximaal 125.000 euro subsidie per project. Voorwaarde is dat minimaal 20 procent moet worden ge-cofinancierd door de kennisinstelling.

Meer over de projecten

  • Van Responsible AI naar Explainable AI bij het begrijpen van het online publieke debat
    Hoofdaanvrager: Hogeschool Utrecht
    Partners: Gemeente Utrecht, Rijksdienst voor Ondernemend Nederland, Provincie Utrecht, Politie Nederland en V&R.
    Subsidie: 73.650 euro

    Korte beschrijving
    : Het project "Van Responsible AI naar Explainable AI" ontwikkelt een reflexieve leeromgeving voor communicatieprofessionals om online polarisatie en desinformatie beter te analyseren. De bestaande leeromgeving/tool (BEP genaamd) wordt doorontwikkeld van responsible naar explainable AI, met transparantie over algoritmes en focus op mens-machine samenwerking. De hoofdvraag van dit project is: “Hoe ontwikkelen wij een data-gedreven leeromgeving en een AI gedreven analyse tool waarin de best practices vanuit het responsible AI framework door de gebruikers worden begrepen en worden toegepast? Hoe gaan wij van een responsible AI-leeromgeving naar een explainable AI-leeromgeving?” De uitkomsten van dit project kunnen als voorbeeld dienen voor veel andere projecten waar algoritmen en AI worden gebruikt.

  • Democratie in het Verkeer: een 5-sterrenmodel voor verantwoorde inzet van iVRI’s
    Hoofdaanvrager: Rijksuniversiteit Groningen
    Partner: The Green Land
    Subsidie: 117.580 euro

    Korte beschrijving
    : Dit project ontwikkelt een 5-sterrenmodel om gemeenten te helpen bij het democratisch verantwoord inzetten van intelligente verkeerslichten (iVRI’s). Het richt zich op het waarborgen van publieke waarden zoals transparantie, eerlijke afweging van belangen en burgerparticipatie bij AI gestuurde verkeerssystemen. Het model wordt getest in samenwerking met gemeenten en gebaseerd op ethische kaders zoals Meaningful Human Control. Het project gaat dit onderzoeken in vier werkpakketten: theoretische verdieping, empirische verankering, modelontwikkeling en pilots/uitrol in twee gemeenten. De resultaten van het project worden vastgelegd in rapporten, methodische handleidingen en waar relevant open-access wetenschappelijke publicaties. Er komt een centrale projectwebsite (democratieinhetverkeer.nl), workshops voor overheden, bedrijven en maatschappelijke organisaties en documentatie die bruikbaar is voor onderwijsdoeleinden.

  • Validatiekader betrouwbare LLMs voor publieke informatievoorziening
    Hoofdaanvrager: Technische Universiteit Eindhoven
    Partners: Rechtspraak, Stichting Algorithm Audit, T&T Data Consultancy en Deloitte Consultative Services
    Subsidie: 82.044 euro

    Korte beschrijving
    : Dit project ontwikkelt een praktisch validatiekader voor de verantwoorde inzet van Large Language Models (LLMs) in de publieke sector, gebaseerd op de succesvolle pilot voorRecht-Rechtspraak van de Rechtspraak. VoorRecht-Rechtspraak biedt ondersteuning bij conflictbemiddeling bij bouw- en verengingen van eigenaren geschillen. Gebruikers delen informatie met een LLM-gedreven assistent waarna zij in begrijpelijke taaladvies krijgen. Dit projectvoorstel wil met hulp van deze casus een validatiekader opstellen en zo organisaties ondersteunen bij het waarborgen van privacy, robuustheid en transparantie bij het gebruik van LLMs voor informatievoorziening aan burgers.
    De resultaten van het project worden via de consortiumpartners gedeeld met onder meer de VNG, VNO-NWC, AI Coalitie 4 NL, Rijks Innovatie Community, ECP, het ministerie van Binnenlandse Zaken en op congressen van iBestuur en Binnenlands bestuur.

  • Verantwoorde AI in de bibliotheek
    Hoofdaanvrager: Eindhoven University of Technology/JADS
    Partners: Datacation en Bibliotheek Eindhoven (namens 8 samenwerkende bibliotheken in Brainport regio)
    Subsidie: 125.000 euro

    Korte beschrijving
    : Dit project ontwikkelt een transparant en uitlegbaar AI-systeem voor bibliotheken, gebaseerd op de bestaande Boekbot (een AI-boekenadviseur). Het richt zich op het oplossen van drie kernproblemen:
    (1) Gebrek aan inzicht voor gebruikers in hoe AI tot aanbevelingen komt;
    (2) Ontbreken van praktische richtlijnen voor verantwoorde AI in de bibliotheeksector;
    (3) Spanning tussen personalisatie en diversiteit (filterbubbels).
    Het doel van dit project is het creëren van een raamwerk voor uitlegbare, eerlijke en gebruiksvriendelijke AI in bibliotheken, met concrete tools om transparantie te vergroten. Er wordt een prototype van een transparante AI-interface gebouwd (geïntegreerd in Boekbot), net als een Explainable AI Toolkit met handleidingen voor implementatie. Daarnaast wordt educatief materiaal ontwikkeld voor bibliotheekmedewerkers en gebruikers en volgen er wetenschappelijke publicaties over transparantie en gebruikersvertrouwen.

  • DiBiLi: Diagnosing Bias in Library Recommender Systems
    Hoofdaanvrager: Centrum Wiskunde en Informatica
    Partners: KB (National Library of the Netherlands), Simon Dirks’ softwarebedrijf en Bookarang BV.
    Subsidie: 123.900 euro

    Korte beschrijving: Aanbevelingssystemen spelen een grote rol in onze digitale interacties, vooral in de cultuur- en mediasector. Ze helpen gebruikers door relevante suggesties te doen, wat waardevol kan zijn voor openbare instellingen zoals bibliotheken. Toch staan deze systemen ter discussie vanwege hun neiging tot bias (vooroordelen), zoals het versterken van stereotypen of filterbubbels. Hierdoor zijn bibliotheken terughoudend in het gebruik van geautomatiseerde aanbevelingen, uit angst voor het ondermijnen van publieke waarden zoals inclusiviteit. Dit project richt zich op het ontwikkelen van een diagnostisch dashboard om bias in bibliotheekaanbevelingen zichtbaar te maken. Het dashboard analyseert leengedrag en aanbevolen boekenlijsten, met speciale aandacht voor vooroordelen tegenover bepaalde auteursgroepen.
    Het project bouwt voort op eerder onderzoek binnen het Cultural AI Lab, waaronder het promotieonderzoek van Savvina Daniil over verantwoorde aanbevelingssystemen. Het project sluit ook aan bij de digitale transformatie van de KB, die een gepersonaliseerd online Bibliotheekplatform ontwikkelt. Daarnaast draagt het project bij aan het debat over ethische AI in de cultuursector en biedt het ICT-bedrijven handvatten voor betere systemen. De resultaten van het project worden gedeeld via een diagnostisch dashboard, richtlijnen en rapportage, een wetenschappelijke publicatie, presentaties bij bibliotheken, ICT-bedrijven en wetenschappelijke evenementen, en middels praktische toepassing bij bibliotheken en ICT-bedrijven.

  • The Responsible Design and Use of AI-Driven Period and Fertility Tracking Technologies ("Femtech")
    Hoofdaanvrager: Stichting VU, Vrije Universiteit
    Partners: Yoni.care, 28X en Feminist Generative AI Lab (initiatief TU Delft en Erasmus Universiteit)
    Subsidie: 125.000 euro

    Korte beschrijving: Het project "The Responsible Design and Use of AI-Driven Period and Fertility Tracking Technologies" richt zich op het ontwikkelen van verantwoorde AI-toepassingen in de FemTech-sector, specifiek voor menstruatie- en fertiliteitstrackingapps. Met de FemTech-markt die wereldwijd $55 miljard waard is en meer dan 50 miljoen gebruikers telt, is er dringend behoefte aan ethische richtlijnen voor deze technologieën. Het project onderzoekt de risico's van bestaande AI-oplossingen, zoals ongefundeerde medische adviezen en privacyproblemen.
    De onderzoekers ontwikkelen praktische tools zoals beslissingshulpmiddelen voor gebruikers en zorgprofessionals, richtlijnen voor verantwoorde AI-ontwikkeling, en educatieve modules. De resultaten worden verspreid via academische publicaties, workshops en netwerkevents, met aandacht voor zowel technische aspecten (zoals algoritmische bias) als gebruikersgerichte elementen (zoals transparantie).

  • Functioneringsgesprek voor AI (FG-AI)
    Hoofdaanvrager: Universiteit Utrecht
    Partners: Rijksinspectie Digitale Infrastructuur, de Nederlandse Voedsel- en Warenautoriteit en Berenschot Groep BV
    Subsidie: 125124.235 euro

    Korte beschrijving: Het Functioneringsgesprek voor AI helpt organisaties AI te monitoren. Met een webapplicatie, rapportage en onderzoek draagt het bij aan transparantie, verantwoorde innovatie en een sterk AI-ecosysteem. Het project wil een prototype van het Functioneringsgesprek voor AI doorontwikkelen. Ze piloten het functioneringsgesprek met verschillende organisaties en laten twee toezichthouders dit proces evalueren. Ze zullen resultaten delen met andere toezichthouders, via wetenschappelijke artikelen en via workshops aan gebruikers. Het huidige Excelbestand wordt doorontwikkeld naar een webapp. Het consortium wil het Functioneringsgesprek voor AI op wetenschappelijke wijze valideren.
    Het project gaat dit onderzoeken middels een langlopende pilot met 8-12 maatschappelijke partners die minimaal één algoritme voor een periode van één jaar gaan monitoren. Na afronding van de pilot worden focusgroepen georganiseerd met pilotpartners. De data die de pilot oplevert worden ook geëvalueerd met toezichthouders. De resultaten van het project zullen zowel op wetenschappelijk als maatschappelijk niveau gedeeld worden.

  • Explaining Fairness scores of AI-based assurance risk and analytics Responibly (eFAIR)
    Hoofdaanvrager: Hogeschool Utrecht
    Partners: Jheronimus Academy of Data Science (JADS) van de Technische Universiteit Eindhoven, MavenBlue en het Verbond van Verzekeraars
    Subsidie: 125.000 euro

    Korte beschrijving
    : Het eFAIR-project onderzoekt hoe Explainable AI (XAI) kan bijdragen aan het transparant en begrijpelijk maken van fairness-maten en fairness-principes voor verschillende gebruikersgroepen. Het project ontwikkelt een raamwerk dat fairness-maten dynamisch presenteert, rekening houdend met de kennis en behoeften van specifieke gebruikersgroepen. Het raamwerk zal interactief en modulair zijn, zodat het kan worden aangepast aan verschillende gebruikers, van technische experts tot beleidsmakers en eindgebruikers.
    Het project beoogt een vertaalslag te maken van fairness-maten naar bruikbare inzichten voor beleidsmakers, toezichthouders en eindgebruikers. Voor dit project hebben zij als casus autoverzekeringen gekozen. In de wijk Leidse Rijn is een autoverzekering 20 euro goedkoper dan in de wijk Kanaleneiland. Als er in een wijk meer inbraken zijn, dan is er een hogere premie, maar in dit geval wonen er ook meer mensen met een niet-westerse achtergrond. In hoeverre gaat het dan nog om premiedifferentiatie of is dit wellicht ook discriminatie?
    De resultaten van het project zullen gedeeld worden middels wetenschappelijke publicaties over behoeftes en best practices, publicaties in vaktijdschriften, workshops en nieuwsbrieven via het Verbond voor Verzekeraars. Het eFAIR-framework zal gedeeld worden via een wetenschappelijke open-access publicaties, een online open-source demonstratietool en middels aanbieding van workshops en trainingssessie via het netwerk van het Verbond van Verzekeraars ter ondersteuning bij implementatie van het framework.

  • Fair AI Attribution (FAIA)
    Hoofdaanvrager: Leiden University
    Partners: GO FAIR Foundation en Liccium BV
    Subsidie: 86.756 euro

    Korte beschrijving: FAIA ontwikkelt in samenwerking met de Universiteit Leiden, GO FAIR en Liccium een open raamwerk voor AI-attributie om transparantie te garanderen over AI-gebruik in digitale content. Met de opkomst van generatieve AI wordt het steeds moeilijker om onderscheid te maken tussen door mensen gecreëerde content en door machines geproduceerde of bewerkte content. Dit gebrek aan transparantie heeft ernstige gevolgen – niet alleen voor het publieke vertrouwen en het rechtvaardig hergebruik van creatieve content, maar ook voor de wetenschappelijke integriteit, de geloofwaardigheid van digitale media en de naleving van wet- en regelgeving.

    Dit project wil een standaard vocabulaire creëren om inzichtelijk te maken dat digitale content met behulp van AI is gemaakt. Het eerste prototype zal gericht zijn op academische papers. Het doel is dat het daarna ook aan te passen is naar andere contexten. Het project zal een gestructureerd, interoperabel en verifieerbaar framework ontwerpen en implementeren for Fair AI Attribution (FAIA). De uitkomsten van het project zullen open-source worden gedeeld en geïmplementeerd via het Liccium-platform.

  • Responsible AI for Clinical Decision Support (RACliDeS)
    Hoofdaanvrager: Stichting Radboud Universiteit
    Partners: Universiteit Utrecht, Hanze Hogeschool, ConnectedCare Services B.V. en ICTRecht Amsterdam BV
    Subsidie: 124.974 euro

    Korte beschrijving
    : Dit project onderzoekt wat er nodig is – technisch, juridisch, medisch-ethisch – om ervoor te zorgen dat arts en patiënt op een betrouwbare en verantwoordelijke manier gebruik kunnen maken van AI technologie zonder de grip op de besluitvorming te verliezen. Als use case werkt dit project met de praktijkervaringen van het ENDORISK-systeem voor baarmoederkanker. Baarmoederkanker verspreidt zich meestal eerst naar de lymfeklieren en vandaar naar de rest van het lichaam. ENDORISK kan met hulp van onderzoeksresultaten van een patiënt de kans berekenen dat de kanker zich naar de lymfeklieren zal verspreiden. Met deze resultaten kunnen de arts en patiënt de voor-en nadelen van het operatief verwijderen van de lymfeklieren bespreken.
    Dit project is inhoudelijk en organisatorisch ingebed binnen het ELSA lab Legal, Regulatory, and Policy Aspects of Clinical Decision Support Systems, dat september 2025 van start gaat met subsidiering van AINed via het Nationaal Groeifonds. Het project bestaat uit een whitepaper met richtlijnen voor certificeerbare AI in de zorg. Daarnaast wordt een praktisch stappenplan ontwikkeld voor AI-systemen die voldoen aan juridische kaders (zoals de AI Act en AVG), medisch-ethische normen (zoals geïnformeerde keuzes en bias-reductie) en technische eisen (zoals uitlegbaarheid en traceerbaarheid). Op het gebied van interactie-ontwerp komen er tools waarmee artsen AI-advies begrijpelijk kunnen overbrengen, evenals methoden voor patiënt-empowerment via visuele uitleg van risico’s en behandelalternatieven. Tenslotte wordt kennis verspreid via workshops voor zorgprofessionals, ontwikkelaars en toezichthouders, en open access materialen over verantwoorde AI-implementatie in de zorg.

Meer informatie over deze call

  • Privacy overzicht
  • Noodzakelijke cookies
  • Cookies van derden
  • Aanvullende cookies
  • Privacy en cookies

Deze website maakt gebruik van functionele-, analytische- en tracking-cookies om de website te verbeteren.

Strikt Noodzakelijke Cookies moet te allen tijde worden ingeschakeld, zodat wij uw voorkeuren voor cookie-instellingen kunnen opslaan.

Deze website gebruikt Google Analytics, Hotjar en Facebook pixel om anonieme informatie te verzamelen, zoals het aantal bezoekers van de site en de meest populaire pagina's.

Door deze cookie ingeschakeld te houden, kunnen we onze website verbeteren.

Deze website gebruikt de volgende aanvullende cookies/services:

Meer over onze cookies