Verantwoorde AI

Samenwerking met het communicatieteam

November 20, 2024
Lara Mutsaers
Communicatie, Visie, Strategie, Verantwoorde AI, Proces, Kennis over AI, AI-infrastructuur

Omdat wij het als team belangrijk vinden om open te werken en alles te delen rondom ons proces van onze experimenten hebben wij het communicatieteam betrokken. Samen zijn we bezig met het opstellen van een communicatiestrategie. We hebben immers deze website, maar daar zit nog geen heldere strategie achter. We willen graag dat mensen bij ons onderzoek aanhaken en bijdragen door middel van bijvoorbeeld een dialoog.
Om de strategie vorm te geven hebben we eerst een SWOT-analyse (Strenght, Weaknesses, Opportunities en Threads) gedaan. Daar kwamen wat punten uit die ons houvast geven in wie we zijn en wat onze visie is.

...

In gesprek met het AI-validatieteam

November 19, 2024
Lara Mutsaers
Development, Finetunen, Validatie, Verantwoorde AI

Vandaag hebben we gesproken met het AI-Validatieteam. Zij werken aan verschillende projecten om meer inzicht te verkrijgen in algoritmes en hun gedragingen (transparantie). Ze willen meer grip krijgen op algoritmes die ingezet worden door overheden.

Het benchmarken van LLM’s #

Eén van de projecten waar ze zich mee bezig hebben gehouden is het benchmarken van taalmodellen (LLM’s).

LLM’s kunnen worden ingezet voor verschillende taken om het reguliere werk te vergemakkelijken. Maar, er zitten ook aanzienlijke risico’s aan verbonden. Het is niet gegarandeerd dat de output van een LLM altijd juist is. Bovendien kan een LLM bias vertonen.

...

Baseline Informatiebeveiliging Overheid (BIO)

November 4, 2024
Ahmed Ezzammouri
Compliance, Risico-analyse, Informatiebeveiliging, Verantwoorde AI

De Baseline Informatiebeveiliging Overheid (BIO) is het normenkader voor informatiebeveiliging binnen de Nederlandse overheid. Het is gebaseerd op internationale standaarden zoals de ISO 27001 en 27002 en biedt een gemeenschappelijke aanpak om de vertrouwelijkheid, integriteit en beschikbaarheid van informatie te waarborgen. Alle overheidsinstellingen in Nederland zijn verplicht de BIO te volgen, wat zorgt voor een uniforme en consistente aanpak van informatiebeveiliging.

BIO en Kunstmatige Intelligentie (AI) #

Hoewel de BIO geen specifieke secties bevat over kunstmatige intelligentie (AI), kunnen de algemene richtlijnen en beveiligingsmaatregelen goed worden toegepast op AI projecten. AI modellen brengen unieke risico’s met zich mee op het gebied van data privacy, transparantie, en algoritmische integriteit. De BIO ondersteunt organisaties bij het identificeren en mitigeren van deze risico’s door middel van richtlijnen voor risicobeheer en gegevensbescherming.

...

Hoe toets je verantwoorde AI?

October 10, 2024
Lara Mutsaers
Verantwoorde AI, Risico-analyse

Wat betekent verantwoorde AI eigenlijk? Voor de overheid betekent dat:

  1. De overheid voldoet aan bestaande wet- en regelgeving;
  2. Voorafgaand aan het gebruik van AI per casus een risico-analyse wordt uitgevoerd. Dit zijn een Data Protection Impact Assessment (DPIA) en een algoritme impact assessment zoals een Impact Assessment Mensenrechten en Algoritmes (IAMA). Daarmee worden de risico’s en risicobeperkende maatregelen vastgesteld;
  3. De uitkomsten van de DPIA ter advies worden voorgelegd aan de Chief Information Officer (CIO) en de Functionaris Gegevensbescherming (FG).

De bovengenoemde punten zijn ook van toepassing bij het gebruiken of (door)ontwikkelen van een open source generatieve AI-toepassing.

...

Overheidsbrede visie Generatieve AI

October 10, 2024
Lara Mutsaers
Visie, Verantwoorde AI, Kennis over AI, Wetgeving

SSC-ICT is een van de grootste dienstverleners voor de overheid. Het is daarom logisch voor SSC-ICT om onderzoek te doen naar een mogelijke dienstverlening op het gebied van generatieve AI aan de hand van initiatieven zoals LearningLion. Maar wat voor visie heeft de overheid zelf eigenlijk op het gebied van generatieve AI?

Generatieve AI is volop in ontwikkeling. De overheid heeft een belangrijke verantwoordelijkheid als het gaat om het in de juiste banen leiden van deze ontwikkeling en heeft daarom op 1 januari 2024 een visie uitgebracht op deze technologie. Hierin staat dat de overheid actief wilt bijdragen aan een veilige en rechtvaardige ontwikkeling en gebruik van generatieve AI. Generatieve AI moet in dienst staat van het vergroten van het menselijk welzijn en autonomie, duurzaamheid, welvaart, rechtvaardigheid en veiligheid. Om dit te realiseren moet er worden ingezet op verantwoorde en open toepassingen van generatieve AI. Ook heeft het kabinet de ambitie om een sterk AI-ecosysteem in Nederland en de EU te realiseren, waarin volop geïnnoveerd kan worden met verantwoorde generatieve AI. Tot slot wil het kabinet randvoorwaarden creëren voor de verantwoordelijke ontwikkeling en het gebruik van generatieve AI.

...