• Super Vision
  • Posts
  • Flipping AI-burgers; verfijnd, gevarieerd en verantwoord voor iedereen

Flipping AI-burgers; verfijnd, gevarieerd en verantwoord voor iedereen

Hi lezer 👋,

Verantwoord omgaan met AI. Wat houdt dat in, in hemelsnaam?! Het antwoord dat je krijgt is nogal afhankelijk van wie je het vraagt.

De aankomende weken vraag ik het daarom zoveel mogelijk mensen. Ook jou, mijn bovenmatig geïnteresseerde en doorgaans goed ingevoerde lezer ❤️. Be prepared!

Deze week...

Krijg je een inkijkje in de praktijk van de eerste van drie AI'ers die zijn uitgenodigd als gast bij 'AI for Good #2'. Het zijn Dasha Simons, Oumaima Hajri en David Graus.

Zij tonen op maandagavond 31 oktober in Felix Meritis te Amsterdam hoe ze werken aan verantwoorde AI-toepassingen. Hoe dat zoal bij IBM, Randstad en de Publieke Omroep gaat. Ook geven ze voorbeelden van elders, delen ze hun verdere ideeën en gedachten over verantwoorde AI en beantwoorden ze jouw vragen.

🎁 Extra'tjes

Je krijgt daarnaast ook een tool getipt genaamd IAMA en een link naar een interview met de positief gestemde AI-wetenschapper Sennay Ghebreab.

📢 Oproep aan jou, lezer.

Alledrie de gasten benutten al tools, richtlijnen, checklists en ontwerpmethodes. Ik ga ze verzamelen in een handig lijstje, zodat iedereen ze kan gebruiken. Gebruik (of ken) jij zelf een handige tool of link? Deel 'm door te reply'en op deze mail.

Veel plezier, m'n waarde AI-burger. Leestijd 3 minuten

Groeten, Laurens.

David Graus en de positieve impact van AI

‘Als ik nu moet kiezen wat een ambtenaar die algoritmen inzet moet bijleren, zou ik hem eerder een training aanraden in transparantie, verantwoording, uitlegbaarheid en eerlijkheid, dan een technische cursus. Om die waarden in AI te vertalen, heb je eerst mensen nodig die die waarden aanhangen en uitdragen.’

Het is geen uitspraak van David Graus zelf, maar eentje waarop hij me wees toen ik hem eerder deze week sprak. Het citaat komt uit een interview met informaticus Sennay Ghebreab, die werkt aan de Universiteit van Amsterdam (de Volkskrant, 30 september).

Van reactief en slachtoffer naar pro-actief met impact

Zowel Ghebreab als Graus zijn het erover eens dat burgers een grotere rol moeten krijgen (en ook hun eigen verantwoordelijkheid moeten nemen) bij het ontwikkelen, beoordelen en benutten van AI-toepassingen. Je zou het de AI-burger kunnen noemen.

CV

David Graus werkt als lead data scientist bij Randstad Groep Nederland, waar hij AI onder meer inzet voor het samenbrengen van werk en werkzoekenden.

Daarnaast is David bestuurslid van SETUP, het platform voor een technologie-kritische samenleving. Hij is gepromoveerd in zoekmachinetechnologie aan de Universiteit van Amsterdam in 2017, waar hij onderzoek deed naar computationele methoden voor geautomatiseerde verwerking van grootschalige tekstuele digitale sporen. Voor zijn tijd bij Randstad werkte David bij de FD Mediagroep met zijn team aan een aanbevelingssysteem dat redactionele waarden in acht neemt.

Kleine ingrepen voor positieve impact

David is een pleitbezorger voor het bewust en bedachtzaam ontwerpen en bouwen van AI systemen die positieve impact kunnen maken. Bij Randstad onderzoekt hij onder meer de inzet van synthetische data voor het trainen van minder bevooroordeelde AI systemen. Hij is daarbij voortdurend bezig om te kijken hoe al met kleine oplossingen positieve impact bereikt wordt.

Denk hierbij aan nieuw talent in de database van Randstad. Verschenen bepaalde van deze talenten eerder misschien niet (snel) op de radar van intercedenten, dankzij een met AI-gevoede oplossing hebben David en zijn team daar verandering in gebracht.

'Niet over nagedacht'

Onlangs, zo vertelde David me, voerde hij een gesprek met leden van een multidisciplinair team. Dat team bestaat bijvoorbeeld uit product owners, juristen, privacy officers, intercedenten en ontwikkelaars. Een van de teamleden vroeg tijdens een vergadering of er eventuele bias in de beoogde dataset kon zitten. "Niet over nagedacht," antwoordde een ander teamlid eerlijk.

David noemt het een mooi voorbeeld van hoe je het gesprek over vooroordelen in data kunt voeren, met mensen met verschillende kennis en perspectieven. En hoe je er vervolgens een actie aanhangt.

IAMA told me so

Deze vraag werd niet per ongeluk gesteld, maar komt voort uit gebruik van een tool die David vaker gebruikt, het IAMA. Dat staat voor Impact Assessment voor Mensenrechten bij de inzet van Algoritmes. Het wordt aangeboden door de Nederlandse overheid en is gratis toegankelijk.

Waarom en wanneer je het zou moeten gebruiken? Op de overheidssite staat te lezen:

Met het Impact Assessment voor Mensenrechten bij de inzet van Algoritmes (IAMA) kan een afgewogen discussie gevoerd worden tussen de relevante partijen bij de afweging om wel of niet een algoritmische toepassing te gaan ontwikkelen.

Gebruik (of ken) jij zelf een handige tool of link? Deel 'm met me door te reply'en op deze mail.

✅ Dit was 'm al. Volgende week meer over de tweede spreker; Oumaima Hajri.

Leestip

Informaticus Sennay Ghebreab is ervan overtuigd dat kunstmatige intelligentie de samenleving vooruit kan helpen. Wel moeten we ons er meer in verdiepen.