• Super Vision
  • Posts
  • Dankzij Oumaima's werk ontwikkel je straks socialere AI

Dankzij Oumaima's werk ontwikkel je straks socialere AI

Hi lezer šŸ‘‹,

En: bijzonder welkom, nieuwe lezer! (Jullie zijn met veel šŸ¤—)

Vroeg ik je vorige week om uit te leggen wat 'verantwoord omgaan met AI' in vredesnaam inhoudt, deze week richten we onze aandacht op sociaal-ethische AI principes.

Dat komt door Oumaima Hajri. Zij leerde me dat de meest besproken en geadresseerde AI principes vooral technisch van aard zijn. En waarom dat niet oke is.

Leestijd ā² 3 minuten.

AI for Good 2 - Maandagavond 31 oktober, Felix Meritis

Oumaima Hajri is een van de gasten die zal spreken tijdens 'AI for Good #2'. Samen met David Graus (zie vorige brief) en Dasha Simons tonen ze die avond in Amsterdam hoe ze werken aan verantwoorde AI-toepassingen voor IBM, Randstad en de Publieke Omroep.

In gesprek met elkaar en het publiek geven ze hun favoriete voorbeelden, delen ze ideeĆ«n en beantwoorden ze jouw vragen.

šŸŽ Extra'tjes deze week

Je krijgt dit keer een paper over ethisch AI onderzoek, met de post-post-postmoderne titel The Ethics of AI Ethics. Ook deel ik de video-opname van Oumaima waarin ze het DRAMA-onderzoek van haar onderzoeksgroep presenteert.

šŸ“¢ Oproep aan jou, lezer.

Alledrie de gasten benutten al tools, richtlijnen, checklists en ontwerpmethodes. Ik ben ze al aan het verzamelen in een handig lijstje, zodat iedereen ze kan gebruiken. Gebruik (of ken) jij zelf een handige tool of link? Deel 'm door te reply'en op deze mail.

Veel plezier, m'n social friend. Groeten, Laurens.

Oumaima Hajri en de sociale staat van AI

ā€˜Mijn verblijf in Beijing heeft een enorm belangrijke rol gespeeld in de keuzes die ik heb gemaakt toen ik weer terugkwam in Nederland. Het onethisch gebruik van data, het ā€˜sociaalā€™ kredietsysteem en censuur op vrij internet waren een van de dingen die mijn ogen hebben geopend. Het schenden van digitale grondrechten gebeurt niet alleen in China, maar ook in het vrije Westen.'

Dit schreef Oumaima Hajri een tijdje terug op de site van Bits of Freedom waar ze toen stage liep.

Momenteel werkt ze bij de Hogeschool Rotterdam als onderzoeker bij Kenniscentrum Creating 010. Oumaima richt zich op de vraag hoe kunstmatige intelligentie op een verantwoorde en ethische manier toegepast kan worden ā€“ door bijvoorbeeld tijdens het ontwerpproces rekening te houden met ethische implicaties.

De laatste tijd werkt ze vooral aan onderzoek voor het project Designing Responsible AI Media Applications (DRAMA).

CV

Oumaima volgt op dit moment de Master AI Ethics and Society aan the University of Cambridge en behaalde eerder al een MSc in Data Science and Society aan de Universiteit Tilburg in 2021 en een BSc Internationale Betrekkingen aan de Vrije Universiteit Amsterdam in 2019. Na een stage bij het Ministerie van Buitenlandse Zaken deed ze het uitwisselingsproject in Beijing.

Van technical fixes ...

In haar presentatie tijdens de Dutch Media Week op 3 oktober, vertelde Oumaima over de vertaling van AI-principes naar AI-tools. Ze ontdekte dat de bekendste en vaakst gebruikte principes degenen zijn die relatief eenvoudig met technological fixes zijn te implementeren:

  • Explainability

  • Transparantie

  • Fairness

  • Privacy

Let op: er schuilt ook hier gevaar in, want ideeen over wat 'eerlijk (fair)' is, verschillen nogal van mens tot mens en cultuur.

... naar sociaal-wenselijke overwegingen

Het is echter veel moeilijker om sociale principes te vertalen in een werkende AI-applicatie. Denk daarbij aan

  • Menselijke autonomie

  • 'Ghostwork': het inzetten van goedkope arbeidskrachten om data te labelen.

  • Diversiteit

Het niet (goed) adresseren van deze meer sociale kwesties en implicaties is problematisch volgens Oumaima: "Als je geen divers team hebt en je maakt dan de vertaalslag naar de maatschappij, dan zal de applicatie niet iedereen dienen."

Hoe je dat beter aanpakt?

Designing from the margins

Een van de methodes die Oumaima tipt om verantwoorder te ontwikkelen heet 'designing from the margins'. Het betekent dat je vanaf stap een rekening houdt met de meest gemarginaliseerde groepen in de samenleving.

-

Wil je hier meer over weten of heb je andere vragen aan Oumaima? Kom dan naar AI for Good #2 op maandagavond 31 oktober in Felix Meritis, Amsterdam.

šŸŽ EXTRA's

Onderzoekspresentatie van Oumaima tijdens Dutch Media Week

Dit paper analyseert 22 guidelines met princpes en aanbevelingen om het "ontwrichtende" potentieel van nieuwe AI-technologieƫn te benutten. Er wordt nagegaan in hoeverre ethische beginselen en waarden in de praktijk van onderzoek, ontwikkeling en toepassing van AI-systemen worden toegepast en hoe de doeltreffendheid in de eisen van de AI-ethiek kan worden verbeterd.

-

Gebruik (of ken) jij zelf een handige tool of link? Deel 'm met me door te reply'en op deze mail.

āœ… Dit was 'm al. Volgende week meer over de derde en laatste spreker: Dasha Simons.