- Super Vision
- Posts
- AI praktisch en verantwoord ontwikkelen? Vier handige tips - Super Vision #35
AI praktisch en verantwoord ontwikkelen? Vier handige tips - Super Vision #35
Hi 👋,
Deze week doe ik een beroep op je eigen verantwoordelijkheid. Ik deel daarbij een vier-stappen-plan inclusief handige links.
Verder probeer ik rekening te houden met tips die ik kreeg van lezers. De eerste tip: "Maak deze nieuwsbrief korter." Oke, een poging. Blijf me vooral feedback geven.
Veel leesplezier zometeen, maar eerst even twee aankondigingen:
📣 Laatste kans voor de zomer: schrijf je in voor m'n AI-introductiecursus
Er zijn nog drie plekjes vrij voor de cursus Praktische AI & machine learning voor mediamakers, die plaatsvindt op dinsdag 14, 21 en 28 juni (in Amsterdam en/of op afstand).
📚The Art of AI nu ook verkrijgbaar in boekhandel
Bij Broese in Utrecht, bij Scheltema in Amsterdam en in nog 68 zaken vind je ons boek gewoon in de kast 🤗. #lifegoals
Deze week: Ken uzelf en neem verantwoordelijkheid
Elk vraagstuk waarbij een AI-oplossing een rol speelt is geïnitieerd en geïmplementeerd door mensen. Als een ML-model of AI-toepassing discrimineert, dan is dat niet de fout van het model. Het zijn mensen (helaas te vaak zoals jij en ik 😌) die de gebruikte dataset samenstelden. Het zijn mensen die de belangrijkste features (leeftijd, postcode, hoogst genoten opleiding) aangaven en het zijn mensen die de labels bepaalden en de doelen opstelden.
Ben je van plan zelf ML-modellen te gaan bouwen en toepassen, denk dan aan deze woorden:
"With great power comes great responsibility."
- Damocles, Churchill, Spiderman e.v.a.
Schuif negatieve impact van AI niet af
Je kunt de verantwoordelijkheid voor onbedoelde, ongewenste uitkomsten van AI-systemen niet afschuiven. Niet op je data, je model of je collega’s. Niet op andere bedrijven, op de maatschappij of onze geschiedenis.
Ben jij het die de mogelijkheden van AI wil benutten, dan formuleer jij de optimalisatiedoelen, zoals ‘tijd gespendeerd’, ‘iets geleerd’, ‘meer video’s bekeken’ of ‘aantal nieuwe abonnees per week’.
Je bent als individu beperkt
Be honest: je hebt als enkel persoon een heel beperkte blik op de wereld. Maar je kunt en moet evengoed wel nadenken over onbedoelde uitkomsten van het systeem, slechte intenties van gebruikers en de consequenties van de consequenties.
Als het aan de nieuwe Europese AI-wet ligt (die overigens nog lang niet af is, zie link onderaan deze nieuwsbrief), moet je straks in staat zijn om uit te leggen hoe je AI-systeem werkt en wat het doet. Jij moet aantonen welke mogelijke fouten je hebt geïdentificeerd, wat je hebt gedaan om die te voorkomen en hoe je model te verbeteren valt.
Wees ervan bewust dat een technische uitleg niet meer voldoende is. Verschillende betrokkenen hebben hun eigen niveau en behoeften als het gaat om deze explainability (uitlegbaarheid). Je bent straks sowieso verplicht om je gebruiker uit te leggen hoe je model tot een keuze of voorspelling komt en welke gevolgen dat kan hebben voor de burger, gebruiker, kijker, lezer of luisteraar.
Informeer jezelf dus goed voordat je start met AI en wees je bewust van je eigen beperkingen en tekortkomingen. Geef toe dat jouw perspectief en overtuiging geen goede graadmeter zijn voor een eerlijke (faire) werking van je ML-model.
Om je op weg te helpen heb ik vier praktische resources voor je.
Vier-stappen-plan voor verantwoordelijke AI
Als je zelf ML-modellen gaat of laat ontwikkelen, kun je door het volgen van deze vier stappen je verantwoordelijkheid nemen:
Krijg inzicht in AI en de toepassingscontext;
Maak een mensgericht ontwerp;
Beoordeel de eerlijkheid van je model en minimaliseer algoritmische schade.
Ken het juridisch kader. Bijvoorbeeld van de Raad van Europa, voor bescherming van de mensenrechten bij de ontwikkeling, het ontwerp en het gebruik van AI.
Je moet misschien beslissingen maken over het gebruik van algoritmes, of meedenken over de kansen en risico’s ervan. Om dit op een verantwoorde manier te doen, is het belangrijk om inzicht te hebben in hoe deze algoritmes en AI werken.
Een aanpak in zes stappen, ontwikkeld door Ioannis Zempekakis, Head of Global Data Science & AI services bij OLX Group, en Serena Westra, een Strategic Designer bij IKEA (voorheen werkzaam bij Koos Service Design - lees ook het interview met haar in The Art of AI.)
Om een praktisch instrumentarium te bieden voor het beoordelen van de eerlijkheid van een model en het minimaliseren van algoritmische schade die burgers ondervinden, is er bij de Gemeente Amsterdam onlangs het Fairness Handbook uitgebracht.
Het biedt een inleiding tot algoritmische eerlijkheid en vooringenomenheid voor iedereen die werkt met gegevens en/of algoritmen. Het legt uit hoe vooroordelen en andere problemen in de modelontwikkelingscyclus verschillende vormen van schade kunnen veroorzaken, die bijgevolg individuen of achtergestelde groepen in de samenleving treffen.
Met een stappenplan om een model te evalueren op vooroordelen en om deze problemen te beperken.
De besprekingen over de regulering van AI-systemen zijn al aan de gang, waarbij de meeste aandacht uitgaat naar de EU en haar ontwerp voor een AI-wet.
Maar een andere belangrijke ontwikkeling vindt buiten de schijnwerpers plaats: De Raad van Europa in Straatsburg onderhandelt momenteel over een juridisch kader om de mensenrechten te beschermen bij de ontwikkeling, het ontwerp en het gebruik van AI.
De Raad van Europa is een van de belangrijkste mensenrechteninstellingen in Europa, die aan de wieg stond van het Europees Verdrag tot bescherming van de rechten van de mens en onderdak biedt aan het Europees Hof voor de Rechten van de Mens, dat toeziet op de uitvoering ervan. Het telt momenteel 46 lidstaten en heeft dus een bredere reikwijdte dan de Europese Unie.
Full disclosure: sinds dit jaar neem ik zitting in die Raad, bij het Committee of experts on increasing resilience of the media (MSI-RES), met een focus op AI in media.
✅ Dat was' m
Tot volgende week, dan behandel ik muziek & AI! Vergeet je feedback niet!
📣 Schrijf je in voor m'n AI-introductiecursus
Er zijn nog drie plekjes vrij voor de cursus Praktische AI & machine learning voor mediamakers, die plaatsvindt op dinsdag 14, 21 en 28 juni (in Amsterdam en/of op afstand).
📚The Art of AI nu ook verkrijgbaar in boekhandel
Bij Broese in Utrecht, bij Scheltema in Amsterdam en in nog 68 zaken vind je ons boek gewoon in de kast, 🤗. #lifegoals