• Super Vision
  • Posts
  • De dys- en utopie van AI - Super Vision #17

De dys- en utopie van AI - Super Vision #17

Hi šŸ‘‹,

Laten we deze editie in visualiseer-modus starten: "Wat ben jij aan het doen als straks de robots aan het strand liggen?"*

Ander citaat: "Algoritmen functioneren bij de gratie van data. Data komen van mensen. Zij vormen de samenleving en de samenleving is ongelijk." *

Deze maand is het AI en ethiek-maand (althans, wat deze nieuwsbrief betreft). Want het is nogal een onderwerp om in een keer in te behandelen. Je krijgt over meerdere edities verspreid o.a. antwoord op de volgende vragen:

  • Wat is nu precies ethiek, en hoe verhoudt dit zich tot AI?

  • Hoe en welke Ethical AI Guidelines hebben journalisten van Bayerische Rundfunk opgesteld? 

  • Waarom Het Vlaams Datanutsbedrijf digitale kluizen gaat leveren voor alle burgers om hun data veilig in te kunnen bewaren. 

  • Hoe de Algemene Rekenkamer Nederlandse overheidsalgoritmen to account houdt.

  • Wat Deloitte-consultants aan bedrijven adviseren die AI (willen) inzetten. 

  • Op wie en wat AI vooral impact heeft volgens techniekfilosoof Lode Lauwaert (en dat dat nogal onderschat wordt).

Plus: tien punten waar je op moet letten als je algoritme-gebruik (journalistiek) wilt onderzoeken.

Ik hoop dat deze edities je helpen om een (beter) gesprek te voeren over implicaties van AI. Dit zodat ook jij, bezorgde ontwerper, developer, journalist, creatief, denker, beleidsmaker, een beter gesprek kunt voeren wanneer iemand een te dystopische of utopische rant begint over onze toekomst met AI. Dat je de ander een nieuw perspectief kunt bieden, bijvoorbeeld a.d.h.v. het beeld van die robots op het strand...

-

ā± Neem je tijd: leestijd van deze editie is Ā± 24 minuten.

šŸ§–šŸ¾ā€ā™€ļø Deze maand zijn de edities theoretischer van aard dan gebruikelijk.

Daarom nu een wenkend en praktisch perspectief als intermezzo:

šŸ“• Boek 'The Art of AI', een praktische introductie in machine learning voor mediamakers

In april 2022 verschijnt mijn boek ā€œThe Art of AIā€. Het is het eerste Nederlandstalig boek over creatieve toepassingen van AI. Met veel voorbeelden, interviews met makers en uitleg van diverse tools -zodat je zelf direct machine learning kunt toepassen. Ik schrijf het samen met Marlies van der Wees, ML engineer bij DPG Media. Wil je dit boek niet missen? Zet jezelf dan vrijblijvend op deze intekenwachtlijst.

Je krijgt een mail zodra het boek met een aantrekkelijke voorintekekenprijs besteld kan worden.  

Veel leesplezier.

* De eigenaren van de citaten vind je aan het eind šŸ˜‰

1. AI & Ethiek: waarom nu (pas)?

Wanneer je de Super Vision nieuwsbrief regelmatig leest (zoals deze over bias) en/of geĆÆnteresseerd bent in nieuws over AI, dan veronderstel ik dat de strekking van de volgende alinea van dit Wired-artikel inmiddels overbekend is:

ā€œVormen van automatisering, zoals kunstmatige intelligentie, bepalen steeds vaker de beslissingen over wie wordt aangenomen, gearresteerd of gezondheidszorg krijgt. Voorbeelden van over de hele wereld zeggen dat de technologie kan worden gebruikt om mensen uit te sluiten, te controleren of te onderdrukken en om historische systemen van ongelijkheid die dateren van vĆ³Ć³r AI te versterken.ā€

AIrbags en frameworks

Iedereen is er ondertussen van overtuigd dat we voor het gebruik van AI een equivalent moeten hebben voor airbags, gordels, verkeersregels, crash test dummies, testcircuits, boetes en wat te doen met kunstmatig intelligente sjoemeldiesels.

ā€˜Maar hoe dan?ā€™ vraag je terecht. Want het ligt er nogal aan wie je het vraagt. De een zegt dat we Big Tech aan banden moeten leggen omdat hun (data)macht grofweg te groot is. Een grote groep mensen vertrouwt ook de overheid niet met deze nieuwe systemen. Overheden zijn op hun beurt weer bang voor polarisering door sociale media. Een ondernemer besluit AI in te zetten. Zij bespaart door intelligente automatiseringssystemen kosten. Dat dit besluit ook tot banenverlies lijdt is niet de zorg van een ondernemer (klassiek-economisch Theory of the Firm).

Een design- & development team krijgt (of heeft) geen tijd, zin of geld om uitgebreid stil te staan bij mogelijke fouten, unintended consequences of bad actors als straks hun machine learning modellen worden losgelaten in de echte wereld. Laat staan om mensen in te huren die er kritisch naar kijken.

Klimaatactivisten vrezen de impact op de planeet door de energieverbruikende rekenkracht die nodig is om cryptogeld te minen, blockchain-toepassingen te draaien en AI te trainen.

Journalisten en nieuwsmedia zijn bang dat kunstmatig gegenereerde verhalen en videoā€™s vol mis- en desinformatie het zullen winnen van feiten, neutraliteit en objectiviteit.

Het antwoord: nieuwe kaders, kits en kompassen

Waar deze zorgen allemaal legitiem zijn, zijn er helaas geen voor de hand liggende oplossingen of one-solution-that-fits-all. Maar, beste lezer, er is gelukkig wel heel veel in ontwikkeling. Zo was ik de afgelopen weken te vinden in de techniek-filosofische hoek van AI. Ik ontdekte conceptuele toetsingskaders, frameworks en kompassen, praktische toolkits, tips en card sets die er in de wereld bestaan -en dan met name in Nederland en Vlaanderen- om beter grip te krijgen op de belangrijkste issues en zienswijzen rondom het ethisch-verantwoord toepassen van AI. 

Grondhouding

De Grote Vragen waar we het met elkaar over moeten hebben kennen geen simpele antwoorden. Ze zijn ook niet verrassend: wat is goed en fout, waar ligt de grens, wie is verantwoordelijk, en ultimately (zoals met alles): wie gaat er welke prijs voor betalen?

Het recent verschenen Wij Robots - Een filosofische blik op technologie en artificiƫle intelligentie (2021) van de Vlaamse techniek-filosoof Lode Lauwaert behandelt de belangrijkste vragen wat betreft ethiek en AI. In dit twitterdraadje somt hij de drie uitgangspunten (ook de hoofdstukken) van het boek op:

  1. Is technologie neutraal? Of kleven aan technologie waarden, normen, een ideologie, een wereldbeeld?

  2. Wat zijn de ethische problemen met AI? Gaat het enkel over bias en privacy? Zo niet, creƫert AI nieuwe problemen?

  3. Is technologie een product van de samenleving? Of is de samenleving een product van technologie?

Trending in de maatschappij: van ā€˜taal naar moraalā€™

De afzwaaiend ombudsman van krant NRC vertelde deze week in de Vandaag podcast dat hij de betrokken burger zich de laatste tijd vooral druk ziet maken om morele kwesties, waar deze bij zijn aantreden tien jaar geleden vooral voor taalkwesties in de pen klom.

Over het waarom -dat ā€˜moraalā€™ trending is- durf ik niet zo snel iets te zeggen. Daar zal ik (pro-actiever dan onze Nederlandse minister-president in dit soort situaties doet) andere experts en onderzoek voor moeten raadplegen.

2. Het A-B-C van ethiek

Ken je het trolley-probleem: over die tram (of trein) die ontspoort en mensen zal doden? Ik doel hier op een gedachte-experiment en ethisch dilemma in de ethiek dat voor het eerst werd beschreven door Philippa Foot in 1967. Er zijn vele versies van, maar het komt hierop neer: een trein staat op het punt rechtdoor te gaan en zodoende een stel mensen te doden. De wissel omzetten doet een ander persoon om het leven komen.

Grote Vraag: wat moet degene die bij de wissel staat nu doen (volgens jou)?

Zakelijk geformuleerd: persoon A kan een handeling verrichten die vele mensen kan helpen, maar door dit te doen wordt persoon B onterecht geschaad. De vraag is dan: onder welke omstandigheden is het moreel juist voor persoon A om de rechten van persoon B te schaden in functie van het welzijn van de groep?

Een ander voorbeeld van een ethisch dilemma dat nog veel groter is, en helaas dichter bij onze huidige realiteit: 

Stel, jij bent op dit moment de minister van Volksgezondheid en er is -wederom- een zorgelijke, nieuwe Covid-19 variant in aantocht. Je moet nadenken over nieuwe maatregelen. Waar hecht jij meer waarde aan: minder coronadoden of meer vrijheid?

Definitie

Good olā€™ Wikipediaā€™s definitie van ā€˜ethiekā€™ is:

Moraalfilosofie of moraalwetenschap - een tak van de filosofie die zich bezighoudt met de kritische bezinning over het juiste handelen.

Op een Finse mooc (educatieve site waarnaar wordt verwezen vanuit deze leeromgeving van de Rijksoverheid) valt te lezen:

Ethiek probeert vragen te beantwoorden als "wat is goed of slecht", "wat is goed of wat fout" of "wat is rechtvaardigheid, welzijn of gelijkheid".

Als discipline omvat ethiek het systematiseren, verdedigen en aanbevelen van concepten van goed en slecht gedrag door gebruik te maken van conceptuele analyse, gedachte-experimenten en argumentatie.

AI + ethiek

Ethiek rond AI betreft vragen over:

hoe ontwikkelaars, fabrikanten, autoriteiten en operators zich moeten gedragen om de ethische risico's die kunnen voortvloeien uit AI in de samenleving, hetzij door ontwerp, ongepaste toepassing of opzettelijk misbruik van de technologie, te minimaliseren.

De 'zorgen' kunnen als volgt worden onderverdeeld in drie timeframes:

  1. Directe, hier-en-nu vragen over bijvoorbeeld beveiliging, privacy of transparantie in AI-systemen.

  2. Middellange termijn: zorgen over bijvoorbeeld de impact van AI op militair gebruik, medische zorg of justitie en onderwijssystemen.

  3.  Langere termijn: over de fundamentele ethische doelen van de ontwikkeling en implementatie van AI in de samenleving.

Onderzoek op het gebied van AI en ethiek varieert van 'reflecties over implementatie van ethische of morele principes in autonome machines' tot 'systematische analyse van ethische principes zoals eerlijkheid'.

Tussen dys- en utopie

Als we zeggen AI te willen ontwikkelen als iets positiefs, vanuit optimisme over de toekomst, of op zijn minst neutraal, dan doen we tot op heden een aantal dingen fout.

Ten eerste nemen we de huidige wereld als uitgangspunt, op basis van historische data (tot aan dit moment). AI-systemen neigen bestaande patronen van macht en privileges te bekrachtigen als de norm, wat tegelijkertijd ook zorgt voor behoud van marginalisering en bevestiging of versterking van bestaande nadelen.

Als we AI blijven ontwikkelen zoals tot op heden gangbaar is (en dan niet zozeer in technische zin) dan gaan we kijkend door de achteruitkijkspiegel de toekomst in en verandert er niets aan de problemen in de samenleving die we zeggen te willen oplossen met AI.

We hebben andere spiegels, andere vehikels en andere en vooral verschillende soorten bestuurders nodig.

3. Wie zijn er met AI en ethiek bezig?

Gelukkig zijn veel partijen bezig om de problemen in kaart te brengen, ze te identificeren, ze tegen te gaan en/of oplossingen te ontwikkelen om bij het ontwerp al rekening mee te houden. Ik zal deze maand* voorbeelden geven van wat de volgende groepen zoal doen:

  1. Ontwikkelaars

  2. Bedrijven

  3. Academici 

  4. Overheden (lokaal, landelijk, Europees, internationaal)

  5. Activisten

  6. Journalisten

  7. Filosofen

Deze week behandel ik groep 1, 2 en 3. Volgende week 4, 5 en 6, en we sluiten de maand af met de filosofen

3.1 Ontwikkelaars

Laten we beginnen met de ontwikkelaars van AI zelf. Bekende AI'ers die zich hard maken om problemen met AI aan te pakken zijn o.a. Joy Buolamwini van de Algorithmic Justice League en Timnit Gebru (DAIR), Frances Haugen (ex-Meta) en Margaret Mitchell (Hugging Face).

Special interest: DAIR & Timnit Gebru

Nu ze niet meer bij Google werkt, richtte Timnit Gebru eind 2021 het Distributed Artificial Intelligence Research Institute (DAIR) op. Hiermee gaat ze de ethiek van algoritmen en AI onderzoeken. De website vermeld wat het onafhankelijke instituut naar eigen zeggen is: ā€˜a space for independent, community-rooted AI research free from Big Techā€™s pervasive influence.ā€™

In een Volkskrant-artikel las ik het volgende: ā€œJuist van binnenuit kon ze technologiebedrijven veranderen, dacht Timnit Gebru, maar een kritisch onderzoek kostte Gebru haar baan bij Google.ā€ Dat was eind 2020. Gebru zelf had haar openbaring tijdens een gerenommeerd congres over AI in 2016. Daar telde ze zes mensen van kleur onder de 8500 aanwezigen. Op Facebook schreef ze toen: ā€œIk ben niet bang dat machines de wereld overnemen. Ik maak me zorgen over groepsdenken, onwetendheid en arrogantie in de AI-community." De technologiesector heeft te maken met een diversiteitscrisis, zegt ze later in interviews. Schadelijk voor iedereen die technologie gebruikt. "

DAIR richt zich op, zo schrijft de Washington Post,

ā€˜the harms of the technology on marginalized groups, who often face disproportionate consequences from AI systems but have less influence in its development.'

Het doel is ā€˜to both document harms and develop a vision for AI applications that can have a positive impact on the same groups. Gebru helped pioneer research into facial recognition softwareā€™s bias against people of color, which prompted companies like Amazon to change its practices.ā€˜

Saillante toevoeging:

This global research center [DAIR, red.] is starting with $3.7 million in funding, but aims to eventually earn income via AI ethics consulting.

Reparations en contestations

Andere academici-engineers zijn bezig met ā€˜algorithmic reparationsā€™. Vooral in de VS wordt gesproken over het aanpakken van trainings-datasets voor AI waarin veel impliciet racisme zit, vaak samengesteld vanuit een beperkt maar dominant wit, mannelijk perspectief.

Een bedrijf als Hugging Face dat ook datasets levert, doet dat op een bijzondere manier, a la een Tony Chocolonely for AI. Hun datasets proberen ze zo divers, inclusief en unbiased mogelijk te maken. Hoofd data governance Margaret Mitchell (net als Gebru ook ex-Google Ethical AI) vertelde vorig jaar in een interview met Morning Brew over hun missie:

ā€œOne year from now, I want it to be a norm that people provide documentation for datasets and for models. [ā€¦] We see companies across the board starting to use things like model cardsā€”so Facebook, Salesforce, Nvidia, OpenAI, Allen AI, various papersā€”weā€™re really seeing a rise in responsible, value-aligned documentationā€

Een interessant element dat Margaret Mitchell in het voornoemde interview oppert is de ā€˜right to contestationā€™, wat betekent dat mensen de manier waarop ze gerepresenteerd worden in datasets en modellen moeten kunnen aanvechten. Mitchell:

"[F]iguring out how to allow contestation brings with it a whole bunch of research questions: How do you remove training data from a model? How do you even find the data that someone would contest?"

Algorithmic auditing startups

Invloedrijke leden van de AI-gemeenschap (uit de academische wereld, de industrie en het maatschappelijk middenveld) adviseren externe algoritme-audits als een manier om AI-principes in praktijk te brengen en te toetsen. Een externe, derde partij die wordt vertrouwd door het publiek en potentiĆ«le klanten zou het vertrouwen in AI-systemen in het algemeen kunnen vergroten.  Daarnaast kunnen algoritme-auditing startups een niche vullen in de groeiende AI-industrie, net zoals adviesbureaus die bedrijven helpen bij het aanbieden van datamonitoringdiensten en het sorteren van ongestructureerde data.

Parity.ai is zoā€™n commerciĆ«le start-up aan wie je als bedrijf kunt vragen om je algoritme en/of data te toetsen. Verder heeft Twitter bounty hunts uitgezet om algoritmische bias en andere geautomatiseerde onwenselijkheden op te laten sporen door publiek - tegen beloning.

3.2. Bedrijven (Corporate AI)

Medewerkers

Het afgelopen jaar wordt ook wel gezien als het tipping point waar corporate AI ethics in de schijnwerpers is komen te staan. En (AI) ethiek toepassen binnen je bedrijf betekent niet alleen het creƫren van denkkaders en technische oplossingen maar, zo schrijft Politico:

 ā€œSometimes the ethical thing to do is to not use AI. Following the example set by Gebru, Mitchell and Facebook whistleblower Frances Haugen, employees will also feel more empowered to hold companies accountable."

Consultants

Specialisten van Deloitte schrijven in een blog:

" 'Stel jezelf de vraag of je op het achtuurjournaal zou kunnen uitleggen waarom jouw organisatie een bepaalde AI oplossing gebruikt, waaraan die bijdraagt, en hoe je hebt vastgelegd welke keuzes daarin zijn gemaakt. Lukt dat niet, vraag dan hulp', stellen Hilary Richters en Evert Haasdijk van Deloitte.

Haasdijk: 'Er zijn inmiddels vele stukjes regelgeving en handreikingen, maar vaak is er niet duidelijk wat voor wie van toepassing is en waar je precies aan moet voldoen.'

Zo is er de pilot van het algoritme-register waarin een overzicht van de inzet van algoritmen bij de overheid komt, zoals in Amsterdam al wordt gebruikt. Maar denk ook aan de EU-regelgeving of SAFEST van DNB over het ethisch verantwoord gebruik van AI bij financiƫle instellingen."

3.3 Academici

In dit laatste item voor deze week licht ik drie wetenschappers/ onderzoekers/academici uit. Ze hebben zo hun specifieke kennis op hun eigen terrein en de impact erop van nieuwe technologie zoals AI.

Nathali Helberger

In Nederland is Natali Helberger, hoogleraar Informatierecht verbonden aan de UvA, een uitgesproken voorstander om als land onafhankelijker te worden van Big Tech. Het gaat haar om meer dan alleen het aanpakken van algoritmes op de platformen die desinformatie verspreiden.

In een interview met NRC afgelopen week, reageert ze op de mediaparagraaf uit het nieuwe coalitieakkoord. Helberger mist, zo lezen we in het artikel ā€˜een ā€žpro-actieve boodschapā€ over een ā€žalternatieve digitale infrastructuurā€, voorbij de status quo. Het akkoord ontbeert volgens haar een visie op een wereld waarin bijvoorbeeld het onderwijs zich niet hoeft over te leveren aan Google Classroom en een corona-app niet staat of valt met de medewerking van Apple en Google. ā€žDen Haag en Brussel willen alleen wat meer inspraak, respect voor onze normen en waarden en de illusie van controle.ā€

Volgens Helberger blijven zowel landelijke overheden als de EU heel erg vertrouwen op de verantwoordelijkheid van Big Tech, en blijven we zo afhankelijk. De publieke omroepen, zo zegt ze ā€˜zijn in concurrentie met Big Tech om de aandacht van die kijkers. Dus wat we vooral moeten doen is investeren in technologische innovatie, zodat je mee kan komen en het aanbod aantrekkelijk kunt maken.ā€™

Als we Helbergers redenering goed beschouwen, zien we hier de situatie beschouwt vanuit technologisch-deterministisch perspectief. Daarmee bevindt het repertoire voor oplossingen zich binnen dezelfde ruimte als het probleem, en is deze als 'lens' voor een verfrissende blik wat beperkt bruikbaar. Hoe we dan tot betere voorstellen komen? Daarop geeft Helberger geen concreet antwoord in het NRC-interview:

ā€Als wij hier niet heel erg over nadenken hoe wij ervoor kunnen zorgen dat we een levendig, divers en duurzame publiek domein houden, worden we nog afhankelijker."

Nieuwscheckers - Universiteit Leiden

NieuwsCheckers is het factcheck-project van de opleiding Journalistiek en Nieuwe Media van de Universiteit Leiden, dat gecoƶrdineerd wordt door Peter Burger en Alexander Pleijter. In de bij het project behorende nieuwsbrief las ik over het adviesrapport over reguleren van deepfaketechnologie, opgesteld door onderzoekers van het Tilburgse Institute for Law, Technology, and Society, in opdracht van het ministerie voor Justitie en Veiligheid. Daarin las ik:

Het is ā€˜de verwachting van experts dat over vijf jaar 90 procent van de online content deels of volledig gemanipuleerd is. [...] 

De onderzoekers adviseren om te debatteren over strafbaarheid van het maken, het bezit en de verspreiding van deepfakes. Ook stellen ze voor om wetsartikelen aan te passen, zodat deze beter toepasbaar zijn op deepfaketechnologie en om deepfake bewijsmateriaal in rechtszaken tegen te gegaan. 

Een licht-optimistische conclusie uit het rapport: de meest problematische toepassingen van deepfakes in Nederland zijn juridisch al ingekaderd of verboden zijn, maar het kernprobleem ligt bij de handhaving van de wetten.

Sennay Ghebreab

Deze neuro-informaticus is werkzaam aan de Universiteit van Amsterdam en ook verbonden aan het Civic AI Lab. Ghebreab heeft een aantal praktische handreikingen opgesteld waarmee je, aan de hand van vijf vragen die journalisten toch bekend voor moeten komen, de ontwikkeling van AI-technologie bewuster en inclusiever kan ontwikkelen:

  1. Waarom - wat is de intentie? Niet kostenbesparing of economische optimalisatie maar bijvoorbeeld gelijke behandeling, waarborgen van privacy;

  2. Wie ontwerpt en ontwikkelt AI? Teams van mensen met verschillende persoonlijke achtergronden en vanuit verschillende disciplines zouden moeten samenwerken om AI te ontwikkelen.

  3. Welke data wordt als basis gebruikt? Volkomen representatieve data is nooit te bereiken, maar het zou wel continu nagestreefd moeten worden.

  4. Hoe wordt AI ontwikkeld? Heb openheid en het lef om verantwoording af te leggen over de ontwikkeling en toepassing van AI. Realiseer je dat AI nooit perfect is ā€“ het is een constant leerproces. Eigenlijk net als onze samenleving.

  5. Participatie: Betrek burgers bij het ontwerp, de ontwikkeling en de toepassing van AI.

Dit was Deel I van Ethiek & AI. Volgende week behandel ik het vraagstuk vanuit de perspectieven van overheden (zowel lokaal, landelijk, Europees, als internationaal), activisten en journalisten. āœ…

Further doing & reading

The Ethics of AI is een gratis online course van de Universiteit van Helsinki. Gratis!

Meer over DAIR en Timnit Gebru lezen?  

šŸ—£Over de twee openingscitaten šŸ—Æ

Het eerste citaat komt van Kevin Kelly (geloof ik šŸ˜¬), een typische avantgardistische Californische techno-utopist. Hij legde de vraag jaren geleden eens voor aan zijn publiek tijdens een lezing. Probeer de implicaties van zijn vraag even voor te stellen... Dan is de vervolgvraag: wat heb jij dan gedaan om het zover te laten komen? En, let me be clear: het kan een prima wereld zijn als zelfs kunstmatige intelligente wezen een dagje aan zee vertoeven.

Het tweede citaat (het stellige uitgangspunt van de ongelijke samenleving) kwam ik tegen in een artikel op Wired.com, eind december 2021. Het technologiemagazine verwijst naar een paper van de Amerikaanse Vereniging van Sociologen, onlangs gepubliceerd in het wetenschappelijke tijdschrift Big Data & Society (een uitgave over interdisciplinair werk uit de sociale wetenschappen, geesteswetenschappen en informatica en hun raakvlakken met de kunsten en natuurwetenschappen over de implicaties van Big Data voor samenlevingen).