• Super Vision
  • Posts
  • Filosofen denken dit over AI - Super Vision #19

Filosofen denken dit over AI - Super Vision #19

Hi lezer 👋,

Vorige week nam ik met mijn vijfjarige dochter een Uber vanaf een treinstation naar huis. Het regende en ik had geen zin om al fietsend drijfnat te worden. Thuisgekomen bestelde ik alle boodschappen voor het avondeten (risotto) bij een flitsbezorger.

Waarom ik dit deel? Er zijn best een aantal ethische vragen te stellen bij bovenstaande situatie: over de rol van technologie en AI, mijn keuze(vrijheid) als gebruiker en over mijn rol als verantwoordelijke opvoeder. (En waarschijnlijk vergeet ik er nog wel een aantal).

In veel artikelen over algoritmen en AI lezen we vaak over ethiek, morele dilemma's en waarden. Maar eerlijk gezegd had ik geen goed idee wat daar nu precies mee bedoeld wordt; wat waarden zijn, wat ze betekenen (voor ons en anderen) en hoe je ze überhaupt 'goed' implementeert.

Dus ben ik op zoek gegaan naar antwoorden. Die kreeg ik (deels), want ik zocht ze bij een aantal filosofen, dicht bij huis (ja, Yuval Noah Harari mist). Wat ik leerde aan de hand van een open en een gesloten vraag, lees je in deze editie:

  1. Kunnen we AI-systemen ethisch verantwoord ontwerpen en laten functioneren?

  2. Hoe moeten we nu kijken naar technologie?

Aanvulling op vorige week

Na het versturen van de vorige nieuwsbrief kreeg ik van gewaardeerde lezer Pieter Duysburgh een berichtje dat hij nog 'een paar aanvullingen / tips vanuit het Kenniscentrum Data & Maatschappij' had. Je vindt ze onderaan de nieuwsbrief, bij Further reading.

Veel leesplezier weer. Volgende week gaat het over 'synthetische media', met heel veel praktische tips & tools om je eigen (digitale) wereld te bouwen.

Groet, Laurens.

Ps. Je kunt je hier intekenen op de wachtlijst voor ons aanstaande boek The Art of AI; een praktische introductie in machine learning voor mediamakers.

In dit laatste deel van de januari-ethiek-maand, richten we ons tot een groep wetenschappers die vrijwel nooit antwoorden hebben, maar wel goede vragen stellen: filosofen.

1. Kunnen we AI ethisch verantwoord ontwerpen?

Om deze eerste vraag te beantwoorden heb ik erg veel gehad aan het werk van Lode Lauwaert. Hij doceert techniekfilosofie en ethiek aan de KU Leuven. Hij is ook schrijver van het boek Wij, Robots (2021).

Wat ik leerde van Lauwaert is dat technologie niet neutraal is en dat ethische waarden echt complexe materie zijn. Zo vond ik het veel moeilijker dan ik dacht om goed te bevatten wat ‘waarden’ zijn en blijkt het ook nogal ingewikkeld om er met anderen over te kunnen discussiëren. Omdat we er geen goed begrip van hebben.

Morele oordelen

Laten we beginnen met kijken naar ethiek als een manier om te (be)oordelen. Wanneer we iemand of iets beoordelen, dan kan dat om meerdere redenen. Dit kunnen goede en slechte gevolgen van handelen zijn of doordat er een morele wet is overtreden. Zo hoeft de chauffeur van een te hard rijdende auto met daarin een bevallende vrouw (onderweg naar het ziekenhuis) volgens velen geen bon te krijgen.

Daarnaast kan het gaan over eigenschappen van een persoon, die we morele deugden noemen. Denk hierbij aan 'loyaliteit' en 'moed'. We vinden het soms problematisch als iemand weinig loyaliteit toont. We moedigen (pun intended) mensen aan die durf tonen, zoals bij programma’s als Kamp Waes. Op een andere manier spelen bij Wie is de mol onze morele bezwaren een rol als het gaat om het liegen, manipuleren en zwijgen van de deelnemers.

‘Waardegeladen’, hebben en zijn

Lauwaert legt uit dat de term ‘waarde’ op twee manieren wordt gebruikt: iets kan een waarde zijn, en iets kan waarde hebben. Je kunt zeggen: duurzaamheid is een waarde, of privacy is een waarde. En je kunt zeggen: een huis of een geërfd horloge van je grootmoeder heeft waarde.

Dit onderscheid gaat over instrumentele en niet-instrumentele waarden. Een waarde als ‘geluk’ heeft geen hoger doel en is op zichzelf belangrijk, maar ‘privacy’ en ‘fairness’ kunnen wel weer andere doelen dienen, zoals financiële veiligheid.

In Wij, robots legt Lauwaert al deze zaken uitgebreid uit.

Deugd en doel

Het kijken naar ethiek en moraliteit op bovenstaande manier behoort in de filosofie tot de ‘deugdenethiek’ en het is meestal deze vorm van ethiek waar we het over hebben wanneer we toepassingen van AI-systemen beoordelen. 

Lauwaert zegt:

“Ethisch oordelen over een AI systeem, betekent dat je onder meer kijkt naar het doel waarvoor het systeem wordt ontworpen en gebruikt. Sommigen doelen zoals het vertalen van een tekst, zijn normaal gezien moreel neutraal. Hetzelfde kun je ook zeggen van een systeem als Google Translate. Andere doelen zijn dan weer moreel geladen en wenselijk.”

AI en ethische waarde implementeren? It’s complicated.

Voor de waarde 'gelijkheid', vaak fairness genoemd in AI en ethiek-context, schetst Lauwaert een scenario waarbij je merkt dat het niet zo makkelijk is om onze systemen met de juiste waarden te ‘laden’.

Met de waarde ‘fairness’ kan bedoeld worden statistische gelijkheid of gelijke behandeling. Als je naar de statistische uitleg kijkt, en je wilt bijvoorbeeld knikkers verdelen over een groep jongens en meisjes, dan noem je het in die context fair wanneer er verhoudingsgewijs een gelijke verdeling over beide groepen is. Zijn er vijftig jongens en tien meisjes dan is het volgens deze benadering fair dat er meer jongens dan meisjes knikkers krijgen.

Fairness als in: gelijke kansen

De tweede interpretatie heeft te maken met gelijke kansen. Je kunt dat uitleggen door bijvoorbeeld naar startpositie in het leven te kijken. Iemand die een universitaire studie wil doen zou daar aan moeten kunnen beginnen ongeacht sociaal-economische context en opvoeding. Uit onderzoek weten we echter dat die achtergrond nogal een rol speelt qua kansen in het latere leven. Nu besluit je een fair systeem te ontwikkelen waarbij je mensen gelijke kansen wil bieden. Dat betekent dat je gratis studiebeurzen gaat verstrekken aan die personen met sociaal-economisch ‘zwakkere’ uitgangsposities. Kortom: je behandelt mensen dan ongelijk maar dat zullen veel mensen in dit geval wel degelijk fair vinden.

Het botsingsprobleem: faire leningen + accuraat model

Met het volgende voorbeeld krijg je een idee hoe ingewikkeld het is voor mensen om met ethische ‘waarden’ te werken; laat staan om dit in een AI-systeem te implementeren. Lauwaert schetst weer een scenario: van een bank die leningen toekent aan twee groepen cliënten. De ene groep bestaat uit vrouwen met een zwarte huidskleur en de andere uit witte mannen. De bank weet dankzij het inzetten van een machine learning model dat, wanneer het een lening verstrekt, uit de eerste groep maar 15% de lening terugbetaalt. Bij de tweede groep is dat 30%. Het systeem weet dit op basis van historische data, en kan met 100% zekerheid voorspellen of een lening door een cliënt wordt terugbetaald.

De moreel neutrale waarde die bij dit systeem hoort is: accuraatheid.

Inaccuraat maar fair?

Je voelt hem al aankomen: de bank is bang dat ze van discriminatie beticht worden met dit model. Daarom optimaliseren ze het AI-systeem naast accuracy ook voor de morele waarde fairness (de statistische versie). Het uitgangspunt wordt dan dat het systeem evenveel leningen verstrekt aan zwarte vrouwen als witte mannen, 30% van beide groepen.

Eindresultaat in dit voorbeeld: de accuraatheid moet het ontgelden want meer vrouwen krijgen onterecht een lening (false positives).

De conclusie volgens Lauwaert:

“Wanneer je besluit om technologie met ethiek te laden, moet je niet alleen weten dat morele waarden meerdere zaken kunnen betekenen, maar ook beseffen dat waarden kunnen clashen.”

Je kunt je nu ook het probleem bij een overheid wellicht beter voorstellen, wanneer een beleidsmaker het over gelijke behandeling heeft en de interpretatie ervan bij een ML-engineer of IT'er die statistisch kijkt naar datzelfde woord: fairness.

Deepfake for good

AI kan uiteraard ook worden toegepast met moreel onwenselijke doelen voor ogen, waarvan Lauwaert de deepfake als voorbeeld geeft, alhoewel die in sommige gevallen ook ‘moreel onschuldig’ kan zijn. Bijvoorbeeld in het geval van een Duitse politiedienst die deepfakes inzette om verspreiders van kinderporno op te sporen.

Everyone's responsible for responsible AI

Iedereen die betrokken is bij de ontwikkeling van technologie en de toepassing van AI wordt geconfronteerd met ethische thema’s. in de vorige twee nieuwsbrieven zagen we al wie zoal die stakeholders zijn: ontwikkelaars, ontwerpers, gebruikers, producenten, engineers en uitvoerders (zoals overheden). Ze krijgen te maken met morele waarden als duurzaamheid, gelijkheid, transparantie, bias, privacy en verantwoordelijkheid.

En, zo schrijft Lauwaert:

“Tal van technologieën hebben een onwenselijk effect op morele waarden: AI-systemen discrimineren, auto’s stoten broeikasgassen uit en apps schenden privacy. Wanneer de effecten niet te voorzien waren, vellen we geen negatief oordeel over de ontwerper, fabrikant of stakeholder. Maar zij blijven niet noodzakelijk buiten schot. Wanneer de slechte gevolgen te voorzien waren, terwijl men daar niet op anticipeerde, is dat een reden voor negatieve evaluatie.

Verder kun je de betrokkenen ook veroordelen als blijkt dat de onwenselijke effecten van de technologie niet alleen voorzien maar ook bedoeld zijn.”

2. Hoe moeten we nu kijken naar technologie?

Soms is het fijn om even terug te keren naar de basis, voor een gedeeld begrip en kader; iets dat we op zoveel vlakken zo node missen in deze tijden van info-, pande- en klimademie.

Mens, natuur, cultuur, technologie

Hans Schnitzler (die deze week ook nog in een VPRO Tegenlicht-aflevering zat) behandelt in zijn werk ‘Wij, nihilisten’ (2021) de ontwikkeling van de mens in de natuur naar een mens in een cultuur. Die transitie heeft ons in staat gesteld om veel meer te bewerkstelligen, met elkaar, levend in groepen, met duidelijke rollen, verantwoordelijkheden, regels, het hebben van eten, drinken, materialen en gereedschappen.

De Grote Disruptie

De jongste technologie brengt ons opnieuw in een overgangsfase, waarbij we allerlei vanzelfsprekendheden verliezen en kaders, regels, gebruiken en andere zaken dienen uit te vinden of te herdefiniëren. (Daarover volgende week meer...)

Dat is nogal wat! Maar gelukkig zijn er manieren waarop we volgens verschillende denkers antwoorden en ideeën kunnen formuleren om de grote, aanstaande (en volgens velen ook onvermijdelijke) disruptie tegemoet te treden.

In het kamp van de usual suspects van de techno-optimisten zijn er onderling een aantal verschillende geluiden van personen die ooit gelabeld zijn als techno-utopisten, techno-neutralen, transhumanisten en ‘positive computers’.

De singulariteit is nea... nog een eindje verderop

Transhumanist Ray Kurzweil is ervan overtuigd dat we ons lichaam zullen verlaten in 2045 waarbij een nieuw soort superintelligentie ons leidt. Dat moment noemen hij en zijn 'volgers' de singulariteit. Of dat automagisch goed gaat laat deze futurist bij dit zogeheten singulariteitsdenken gemakshalve buiten beschouwing. Het is dan ook vooral een overtuiging van een man die zijn vader te vroeg verloor.

Nick Bostrom is naast Zweedse filosoof ook transhumanist. Hij schreef al in 2014 over superintelligentie en de grote kans dat deze ons zal vernietigen, tenzij we never-before-seen regulering en preventie op mondiaal niveau zouden doorvoeren. Die superintelligentie zou er ondertussen al moeten zijn en de vernietiging had al plaats moeten vinden...

In hetzelfde singulariteitskamp is er nog een fatalistischer en ook wel spannende visie van AI-wetenschapper Hugo de Garis (ooit gepromoveerd aan de Universite Libre de Bruxelles). Hij had het tientallen jaren geleden over de 'kosmisten' en de 'terranen'. De kosmisten willen goddelijke machines bouwen (de 'artilects') en onsterfelijk worden. De terranen vrezen de machines. En dat wordt dus oorlog.

Je denkt nu waarschijnlijk direct 'Terminator, dit is sci-fi'. En zo worden de ideeën van de transhumanisten ook veelal afgedaan. Terecht ook, omdat ze meer op overtuiging en geloof zijn gebaseerd dan op empirisch onderzoek en kennis.

Alarmistische verhalen als die van Bostrom en De Garis tonen vooral de nuttige functie van scenariodenken aan: als iemand het uitdenkt en opschrijft, kun je er ook op acteren en zodoende het uitkomen ervan actief afwenden. Denk maar eens aan alle spelers (zoals behandeld in de vorige nieuwsbrieven deze maand) en hun acties die hier (indirect) op anticiperen.

Wees niet bang voor kwade superintelligenties

Lode Lauwaert herinnert ons eraan dat een superintelligente entiteit momenteel niet bestaat en dat het er ook niet naar uitziet dat deze zich om zal vormen tot noch kwaadaardige noch goedaardige ‘artefacten’. Hij schrijft:

'Maar zelfs al is het mogelijk, dan staat niet in stenen gebeiteld dat die entiteiten ons effectief zullen opeten. Het is niet omdat iets kan gebeuren dat het ook zal gebeuren; ‘kunnen’ impliceert geen ‘zullen’.'

De logica van.... ?

Mo Gawdat, als ex-baas van Google’s experimentele divisie X een duidelijke exponent van het technotopisch denken, legt de verantwoordelijkheid bij onszelf. Hij zegt in ‘Griezelig Slim (2021) dat door de komst van AI 'de code die we momenteel schrijven niet langer de keuzes dicteert die machines maken; dat doen de data waarmee we ze voorzien.'

Hij vraagt zich verder nog af of machines een karakter kunnen ontwikkelen. Of ze uit zichzelf definities van ethische onderwerpen zoals goed en fout, waar-onwaar, deugd en zonde kunnen formuleren.

De verantwoordelijkheid voor wat de toekomst ons brengt, komt volgens Gawdat echter stevig in jouw en mijn handen te liggen. Wij moeten leren hoe we de systemen dingen leren. Want de realiteit is dan dat degenen die technologie ontwikkelen niet langer volledige controle hebben over de machine die ze ontwerpen...

A third way?

Schnitzler en Lauwaert zouden zeggen: grijp die kans. Meerdere (wens)denkers spreken dan ook over een zogeheten third way: wanneer we in Europa eigen digitale platformen bouwen, data een nutsvoorziening wordt (net zoals de Vlamingen dat al aan het bouwen zijn), en dus eigendom van de burger is in plaats van bedrijven (lees: Amerika) of de staat (lees: China).

Positive computing

In Echt Nep (2021) van Sander Duivestein, Thijs Pepping en Menno van Doorn las ik over Rafael Calvo, een professor aan het Imperial College in Londen. Deze academicus heeft het over positive computing of ‘digitaal geluk’. Dit is niet per se iets ongrijpbaars, maar gaat over ‘de mate waarin een persoon digitale technologie ziet als een positieve bijdrage aan zijn ervaring van positieve emoties, betrokkenheid, relaties, betekenis en successen.’

Als we volgens Calvo positieve psychologische effecten als uitgangspunt nemen bij het ontwikkelen van en ontwerpen met nieuwe technologie, dan staat technologie weer in dienst van de mens.

En zo komen we uit bij de bekende theorie over de aard van technologie.

De neutraliteitsthese: schone handen en economisch belang

De volgende uitspraak heb je waarschijnlijk al ontelbare keren voorbij zien komen: "Guns don't kill, people do." Hij wordt aangehaald bij de welbekende theorie dat technologie neutraal is. Een van de drie hoofdstukken van het boek van Lauwaert gaat volledig over deze theorie. Ik wil er twee zaken uit lichten: de ‘schone handen’-theorie (“mij valt niets te verwijten”) en het economisch belang van het onderschrijven ervan.

Bij die ‘schone handen’ zeggen de ontwikkelaars iets in de trant van: 'ik heb de moreel verwerpelijke uitkomsten die met mijn technologie zijn gerealiseerd niet in die technologie al ingebed. Je moet de gebruiker veroordelen.'

Bij het economisch belang zijn het vooral de ontwerpers en producenten van moreel zeer discutabele technologieën die roepen dat technologie neutraal is.

Moraal in deze: bedenk altijd vanuit welke stake de persoon de 'technologie is neutraal' uitspraak doet. Om het dan toch wat gecompliceerder en fairder te maken: Lauwaert is de eerste om te zeggen dat dit nog niet betekent dat technologie niet neutraal is:

“Ja, een theorie kan fout zijn en het kan zijn dat men die verdedigt uit eigen belang [economisch of om niet gestraft te worden] maar de theorie is niet fout omdat er eigenbelang in het spel is.”

Ken uzelf en uw machine - morele psychologie

Volgens Lauwaert moeten we zeker over het volgende debatteren en discussiëren. Stel, er bestaat een AI die mensen traint in het nemen van genderneutrale beslissingen. Zou jij deze (waardegeladen) technologie dan willen inzetten? De belofte is dat er minder bias en meer morele waarden worden gerealiseerd.

Als het gaat om onze veronderstellingen over het eigen ethisch handelen -onze morele psychologie- dan blijken deze beperkt. Lauwaert schrijft hierover:

'We hebben de neiging om ons sneller, meer en zelfs enkel te bekommeren om soortgenoten, die zich in tijd en ruimte dicht bij ons bevinden. En er is zoiets als de negativiteitsbias: bij mensen die we niet kennen merken we eerder negatieve dingen op dan positieve zaken. We denken dat we sterke argumenten hebben als we over iets of iemand oordelen of ergens op reflecteren en dat we fouten makkelijk vergeven. Dit blijkt een verhaal dat we onszelf graag vertellen, maar het klopt niet. Ethiek vloeit meestal voort uit onze intuïties, emotionele reacties en ad hoc-rationalisaties.'

✅ Nou, dit was' m weer. Laat me even weten wat je er van vond. Volgende week gaat het over 'synthetische media', met heel veel praktische tips & tools om je eigen (digitale) wereld te bouwen.

Recap van deze maand

Na het lezen van deze en de afgelopen twee longreads over AI en ethiek ben je hopelijk beter geïnformeerd wat betreft:

  • Waar we als makers rekening mee kunnen houden bij het ontwikkelen van AI-toepassingen;

  • Wie er bij idee, ontwikkeling, ontwerp en implementatie een rol spelen;

  • Tegen wat en wie burgers straks beschermd zijn (en hoe);

  • En wie jou kunnen helpen: bij het nadenken, ontwikkelen en ontwerpen. En wanneer het misgaat...

Laat me weten wat jij meeneemt uit deze ethiek-maand

Wat ik vooral meenam uit de perspectieven van overheden, ontwerpers, activisten en journalisten is dat ze allemaal roepen om een wenselijke(re) omgang met AI waarbij de mens centraal wordt gesteld.

Further reading - de tips van Pieter Duysburgh

Verslag Beleidsmonitor update – Januari 2022

Ethische principes en (niet-)bestaande juridische regels voor AI