Zo word je de Billy the Kid van de AI.

Hi lezer 👋,

Zo. De brief van vorige week leverde nogal wat reacties op. Heel tof om te merken hoe betrokken je bent, m'n beste lezer, 🤗.

Daarom open ik deze week met twee toegiften die gekoppeld zijn aan die vorige editie; over vrouwenhaat, porno en stereotypes.

Vooroordelen speuren

Deze week introduceer ik een vrij nieuw fenomeen binnen de AI: bias bounties. Wat dat precies zijn (en wie me er op wees), dat lees je verderop.

Tot besluit heb ik drie bias-based lees-, doe- en bijwoontips voor je.

Succes met AI-schatzoeken deze week. ⏱ 8 minuten

Groet, Laurens.

Vieze achterkant veel vuiler volgens Vice

De dag waarop ik de vorige brief tikte, publiceerde ook Vice een verhaal over de problematische afbeeldingen in de brondata die generatieve AI-systemen gebruiken. Het is geen pretje waarover je in het stuk leest. Wees dus gewaarschuwd voor de dirty rabbit hole die je in gaat als je klikt...

AI is progressing at an astonishing speed, but we still don’t have a good understanding of the datasets that power AI, and little accountability for whatever abusive images they contain.

#lifechanging prompts

Om je prompt engineeringpret niet verder te bederven, deel ik hier een tip die ik kreeg van Vriend van de Brief Sam.

Hij bezocht afgelopen vrijdag de eerste editie van AI for Good.(FYI: Dat is een avond die ik organiseer in Felix Meritis in Amsterdam. Makers en publiek gaan er in gesprek met elkaar rondom thema's binnen de AI. Sam was niet de enige vriend van de brief die ik er irl ontmoette trouwens 😀.) Dezelfde avond nog mailde Sam me het volgende:

Tijdens de reis naar huis na het bezoek aan AI for good kwam ik deze Twitter post tegen. Allemaal 'life changing' ervaringen met alleen al de huidige prompt -> image tools, erg toepasselijk: :)

Lees hier de hele thread met life changing events van prompt artists en je geloof in de mensheid is hopelijk weer wat hersteld.

Deze week: bias bounties.

Nog maar drie weken totdat je de eerste bias bounty kunt pakken...

Om uit te leggen wat bias bounties zijn, behandel ik beide woorden uit deze term eerst afzonderlijk.

Bias

Bijna een jaar geleden berichtte ik in een van m'n eerste brieven over bias in AI. In die editie van early oktober 2021 beschrijf ik o.a.:

  • Wat bias (vooroordelen) precies inhoudt;

  • Welke soorten er zijn;

  • Wie zich bezighouden met het tegengaan ervan;

  • Hoe je er zelf iets aan kunt doen.

Algoritmisch auditeren

In die laatste categorie was de vijfde doe-het-zelftip: laat een ‘algoritmische audit’ uitvoeren:

'Gespecialiseerde bedrijven zoals Parity.ai helpen andere organisaties om hun AI-toepassingen op fairness, accuracy en responsibility te toetsen. Al komen ze nu nog uit Silicon Valley, je kunt je voorstellen dat straks, wanneer ieder zichzelf respecterende organisatie met zo'n audit als keurmerk wil pronken (#algowashing), er meer partijen nodig zijn die deze toetsing voor hun rekening nemen. #nieuwebanendankzijAI '

Dienen en wassen

Naief redeneerde ik dat deze audits waarde hebben, met verschillende praktische use cases:

  • Als checklist bij ontwerp en ontwikkeling;

  • Om problematische modellen in de kiem smoren;

  • Om gemankeerde toepassingen te verbeteren.

Divers, duurzaam & debiased

M'n cynische zelf (en ik ben dat doorgaans niet) voorzag een soort 'washing' effect. Schaar #algowashing gerust in het rijtje pink en green. Deze washings hebben als doel dat bedrijven zich erdoor beter voordoen dan dat ze in werkelijkheid handelen; resp. divers en inclusief, duurzaam en goed voor de planeet en nu dus ook de-biasend: met eerlijke algoritmes en maatschappelijk bewust uitgebalanceerde machine learning modellen, want: geauditeerd!

Bazen van de bias bounty

Nu met nieuwe optie: de bounty

Nu blijkt er nog een manier om onwenselijke of problematische (effecten van) AI-toepassingen aan het licht te brengen. Twitter introduceerde deze methode min of meer gedwongen in de wereld van algoritmen en AI: de bias bounty.

Het sociale platform bleek namelijk problemen te hebben met de manier waarop gezichten automatisch werden afgesneden in foto's. De ontdekking daarvan begon allemaal met deze tweet. Daarin legde ene Tony Arciere bloot hoe een foto, waarop zowel Barack Obama als Mitch McConnell stonden, door het Twitter-algoritme zo uitgesneden werd dat Mitch bleef en Barack verdween. #terechteophef

Van ophef naar wedstrijdspanning

Twitter vatte dit zoveelste PR-schandaal slim bij de horens en zette de ontstane ophef en reuring handig om in excitement. Hoe ze dat deden? Ze schreven een wedstrijd uit, open voor publiek. De speurder die als eerste de fout (de bias) zou ontdekken, kreeg een geldelijke hoofdprijs: de bounty.

Leentjebuur: van bug naar bias

Dit soort bounty-wedstrijden zijn beproefd in de wereld van de computer security. Meta, Google, Microsoft en tal van andere techbedrijven organiseren al jaren van deze wedstrijden onder de noemer 'bug bounties'. Ze worden ingezet voor het:

  • Vinden van bugs in programmeercode;

  • Controleren of er 'deuren openstaan' voor hacks;

  • Ontdekken van lekken in digitale software waarmee virussen en malware makkelijk in netwerken kunnen binnendringen.

Wat er mis is met de bias bounty?

So far so good, zou je denken. En well played, Twitter. Als dit werkt voor techbedrijven, als speurders er iets aan verdienen en zodoende onwetende gebruikers veilig digitaal kunnen blijven werken, dan is dit bewezen concept toch handig om te benutten? Dan is het toch best slim om dit ook te transponeren naar de AI-wereld, voor het specifiek opsporen van vooroordelen? Zodat de onwetende gebruiker niet alleen met een veilig, maar ook eerlijker systeem te werkt?

Ergens wel natuurlijk. Totdat ik de column van Nicolas Kayser-Bril van Algorithm Watch las, retorisch getiteld 'Algorithmic bias bounties are great. Or are they?

BiasBounty.ai

Hij legt uit dat Rumman Chowdhury, die Machine Learning ethics bij Twitter overziet, onlangs een initiatief is gestart dat BiasBounty.ai heet. (Als de naam Chowdhury je bekend voorkomt, dan klopt dat: ze richtte eerder dat algo-auditingbedrijf Parity.ai op, maar daar heeft ze inmiddels een conflict, zo las ik hier.)

Onder de vlag van BiasBounty.ai worden vanaf oktober verschillende wedstrijden georganiseerd. Eerst in de VS, daarna wereldwijd. Kayser-Brill zegt er over:

"I find the project promising. Imagine if outside developers could probe the algorithm that decides what images we see on Instagram, or what videos TikTok gives us. "

Maar aan de andere kant kan het met deze bounties ook zo lopen zoals met de hackathon van de jaren '10. Hij licht toe:

"Lots of people were invited to build prototypes on a certain topic, most of the time over a week-end. The winners got prize money or symbolic rewards.

The enthusiasm for hackathons waned when it became clear that some firms were externalizing their innovation department in exchange for a few pizzas and free beer.

It was not rare for participants to complain that the company hosting the event, or other participants, later reused their ideas -- without credit or payment."

Kayser-Brill heeft op dit moment twee bezwaren bij de bias bounty:

  1. Bias bounties betekenen gratis auditing voor grote bedrijven;

  2. Echt relevante systemen, die de bottom line zijn van grote bedrijven, zullen ze niet openstellen voor het publiek.

Met andere woorden: dat een afbeeldingsbewerker wordt opengesteld voor publiek om te onderzoeken, zal Twitter niet keihard raken.

De vraag is of je ook een prijs kunt winnen als buitenstaander wanneer je vooroordelen ontdekt in de moderatie van TikTok of de aanbevelingen op Facebook. Ik sta dan ook helemaal aan Kayser-Brill's kant, als hij schrijft:

"We shouldn't expect it, or other bias bounty programs, to dramatically improve automated systems.

Needless to say, I'd love to be proven wrong."

✅ Dit was ‘m weer. Volgende week.... komt volgende week ;-)

Meer over bias? Lees, verdiep en discussieer hier:

In ons boek spreken Marlies en ik op meerdere plekken over vooroordelen, blinde vlekken en hoe je eerlijke AI-systemen ontwikkelt. We hebben aan ethiek zelfs een apart hoofdstuk gewijd: Tussen dys- en utopie.

Je leert met deze cursus 'wat ethisch reflecteren is, hoe door bedrijven data en algoritmen worden ingezet, wat dit betekent voor bijvoorbeeld werving en selectie, hoe algoritmen wél eerlijk kunnen worden ingezet, en wat we moeten doen om de democratie een handje te helpen.'

Hoe kun je als media-organisatie op een ethisch verantwoorde manier AI toepassen? Tijdens de Dutch Media Week spreken o.a. Oumaima Hajri (Hogeschool Rotterdam) en Anna Schjøtt Hansen (UvA) over verantwoorde AI in een internationaal perspectief

📅 maandag 3 oktober

🕒 15.00 uur

📍 Nederlands Instituut voor Beeld en Geluid, Hilversum, Nederland