• Super Vision
  • Posts
  • Hoe media, activisten en overheden naar AI kijken - Super Vision #18

Hoe media, activisten en overheden naar AI kijken - Super Vision #18

Hi šŸ‘‹

Nog gedacht aan robots op het strand? Daar ging een van de openingsquotes van vorige week over.

About last week: korte recap

Even voor de nieuwe lezers - welkom trouwens šŸ¤—; een week geleden heb ik januari omgedoopt tot AIðiek-maand.

In Deel IĀ kon je lezen over het A-B-C van ethiek (definities, theorieĆ«n en denkkaders), waarom AI ethics nu zo hot is (šŸ§ŗ= mede dankzij ex-Googlers) en wie zich ermee bezig houden: ontwikkelaars, bedrijven en academici.Ā 

We eindigden met de vijf vragen / adviezen die wetenschapper Sennay Ghebreab (Civic AI Lab, UvA) heeft opgesteld om AI bewuster en inclusiever te ontwikkelen. Een ervan: betrek burgers bij elke stap van het ontwikkelproces.

Deze week: overheden, activisten en (nieuws)media

In deze editie (van zo'n 3500 woorden) lees je:

  • Hoe Unesco en overheden (landelijk en Europees) AI-wetgeving ontwikkelen;

  • Wat het Vlaams Datanutsbedrijf is en doet;

  • Waarom activisten liever willen controleren dan vertrouwen;

  • Welke regels journalisten van Bayerische Rundfunk hebben opgesteld voor het toepassen van AI binnen hun werk;

  • Wie de intentieverklaring allemaal hebben ondertekend voor 'verantwoord gebruik van KI in de media'.

We sluiten volgende week af met de influencers van de ethiek: filosofen. šŸ§”šŸ½ā€ā™‚ļøšŸ˜¬

Veel longread-plezier weer! Groet, Laurens Vreekamp

šŸšØ New Book Announcement šŸ“•

Auteurs Marlies van der Wees & Laurens Vreekamp

'The Art of AIā€™; een praktische introductie in machine learning voor mediamakers

Medio april verschijnt ons boek ā€˜The Art of AIā€™, een praktische introductie in machine learning voor mediamakers (bij Van Duuren Media).

āž  Wil je dit boek niet missen? Zet je naam dan op deze lijst.

Het is het eerste Nederlandstalig boek over creatieve toepassingen van AI. Met veel voorbeelden, interviews met makers en uitleg van diverse tools, zodat je direct zelf met machine learning aan de slag kunt. Ik schrijf het samen metĀ Marlies van der WeesĀ (machine learning engineer bij DPG Media).

AI & Ethiek: overheden, activisten en journalisten

Vorige week schetste ik de visies en acties van AI engineers, bedrijven en academici. Deze week een overzicht van activiteiten van overheden, activisten en (nieuws)media.

4. Overheden & AI-regulering

We starten met de 'global view' van Unesco, zoomen vervolgens in op de EU en de Draft AI Act en eindigen in Vlaanderen en Nederland.

4.1 Unesco

De Organisatie der Verenigde Naties voor Onderwijs, Wetenschap en Cultuur - Unesco - heeft onlangs het document 'Recommendation on the Ethics of Artificial Intelligence' opgesteld, met daarin vier waarden, tien principes en nog eens tien beleidsacties rondom ethiek en AI:

  1. Mensenrechten en fundamentele vrijheden moeten door AI-systemen worden geƫerbiedigd, beschermd en bevorderd.

  2. Alle personen en actoren die betrokken zijn bij AI-systemen (ontwikkeling, ingebruikname,ā€¦) moeten zich houden aan wetten, standaarden en praktijken die tot doel hebben het milieu en zijn ecosysteem te beschermen en te herstellen en duurzame ontwikkeling nastreven.

  3. AI-systemen moeten diversiteit en inclusiviteit eerbiedigen, beschermen en bevorderen.

  4. AI-actoren moeten een participatieve en faciliterende rol spelen om vreedzame en rechtvaardige samenlevingen te waarborgen. AI-systemen mogen bijvoorbeeld niet segregeren, mensen in gevaar brengen of mensen tegen elkaar opzetten.

De 10 principes zijn: proportionaliteit, veiligheid, fairness en discriminatie, duurzaamheid, privacy, menselijk toezicht en bepaling, transparantie en uitlegbaarheid, responsibility and accountability, bewustzijn en geletterdheid en multistakeholder- en adaptief bestuur en samenwerking.

In principe zou iedere VN-lidstaat zich moeten scharen achter deze principes en de beleidsacties implementeren in nationale wet- en regelgeving...

4.2 EU & AI

De Europese Commissie heeft op haar beurt een eigen AI Act in de maak. Deze (concept)regulering die in april 2021 is opgesteld, verbiedt het gebruik van AI-systemen die:

  • "lichamelijke of psychologische" schade veroorzaken of kunnen veroorzaken door het gebruik van "subliminale technieken" of door misbruik te maken van kwetsbaarheden van een "specifieke groep personen vanwege hun leeftijd, fysieke of mentale handicap".

  • Sociale scores gebruiken voor algemene doeleinden door overheidsinstanties.

  • "Realtime" biometrische identificatiesystemen op afstand, zoals gezichtsherkenning, in openbaar toegankelijke ruimtes voor wetshandhaving doeleinden. (Bron: ai-regulation)

Tegelijkertijd, zo schrijft Brusselse Nieuwe, wil de Europese Commissie ā€˜nieuwe regels waarmee biometrische gegevens geautomatiseerd kunnen worden uitgewisseld. Ofwel: computers die gezichtsherkenningsdata efficiĆ«nter delen tussen de verschillende Europese politiecorpsen. Met de nieuwe plannen wil de Europese Commissie niet alleen moordzaken en mensenhandel kunnen bestrijden, maar ook migranten-smokkel, zoals recentelijk aan de grens van Polen en Wit-Rusland.ā€™

De AI Act laat overigens waarschijnlijk nog wel anderhalf jaar op zich wachten.

De schrijvers van Politicoā€™s AI Decoded nieuwsbrief delen bovenstaande analyses weliswaar, maar zien de verboden nog niet als fait accompli:

'There is growing political momentum behind a total ban on controversial technologies such as facial recognition in public places. The majority of the European Parliament and powerful Germany support such a ban.

However, many EU countries and the European Commission are worried this could endanger European security. Decoded reckons Germany will struggle to rally enough EU countries to support a full ban. Restrictions for ā€œunacceptableā€ uses in the AI Act could become stricter, but a total ban is a long shot.'

In een recentere editie van Decoded valt te lezen hoezeer het reguleren van AI afhangt van drie zaken:

  1. De (politieke) overtuiging van de opstellers van dergelijke wetgeving.

  2. Hun macht binnen de verschillende commissies.

  3. De manier waarop vergaderd wordt (en dus ook hoe consensus wordt bereikt):

'To make matters worse, there are four committees representing four political groups in charge of tackling one of the most challenging aspects of the bill: Creating a legal definition for an AI system. Politicians on the right would rather see this definition be as narrow as possible to encourage innovation, while politicians on the left want the AI Act to capture as many risky AI systems as possible. '

Wellicht is dit gegeven niet verrassend voor de politiek-ingewijde lezers hier. Het is evenwel goed om te beseffen dat het reguleren van AI ongetwijfeld 'met de beste bedoelingen' zal gebeuren, maar dat de interpretatie daarvan nogal afhangt van wie je spreekt, welke partij deze zegt te vertegenwoordigen en waar op het spectrum van overtuigingen deze zich bevindt... šŸ¤Æ

Twee zaken vallen op...

Volgens meer juridische onderlegde AI watchers is de Europese AI Act vooral gericht op de uitvoerders die werken met AI-systemen. De wettenmaker lijkt zich niet direct op Big Tech te richten:

'The regulation does not treat the algorithms used in social media, search, online retailing, app stores, mobile apps or mobile operating systems as high risk. It is possible that some algorithms used in ad tracking or recommendation engines might be prohibited as manipulative or exploitative practices.'

Big Tech-lobby at work?

Nog opmerkelijker is dat politici, wanneer het gaat om het aan banden leggen van AI, de gevaren van algoritmes in sociale media vrijwel altijd in direct verband brengen met bias. Maar juist daartegen doet de nieuwe voorstelwet niet veel... šŸ§

Er wordt in de draft act wel gesproken over zogeheten disparate impact analyses, maar deze zijn voor verantwoordelijkheid van de uitvoerder zelf en hoeven niet met het publiek of de gebruiker (de onderworpene) te worden gedeeld. Als je als gebruiker interacteert met een AI-systeem dient dat alleen te worden vermeld, net zoals makers van een deepfake dit moeten aangeven volgens al bestaande wetgeving.Ā 

Juridische cliffhanger: de in het wetsvoorstel geformuleerde rol en mogelijkheden voor burgers / gebruikers (of beter gezegd: het gebrek daaraan) komt straks nog terug bij 'Activisten'...

Voor in de agenda: 9 november 2022 - AI-voting day

Lastly nog wat belangrijke data to whom it may concern:

The European Parliamentā€™s internal market (IMCO) and civil liberties (LIBE) committees, which are jointly leading the negotiations on the AI Act, aim to have a first draft report by early April [2022, red.], according to a draft timeline seen by POLITICO. Other committees are slated to have their opinions on the bill ready by June 20. The IMCO-LIBE report is scheduled to be voted on on September 29, and the whole Parliament will vote on the bill on November 9.

4.3 Overheid in Vlaanderen

Op vrijdag 26 november 2021 heeft de Vlaamse Regering besloten om een Vlaams Datanutsbedrijf op te richten. Waarom dat er moet komen? Op Digitaal Vlaanderen (officiƫle overheidssite) valt te lezen:

'[Het] moet de gegevens van burgers beter beschermen en tegelijk die data vlotter laten stromen, zodat ze een meerwaarde vormen voor samenleving en economie. [...]

Het Vlaams Datanutsbedrijf zal in het voorjaar van 2022 een zelfstandig bedrijf worden.'

De Vlaamse Minister van Digitalisering, Jan Jambon, wordt er ook geciteerd:

ā€œData laten stromen is de sleutel om onze samenleving en de Vlaamse economie in de jaren twintig een enorme boost te geven, maar dat vergt vertrouwen. Vlaanderen wil dat vertrouwen in de data-samenleving versterken door de burger zelf controle te geven over zijn data zodat ze die vlotter en veiliger kunnen delen. We bouwen zo een zelf beheerde digitale identiteit.ā€

Gefinancierd door de Europese Unie heeft het Datanutsbedrijf tot doel 'het vertrouwen van de burger in het delen van data stimuleren, door in te zetten op verantwoord en veilig data delen. Tegelijk willen we zuurstof geven aan de Vlaamse economie door data beter vindbaar en uitwisselbaar te maken, en door bruggen te bouwen tussen burgers, bedrijven en verenigingen voor een betere samenwerking. We zijn een neutrale derde partner en katalysator van vernieuwende initiatieven en stimuleren de economische en maatschappelijke welvaart. Met die aanpak heeft Vlaanderen het potentieel om koploper te worden in de Europese data-economie.'

Note: Dat geen enkele speler in dit spel een 'neutrale partner' kan zijn, zal ik volgende week proberen uit te leggen aan de hand van recent werk van de resp. Nederlandse en Vlaamse filosofen Hans Schnitzler en Lode Lauwaert.

4.4 De Nederlandse overheid

Op nationaal niveau kent Nederland meerdere schandalen waardoor landelijke politici zich roeren: onder andere de -eufemistisch aangeduide- ā€˜Toeslagenaffaireā€™ bij de Belastingdienst (waardoor het vorige kabinet viel) en die van het gebruik van het Clearview-systeem voor gezichtsherkenning bij de landelijke politie. EuroparlementariĆ«r Samira Rafaela (D66) brengt dat laatste systeem in verband met bias in de gebruikte data. Beluister haar reactie op Radio1:

Algemene Rekenkamer

In januari 2021 heeft de Algemene Rekenkamer (ARK) de Rijksoverheid gecontroleerd op algoritme-gebruik en de uitkomsten gepubliceerd in dit rapport. (De ARK valt overigens onder de zogeheten Hoge Colleges van Staat: die colleges zijn onafhankelijk - dat is grondwettelijk zo bepaald.)

Als aanleiding voor dit onderzoek schrijven de ARK-onderzoekers een gebrek aan overzicht op en controle van:Ā 

'Net als bedrijven zet de rijksoverheid steeds vaker algoritmes in om handelingen te automatiseren, een probleem op te lossen of een voorspelling te doen. Een verantwoorde ontwikkeling naar complexere geautomatiseerde toepassingen vereist beter overzicht ā€“ dat hebben ministers nu niet, zo wijst het onderzoek uit ā€“ en betere kwaliteitscontrole. Hiervoor heeft de Algemene Rekenkamer een toetsingskader ontwikkeld. Dat bevat ook ethische vragen. De Rekenkamer schrijft dat vragen van bezorgde burgers over de toepassing van algoritmes meer aandacht verdienen.'

Voor het onderzoek hebben ministeries en uitvoeringsorganisaties als het UWV en de Sociale Verzekeringsbank op verzoek meerdere algoritmes aangereikt.

Toetsing door ARR

Het ethische toetsingskader dat de ARR hanteerde voor het onderzoek naar de gebruike algoritmen bij de overheid, onderscheidt vier onderwerpen:

  1. Respect voor menselijke autonomie;

  2. Voorkomen van schade;

  3. Fairness (een eerlijk algoritme);

  4. Verklaarbaarheid en transparantie.

Met de conclusie op basis van deze toetsing kunnen we (vooralsnog, enigszins) gerust ademhalen:

ā€œVolledig zelflerende algoritmes (die beleid uitvoeren zonder tussenkomst van een mens) heeft de Algemene Rekenkamer daar niet bij aangetroffen.ā€

Opgave AI (WRR)

Eerder in deze nieuwsbrief behandelde ik Opgave AI. Een systeemtechnologie. Dit rapport uit november 2021, opgesteld door de Wetenschappelijke Raad voor de Regering (WRR), betoogt dat we met de volgende vijf onderwerpen (de ā€˜opgavenā€™) rondom AI aan het werk moeten als land: demystificatie, contextualisering, engagement, regulering en positionering.

Met het advies van de Wetenschappelijke Raad en de toetsing van de Algemene Rekenkamer zijn we er nog niet; er komt een aparte toezichthouder voor all things algorithms.

Coalitieakkoord: algoritmetoezichthouder

De kersverse nieuwe Nederlandse regering heeft namelijk in het coalitie-akkoord een speciale passage opgenomen die gaat over de oprichting van een algoritmetoezichthouder:

'We erkennen fundamentele burgerrechten online. We versterken daarom veilige digitale communicatie en passen geen gezichtsherkenning toe zonder strenge wettelijke afbakening en controle. We investeren in een sterke positie van de Autoriteit Persoonsgegevens en versterken samenwerking en samenhang tussen de diverse digitale toezichthouders. We regelen wettelijk dat algoritmes worden gecontroleerd op transparantie, discriminatie en willekeur. Een algoritmetoezichthouder bewaakt dit. De overheid geeft het goede voorbeeld door niet meer data te verzamelen en onderling te delen dan nodig en ontwikkelt regels voor data ethiek in de publieke sector. We geven mensen een eigen ā€˜onlineā€™ identiteit en regie over hun eigen data.'

Resumerend

Zoals je merkt bevinden al deze frameworks, acts, toezicht-Ā en reguleringsvoorstellen zich nog in de conceptfase. Niks is definitief, de wetten zijn nog niet ondertekend of in effect, laat staan in een juridische zaak toegepast (voor zover ik weet althans. If so: laat het me weten!).

Een primeur is er al wel voor Spanje wat betreft aanstaande implementatie:

'Spain has approved funding to establish the EUā€™s first ā€˜Supervisory Agency of AIā€™, responsible for the implementation of the national AI strategy as well as for relevant parts of the upcoming regulatory framework on AI within the EU.Ā '

Bron: The EuropeanAI Newsletter van Charlotte Stix

5. Activisten

In dit deel lees je meer over de acties die belangenorganisaties en activisten ondernemen om verantwoord gebruik (en misbruik) van AI te agenderen en/of burgers te informeren.

5.1 Algorithm Watch

Een internationale (van origine Duitse) non-profit onderzoeks- en belangenorganisatie die zich inzet voor het 'bekijken, uitpakken en analyseren van systemen voor geautomatiseerde besluitvorming (ADM) en hun impact op de samenleving.'

Met nieuwsbrieven bericht Algorithm Watch (AW) over misstanden van algoritme-gebruik bij overheden en bedrijven. AW doet zelf ook actief onderzoek naar toepassingen van AI binnen social media en de grote online platforms, vaak ook in samenwerking met nieuwsorganisaties.

Onderzoek naar algoritmes, door algoritmes

Zo werden ze geweerd van Instagram tijdens onderzoek naar de nieuwsfeed, voor een project met de NOS, De Groene Amsterdammer en Pointer rondom de landelijke verkiezingen in Nederland. Dergelijk onderzoek doet Algorithm Watch vaak op vernieuwende wijze:

'On 3 March 2020, AlgorithmWatch launched a project to monitor Instagramā€™s newsfeed algorithm. Volunteers could install a browser add-on that scraped their Instagram newsfeeds. Data was sent to a database we used to study how Instagram prioritizes pictures and videos in a userā€™s timeline.'

People first

Wat betreft de EU Draft AI act steltĀ Algorithm Watch dat mensenrechten vooropgesteld dienen te worden in die wetgeving. Iets dat nu niet lukt dankzij de gehanteerde definitie van AI die AW als gemankeerd ziet:

'EU Member States are pushing for a definition of Artificial Intelligence (AI) in the proposed AI Act that would dramatically limit its scope and exclude many systems that already have stark consequences for peopleā€™s fundamental rights and life prospects. We demand the European Council change its course, and call on the European Parliament to defend a position that puts peopleā€™s rights first instead of turning the AI Act into a paper tiger.'

5.2 Bits of Freedom (BOF)

EenĀ Nederlandse stichting die zegt op te komen voor digitale burgerrechten. Of, zoals groot op de homepage staat: 'voor jouw internetvrijheid'. BOF-beleidsadviseur Nadia Benaissa schreef in augustus vorig jaar over hun kijk op de Europese AI Act:

'De Europese wet op kunstmatige intelligentie is de uitgelezen plek om ervoor te zorgen dat transparantie, goede motivering en controleerbaarheid kunnen worden afgedwongen. Maar om dat te bereiken is nog een lange weg te gaan. [...] Transparantie en controleerbaarheid van beslissingen die je leven beĆÆnvloeden zijn onmisbaar voor de legitimiteit van, en het vertrouwen in de overheid.'

Summiere informatie, weinig transparantie

Benaissa schrijft verder over het gebrek aan mogelijkheden voor mensen die gedupeerd worden door toedoen van beslissingen door AI-systemen:

'[Hiervoor] wordt in het wetsvoorstel geen enkele mogelijkheid geboden om die uitkomsten te begrijpen of te controleren. Mensen mogen hooguit in sommige gevallen geĆÆnformeerd worden over het feit dat ze te maken hebben met kunstmatige intelligentie (artikel 52 van het wetsvoorstel). Er wordt wel wat geregeld voor gebruikers van AI-systemen, zoals gemeenten of banken die kunstmatige intelligentie afnemen van een ontwikkelaar. Zij mogen wel weten hoe het systeem tot uitkomsten is gekomen, maar kunnen alsnog niet afdwingen dat ze ook kunnen controleren of een beslissing juist en rechtmatig is genomen.

Hiermee gaat de Europese Commissie op een ontzettend laag beschermingsniveau zitten, die geen recht doet aan ons mensenrechtelijk kader. Dit terwijl de Commissie juist de uitgesproken wens heeft met deze wet fundamentele rechten goed te beschermen en te zorgen voor een mensgerichte benadering bij het gebruik van kunstmatige intelligentie. We hebben daarom de Europese Commissie opgeroepen daad bij woord te voegen en voor een passend beschermingsniveau te zorgen.'

Ook hier komen we dus -net als bij Algorithm Watch- die people first oproep weer tegen.

5.3 SETUP - 'platform voor een technologie-kritische samenleving'

Technologiecriticus Tijmen Schep maakt technologische installaties die zowel in inhoud en vorm mensen aan het denken zetten. Een voorbeeld is zijn How Normal am I?; Tijmen bouwde deze computer vision-toepassing voor jou om een antwoord op precies die vraag te geven.

Waartoe SETUP (de organisatie waar Tijmen bij is betrokken) bestaat?

'Actuele technologische ontwikkelingen grijpen direct in op ons dagelijks leven, maar blijven voor veel mensen abstract. In plaats van te schreeuwen dat 'de robots' eraan komen, vragen we ons af: hoe zorgen we dat mens en robot samen slimmer zijn dan los van elkaar?

[...] We stimuleren mensen om een ethisch (tegen)geluid te ontwikkelen. Om te zien hoe het anders kan, of moet. Daarom richt ons onderzoek zich op een breed publiek en werken we graag samen met overheden, organisaties en scholen.'

Meer over SETUP valt hier te lezen.

5.4 WAAG / Marleen Stikker

Als deze internetpionier niet in een Tegenlicht-aflevering zit, is Marleen Stikker o.a. directeur van Waag, een zogeheten Future Lab voor technologie en samenleving. Ze is al sinds de vroege jaren '90 bezig met het publieke domein op internet en schreef het boek 'Het internet is stuk', dat gaat over reparatie van ons digitale leven. Aldus de promotekst op Bol.com:

'We zijn onze digitale soevereiniteit kwijtgeraakt. We worden afgeluisterd, gestuurd, gevolgd, geleefd, en dat hebben we zelf laten gebeuren. In Het internet is stuk onderzoekt Marleen Stikker wat er misging en hoe we die digitale soevereiniteit kunnen terugwinnen door de mens en niet de economie centraal te stellen, onze data te beschermen, en onze technologieĆ«n te doorgronden. We moeten de macht over ons digitale leven weer naar ons toe trekken. We hebben het internet stukgemaakt, we moeten ā€“ en kunnen! ā€“ het ook weer repareren.'

6. Journalisten & mediamakers

De laatste groep spelers (althans, voor deze week) is degene die zich zowel bezighoudt met berichtgeving over als het toepassen van AI: de journalisten en (nieuws)mediamakers. Ik er licht drie voorbeelden uit.

6.1 Bayerische Rundfunk's Ethical AI

De Duitse publieke omroep Bayerische Rundfunk (BR) heeft al veel met AI-systemen gewerkt. Met die ervaring hebben ze eigen AI Ethics guidelines opgesteld. De toelichting die ze erbij geven:

'We ask ourselves every time before employing new technology: Does this really offer a tangible benefit to our users and employees at BR? The work of our journalists is and will be irreplaceable. Working with new technologies will augment their invaluable contribution and introduce new activities and roles to the newsroom.

Om zelf steeds weer te kunnen beoordelen of die benefits voor publiek en medewerkers wel voorop staan en ook worden gerealiseerd, heeft BR tien kernrichtlijnen opgesteld voor hun 'day-to-day use of AI and automation.'

Dit zijn die tien ethische AI richtlijnen die BR hanteert:

  1. User Benefit

  2. Transparency & Discourse

  3. Diversity & Regional Focus

  4. Conscious Data Culture

  5. Responsible Personalization

  6. Editorial Control

  7. Agile Learning

  8. Partnerships

  9. Talent & Skill Acquisition

  10. Interdisciplinary Reflection

Een van BR's bekendere projecten rondom AI is Objective or Biased, waarbij ze op creatieve wijze een AI-systeem onderzochten dat sollicitatievideo's beoordeelt voor grote bedrijven zoals BMW en Lufthansa.

6.2 Fact-checkers: open brief aan Youtube

Een internationale groep fact-checkers (waaronder meer dan 40 journalisten en redacties van nieuwsorganisaties) hebben op 12 januari een open brief geschreven aan de directeur van Youtube, Susan Wojcicki. In de brief stellen ze 'een aantal oplossingen voor die een groot verschil zouden maken in het terugdringen van de verspreiding van desinformatie en verkeerde informatie op de videosite,' zo staat te lezen op de Vlaamse nieuwssite Knack.be

6.3 Media: Intentieverklaring & Routekaart

HetĀ Nederlands Instituut voor Beeld en Geluid, de NPO en RTL Nederland hebben in 2021 een intentieverklaringĀ opgesteld om 'de ethische kant van Kunstmatige Intelligentie (KI) te kunnen waarborgen. Deze dient als bescherming van het publiek tegen onbedoelde en ongewenste neveneffecten van KI. '

De intentieverklaring is niet alleen ondertekend door de drie directeuren van de initiatiefnemers; nee, ieder mediabedrijf kan de intentieverklaring hier zelf ondertekenen.

AI Routekaart

Er is ook een bijbehorende routekaart opgesteld waar mediabedrijven mee kunnen werken. Het model geeft en heeft naast AI-oplossingen voor commerciƫle, creatieve en efficiƫncy-doeleinden ook aandacht voor ethiek:

'[Dat is] een model (link) voor de indeling van toepassingen waar AI waarde kan toevoegen in de mediasector. Daarbij gaat het onder meer om het optimaliseren van productieprocessen, maar ook om het ondersteunen van creativiteit, en het verbeteren van de interactie met het publiek. Naast technologische en commerciƫle aspecten, zijn er ook opbrengsten gericht op publieke waarden.'

Werk jij in de (nieuws)media of als beleidsmaker? Dan ben ik uiteraard benieuwd naar jouw route en idee wat betreft het verantwoord inzetten van AI.

āœ… Zo. Dit was 'm dan: Deel II!

We sluiten volgende week het drieluik voor de AI & ethiek-maand af met de influencers van de ethiek: filosofen. šŸ§”šŸ½ā€ā™‚ļøšŸ˜¬