Kunstmatige Intelligentie in Debatteren (Deel 2)

doorMike Weltevrede

Kunstmatige Intelligentie in Debatteren (Deel 2)

In het vorige artikel hebben we besproken wat kunstmatige intelligentie (AI) eigenlijk is. Kort gezegd is AI een methode welke input data gebruikt om een bepaalde taak te voltooien door menselijk denkgedrag te imiteren. In dit artikel ga ik kijken naar toepassingen van AI in de echte wereld, zoals deep fakes. Bovendien ga ik het hebben over black-box algoritmes: waarom worden deze gebruikt en wat zijn de ontwikkelingen rondom “verklaarbare AI”?

Ik focus op twee subvelden van AI, namelijk beeldanalyse (image recognition) en natural language processing (NLP). Voor elk van deze leg ik kort uit wat het is en enkele voorbeelden hoe het wordt toegepast.

Beeldanalyse (image recognition)

Laten we beginnen met beeldanalyse. Het woord zegt het al: het probeert bepaalde beelden te analyseren en daar nuttige informatie uit te halen. Dit kunnen statische afbeeldingen zijn, zoals foto’s, maar zeker ook video’s. Omdat er steeds meer informatie onze wereld in komt in de vorm van afbeeldingen en video’s zijn de toepassingen ook zeer breed. Zo wordt beeldanalyse toegepast in de gezondheidszorg om te bepalen of er in een scan een tumor te vinden is, gebruiken zelfrijdende auto’s camerabeelden om de situatie op de weg te analyseren en wordt er gezichtsherkenning gedaan door je telefoon om de telefoon te beveiligen.

Bron

Persoonlijk spreekt mij Wild Me erg aan: een inspanning van Microsoft waar het doel is om individuele dieren te herkennen en tracken om zo adviezen te kunnen geven aan natuurbeheerders . Dit wordt onder andere gedaan door foto’s die door reizigers geüpload kunnen worden. Maak ik een foto van een cheetah en upload ik deze, dan kan ik zomaar terugkrijgen: “Deze cheetah is al bekend. Dit is Harry!”

Natural language processing

Natural language processing (NLP) is ook een erg breed veld. Het houdt zich bezig met allerlei manieren van natuurlijke taal, zoals geschreven en gesproken tekst. Ik heb bijvoorbeeld eens een deep learning algoritme geschreven voor een bootcamp welke op basis van jaarverslagen een ESG (Environmental, Social, Governance) score moest toewijzen aan een bedrijf. Een andere ontwikkeling die ik persoonlijk erg interessant vindt, is de toepassing van AI binnen de mentale gezondheidszorg. Zo worden bijvoorbeeld de stemopnames van een patiënt geanalyseerd om automatisch hun mentale gezondheid bij te houden en hun psycholoog daarvan op de hoogte te kunnen stellen (Forbes, 2019).

Deep fakes

Voor beide deze velden ligt er gevaar op de loer: waar er technologische vooruitgangen zijn die heel erg toffe dingen kunnen doen, zijn er ook ook slechte mensen die deze technieken toepassen om criminaliteit te bedrijven. Zo kan er door middel van Generative Adversarial Networks (GAN) gedaan worden aan beeldconstructie, zoals deep fakes. Dit houdt bijvoorbeeld in dat een persoon een video kan opnemen waarin zij van alles en nogwat zegt en het kan doen lijken alsof een prominente politicus dit heeft gezegd, zoals deze video van Barack Obama (Buzzfeed, 2018). Op de website www.thispersondoesnotexist.com/ zie je elke keer dat je de pagina ververst een foto die volledig is gegenereerd door zo’n GAN (Karras et al., 2019), zoals de foto hier rechts.

Black-box algoritmes en “verklaarbare AI”

Laten we het ten slotte hebben over black-box algoritmes. In het vorige artikel heb ik uitgelegd dat dit systemen zijn waar we eigenlijk niet van weten hoe ze tot een bepaalde beslissing zijn gekomen, vaak omdat de wiskunde erachter te complex is. Het meest prominente voorbeeld is het veld van deep learning (zeer complexe neurale netwerken). Neurale netwerken (en dus ook deep learning-algoritmes) hebben gigantische hoeveelheden data nodig om de patronen te vinden. Ondanks dat ze niet inzichtelijk zijn, worden deze modellen erg vaak toegepast binnen het bedrijfsleven, simpelweg omdat ze in dit tijdperk van big data erg nauwkeurige resultaten opleveren. Het is voor (veel) bedrijven veel belangrijker om bijvoorbeeld erg nauwkeurig te kunnen voorspellen welke klanten ze binnenkort gaan verliezen (en welke ze dus moeten berichten om dit te voorkomen) dan om specifiek te weten waarom dat nou zo is. We zien echter sterke vooruitgang in het veld van “verklaarbare AI” (explainable AI of XAI), waar het doel is om deze black-boxes open te maken en duidelijk te maken hoe zo’n model tot een beslissing is gekomen. Deze ontwikkelingen worden versneld nu wetgevingen mensen het recht tot inzage geeft (bijvoorbeeld de AVG, artikel 15). Kijk voor meer informatie over XAI op de Wikipediapagina.

Wat komt er hierna?

Ik hoop dat deze tweedelige gids je inzicht heeft gegeven in wat AI eigenlijk is, hoe het wordt toegepast en wat de gevaren kunnen zijn. Als je vragen, aanvullingen of andere opmerkingen hebt, plaats deze dan in een reactie of stuur me een bericht. Volgende keer gaat Gigi Gil een stelling over de toepassing van kunstmatige intelligentie in het strafrecht bespreken. Deze staat inmiddels online. Lees het hier!

Bron coverafbeelding: https://medium.com/datadriveninvestor/what-is-artificial-intelligence-eeb863bf3fee

Referenties

Karras, T., Laine, S., & Aila, T. (2019). A style-based generator architecture for generative adversarial networks. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 4401-4410).

Facebook Twitter Linkedin Email

Over de auteur

Mike Weltevrede contributor

Mike is een alumnus van de Tilburgse Debatvereniging Cicero en de secretaris van de Nederlandse Debatbond. Hij was vicevoorzitter van Cicero en overzag in die functie de nieuwe internationale tak. Hij organiseerde tevens de Dutch Debating Winter School, een debattrainingsweek welke deelnemers van meer dan 20 nationaliteiten aantrok.