AIToday Live
AIToday Live is een boeiende Nederlandstalige podcast voor iedereen die geïnteresseerd is in de wereld van kunstmatige intelligentie, ongeacht hun technische achtergrond. Hier zijn een paar redenen waarom je misschien wilt luisteren naar AIToday Live:
- Expert Inzichten: De podcast biedt gesprekken met Nederlandse en Belgische experts op het gebied van AI, waardoor luisteraars waardevolle inzichten en meningen rechtstreeks van leiders en vernieuwers in de industrie krijgen.
- Toegankelijk voor een Breed Publiek: Of je nu diep in de technische details zit of gewoon nieuwsgierig bent naar AI, de podcast presenteert informatie op een manier die zowel begrijpelijk als boeiend is voor zowel zakelijke als IT-professionals.
- Laatste Nieuws en Trends: Blijf op de hoogte van de nieuwste ontwikkelingen en innovaties in AI. De podcast dekt AI for Good en andere belangrijke trends die invloed kunnen hebben op verschillende industrieën en de samenleving als geheel.
Gepresenteerd door Joop Snijder, CTO van Aigency, en Niels Naglé, Area Lead Data & AI van Info Support, biedt de podcast een uniek perspectief op de praktische toepassing van AI binnen organisaties. Het duo bespreekt de (on)mogelijkheden van AI, de impact ervan op bedrijfsprocessen en hoe organisaties deze technologie kunnen inzetten om hun doelstellingen te bereiken.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Met deskundige gasten uit de industrie en academische wereld, biedt de AIToday Live podcast een platform voor het delen van best practices, innovaties en belangrijke inzichten in de wereld van AI. Van de nieuwste algoritmen en modellen tot de impact van AI op de toekomst van werk, de podcast biedt waardevolle informatie voor iedereen die geïnteresseerd is in AI en de rol die het speelt in organisaties.
Voor exclusieve content over de podcast achter de schermen, aankondiging van gasten en exclusieve artikelen, schrijf je dan in voor de nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E18 - Waar ging Google mis met Gemini's diversiteit?
In deze aflevering van AIToday Live staat een recente gebeurtenis met Google’s Gemini AI-tool centraal. Een misstap in het genereren van afbeeldingen, die diversiteit geforceerd en incorrect toonde, heeft geleid tot een brede discussie over de rol van diversiteit binnen kunstmatige intelligentie.
We gaan dieper in op hoe een gebrek aan diversiteit in trainingsdata leidt tot vooroordelen en een gebrek aan representatie.
Verder bespreken we de verantwoordelijkheid van technologiebedrijven zoals Google in het ontwikkelen van inclusieve en ethisch verantwoorde AI-systemen.
Hoe moet de AI-industrie diversiteit echt integreren, in plaats van het als een 'sausje' toe te voegen?
Deze aflevering nodigt luisteraars uit om na te denken over de maatschappelijke impact van AI en hoe we technologie kunnen gebruiken om een inclusievere samenleving te creëren.
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:08,280
Hoi, leuk dat je weer luistert naar een korte, actuele aflevering van AIToday Live met vandaag
2
00:00:08,280 --> 00:00:14,040
de behoorlijk gênante blunder van Google.
3
00:00:14,040 --> 00:00:20,200
Google heeft afgelopen week officieel zijn excuses aangeboden voor genante en onnauwkeurige
4
00:00:20,200 --> 00:00:24,440
afbeeldingen gegenereerd door zijn nieuwe Gemini AI tool.
5
00:00:24,440 --> 00:00:28,840
De verontschuldiging komt nadat gebruikers problemen hebben gedeeld, vooral op social
6
00:00:28,840 --> 00:00:37,240
media waarbij Gemini ahistorische en raciaal diverse afbeeldingen produceerde voor specifieke
7
00:00:37,240 --> 00:00:44,240
aanwijzingen over groepen als nazi-soldaten en bijvoorbeeld de Amerikaanse founding fathers.
8
00:00:44,240 --> 00:00:50,240
Waarbij de verplichte diversiteit van het model absurd was.
9
00:00:50,240 --> 00:00:56,960
3 van de 4 gegenereerde foto's van nazi's hadden een heel hoog diversiteitsgehalte.
10
00:00:56,960 --> 00:01:00,680
Niet iets waar die nazi's zo onbekend stonden.
11
00:01:00,680 --> 00:01:01,680
Toch?
12
00:01:01,680 --> 00:01:08,400
In een tijd waarin de potentie van AI onbegrensd lijkt, toont deze stap natuurlijk de diep
13
00:01:08,400 --> 00:01:12,840
gewortelde uitdagingen die nog steeds bestaan in het hart van de industrie.
14
00:01:12,840 --> 00:01:18,600
Het incident met Gemini onderstreept niet alleen de technische tekortkomingen, maar
15
00:01:18,600 --> 00:01:20,640
ook een dieper maatschappelijk probleem.
16
00:01:20,640 --> 00:01:25,600
Diversiteit en AI machine learning kan geen afterthought zijn.
17
00:01:25,600 --> 00:01:30,720
Het is een principe dat Google op harde wijze heeft moeten leren.
18
00:01:30,720 --> 00:01:34,480
Zo hebben ze de mogelijkheid om foto's te genereren tijdelijk uitgezet.
19
00:01:34,480 --> 00:01:40,720
Dit moet wel een moment van zelfreflectie zijn voor een van de grootste spelers op het techtoneel.
20
00:01:40,720 --> 00:01:44,920
En het biedt een cruciale les wat mij betreft voor de gehele sector.
21
00:01:44,920 --> 00:01:51,640
De noodzaak om diversiteit en inclusiviteit als fundamentele waarde in de kern van AI
22
00:01:51,640 --> 00:01:52,640
ontwikkeling te plaatsen.
23
00:01:52,640 --> 00:01:59,120
Googles aanpak waarbij de gestelde prompt van gebruikers worden gewijzigd, want dat
24
00:01:59,120 --> 00:02:08,680
gebeurde door, wanneer de prompt over mensen ging, voegden ze daar als eis diversiteit
25
00:02:08,680 --> 00:02:09,680
aan toe.
26
00:02:09,680 --> 00:02:14,240
Dat is natuurlijk ontzettend problematisch en ook wel flink kunstel toch.
27
00:02:14,240 --> 00:02:19,200
Alsof je aan het eind nog even kan zeggen "doe ook nog even een diversiteitssausje".
28
00:02:19,200 --> 00:02:24,840
Het laat zien dat er iets fundamenteel mis is met de wijze waarop Big Tech omgaat met
29
00:02:24,840 --> 00:02:25,840
representatie.
30
00:02:25,840 --> 00:02:31,960
Het manipuleren van prompts om diversiteit te forceren behandelt slechts de symptomen
31
00:02:31,960 --> 00:02:33,760
van het probleem en niet de oorzaak.
32
00:02:33,760 --> 00:02:40,080
Het risico van dergelijke aanpassingen is dat ze kunnen leiden tot onnauwkeurige representatie,
33
00:02:40,080 --> 00:02:45,880
stereotypering of zelfs het uitwissen van bepaalde groepen uit de gegenereerde afbeeldingen.
34
00:02:45,880 --> 00:02:53,840
Dit benadrukt een gebrek aan begrip van de complexiteit en nuances van dit issue.
35
00:02:53,840 --> 00:03:00,160
Het probleem met veel huidige AI-systemen ligt niet alleen in de algoritme zelf, maar
36
00:03:00,160 --> 00:03:02,880
juist in de data waarop ze getraind zijn.
37
00:03:02,880 --> 00:03:07,040
De data vormt de basis van elke AI-machine-learning-operatie.
38
00:03:07,040 --> 00:03:12,200
Het voedt het systeem, beïnvloedt de besluitvorming en bepaalt de uitkomst.
39
00:03:12,200 --> 00:03:19,520
Als deze data een gebrek aan diversiteit vertoont, is de uitkomst inherent bevooroordeeld en beperkt.
40
00:03:19,520 --> 00:03:25,960
Het aanpakken van dit probleem door simpelweg de data te veranderen in plaats van te proberen
41
00:03:25,960 --> 00:03:31,040
het gebrek aan diversiteit kunstmatig te verbergen in de resultaten, is een stap in de richting
42
00:03:31,040 --> 00:03:32,040
van de oplossing.
43
00:03:32,040 --> 00:03:38,880
Het veranderen van de data betekent het erkennen van en het actief zoeken naar een breed scala
44
00:03:38,880 --> 00:03:42,400
data-en perspectieven en ervaringen om in de dataset op te nemen.
45
00:03:42,400 --> 00:03:50,400
Ook vind ik dat als bedrijven zoals Google met hun immense invloed in middelen AI-systemen
46
00:03:50,400 --> 00:03:54,880
op de markt brengen, dan dragen ze een aanzienlijke verantwoordelijkheid.
47
00:03:54,880 --> 00:03:58,880
Met deze technologie hebben we de kracht om de manier waarop we leven, werken en met elkaar
48
00:03:58,880 --> 00:04:01,240
omgaan fundamenteel te veranderen.
49
00:04:01,240 --> 00:04:07,160
Daarmee komt de plicht om ervoor te zorgen dat deze veranderingen ten goede komen aan
50
00:04:07,160 --> 00:04:09,360
iedereen ongeacht hun achtergrond.
51
00:04:09,360 --> 00:04:16,080
Het recente incident met Google's Gemini toont aan dat er een soort van haast is geweest
52
00:04:16,080 --> 00:04:22,480
om competitief te blijven met rivalen zoals OpenAI, waardoor cruciale stappen in het waarborgen
53
00:04:22,480 --> 00:04:26,120
van ethische en inclusieve praktijken zijn overgeslagen.
54
00:04:26,120 --> 00:04:32,040
Vergeet je niet, OpenAI heeft vergelijkbare uitdagingen op het gebied van diversiteit
55
00:04:32,040 --> 00:04:33,040
en inclusie.
56
00:04:33,040 --> 00:04:38,160
Alleen lijken zij die beter verbloemd te hebben, misschien dankzij hun voorsprong in
57
00:04:38,160 --> 00:04:39,160
de markt.
58
00:04:39,160 --> 00:04:42,200
Dat betekent niet dat het probleem opgelost is.
59
00:04:42,200 --> 00:04:48,520
Zowel OpenAI als alle andere spelers in het veld staan voor de enorme taak om hun datasets
60
00:04:48,520 --> 00:04:53,960
en algoritmes voortdurend te evalueren en aan te passen, met als doel een eerlijkere
61
00:04:53,960 --> 00:04:56,200
vertegenwoordiging en behandeling van alle gebruikers.
62
00:04:56,200 --> 00:05:05,000
En dat is lastig, want de herkomst van de data is nauwelijks te achterhalen voor ze
63
00:05:05,000 --> 00:05:09,880
en de hoeveelheid maakt het schier onmogelijk om de ernst van de diversiteitsproblemen te
64
00:05:09,880 --> 00:05:10,880
onderzoeken.
65
00:05:10,880 --> 00:05:14,920
Dit brengt ons bij een fundamenteel punt.
66
00:05:14,920 --> 00:05:20,740
De ontwikkeling van AI kan niet los worden gezien van de maatschappelijke context waarin
67
00:05:20,740 --> 00:05:22,560
deze technologieën functioneren.
68
00:05:22,560 --> 00:05:28,760
Het gaat niet alleen om de technische uitvoering, maar ook om de ethische overwegingen en de
69
00:05:28,760 --> 00:05:31,400
maatschappelijke impact van deze systemen.
70
00:05:31,400 --> 00:05:36,760
De technologie-industrie moet de verantwoordelijkheid nemen om te zorgen voor inclusieve eerlijke
71
00:05:36,760 --> 00:05:38,640
en diverse AI-systemen.
72
00:05:38,640 --> 00:05:45,840
Dit vereist een voortdurende dialoog met gemeenschappen, etici en experts uit verschillende velden.
73
00:05:45,840 --> 00:05:51,880
Evenal een bereidheid om te leren van fouten en deze actief te corrigeren.
74
00:05:51,880 --> 00:05:54,440
Daarnaast is transparantie cruciaal.
75
00:05:54,440 --> 00:05:58,920
Bedrijven moeten open zijn over de data die ze gebruiken, de besluitvormingsprocessen
76
00:05:58,920 --> 00:06:03,840
van de algoritmes en de maatregelen die ze nemen om veroordelen en discriminatie tegen
77
00:06:03,840 --> 00:06:04,840
te gaan.
78
00:06:04,840 --> 00:06:09,840
Dit zal het vertrouwen opbouwen bij gebruikers en de gemeenschap in staat stellen om feedback
79
00:06:09,840 --> 00:06:13,960
te geven en deel te nemen aan het vormgeven van de toekomst van AI.
80
00:06:13,960 --> 00:06:19,400
Laten we het debacle van Google zien als een wake-up call voor de hele industrie om te
81
00:06:19,400 --> 00:06:25,160
erkennen dat echte vooruitgang in AI niet kan worden bereikt zonder een fundamentele toewijding
82
00:06:25,160 --> 00:06:29,320
aan diversiteit, inclusie en ethische verantwoordelijkheid.
83
00:06:29,320 --> 00:06:34,640
Als we een toekomst willen bouwen waarin AI de mensheid ten goede komt, moeten we beginnen
84
00:06:34,640 --> 00:06:41,120
met het bouwen van systemen die alle aspecten van menselijke diversiteit waarderen en weerspiegelen.
85
00:06:41,120 --> 00:06:45,120
Wat vind jij van deze problematiek?
86
00:06:45,120 --> 00:06:48,760
Laat het ons weten op de socials of mail ons.
87
00:06:48,760 --> 00:06:50,800
Ik ben erg benieuwd naar je reacties.
88
00:06:50,800 --> 00:06:54,080
Mijn naam Joop Snijder, CTO bij Aigency.
89
00:06:54,080 --> 00:06:55,440
Dankjewel weer voor het luisteren.
90
00:06:55,760 --> 00:06:59,760
[Muziek]