AIToday Live

S06E18 - Waar ging Google mis met Gemini's diversiteit?

Aigency by Info Support Season 6 Episode 18

Stuur ons een bericht

In deze aflevering van AIToday Live staat een recente gebeurtenis met Google’s Gemini AI-tool centraal. Een misstap in het genereren van afbeeldingen, die diversiteit geforceerd en incorrect toonde, heeft geleid tot een brede discussie over de rol van diversiteit binnen kunstmatige intelligentie.

We gaan dieper in op hoe een gebrek aan diversiteit in trainingsdata leidt tot vooroordelen en een gebrek aan representatie. 

Verder bespreken we de verantwoordelijkheid van technologiebedrijven zoals Google in het ontwikkelen van inclusieve en ethisch verantwoorde AI-systemen.

Hoe moet de AI-industrie diversiteit echt integreren, in plaats van het als een 'sausje' toe te voegen? 

Deze aflevering nodigt luisteraars uit om na te denken over de maatschappelijke impact van AI en hoe we technologie kunnen gebruiken om een inclusievere samenleving te creëren.

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:08,280
Hoi, leuk dat je weer luistert naar een korte, actuele aflevering van AIToday Live met vandaag

2
00:00:08,280 --> 00:00:14,040
de behoorlijk gênante blunder van Google.

3
00:00:14,040 --> 00:00:20,200
Google heeft afgelopen week officieel zijn excuses aangeboden voor genante en onnauwkeurige

4
00:00:20,200 --> 00:00:24,440
afbeeldingen gegenereerd door zijn nieuwe Gemini AI tool.

5
00:00:24,440 --> 00:00:28,840
De verontschuldiging komt nadat gebruikers problemen hebben gedeeld, vooral op social

6
00:00:28,840 --> 00:00:37,240
media waarbij Gemini ahistorische en raciaal diverse afbeeldingen produceerde voor specifieke

7
00:00:37,240 --> 00:00:44,240
aanwijzingen over groepen als nazi-soldaten en bijvoorbeeld de Amerikaanse founding fathers.

8
00:00:44,240 --> 00:00:50,240
Waarbij de verplichte diversiteit van het model absurd was.

9
00:00:50,240 --> 00:00:56,960
3 van de 4 gegenereerde foto's van nazi's hadden een heel hoog diversiteitsgehalte.

10
00:00:56,960 --> 00:01:00,680
Niet iets waar die nazi's zo onbekend stonden.

11
00:01:00,680 --> 00:01:01,680
Toch?

12
00:01:01,680 --> 00:01:08,400
In een tijd waarin de potentie van AI onbegrensd lijkt, toont deze stap natuurlijk de diep

13
00:01:08,400 --> 00:01:12,840
gewortelde uitdagingen die nog steeds bestaan in het hart van de industrie.

14
00:01:12,840 --> 00:01:18,600
Het incident met Gemini onderstreept niet alleen de technische tekortkomingen, maar

15
00:01:18,600 --> 00:01:20,640
ook een dieper maatschappelijk probleem.

16
00:01:20,640 --> 00:01:25,600
Diversiteit en AI machine learning kan geen afterthought zijn.

17
00:01:25,600 --> 00:01:30,720
Het is een principe dat Google op harde wijze heeft moeten leren.

18
00:01:30,720 --> 00:01:34,480
Zo hebben ze de mogelijkheid om foto's te genereren tijdelijk uitgezet.

19
00:01:34,480 --> 00:01:40,720
Dit moet wel een moment van zelfreflectie zijn voor een van de grootste spelers op het techtoneel.

20
00:01:40,720 --> 00:01:44,920
En het biedt een cruciale les wat mij betreft voor de gehele sector.

21
00:01:44,920 --> 00:01:51,640
De noodzaak om diversiteit en inclusiviteit als fundamentele waarde in de kern van AI

22
00:01:51,640 --> 00:01:52,640
ontwikkeling te plaatsen.

23
00:01:52,640 --> 00:01:59,120
Googles aanpak waarbij de gestelde prompt van gebruikers worden gewijzigd, want dat

24
00:01:59,120 --> 00:02:08,680
gebeurde door, wanneer de prompt over mensen ging, voegden ze daar als eis diversiteit

25
00:02:08,680 --> 00:02:09,680
aan toe.

26
00:02:09,680 --> 00:02:14,240
Dat is natuurlijk ontzettend problematisch en ook wel flink kunstel toch.

27
00:02:14,240 --> 00:02:19,200
Alsof je aan het eind nog even kan zeggen "doe ook nog even een diversiteitssausje".

28
00:02:19,200 --> 00:02:24,840
Het laat zien dat er iets fundamenteel mis is met de wijze waarop Big Tech omgaat met

29
00:02:24,840 --> 00:02:25,840
representatie.

30
00:02:25,840 --> 00:02:31,960
Het manipuleren van prompts om diversiteit te forceren behandelt slechts de symptomen

31
00:02:31,960 --> 00:02:33,760
van het probleem en niet de oorzaak.

32
00:02:33,760 --> 00:02:40,080
Het risico van dergelijke aanpassingen is dat ze kunnen leiden tot onnauwkeurige representatie,

33
00:02:40,080 --> 00:02:45,880
stereotypering of zelfs het uitwissen van bepaalde groepen uit de gegenereerde afbeeldingen.

34
00:02:45,880 --> 00:02:53,840
Dit benadrukt een gebrek aan begrip van de complexiteit en nuances van dit issue.

35
00:02:53,840 --> 00:03:00,160
Het probleem met veel huidige AI-systemen ligt niet alleen in de algoritme zelf, maar

36
00:03:00,160 --> 00:03:02,880
juist in de data waarop ze getraind zijn.

37
00:03:02,880 --> 00:03:07,040
De data vormt de basis van elke AI-machine-learning-operatie.

38
00:03:07,040 --> 00:03:12,200
Het voedt het systeem, beïnvloedt de besluitvorming en bepaalt de uitkomst.

39
00:03:12,200 --> 00:03:19,520
Als deze data een gebrek aan diversiteit vertoont, is de uitkomst inherent bevooroordeeld en beperkt.

40
00:03:19,520 --> 00:03:25,960
Het aanpakken van dit probleem door simpelweg de data te veranderen in plaats van te proberen

41
00:03:25,960 --> 00:03:31,040
het gebrek aan diversiteit kunstmatig te verbergen in de resultaten, is een stap in de richting

42
00:03:31,040 --> 00:03:32,040
van de oplossing.

43
00:03:32,040 --> 00:03:38,880
Het veranderen van de data betekent het erkennen van en het actief zoeken naar een breed scala

44
00:03:38,880 --> 00:03:42,400
data-en perspectieven en ervaringen om in de dataset op te nemen.

45
00:03:42,400 --> 00:03:50,400
Ook vind ik dat als bedrijven zoals Google met hun immense invloed in middelen AI-systemen

46
00:03:50,400 --> 00:03:54,880
op de markt brengen, dan dragen ze een aanzienlijke verantwoordelijkheid.

47
00:03:54,880 --> 00:03:58,880
Met deze technologie hebben we de kracht om de manier waarop we leven, werken en met elkaar

48
00:03:58,880 --> 00:04:01,240
omgaan fundamenteel te veranderen.

49
00:04:01,240 --> 00:04:07,160
Daarmee komt de plicht om ervoor te zorgen dat deze veranderingen ten goede komen aan

50
00:04:07,160 --> 00:04:09,360
iedereen ongeacht hun achtergrond.

51
00:04:09,360 --> 00:04:16,080
Het recente incident met Google's Gemini toont aan dat er een soort van haast is geweest

52
00:04:16,080 --> 00:04:22,480
om competitief te blijven met rivalen zoals OpenAI, waardoor cruciale stappen in het waarborgen

53
00:04:22,480 --> 00:04:26,120
van ethische en inclusieve praktijken zijn overgeslagen.

54
00:04:26,120 --> 00:04:32,040
Vergeet je niet, OpenAI heeft vergelijkbare uitdagingen op het gebied van diversiteit

55
00:04:32,040 --> 00:04:33,040
en inclusie.

56
00:04:33,040 --> 00:04:38,160
Alleen lijken zij die beter verbloemd te hebben, misschien dankzij hun voorsprong in

57
00:04:38,160 --> 00:04:39,160
de markt.

58
00:04:39,160 --> 00:04:42,200
Dat betekent niet dat het probleem opgelost is.

59
00:04:42,200 --> 00:04:48,520
Zowel OpenAI als alle andere spelers in het veld staan voor de enorme taak om hun datasets

60
00:04:48,520 --> 00:04:53,960
en algoritmes voortdurend te evalueren en aan te passen, met als doel een eerlijkere

61
00:04:53,960 --> 00:04:56,200
vertegenwoordiging en behandeling van alle gebruikers.

62
00:04:56,200 --> 00:05:05,000
En dat is lastig, want de herkomst van de data is nauwelijks te achterhalen voor ze

63
00:05:05,000 --> 00:05:09,880
en de hoeveelheid maakt het schier onmogelijk om de ernst van de diversiteitsproblemen te

64
00:05:09,880 --> 00:05:10,880
onderzoeken.

65
00:05:10,880 --> 00:05:14,920
Dit brengt ons bij een fundamenteel punt.

66
00:05:14,920 --> 00:05:20,740
De ontwikkeling van AI kan niet los worden gezien van de maatschappelijke context waarin

67
00:05:20,740 --> 00:05:22,560
deze technologieën functioneren.

68
00:05:22,560 --> 00:05:28,760
Het gaat niet alleen om de technische uitvoering, maar ook om de ethische overwegingen en de

69
00:05:28,760 --> 00:05:31,400
maatschappelijke impact van deze systemen.

70
00:05:31,400 --> 00:05:36,760
De technologie-industrie moet de verantwoordelijkheid nemen om te zorgen voor inclusieve eerlijke

71
00:05:36,760 --> 00:05:38,640
en diverse AI-systemen.

72
00:05:38,640 --> 00:05:45,840
Dit vereist een voortdurende dialoog met gemeenschappen, etici en experts uit verschillende velden.

73
00:05:45,840 --> 00:05:51,880
Evenal een bereidheid om te leren van fouten en deze actief te corrigeren.

74
00:05:51,880 --> 00:05:54,440
Daarnaast is transparantie cruciaal.

75
00:05:54,440 --> 00:05:58,920
Bedrijven moeten open zijn over de data die ze gebruiken, de besluitvormingsprocessen

76
00:05:58,920 --> 00:06:03,840
van de algoritmes en de maatregelen die ze nemen om veroordelen en discriminatie tegen

77
00:06:03,840 --> 00:06:04,840
te gaan.

78
00:06:04,840 --> 00:06:09,840
Dit zal het vertrouwen opbouwen bij gebruikers en de gemeenschap in staat stellen om feedback

79
00:06:09,840 --> 00:06:13,960
te geven en deel te nemen aan het vormgeven van de toekomst van AI.

80
00:06:13,960 --> 00:06:19,400
Laten we het debacle van Google zien als een wake-up call voor de hele industrie om te

81
00:06:19,400 --> 00:06:25,160
erkennen dat echte vooruitgang in AI niet kan worden bereikt zonder een fundamentele toewijding

82
00:06:25,160 --> 00:06:29,320
aan diversiteit, inclusie en ethische verantwoordelijkheid.

83
00:06:29,320 --> 00:06:34,640
Als we een toekomst willen bouwen waarin AI de mensheid ten goede komt, moeten we beginnen

84
00:06:34,640 --> 00:06:41,120
met het bouwen van systemen die alle aspecten van menselijke diversiteit waarderen en weerspiegelen.

85
00:06:41,120 --> 00:06:45,120
Wat vind jij van deze problematiek?

86
00:06:45,120 --> 00:06:48,760
Laat het ons weten op de socials of mail ons.

87
00:06:48,760 --> 00:06:50,800
Ik ben erg benieuwd naar je reacties.

88
00:06:50,800 --> 00:06:54,080
Mijn naam Joop Snijder, CTO bij Aigency.

89
00:06:54,080 --> 00:06:55,440
Dankjewel weer voor het luisteren.

90
00:06:55,760 --> 00:06:59,760
[Muziek]


People on this episode