AIToday Live

S06E71 - De rol van Women in AI: inspiratie voor de nieuwe generatie - met Suzan Al-Nassar

September 01, 2024 Aigency by Info Support Season 6 Episode 71

Suzan, een enthousiaste data- en AI-consultant bij Info Support, deelt haar passie voor kunstmatige intelligentie en haar inzet voor Women in AI. Ze vertelt over haar reis naar AI, haar ervaringen tijdens haar studie en haar werk bij Info Support.

Suzan benadrukt het belang van rolmodellen en diversiteit in de technologie. Ze wil jonge meiden inspireren en laten zien dat AI voor iedereen toegankelijk is.

Luister mee naar dit inspirerende gesprek over de impact van AI op de samenleving en de toekomst van vrouwen in de technologie.

Links

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:07,880
Hoi, welkom bij een nieuwe aflevering van AIToday Live. Dit is de Nederlandse podcast over

2
00:00:07,880 --> 00:00:14,240
kunstmatige intelligentie en in elke aflevering op de maandag, komt die altijd live, spreken we

3
00:00:14,240 --> 00:00:19,600
met experts op het gebied van AI. En of je nu een zakelijke professional, IT-specialist of AI

4
00:00:19,600 --> 00:00:24,040
enthousiasteling bent, wij bieden je waardevolle inzichten en duidelijke uitleg over de nieuwste

5
00:00:24,040 --> 00:00:28,680
ontwikkelingen en toepassingen in de wereld van AI. Mijn naam Joop Snijder, CTO bij Aigency.

6
00:00:28,680 --> 00:00:35,520
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support. En vandaag hebben we ook vanuit Info Support,

7
00:00:35,520 --> 00:00:40,840
hebben wij Suzan te gast. Suzan, zou je je eerst even willen voorstellen aan de luisteraars?

8
00:00:40,840 --> 00:00:47,200
Ja natuurlijk, dankjewel Joop. Hallo allemaal, ik ben Suzan, ik ben 24 jaar. Ik ben recentelijk

9
00:00:47,200 --> 00:00:54,720
afgestudeerd aan de Universiteit Leiden. Ik deed de master Computer Science met Artificial

10
00:00:54,720 --> 00:01:00,840
Intelligence als specialisatie. En ik heb ook mijn scriptie bij Info Support geschreven en dat is

11
00:01:00,840 --> 00:01:06,320
eigenlijk hoe ik bij Info Support terecht kwam. En sinds enkele maanden ben ik in dienst bij Info Support

12
00:01:06,320 --> 00:01:13,400
als data en AI consultant. Ja en waar we het vandaag specifiek over gaan hebben, is jouw

13
00:01:13,400 --> 00:01:21,160
lidmaatschap bij Women in AI. Ja, eigenlijk toen ik mijn carrière begon, toen ik echt begon met

14
00:01:21,160 --> 00:01:29,320
werken, dacht ik ik wil sowieso hiernaast wat gaan doen om echt alles uit mijn nut te halen wat ik

15
00:01:29,320 --> 00:01:37,480
kan halen. En toen ben ik een beetje gaan kijken en kwam ik Women in AI tegen. Ja, dat is een

16
00:01:37,480 --> 00:01:44,200
vrijwilligersorganisatie die zich richt op het helpen en ondersteunen van vrouwen in AI specifiek.

17
00:01:44,200 --> 00:01:51,400
Dat klinkt als een belangrijke taak. Maar misschien kan jij vertellen,

18
00:01:51,400 --> 00:01:58,960
waarom vind jij het eigenlijk belangrijk? Dat is een goede vraag. Ja, eigenlijk dacht ik er zelf

19
00:01:58,960 --> 00:02:05,400
nooit aan om iets in informatica überhaupt te gaan doen. Op de middelbare school hadden we wel het

20
00:02:05,400 --> 00:02:11,720
vak informatica, maar ik dacht nou dat is niks voor mij. Er kwam toen iemand praten om te vertellen

21
00:02:11,720 --> 00:02:17,200
wat het was en ik merkte dat hij zich ook echt richtte op de mannen. De mannen waren er enthousiast

22
00:02:17,200 --> 00:02:20,720
van en de vrouwen hadden een beetje van ja, het zal wel, weet je, we moeten dit eventjes doorstaan.

23
00:02:20,720 --> 00:02:30,720
Zo zat ik er eigenlijk ook in. Ik hield wel altijd van de beta vakken. Ik had wiskunde B en natuurkunde

24
00:02:30,720 --> 00:02:37,320
waar ik me profiel. Die beta vakken lagen mij wel echt. Maar ik weet niet, ja, informatica,

25
00:02:37,320 --> 00:02:41,240
ik dacht er gewoon nooit aan. Ik dacht dat is veel te moeilijk, niks voor mij. Dus ik was ook

26
00:02:41,240 --> 00:02:46,960
eigenlijk begon met wiskunde als studie. Maar er waren wat studenten die de dubbele bachelor deden

27
00:02:46,960 --> 00:02:51,920
van wiskunde en informatica. En als wiskundestudent had ik ook een programmeervak wat ik verplicht

28
00:02:51,920 --> 00:02:57,240
moest volgen. Dus zo kwam ik een beetje een aanraking daarmee. En na een maand dacht ik

29
00:02:57,240 --> 00:03:03,760
eigenlijk ja, misschien had ik toch informatica moeten studeren. En toen was ik geswitched. Dat

30
00:03:03,760 --> 00:03:10,680
was wel heel ongelukkig. Ik heb er geen moment spijt van gehad. Alleen in de collegezalen waren

31
00:03:10,680 --> 00:03:18,280
er echt gewoon op twee handen vrouwen te tellen. Een stuk of zes, zeven, inclusief ik. En dan gaat

32
00:03:18,280 --> 00:03:26,600
het wel echt om honderd studenten in totaal, zeg maar. En ik dacht ja, waar zijn ze? En toen dacht

33
00:03:26,600 --> 00:03:34,360
ik eigenlijk op dat moment deed ik er verder nog niks mee. Je had wel Girls in Science dagen bij

34
00:03:34,360 --> 00:03:39,760
ons op de uni. Dus daar kwam ik al een beetje een aanraking mee. Dat er dus ook veel steun was

35
00:03:39,760 --> 00:03:46,920
voor vrouwen in informatica en beta vakken. Maar verder had ik er nog niet echt iets actiefs mee

36
00:03:46,920 --> 00:03:52,760
gedaan. En toen later dacht ik eigenlijk, hoe kan dat nou eigenlijk? Hoe kan het zo zijn dat er zo

37
00:03:52,760 --> 00:03:59,280
weinig vrouwen in de IT zijn, in überhaupt beta vakken? En toen dacht ik na bij mezelf,

38
00:03:59,280 --> 00:04:05,320
van oh ja, hoe ging dat bij mij? Ik had ook een beetje dat beeld van nee, dit is niks voor mij.

39
00:04:05,320 --> 00:04:12,560
Maar dat was eigenlijk nergens echt op gebaseerd. Waarschijnlijk wel wat stereotypes. Toen dacht ik,

40
00:04:12,560 --> 00:04:20,320
ja, er moeten wel wat veranderingen komen. En daar vond ik dus Women in AI in. En ja,

41
00:04:20,320 --> 00:04:27,080
ik ben er nu vrijwilliger een tijdje. En ik merk echt dat zij zich alles op alles inzetten om vrouwen

42
00:04:27,080 --> 00:04:36,640
te inspireren. Om vrouwen te betrekken in de informatica, in AI. Maar ook om jonge meiden

43
00:04:36,640 --> 00:04:44,200
eigenlijk al in aanraking te laten komen met AI. En jong, waar hebben we het dan over? Vanaf de

44
00:04:44,200 --> 00:04:49,960
leeftijd van veertien. Oh ja, dat is zeker jong. Ja, want dan hebben ze nog geen profielkeuze gemaakt

45
00:04:49,960 --> 00:04:55,720
wat ze daarna willen doen. Op de middelbare school tenminste. Dus dan kan je nog altijd die

46
00:04:55,720 --> 00:05:02,600
keuze daarna maken. En als je ze dan op die leeftijd al in aanraking brengt met AI en ook

47
00:05:02,600 --> 00:05:09,240
laat zien van kijk, dit is niet alleen iets wat je in een donkere kamer doet. Met pizza en cola. Ja,

48
00:05:09,240 --> 00:05:15,960
precies. Dan gaan zij toch misschien anders naar kijken dan hoe ik in hun op die leeftijd dacht.

49
00:05:15,960 --> 00:05:22,360
Want ja, AI is natuurlijk niet alleen maar getalletjes, cijfertjes en eentjes en nullen.

50
00:05:22,360 --> 00:05:29,080
Het is zoveel meer. En we hebben er allemaal mee te maken op de dagelijkse basis. Maar die

51
00:05:29,080 --> 00:05:35,040
realisatie komt natuurlijk niet echt door bij mensen. En waar je nu staat, wat je nu weet,

52
00:05:35,040 --> 00:05:40,400
als je even terug zou gaan, wat zou er dan in zo'n presentatie op de middelbare school naar

53
00:05:40,400 --> 00:05:45,440
jou verteld moeten zijn, waardoor je anders zou gaan denken? Is dat voor jezelf in te vullen met

54
00:05:45,440 --> 00:05:51,080
de reis die je nu hebt meegemaakt? Ja, ik denk dat het zou helpen als je niet alleen misschien een

55
00:05:51,080 --> 00:05:56,240
man als rol zou hebben, maar ook een vrouw. Dus misschien allebei. Want dan zie je het van beide

56
00:05:56,240 --> 00:06:01,880
kanten. Want ik vind het belangrijk dat niet alles nu geskipt wordt door de mannen en dat het alleen

57
00:06:01,880 --> 00:06:07,280
maar vrouwen moet zijn. Ik vind het belangrijk dat die balans er is tussen de twee. Maar had het

58
00:06:07,280 --> 00:06:13,520
geholpen als die vrouw hetzelfde verhaal had verteld als de man? Ja, ik moet hierbij zeggen

59
00:06:13,520 --> 00:06:19,240
dat die man die die presentatie gaf, dat is wel echt zo'n typische... Je mag gewoon alles zeggen

60
00:06:19,240 --> 00:06:24,480
wat je wil. Ja, een stereotype. Best wel een nerd. Een hele grappige persoonlijkheid wel.

61
00:06:24,480 --> 00:06:32,120
Maar wel echt... Ik weet niet of als dat een vrouw was geweest of zij die presentatie dan op dezelfde

62
00:06:32,120 --> 00:06:39,200
manier had gegeven. Om een beetje te prikkelen. Ja, maar ik denk dat die combinatie het allerleukste

63
00:06:39,200 --> 00:06:45,840
was geweest. Want dan zie je toch van beide kanten hoe dat gaat. Ik wil je toch iets verder uitdagen

64
00:06:45,840 --> 00:06:51,360
op die vraag van Niels. Wat had je nou willen horen? Dat is wat je toen niet wist. Dus we

65
00:06:51,360 --> 00:06:57,280
hebben nu luisteraars die dochters hebben in de leeftijdscategorie misschien 14 tot en met 18.

66
00:06:57,280 --> 00:07:05,760
Wat had jij toen willen horen wat je nu eigenlijk weet? Ik denk voornamelijk wat je ermee kan en

67
00:07:05,760 --> 00:07:12,280
wat je op dit moment mee doet. Hoe je het gebruikt en echt vanuit de praktische kant. De impact die

68
00:07:12,280 --> 00:07:20,960
je kan maken. Ja, want met informatica überhaupt heb je al zoveel impact op de maatschappij. En

69
00:07:20,960 --> 00:07:25,640
als je dat meer naar voren zou brengen in plaats van echt. Hij ging het echt hebben over de technische

70
00:07:25,640 --> 00:07:33,440
kant van wat je dan gaat doen. Volgens mij had hij het over een webapp maken of zo. Oké, leuk man.

71
00:07:33,440 --> 00:07:41,960
Leuk voor je. Geef me gewoon wat meer context. Geef me wat meer wat kan ik hiermee. Als ze misschien

72
00:07:41,960 --> 00:07:45,880
voorbeelden hadden gegeven van wat het zou betekenen bijvoorbeeld in de gezondheidszorg.

73
00:07:45,880 --> 00:07:52,360
Wat voor veranderingen je daar teweeg brengt met deze technologie. Wat het misschien betekent op

74
00:07:52,360 --> 00:07:58,920
het gebied van maatschappelijke veranderingen. Dat soort zaken. Ja, zulke zaken inderdaad. Maar

75
00:07:58,920 --> 00:08:04,720
ook misschien dingen zoals mode, fashion. Daar wordt het natuurlijk ook steeds meer in gezet.

76
00:08:04,720 --> 00:08:10,400
Daar zou ik ook niet meteen aan denken. Oh ja, wat goed. Ik vind het gewoon hartstikke leuk om echt

77
00:08:10,400 --> 00:08:18,280
in alle contexten een beetje te zien hoe dat gebruikt wordt. Misschien even een zijsprong.

78
00:08:18,280 --> 00:08:25,160
Want juist omdat je haalt dit aan. Ik bedenk dat niet. Welke dingen zie jij in die mode, fashion,

79
00:08:25,160 --> 00:08:35,040
wat een verandering geweest is door de AI? Bijvoorbeeld online al dat je dingen kan

80
00:08:35,040 --> 00:08:40,680
uitproberen. Dat vind ik, dat is nog wel in de ontwikkeling. Maar ik heb dat wel al gezien. Dat

81
00:08:40,680 --> 00:08:45,640
je dan voor de camera staat en dat je dan bijvoorbeeld een kleding item kan uitproberen.

82
00:08:45,640 --> 00:08:50,400
Dat je ziet hoe dat eruit ziet op jouw eigen lichaam. Ik hou echt niet van online shoppen.

83
00:08:50,400 --> 00:08:55,880
Maar omdat tegenwoordig alles steeds meer online wordt. Ze zijn er in de winkels, in de echte winkels

84
00:08:55,880 --> 00:08:59,720
steeds minder kleding. Winkels sluiten. Dus eigenlijk word je een soort van geforceerd om

85
00:08:59,720 --> 00:09:04,080
toch online te gaan shoppen. Maar het nadeel is dat je dan niet weet hoe het staat. Dat je gaat
 
00:09:04,080 --> 00:09:10,680
dit mee passen. En als er dan zo'n ontwikkeling in komt. Dat je jezelf kan zien met dat kledingstuk
 86
00:09:04,080 --> 00:09:10,680
aan. En dat dat dan best wel goed eruit ziet. Ik vind dat best een fijne ontwikkeling.
 87
00:09:10,680 --> 00:09:17,120
Nou en er zit meer aan vast. Want als jij weet hoe het bij jou staat. Kan je dat beter beoordelen.
 88
00:09:17,120 --> 00:09:24,120
Bestel je waarschijnlijk minder. Want er zijn heel veel mensen die het in zoveel maten, zoveel
 89
00:09:24,120 --> 00:09:28,880
kleuren. Dat soort dingen bestellen. En eigenlijk het grootste deel weer terugsturen. Wat uiteindelijk
 90
00:09:28,880 --> 00:09:33,040
niet echt een hele duurzame optie is. Nee eigenlijk iedereen die ik ken die bestelt.
 91
00:09:33,040 --> 00:09:38,040
Die bestelt altijd meerdere maten. Want dan zou je zou verzendkosten moeten betalen. Dan
 92
00:09:38,040 --> 00:09:43,000
heb je dat maar één keer te doen. En maar één keer de retourkosten. En sommige, de meeste winkels
 93
00:09:43,000 --> 00:09:47,720
hebben geen eens verzend- en retourkosten bij een bepaald aantal. Ja precies. Dus als je dat soort
 94
00:09:47,720 --> 00:09:51,840
dingen gehoord zou hebben. Zou in ieder geval de kans groter zijn geweest. Dat je dat je dit zou in
 95
00:09:51,840 --> 00:09:58,200
overweging zou hebben gedaan. Ja dat denk ik wel. Dus het zou niet alleen helpen. We waren even
 96
00:09:58,200 --> 00:10:02,760
terug te komen dat het door een dame zou verteld worden. Dus het is een combinatie van verschillende
 97
00:10:02,760 --> 00:10:07,600
rollen daar terug zien. En ook breder dan alleen de technische impact. En de technische implementatie.
 98
00:10:07,600 --> 00:10:13,560
Maar ook de impact en de omgeving en de werkzaamheden. Ja het is echt een combinatie van
 99
00:10:13,560 --> 00:10:17,640
dingen inderdaad. Ja en ja ik kan nooit 100% zeker weten als het op die manier ging. Wat ik dan had
 100
00:10:17,640 --> 00:10:24,320
gedaan. Tuurlijk niet. Maar het zou zeker helpen in mijn opinie. Ja dus ook een call out naar iedereen
 101
00:10:24,320 --> 00:10:30,840
die de jeugd presenteert over wat is het vakgebied. Breder dan een techniek en de implementatie. Maar
 102
00:10:30,840 --> 00:10:37,080
ook even de context eromheen. Vergeet dat niet mee te nemen. En met waar en hoe je het kan toepassen.
 103
00:10:37,080 --> 00:10:41,800
Ja wij geven zelf, Niels en ik geven zelf ook vaak presentaties. Overal en nergens. Wat zou
 104
00:10:41,800 --> 00:10:49,640
nou een praktische tip misschien kunnen zijn. Als we dit brainstormen hier. Wat wij zouden kunnen
 105
00:10:49,640 --> 00:10:56,160
doen om niet zeg maar die man te zijn die jij voor je neus hebt gehad. En we kunnen niet altijd
 106
00:10:56,160 --> 00:11:05,000
iemand meenemen. Nee zeker waar. Want als man moet je natuurlijk ook het verhaal kunnen verkopen.
 107
00:11:05,000 --> 00:11:09,880
Ik denk dat je dan misschien over je eigen ervaringen kan vertellen. Wat zichtbaar is
 108
00:11:09,880 --> 00:11:21,280
naar de wereld toe. Dat je het echt tastbaar maakt voor mensen waar jij over vertelt. Want
 109
00:11:21,280 --> 00:11:29,880
dat merk ik echt met informatica. Dat het best wel moeilijk is om wat jij maakt. Want wij schrijven
 110
00:11:29,880 --> 00:11:36,880
natuurlijk code. Het is best wel abstract. Maar eigenlijk doen wij echt concrete dingen. De
 111
00:11:36,880 --> 00:11:44,640
oplossingen die wij schrijven. Daar veranderen wij echt dingen mee die je in de wereld kan zien.
 112
00:11:44,640 --> 00:11:50,160
Dus ik denk voor jullie. Mocht je zo'n presentatie willen geven. Dan zou ik echt
 113
00:11:50,160 --> 00:11:55,880
focussen op dat past waar. Op de context. Op wat voor product het levert. Wat de impact daarvan is
 114
00:11:55,880 --> 00:12:03,000
in de maatschappij. Of iets anders. Ja dat zou denk ik mijn advies zijn. Ja zeker. Die ga ik zeker
 115
00:12:03,000 --> 00:12:12,960
meenemen. Dat is fijn om te horen. Ja zeg maar twee mensen heb je in ieder geval.
 116
00:12:12,960 --> 00:12:17,720
Ja nee. Ik had zeker nog een vraag. Want wat is nou zeg maar. Want je bent vrijwilliger. Wat
 117
00:12:17,720 --> 00:12:29,300
houdt dat in? Wat doe je concreet? Ik ben voornamelijk bezig met praten met andere
 118
00:12:29,300 --> 00:12:38,280
bedrijven. En ervoor te zorgen dat zij ons willen helpen. In sponsoring. Of bijvoorbeeld het bieden
 119
00:12:38,280 --> 00:12:46,520
van hun locatie. En door met grote bedrijven eigenlijk aan de praat te gaan. Wordt zij zich
 120
00:12:46,520 --> 00:12:52,880
ook meer van bewust. Dat er een ja en eigenlijk een roep naar is. Om vrouwen te steunen in de
 121
00:12:52,880 --> 00:13:01,720
informatica. In de AI. Dus het werkt dan beide kanten op. Want wij willen er dan voor zorgen
 122
00:13:01,720 --> 00:13:08,840
dat vrouwen de kans krijgen om echt over hun verhaal te praten. Of ja we hebben eigenlijk
 123
00:13:08,840 --> 00:13:17,120
verschillende programma's bij Women in AI. Een daarvan zijn Circles noemen we die. En die worden
 124
00:13:17,120 --> 00:13:24,600
over verschillende steden gehouden. En dan komt er gewoon iemand praten die echt in de AI werkt. Een
 125
00:13:24,600 --> 00:13:30,880
vrouw meestal. En zij gaat dan haar verhaal doen. En een discussie starten. En eigenlijk een beetje
 126
00:13:30,880 --> 00:13:36,480
zoals wij hier aan het praten zijn. Maar dan gaan zij dat gesprek zelf voeren. En daar komen altijd
 127
00:13:36,480 --> 00:13:42,000
zoveel meer perspectieven uit. Er komen verhalen uit. Vrouwen voelen zich ondersteund. Want je ziet
 128
00:13:42,000 --> 00:13:48,160
allemaal andere vrouwen om je heen. En dat heb ik ook als ik daar ben. Als ik bij die meetings ben.
 129
00:13:48,160 --> 00:13:52,360
Dan denk ik oh ja er zijn eigenlijk best wel veel vrouwen die in de AI werken. Dan denk ik wow wat
 130
00:13:52,360 --> 00:13:58,000
leuk om te zien. En door onze samenwerking met andere bedrijven zorgen wij ervoor dat die bedrijven
 131
00:13:58,000 --> 00:14:04,600
daar ook van op de hoogte zijn. Dat die mee willen werken. En zo worden zij ook meer op de hoogte
 132
00:14:04,600 --> 00:14:11,560
van gesteld. En hopelijk een positieve verandering in die werksfeer te brengen. En ook denk een mooi
 133
00:14:11,560 --> 00:14:18,000
moment. Maar dan kan jij misschien invullen of dat ook zo is. Dat je ook rolmodellen ziet.
 134
00:14:18,000 --> 00:14:21,640
Van oh wat die doet dat wil ik ook wat meer doen. Om toch een beetje die connectie te hebben inderdaad.
 135
00:14:21,640 --> 00:14:25,960
Ja ik had bijvoorbeeld laatst. Was ik aanwezig bij een van die Circles. En toen kwam er een vrouw
 136
00:14:25,960 --> 00:14:33,400
praten van Elsevier. En dat is een grote publicatiejournaal in wetenschap. En ik heb
 137
00:14:33,400 --> 00:14:39,640
best wel vaak bronnen van Elsevier gebruikt voor mijn scriptie. Dus het was voor mij heel erg
 138
00:14:39,640 --> 00:14:45,240
surreal. Ook een beetje om te zien dat zij daar stond. Dacht ik oh wacht. Ik had eventjes een
 139
00:14:45,240 --> 00:14:52,920
brein error. Ik kende Elsevier alleen maar van die bronnen. En je denkt er toch niet aan bijna
 140
00:14:52,920 --> 00:14:59,000
dat er mensen ook echt werken daar. Laat staan vrouwen. En ze had echt een grote rol nog wel.
 141
00:14:59,000 --> 00:15:05,320
En dan zij ging een beetje haar verhaal vertellen over hoe zij dat gebruiken. En de ethische kant
 142
00:15:05,320 --> 00:15:13,240
ervan. En ja ik was er echt onder de indruk van. En ik vond het zo leuk om dat te horen.
 143
00:15:13,240 --> 00:15:18,800
Want het is echt iets wat je veel gebruikt. En dan zie je het toch weer terug. En dat vond ik
 144
00:15:18,800 --> 00:15:24,920
heel mooi. Heb je iemand die. Als je kijkt in de sector. Is er een of meerdere rolmodellen
 145
00:15:24,920 --> 00:15:37,040
voor jou waar je zegt van die kant zou ik ook op willen groeien. Of daar kijk ik naar om van te
 146
00:15:37,040 --> 00:15:42,320
leren. Eigenlijk de meeste vrouwen met wie ik in contact ben gekomen. Die ook werken in de. Ik
 147
00:15:42,320 --> 00:15:50,120
heb niet een specifieke rolmodel. Maar eigenlijk iedereen met wie ik samenwerk die dingen doet
 148
00:15:50,120 --> 00:15:56,920
in AI of informatica. Dat ik denk oh wauw jij bent echt een power lady. Ja er is hier ook bij
 149
00:15:56,920 --> 00:16:05,760
ons op kantoor iemand. Elise. En ik heb gehoord naar haar presentatie. Samen met Jure wat dat
 150
00:16:05,760 --> 00:16:13,760
had ze gedaan. En ik vond dat zo indrukwekkend. En ik zat daar naar te kijken en te luisteren.
 151
00:16:13,760 --> 00:16:19,840
En ik was van wauw dit is echt super knap. En toen voelde ik mij toch een stukje trots van
 152
00:16:19,840 --> 00:16:23,600
oh ja ook een andere vrouw eigenlijk die de power in handen neemt. En in de AI. Het was
 153
00:16:23,600 --> 00:16:28,840
echt een grote ontwikkeling dat ze die doorvoert en doorpakt. En ja dat vond ik echt hartstikke
 154
00:16:28,840 --> 00:16:35,440
mooi om te zien. Dus het zijn echt de mensen met wie ik ook samenwerk. En dat betekent niet
 155
00:16:35,440 --> 00:16:40,880
dat ik me ook niet trots voelde voor Jure. Maar ja als het toch vanuit een dame komt. Want ze zijn
 156
00:16:40,880 --> 00:16:47,360
er toch minder van. En ja dat vind ik het heel indrukwekkend om dat te zien. Ja want zou dat
 157
00:16:47,360 --> 00:16:53,840
nog geholpen hebben in jouw middelbare schooltijd. Inderdaad dat er meer rolmodellen zijn die het
 158
00:16:53,840 --> 00:16:59,040
podium gepakt hebben. Zodat je het vaker zou zien. Ja dat denk ik zeker wel. Want ja als je
 159
00:16:59,040 --> 00:17:03,960
te horen grote namen gaat hebben van technologiebedrijven. Kom je vaak namen tegen zoals
 160
00:17:03,960 --> 00:17:10,000
Steve Jobs, Elon Musk weet je wel. Het zijn allemaal mannen en zij bereiken geweldige dingen
 161
00:17:10,000 --> 00:17:17,200
natuurlijk. Maar het zou ook zo fantastisch zijn als daar dan een keer een vrouw tussen zou zitten.
 162
00:17:17,200 --> 00:17:21,600
Dat zij dan ook een grote ontwikkeling heeft gemaakt. De CEO van Booking.com. De grootste
 163
00:17:21,600 --> 00:17:28,200
technologiebedrijf eigenlijk zeg maar buiten de big five. Ik heb haar een aantal keren op het
 164
00:17:28,200 --> 00:17:37,560
podium gezien. Als je het dan hebt over iemand die het niet alleen gemaakt heeft. Maar ook weet
 165
00:17:37,560 --> 00:17:43,600
waar ze het over heeft. Ja dat is geweldig om aan te horen. Zeker. Ja nee precies dat is wel geweldig
 166
00:17:43,600 --> 00:17:50,000
dat dat inderdaad meer omhoog gaan komen. En ook de CEO van Calem. Dat is ook een vrouw. Dus dat is
 167
00:17:50,000 --> 00:17:58,560
wel heel fantastisch dat dat echt meer opkomt. En ja ik vroeg me af hoe jullie eigenlijk daar
 168
00:17:58,560 --> 00:18:04,440
verder in steken. Hoe zien jullie dat? Hoe bedoel je hoe zien jullie dat? De rolmodelontwikkeling
 169
00:18:04,440 --> 00:18:11,480
of de groei? Ja eigenlijk een beetje dat het hele vrouwen in AI. Hoe zien jullie die ontwikkeling
 170
00:18:11,480 --> 00:18:19,280
gaan? En wat denken jullie zelf dat je eraan kan? Ja ik zou niet willen zeggen oplossen maar
 171
00:18:19,280 --> 00:18:26,640
misschien bijdragen. Ja bijdragen. Hopelijk dragen we door dit gesprek. En gesprekken die we hier
 172
00:18:26,640 --> 00:18:32,160
vaker over hebben. Dit onderwerp is iets wat ons ook erg aan het hart gaat. We hebben het hier
 173
00:18:32,160 --> 00:18:37,040
vaker over. We hebben ook meerdere gasten gehad. Als ik kijk naar de ontwikkeling die ik zie. Ik
 174
00:18:37,040 --> 00:18:41,040
zie vooral veel wiskundige dames inderdaad die in de opleiding zitten. Dus nog steeds meer ook
 175
00:18:41,040 --> 00:18:47,880
vanuit de wiskunde de AI en de artificial intelligence kunstmatig intelligentie ingaan.
 176
00:18:47,880 --> 00:18:52,440
Dus dat vind ik een mooie ontwikkeling. Binnen de harde IT opleidingen en daarna AI gaan doen. Dat
 177
00:18:52,440 --> 00:18:57,840
zie ik nog steeds wat minder. Zie ook wel wat groeien maar volgens mij minder. Dus ik zie met
 178
00:18:57,840 --> 00:19:01,680
name meer van gerelateerde studies vanuit de inhoud en dan richting AI. En ja de techniek ingaan zie
 179
00:19:01,680 --> 00:19:09,800
ik wel steeds vaak gebeuren. Hoe kunnen we zelf bijdragen? Nou hebben we net al een stukje gehoord
 180
00:19:09,800 --> 00:19:14,600
over als we onze verhalen vertellen. De impact en de contexten van meenemen. En persoonlijk vind ik
 181
00:19:14,600 --> 00:19:20,600
het mooi om op scholen te vertellen. En dan ook voorbeelden vanuit verschillende sectoren allemaal
 182
00:19:20,600 --> 00:19:25,000
mee te nemen. Dus zowel bij jongens als meisjes dat het aan kan slaan dat het overal impact heeft.
 183
00:19:25,000 --> 00:19:29,360
Ja want daar begint het. Ja dat is hoe ik het persoonlijk zou kunnen toevoegen.
 184
00:19:29,360 --> 00:19:33,680
Nee dat is wel gewoon fijn dat je daar toch inderdaad mee bezig bent.
 185
00:19:33,680 --> 00:19:38,600
Ja ik vind het sowieso zeg maar heel belangrijk. Kijken we de laat ik het zeg maar eerst is even
 186
00:19:38,600 --> 00:19:47,680
vanuit het nerd perspectief. Zo heb je ons gekarakteriseerd. Ga ik daar even in zitten.
 187
00:19:47,680 --> 00:19:55,560
Nee maar even vanuit als ik het eerst vanuit de techniek zeg maar behandel. Ik vind het sowieso
 188
00:19:55,560 --> 00:20:00,400
zeg maar maatschappelijk vind ik het heel belangrijk maar ik ga even vanuit de techniek.
 189
00:20:00,400 --> 00:20:03,880
Wat wij maken zijn modellen. Dus wij maken maatwerk modellen voor onze klanten. Om die
 190
00:20:03,880 --> 00:20:12,200
modellen goed te laten presteren heb je diversiteit nodig in je data. En diversiteit bedoel ik dan niet
 191
00:20:12,200 --> 00:20:20,040
alleen mannen vrouwen maar ook allerlei minderheidsgroepen alles. Dus dit vakgebied
 192
00:20:20,040 --> 00:20:26,440
draait om eigenlijk een soort van balans in niet alleen in de data maar ook dus in perspectieven.
 193
00:20:26,440 --> 00:20:34,280
Uiteindelijk stop je er altijd iets van je eigen, laten we het vooroordelen of je wereldperceptie
 194
00:20:34,280 --> 00:20:45,200
laten we het zo noemen. Want vooroordelen is meteen zo. Maar het is ook zo negatief toch.
 195
00:20:45,200 --> 00:20:50,120
Hoe je opgegroeid bent. Hoe je bent opgegroeid weet je. Je neemt jezelf mee en dat zijpelt door
 196
00:20:50,120 --> 00:20:57,320
in een model. Toch? Dat is zeker zo. De keuzes die je maakt. Dus in die zin is het denk ik juist
 197
00:20:57,320 --> 00:21:06,080
van wezenlijk belang dat als wij hele goede AI systemen willen maken en dat is de ambitie die
 198
00:21:06,080 --> 00:21:11,640
we hebben. Is het dus nodig dat we gebalanceerde teams hebben en dat hoeft niet precies zoveel
 199
00:21:11,640 --> 00:21:19,800
die en zoveel dat. Maar dat je diversiteit daarvan denk ik dat het heel belangrijk is om technisch
 200
00:21:19,800 --> 00:21:26,560
goede dingen te maken. Daarna zei ik al van ja ik denk dat het maatschappelijk ook beter is en
 201
00:21:26,560 --> 00:21:32,880
het maakt het werken met elkaar ook gewoon gevarieerder. Jij begon net over fashion.
 202
00:21:32,880 --> 00:21:39,880
Dat zit echt gewoon bij mij in een blinde hoek. Ik heb nu een opdruk op mijn t-shirt.
 203
00:21:39,880 --> 00:21:47,440
Ik ben van blauw naar groen gegaan maar dat is ook alles wat er verandert.
 204
00:21:47,440 --> 00:21:51,960
Dus dat is mijn fashion ongeveer. Dus dat betekent dat je ook al gewoon echt
 205
00:21:51,960 --> 00:21:57,840
echt serieus andere perspectieven hebt en ik denk dat ik dat heel dat vind ik heel belangrijk. Wat
 206
00:21:57,840 --> 00:22:04,320
wat draag ik eraan bij? Hoe vind ik heel erg moeilijk bovenop inderdaad dit soort gesprekken.
 207
00:22:04,320 --> 00:22:09,400
Maar ja dan veranderen we de wereld niet per se. Ik vind het eigenlijk al best wel mooi dat jij
 208
00:22:09,400 --> 00:22:13,400
zegt vanuit de technische kant dat je de teams inderdaad gemixt wil hebben. Meerdere perspectieven,
 209
00:22:13,400 --> 00:22:26,080
meerdere afkomsten. Want zoals je eigenlijk zei iedereen neemt een ander stukje mee vanuit huis.
 210
00:22:26,080 --> 00:22:32,320
Iedereen is op een andere manier opgegroeid, neemt andere waarden en normen weet ik wel wat mee. En
 211
00:22:32,320 --> 00:22:37,080
dat zie je zeker terug in die modellen. En er is volgens mij ooit een onderzoek geweest wat heeft
 212
00:22:37,080 --> 00:22:42,000
laten zien dat als je echt gemixte teams hebt dat het ook efficiënter werkt. Omdat er meer
 213
00:22:42,000 --> 00:22:49,000
perspectieven te zien zijn. Dus als je eigenlijk ergens vast komt te zitten en iemand denkt eventjes
 214
00:22:49,000 --> 00:22:54,040
out of the box dan kom je al zoveel verder dan als iedereen precies op dezelfde manier nadenkt
 215
00:22:54,040 --> 00:22:59,080
en ja straightforward een kant op haalt. Dus dat vind ik echt mooi dat je dat aangeeft.
 216
00:22:59,080 --> 00:23:05,600
Ja en ik denk in de organisatie zelf, maar misschien kan je dat straks over een aantal
 217
00:23:05,600 --> 00:23:12,440
jaar beter beoordelen, is dat er hier geen verschil wordt gemaakt in man vrouw. Want
 218
00:23:12,440 --> 00:23:19,120
dat hoor je natuurlijk ook heel vaker dat vrouwen uiteindelijk minder groeikansen hebben,
 219
00:23:19,120 --> 00:23:25,000
minder salaris krijgen, minder kans krijgen. Ik denk dat we daar zeg maar scherp op zijn.
 220
00:23:25,000 --> 00:23:33,200
Dat zou niet kunnen mogen moeten. Nee dat is absurd. Maar dat gebeurt natuurlijk in heel veel
 221
00:23:33,200 --> 00:23:41,840
organisaties wel en dat is echt wel heel pijnlijk. Ik heb dat zelf niet meegemaakt. Ik wil niet eens
 222
00:23:41,840 --> 00:23:47,320
zeggen nog niet, want ik ga gewoon blij dat ik dat niet meemaak ooit. Maar het gebeurt zeker wel. En
 223
00:23:47,320 --> 00:23:54,520
ja ik denk ook dat vrouwen best wel een nadeel hebben dat zij degenen zijn die dan kinderen
 224
00:23:54,520 --> 00:24:00,040
baren, zwanger worden, dat soort dingen. Want daardoor denk ik dat die discriminatie eigenlijk
 225
00:24:00,040 --> 00:24:08,760
een stuk hoger wordt. Omdat je stel je kinderen en de meeste vrouwen willen dat, mannen ook,
 226
00:24:08,760 --> 00:24:14,600
maar ja zij zijn niet degene die het kind gaan baren. Ja die moeten toch dan op verlof,
 227
00:24:14,600 --> 00:24:19,440
waardoor je een stukje werktijd gewoon mist. En dat is hartstikke jammer. En als een werkgever
 228
00:24:19,440 --> 00:24:27,280
zich daardoor anders gaat opstellen, dat hij je dan niet aanneemt of geen promotie geeft. Want
 229
00:24:27,280 --> 00:24:35,560
ja je gaat een stukje werktijd missen. Ik snap dat de werktijd missen hartstikke belangrijk is.
 230
00:24:35,560 --> 00:24:41,560
Maar goed eigenlijk zou het dan ook voor mannen wat eerlijker getrokken moeten worden in het
 231
00:24:41,560 --> 00:24:46,600
verlof. Want die moeten dan eigenlijk ook wat meer verlof krijgen, want zij worden ook vader,
 232
00:24:46,600 --> 00:24:52,680
hun leven veranderd. Helemaal, helemaal. Helemaal aan de kant op. Maar ik wil een beetje terug naar
 233
00:24:52,680 --> 00:25:02,600
de AI. We zitten in de AI podcast en het leuke is we hebben een ingestuurde vraag van de luisteraar
 234
00:25:02,600 --> 00:25:09,120
en die wil ik jou heel graag voorleggen. Oké leuk. De vraag van de week is deze week.
 235
00:25:09,120 --> 00:25:16,480
Hi ik ben Maaike, manager marketing en communicatie. Wat is volgens jullie de
 236
00:25:16,480 --> 00:25:22,440
grootste misvattingen over AI? Oeh, grootste misvatting. Ja ik kan hier wel lekker los over
 237
00:25:22,440 --> 00:25:29,880
gaan. Want ik vind de grootste misvatting is dat mensen er echt zo bang voor zijn. Ze zijn van ja,
 238
00:25:29,880 --> 00:25:36,960
AI die gaat je leven overnemen. Je hebt ook op Netflix Black Mirror. Ja. En daar komen best wel
 239
00:25:36,960 --> 00:25:43,720
van die spicy afleveringen over hoe AI of technologie je hele leven overneemt en je
 240
00:25:43,720 --> 00:25:50,320
leven verpest. En ja, ik zie het allemaal niet zo somber in. Ja, gewoon met de nieuwste technologie,
 241
00:25:50,320 --> 00:26:00,520
bijvoorbeeld die VR-app deel van Apple. Dat je omgeving eigenlijk allemaal 3D wordt. Hartstikke
 242
00:26:00,520 --> 00:26:07,240
coole ontwikkeling. Super gaaf dat dat kan. Maar sommige mensen zitten er al helemaal negatief
 243
00:26:07,240 --> 00:26:12,160
over en denken van ja, als dit al een ontwikkeling wordt, kan je mensen blokken weet je wel. Dat
 244
00:26:12,160 --> 00:26:16,720
zagen ze dan van die Netflix show. Straks neemt het onze hele leven over. Onze banen gaan allemaal
 245
00:26:16,720 --> 00:26:24,520
overgenomen worden. Ik denk dat het echt een van de grootste misvattingen is over AI. Want ik zie
 246
00:26:24,520 --> 00:26:32,880
AI meer als hulpmiddel. Het gaat onze leven makkelijker maken. En eigenlijk zoals ik al
 247
00:26:32,880 --> 00:26:38,160
eerder had gezegd, we gebruiken AI al in het dagelijks leven. Maar mensen realiseren zich
 248
00:26:38,160 --> 00:26:43,160
dat gewoon niet. En als er dan ineens van die grote tussen aanhalingstekens ontwikkelingen komen,
 249
00:26:43,160 --> 00:26:49,680
dan worden ze ineens bang. Terwijl ze zich niet beseffen, oh wacht, we gebruiken dit al,
 250
00:26:49,680 --> 00:26:54,200
dit bestaat al langer. Dus ja, dat vind ik wel jammer om te zien. En ik hoop dat door over daar
 251
00:26:54,200 --> 00:27:00,880
misschien meer te praten, dat die misvatting in elk geval verdwijnt. Ik vraag me af wat jullie de
 252
00:27:00,880 --> 00:27:10,720
grootste misvattingen in AI vinden. Dat zit een beetje in het raakvlak van deze. Is dat nu
 253
00:27:10,720 --> 00:27:17,320
gedacht wordt dat GAI, dus General Artificial Intelligence, al echt op de hoek staat. Maar
 254
00:27:17,320 --> 00:27:26,640
ja, dat is er nog helemaal niet. Het echt context hebben en het begrijpen van zaken,
 255
00:27:26,640 --> 00:27:31,520
dat is er gewoon nog niet. Het weet patronen goed te herkennen, maar ChatGPT weet niet wat een
 256
00:27:31,520 --> 00:27:36,680
appel of een of een steen is of wat een bom is. Dat moet hem getraind worden. Maar dat mensen wel
 257
00:27:36,680 --> 00:27:42,040
bedenken dat die context awareness er is. Ja, nee, dat is inderdaad ook een hele belangrijke.
 258
00:27:42,040 --> 00:27:48,520
Want ze gaan er inderdaad van uit dat AI echt een volledig brein is, eigenlijk bijna een mens.
 259
00:27:48,520 --> 00:27:55,560
Misschien zelfs nog slimmer dan een mens. En natuurlijk in sommige vlakken, zoals bijvoorbeeld
 260
00:27:55,560 --> 00:27:59,760
schaken, is AI gewoon veel beter. Maar zoals je zegt, ChatGPT weet echt niet wat een appel is
 261
00:27:59,760 --> 00:28:06,600
of een steen. Het heeft helemaal geen bewustzijn. Ik heb toch het idee dat mensen wel geloven dat
 262
00:28:06,600 --> 00:28:13,400
dat eraan komt of dat dat er zelfs al is. Voor mij is de grootste misvatting het idee van mensen
 263
00:28:13,400 --> 00:28:21,160
die denken dat AI eigenlijk iets van de laatste periode is. En de laatste periode is dan eigenlijk
 264
00:28:21,160 --> 00:28:27,880
vanaf 30 november 2022 de introductie van ChatGPT. Dat is voor heel veel mensen eigenlijk
 265
00:28:27,880 --> 00:28:35,200
de start van AI. En als je dat als startpunt neemt en kijkt wat er dan nu is, is er het gevoel dat
 266
00:28:35,200 --> 00:28:44,400
er nou als het ware een tsunami over je heen komt aan technologie. En dus heel veel mensen hebben
 267
00:28:44,400 --> 00:28:51,960
helemaal geen idee dat dit idee komt uit de jaren 50, in de jaren 80 hebben we het al over
 268
00:28:51,960 --> 00:28:59,040
neurale netwerken. Dat het eigenlijk een opeenstapeling is van hele dunne laagjes aan
 269
00:28:59,040 --> 00:29:05,280
technologie verbetering, af en toe een doorbraak. Zij hebben nu alleen één grote doorbraak gezien
 270
00:29:05,280 --> 00:29:12,160
en dat is die van de transformers als technologie. Maar het idee zeg maar dat alles nu zo hard gaat
 271
00:29:12,160 --> 00:29:20,120
en in dezelfde harde rechte lijn omhoog, ja dat is voor mij denk ik de grootste misvatting.
 272
00:29:20,120 --> 00:29:26,200
Dan wil ik die nog wel even aanvullen. ChatGPT/Gen AI is niet AI. AI is veel meer dan dat.
 273
00:29:26,200 --> 00:29:34,200
En dat is wel de beleving op dit moment. Ja nee, dat zijn echt hele valide punten ook. In mijn
 274
00:29:34,200 --> 00:29:43,520
master was ik bezig met een video game vak, maar het was een soort onderzoeksvak, dus wij moesten
 275
00:29:43,520 --> 00:29:52,360
een onderzoek uiteindelijk maken. En wij hadden toen eigenlijk een hele primitieve versie van
 276
00:29:52,360 --> 00:29:58,520
ChatGPT gemaakt, maar ChatGPT op dat moment was er nog niet. Die doorbraak was er nog niet.
 277
00:29:58,520 --> 00:30:04,880
En eigenlijk toen wij klaar waren, toen kwam ChatGPT ineens uit. En dat was heel grappig om dat
 278
00:30:04,880 --> 00:30:10,000
te zien, want wij hadden echt een hele basisversie daarvan gemaakt. En toen kwam die doorbraak en
 279
00:30:10,000 --> 00:30:15,520
wow dit gaat de wereld zo doorheen, kijk wat er al gebeurt. Terwijl wij een paar weken geleden
 280
00:30:15,520 --> 00:30:21,160
daar ook al mee bezig waren. Mensen beseffen zich niet dat inderdaad deze ontwikkelingen
 281
00:30:21,160 --> 00:30:27,080
al, of deze ideeën tenminste, al zo lang bestaan. Maar dat ze beetje bij beetje ontwikkeld worden.
 282
00:30:27,080 --> 00:30:34,400
En inderdaad als er dan een keer iets is wat echt goed ontwikkeld is, dan komt er ineens een
 283
00:30:34,400 --> 00:30:39,400
doorbraak en lijkt het heel hard te stijgen voor mensen. Maar eigenlijk voor de techneuten onder
 284
00:30:39,400 --> 00:30:45,040
ons weten wij dat dat niet het geval is. En dat het echt in een constante lijn is gegaan. En dat
 285
00:30:45,040 --> 00:30:53,440
er heel veel ontwikkeling in zit, heel veel onderzoek. En dat dat niet in één nacht gebeurt
 286
00:30:53,440 --> 00:30:58,560
dat je ineens zoiets kan maken. Absoluut. Ik wil nog even terug ook weer naar Women in AI.
 287
00:30:58,560 --> 00:31:08,320
Zijn er specifieke thema's die spelen op dit moment? Nou toevallig, qua thema's,
 288
00:31:08,320 --> 00:31:19,560
Women in AI heeft elk jaar nominaties voor vrouwen om zich te nomineren. Sowieso in AI,
 289
00:31:19,560 --> 00:31:28,400
maar bijvoorbeeld beste onderzoeker, beste entrepreneur, beste start-up, zeg maar,
 290
00:31:28,400 --> 00:31:36,280
vrouwen die in start-up zitten. Je hebt volgens mij zes categorieën en er worden daar heel veel
 291
00:31:36,280 --> 00:31:43,240
vrouwen voor opgegeven. Dus hierbij, mocht je een vrouw kennen in de AI en wil je haar opgeven
 292
00:31:43,240 --> 00:31:48,800
voor deze award, het wordt een prijs. Oh, je kan echt iemand zelf aandragen? Ja, je kan zelf,
 293
00:31:48,800 --> 00:31:54,400
maakt niet uit wie je bent of waar je vandaan komt. Je kan vrouwen nomineren. Wij zullen in
 294
00:31:54,400 --> 00:32:01,520
ieder geval een link in de show notes even opnemen waar je iemand kan nomineren. En eigenlijk wat er
 295
00:32:01,520 --> 00:32:07,600
dan gebeurt is, er is echt een jury daarvoor en in die jury zit ook de vrouw die vorig jaar heeft
 296
00:32:07,600 --> 00:32:14,720
gewonnen. Zij gaan dan kijken naar wie de beste kandidaten zijn en de beste drie worden dan bij
 297
00:32:14,720 --> 00:32:23,200
de summit. Dat heet de summit. Daar kunnen zij hun idee pitchen, waar zij voor staan, waarom zij
 298
00:32:23,200 --> 00:32:28,520
zouden moeten winnen. En uiteindelijk de winnaar die krijgt dan een poster van e-calls, dit op
 299
00:32:28,520 --> 00:32:37,240
Internationale Vrouwendag op 8 maart. Komt dat in een van de steden, je hebt in Amsterdam die
 300
00:32:37,240 --> 00:32:44,600
posters, Den Haag, Rotterdam. Ja, dat zijn die hele grote posters waarin eigenlijk jij als vrouw
 301
00:32:44,600 --> 00:32:51,200
staat met een beetje een quote van jou en wat jij doet. En dat is echt super gaaf vind ik.
 302
00:32:51,200 --> 00:32:57,760
Lachen. Volgens mij winnen er drie vrouwen en worden er zes door naar de nominaties. Maar
 303
00:32:57,760 --> 00:33:03,440
de details kan je natuurlijk later terugvinden. Maar dat is echt heel gaaf, want dan kan jij je
 304
00:33:03,440 --> 00:33:09,360
eigen verhaal vertellen. En er is ook een gala van Women in AI, dat is altijd in het begin van het
 305
00:33:09,360 --> 00:33:15,920
jaar in februari. En daar wordt dan de winnaar bekendgemaakt. Dus de vrouwen die door de nominaties
 306
00:33:15,920 --> 00:33:22,080
zijn, die worden ook uitgenodigd. Sommige worden dan nog gesponsord door bedrijven. Die gaan dan
 307
00:33:22,080 --> 00:33:28,720
zich aan tafel zetten met die bedrijven en ermee praten. En als jij wint, dan mag jij ook echt een
 308
00:33:28,720 --> 00:33:35,720
speech geven. En ik vind dat echt een super gaaf idee en concept, want dan kan je je verhaal wat
 309
00:33:35,720 --> 00:33:43,480
bekender maken, wie jij bent, waarom jij het verdient om zo'n prijs te krijgen als vrouw
 310
00:33:43,480 --> 00:33:49,760
in AI. En er komt gewoon een poster van je in de stad. Heel mooi. We hadden het over rolmodellen,
 311
00:33:49,760 --> 00:33:56,440
volgens mij is dit een manier om rolmodellen te creëren voor de toekomstige werkmens inderdaad.
 312
00:33:56,440 --> 00:34:01,280
Dus dat is echt fantastisch als dat zo gebeurt. Zijn er nog bepaalde criteria waar dan op gelet
 313
00:34:01,280 --> 00:34:08,600
wordt? Weet je dat toevallig? Dat weet ik eventjes niet zo uit mijn hoofd, maar ik denk afhankelijk
 314
00:34:08,600 --> 00:34:14,840
van de categorie waar je in zit, dat je wel een vrouw moet zijn. Ja, lijkt me logisch. Ja en verder
 315
00:34:14,840 --> 00:34:25,000
volgens mij kan je bijna echt iedereen nomineren als je een gevoel hebt van, oh ja, zij doet haar
 316
00:34:25,000 --> 00:34:29,800
baan heel goed of in die categorie vind ik dat zij moet winnen. Dus ja, kijk daar voordat even naar.
 317
00:34:29,800 --> 00:34:35,800
Mooi, heel mooi. Ik zie je al schudden Joop. Ja, ik ga zo de kaarten schudden. We hebben een
 318
00:34:35,800 --> 00:34:42,640
kaartspel ontwikkeld, Niels en ik, met allemaal stellingen daarop in zes verschillende categorieën.
 319
00:34:42,640 --> 00:34:50,320
En het idee is dat je zo'n stelling, dat je een stelling op tafel legt. Het leukste is als je
 320
00:34:50,320 --> 00:34:56,160
dit met z'n vieren speelt in het kader van verschillende perspectieven. En mensen kunnen
 321
00:34:56,160 --> 00:35:03,720
dan met de kaarten, kunnen zij dicht, kunnen ze stemmen, van ben ik oneens of eens in de stelling.
 322
00:35:03,720 --> 00:35:10,200
Als iedereen de kaart op tafel heeft gelegd, leg je hem open. Speel je dus open kaart. En kan je
 323
00:35:10,200 --> 00:35:17,800
elkaars perspectief zeg maar op zo'n stelling, kan je met elkaar delen, waarom denk je er zo over,
 324
00:35:17,800 --> 00:35:23,400
nou wat betekent dat voor mij, zouden daar misschien acties uit moeten komen,
 325
00:35:23,400 --> 00:35:27,440
als we daar het met elkaar eens of oneens zijn. Het zorgt ervoor dat je, voor discussie,
 326
00:35:27,440 --> 00:35:36,720
maar ook het is een heel mooi startpunt om je AI strategie of je AI beleid om daar invulling
 327
00:35:36,720 --> 00:35:42,600
aan te geven. Dus het zijn allemaal vragen eigenlijk, die als je die allemaal af zou
 328
00:35:42,600 --> 00:35:47,200
gaan, nou dan heb je een hele flinke start van je AI strategie of beleid. Nou gaan we ze niet
 329
00:35:47,200 --> 00:35:52,920
allemaal aflopen. Het is een flinke stapel. Ik ga jou daar zo direct een stelling uit voorleggen.
 330
00:35:52,920 --> 00:35:59,760
Oké, ik heb er zin in.
 331
00:35:59,760 --> 00:36:00,880
[muziek]
 332
00:36:00,880 --> 00:36:19,880
En de stelling zit in de categorie gebruik en toepassingen. En de stelling is generatieve AI
 333
00:36:19,880 --> 00:36:26,120
zal de ervaring van onze klanten personaliseren.
 334
00:36:26,120 --> 00:36:29,520
Ja, moet ik het nu gelijk zeggen of ik het er mee eens ben?
 335
00:36:29,520 --> 00:36:35,240
Ja, doe maar.
 336
00:36:35,240 --> 00:36:35,760
Ja, ik ben het daar eigenlijk wel mee eens. Want ik denk dat generatieve AI,
 337
00:36:35,760 --> 00:36:42,560
dat dat al jouw producten eigenlijk kan personaliseren, omdat je je eigen input
 338
00:36:42,560 --> 00:36:51,960
kan meegeven. En ja, die AI modellen gaan daar iets van meemaken, wat echt gebaseerd is op jouw
 339
00:36:51,960 --> 00:36:58,640
persoonlijke voorkeuren.
 340
00:36:58,640 --> 00:36:59,760
Het passen waar je het straks over had, is daar denk ik ook een toepassing van.
 341
00:36:59,760 --> 00:37:04,720
Ja, precies. Dus ja, ik ben het er gewoon hartstikke mee eens. En ik vind de opkomst van
 342
00:37:04,720 --> 00:37:11,160
generatieve AI ook super cool. En ik vind dat het echt doorontwikkeld moet worden.
 343
00:37:11,160 --> 00:37:16,440
En het zou heel leuk zijn als klanten daar ook iets mee willen en kunnen doen.
 344
00:37:16,440 --> 00:37:21,320
En dan ben ik toch benieuwd hoe jullie daarin zitten.
 345
00:37:21,320 --> 00:37:25,880
Ja, ik eens. Al is het alleen maar dat we het werk efficiënter kunnen doen. Dus je hebt ook
 346
00:37:25,880 --> 00:37:32,040
meer tijd om het te kunnen personaliseren. Zelfs als het model en de AI/GenAI daar nog
 347
00:37:32,040 --> 00:37:36,480
niet bij helpt. Door je werk daarin verder te automatiseren, heb je ook meer tijd.
 348
00:37:36,480 --> 00:37:40,520
Dus dan kan je als klantmedewerker ook meer tijd voor de personalisatie doen.
 349
00:37:40,520 --> 00:37:44,600
Dus het zit win-win op de techniek en win-win op de menselijke kant, wat mij betreft.
 350
00:37:44,600 --> 00:37:48,160
Ja, en jij hebt het over communicatie. Communicatie is toch ook nog best wel heel
 351
00:37:48,160 --> 00:37:52,920
veel geschreven tekst. En het mooie is dat je nu zeg maar dan kan aangeven van,
 352
00:37:52,920 --> 00:37:57,840
nou, dit zijn de kernelementen die ik wil communiceren. En dat je dat nu makkelijk
 353
00:37:57,840 --> 00:38:03,920
kan personaliseren. Want deze systemen, modellen zijn natuurlijk heel goed in
 354
00:38:03,920 --> 00:38:09,720
schrijven. Dus je kan zeggen, ja, maar als het gaat over min, je communiceert met
 355
00:38:09,720 --> 00:38:16,280
jong adolescent. Weet je, kan je dat opgeven, kan je dat daar naartoe personaliseren. Of je
 356
00:38:16,280 --> 00:38:25,080
zegt van ja, maar dit gaat voor iemand met een wat lager taalniveau, kan je dat personaliseren.
 357
00:38:25,080 --> 00:38:31,160
Dus ik denk dat dat heel veel gaat helpen als je dit inzet om je communicatie vooral ook
 358
00:38:31,160 --> 00:38:36,400
effectiever te maken. Ja, en dan weet je ook altijd eigenlijk dat het bijna altijd goed gaat.
 359
00:38:36,400 --> 00:38:40,160
Want als je die eisen opgeeft, dan ben je bijna van gegarandeerd dat dat ook op die manier als
 360
00:38:40,160 --> 00:38:46,280
uitkomst zou komen. Dus dat is een goede punten, ja.
 361
00:38:46,280 --> 00:38:49,640
Als we nou eens kijken naar misschien een klein stukje de toekomst met Women in AI.
 362
00:38:49,640 --> 00:39:13,640
Wat zou je willen? Waar misschien persoonlijk of qua organisatie, welke verandering wil je
 363
00:39:13,640 --> 00:39:24,040
teweeg hebben gebracht? Ik denk dat ik zelf uiteindelijk wel een rolmodel zou willen worden.
 364
00:39:24,040 --> 00:39:31,600
Omdat ik, ja, ik wil gewoon echt mij van alles, al mijn kanten laten zien daarin. Ik wil aan alle
 365
00:39:31,600 --> 00:39:40,400
andere vrouwen zien van kijk, dit kan je gewoon bereiken. En ik ben daar ook hard mee bezig.
 366
00:39:40,400 --> 00:39:44,960
En in welke vorm? Ja, toch misschien iets iets groots maken of in werk of gewoon überhaupt in
 367
00:39:44,960 --> 00:39:53,640
vrouwen inspireren. Ja, ik ben er niet helemaal over uit hoe dat de vorm wordt gegeven. Maar
 368
00:39:53,640 --> 00:40:02,440
vooral echt het doorgroeien daarin. Dat ik eigenlijk altijd on-top of die AI ontwikkeling blijf, daar op
 369
00:40:02,440 --> 00:40:09,360
de hoogte van goud blijf worden. En ik vind het daarom ook hartstikke geweldig om deze podcast
 370
00:40:09,360 --> 00:40:13,920
nu met jullie te bespreken. Want dit is toch weer een stapje richting die rolmodel worden.
 371
00:40:13,920 --> 00:40:19,400
Kunnen mensen je al ergens volgen? Ja, sowieso op LinkedIn. En toevallig heb ik ook zelf een
 372
00:40:19,400 --> 00:40:28,720
Instagram account waarin ik vrouwen wil inspireren. Waar vinden ze die? Hebben jullie de tag? Ja,
 373
00:40:28,720 --> 00:40:37,240
dat heet #womenintech. Oh, dat is makkelijk te onthouden. Ja, dus misschien als we dat ook in
 374
00:40:37,240 --> 00:40:45,000
de discussie... Uiteraard, dan zetten we even een show-note. Zeker. Oh, sorry, het heet trouwens
 375
00:40:45,000 --> 00:40:51,480
#techforwomen. We gaan naar een andere organisatie. Tech for women. Ja, en ook wil ik women in AI
 376
00:40:51,480 --> 00:41:03,480
zelf helpen om groter te worden. En waarschijnlijk gaan wij ook uitbreiden naar Benelux. Dus trouwens
 377
00:41:03,480 --> 00:41:12,240
voor die nominaties moet je ook mensen, vrouwen uit België of Luxemburg kennen nomineren. Dat
 378
00:41:12,240 --> 00:41:16,560
kan ook. Want we willen steeds groter worden. We willen steeds meer vrouwen erbij betrekken. En ja,
 379
00:41:16,560 --> 00:41:23,120
we zijn ook steeds meer aan het uitbreiden in Nederland zelf. We hebben nu ook in Eindhoven
 380
00:41:23,120 --> 00:41:27,120
bijvoorbeeld een cirkel. Dus ik wil gewoon echt daarin groeien. Mijn skills ontwikkelen,
 381
00:41:27,120 --> 00:41:33,840
met mensen kunnen praten en echt met vertaal kunnen vertellen van AI is hartstikke leuk,
 382
00:41:33,840 --> 00:41:39,320
hartstikke gaaf. En je hoeft er niet bang voor te zijn. Is er nog een hulp die jij kan gebruiken
 383
00:41:39,320 --> 00:41:46,960
om het doel wat je voor jezelf gesteld hebt voor elkaar te krijgen? Is dat dat je ergens wil spreken
 384
00:41:46,960 --> 00:41:52,280
op conferenties? Dat mensen die nu luisteren, die zoiets aan het organiseren zijn, die een sessie
 385
00:41:52,280 --> 00:41:57,000
zou willen. Wat zijn zaken die jou daarin kunnen helpen? En ik zou zeggen, speak up. Ja, doe
 386
00:41:57,000 --> 00:42:02,240
het op. Ja, ik vind spreken hartstikke leuk, omdat er komen zoveel perspectieven vrij. En nu ook na
 387
00:42:02,240 --> 00:42:09,080
dit gesprek met jullie denk ik, ik ben ook weer zoveel wijzer in geworden. Dus ja, ik zou graag
 388
00:42:09,080 --> 00:42:14,560
gewoon meer willen spreken natuurlijk. En toevallig ga ik ook op een conferentie in Canada spreken
 389
00:42:14,560 --> 00:42:20,320
binnenkort. Mijn scriptie is een paper geworden. Die is gepubliceerd, die is geaccepteerd ook. En
 390
00:42:20,320 --> 00:42:30,000
daar die ga ik uitleggen, die ga ik presenteren. En dat ging over het optimaliseren van busroutes,
 391
00:42:30,000 --> 00:42:35,800
elektrische busroutes met AI. Over impact gesproken? Ja, dus ik ben ook, ik ben niet
 392
00:42:35,800 --> 00:42:44,000
alleen bezig om die impact te vergroten vanuit de sprekerskant, maar ook zeker vanuit de technische
 393
00:42:44,000 --> 00:42:48,880
kant. En ik vind modellen schrijven echt geweldig. Ik vind machine learning zo leuk. En ik heb daar
 394
00:42:48,880 --> 00:42:55,160
zeker niet over uitgeleerd. En daarom wil ik daar echt verder in gaan ontwikkelen. Dus ja,
 395
00:42:55,160 --> 00:43:01,080
het lijkt me geweldig om beide werelden eigenlijk te combineren en zo door te groeien daarin.
 396
00:43:01,080 --> 00:43:05,440
Mooi om te zien dat je ook straalt als je dit uitspreekt. Dat kunnen de luisteraars niet zien,
 397
00:43:05,440 --> 00:43:09,160
maar er staat echt een energie en uitstraling. Dat geeft gewoon energie af. Heel mooi om te zien.
 398
00:43:09,160 --> 00:43:14,520
Dank je wel, Suzan, voor het inkijkje in de Women in AI, maar vooral eigenlijk ook
 399
00:43:14,520 --> 00:43:19,800
ja, je openhartigheid over waar je zelf naartoe wil groeien. Heel erg mooi. Dank je wel.
 400
00:43:19,800 --> 00:43:25,160
Ja, en jullie echt heel erg bedankt. Ik vond het hartstikke leuk om hier te spreken. Bedankt.
 401
00:43:25,160 --> 00:43:29,840
Leuk dat je weer luisterde naar een aflevering van AIToday Live. Je hebt het kaartspel,
 402
00:43:29,840 --> 00:43:38,120
heb je natuurlijk gehoord. En die kan je gewoon gratis bestellen. Als je eventjes naam en adres
 403
00:43:38,120 --> 00:43:44,280
opgeeft, ook weer een link in de show notes, dan krijg je hem thuis gestuurd via onze website.
 404
00:43:44,280 --> 00:43:49,800
En wat ik al zei, het is een hele leuke manier om je AI beleid en strategieën te bediscussiëren.
 405
00:43:49,800 --> 00:43:58,360
Zeker. Tot de volgende keer.
 406
00:43:58,360 --> 00:44:00,120
[Muziek]
 407
00:44:00,120 --> 00:44:04,120
[Muziek]
 

People on this episode