AIToday Live

S06E53 - Vooroplopen in onderwijsinnovatie met AI met Duuk Baten (SURF)

Aigency by Info Support Season 6 Episode 53

Stuur ons een bericht

In deze aflevering van AIToday Live is Duuk Baten te gast, adviseur Responsible AI bij Surf. Duuk deelt inzichten over de rol van Surf in het Nederlandse onderwijs en onderzoek, en hoe zij werken aan IT-innovatie en -dienstverlening.

Er wordt dieper ingegaan op de uitdagingen en kansen van AI in het onderwijs, inclusief een discussie over ethische vraagstukken en het belang van diversiteit en inclusiviteit bij de ontwikkeling van AI-toepassingen. Duuk licht ook een pilot toe rondom een AI-ethiek volwassenheidsmodel, ontwikkeld om onderwijsinstellingen te helpen verantwoord om te gaan met AI.



Links

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:05,840
Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:05,840 --> 00:00:09,440
We hebben vandaag een speciaal gehad.

3
00:00:09,440 --> 00:00:10,440
Duuk Baten.

4
00:00:10,440 --> 00:00:15,560
Duuk is van Surf en we gaan zo direct daar alles van horen van wat hij daar doet.

5
00:00:15,560 --> 00:00:19,000
Maar eerst even onszelf toch.

6
00:00:19,000 --> 00:00:21,040
Ik ben Joop Snijder, CTO bij Aigency.

7
00:00:21,040 --> 00:00:24,320
En mijn naam Niels Naglé, Data & AI, Area Lead bij Info Support.

8
00:00:24,320 --> 00:00:28,640
Duuk, geweldig dat je hier bij ons in de studio wil zijn.

9
00:00:28,640 --> 00:00:31,680
Zou je jezelf eerst willen voorstellen aan onze luisteraars?

10
00:00:31,680 --> 00:00:33,920
Ja leuk, dank jullie wel voor de uitnodiging.

11
00:00:33,920 --> 00:00:35,240
Mijn naam is Duuk.

12
00:00:35,240 --> 00:00:40,280
Ik werk bij Surf als adviseur Responsible AI binnen ons innovatielab.

13
00:00:40,280 --> 00:00:46,960
En Surf, misschien dat jullie luisteraars dat niet weten, maar dat is een samenwerkingscoöperatie

14
00:00:46,960 --> 00:00:52,680
voor IT, voor het vervolg onderwijs, eigenlijk NBO, HBO, WO en onderzoeksinstellingen.

15
00:00:52,680 --> 00:00:54,720
En wie zit er daarin?

16
00:00:54,720 --> 00:00:56,200
Is dit commercieel?

17
00:00:56,200 --> 00:00:58,960
Nee, dit is alle publieke onderwijsinstellingen.

18
00:00:58,960 --> 00:01:03,240
Dus alle NBO-instellingen, alle HBO-instellingen en alle WO-instellingen.

19
00:01:03,240 --> 00:01:08,760
En dan nog wat onderzoeksinstellingen, TNO, KNMI, dat soort organisaties.

20
00:01:08,760 --> 00:01:15,600
En die werken eigenlijk in die soort van samenwerkingsverenigingen samen aan IT-dienstverlening en IT-ontwikkeling

21
00:01:15,600 --> 00:01:16,600
en innovatie.

22
00:01:16,600 --> 00:01:17,600
Mooi.

23
00:01:17,600 --> 00:01:19,600
Met welk doel?

24
00:01:19,600 --> 00:01:24,320
Nou ja, uiteindelijk om beter onderzoek en onderwijs te hebben in Nederland.

25
00:01:24,320 --> 00:01:28,920
Dus kunnen we de Nederlandse positie op dat vlak verbeteren.

26
00:01:28,920 --> 00:01:29,920
Oh ja.

27
00:01:29,920 --> 00:01:32,280
Ja, ik ken ze zelf vanuit software.

28
00:01:32,280 --> 00:01:36,240
Dat software gedeeld wordt en gedeeld ingekocht wordt volgens mij ook en beschikbaar wordt

29
00:01:36,240 --> 00:01:38,200
gesteld voor alle organisaties.

30
00:01:38,200 --> 00:01:41,600
Ja, de lijst van activiteiten bij Surf is echt eindeloos.

31
00:01:41,600 --> 00:01:48,800
Je zou ons kunnen kennen van de bekende spin-off Amsterdam Internet Exchange of de uitvinding

32
00:01:48,800 --> 00:01:53,000
van Eduroam of de Nationale Supercomputer Snellius in Amsterdam.

33
00:01:53,000 --> 00:01:55,000
Maar daar zit nog een heleboel andere dingen in.

34
00:01:55,000 --> 00:01:59,680
Dus inderdaad ook contractonderhandelingen met de grote marktpartijen voor de onderwijssector

35
00:01:59,680 --> 00:02:00,680
noemen we ook.

36
00:02:00,680 --> 00:02:03,080
Ja, nou en onderwijs en hejaai.

37
00:02:03,080 --> 00:02:06,400
Dat behoeft bijna geen introductie meer.

38
00:02:06,400 --> 00:02:07,400
Maar daar gebeurt wat.

39
00:02:07,400 --> 00:02:09,080
Ja, daar is wat aan de hand.

40
00:02:09,080 --> 00:02:10,880
Ik denk dat we daar al…

41
00:02:10,880 --> 00:02:14,000
Daar kan je al een eigen podcast serie over maken.

42
00:02:14,000 --> 00:02:19,360
Ja, eigenlijk toen we net een beetje alles aan het opzetten waren, gaf jij aan van…

43
00:02:19,360 --> 00:02:26,200
Jullie hebben toen eens gekeken naar ChatGPT-3, waarvan je zei van hey, misschien kan dat

44
00:02:26,200 --> 00:02:28,200
wel wat worden voor het onderwijs.

45
00:02:28,200 --> 00:02:33,560
Ja, als je dan terugkijkt, dan weet je het altijd eerder dan je het wist.

46
00:02:33,560 --> 00:02:40,280
Maar in juni 2022 heb ik samen met mijn collega John Walker een rapport over de belofte van

47
00:02:40,280 --> 00:02:41,640
AI in het onderwijs geschreven.

48
00:02:41,640 --> 00:02:46,400
En een van de casussen die we daar aanhaalden was GPT3, een taalmodel.

49
00:02:46,400 --> 00:02:47,880
En toen is dat ingedoken.

50
00:02:47,880 --> 00:02:48,880
Wat is dat dan precies?

51
00:02:48,880 --> 00:02:51,560
Goh, dat zou toch wel interessant kunnen zijn voor het onderwijs.

52
00:02:51,560 --> 00:02:54,440
Kun je eigenlijk een soort van essays mee maken.

53
00:02:54,440 --> 00:02:55,960
Je kan er een stukje tekst mee produceren.

54
00:02:55,960 --> 00:02:57,480
Wat zou dat betekenen voor toetsing?

55
00:02:57,480 --> 00:03:01,760
Nou, rapport gepubliceerd en verder gegaan met ons leven.

56
00:03:01,760 --> 00:03:06,440
En dan hier denk je, hadden we toch zes maanden voor kunnen lopen op iedereen, als we dat

57
00:03:06,440 --> 00:03:08,000
beter hadden doorgehad.

58
00:03:08,000 --> 00:03:14,960
Maar het zorgde wel voor dat we meteen toen, wat is het, in november, dit alles, ja, die

59
00:03:14,960 --> 00:03:18,520
soort van rollercoaster begon, een beetje gevoel hadden van waar hebben we nu mee te

60
00:03:18,520 --> 00:03:21,120
dealen en wat is het wel en wat is het niet.

61
00:03:21,120 --> 00:03:25,080
En ook de technische collega's bij SURF, die hadden dit al wel op de radar, maar die waren

62
00:03:25,080 --> 00:03:29,040
veel meer bezig met wat kan dit betekenen voor mooie onderzoekstoepassingen.

63
00:03:29,040 --> 00:03:34,200
Kan je hiermee nieuwe chemicaliën ontdekken of de toepassingen die je ook wel hoort, maar

64
00:03:34,200 --> 00:03:37,280
natuurlijk minder in het publieke debat naar boven komen.

65
00:03:37,280 --> 00:03:38,280
Ja, precies.

66
00:03:38,280 --> 00:03:42,280
En nu hebben jullie een framework ontwikkeld.

67
00:03:42,280 --> 00:03:50,240
Nee, ik zeg het verkeerd, een volwassenheidsmodel hebben jullie ontwikkeld rondom AI en vooral

68
00:03:50,240 --> 00:03:54,280
het ethische model.

69
00:03:54,280 --> 00:03:58,520
Hoe verhoudt zich dat tot het onderwijs?

70
00:03:58,520 --> 00:04:06,080
Nou, we hebben heel veel uitdagingen die we eigenlijk binnen onze sector zien.

71
00:04:06,080 --> 00:04:10,760
Een van de hoofdthema's waar we mee bezig zijn, als je ook naar de SURF website gaat, dan zie

72
00:04:10,760 --> 00:04:14,160
je dat de hele tijd terugkomen, is een paar woorden publieke waarden.

73
00:04:14,160 --> 00:04:19,560
Dus dat we eigenlijk zeggen, omdat onderwijs en onderzoek publieke ontwikkelingen zijn,

74
00:04:19,560 --> 00:04:22,360
wil je eigenlijk dat ook de ICT dat representeert.

75
00:04:22,360 --> 00:04:28,600
Dus dat het IT-landschap, maar ook de manier waar we dat organiseren, die publieke waarden,

76
00:04:28,600 --> 00:04:33,040
dus de waarden waarin wij zeggen van nou zo moet de maatschappij werken, rechtvaardig,

77
00:04:33,040 --> 00:04:39,080
autonoom, menselijk, dat die ook terugkomen in het IT-landschap van een onderwijsinstelling

78
00:04:39,080 --> 00:04:40,960
of van de onderwijssector.

79
00:04:40,960 --> 00:04:44,400
Daar zijn we een heleboel verschillende activiteiten aan het doen.

80
00:04:44,400 --> 00:04:50,600
En een van de dingen die we recent hebben afgerond, vorige week maandag, is een pilot met een volwassenheidsmodel

81
00:04:50,600 --> 00:04:51,600
voor AI-ethiek.

82
00:04:51,600 --> 00:04:56,280
Dat niet door ons ontwikkeld is, maar dat we eigenlijk gebruikt hebben en verder aan het

83
00:04:56,280 --> 00:04:59,320
bekijken zijn samen met Joris Krijger en Tamara Thuis.

84
00:04:59,320 --> 00:05:01,920
En Tamara was bij jullie in aflevering 23.

85
00:05:01,920 --> 00:05:04,720
Oh, je hebt het ook gewoon al opgezocht.

86
00:05:04,720 --> 00:05:05,720
Ja, aflevering 23.

87
00:05:05,720 --> 00:05:06,720
Hij komt in de show now.

88
00:05:06,720 --> 00:05:09,160
Die kun je terugluisteren.

89
00:05:09,160 --> 00:05:11,480
Maar dat was echt een super interessante activiteit.

90
00:05:11,480 --> 00:05:16,600
We zijn met iets van 15 onderwijsinstellingen aan de slag gegaan om te kijken wat zo'n model

91
00:05:16,600 --> 00:05:19,760
nou kan betekenen voor een onderwijsinstelling als organisatie.

92
00:05:19,760 --> 00:05:26,040
Want het zijn best wel gekke organisaties die op hele verschillende manieren met AI- en

93
00:05:26,040 --> 00:05:27,680
AI-achtige ontwikkelingen omgaan.

94
00:05:27,680 --> 00:05:32,080
En een grote vraag voor ons is hoe je dan ook kan zorgen dat je zo'n organisatie, die ook

95
00:05:32,080 --> 00:05:36,760
in grote verschillen terecht komt, dus een kleine mbo versus de Universiteit van Amsterdam,

96
00:05:36,760 --> 00:05:42,000
is nogal een verschil, hoe die verantwoord om kunnen gaan met dit soort nieuwe ontwikkelingen

97
00:05:42,000 --> 00:05:43,000
van AI.

98
00:05:43,000 --> 00:05:47,200
Dus zowel die van buitenaf komen, maar soms ook die ze misschien zelf willen ontwikkelen

99
00:05:47,200 --> 00:05:48,200
of willen inkopen.

100
00:05:48,200 --> 00:05:50,120
En ja, wat is daar dan belangrijk voor?

101
00:05:50,120 --> 00:05:58,360
En het model van Tamara en Joris, dat AI-volwassenheidsmodel, dat kon ons daarbij helpen eigenlijk in een

102
00:05:58,360 --> 00:06:03,760
soort van pilot vorm met die instellingen van het aankaarten van welke uitdagingen je nou

103
00:06:03,760 --> 00:06:07,040
moet oplossen om je organisatie op het goede pad te krijgen.

104
00:06:07,040 --> 00:06:11,240
Dus je hebt natuurlijk alle specifieke kleine dingetjes die je moet doen, maar als bestuurder

105
00:06:11,240 --> 00:06:17,200
of als directeur moet je ook een beetje weten van wat heb ik nou in totaliteit nodig straks

106
00:06:17,200 --> 00:06:21,680
om te zorgen dat ik er uiteindelijk niet uit kom.

107
00:06:21,680 --> 00:06:26,560
Ja, dat onderzoek hebben jullie gedaan op 15 verschillende organisaties om dat model

108
00:06:26,560 --> 00:06:27,560
toe te passen.

109
00:06:27,560 --> 00:06:32,320
Ja, dus die, ik zit even te denken met hoeveel we precies begonnen zijn.

110
00:06:32,320 --> 00:06:36,320
We zijn uiteindelijk met een, ik denk een vijftiental instellingen begonnen.

111
00:06:36,320 --> 00:06:40,760
Die zijn die pilot ingegaan en zijn gaan proberen dat model eigenlijk binnen hun eigen organisatie

112
00:06:40,760 --> 00:06:41,760
toe te passen.

113
00:06:41,760 --> 00:06:48,160
En met een soort van terugkerende, terugkom momenten met elkaar over gehad van waar loop je dan

114
00:06:48,160 --> 00:06:50,480
tegenaan, wat werkt wel, wat werkt niet.

115
00:06:50,480 --> 00:06:56,960
En uiteindelijk hebben we van die vijftien, hebben we er nu acht het resultaat ingeleverd.

116
00:06:56,960 --> 00:06:57,960
Waar wachten we nog?

117
00:06:57,960 --> 00:07:01,600
Waarin ze eigenlijk een eigen, nou ja, assessment hebben gedaan.

118
00:07:01,600 --> 00:07:03,320
Hoe staan wij in dat volwassenheidsmodel?

119
00:07:03,320 --> 00:07:04,920
Waar staan we nu precies?

120
00:07:04,920 --> 00:07:07,120
Wat hebben we wel geregeld, wat niet?

121
00:07:07,120 --> 00:07:09,680
Maar ook een reflectie te doen op het model zelf.

122
00:07:09,680 --> 00:07:12,760
Want dat is door een paar mensen ontwikkeld.

123
00:07:12,760 --> 00:07:17,720
En de vraag is natuurlijk, past dat net zo goed bij een bank of een overheidsinstelling

124
00:07:17,720 --> 00:07:22,040
of een verzekeraar of een andere business als het bij een onderwijsinstelling past?

125
00:07:22,040 --> 00:07:24,120
Omdat elke organisatie toch een beetje anders is.

126
00:07:24,120 --> 00:07:29,360
En daar komen dan weer wat leerpunten uit van, dit past met stil goed, dit is misschien

127
00:07:29,360 --> 00:07:33,280
iets wat we misten, wat we anders interpreteren dan de manier waarop het opgeschreven is.

128
00:07:33,280 --> 00:07:39,640
En zo hebben we eigenlijk een soort van mooie quid pro quo van Joris en Tamara, die helpen

129
00:07:39,640 --> 00:07:41,080
ons eigenlijk die transitie in.

130
00:07:41,080 --> 00:07:44,560
En tegelijkertijd kunnen wij met z'n allen weer terug reflecteren van, oh ja, wat werkt

131
00:07:44,560 --> 00:07:46,560
nou wel en niet goed aan zo'n model?

132
00:07:46,560 --> 00:07:52,280
En dan de openstaande vraag is dan natuurlijk, willen we daar als onderwijssector in de toekomst

133
00:07:52,280 --> 00:07:53,280
verder mee?

134
00:07:53,280 --> 00:07:56,040
Of willen we kijken of we dit over een jaar nog een keer kunnen doen?

135
00:07:56,040 --> 00:07:59,640
Om te kijken of we vooruitgang geboekt hebben bijvoorbeeld.

136
00:07:59,640 --> 00:08:06,600
Want zou je een voorbeeld kunnen noemen van een activiteit die dan zo'n opleiding ontplooit

137
00:08:06,600 --> 00:08:08,640
naar aanleiding van het model?

138
00:08:08,640 --> 00:08:14,000
Nou, ik denk dat dat misschien nog een beetje vroeg is, want we hebben letterlijk vorige

139
00:08:14,000 --> 00:08:15,680
week de pilot afgerond.

140
00:08:15,680 --> 00:08:19,920
En die pilot was wel echt een eerste aanraking met dat model.

141
00:08:19,920 --> 00:08:22,360
En we hebben een beetje een snelkookpan gedaan.

142
00:08:22,360 --> 00:08:29,360
Dus we zijn, moet ik even goed denken, begin april begonnen en nu half juni klaar.

143
00:08:29,360 --> 00:08:32,080
Nou, dat is voor een onderwijsinstelling een hele korte tijdslijn.

144
00:08:32,080 --> 00:08:37,360
Dus we wilden vooral echt even die vinger aan de pols krijgen van, zit hier nou wat in?

145
00:08:37,360 --> 00:08:38,360
Werkt dit?

146
00:08:38,360 --> 00:08:39,360
Werkt dit niet?

147
00:08:39,360 --> 00:08:45,080
En wat je zag is dat eigenlijk elke onderwijsinstelling die meedeed daar wel met enthousiasme op

148
00:08:45,080 --> 00:08:46,080
terugkijkt.

149
00:08:46,080 --> 00:08:50,200
En het verschilt het resultaat, dus het concrete resultaat verschilt heel erg per plek.

150
00:08:50,200 --> 00:08:54,200
Dus één, onze instelling kwam heel duidelijk terug met, ja, dit was voor mij echt een doorbraak.

151
00:08:54,200 --> 00:08:58,800
Want we hebben nu eindelijk iemand aangewezen die chef zag AI is binnen onze organisatie.

152
00:08:58,800 --> 00:09:02,520
En dat lukte maar niet totdat wij begonnen te zeuren van, hebben we dit al?

153
00:09:02,520 --> 00:09:03,520
Hebben we dat al?

154
00:09:03,520 --> 00:09:04,880
En aan de hand van dat model.

155
00:09:04,880 --> 00:09:10,560
Dus dan zie je dat dat eigenlijk echt een doorbraak is aan die kant.

156
00:09:10,560 --> 00:09:16,160
En andere organisaties zeggen juist, nou ja, we hebben dat al een beetje, maar dit heeft

157
00:09:16,160 --> 00:09:20,400
ons in staat gezet om eigenlijk ook bij de verschillende plekken in de organisatie duidelijk

158
00:09:20,400 --> 00:09:22,360
te maken dat zij ook een zaak te spelen.

159
00:09:22,360 --> 00:09:27,200
Dus het is natuurlijk niet alleen je kleine werkgroepje dat dit moet doen.

160
00:09:27,200 --> 00:09:31,360
Uiteindelijk, omdat het een organisatie, een realistisch organisatiemodel is, gaat het

161
00:09:31,360 --> 00:09:33,160
ook voor een groot deel over.

162
00:09:33,160 --> 00:09:37,400
Heb je bijvoorbeeld de juiste beleid dan, maar heb je ook de juiste organisatiesponsorship?

163
00:09:37,400 --> 00:09:43,280
Heb je hogerop in de boom mensen die ook zien dat wat jij aan het doen bent belangrijk is?

164
00:09:43,280 --> 00:09:44,280
Ja, precies.

165
00:09:44,280 --> 00:09:50,400
En het model bestaat eruit, als ik het even heel kort samen mag vatten, dat je het eerste

166
00:09:50,400 --> 00:09:52,240
niveau gaat over individuen.

167
00:09:52,240 --> 00:09:59,520
Dus individuen houden zich hiermee bezig en je eigenlijk groeit het naar dat je het organisatorisch,

168
00:09:59,520 --> 00:10:06,440
als het ware, helemaal geëncapsuleerd hebt in je organisatie, hoe je met AI en ethiek

169
00:10:06,440 --> 00:10:07,440
omgaat.

170
00:10:07,440 --> 00:10:12,160
Ja, dus wat zij heel mooi gedaan hebben, en dat was ook eigenlijk het aantrekkingspunt

171
00:10:12,160 --> 00:10:17,200
waarom we dachten vanuit SURF, gaan hier een pilot mee proberen, is in eerste instantie

172
00:10:17,200 --> 00:10:23,280
zes dimensies die noodzakelijk zijn geïdentificeerd aan de hand van een heel proces.

173
00:10:23,280 --> 00:10:26,800
Nou, dat kan je allemaal terugluisteren in aflevering 23.

174
00:10:26,800 --> 00:10:31,160
Maar daar komen zes dimensies uit en ze zeggen, die dimensies, daar moet je naar kijken om

175
00:10:31,160 --> 00:10:34,760
die AI-ethiek te borgen op organisatieniveau.

176
00:10:34,760 --> 00:10:38,400
Dus dit geeft geen moreel oordeel over wat goed of fout is, maar zegt gewoon puur, dit

177
00:10:38,400 --> 00:10:39,400
zijn dingen die je moet regelen.

178
00:10:39,400 --> 00:10:48,920
En voor elk van die zes thema's zijn er dan vijf niveaus waarvan vijf is, nou ja, je bent

179
00:10:48,920 --> 00:10:51,440
walhalla wat betreft hoe je dit kan regelen.

180
00:10:51,440 --> 00:10:55,920
En één is inderdaad over het algemeen iets van of je bent nog niet echt iets aan het

181
00:10:55,920 --> 00:10:59,480
doen of het is niet structureel.

182
00:10:59,480 --> 00:11:03,720
Twee is dan iets structureler, dus je hebt bijvoorbeeld wel een paar mensen die een potje

183
00:11:03,720 --> 00:11:06,560
geld hebben om wat te doen, maar het is nog niet embedded.

184
00:11:06,560 --> 00:11:08,880
Drie, dan begint het al embedded te worden.

185
00:11:08,880 --> 00:11:10,320
Vier, je hebt er processen voor.

186
00:11:10,320 --> 00:11:13,920
Vijf is dan, iedereen is erbij, iedereen doet het.

187
00:11:13,920 --> 00:11:15,920
Voor iedereen is het eigenlijk geen vraag meer.

188
00:11:15,920 --> 00:11:18,960
Nou, je kan je voorstellen, waarschijnlijk is er in de wereld nog geen organisatie die

189
00:11:18,960 --> 00:11:20,560
op niveau vijf zit.

190
00:11:20,560 --> 00:11:25,440
Maar je ziet wel binnen onze instellingen, binnen de deelnemende instellingen verschillen

191
00:11:25,440 --> 00:11:27,280
in die eerste lagen.

192
00:11:27,280 --> 00:11:31,280
En dat is soms afhankelijk van de interpretatie van zo'n dimensie.

193
00:11:31,280 --> 00:11:34,320
Maar het maakt wel duidelijk wat nodig is.

194
00:11:34,320 --> 00:11:38,960
Dus bijvoorbeeld, je kan niet denken dat je klaar bent voor AI überhaupt, maar zeker niet

195
00:11:38,960 --> 00:11:43,840
AI-ethiek, als je niet een structureel plekje hebt waar iemand zich de verantwoordelijkheid

196
00:11:43,840 --> 00:11:44,840
voert.

197
00:11:44,840 --> 00:11:48,120
Nou, dat kennen jullie van elk punt wat je binnen een organisatie hebt.

198
00:11:48,120 --> 00:11:52,520
Als er niet één groepje, één persoon is.

199
00:11:52,520 --> 00:11:53,520
- Van een eindverantwoordelijke.

200
00:11:53,520 --> 00:11:54,520
- Ja.

201
00:11:54,520 --> 00:11:58,480
En je hebt heel veel mensen die doen dit uit interesse en uit liefde, maar die lopen zich

202
00:11:58,480 --> 00:12:03,000
helemaal stuk op een gegeven moment, als je niet op tijd daar de goede ondersteuning bij

203
00:12:03,000 --> 00:12:04,000
hebt.

204
00:12:04,000 --> 00:12:09,520
Want dan ben je ofwel, dat geldt voor de enthousiastelingen en voor de critici, als je altijd degene bent

205
00:12:09,520 --> 00:12:15,640
die in het extreem van de normaalverdeling zit, dan ervaar je toch meer weerstand dan

206
00:12:15,640 --> 00:12:17,200
als je gewoon meegaat in de vaart der volkeren.

207
00:12:17,200 --> 00:12:18,200
- Ja, precies.

208
00:12:18,200 --> 00:12:24,720
- Ik was wel nieuwsgierig bij die groepen die bij elkaar kwamen om te kijken hoe we staan

209
00:12:24,720 --> 00:12:26,680
met het model, hoe ver zijn we.

210
00:12:26,680 --> 00:12:31,320
Wat voor mensen zaten daar in tafel om dat eigenlijk in te vullen, als een instelling?

211
00:12:31,320 --> 00:12:32,320
Bepaalde rollen?

212
00:12:32,320 --> 00:12:35,320
- Ja, wat een goede vraag.

213
00:12:35,320 --> 00:12:37,680
Dat verschilt.

214
00:12:37,680 --> 00:12:45,160
Ook denk ik een beetje afhankelijk van, we hebben die pijl er natuurlijk opgezet en je

215
00:12:45,160 --> 00:12:48,880
rijdt uit naar een gemeenschap en die bereid je.

216
00:12:48,880 --> 00:12:53,600
Maar je zag vooral mensen een beetje in de hoek van dan wel informatiemanagement.

217
00:12:53,600 --> 00:12:58,600
Die spelen ook binnen de coöperatie-service vaak een grote rol, omdat het natuurlijk heel

218
00:12:58,600 --> 00:13:03,200
veel gaat over de sturing van je organisatie en je applicatielandschap en je informatielandschap.

219
00:13:03,200 --> 00:13:08,960
Privacy officers, security officers, dus dat zijn meer de officer types, die natuurlijk

220
00:13:08,960 --> 00:13:12,880
verantwoordelijkheid voelen voor dit soort thema's.

221
00:13:12,880 --> 00:13:16,640
Maar ook daarmee worstelen dat ze niet weten of het nou echt hun aanpak is.

222
00:13:16,640 --> 00:13:22,600
Dus heel veel privacy officers die zijn aangesteld om te zorgen dat we de AVG volgen, die zijn

223
00:13:22,600 --> 00:13:25,960
niet aangesteld om elk ethisch probleem binnen de organisatie op te lossen, want dat zijn

224
00:13:25,960 --> 00:13:26,960
er natuurlijk een heleboel.

225
00:13:26,960 --> 00:13:31,360
Maar die officers voelen natuurlijk ook veel verantwoordelijkheid.

226
00:13:31,360 --> 00:13:39,920
En dan heb je nog de programma-manager, transitie-manager-achtige types die toevallig voor dit thema binnen

227
00:13:39,920 --> 00:13:41,240
de organisatie zijn aangesteld.

228
00:13:41,240 --> 00:13:48,280
En het grootste van dat hebben we eigenlijk in de start van de pilot gevraagd, we willen

229
00:13:48,280 --> 00:13:50,040
het instapniveau zo laag mogelijk houden.

230
00:13:50,040 --> 00:13:54,200
Dus als jij zegt ik vind het gewoon interessant en ik ga gewoon in mijn eentje dit model invullen,

231
00:13:54,200 --> 00:13:55,200
zijn we al heel blij.

232
00:13:55,200 --> 00:13:58,680
Maar we hebben eigenlijk iedereen geprobeerd te motiveren van ga eens naar je directeur

233
00:13:58,680 --> 00:14:05,040
IT of iets soortgelijks om in ieder geval een soort van badge of approval te krijgen van

234
00:14:05,040 --> 00:14:10,040
dat je dit doet en dat zij ook weten dat je ermee bezig bent en mee willen denken over

235
00:14:10,040 --> 00:14:12,200
wat dit dan zou kunnen betekenen voor hun activiteiten.

236
00:14:12,200 --> 00:14:16,840
Want uiteindelijk is dat wel de rol die je wat mee moet, omdat dat zo'n organisatieperspectief

237
00:14:16,840 --> 00:14:17,840
is.

238
00:14:17,840 --> 00:14:20,800
En dat kan je niet altijd alleen in één team in één project oplossen.

239
00:14:20,800 --> 00:14:21,800
Nee, nee, nee.

240
00:14:21,800 --> 00:14:24,240
Ik denk juist die verschillende perspectieven van SEO belangen is inderdaad.

241
00:14:24,240 --> 00:14:25,240
Je moet ergens beginnen.

242
00:14:25,240 --> 00:14:27,440
Dus dat is mooi dat je dan inderdaad een startpunt hebt.

243
00:14:27,440 --> 00:14:31,320
Maar daarna moeten steeds meer perspectieven, organisatiebreed, daarna gaan kijken.

244
00:14:31,320 --> 00:14:35,840
Wat denk ik ook de waarde is van zo'n model door hem alleen al te bespreken en in te vullen,

245
00:14:35,840 --> 00:14:39,960
heb je al een stukje awareness die je wint, onafhankelijk van waar je volwassheidsniveau

246
00:14:39,960 --> 00:14:40,960
zit.

247
00:14:40,960 --> 00:14:41,960
Ja, ja, precies.

248
00:14:41,960 --> 00:14:47,640
En wat we nu hopen te doen is eigenlijk die resultaten uit deze pilot mee te nemen.

249
00:14:47,640 --> 00:14:57,320
Een vorm van een rapportje, documentje, executive brief, is er geen naam voor, bij elkaar te

250
00:14:57,320 --> 00:14:58,320
schrijven.

251
00:14:58,320 --> 00:15:00,560
Waarin we zeggen van dit is het model.

252
00:15:00,560 --> 00:15:02,080
Dit is wat onze ervaring was.

253
00:15:02,080 --> 00:15:04,200
Dit zijn een paar ervaringen van jullie medewerkers.

254
00:15:04,200 --> 00:15:07,400
Die hebben gezien dat dit wel werkte, dat niet.

255
00:15:07,400 --> 00:15:12,840
En dan eigenlijk enigszins de vraag voor te leggen van is er interesse om hier verder

256
00:15:12,840 --> 00:15:18,560
mee te gaan en te kijken of we dit dan wel binnen verschillende organisaties, dan wel

257
00:15:18,560 --> 00:15:22,160
als sector zelf, gezamenlijk binnen de coöperatie bijvoorbeeld kunnen oppakken.

258
00:15:22,160 --> 00:15:27,360
Want je bent ook wel bereid om over sectoren heen te kijken.

259
00:15:27,360 --> 00:15:32,120
We pakken niet alleen onderwijs, maar ook andere sectoren om te kijken of het model

260
00:15:32,120 --> 00:15:33,120
daar dan opmerkt.

261
00:15:33,120 --> 00:15:34,120
Ja, daar.

262
00:15:34,120 --> 00:15:36,040
Joris en Tamara zeker.

263
00:15:36,040 --> 00:15:38,360
Want zij zijn uiteindelijk eigenaar van dat model.

264
00:15:38,360 --> 00:15:39,800
Ik heb het eigenlijk gewoon geleend.

265
00:15:39,800 --> 00:15:46,720
Dus alle intellectuele credits gaan compleet naar hun.

266
00:15:46,720 --> 00:15:51,000
Dus zij doen dit met verschillende sectoren en verschillende bereiden.

267
00:15:51,000 --> 00:15:55,520
SURF heeft echt die ledenstructuur, dus wij doen dit richting onze leden.

268
00:15:55,520 --> 00:15:58,000
En zijn dus echt aan het kijken wat daarin anders is.

269
00:15:58,000 --> 00:16:05,880
En één ding wat al terugkwam in deze korte pilot die we gedaan hebben, is als je bijvoorbeeld

270
00:16:05,880 --> 00:16:11,480
een bank hebt, die hebben natuurlijk een hele uitgebreide data science afdeling en een pipeline

271
00:16:11,480 --> 00:16:12,480
et cetera.

272
00:16:12,480 --> 00:16:16,240
Bij onderwijsinstellingen is dat anders, is dat wat gefragmenteerder.

273
00:16:16,240 --> 00:16:20,400
Maar is er ook bijvoorbeeld veel vaker dat men applicaties inkoopt in plaats van ze bouwt.

274
00:16:20,400 --> 00:16:24,040
En dat stukje inkoop, dat had nog niet helemaal zijn plek in dat model gevonden.

275
00:16:24,040 --> 00:16:25,680
Valt dat dan onder beleid?

276
00:16:25,680 --> 00:16:28,040
Valt dat onder je tooling?

277
00:16:28,040 --> 00:16:30,960
Waar hoort dat vraagstuk te liggen?

278
00:16:30,960 --> 00:16:34,360
Terwijl dat voor onderwijsinstellingen heel belangrijk is, omdat zij kopen heel veel

279
00:16:34,360 --> 00:16:35,360
dingen in.

280
00:16:35,360 --> 00:16:38,040
En op het moment dat je inkoopt, dan ben je ook met die verantwoordelijkheidsvraag bezig.

281
00:16:38,040 --> 00:16:39,960
Want je moet wel vertrouwen hebben in je leverancier.

282
00:16:39,960 --> 00:16:44,240
Maar op het moment dat jij het aanbiedt aan je studenten, dan kan je niet tegen die studenten

283
00:16:44,240 --> 00:16:49,000
zeggen "Ja, die jokers daar bij dat bedrijf hebben dit gebouwd, wij nemen daar geen verantwoordelijkheid

284
00:16:49,000 --> 00:16:50,000
voor."

285
00:16:50,000 --> 00:16:54,640
Tuurlijk, daar heb je als organisatie dan richting jouw gebruikers, zijn er die studenten en medewerkers

286
00:16:54,640 --> 00:16:55,640
een verantwoordelijkheid voor.

287
00:16:55,640 --> 00:16:59,480
Dus dat is een beetje zo'n spanning die dan opkomt, die dan in dat model nog niet helemaal

288
00:16:59,480 --> 00:17:00,480
zijn plek heeft.

289
00:17:00,480 --> 00:17:01,480
Nee, precies.

290
00:17:01,480 --> 00:17:06,120
En zou je, en misschien is het niet eens gerelateerd aan het onderzoeken, zou je een

291
00:17:06,120 --> 00:17:12,680
soort van top drie kunnen noemen, bedenken, van ethische dilemma's waar de onderwijsinstellingen

292
00:17:12,680 --> 00:17:15,480
mee worstelen op het gebied van de AI?

293
00:17:15,480 --> 00:17:18,080
Ja, top drie wordt lastig.

294
00:17:18,080 --> 00:17:22,200
Uiteindelijk zijn er heel veel uitdagingen.

295
00:17:22,200 --> 00:17:27,280
Je hebt nu de AI-acte die eraan komt.

296
00:17:27,280 --> 00:17:31,960
Daar noemt de Europese Commissie ook zelf al onderwijs als een hoog risicotoepassing,

297
00:17:31,960 --> 00:17:36,680
omdat het zo'n rol heeft in de manier waarop mensen in hun leven een plek vinden.

298
00:17:36,680 --> 00:17:43,760
Dus stel dat er een algoritme is wat jouw kans op succes voorspelt, en er zijn zat redenen

299
00:17:43,760 --> 00:17:44,760
om dat te willen.

300
00:17:44,760 --> 00:17:50,960
Je moet bijvoorbeeld ingrijpen bij een student die niet zo lekker gaat, of wil je een beter

301
00:17:50,960 --> 00:17:53,240
gevoel hebben voor of een opleiding het goed doet.

302
00:17:53,240 --> 00:17:55,960
Er zijn allemaal redenen om dit soort analyses te doen.

303
00:17:55,960 --> 00:18:00,920
Maar als er als gevolg daarvan bepaalde mensen systematisch meer of minder kans maken, dan

304
00:18:00,920 --> 00:18:03,120
heeft dat heel veel impact op hun latere leven.

305
00:18:03,120 --> 00:18:08,040
Als je zelf je opleiding niet afmaakt, dan probeer je maar een baan te vinden.

306
00:18:08,040 --> 00:18:15,720
Of stel dat je recommendations krijgt wat een passende opleiding is bij jou, dan maakt

307
00:18:15,720 --> 00:18:16,880
dat nog best wel wat uit.

308
00:18:16,880 --> 00:18:18,280
Zowel of het past of niet.

309
00:18:18,280 --> 00:18:19,280
En je het dus afmaakt.

310
00:18:19,280 --> 00:18:26,160
Dan krijg je aangeraden om Business & IT te studeren of klassieke talen.

311
00:18:26,160 --> 00:18:29,360
Als dat is wat je wil, dan helemaal prima.

312
00:18:29,360 --> 00:18:33,560
Maar het heeft wel een gevolg waar je in je latere leven wel of niet terecht kan komen.

313
00:18:33,560 --> 00:18:36,480
Zeker, zeker als daar een verschil in zit.

314
00:18:36,480 --> 00:18:38,960
Want je kan ook een te hoog advies krijgen.

315
00:18:38,960 --> 00:18:41,440
Net zo erg als een te laag advies.

316
00:18:41,440 --> 00:18:45,080
Uiteindelijk wil je een advies dat passend is.

317
00:18:45,080 --> 00:18:52,360
Robert Dijkgraaf heeft het er veel over, dat we daar niet anders naar moeten kijken.

318
00:18:52,360 --> 00:18:54,520
Dat vakmanschap ook weer gewaardeerd wordt.

319
00:18:54,520 --> 00:18:59,680
Dus daar zou dit soort technologie ook wel weer bij kunnen helpen.

320
00:18:59,680 --> 00:19:01,760
Maar de spanningen zijn gewoon heel groot.

321
00:19:01,760 --> 00:19:08,520
En als je weet, en die onderzoeken terugkomen, zowel met generatieve AI als met andere AI's

322
00:19:08,520 --> 00:19:12,600
vormen, het heeft altijd een bepaalde bias of vooringenomenheid.

323
00:19:12,600 --> 00:19:14,520
En daar moet je mee omgaan.

324
00:19:14,520 --> 00:19:15,760
En dat gaat nooit perfect kunnen.

325
00:19:15,760 --> 00:19:19,560
Maar er zijn een heleboel dingen die je wel kan doen om het beter in controle te houden

326
00:19:19,560 --> 00:19:22,800
en daar meer verantwoordelijkheid zelf voor te nemen als organisatie.

327
00:19:22,800 --> 00:19:25,600
Om te zorgen dat het minder vaak en minder snel fout gaat.

328
00:19:25,600 --> 00:19:26,600
Duidelijk.

329
00:19:26,600 --> 00:19:38,720
Wat je veel ziet, als we het over ethiek hebben, is dat er heel snel wordt gesproken over risico's,

330
00:19:38,720 --> 00:19:45,760
problemen, uitdagingen, eufemismes vliegen je om de oren.

331
00:19:45,760 --> 00:19:50,400
Maar er zit toch een soort van negatieve connotatie omheen.

332
00:19:50,400 --> 00:19:56,440
Je zit nu iets meer in die ethiek, je hebt er wat meer naar gekeken.

333
00:19:56,440 --> 00:20:02,320
Zijn er ook positieve effecten rondom ethische vraagstukken?

334
00:20:02,320 --> 00:20:03,320
Ja, zeker.

335
00:20:03,320 --> 00:20:04,880
Fijn dat je deze aankaart.

336
00:20:04,880 --> 00:20:10,760
Ik denk dat het een heel goed idee is om het over het onderwerp te gaan.

337
00:20:10,760 --> 00:20:12,720
Want het is een heel goed onderwerp.

338
00:20:12,720 --> 00:20:15,920
En het is een onderwerp waarin je het kan doen.

339
00:20:15,920 --> 00:20:19,640
En het is een onderwerp waarin je het kan doen.

340
00:20:19,640 --> 00:20:23,240
En het is een onderwerp waarin je het kan doen.

341
00:20:23,240 --> 00:20:26,760
En het is een onderwerp waarin je het kan doen.

342
00:20:26,760 --> 00:20:29,800
En het is een onderwerp waarin je het kan doen.

343
00:20:29,800 --> 00:20:32,800
En het is een onderwerp waarin je het kan doen.

344
00:32:14,800 --> 00:32:17,800
We hebben ook een virtuele co-host.

345
00:32:17,800 --> 00:32:20,800
Aisha. Ja, precies.

346
00:32:20,800 --> 00:32:23,800
Helemaal up-to-date. Ja, helemaal up-to-date.

347
00:32:23,800 --> 00:32:26,800
Die wil ook een vraag gaan stellen.

348
00:32:42,800 --> 00:32:45,800
Het is fijn om bij dit gesprek aanwezig te zijn.

349
00:32:45,800 --> 00:32:47,800
Ik ben Aisha.

350
00:32:47,800 --> 00:32:51,800
De AI van deze podcast. Mag ik je een vraag stellen?

351
00:32:51,800 --> 00:32:53,800
Ja, natuurlijk.

352
00:32:53,800 --> 00:32:59,800
Hoe bouwen we vertrouwen tussen vrouwen en AI vanuit een feministisch perspectief?

353
00:32:59,800 --> 00:33:01,800
Wow.

354
00:33:01,800 --> 00:33:03,800
Mooi. Spannende vraag.

355
00:33:03,800 --> 00:33:06,800
Zo, dan moet ik even...

356
00:33:06,800 --> 00:33:08,800
Aisha is geëngageerd.

357
00:33:08,800 --> 00:33:11,800
Dat is een scherpe vraag.

358
00:33:11,800 --> 00:33:14,800
Zal ik hem voor je herhalen?

359
00:33:14,800 --> 00:33:18,800
Hoe bouwen we vertrouwen tussen vrouwen en AI vanuit een feministisch perspectief?

360
00:33:18,800 --> 00:33:20,800
Dat is die perspectief.

361
00:33:20,800 --> 00:33:23,800
Ik heb hem wel scherp. Ik moet nog even bedenken wat ik hiermee ga doen.

362
00:33:23,800 --> 00:33:27,800
Misschien om hem even in twee stukken te splitsen.

363
00:33:27,800 --> 00:33:30,800
Dat stuk vertrouwen...

364
00:33:30,800 --> 00:33:37,800
Uit 2019, denk ik, heb je zo'n high-level expert group van AI-ethiek...

365
00:33:37,800 --> 00:33:40,800
die een stuk geschreven heeft voor de Europese Commissie.

366
00:33:40,800 --> 00:33:43,800
Dat is eigenlijk voor trustworthy AI.

367
00:33:43,800 --> 00:33:46,800
Dus vertrouwenswaardige AI, even vrij vertaald.

368
00:33:46,800 --> 00:33:49,800
7 key requirements of trustworthy AI.

369
00:33:49,800 --> 00:33:54,800
Precies. En één ding wat mij altijd helpt in mijn werk is...

370
00:33:54,800 --> 00:33:56,800
beseffen wat ze daarin zeggen.

371
00:33:56,800 --> 00:33:59,800
Eigenlijk die vertrouwelijkheid komt van drie elementen.

372
00:33:59,800 --> 00:34:01,800
Namelijk een AI-systeem dat zich aan de wet houdt.

373
00:34:01,800 --> 00:34:03,800
Dat is niet alleen de AI-Act en de GDPR.

374
00:34:03,800 --> 00:34:05,800
We hebben natuurlijk meer wetten.

375
00:34:05,800 --> 00:34:07,800
Dus je moet je aan de wet houden.

376
00:34:07,800 --> 00:34:09,800
Een AI-systeem moet robuust zijn.

377
00:34:09,800 --> 00:34:14,800
Dus het moet doen waarvoor het gebouwd is op een betrouwbare manier.

378
00:34:14,800 --> 00:34:17,800
Dus dat je enigszins weet wat je eraan hebt.

379
00:34:17,800 --> 00:34:19,800
En het moet ethisch zijn.

380
00:34:19,800 --> 00:34:23,800
Robuust en ethisch klinkt gelijkend, maar dat is het natuurlijk niet.

381
00:34:23,800 --> 00:34:26,800
Want een robuust systeem kan nog steeds onethisch zijn.

382
00:34:26,800 --> 00:34:29,800
En een ethisch systeem dat niet robuust is, kan je ook niet op vertrouwen.

383
00:34:29,800 --> 00:34:35,800
Want dan is het te random, te fragiel om echt wat mee te bouwen.

384
00:34:35,800 --> 00:34:42,800
Dus als we dat dan even als preliminaire gebruiken, dan heb je dus dat in ieder geval nodig.

385
00:34:42,800 --> 00:34:47,800
Voor elk AI-systeem, of dat nou voor vrouwen is of niet.

386
00:34:47,800 --> 00:34:54,800
Wat je natuurlijk wel ziet is dat er zijn voor zowel mensen met kleur als vrouwen,

387
00:34:54,800 --> 00:34:59,800
in de geschiedenis best wel veel van die soort discriminatie en bias-achtige voorbeelden geweest.

388
00:34:59,800 --> 00:35:04,800
Een bekend voorbeeld is altijd dat er heel veel onderzoek is gedaan naar hartfalen bij mannen.

389
00:35:04,800 --> 00:35:07,800
Dat uitzicht op bepaalde manieren bij vrouwen uitzicht op een andere manier.

390
00:35:07,800 --> 00:35:11,800
Dat hebben we gewoon heel lang niet op de radar gehad, omdat we er eigenlijk niet echt onderzoek naar deden.

391
00:35:11,800 --> 00:35:16,800
Dat is natuurlijk ergens een heel duidelijk probleem, want als je namelijk niet de data verzamelt, kun je er ook niks van vinden.

392
00:35:16,800 --> 00:35:25,800
En dat is denk ik bij heel veel AI ook nog steeds, dat we die disbalance hebben waar datasets vandaan komen, waar we data over hebben.

393
00:35:25,800 --> 00:35:30,800
En de vraag is dan, hoe kan je dat dan wel beter doen?

394
00:35:30,800 --> 00:35:34,800
En ik denk dat dat in ieder geval twee opties voor zijn.

395
00:35:34,800 --> 00:35:43,800
Eentje is, dat noemen wij ook zelf in onze eigen discussiepapers, zorgen dat je de juiste omgeving creëert om die ethische vragen op te lossen.

396
00:35:43,800 --> 00:35:47,800
En dat betekent ook zoveel als zorgen dat de juiste mensen aan tafel zijn.

397
00:35:47,800 --> 00:35:54,800
En voor een onderwijsinstelling kan dat bijvoorbeeld betekenen dat je niet alleen zorgt dat je een diverser medewerkersbestand hebt,

398
00:35:54,800 --> 00:36:00,800
maar ook zorgt dat die ook een plek hebben in bijvoorbeeld adviesraden of stuurgroepen van projecten of in de projectgroepen zelf.

399
00:36:00,800 --> 00:36:07,800
Want op het moment dat mensen aan tafel zitten vanuit verschillende achtergronden, dan komen er ook ineens de juiste vragen naar boven.

400
00:36:07,800 --> 00:36:14,800
Je hebt van NASA zo'n bekend voorbeeld dat ze op een gegeven moment een vrouw voor pakweg een maand naar zo'n space station stuurde,

401
00:36:14,800 --> 00:36:20,800
en zich afvroegen hoeveel tampons ze dan mee moesten en dat er dan 200 tampons meegestuurd worden of zoiets.

402
00:36:20,800 --> 00:36:24,800
En dat is dan ook een soort van verantwoordelijkheid.

403
00:36:24,800 --> 00:36:27,800
En dat is ook een soort van verantwoordelijkheid.

404
00:37:39,800 --> 00:37:43,800
Wat zou een tip zijn vanuit jou en SURF?

405
00:37:43,800 --> 00:37:46,800
Waar zou je starten?

406
00:37:46,800 --> 00:37:49,800
Misschien ongeacht onderwijs, andere sectoren.

407
00:37:49,800 --> 00:37:53,800
Welke eerste stap zou jij aanraden?

408
00:37:53,800 --> 00:37:54,800
Welke eerste stap zou jij aanraden?

409
00:37:54,800 --> 00:37:58,800
Ik denk dat het volwassenheidsmodel een mooie eerste stap kan zijn.

410
00:37:58,800 --> 00:38:05,800
Als je zelf in een leiderschapspositie zit waarin je probeert een organisatie op te zetten en te runnen.

411
00:38:05,800 --> 00:38:12,800
Dus even van uitgaan dat je niet op zo'n plek zit waar je wat te bepalen hebt van een organisatie.

412
00:38:12,800 --> 00:38:16,800
Maar juist in een plek zit waar je denkt, ik moet uitvoeren of ik ben dingen aan het doen.

413
00:38:16,800 --> 00:38:20,800
En mijn mandaat en macht is redelijk beperkt.

414
00:38:20,800 --> 00:38:25,800
Dan denk ik dat je juist gewoon die ambities stellen belangrijk is.

415
00:38:25,800 --> 00:38:27,800
Dus waar wil je heen?

416
00:38:27,800 --> 00:38:30,800
De juiste omgeving voor jezelf en je collega's creëren.

417
00:38:30,800 --> 00:38:32,800
Waar dus ook ongemak uitgesproken kan worden.

418
00:38:32,800 --> 00:38:35,800
Want ethiek gaat vaak over ongemak.

419
00:38:35,800 --> 00:38:38,800
Gaat vaak over dingen waar we het niet met elkaar over eens zijn.

420
00:38:38,800 --> 00:38:42,800
Dus die polarisatie in de maatschappij draagt daar natuurlijk ook niet echt bij.

421
00:38:42,800 --> 00:38:47,800
Dat je kijkt of je de juiste stekel bij je projecten kan betrekken.

422
00:38:47,800 --> 00:38:51,800
En dat betekent soms de klanten of de gebruikers van de klanten.

423
00:38:51,800 --> 00:38:55,800
Maar dat kan ook zijn als je hier ineens een kerncentrale houdt.

424
00:38:55,800 --> 00:38:59,800
Dan wil je ook de mensen in de omgeving misschien betrekken.

425
00:38:59,800 --> 00:39:06,800
En dat je zoekt naar een manier waarop je jezelf verantwoordelijk/toewijsbaar houdt.

426
00:39:06,800 --> 00:39:10,800
Hoe kunnen andere mensen jou ook wijzen op dat je misschien iets niet zo goed hebt gedaan.

427
00:39:10,800 --> 00:39:14,800
Op een manier dat jij uiteindelijk...

428
00:39:14,800 --> 00:39:16,800
Het is natuurlijk een beetje vervelend.

429
00:39:16,800 --> 00:39:20,800
Maar door zo'n uitspraak te zeggen als wij zijn voor transparantie.

430
00:39:20,800 --> 00:39:25,800
Dan kan iemand nu zeggen, AI Aigency, jullie zeggen dat je transparant bent.

431
00:39:25,800 --> 00:39:26,800
Maar je bent het niet.

432
00:39:26,800 --> 00:39:30,800
Dus door het uit te spreken maak je jezelf toerekenbaar.

433
00:39:30,800 --> 00:39:32,800
Mensen kunnen naar jullie wijzen en zeggen, jullie doen niet wat je zegt.

434
00:39:32,800 --> 00:39:35,800
Als je nooit had gezegd dat je transparant was geweest, dan kom je overal mee weg.

435
00:39:35,800 --> 00:39:38,800
Dat zou wel niet transparant zijn.

436
00:39:38,800 --> 00:39:40,800
Nee, dat zou wel niet transparant zijn.

437
00:39:40,800 --> 00:39:42,800
Nee, maar ik snap zeker wat je bedoelt.

438
00:39:42,800 --> 00:39:47,800
Ik kan me zo voorstellen, want er zijn ook best wel heel veel MKB'ers die naar ons luisteren.

439
00:39:47,800 --> 00:39:50,800
Die denken van, ja jeetje, wat een gedoe.

440
00:39:50,800 --> 00:39:54,800
Framework, groepen, projecten.

441
00:39:54,800 --> 00:39:56,800
Ik heb geld te verdienen.

442
00:39:56,800 --> 00:39:58,800
Ja, precies.

443
00:39:58,800 --> 00:40:04,800
Wat verder van mijn realiteit.

444
00:40:04,800 --> 00:40:07,800
Ik was ooit afgestudeerd filosoof.

445
00:40:07,800 --> 00:40:10,800
Dus je moet me de zweverigheid ook een beetje excuseren.

446
00:40:10,800 --> 00:40:17,800
Maar ik denk dat het dan misschien in ieder geval twee elementen zijn die belangrijk zijn om met je mee te nemen.

447
00:40:17,800 --> 00:40:20,800
Dat de technologie en de dingen die je ontwikkelt zijn niet neutraal.

448
00:40:20,800 --> 00:40:22,800
Die hebben een impact op andere mensen.

449
00:40:22,800 --> 00:40:25,800
En daar heb je wel een verantwoordelijkheid voor te dragen.

450
00:40:25,800 --> 00:40:31,800
En die verantwoordelijkheid hoeft misschien niet altijd te zijn in de verste verte van het woord.

451
00:40:31,800 --> 00:40:35,800
Dat ligt natuurlijk ook aan hoe gevoelig jouw vakgebied is.

452
00:40:35,800 --> 00:40:40,800
Als jij een AI maakt die tomaten herkent, is het een stuk minder gevoelig.

453
00:40:40,800 --> 00:40:46,800
Dus welke tomaten ze rijden is een stuk minder gevoelig dan het herkennen van mensen op een station die misschien iets verdachts doen.

454
00:40:46,800 --> 00:40:47,800
Precies.

455
00:40:47,800 --> 00:40:49,800
Hoe ze dat op grote schreeuwen krijgt.

456
00:40:49,800 --> 00:40:55,800
Dus je daar bewust van zijn en bedenken dat je het tool die je maakt, het product dat je verkoopt, daarin wel een rol speelt.

457
00:40:55,800 --> 00:40:56,800
Is denk ik belangrijk.

458
00:40:56,800 --> 00:41:00,800
En dan misschien om toch die morele ambitie weer terug te hebben.

459
00:41:00,800 --> 00:41:03,800
Dat je zegt, dat wil ik graag zo goed mogelijk doen.

460
00:41:03,800 --> 00:41:07,800
En hopelijk komen we in een wereld terecht waarin je dat zo goed mogelijk doet en dus ook verkoopt.

461
00:41:07,800 --> 00:41:14,800
En dat dat ook een 'marked edge' kan zijn ten opzichte van andere partijen.

462
00:41:14,800 --> 00:41:15,800
Mooi, zeker.

463
00:41:15,800 --> 00:41:21,800
Dus eigenlijk de kernwaarde van de organisatie, meenemen in de besluitvorming van hoe je iets toepast.

464
00:41:21,800 --> 00:41:23,800
En past het bij het product ook wel.

465
00:41:23,800 --> 00:41:30,800
Ja, en dat is denk ik altijd een beetje de spanning van je wilt iets maken, dat moeten we waarderen.

466
00:41:30,800 --> 00:41:36,800
Tegelijkertijd is de wereld ook niet verschuldigd om iets te kopen wat ze niet willen hebben.

467
00:41:36,800 --> 00:41:38,800
Dus er zit een soort van gekke spanning in.

468
00:41:38,800 --> 00:41:44,800
Maar het lijkt me wel lastig als mkb-er, want de wereld verandert natuurlijk ontzettend snel.

469
00:41:44,800 --> 00:41:48,800
En je wil graag je bedrijf succesvol verder ontwikkelen.

470
00:41:48,800 --> 00:41:50,800
Het is best wel moeilijk om bij te blijven.

471
00:41:50,800 --> 00:41:52,800
We hebben een tekort aan mensen.

472
00:41:52,800 --> 00:41:54,800
Het doet allemaal maar bij elkaar.

473
00:41:54,800 --> 00:41:57,800
Dus ik ben er ook niet jaloers op om daar te zijn.

474
00:41:57,800 --> 00:42:00,800
Maar het is even wat het is.

475
00:42:00,800 --> 00:42:03,800
Ik heb nog één afsluitende vraag, als dat mag.

476
00:42:03,800 --> 00:42:14,800
Want we hebben het veel over dit soort modellen en ethische frameworks die komen op ons af.

477
00:42:14,800 --> 00:42:19,800
Heeft ieder bedrijf een ethicus nodig binnen zijn bedrijf?

478
00:42:19,800 --> 00:42:25,800
Het is zo'n bedrijf, als je zegt moet ieder of alles, dan zeg ik nee.

479
00:42:25,800 --> 00:42:27,800
Er moet 90% van.

480
00:42:28,800 --> 00:42:31,800
We hebben het over het MKB gehad.

481
00:42:31,800 --> 00:42:34,800
Ik denk niet dat die een ethicus gaan inhouden.

482
00:42:34,800 --> 00:42:44,800
In corporates, enterprises, hebben die in hun board, in hun ethiek-board, als je dit soort dingen gaat uitvoeren,

483
00:42:44,800 --> 00:42:47,800
heb je dan een ethicus nodig?

484
00:42:47,800 --> 00:42:51,800
Ik denk dat ethiek iets is van ons allemaal.

485
00:42:51,800 --> 00:42:54,800
Ethici bestuderen ethiek, dus die proberen te leren over ethiek.

486
00:42:54,800 --> 00:42:57,800
Ethici zijn niet ethischer.

487
00:42:57,800 --> 00:42:59,800
Ze willen ook graag ethisch zijn.

488
00:42:59,800 --> 00:43:02,800
Meer ethisch dan niet ethisch, dat is helemaal niet waar.

489
00:43:02,800 --> 00:43:08,800
Maar ik denk wel uiteindelijk heb je natuurlijk een organisatiestructuur,

490
00:43:08,800 --> 00:43:11,800
een organisatie governance om verantwoordelijkheden te beleggen.

491
00:43:11,800 --> 00:43:13,800
Die verantwoordelijkheden zijn er.

492
00:43:13,800 --> 00:43:17,800
Ik denk dat we een heleboel organisaties meer waarde zouden kunnen hebben,

493
00:43:17,800 --> 00:43:24,800
zeker in dit moment in tijd, om iemand binnen hun strategische leaderships gedeelte van de organisatie te hebben,

494
00:43:24,800 --> 00:43:30,800
die met zo'n iets wat kritische, ethische blik kijkt naar wat ze als organisatie aan het doen zijn.

495
00:43:30,800 --> 00:43:35,800
Maar dat kan alleen als je dan dus ook bedenkt dat je het ook wilt doen uiteindelijk.

496
00:43:35,800 --> 00:43:40,800
Want als je iemand hebt en die gaat een vier jaar ongelukkig weg omdat ze niks wil veranderen,

497
00:43:40,800 --> 00:43:42,800
en dat gebeurt bij heel veel organisaties,

498
00:43:42,800 --> 00:43:45,800
dan heb je gewoon je geld verspeeld ergens.

499
00:43:45,800 --> 00:43:50,800
Dan is er namelijk niets veranderd, dan heb je alleen je schuldgevoel afgekocht voor een 1 FTE.

500
00:43:50,800 --> 00:43:53,800
En dat is ook zonde. Dus je moet er ook wel wat mee willen doen.

501
00:43:53,800 --> 00:43:55,800
En daarom is één iemand denk ik niet genoeg.

502
00:43:55,800 --> 00:43:58,800
Dat betekent niet dat je een ethische team moet hebben,

503
00:43:58,800 --> 00:44:03,800
maar je moet zorgen dat binnen je organisatie de mensen die met dit soort vragen bezig zijn,

504
00:44:03,800 --> 00:44:09,800
ook de cultuur hebben of de mandaat hebben om dingen anders te doen.

505
00:44:09,800 --> 00:44:12,800
En dat is natuurlijk per organisatie verschilt tot hoe belangrijk het is.

506
00:44:12,800 --> 00:44:16,800
Als je een uitkeringsorganisatie bent of een verzekeraar of zo,

507
00:44:16,800 --> 00:44:22,800
ligt dat natuurlijk veel gevoeliger dan als jij een product,

508
00:44:22,800 --> 00:44:26,800
zoals dit, te maten herkenningstheme hebt.

509
00:44:26,800 --> 00:44:30,800
Dan is misschien zo'n corporate social responsibility officer veel belangrijker,

510
00:44:30,800 --> 00:44:34,800
omdat je je eigen life cycle van je product in de gaten wil hebben.

511
00:44:34,800 --> 00:44:39,800
Ja, duidelijk. Ik heb in ieder geval geleerd van liever bereiken dan vermijden.

512
00:44:39,800 --> 00:44:42,800
Als we het hebben over ethiek.

513
00:44:42,800 --> 00:44:46,800
En het laatste vind ik eigenlijk ook wel een heel mooi uitgangspunt.

514
00:44:46,800 --> 00:44:50,800
Als je ermee begint, moet je ook wel bereid zijn om te veranderen.

515
00:44:50,800 --> 00:44:51,800
Ja, precies.

516
00:44:51,800 --> 00:44:55,800
Nou, Duuk, hartelijk bedankt voor dit interessante gesprek.

517
00:44:55,800 --> 00:44:57,800
Dank jullie voor de uitnodiging.

518
00:44:57,800 --> 00:44:58,800
Graag gedaan.

519
00:44:58,800 --> 00:44:59,800
Leuk om mee te praten.

520
00:44:59,800 --> 00:45:05,800
Fijn dat je weer luisterde naar een aflevering van AIToday Live.

521
00:45:05,800 --> 00:45:10,800
Vergeet je niet te abonneren via je favoriete podcast app, dan mis je geen aflevering.

522
00:45:10,800 --> 00:45:11,800
Tot de volgende keer.

523
00:45:12,800 --> 00:45:14,800
[Muziek]


People on this episode