AIToday Live

S06E67 - Grijp de macht over AI: Maak uitlegbaarheid je troef - met Jasper van der Waa (TNO)

August 18, 2024 Aigency by Info Support Season 6 Episode 67

In deze aflevering van AIToday Live is Jasper van der Waa te gast. Hij werkt bij TNO als onderzoeker op het gebied van de interactie tussen mensen en AI-systemen, met een speciale focus op Explainable AI.

Jasper deelt zijn inzichten over hoe belangrijk het is dat AI-systemen hun besluitvormingsprocessen kunnen uitleggen aan gebruikers. Dit is essentieel voor het opbouwen van vertrouwen en het effectief inzetten van AI in diverse toepassingen.

De discussie verkent de uitdagingen en mogelijkheden van Explainable AI, inclusief de noodzaak van personalisatie in uitleg en de toekomstige ontwikkelingen op dit gebied. 


Links

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:06,360
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:06,360 --> 00:00:09,960
Met vandaag voor mij in ieder geval een hele bijzondere aflevering,

3
00:00:09,960 --> 00:00:12,920
want we gaan het met een gast hebben over Explainable AI.

4
00:00:12,920 --> 00:00:15,960
Hoe leuk is dat? Tenminste, ik vind het heel erg leuk.

5
00:00:15,960 --> 00:00:20,040
Mijn naam Joop Snijder, CTO bij Aigency.

6
00:00:20,040 --> 00:00:23,040
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

7
00:00:23,040 --> 00:00:24,840
En onze gast is Jasper van der Waa.

8
00:00:24,840 --> 00:00:28,920
Jasper, super bedankt dat je bij ons in de studio wilde zijn.

9
00:00:28,920 --> 00:00:29,640
Graag gedaan.

10
00:00:29,640 --> 00:00:33,320
Voordat we beginnen zou je jezelf eerst willen voorstellen aan de luisteraars.

11
00:00:33,320 --> 00:00:35,000
Ja, mijn naam is Jasper.

12
00:00:35,000 --> 00:00:39,600
Ik werk bij TNO als onderzoeker op het onderwerp

13
00:00:39,600 --> 00:00:42,880
hoe mensen en AI-systemen met elkaar moeten interacteren.

14
00:00:42,880 --> 00:00:46,600
In die context werk ik veel aan Explainable AI.

15
00:00:46,600 --> 00:00:50,440
En hoe moeten mensen interacteren met AI?

16
00:00:50,440 --> 00:00:51,080
Hoe?

17
00:00:51,080 --> 00:00:59,600
Ja, dat ligt heel erg aan natuurlijk aan wat voor AI-systeem.

18
00:00:59,600 --> 00:01:07,560
Een zelfrijdende auto is heel anders dan je willekeurige beslissingsondersteuningssysteem

19
00:01:07,560 --> 00:01:09,040
voor arts of iets dergelijks.

20
00:01:09,040 --> 00:01:12,960
En ook afhankelijk van welke gebruiker je hebt.

21
00:01:12,960 --> 00:01:19,160
Maar in het algemeen denk ik dat mensen en AI-systemen op zo'n manier moeten communiceren

22
00:01:19,160 --> 00:01:24,000
en interacteren dat het daadwerkelijk ook die mens helpt bij hetgeen wat die moet doen

23
00:01:24,000 --> 00:01:25,600
of wil gaan doen.

24
00:01:25,600 --> 00:01:30,840
Ja, en daar komt dan die uitlegbare Explainable AI om de hoek kijken, toch?

25
00:01:30,840 --> 00:01:31,760
Klopt, inderdaad.

26
00:01:31,760 --> 00:01:38,000
Want ik geloof wel sterk dat als je goed wilt kunnen werken met een AI-systeem,

27
00:01:38,000 --> 00:01:41,080
dan moet je ook weten wat je aan dat AI-systeem hebt.

28
00:01:41,080 --> 00:01:46,280
En voor mij is Explainable AI eigenlijk de methode waarmee zo'n AI-systeem

29
00:01:46,280 --> 00:01:51,400
kan uitleggen aan jou als gebruiker van wat je nou eigenlijk aan dat ding hebt.

30
00:01:51,400 --> 00:01:55,600
Wanneer het op kan vertrouwen, wanneer het goed advies geeft,

31
00:01:55,600 --> 00:01:58,720
wanneer het een slecht advies geeft, wanneer het misschien wat onzekerder is.

32
00:01:58,720 --> 00:02:03,880
Al dat soort aspecten vormen voor mij eigenlijk de uitdaging van Explainable AI.

33
00:02:03,880 --> 00:02:09,360
Ja, vooral ook mooi dat je zegt dat je ook kan herkennen dat het een slecht advies is.

34
00:02:09,360 --> 00:02:09,760
Ja.

35
00:02:09,760 --> 00:02:13,360
Want dan kan je ook besluiten om het advies niet over te nemen.

36
00:02:13,360 --> 00:02:14,360
Ja, klopt.

37
00:02:14,360 --> 00:02:18,680
Dus wat ik vaak hoor is dat Explainable AI echt nodig is voor het vertrouwen.

38
00:02:18,680 --> 00:02:23,200
En dan proef ik af en toe van hoe meer vertrouwen, hoe beter.

39
00:02:23,200 --> 00:02:26,880
Maar we weten ook altijd van zo'n systeem is ook niet altijd correct.

40
00:02:26,880 --> 00:02:31,640
Dus je moet ook heel goed weten wanneer dat systeem het wat minder goed weet.

41
00:02:31,640 --> 00:02:35,320
Of gewoon eigenlijk je verkeerd advies voorschotelt.

42
00:02:35,320 --> 00:02:40,320
En om die inschatting te maken heb je een zeker begrip nodig van hoe dat systeem werkt.

43
00:02:40,320 --> 00:02:45,880
Ja, en daardoor inderdaad ook dat je als je antwoord krijgt,

44
00:02:45,880 --> 00:02:48,800
dat je zegt van nou, deze slaan we even over.

45
00:02:48,800 --> 00:02:49,800
Exact, inderdaad.

46
00:02:49,800 --> 00:02:56,480
Zou je voorbeelden kunnen geven van hoe uitleg eruit zou kunnen zien bij een AI systeem?

47
00:02:56,480 --> 00:02:57,480
Oh ja, ja.

48
00:02:57,480 --> 00:03:03,880
Ik ben zelf groot fan van zorgen dat die uitleg die je ontwikkelt,

49
00:03:03,880 --> 00:03:08,480
mooi geïntegreerd zit in de taak die jij moet uitvoeren als mens.

50
00:03:08,480 --> 00:03:11,600
Dus terwijl je je eigen werk aan het doen bent,

51
00:03:11,600 --> 00:03:14,880
geconfronteerd wordt met af en toe een stukje kennis over dat systeem,

52
00:03:14,880 --> 00:03:16,880
hoe het werkt, hoe het niet werkt.

53
00:03:16,880 --> 00:03:21,480
Dit tegenover gewoon een laagje uitlegbaarheid er bovenop plakken,

54
00:03:21,480 --> 00:03:23,280
ergens in je dashboard weggestopt,

55
00:03:23,280 --> 00:03:25,680
dat je op een vraagtekentje kan klikken en dan zeggen van

56
00:03:25,680 --> 00:03:28,280
oh, nu krijg ik een mooi plaatje te zien.

57
00:03:28,280 --> 00:03:30,280
Want dat werkt vaak niet.

58
00:03:30,280 --> 00:03:31,280
Nee.

59
00:03:31,280 --> 00:03:32,280
Heb je een voorbeeld?

60
00:03:32,280 --> 00:03:33,280
Waar moet ik dan aan denken?

61
00:03:33,280 --> 00:03:37,280
Ja, dus wat zou een goed voorbeeld zijn?

62
00:03:37,280 --> 00:03:42,080
Stel je hebt een arts die werkt met een diagnostisch systeem,

63
00:03:42,080 --> 00:03:45,080
die helpt die arts met een bepaalde diagnose te stellen,

64
00:03:45,080 --> 00:03:49,080
dan weten we bijvoorbeeld dat artsen zo'n diagnose stellen

65
00:03:49,080 --> 00:03:53,080
door de voor- en tegens halverwege symptomen met elkaar te vergelijken.

66
00:03:53,080 --> 00:03:56,080
Naar een AI-systeem kan je die arts gewoon vertellen van

67
00:03:56,080 --> 00:03:58,080
dit is de diagnose die ik denk,

68
00:03:58,080 --> 00:04:01,080
maar dat past niet goed bij de werkwijze van die arts.

69
00:04:01,080 --> 00:04:04,080
Want die wil gewoon weten wat zijn überhaupt de symptomen,

70
00:04:04,080 --> 00:04:05,080
waar duiden die op.

71
00:04:05,080 --> 00:04:07,080
Dus de uitleg die je het systeem dan kan geven is

72
00:04:07,080 --> 00:04:11,080
ik denk aan deze diagnose, omdat ik deze symptomen zie,

73
00:04:11,080 --> 00:04:16,080
die zijn bijvoorbeeld in een argument voor die diagnose die ik geef,

74
00:04:16,080 --> 00:04:20,080
maar ik zie ook wel deze symptomen die daar minder op aansluiten.

75
00:04:20,080 --> 00:04:22,080
Dus daarom is mijn nummer twee advies meer dit.

76
00:04:22,080 --> 00:04:25,080
Dan heb je gelijk een uitleg waar dat systeem naar kijkt

77
00:04:25,080 --> 00:04:29,080
en je helpt die arts gewoon in dienst eigen taak uit te voeren

78
00:04:29,080 --> 00:04:32,080
door bijvoorbeeld die symptomen te schetsen.

79
00:04:32,080 --> 00:04:33,080
Ja, heel mooi.

80
00:04:33,080 --> 00:04:35,080
Wat bij mij ook meteen oppopt,

81
00:04:35,080 --> 00:04:39,080
en dat is denk ik een van de meest eenvoudige vormen van uitleg,

82
00:04:39,080 --> 00:04:44,080
is dat je krijgt natuurlijk ook recommendations, aanbevelingen bij Netflix

83
00:04:44,080 --> 00:04:46,080
of welke andere streamingdienst dan ook.

84
00:04:46,080 --> 00:04:52,080
En dan staat gewoon omdat je deze film hebt gekeken, bevelen we deze aan.

85
00:04:52,080 --> 00:04:54,080
Hoe goed dat is, dat is maar de vraag.

86
00:04:54,080 --> 00:04:59,080
Maar dat omdat, dat is bijvoorbeeld ook zo'n stukje uitleg.

87
00:04:59,080 --> 00:05:01,080
Dus je geeft eigenlijk meer context terug,

88
00:05:01,080 --> 00:05:03,080
waardoor je hem zelf meer begrijpt.

89
00:05:03,080 --> 00:05:05,080
En de arts voorbeeld dan nog zelfs meer context,

90
00:05:05,080 --> 00:05:07,080
omdat het ook zelfs nog in het denkproces zit,

91
00:05:07,080 --> 00:05:11,080
passend bij de actie, wat denk ik nog heel mooi is om daarin mee te nemen.

92
00:05:11,080 --> 00:05:13,080
Klopt, inderdaad.

93
00:05:13,080 --> 00:05:16,080
En zeker die kopjes die je bij Netflix ziet,

94
00:05:16,080 --> 00:05:18,080
is inderdaad een hele minimale uitleg.

95
00:05:18,080 --> 00:05:22,080
Ja, dat is echt de meest eenvoudige vorm van uitleg.

96
00:05:22,080 --> 00:05:25,080
Ik weet niet hoe het met jullie zit, maar bij mij is het hier ook regelmatig verkeerd.

97
00:05:25,080 --> 00:05:27,080
Dan denk ik, oh ja, dat kan wel wat beter.

98
00:05:27,080 --> 00:05:31,080
Maar met het juiste goed voorbeeld, van dat je zelf dan ook ziet van,

99
00:05:31,080 --> 00:05:34,080
nou, daar is nog behoorlijk wat verbetering nodig.

100
00:05:34,080 --> 00:05:36,080
Ja, inderdaad.

101
00:05:36,080 --> 00:05:39,080
Ja, ook daar zou ik al meer context willen.

102
00:05:39,080 --> 00:05:42,080
Dus bij zo'n voorbeeld al zou ik al meer willen weten, maar waarom dan?

103
00:05:42,080 --> 00:05:45,080
Nee, dat wil ik aanpassen. Dat past niet, zeg maar.

104
00:05:45,080 --> 00:05:49,080
Ja, dat is wel een goeie.

105
00:05:49,080 --> 00:05:51,080
Dus stel dat je dat...

106
00:05:51,080 --> 00:05:54,080
Het geval van Niels, wat hij zegt, van...

107
00:05:54,080 --> 00:05:57,080
Vanuit die uitleg, en dan zou je iets willen aanpassen.

108
00:05:57,080 --> 00:05:59,080
Hoe kijk je daar tegenaan?

109
00:05:59,080 --> 00:06:02,080
Nou, even de vraag van, wat zou je willen aanpassen?

110
00:06:02,080 --> 00:06:05,080
Wat denk je van, dit mis ik aan de uitleg.

111
00:06:05,080 --> 00:06:08,080
Nou ja, als de uitleg is van, omdat je deze film hebt gekeken.

112
00:06:08,080 --> 00:06:11,080
Nou ja, toevallig heeft mijn kind ook op Netflix gezeten.

113
00:06:11,080 --> 00:06:14,080
En dan kon die film niet op dat profiel, dus heeft hij op het andere profiel gekeken.

114
00:06:14,080 --> 00:06:18,080
Misschien ook security-wise moet ik daar nog wat dingetjes voor doen, maar dat is even wat anders.

115
00:06:18,080 --> 00:06:23,080
Maar die wil ik eigenlijk uit de model hebben, waardoor die dat mij adviseert.

116
00:06:23,080 --> 00:06:24,080
Ah ja, ja.

117
00:06:24,080 --> 00:06:29,080
Ik denk dat dit een mooi voorbeeld is van waar uitleg,

118
00:06:29,080 --> 00:06:33,080
inderdaad, in ieder geval de uitleg die we nu beschikbaar hebben, vaak al toegepast wordt.

119
00:06:33,080 --> 00:06:35,080
Alleen dat eerste stapje is.

120
00:06:35,080 --> 00:06:37,080
Want nu heb je een stukje kennis dat je denkt van,

121
00:06:37,080 --> 00:06:40,080
oh, ik krijg deze suggesties blijkbaar door deze film,

122
00:06:40,080 --> 00:06:45,080
maar jij weet de context erachter dat dit niet door je eigen gedrag bijvoorbeeld komt.

123
00:06:45,080 --> 00:06:50,080
En ik denk inderdaad, dan is het stapje daarvoor, of daarna eigenlijk,

124
00:06:50,080 --> 00:06:55,080
dat je tegen Netflix kan vertellen, nou ja, maar die film had eigenlijk op dit account gemoeten.

125
00:06:55,080 --> 00:06:57,080
En dat je dan een voorbeeld niet meer krijgt.

126
00:06:57,080 --> 00:07:02,080
En dat is dan voor mij niet zozeer de uitleg,

127
00:07:02,080 --> 00:07:06,080
maar gewoon wat uitleg jou in staat stelt om te kunnen doen.

128
00:07:06,080 --> 00:07:11,080
Wat wel een mooi stukje uitleg kan zijn, daarop is van wat de gevolgen zijn van de keuze.

129
00:07:11,080 --> 00:07:15,080
Dus dat je, als je inderdaad zegt van, nou, deze film hoort toch bij dat andere account,

130
00:07:15,080 --> 00:07:19,080
dat Netflix je dan ook vertelt, of welk systeem dan ook,

131
00:07:19,080 --> 00:07:23,080
wat dan uiteindelijk het advies of de categorie geweest zou zijn.

132
00:07:23,080 --> 00:07:26,080
Ja, van, oh, maar dan hadden we deze kinderfilm niet voor jou aan te raden,

133
00:07:26,080 --> 00:07:29,080
want dat past dan niet meer en waarom, daarom, daarom.

134
00:07:29,080 --> 00:07:32,080
Maar voor hetzelfde geldt dat Netflix alsnog je het aan kan raden,

135
00:07:32,080 --> 00:07:36,080
en dan moet je toch even achter je oren krabben van, nou ja, wat is er nu aan de hand.

136
00:07:36,080 --> 00:07:39,080
Sommige films kijk ik ook graag mee met de kinderen, moet ik eerlijk bekennen.

137
00:07:39,080 --> 00:07:43,080
Dus wie weet, weten ze meer dan wat ik denk.

138
00:07:43,080 --> 00:07:47,080
Maar dan nog is het goed om het uitgelegd te krijgen en het te kunnen begrijpen.

139
00:07:47,080 --> 00:07:50,080
En ik denk dat daar wel context en vertrouwen uiteindelijk toch wel vertrouwen is.

140
00:07:50,080 --> 00:07:54,080
En zeker ook dat je de foutieve keuzes ook kan toelichten,

141
00:07:54,080 --> 00:07:56,080
want dat is denk ik nog wel het belangrijkste.

142
00:07:56,080 --> 00:08:01,080
Niet alleen de goede, maar ook de fouten kan toelichten waarom, om vertrouwen te kunnen krijgen.

143
00:08:01,080 --> 00:08:05,080
Anders ga ik voor mij in mijn gevoel in mijn confirmation bias.

144
00:08:05,080 --> 00:08:07,080
Oh ja, dat dacht ik ook dat het goed was.

145
00:08:07,080 --> 00:08:11,080
Beschrijf dat het goed is, maar ook juist die andere kant, wanneer het verwacht wordt dat het niet goed is.

146
00:08:11,080 --> 00:08:20,080
Ja, zeker, want die confirmation bias of de menselijke bias ligt altijd best wel nauw om de hoek als het om uitleg gaat.

147
00:08:20,080 --> 00:08:25,080
Want in mijn onderzoek merk ik ook regelmatig dat de experimenten die wij doen, evaluaties,

148
00:08:25,080 --> 00:08:30,080
dat het feit dat het systeem plots een uitleg kan geven, heeft al een positief effect.

149
00:08:30,080 --> 00:08:34,080
Omdat mensen denken, oh het kan zich uitleggen, dan zal het wel een goed systeem zijn.

150
00:08:34,080 --> 00:08:41,080
Maar dan denk ik juist, nee we geven deze uitleg juist om jouw inzicht te geven dat het systeem soms niet werkt.

151
00:08:41,080 --> 00:08:46,080
En daar ligt ook wel een flinke uitdaging van hoe communiceer je nou die uitleg op de goede manier,

152
00:08:46,080 --> 00:08:48,080
dat mensen niet in die bias trappen.

153
00:08:48,080 --> 00:08:52,080
En dat is best wel een hele, dat is net wat jij zegt, dat ligt ook een beetje in de menselijke aard.

154
00:08:52,080 --> 00:08:55,080
Ik weet niet meer uit welk boek dat is waar ik dat uit had.

155
00:08:55,080 --> 00:09:01,080
Maar wat blijkt, dat als wij ergens een verklaring voor geven, ook al is die verklaring absurd,

156
00:09:01,080 --> 00:09:06,080
is het ook heel vaak genoeg voor iemand om daarmee om te gaan.

157
00:09:06,080 --> 00:09:10,080
En een voorbeeld wat in dat boek stond, dat is echt, ja hoe dan?

158
00:09:10,080 --> 00:09:14,080
Dat als jij ergens voordringt, vinden mensen je heel vervelend.

159
00:09:14,080 --> 00:09:19,080
En daar kunnen ze, zeg maar, de meesten zeggen daar wat van.

160
00:09:19,080 --> 00:09:23,080
Maar als jij voordringt en een verklaring geeft, welke dan ook,

161
00:09:23,080 --> 00:09:26,080
heb je hele grote kans dat mensen dat accepteren.

162
00:09:26,080 --> 00:09:30,080
En wat zij deden als tester bijvoorbeeld, was voordringen bij het kopieerapparaat.

163
00:09:30,080 --> 00:09:36,080
En ze stonden rij, en dan zeggen van, ja ik ga even voor, want ik moet kopiëren.

164
00:09:36,080 --> 00:09:43,080
Bij de kassa's deden ze, ik ga even voor, want ik moet even voor.

165
00:09:43,080 --> 00:09:48,080
Dus de 'want', uitleg, is dan genoeg.

166
00:09:48,080 --> 00:09:54,080
Dat sluit heel mooi aan bij wat we net zeiden, rondom de bias.

167
00:09:54,080 --> 00:09:58,080
Het onderstreept ook heel mooi dat uitleg gewoon een heel sociaal iets is.

168
00:09:58,080 --> 00:10:03,080
En dat wij mensen eigenlijk ook geprogrammeerd zijn om gewoon sociaal te reageren op die uitleg.

169
00:10:03,080 --> 00:10:07,080
Zoals inderdaad van, een uitleg die eigenlijk nergens op slaat.

170
00:10:07,080 --> 00:10:09,080
Van, ik wil voor, want ik wil kopiëren.

171
00:10:09,080 --> 00:10:14,080
Eigenlijk al voldoende is dat je plots als mens meer accepteert van zo'n systeem.

172
00:10:14,080 --> 00:10:19,080
Dan is het goed om te begrijpen, ook als data scientist of software engineer,

173
00:10:19,080 --> 00:10:24,080
dat juist dat soort biases eigenlijk bij je gebruiker ook gewoon spelen.

174
00:10:24,080 --> 00:10:28,080
En wat de gevolgen daarvan zijn als je plots een laagje uitleg over je systeem meeneemt.

175
00:10:28,080 --> 00:10:35,080
Ja, en als je, want ik denk een data scientist, technische mensen zijn hier misschien wat meer mee bezig.

176
00:10:35,080 --> 00:10:37,080
Stel je zou opdrachtgever zijn.

177
00:10:37,080 --> 00:10:43,080
Wat zou je daaraan mee willen geven, van hoe zij naar uitleg zouden moeten kijken?

178
00:10:43,080 --> 00:10:46,080
Ah ja, goede vraag.

179
00:10:46,080 --> 00:10:52,080
Wat ik veel merk, dus in de afgelopen jaren dat ik met het onderwerp bezig ben geweest,

180
00:10:52,080 --> 00:11:00,080
is dat er een zekere verwachting of begrip ontstaan is van explainable AI,

181
00:11:00,080 --> 00:11:04,080
dat het eigenlijk vooral vanuit wet- en regelgeving een dingetje is.

182
00:11:04,080 --> 00:11:05,080
Want je moet afvinken.

183
00:11:05,080 --> 00:11:06,080
Je moet het.

184
00:11:06,080 --> 00:11:07,080
Je moet het, inderdaad.

185
00:11:07,080 --> 00:11:12,080
En dan is een opdrachtgever toch een beetje op zoek naar van, oké, ik moet hier iets mee.

186
00:11:12,080 --> 00:11:15,080
Dus ik wil graag dat er iets mee gedaan wordt.

187
00:11:15,080 --> 00:11:16,080
Ja.

188
00:11:16,080 --> 00:11:20,080
En dan denk ik, nou dat is wel een hele open opdracht, denk ik dan.

189
00:11:20,080 --> 00:11:25,080
Ik zou zeggen van, zie het vooral, explainable AI, als meerwaarde voor je systeem.

190
00:11:25,080 --> 00:11:31,080
Het zorgt ervoor dat je gebruik er minder snel fouten maakt, dat die het systeem sneller accepteert,

191
00:11:31,080 --> 00:11:35,080
dat er gewoon een gebruiksvriendelijker systeem wordt.

192
00:11:35,080 --> 00:11:40,080
Maar dat vereist van die opdrachtgever wel ook dat die dat stukje besef heeft,

193
00:11:40,080 --> 00:11:42,080
dus waar die precies naar op zoek is.

194
00:11:42,080 --> 00:11:47,080
Zeg maar, doe je inderdaad alleen maar die uitleg omdat je het vinkje wilt zetten voor je wet- en regelgeving,

195
00:11:47,080 --> 00:11:51,080
of wil je ook dat je een degelijk goed systeem hebt?

196
00:11:51,080 --> 00:11:57,080
En dat komt gelijk ook mee kijken dat je mee moet gaan denken over hoe die uitleg eruit moet zijn.

197
00:11:57,080 --> 00:12:04,080
Samen met al die technische experts die vaak ook niet weten van, ja, wat voor uitleg wil deze gebruiker nou eigenlijk?

198
00:12:04,080 --> 00:12:06,080
Dat weet de opdrachtgever vaak wel.

199
00:12:06,080 --> 00:12:10,080
En hoe kan je iets zeggen over de kwaliteit van de uitleg?

200
00:12:10,080 --> 00:12:13,080
Want als mensen het nu gaan doen en daardoor vertrouwen ze hun systemen beter,

201
00:12:13,080 --> 00:12:16,080
dan zou iedereen op den duur nemen aan, zeg maar, ik leg wat uit.

202
00:12:16,080 --> 00:12:19,080
Maar hoe kan je wat zeggen over die kwaliteit van die uitleg?

203
00:12:19,080 --> 00:12:22,080
Want dat wil je dan op den duur wel controle over hebben.

204
00:12:22,080 --> 00:12:29,080
Ja, dat is ook een van de grootste vragen of uitdaging die ik nu zie.

205
00:12:29,080 --> 00:12:31,080
Technologieën te over.

206
00:12:31,080 --> 00:12:35,080
In heel veel manieren, er lopen in de duizenden al onderhand,

207
00:12:35,080 --> 00:12:38,080
van hoe je iets van een stukje informatie uit zo'n systeem kan halen.

208
00:12:38,080 --> 00:12:43,080
Wat nog mist inderdaad, is meten, is dit nou de uitleg waar men op zoek naar was?

209
00:12:43,080 --> 00:12:47,080
Het hele pragmatische en misschien de open deur is,

210
00:12:47,080 --> 00:12:51,080
een goede uitleg ontwerpen en communiceren naar je eindgebruiker,

211
00:12:51,080 --> 00:12:56,080
verwijst net zoals een willekeurige interface ontwerper, gewoon een goede ontwerper,

212
00:12:56,080 --> 00:13:03,080
UX designer, die in gesprek gaat met die gebruikers en gewoon probeert achterhalen wat zou kunnen werken.

213
00:13:03,080 --> 00:13:09,080
En als je het hebt, gewoon voor mij apart A/B testen, kijken hoe het werkt en wat niet werkt.

214
00:13:09,080 --> 00:13:14,080
Ja, dus eigenlijk gewoon heel logisch ermee omgaan.

215
00:13:14,080 --> 00:13:15,080
Dat is eigenlijk het idee.

216
00:13:15,080 --> 00:13:19,080
Ja, dat klinkt vaak zo makkelijk hè, die simpele dingen, maar het is altijd zo moeilijk om goed.

217
00:13:19,080 --> 00:13:24,080
Wat het hier heel lastig maakt, is dat we natuurlijk te maken hebben met de mystiek van AI,

218
00:13:24,080 --> 00:13:34,080
de complexiteit die daar omheen heerst en dan ben je heel snel geneigd om ook naar hele complexe oplossingen te grijpen.

219
00:13:34,080 --> 00:13:35,080
Klopt, toch?

220
00:13:35,080 --> 00:13:36,080
Ja, inderdaad.

221
00:13:36,080 --> 00:13:45,080
En ik snap ook wel de neiging dat als je als data scientist, je bouwt een mooi model en je opdrachtgever zegt wild explainable AI,

222
00:13:45,080 --> 00:13:52,080
nou dan pak je een bepaald Python package of een oplossing en die pas je erop toe en dan denk je ja, het ziet er wel goed uit.

223
00:13:52,080 --> 00:13:58,080
Het is nuttig voor mij als technisch expert, maar daar houdt het vaak ook op.

224
00:13:58,080 --> 00:14:05,080
En de opdrachtgever heeft vaak niet de kennis om dan in te schatten van ja, oké, is dit de state of the art?

225
00:14:05,080 --> 00:14:08,080
Is dit nou het beste wat we kunnen doen? Nou oké, het zal wel.

226
00:14:08,080 --> 00:14:18,080
Dus inderdaad, ik denk dat de oplossing toch vaak ligt in het gewoon logisch mee omgaan en blijven ook communiceren tussen die data scientist en die opdrachtgever.

227
00:14:18,080 --> 00:14:22,080
Of gewoon een goede product owner er tussen.

228
00:14:22,080 --> 00:14:25,080
Die een beetje die mystiek weg kan nemen.

229
00:14:25,080 --> 00:14:36,080
En je raakt hier volgens mij ook, je hebt natuurlijk als data scientist, heb je een andere uitleg nodig dan jij als opdrachtgever, als eindgebruiker, auditor misschien.

230
00:14:36,080 --> 00:14:39,080
Daar moet je natuurlijk ook rekening mee houden.

231
00:14:39,080 --> 00:14:47,080
En daar, ik als onderzoeker zie daar ook vooral dat er nog een groot kennishiaat ligt.

232
00:14:47,080 --> 00:14:56,080
Dat we gewoon nog niet goed weten van welke soort informatie of kennis hebben nou verschillende soorten rollen nodig om hun werk goed te doen.

233
00:14:56,080 --> 00:15:00,080
Die van de data scientist is dus redelijk afgedekt.

234
00:15:00,080 --> 00:15:02,080
Dat is heel technisch eigenlijk.

235
00:15:02,080 --> 00:15:08,080
En die hebben vaak ook zelf de expertise en de middelen om gewoon een beetje te proberen, uit te zoeken wat voor hunzelf werkt.

236
00:15:08,080 --> 00:15:09,080
Prima.

237
00:15:09,080 --> 00:15:17,080
Maar inderdaad, als je het hebt over een eindgebruiker of een auditor, die hebben hele andere rollen, hele andere verantwoordelijkheden.

238
00:15:17,080 --> 00:15:25,080
Om hun dezelfde uitleg te geven die die data scientist heeft gebruikt om te kijken of een model de moeite waard is om te deployen.

239
00:15:25,080 --> 00:15:27,080
Dat gaat natuurlijk niet werken.

240
00:15:27,080 --> 00:15:36,080
En dan zie je toch ook dat in het onderzoeksveld dat het toch voornamelijk gedomineerd wordt door de technische expertise.

241
00:15:36,080 --> 00:15:40,080
Die gewoon uit nieuwsgierigheid zelf dit soort techniek ontwikkelen.

242
00:15:40,080 --> 00:15:41,080
Ja.

243
00:15:41,080 --> 00:15:49,080
Want hoe komen jullie dan aan je onderzoek en de onderwerpen waarvan je zegt van dat ga ik onderzoeken?

244
00:15:49,080 --> 00:15:53,080
Ja, dus eigenlijk op twee manieren.

245
00:15:53,080 --> 00:16:02,080
Dus of we zien een sector of een partij die heeft gewoon echt een sterk behoefte om dit gewoon goed in te kunnen regelen voor onszelf.

246
00:16:02,080 --> 00:16:04,080
Dus denk aan de zorg bijvoorbeeld.

247
00:16:04,080 --> 00:16:10,080
Een ziekenhuis die denkt van wij willen AI toepassen of we hebben alle AI maar het moet explainable worden.

248
00:16:10,080 --> 00:16:11,080
Dat is één kant.

249
00:16:11,080 --> 00:16:13,080
Dus heel erg vraaggedreven.

250
00:16:13,080 --> 00:16:16,080
De andere kant is dat we het een beetje pushen.

251
00:16:16,080 --> 00:16:28,080
Dat we gewoon zien van dit is echt een sector waar wij als TNO vanuit onze maatschappelijke verantwoordelijkheid ook zien van hier moet gewoon explainable AI bij.

252
00:16:28,080 --> 00:16:32,080
Want anders heb je gewoon geen verantwoorde toepassingen van AI.

253
00:16:32,080 --> 00:16:35,080
Mag je daar eentje van noemen of niet?

254
00:16:35,080 --> 00:16:36,080
Ja hoor.

255
00:16:36,080 --> 00:16:38,080
Zelfrijdende auto's bijvoorbeeld.

256
00:16:38,080 --> 00:16:42,080
Daar is ook best een technocentrische trend.

257
00:16:42,080 --> 00:16:44,080
Hoe autonomer hoe beter.

258
00:16:44,080 --> 00:16:50,080
Er wordt wel nagedacht over hoe die interactie met hun inzittenden moet zijn.

259
00:16:50,080 --> 00:16:54,080
Maar dat is vaak toch een beetje oppervlakkig.

260
00:16:54,080 --> 00:16:59,080
Net zoals Google Maps waar je invult van A naar B en dat zou het moeten zijn.

261
00:16:59,080 --> 00:17:06,080
Maar gewoon die nuance vaak van hoe je auto zich dan gedraagt of wat je kan verwachten daarvan.

262
00:17:06,080 --> 00:17:14,080
Daar zit toch best veel onwetendheid en soms ook angst bij de maatschappij voordat ze in hun auto willen stappen.

263
00:17:14,080 --> 00:17:23,080
En daar ligt gewoon een potentiële winst voor explainable AI bij wijze van dat je auto aan de inzittenden uitlegt wat je kan verwachten van die auto.

264
00:17:23,080 --> 00:17:25,080
Dat is wel een mooi voorbeeld.

265
00:17:25,080 --> 00:17:31,080
En dat pushen jullie dan, want je zegt van daar wordt eigenlijk te weinig onderzoek gedaan.

266
00:17:31,080 --> 00:17:32,080
Laten wij dat starten.

267
00:17:32,080 --> 00:17:33,080
Ja.

268
00:17:33,080 --> 00:17:42,080
Soms niet eens dat er te weinig onderzoek naar gedaan wordt, maar dat het gewoon nog niet geadopteerd wordt door de bedrijven, door de IT sector die ermee bezig is.

269
00:17:42,080 --> 00:17:44,080
Dat is natuurlijk wel een andere stap.

270
00:17:44,080 --> 00:17:45,080
De adoptie.

271
00:17:45,080 --> 00:17:50,080
Want er wordt natuurlijk best wel heel veel onderzoek gedaan naar explainable AI.

272
00:17:50,080 --> 00:17:53,080
Wij maken natuurlijk zelf ook maatwerkmodellen.

273
00:17:53,080 --> 00:17:56,080
Er zijn nog maar heel weinig opdrachtgevers die dat aan ons vragen.

274
00:17:56,080 --> 00:17:58,080
Wij pushen eigenlijk ook bijna altijd.

275
00:17:58,080 --> 00:17:59,080
Ja.

276
00:17:59,080 --> 00:18:01,080
Hoe zie jij dat?

277
00:18:01,080 --> 00:18:03,080
Gaat dat veranderen?

278
00:18:03,080 --> 00:18:07,080
Ja, ik denk het wel.

279
00:18:07,080 --> 00:18:09,080
Heel pragmatisch.

280
00:18:09,080 --> 00:18:11,080
Wat ik net al zei.

281
00:18:11,080 --> 00:18:16,080
Er is een zekere behoefte, voelen mensen wel dat ze er iets mee moeten.

282
00:18:16,080 --> 00:18:19,080
Maar het moet nu nog niet.

283
00:18:19,080 --> 00:18:23,080
Neem bijvoorbeeld de AI Act, de AI verordening die eraan komt.

284
00:18:23,080 --> 00:18:25,080
Of nou ja, er is eigenlijk.

285
00:18:26,080 --> 00:18:31,080
Die heeft heel lang in de lucht gehangen en eigenlijk altijd dat onderwerp explainable AI aangepraat bij iedereen.

286
00:18:31,080 --> 00:18:33,080
Maar het hoeft nu nog niet.

287
00:18:33,080 --> 00:18:34,080
Nu is die er.

288
00:18:34,080 --> 00:18:39,080
Volgend jaar komt de standaardisering, als het goed is rond, die het heel concreet maakt.

289
00:18:39,080 --> 00:18:40,080
En dan moeten ze wat mee.

290
00:18:40,080 --> 00:18:43,080
Dus dan wordt het een beetje van bovenaf gepushed.

291
00:18:43,080 --> 00:18:46,080
Vind ik niet de ideale weg.

292
00:18:46,080 --> 00:18:51,080
Want zoals ik al zei, ik ben groot voorstander van dat die opdrachtgevers zelf inzien wat de meerwaarde is van XAI.

293
00:18:51,080 --> 00:18:59,080
Maar ik denk dat als eenmaal mensen eraan gewend zijn wat het is, wat het niet is, wat je er allemaal mee kan, dat wel die gevraag gaat groeien.

294
00:18:59,080 --> 00:19:02,080
Ja, dat hebben we natuurlijk eigenlijk rond de privacy wetgeving ook gezien.

295
00:19:02,080 --> 00:19:06,080
In het begin was natuurlijk ook gewoon een gedoe wat je hebt opgelegd.

296
00:19:06,080 --> 00:19:11,080
En je ziet daar steeds meer bewustwording in van waarom het misschien toch best wel belangrijk is.

297
00:19:11,080 --> 00:19:13,080
Ja, nou ja, inderdaad.

298
00:19:13,080 --> 00:19:19,080
Dus plat gezegd, het voelt dan als, oh, je moet plots extra werk gaan leveren.

299
00:19:19,080 --> 00:19:24,080
Maar achteraf denken toch veel mensen van, oh ja, er zit toch wel iets in.

300
00:19:24,080 --> 00:19:26,080
Ja, we gaan de kwaliteit er mee verbeteren.

301
00:19:26,080 --> 00:19:27,080
Ja, exact.

302
00:19:27,080 --> 00:19:34,080
En als bedrijven mee aan de slag gaan, heb je dan bepaalde tips of richtlijnen voor mensen die met explainer willen gaan verder aan de slag?

303
00:19:34,080 --> 00:19:37,080
Dat ligt een beetje aan het soort bedrijf.

304
00:19:37,080 --> 00:19:38,080
Dus ik weet niet wat je gedacht hebt.

305
00:19:38,080 --> 00:19:45,080
Nee, ik had vooral in het algemeen, als mensen hiermee dit onderwerp mee aan de slag gaan, waar moeten ze dan minimaal aan denken om de eerste stappen te kunnen zetten?

306
00:19:45,080 --> 00:19:52,080
Ja, nou de eerste tip die ik iedereen dan geef is, we vatten niet op alleen maar als een stuk technologie.

307
00:19:52,080 --> 00:20:04,080
Zie het niet als iets wat je je data scientist kan opleggen of kan overgeven aan je IT- bedrijf waar je mee in de samenwerking aan gaat.

308
00:20:04,080 --> 00:20:10,080
Maar zie het inderdaad gewoon iets als hetgeen wat je product kan verbeteren.

309
00:20:10,080 --> 00:20:19,080
Als je het goed ontwerpt, goed evalueert en ook goede technieken voor gebruikt, maar het complete plaatje, dat moet je wel overzien.

310
00:20:19,080 --> 00:20:24,080
Dus dat is vaak wel mijn tip, ongeacht welk soort bedrijf het is.

311
00:20:24,080 --> 00:20:30,080
Niet alleen maar te denken van, dit kan ik even bij mijn software engineer beleggen en dan komt het wel goed.

312
00:20:30,080 --> 00:20:38,080
Ja, nou echt als een onderdeel van je oplossing moet het een onderdeel zijn, wat je kwaliteit monitoring of inzicht over hoe goed is het product.

313
00:20:38,080 --> 00:20:40,080
Zo moet je hem echt meenemen.

314
00:20:40,080 --> 00:20:44,080
Ja, by design. Alles moet by design.

315
00:20:44,080 --> 00:20:46,080
Ja, vooral dit.

316
00:20:46,080 --> 00:20:56,080
En daarnaast zijn er natuurlijk ook sector specifieke frameworks waar je aan kan denken, toch?

317
00:20:56,080 --> 00:21:00,080
Nou ja, framework is een beetje een algemeen term.

318
00:21:00,080 --> 00:21:09,080
Of checklisten, dat je geholpen wordt. Ik weet bijvoorbeeld dat de Hoogschool Utrecht zo'n onderzoek heeft gedaan.

319
00:21:09,080 --> 00:21:12,080
Was jij volgens mij ook nog bij betrokken?

320
00:21:12,080 --> 00:21:19,080
Dat je dan in de financiële sector, dat er dan gezegd wordt van, denk hierover na, denk daarover na.

321
00:21:19,080 --> 00:21:23,080
Misschien kan jij het beter uitleggen dan ik het kan.

322
00:21:23,080 --> 00:21:31,080
Ja, inderdaad. Dus als we het specifiek hebben over checklists. Mijn mening daarover, ze hebben een waarde in bewustwording.

323
00:21:31,080 --> 00:21:37,080
Dat je inderdaad een lijstje van onderwerpen ziet die aangeven waar je aan zou moeten denken.

324
00:21:37,080 --> 00:21:42,080
Maar ze helpen je nog niet dat werk dan volgens die punten te adresseren.

325
00:21:42,080 --> 00:21:45,080
Maar goed, bewustwording is stap 1.

326
00:21:45,080 --> 00:21:49,080
Dus inderdaad, daar zijn raamwerken, frameworks voor.

327
00:21:49,080 --> 00:21:55,080
Dan denk ik ook wel gelijk van, oké, we worden af en toe een beetje doodgegooid door checklists.

328
00:21:55,080 --> 00:21:59,080
En de proof is in de pudding. Dus voor ons moet je het ook gaan doen.

329
00:21:59,080 --> 00:22:03,080
En dat verrijst ook eigenlijk gewoon tijd.

330
00:22:03,080 --> 00:22:11,080
Dat je als bedrijf je regelmatig probeert te doen, die checklist af probeert te gaan, te adresseren.

331
00:22:11,080 --> 00:22:14,080
En langzaamaan die kennis opbouwt van wat wel en niet werkt.

332
00:22:14,080 --> 00:22:23,080
Want wat ik in ieder geval zie uit onze onderzoekswereld, juist omdat die zo geconcentreerd is op die techniek.

333
00:22:23,080 --> 00:22:32,080
De kennis wat wel en niet werkt, moet vooral komen van de toegepaste onderzoekers en de bedrijven die het hands-on gaan uitproberen.

334
00:22:32,080 --> 00:22:33,080
Ja, echt uit de praktijk.

335
00:22:33,080 --> 00:22:34,080
Exact.

336
00:22:34,080 --> 00:22:38,080
En dit geldt natuurlijk heel veel voor machine learning.

337
00:22:38,080 --> 00:22:43,080
We hebben hier al veel machine learning modellen waarvan we weten welke data we erin stoppen.

338
00:22:43,080 --> 00:22:46,080
We hebben meestal dan zelf de algoritmes gekozen.

339
00:22:46,080 --> 00:22:48,080
Dus daar hebben we ook invloed op.

340
00:22:48,080 --> 00:22:53,080
Maar de meeste mensen die associëren nu AI met generatieve AI.

341
00:22:53,080 --> 00:22:56,080
En zelfs nog smaller ChatGPT.

342
00:22:56,080 --> 00:22:57,080
Ja.

343
00:22:57,080 --> 00:23:04,080
Ik zag even wat beweging bij je.

344
00:23:04,080 --> 00:23:05,080
Niels begint al te lachen.

345
00:23:05,080 --> 00:23:11,080
En zeg maar, dat heeft best een hele moeilijke verhouding.

346
00:23:11,080 --> 00:23:13,080
Dan zeg ik het volgens mij heel netjes.

347
00:23:13,080 --> 00:23:16,080
Een hele moeilijke verhouding met explainable AI.

348
00:23:16,080 --> 00:23:18,080
Ja.

349
00:23:18,080 --> 00:23:22,080
Zeker toen ChatGPT net uitkwam.

350
00:23:22,080 --> 00:23:24,080
Alweer een tijdje terug.

351
00:23:24,080 --> 00:23:27,080
Hoe snel het gaat.

352
00:23:27,080 --> 00:23:33,080
Toen dachten mensen al van, ja maar ChatGPT is toch al uitlegbaar.

353
00:23:33,080 --> 00:23:38,080
Kijk maar, ik hoef alleen maar te vragen aan hoe werken en dan krijg je een uitleg.

354
00:23:38,080 --> 00:23:42,080
En dat heeft wel enige muren opgeworpen.

355
00:23:42,080 --> 00:23:44,080
Ook in mijn eigen onderzoek.

356
00:23:44,080 --> 00:23:52,080
Dat dit idee dat mensen nu hebben, omdat generatieve AI zo communicatief vaardig is.

357
00:23:52,080 --> 00:23:56,080
Dat ze dan gelijk ook denken van, dat is de uitleg.

358
00:23:56,080 --> 00:23:59,080
Zou je kunnen uitleggen waarom dat geen uitleg is?

359
00:23:59,080 --> 00:24:04,080
Ja, want eigenlijk puntje bij paaltje.

360
00:24:04,080 --> 00:24:09,080
Generatieve AI fabriceert het ene woord na het andere woord.

361
00:24:09,080 --> 00:24:12,080
En dat kan het heel goed.

362
00:24:12,080 --> 00:24:16,080
En voornamelijk heel goed op basis van wat jij eraan vraagt.

363
00:24:16,080 --> 00:24:23,080
Dus als jij eraan vraagt van hoe werkt ChatGPT, dan gaat het een heel mooi rijtje woorden opsommen.

364
00:24:23,080 --> 00:24:27,080
Maar je hebt geen garantie dat het klopt.

365
00:24:27,080 --> 00:24:30,080
Het lijkt heel plausibel.

366
00:24:30,080 --> 00:24:33,080
Inderdaad, communicatief heel sterk.

367
00:24:33,080 --> 00:24:37,080
Dus dat tikkelt gelijk al onze biases als mens.

368
00:24:37,080 --> 00:24:40,080
Dat we denken van, oh ja, het zal wel kloppen.

369
00:24:40,080 --> 00:24:43,080
Maar je hebt er eigenlijk, puntje bij paaltje, helemaal niks aan.

370
00:24:43,080 --> 00:24:45,080
Het is eigenlijk die wand ik moet kopiëren.

371
00:24:45,080 --> 00:24:47,080
Exact.

372
00:24:47,080 --> 00:24:52,080
Want deze kennis helpt je niet inschatten wanneer je nou voor een ander antwoord moet bepalen.

373
00:24:52,080 --> 00:24:55,080
Is het nou echt op feiten gebaseerd of niet?

374
00:24:55,080 --> 00:24:59,080
Het helpt je niet inschatten van wat de privacy risico's zijn.

375
00:24:59,080 --> 00:25:07,080
Wanneer jij er iets bij wijze van je rapport aan geeft, dat je eigenlijk alles wat erin staat weggeeft aan de ander.

376
00:25:07,080 --> 00:25:16,080
Dus ik vind dat geen uitleg, omdat het geen informatiebehoefte van de persoon echt vervult.

377
00:25:16,080 --> 00:25:22,080
Als het een echte, zeg maar, ik doe even zo met mijn vingers quote quote, echte uitleg zou geven,

378
00:25:22,080 --> 00:25:27,080
dan zou ik moeten zeggen, ja, ik heb deze woorden in deze volgorde gekozen,

379
00:25:27,080 --> 00:25:34,080
omdat die statistisch gezien het beste bij elkaar past bij wat jij nu net dat stukje gegeven hebt.

380
00:25:34,080 --> 00:25:37,080
Maar ja, daar hebben we geen bied aan.

381
00:25:37,080 --> 00:25:39,080
Nee, inderdaad.

382
00:25:39,080 --> 00:25:41,080
Het is een antwoord en geen uitleg.

383
00:25:41,080 --> 00:25:43,080
Ja, dat is een goede.

384
00:25:43,080 --> 00:25:45,080
Ja.

385
00:25:45,080 --> 00:25:52,080
Dus ja, er is natuurlijk nog een lopend onderzoek van wat is nou wel een goede uitleg die werkt.

386
00:25:52,080 --> 00:25:57,080
Dus ik zelf werk nu recent ook aan een project van, dat gaat over kritisch denken.

387
00:25:57,080 --> 00:26:02,080
Toch iets wat vaak mist wanneer we met dit soort modellen werken.

388
00:26:02,080 --> 00:26:08,080
Want het blijkt toch dat kritisch denken gewoon het eerste is wat we vergeten om te doen,

389
00:26:08,080 --> 00:26:13,080
omdat we gewoon puur onder de indruk zijn over hoe goed deze technologie is.

390
00:26:13,080 --> 00:26:19,080
Dus dan kijken we naar van, oké, kan misschien uitleg af en toe jou helpen om toch weer terug te gaan naar van,

391
00:26:19,080 --> 00:26:23,080
oh ja, dit systeem dat fabriceert gewoon af en toe feiten.

392
00:26:23,080 --> 00:26:26,080
Oh ja, is dat hier het geval of niet het geval?

393
00:26:26,080 --> 00:26:32,080
En dan kan je denken bijvoorbeeld aan uitleg die eigenlijk de zekerheid geeft,

394
00:26:32,080 --> 00:26:38,080
of naar bronvermelding verwijst, dat soort dingen.

395
00:26:38,080 --> 00:26:43,080
Maar ook subtielere dingetjes, dat als je een XAI technologie hebt,

396
00:26:43,080 --> 00:26:47,080
die aangeeft dat bij een bepaalde prompt, dus een bepaalde vraag,

397
00:26:47,080 --> 00:26:51,080
het taalmodel toch waarschijnlijk wat minder goed gaat presteren,

398
00:26:51,080 --> 00:26:58,080
dat je dat taalmodel wat dwingt om in onzekere verwoording bijvoorbeeld te komen.

399
00:26:58,080 --> 00:27:01,080
Oh zo ja, dat zou wel mooi zijn ja.

400
00:27:01,080 --> 00:27:03,080
Dat zou wel heel menselijk zijn ja.

401
00:27:03,080 --> 00:27:07,080
Of in ieder geval in de communicatiestijl menselijk zijn, hoe we het interpreteren.

402
00:27:07,080 --> 00:27:15,080
Nou juist omdat je denkt dat je een dialoog hebt,

403
00:27:15,080 --> 00:27:20,080
zou het inderdaad helpen om dan wat jij zegt, in andere woorden,

404
00:27:20,080 --> 00:27:23,080
want die komen gewoon onbewust binnen.

405
00:27:23,080 --> 00:27:29,080
Ja, en dan gebruik je dus eigenlijk die menselijke bias ten goede,

406
00:27:29,080 --> 00:27:33,080
in plaats van het alleen maar verergert.

407
00:27:33,080 --> 00:27:39,080
In plaats van dit is het, die zegt van nou in dit geval zou het wel eens zo kunnen zijn.

408
00:27:39,080 --> 00:27:41,080
Ja, misschien kun je hier...

409
00:27:41,080 --> 00:27:44,080
En dan met jibber jabber, dan worden het wel hele lange teksten inderdaad.

410
00:27:44,080 --> 00:27:47,080
Ja, maar zo hebben we er eigenlijk nog nooit naar gekeken, wat cool.

411
00:27:47,080 --> 00:27:51,080
Nog een stap verder is het, nou ja, wat wij mensen continu doen,

412
00:27:51,080 --> 00:27:55,080
is als ik iets vraag aan een van jullie bijvoorbeeld, en jullie snappen de vraag niet goed,

413
00:27:55,080 --> 00:27:57,080
krijg ik een vraag terug.

414
00:27:57,080 --> 00:28:00,080
Dat zie je generatieve AI nooit doen.

415
00:28:00,080 --> 00:28:03,080
Tenzij je er om vraagt.

416
00:28:03,080 --> 00:28:05,080
Dan wel, maar goed.

417
00:28:05,080 --> 00:28:07,080
Dus dat zou ook een manier kunnen zijn.

418
00:28:07,080 --> 00:28:13,080
Het ligt wat verder af van uitleg natuurlijk, maar is daar ook mee verweven,

419
00:28:13,080 --> 00:28:18,080
want je kan bijvoorbeeld zo'n systeem, zo'n generatieve AI, zo'n wedervraag stellen,

420
00:28:18,080 --> 00:28:23,080
wanneer je merkt dat er toch een stuk onzekerheid in dat systeem zit,

421
00:28:23,080 --> 00:28:26,080
of dat die nu een vraag gesteld krijgt,

422
00:28:26,080 --> 00:28:31,080
die toch wel een beetje een outlier is op basis van de data die erop getraind is.

423
00:28:31,080 --> 00:28:33,080
Wat mooi.

424
00:28:33,080 --> 00:28:38,080
Of zelfs teveel overlap heeft, waardoor die niet weet waar te pinpointen.

425
00:28:38,080 --> 00:28:39,080
Interessant.

426
00:28:39,080 --> 00:28:40,080
Heel interessant.

427
00:28:40,080 --> 00:28:42,080
Zo had ik er nog niet naar gekeken.

428
00:28:42,080 --> 00:28:47,080
Misschien te technisch, de huidige architectuur staat het gewoon niet toe,

429
00:28:47,080 --> 00:28:52,080
dat je een uitleg krijgt van waarom die nou dat volgende woord gekozen heeft.

430
00:28:52,080 --> 00:28:55,080
Uiteindelijk zit dat er gewoon niet in.

431
00:28:55,080 --> 00:28:58,080
Maar als je dit soort vormen mee kan trainen,

432
00:28:58,080 --> 00:29:01,080
net zo goed als uiteindelijk kan die meerdere antwoorden geven,

433
00:29:01,080 --> 00:29:06,080
en er is getraind wat zogenaamd het beste antwoord is,

434
00:29:06,080 --> 00:29:09,080
dat zouden ze natuurlijk inderdaad mee kunnen trainen.

435
00:29:09,080 --> 00:29:11,080
De onzekerheid.

436
00:29:11,080 --> 00:29:17,080
Je mag je wel in een andere bewoording, is een onzekere bewoording eigenlijk het beste antwoord?

437
00:29:17,080 --> 00:29:19,080
Bijvoorbeeld inderdaad.

438
00:29:19,080 --> 00:29:21,080
Het tegenovergestelde geldt natuurlijk ook,

439
00:29:21,080 --> 00:29:24,080
dat als je weet dat het systeem het gewoon bij het rechte eind heeft,

440
00:29:24,080 --> 00:29:28,080
en je weet juist dat de mens altijd in dit soort situaties toch altijd een beetje onzekerder is,

441
00:29:28,080 --> 00:29:31,080
dat je misschien dan juist sterkere bewoording gebruikt.

442
00:29:31,080 --> 00:29:34,080
Op die manier krijgen we dus ook weer, met een mooi woord,

443
00:29:34,080 --> 00:29:38,080
de synergie tussen je systeem en de gebruiker,

444
00:29:38,080 --> 00:29:44,080
dat ze gezamenlijk toch de taak toch beter kunnen uitvoeren.

445
00:29:44,080 --> 00:29:47,080
Dat triggert mij wel wat.

446
00:29:47,080 --> 00:29:49,080
Het past bij de gebruiker, de mensen.

447
00:29:49,080 --> 00:29:53,080
Normaal gesproken, generiek, zijn hier wat stelliger in, dus dan kan ik dat zo doen.

448
00:29:53,080 --> 00:29:57,080
Maar ieder persoon heeft een eigen perspectief.

449
00:29:57,080 --> 00:29:59,080
Hoe ga je dan richting zo'n personalisatie,

450
00:29:59,080 --> 00:30:05,080
want dat is ook weer in de eye of the beholder, of degene die je ontvangt, hoe dat overkomt.

451
00:30:05,080 --> 00:30:12,080
Ja, dus personalisatie, dat is wel een onderwerp waar ik in XCI heel graag een keer aan zou willen werken.

452
00:30:12,080 --> 00:30:16,080
Ook omdat ik gewoon zie dat er bijna niks mee gedaan wordt.

453
00:30:16,080 --> 00:30:22,080
Nou weet ik dat bij de Universiteit Twente onder andere,

454
00:30:22,080 --> 00:30:24,080
het is een Europees programma, daar hebben we ook in gezeten,

455
00:30:24,080 --> 00:30:30,080
Natural Language for Explainable AI, oftewel natuurlijke taal voor uitlegbare AI.

456
00:30:30,080 --> 00:30:33,080
Daar is gekeken naar personalisatie juist.

457
00:30:33,080 --> 00:30:37,080
Dus er is gekeken in de zorg, want het kan zijn,

458
00:30:37,080 --> 00:30:42,080
als ik bij een arts zit, wil ik zoveel mogelijk informatie hebben,

459
00:30:42,080 --> 00:30:47,080
dan mag hij of zij zelfs een klein beetje jargon gebruiken,

460
00:30:47,080 --> 00:30:50,080
als ik maar heel duidelijk heb wat er is.

461
00:30:50,080 --> 00:30:58,080
Terwijl misschien weet je, als een ander, die kan zeggen van nou vertel maar of het goed komt, ja of nee.

462
00:30:58,080 --> 00:30:59,080
Ja, als uitleg.

463
00:30:59,080 --> 00:31:05,080
Dus daar is onderzoek naar gedaan van ja, hoe zou je nou zeg maar in een dialoog die je hebt,

464
00:31:05,080 --> 00:31:08,080
net zo goed als dat wij zeg maar dat op elkaar afstemmen,

465
00:31:08,080 --> 00:31:11,080
van hoe ver gaan wij bijvoorbeeld vandaag de diepte in.

466
00:31:11,080 --> 00:31:14,080
Dan ben je eigenlijk een soort van onbewust, ben je dat aan het afstemmen,

467
00:31:14,080 --> 00:31:17,080
dat je dat met je systeem dus eigenlijk ook hebt.

468
00:31:17,080 --> 00:31:21,080
Daar is heel veel onderzoek naar gedaan vanuit dat programma.

469
00:31:21,080 --> 00:31:25,080
Ja, dus dan heb je het vooral over de personalisatie in hoe gecommuniceerd wordt.

470
00:31:25,080 --> 00:31:26,080
Ja, ja.

471
00:31:26,080 --> 00:31:30,080
Ik denk dat daar inderdaad wel ook interessante,

472
00:31:30,080 --> 00:31:34,080
nog echt kennishiaten, blinde vlekken liggen.

473
00:31:34,080 --> 00:31:40,080
Dus ja, zeker in natuurlijke taal heb je lekker veel de ruimte ook om dit uit te zoeken.

474
00:31:40,080 --> 00:31:49,080
Een ander personalisatie aspect is ook van gewoon weten wat die persoon die het systeem tegen zich overgeeft,

475
00:31:49,080 --> 00:31:51,080
wel en niet al weet.

476
00:31:51,080 --> 00:31:53,080
Ja, context daarvan.

477
00:31:53,080 --> 00:31:56,080
Dat is wat ik op doelde inderdaad op dat stuk inderdaad.

478
00:31:56,080 --> 00:31:58,080
Maar die is wel interessant inderdaad.

479
00:31:58,080 --> 00:32:01,080
Want dat zit in bewoording, dat zit hem in terminologie.

480
00:32:01,080 --> 00:32:03,080
Diepgang.

481
00:32:03,080 --> 00:32:06,080
Ja, hoe snel kan je ook gaan.

482
00:32:06,080 --> 00:32:09,080
Want als we efficiëntie willen, dan willen we niet elke keer meer moeten zeggen,

483
00:32:09,080 --> 00:32:11,080
nou dat mag wel wat specifieker, kom maar even door, kom maar door.

484
00:32:11,080 --> 00:32:13,080
Dat wil je op de duur dat het aanvoelt.

485
00:32:13,080 --> 00:32:16,080
Sommige mensen hebben wat langer nodig om het te laten bezinken.

486
00:32:16,080 --> 00:32:23,080
Ja, maar ook inderdaad, de ene persoon begrijpt iets veel sneller als je een analogie gebruikt bijvoorbeeld.

487
00:32:23,080 --> 00:32:28,080
De ander die wil gewoon lekker vanaf begin af aan het hele logische pad,

488
00:32:28,080 --> 00:32:32,080
terwijl de andere persoon het weer alleen het einde wil weten.

489
00:32:32,080 --> 00:32:36,080
Ja, dat soort dingen dat zijn heel persoonlijk inderdaad.

490
00:32:36,080 --> 00:32:42,080
En op dit moment zien we gewoon dat, als we nu naar het algehele veld van Explainable AI kijken,

491
00:32:42,080 --> 00:32:44,080
gewoon nagenoeg bijna geen aandacht aan besteedt worden.

492
00:32:44,080 --> 00:32:46,080
Dat is wel een groot gemis.

493
00:32:46,080 --> 00:32:48,080
Dat is zeker een groot gemis, ja.

494
00:32:48,080 --> 00:32:50,080
Daar ben ik helemaal met je eens.

495
00:32:50,080 --> 00:32:53,080
Ik ben heel nieuwsgierig over Explainable AI, eigenlijk een vraag misschien voor jullie allebei.

496
00:32:53,080 --> 00:32:55,080
Stel we zijn drie jaar verder.

497
00:32:55,080 --> 00:33:04,080
Wat is dan het mooiste wat veranderd zou kunnen zijn in die drie jaar, als jullie nu vooruit mogen kijken?

498
00:33:04,080 --> 00:33:08,080
Op het gebied van Explainable AI.

499
00:33:08,080 --> 00:33:24,080
Ja, ik denk vanuit mijn eigen onderzoek zou mijn hoop zijn dat we toch eigenlijk wat afstappen

500
00:33:24,080 --> 00:33:27,080
van altijd die technocentrische blik.

501
00:33:27,080 --> 00:33:33,080
Laatst weer eens door de literatuur gespitst en dan zie je toch echt heel duidelijk de trend

502
00:33:33,080 --> 00:33:42,080
dat er bijna vier, vijf publicaties per dag gepubliceerd worden op het technisch vak van Explainable AI.

503
00:33:42,080 --> 00:33:47,080
Terwijl een mens gericht is misschien een honderdtal per jaar.

504
00:33:47,080 --> 00:33:50,080
Dus ik hoop dat daar een verschuiving in komt.

505
00:33:50,080 --> 00:33:59,080
Omdat, en dat is mijn tweede punt wat ik hoop over drie jaar, is dat we als maatschappij ook een openere blik hebben

506
00:33:59,080 --> 00:34:01,080
naar wat XAI allemaal voor ons kan doen.

507
00:34:01,080 --> 00:34:08,080
Niet alleen maar zien als een regulering of een dingetje wat we vanuit de wet zouden moeten afvinken.

508
00:34:08,080 --> 00:34:18,080
Maar echt met elkaar de meerwaarden ervan zien als we dat gewoon integreren in het ontwikkelproces, evaluatie en gebruik van onze AI systemen.

509
00:34:18,080 --> 00:34:26,080
Ik denk dat ik dat in het verlengde dan meeneem van dat het eigenlijk een soort van impliciete kwaliteit is geworden

510
00:34:26,080 --> 00:34:28,080
van als jij een AI systeem maakt.

511
00:34:28,080 --> 00:34:31,080
Zo van we hebben het er eigenlijk niet over.

512
00:34:31,080 --> 00:34:35,080
Het is logisch dat je uitleg krijgt.

513
00:34:35,080 --> 00:34:39,080
Dat er niet meer gepusht hoeft te worden, niet meer gevraagd hoeft te worden.

514
00:34:39,080 --> 00:34:45,080
Net zo goed als jij bepaalde verwachtingen hebt, zeg maar wat jouw auto doet,

515
00:34:45,080 --> 00:34:49,080
verwacht je ook gewoon dat een AI systeem uitleg geeft.

516
00:34:49,080 --> 00:34:52,080
Ja en dan ook de uitleg waar je op zit te wachten.

517
00:34:52,080 --> 00:34:53,080
Precies.

518
00:34:53,080 --> 00:34:56,080
Die je nodig hebt, ook als je nog niet van tevoren wist dat je die eigenlijk nodig had.

519
00:34:56,080 --> 00:34:59,080
Ja, normaal is een zaak van de wereld eigenlijk.

520
00:34:59,080 --> 00:35:00,080
Inderdaad.

521
00:35:00,080 --> 00:35:01,080
Ja.

522
00:35:01,080 --> 00:35:04,080
Ja, bij betreft moeten we dat nu hebben als ik het zo hoor.

523
00:35:04,080 --> 00:35:06,080
Het liefst wel.

524
00:35:06,080 --> 00:35:09,080
Jasper, wij hebben een nieuw onderdeel.

525
00:35:09,080 --> 00:35:13,080
In de vorige aflevering is die spontaan ontstaan.

526
00:35:13,080 --> 00:35:15,080
En dat gaat er eigenlijk over.

527
00:35:15,080 --> 00:35:17,080
We hebben een kaartspel ontwikkeld.

528
00:35:17,080 --> 00:35:19,080
We zullen ook een linkje opnemen in de show notes.

529
00:35:19,080 --> 00:35:22,080
Dan kan je hem zelf bestellen.

530
00:35:22,080 --> 00:35:24,080
Jij niet, jij krijgt hem straks.

531
00:35:24,080 --> 00:35:26,080
Maar als luisteraar.

532
00:35:26,080 --> 00:35:28,080
En dan gaan we je stellingen voorleggen.

533
00:35:28,080 --> 00:35:32,080
Dus hierbij.

534
00:35:33,080 --> 00:35:51,080
*muziek speelt*

535
00:35:51,080 --> 00:35:56,080
En dat kaartspel heeft zes categorieën met allemaal vragen.

536
00:35:56,080 --> 00:36:00,080
En zoals jullie kunnen zien heb ik er nu gewoon eentje voor jou eruit gehaald.

537
00:36:00,080 --> 00:36:03,080
Dus ik heb zelf eigenlijk ook geen idee.

538
00:36:03,080 --> 00:36:05,080
Laten we eens kijken.

539
00:36:05,080 --> 00:36:08,080
Het zit in de technologie en innovatie bestelling.

540
00:36:08,080 --> 00:36:17,080
Onze organisatie heeft een strategisch leider voor generatieve AI aangesteld om onze AI initiatieven te sturen.

541
00:36:17,080 --> 00:36:23,080
Dat vind ik heel voortvarend.

542
00:36:23,080 --> 00:36:24,080
Ja?

543
00:36:24,080 --> 00:36:27,080
Even kijken.

544
00:36:27,080 --> 00:36:31,080
Is dat mijn organisatie?

545
00:36:31,080 --> 00:36:33,080
Ja, laten we daarmee beginnen.

546
00:36:33,080 --> 00:36:36,080
Oké, dan even denken.

547
00:36:36,080 --> 00:36:42,080
Ja, dat zou ik al heel voortvarend vinden.

548
00:36:42,080 --> 00:36:46,080
Ik zou benieuwd zijn naar wat die persoon precies zal gaan doen.

549
00:36:46,080 --> 00:36:51,080
Want bij TNO doen we onderzoek naar generatieve AI natuurlijk.

550
00:36:51,080 --> 00:36:54,080
Gaat die persoon zich daar ook tegenaan bemoeien?

551
00:36:54,080 --> 00:37:00,080
Of gaat deze persoon het alleen maar hebben over hoe wij generatieve AI gebruiken in bijvoorbeeld het doen van onderzoek?

552
00:37:00,080 --> 00:37:02,080
Als we dat laatste eens pakken.

553
00:37:02,080 --> 00:37:08,080
Bijvoorbeeld is de beleid rondom mag je generatieve AI bij jullie toepassen bij het onderzoek?

554
00:37:08,080 --> 00:37:10,080
Daar hebben we nog geen beleid over.

555
00:37:10,080 --> 00:37:17,080
Dat wordt nu eigenlijk op ad hoc basis inderdaad besloten.

556
00:37:17,080 --> 00:37:20,080
Het komt er wel aan, dus ik ben heel benieuwd.

557
00:37:20,080 --> 00:37:26,080
Ik weet dus ook niet of er daar zo'n één persoon bij zit die dat gaat doen voor onze organisatie.

558
00:37:26,080 --> 00:37:34,080
Ik zou wel denken dat het een heel capabele persoon is.

559
00:37:34,080 --> 00:37:38,080
Ja, toch? Dat is een behoorlijk vraagstuk.

560
00:37:38,080 --> 00:37:46,080
Wat je bij ons ziet, als ik dat mag vertellen, is dat wij dat ook niet bij één persoon hebben belegd.

561
00:37:46,080 --> 00:37:52,080
Er is een soort van denktank waarin vanuit verschillende disciplines gekeken wordt.

562
00:37:52,080 --> 00:37:54,080
Waar lopen we eigenlijk tegenaan?

563
00:37:54,080 --> 00:38:00,080
We hebben natuurlijk ook te maken met AI beleid van onze klanten waar wij ons werk voor doen.

564
00:38:00,080 --> 00:38:01,080
Die verschillend zijn.

565
00:38:01,080 --> 00:38:05,080
Bij sommigen mogen we generatieve AI prima inzetten.

566
00:38:05,080 --> 00:38:07,080
Anderen zeggen nee, totaal verbod.

567
00:38:07,080 --> 00:38:11,080
En daar moeten wij natuurlijk ook mee omgaan.

568
00:38:11,080 --> 00:38:16,080
En we moeten ook nadenken over onze eigen medewerkers.

569
00:38:16,080 --> 00:38:18,080
Straks in de opleiding bijvoorbeeld.

570
00:38:18,080 --> 00:38:22,080
Waar mogen ze wel generatieve AI gebruiken, maar waar niet?

571
00:38:22,080 --> 00:38:25,080
Dat je de basis gaat leren, dat soort zaken.

572
00:38:25,080 --> 00:38:26,080
Ja.

573
00:38:26,080 --> 00:38:32,080
Ik zelf zou ook meer voorstander zijn voor een comité, een denktank.

574
00:38:32,080 --> 00:38:37,080
In ieder geval een groep mensen die verschillende perspectieven inderdaad kan inbrengen in zo'n discussie.

575
00:38:37,080 --> 00:38:44,080
Niet dat je inderdaad één persoon hebt die al het mandaat bepaalt rondom wat wel en niet mag.

576
00:38:44,080 --> 00:38:51,080
Zeker inderdaad in een organisatie zoals die van jullie waar je ook te maken hebt met verschillende beleiden van je klant.

577
00:38:51,080 --> 00:38:52,080
Precies.

578
00:38:52,080 --> 00:38:58,080
Ik denk dat die persoon dan een behoorlijke kluif heeft om dat allemaal te gaan afstemmen.

579
00:38:58,080 --> 00:39:00,080
Ja, zeker.

580
00:39:00,080 --> 00:39:03,080
Je hebt natuurlijk ook met allerlei juridische dingen te maken.

581
00:39:03,080 --> 00:39:04,080
Exact.

582
00:39:04,080 --> 00:39:11,080
Die persoon moet ook de technische beperkingen kennen, de mogelijkheden.

583
00:39:11,080 --> 00:39:14,080
Er zijn heel veel aspecten die komen kijken.

584
00:39:14,080 --> 00:39:21,080
Wat ik denk wel belangrijk vind, om hier nog even op in te haken, is dat je wel weet dat er een denktank is of dat er iemand het op zijn bordje heeft.

585
00:39:21,080 --> 00:39:23,080
Dat de verantwoordelijkheid gevoeld wordt.

586
00:39:23,080 --> 00:39:27,080
Want het onderwerp, als ik jullie zo hoor, is dus wel van essentieel belang om het hier met elkaar over te hebben.

587
00:39:27,080 --> 00:39:33,080
Dus daarmee helpt het denk ik wel als je zo'n kwartiermaker hebt, of aanspreekpunt, of eindverantwoordelijke, die een denktank nodig heeft.

588
00:39:33,080 --> 00:39:34,080
Dat denk ik wel mee.

589
00:39:34,080 --> 00:39:36,080
Alle verschillende aspecten zijn echt heel veel.

590
00:39:36,080 --> 00:39:40,080
Maar ik denk dat het wel helpt om daar iemand te hebben die daar echt voor gaat staan.

591
00:39:40,080 --> 00:39:42,080
En ook goed benaderbaar is.

592
00:39:42,080 --> 00:39:44,080
Ja, zeker.

593
00:39:59,080 --> 00:40:03,080
Dit is dat kaartspel, als het leuk is, tussendoortje.

594
00:40:03,080 --> 00:40:06,080
Zo, ik zit tegen mijn microfoon aan te tikken.

595
00:40:06,080 --> 00:40:21,080
Waar ik nog benieuwd was, is met de onderzoeken die jij doet, die TNO doet, rondom explainable AI, XAI, is er een rode draad in te vinden in bevindingen?

596
00:40:21,080 --> 00:40:24,080
Of onderzoek wat je doet?

597
00:40:24,080 --> 00:40:37,080
De rode draad in mijn eigen onderzoek, en dat van mijn team, is in principe ook dat mensen gericht te proberen te pushen in het XAI onderzoek.

598
00:40:37,080 --> 00:40:47,080
Want ik ben er heel van overtuigd dat al die techniek pas nuttig is wanneer we weten hoe we moeten toepassen.

599
00:40:47,080 --> 00:40:51,080
En daarvoor doen we de projecten die wij doen.

600
00:40:51,080 --> 00:40:56,080
Dus dat is eigenlijk de rode draad in mijn eigen onderzoek en dat van mijn team.

601
00:40:56,080 --> 00:41:12,080
Wat de algemene bevindingen die ik ook merk, en ook bij mijn andere collega's die met XAI werken, is dat juist die stap zetten naar een stuk technologie inzetten voor een bepaalde toepassing,

602
00:41:12,080 --> 00:41:15,080
dat je dan nog tegen zoveel problemen aanloopt.

603
00:41:15,080 --> 00:41:24,080
En een van die grootste problemen is dat toevoegen van uitleg nog niet gelijk betekent dat je eindgebruiker er gebruik van gaat maken.

604
00:41:24,080 --> 00:41:35,080
Dus in de experimenten die wij doen, de evaluaties en de validaties, zien wij toch regelmatig dat een merendeel van de gebruikers denken van "ja, ik zit echt te wachten op de uitleg,

605
00:41:35,080 --> 00:41:40,080
oh dankjewel, nu heb ik een systeem dat uitleg geeft." En vervolgens gebruiken ze het niet meer.

606
00:41:40,080 --> 00:41:47,080
Dus dan vraag je achteraf aan ze van "hoe vond je de uitleg?" "Ja, heel goed, maar ik had er geen tijd voor of ik vond hem toch niet zo nuttig,

607
00:41:47,080 --> 00:41:51,080
maar het was wel heel goed dat hij er was, voor als ik hem nodig zou hebben."

608
00:41:51,080 --> 00:41:59,080
En dan kijk je achteraf hoe ze hun werk hebben gedaan en dan denk je gewoon van "oh ja, ze hebben inderdaad geen gebruik gemaakt van die uitleg."

609
00:41:59,080 --> 00:42:08,080
En dat is denk ik wel echt een van de grootste uitdagingen die ik zelf nu ook zie in TNO breed.

610
00:42:08,080 --> 00:42:15,080
Dat we als toegepaste onderzoeksinstantie daar toch nog wel een hele kluif aan hebben.

611
00:42:15,080 --> 00:42:22,080
En dat gaat dan voornamelijk over van "hoe communiceer je nou deze uitleg op zo'n manier dat mensen er gebruik van gaan maken?"

612
00:42:22,080 --> 00:42:29,080
En dan gaan we naar "hoe kunnen we dan ook de uitleg kunnen gebruiken om mensen er gebruik van te maken?"

613
00:42:29,080 --> 00:42:35,080
En dan gaan we naar "hoe kunnen we dan ook de uitleg kunnen gebruiken om mensen er gebruik van te maken?"

614
00:42:47,080 --> 00:42:52,080
En dan gaan we naar "hoe kunnen we dan ook de uitleg kunnen gebruiken om mensen er gebruik van te maken?"

615
00:44:27,080 --> 00:44:37,080
Ik zou zeggen, het is misschien de verkeerde vraag om te stellen, maar goed, dat is dan ook de wetenschapper in mij.

616
00:44:37,080 --> 00:44:42,080
Ik zou meer dan zeggen, heeft iedere gebruiker een uitleg nodig?

617
00:44:42,080 --> 00:44:47,080
Waar ook meespeelt welk model die persoon gebruikt.

618
00:44:47,080 --> 00:44:54,080
Ik zou zeggen, nee, niet altijd.

619
00:44:54,080 --> 00:45:00,080
De truc is, wanneer bepaal je nou wanneer dat wel of niet nodig is?

620
00:45:00,080 --> 00:45:04,080
Daar hebben we eigenlijk zo goed als geen antwoord op op dit moment nog.

621
00:45:04,080 --> 00:45:14,080
En dat is puur omdat niet elke persoon hoeft dat model te begrijpen, of hoeft te begrijpen wat er uitkomt.

622
00:45:14,080 --> 00:45:19,080
Het is zelden het geval, maar het gebeurt wel eens inderdaad.

623
00:45:19,080 --> 00:45:29,080
En ik denk dat in een merendeel van de gevallen is ook al een klein stukje uitleg of een klein stukje begrip in het model al voldoende.

624
00:45:29,080 --> 00:45:35,080
Dus voor een ontwikkelaar die heeft van natuur eigenlijk best wel veel inzicht nodig in het model,

625
00:45:35,080 --> 00:45:41,080
maar zijn eindgebruiker, zoals we net al zeiden, die heeft dan misschien alleen dat stukje informatie nodig om het besluit te nemen.

626
00:45:41,080 --> 00:45:49,080
En dan hoeft hij niet te weten op welke data het systeem is getraind, of het een decision tree is, of een neuraal netwerk.

627
00:45:49,080 --> 00:45:51,080
Dat maakt allemaal niet zoveel uit.

628
00:45:51,080 --> 00:45:55,080
Die wil misschien vooral weten van, ja, oké, wat heb je eigenlijk meegenomen in dit besluit?

629
00:45:55,080 --> 00:45:58,080
En heb je nog alternatieven overwogen?

630
00:45:58,080 --> 00:46:01,080
Oh ja, oké, nou, dan ga ik alsnog voor dit andere besluit.

631
00:46:01,080 --> 00:46:08,080
Dus ja, het is een hele moeilijke keus, denk ik, ook om dat te maken.

632
00:46:08,080 --> 00:46:11,080
Ja, oké, mooi.

633
00:46:11,080 --> 00:46:15,080
Ja, volgens mij hebben we zoveel geraakt.

634
00:46:15,080 --> 00:46:18,080
Heel veel dingen die ik nu bedenk inderdaad.

635
00:46:18,080 --> 00:46:26,080
En ik zou hier nog uren met je over door kunnen praten, maar dat doen we dan als de microfoon zo direct dicht zit.

636
00:46:26,080 --> 00:46:32,080
Jasper, echt ontzettend bedankt, zeg maar, voor al je inzicht op het gebied van uitlegbare AI.

637
00:46:32,080 --> 00:46:33,080
Graag gedaan.

638
00:46:33,080 --> 00:46:35,080
Heel fijn dat je wilde komen.

639
00:46:35,080 --> 00:46:43,080
Ja, en ik hoop, de voorspelling drie jaar, misschien dat het al eerder is, maar dat we daar heen gaan met de zaken die we net hebben genoemd.

640
00:46:43,080 --> 00:46:45,080
Een hele mooie.

641
00:46:45,080 --> 00:46:49,080
Dank je wel voor het luisteren.

642
00:46:49,080 --> 00:46:52,080
Vergeet je niet te abonneren via je favoriete podcast-app.

643
00:46:52,080 --> 00:46:59,080
Als je eventjes op vol gedrukt bij Spotify bijvoorbeeld, dan krijg je automatisch een seintje als er een nieuwe aflevering is.

644
00:46:59,080 --> 00:47:03,080
En dat is op de maandag met een gast, op donderdag, korte aflevering.

645
00:47:03,080 --> 00:47:04,080
Kan je niet missen.

646
00:47:04,080 --> 00:47:06,080
Tot snel!

647
00:47:06,080 --> 00:47:08,080
[Muziek]


People on this episode