AIToday Live

S06E87 - Een pleidooi voor het gebruik van gezond verstand met Marc Jacobs

Aigency by Info Support Season 6 Episode 87

Marc Jacobs, data wetenschapper en co-auteur van het boek "De onttovering van AI", is te gast in de nieuwste aflevering van de Nederlandse AI-podcast AIToday Live. Het centrale thema van de discussie is het belang van gezond verstand bij de toepassing en beoordeling van AI-technologie.

Jacobs legt uit dat het boek is geschreven als reactie op de overdreven claims en verwachtingen rond AI na de lancering van ChatGPT. Hij benadrukt dat AI geen bewustzijn of emoties heeft, maar simpelweg rekenregels toepast op grote hoeveelheden data.

De belangrijkste onderwerpen in deze aflevering zijn:

  • Het pleidooi voor gezond verstand in de toepassing van AI
  • De impact van generatieve AI op de maatschappij en processen
  • De verantwoordelijkheden van gebruikers en ontwikkelaars van AI
  • De waarde van kennis over AI en het begrijpen van modellen
  • De toekomst van AI in relatie tot de menselijke interactie en creativiteit

Links

Genoemde organisaties, personen en bedrijven: Ronald Meester - MSJ Advies - ChatGPT - Europese AI Act - gezondheidszorg - agrarische sector

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:07,400
Hoi, leuk dat je luistert naar een nieuwe aflevering van AIToday Live, de Nederlandse

2
00:00:07,400 --> 00:00:12,840
podcast over AI. Vooral eigenlijk heel breed wat we allemaal behandelen Niels.

3
00:00:12,840 --> 00:00:16,280
Ja, je kan het zo niet bedenken. Als er AI in zit, dan hebben we het erover.

4
00:00:16,280 --> 00:00:20,480
Ja, en we gaan het vandaag hebben namelijk over een pleidooi voor het gebruik van gezond verstand.

5
00:00:20,480 --> 00:00:25,040
En dat vond ik namelijk zo interessant, daar wilde ik meer over weten. Mijn naam Joop

6
00:00:25,040 --> 00:00:30,520
Snijder, CTO bij Aigency. Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.

7
00:00:30,520 --> 00:00:36,320
Ja, en we hebben te gast Marc Jacobs. Marc, jij bent een van de auteurs van het boek,

8
00:00:36,320 --> 00:00:42,320
de onttovering van AI. En ik noemde eigenlijk al de subtitel, daar wil ik zodra ik wat verder

9
00:00:42,320 --> 00:00:46,280
over weten. Maar zou je je eerst even willen voorstellen aan onze luisteraars?

10
00:00:46,280 --> 00:00:53,640
Ja, nou ten eerste, fijn dat ik hier kon zijn. Mijn naam is Mark Jacobs. Ik ben data wetenschapper,

11
00:00:53,640 --> 00:00:59,160
of modelleur en statistisch consultant. Ik heb ook mijn eigen bedrijfje, MSJ Advies.

12
00:00:59,160 --> 00:01:05,720
En ik ben nu denk ik twee jaar zelfstandig als data wetenschapper. Ik heb heel verschillende

13
00:01:05,720 --> 00:01:11,040
rollen gehad voor verschillende velden, gezondheidszorg, agrarische sector. En ik

14
00:01:11,040 --> 00:01:15,960
hou van puzzels oplossen. Dus ik dacht, dat wil ik zo breed als mogelijk doen. En zo nu en dan

15
00:01:15,960 --> 00:01:19,240
is er een puzzel waar ik ook over wil schrijven. En daar is dit boek dan het resultaat van.

16
00:01:19,240 --> 00:01:26,320
Ja mooi. En wat mij natuurlijk meteen opviel, is het pleidooi voor het gebruik van gezond verstand.

17
00:01:26,320 --> 00:01:31,520
Nou ik denk dat bijna niemand daar het mee oneens kan zijn. Maar waarom was het zo belangrijk om

18
00:01:31,520 --> 00:01:35,920
dat voor op het boek te hebben met de titel de onttovering van AI?

19
00:01:35,920 --> 00:01:42,840
Ja, nou ik heb, en dit boek is natuurlijk samen geschreven met Ronald Meester,

20
00:01:42,840 --> 00:01:50,600
hoogleraar in de waarschijnlijkheidsrekening. En wij hebben in 2022, hebben wij zeg maar zo

21
00:01:50,600 --> 00:01:54,840
begonnen met ons eerste boek. Dat was de inzet van modellen voor beleid. Dat ging hele rondom

22
00:01:54,840 --> 00:02:00,080
corona, stikstof, klimaat. Dus dat was mijn eerste boek. Ik denk Ronald's negende boek.

23
00:02:00,080 --> 00:02:04,360
En dat was echt een hele happening. Ik zei tegen Ronald, ik zeg, joh,

24
00:02:04,360 --> 00:02:10,200
ik zeg boeken schrijven is leuk, maar ik ben er even klaar mee. En we waren aan het einde van het

25
00:02:10,200 --> 00:02:14,480
manuscript in november 2022. En toen kwam ChatGPT.

26
00:02:14,480 --> 00:02:16,080
Ja, even een verandering.

27
00:02:16,080 --> 00:02:17,200
Ja, precies.

28
00:02:17,200 --> 00:02:24,880
En het was niet zozeer dat de komst van ChatGPT wat mij en Ronald deden besluiten om dit boek te

29
00:02:24,880 --> 00:02:30,440
schrijven. Het was de berichten die daarop volgden. Kan AI bewust zijn? Heeft AI bewust zijn?

30
00:02:30,440 --> 00:02:37,040
Singularity, het moment waarop AI ons overstijgt op zo'n manier dat wij nooit meer kunnen terugkoppelen

31
00:02:37,040 --> 00:02:44,240
en terugkeren naar ons huidige bestaan. Maar ook dingen als AI is slimmer dan een mens.

32
00:02:44,240 --> 00:02:52,400
ChatGPT heeft een IQ van 150. Praat nu met Jezus. Praat nu met je overledene. En elke dag,

33
00:02:52,400 --> 00:02:56,200
misschien kunnen jullie het ook nog horen, elke dag had je ook iets. En Ronald, ik zei tegen hem,

34
00:02:56,200 --> 00:02:59,040
hier moeten we iets mee. Dus we zijn direct weer gaan schrijven.

35
00:02:59,040 --> 00:03:00,560
Eigenlijk is het nog niet gestopt, hè?

36
00:03:00,560 --> 00:03:08,280
Nee, met elke iteratie. Je ziet nu met de nieuwe Gpt, was het IO1?

37
00:03:08,280 --> 00:03:08,780
o1.

38
00:03:08,780 --> 00:03:15,760
Ja, reasoning. En dat doen ze heel mooi. Die marketing is prachtig. Het is reasoning.

39
00:03:15,760 --> 00:03:18,880
En een van de manieren waarop ze die illusie van reasoning ook creëren,

40
00:03:18,880 --> 00:03:24,640
is door gewoon het model langer te laten doen over het schrijven van het antwoord.

41
00:03:24,640 --> 00:03:29,040
Ja, en het staat ook gewoon in de user interface. Er staat gewoon thinking, reasoning.

42
00:03:29,040 --> 00:03:33,560
Juist. Wat dat betreft dus hele goede, want je zegt marketing en user interface.

43
00:03:33,560 --> 00:03:35,040
Dat maakt echt wel het verschil.

44
00:03:35,040 --> 00:03:37,520
Maar waarom is dat een probleem volgens jou?

45
00:03:37,520 --> 00:03:45,280
Nou, ja, een probleem. Kijk, Ronald en ik betrappen ons er wel eens op. Het klinkt een

46
00:03:45,280 --> 00:03:49,840
beetje als of je een oude lul bent. Dat je bijna denkt van, joh, ga toch mee in die technologie.

47
00:03:49,840 --> 00:03:53,560
Technologie is geweldig. Sterker, dit is mijn werkveld. Waar ben ik mee bezig? Ik bedoel,

48
00:03:53,560 --> 00:04:00,280
dit is de tijd. Maar ik maak wel eens de vergelijking met bijvoorbeeld de elektrische

49
00:04:00,280 --> 00:04:04,840
fiets. Een elektrische fiets is een geweldige uitvinding. Een geweldige uitvinding voor als

50
00:04:04,840 --> 00:04:09,720
je niet goed op been bent, voor als je niet meer zo goed kunt fietsen. En dat stelt mensen weer in

51
00:04:09,720 --> 00:04:13,840
staat, ook heel veel oudere mensen, met alle gevolgen van die om weer te kunnen fietsen.

52
00:04:13,840 --> 00:04:18,360
Maar wat je ook ziet gebeuren, en dat is natuurlijk van alle tijden, is dat ook mensen

53
00:04:18,360 --> 00:04:23,520
die het eigenlijk niet nodig hebben, die elektrische fiets gebruiken. En wat wij eigenlijk

54
00:04:23,520 --> 00:04:29,640
zeggen is, er is gewoon heel veel te behalen in het doen van moeite. Zowel fysiek, maar ook mentaal.

55
00:04:29,640 --> 00:04:34,720
Ja, want je ziet nu dus ook jongeren om naar school te gaan met een elektrische fiets.

56
00:04:34,720 --> 00:04:41,560
Ja, tuurlijk. Dus wat je ziet is, en dat is iets waar is bijvoorbeeld… Kijk, wat wij eigenlijk

57
00:04:41,560 --> 00:04:47,440
wilden, was het benadrukken van het gezond verstand, maar vooral het doorbreken van de illusie. En ik

58
00:04:47,440 --> 00:04:52,640
moet altijd denken aan zo'n oud SBS6-programma, ik weet niet of je het nog kent, met zo'n illusionist.

59
00:04:52,640 --> 00:04:59,480
En die illusionist had de taak om te laten zien hoe zo'n illusie werkt. En als je eenmaal ziet hoe

60
00:04:59,480 --> 00:05:02,400
dat werkt, en die man werd ook echt met de dood bedreigd, als je eenmaal ziet hoe dat werkt,

61
00:05:02,400 --> 00:05:08,480
kun je dat nooit meer ontzien. En wat ik eigenlijk wilde laten zien is, oké, om AI zijn rechtmatige

62
00:05:08,480 --> 00:05:13,680
plek terug te geven, moet je het onttoveren. Dan moet je ook laten zien voor wat het echt kan.

63
00:05:13,680 --> 00:05:18,480
Want anders gaan we hele gekke dingen doen. Want daar is het krachtig en schaalbaar genoeg voor.

64
00:05:18,480 --> 00:05:21,280
En waar denk je dan aan, aan gekke dingen?

65
00:05:21,280 --> 00:05:26,920
Nou, een van de meest gekke dingen is, en dat zag je al een beetje in bijvoorbeeld de toeslagenaffaire,

66
00:05:26,920 --> 00:05:33,600
is automatische rechtspraak. Dus dat AI eigenlijk bepaalt wat wel en niet kan. Dat AI bepaalt wie

67
00:05:33,600 --> 00:05:40,480
wel of niet fraude plicht. Dat AI bepaalt wie wel of niet ergens naar binnen mag. En als wij die

68
00:05:40,480 --> 00:05:45,280
techniek, die heel schaalbaar is, en daar zit ook het gevaar aan, als we die heel veel vrijheid

69
00:05:45,280 --> 00:05:49,840
geven, dan op een gegeven moment kun je die vrijheid niet meer zo snel terugnemen. Juist

70
00:05:49,840 --> 00:05:50,840
vanwege die schaalbaarheid.

71
00:05:50,840 --> 00:05:55,640
Ja, je zegt iets van de rechtspraak. Dus een aantal maanden geleden was het in het nieuws

72
00:05:55,640 --> 00:06:02,400
dat een rechter daadwerkelijk vragen heeft gesteld aan ChatGPT als één van de bronnen die hij

73
00:06:02,400 --> 00:06:10,440
mee heeft gewogen in de uitspraak. Met volgens mij het idee van, dat is algemene informatie,

74
00:06:10,440 --> 00:06:19,120
dus daar krijg ik een deel objectiviteit uit. Ik wil het eigenlijk als een neutrale vraag aan

75
00:06:19,120 --> 00:06:21,440
je stellen, maar ik krijg het bijna mijn keel niet uit.

76
00:06:21,440 --> 00:06:22,680
Ik krijg het ook heel moeilijk bij jou.

77
00:06:22,680 --> 00:06:22,680
Ja.

78
00:06:22,680 --> 00:06:29,240
Nou, kijk, het gevaar als jij als rechter ChatGPT gebruikt. Kijk, dat een rechter niet alle

79
00:06:29,240 --> 00:06:33,920
deskundigheid in huis heeft, is normaal. Dus als een rechter iets moet gaan beslissen, dan vraagt

80
00:06:33,920 --> 00:06:38,520
hij wel eens de deskundige of hij kan helpen om informatie aan te leveren. Dus een rechter om

81
00:06:38,520 --> 00:06:42,640
te bepalen of iemand kundig of niet kundig is, of die informatie betrouwbaar is of niet. Bij ChatGPT

82
00:06:42,640 --> 00:06:47,320
zie je niet eens waar het vanaf komt. Ik denk dat dat ook het grootste nadeel is. Je

83
00:06:47,320 --> 00:06:51,720
kunt niet eens zien waar het vanaf komt. Dan heb je natuurlijk Copilot, dan zie je wel een aantal

84
00:06:51,720 --> 00:06:55,400
onderdelen waar het vanaf komt, maar nog steeds niet heel duidelijk, zeg maar.

85
00:06:55,400 --> 00:07:02,720
Nou, en vooral ook de objectiviteit die eraan wordt toegekend. Dat lijkt me wel een probleem.

86
00:07:02,720 --> 00:07:09,840
Ja, dat denk ik zeker. Wat ik het mooiste vind, ik denk aan de huidige techniek,

87
00:07:09,840 --> 00:07:14,480
de huidige status van AI, is dat het ons wil nadenken wat het betekent om mens te zijn.

88
00:07:14,480 --> 00:07:20,280
En dat vind ik wel heel mooi. En natuurlijk, je zei het al, je hebt natuurlijk die interface,

89
00:07:20,280 --> 00:07:27,640
die user interface. En ineens is AI wat voor ons ons brood is, wat normaal is. Dat programmeren,

90
00:07:27,640 --> 00:07:34,080
dat is voor iedereen eens toegankelijk. Net zoals dat voor iedereen een auto toegankelijk is. Je

91
00:07:34,080 --> 00:07:40,560
kunt iets gebruiken zonder per se te verweten hoe het werkt. Maar het problematische zit erin als je

92
00:07:40,560 --> 00:07:48,480
niet meer kunt duiden waar dingen vanaf komen. En dat is wat je nu heel vaak ziet, is dat het

93
00:07:48,480 --> 00:07:53,960
zo makkelijk wordt toegepast in alle vormen en maten, dat we niet meer stilstaan bij van "hé,

94
00:07:53,960 --> 00:07:58,520
wat staat er nu eigenlijk? En waar komt dat vandaan?" En dan even naar de ondertitel van het

95
00:07:58,520 --> 00:08:02,920
boek. Hoe komt dat dan weer terug naar het gezond verstand? Nou ja, het gezond verstand. Kijk,

96
00:08:02,920 --> 00:08:08,120
als je vraagt "wat is gezond verstand?" Ik denk dat het gezond verstand net zoveel emotie als ratio.

97
00:08:08,120 --> 00:08:12,520
Ja. Dus dat is ook het lastige van "wat is nou gezond verstand?" En ik hou zelf niet van

98
00:08:12,520 --> 00:08:16,560
definities. Als ik een definitie geef, dan lijkt het op bepaling te geven. Maar dat kan voor mij

99
00:08:16,560 --> 00:08:19,560
iets anders zijn dan voor jou. We hebben allemaal een beetje een onderbuikgevoel bij wat gezond

100
00:08:19,560 --> 00:08:24,280
verstand is. Intuïtie. Net zoals we ook allemaal een onderbuikgevoel hebben van wat het is om

101
00:08:24,280 --> 00:08:32,000
liefde te kennen. Of wat een spel is, zeg maar. En als je voor het eerst vader wordt, dan weet ik,

102
00:08:32,000 --> 00:08:36,480
ik weet niet wat het is om vader te zijn, maar ik kon het je daarvoor niet uitleggen, want ik

103
00:08:36,480 --> 00:08:39,200
wist het niet. En jij kon het me niet vertellen, want ik kan het mezelf niet eigen maken. Dat is

104
00:08:39,200 --> 00:08:44,600
een gevoel. En ik denk wat wij heel graag willen, is die illusie doorbreken zodat mensen weer denken

105
00:08:44,600 --> 00:08:50,600
van "oké AI is niet dit mens overstijgende stuk techniek, maar het is iets wat we kunnen gebruiken,

106
00:08:50,600 --> 00:08:57,320
slim kunnen gebruiken en een stukje gezond verstand heeft te maken met het moment waarop we zeggen

107
00:08:57,320 --> 00:09:02,480
"oké, we weten te weinig, hier gebruiken we het niet". En dat vind ik heel belangrijk,

108
00:09:02,480 --> 00:09:09,200
want op vandaag zie je heel veel mensen die roepen "ik ben expert in AI, ik ben expert in Gen AI,

109
00:09:09,200 --> 00:09:13,120
ik ben expert in dit en dat. Twee jaar geleden was ik nog dakdekker en nu ben ik expert in AI,

110
00:09:13,120 --> 00:09:17,920
ja zo gaat dat. En dan denk ik van ja, maar een expert is niet iemand die alles weet. Een expert

111
00:09:17,920 --> 00:09:25,640
is juist diegene die weet wanneer hij het niet meer weet. En dat is zo mooi en dat wil ik weer

112
00:09:25,640 --> 00:09:37,120
terug hebben. En hoe kan je dat slijpen? Ja dat is een hele goede vraag. Hoe kun je dat slijpen?

113
00:09:37,120 --> 00:09:45,440
Kijk ik denk dat het belangrijk is dat je voor jezelf het wel probeert. Ik denk dat het voor

114
00:09:45,440 --> 00:09:49,320
jezelf heel belangrijk is om kennis te krijgen van die modellen. En zoals jij bijvoorbeeld hebben

115
00:09:49,320 --> 00:09:55,840
gevoeld, laten we zeggen een arts krijgt een model te ondersteuning en een arts, die radioloog,

116
00:09:55,840 --> 00:10:00,680
die moet 300, 400 plaatjes per dag bekijken. Dat is heel veel werk. En een model dat zegt van

117
00:10:00,680 --> 00:10:05,880
"luister, ik doe die 400 scannen en ik geef kanspercentages". Oké, nou die arts weet

118
00:10:05,880 --> 00:10:11,320
wat een kanspercentage is. Jippie, dat is heel wat. Dus dat doen we en hij geeft terug de eerste

119
00:10:11,320 --> 00:10:16,560
20, 30, 40 waarin het kanspercentage niet hoog aan de ene kant zit of hoog aan de andere kant.

120
00:10:16,560 --> 00:10:22,840
Dus dat is onzekerheid. Dan kijk je daar fris naar en dan komt de rest. Zo'n radioloog die

121
00:10:22,840 --> 00:10:28,400
zo'n algoritme gebruikt, moet weten hoe dat algoritme tot zijn kanspercentage komt. Hoe

122
00:10:28,400 --> 00:10:32,360
is dat model getraind? Op welke data set? Hoe is dat model zeg maar tot stand gekomen? Welke

123
00:10:32,360 --> 00:10:37,440
algoritmes gebruiken we? Hoe is die kans tot stand gekomen? En dan moet nog het besef komen

124
00:10:37,440 --> 00:10:43,600
dat zodra zo'n algoritme kanspercentage geeft, jij als expert, jij als radioloog,

125
00:10:43,600 --> 00:10:49,240
dat die informatie niet meer kunt ontzien. Jij zult anders naar een afbeelding kijken waarvan

126
00:10:49,240 --> 00:10:54,600
algoritme zegt dat is 100% een tumor of dat is 0% een tumor, dan dat je kijkt naar 50/50.

127
00:10:54,600 --> 00:10:59,800
Precies. En dan komen we bij het allerbelangrijkste en dat is wie is er verantwoordelijk. En die

128
00:10:59,800 --> 00:11:05,560
verantwoordelijkheid, zeker nu met de wet, blijft bij de mens. En dat betekent dat je ook de kennis

129
00:11:05,560 --> 00:11:12,520
moet hebben. Dus van gebruik naar besef. Juist. Maar het is wel lastig natuurlijk als je het heel

130
00:11:12,520 --> 00:11:17,960
vaak goed heeft. Kijk, we zijn van nature. Mensen kiezen gewoon de weg van de minste

131
00:11:17,960 --> 00:11:25,640
weerstand. Daarom hebben we geitenpaadjes. En dat maakt het ook wel heel erg lastig. En zeker

132
00:11:25,640 --> 00:11:32,600
iets als LGBT bijvoorbeeld, als we het daar toch weer eventjes naartoe terughalen, die geeft natuurlijk

133
00:11:32,600 --> 00:11:42,280
op geen enkele wijze een vorm van, wat jij zegt, kans of onzekerheid. Die geeft gewoon in taal

134
00:11:42,280 --> 00:11:48,320
antwoord. Daarvan zou je kunnen zeggen, sommigen zeggen van hij praat heel zeker. Maar het is in

135
00:11:48,320 --> 00:11:53,280
ieder geval altijd op een op eenzelfde manier. Hij zal je nooit, ja volgens mij, ik denk dat,

136
00:11:53,280 --> 00:12:00,120
dat soort termen kom je nooit tegen. Het zou kunnen dat het dit is. Dus er zit nooit een gevoel

137
00:12:00,120 --> 00:12:05,480
van onzekerheid in. Dus hoe zou je daar dan mee moeten omgaan? Dat je denkt van ja, maar hier moet

138
00:12:05,480 --> 00:12:12,360
ik echt wel even heel goed opletten. Nou ja, kijk, ik denk, voor mij, toen we dit boek schreven,

139
00:12:12,360 --> 00:12:17,280
hebben we natuurlijk ook ChatGPT toegepast. Dat was makkelijk. ChatGPT schrijft op een bepaalde

140
00:12:17,280 --> 00:12:20,720
manier. Sommige mensen zeggen ook van, dat haalt de flow uit het boek of het hoofdstuk. Dat snap ik.

141
00:12:20,720 --> 00:12:26,120
Maar wat wij wilden is kijken van, oké, wat voor informatie komt daaruit? En het gemak wat wij hadden

142
00:12:26,120 --> 00:12:30,920
is dat wij wisten wat het goede antwoord zou zijn. Dus wij konden het toetsen. Als ik ChatGPT nu vraag

143
00:12:30,920 --> 00:12:35,800
om bepaalde dingen uit te leggen waar ik niks van weet, dan begint voor mij de zoektocht. En die

144
00:12:35,800 --> 00:12:40,760
allereerste zoektocht is simpel, waar komt dat vandaan? Dat zie je al niet. Kijk, dat zijn

145
00:12:40,760 --> 00:12:44,920
basisvaardigheden. Die leer je eigenlijk op de middelbare school al. Dan moest je vroeger

146
00:12:44,920 --> 00:12:49,440
iets schrijven. Dan moest je referenties erbij halen, zeg maar. En wat je nu ook ziet, en dat

147
00:12:49,440 --> 00:12:55,480
hebben we ook tot gezond verstand, is toen ChatGPT uitkwam, waren studenten helemaal lyrisch, want

148
00:12:55,480 --> 00:13:00,840
die dachten, ja, nog meer wat te doen. En docenten die waren echt in de stress. Om twee redenen.

149
00:13:00,840 --> 00:13:06,240
Eén was dat ze niet wisten hoe je ermee om moest gaan. En de tweede was dat de techniek die ze

150
00:13:06,240 --> 00:13:12,480
hadden, de anti-speak software, de anti-heb-ik-het-wel-zelf-gedaan software, die werkte daar niet op.

151
00:13:12,480 --> 00:13:18,160
Dus je zag die afhankelijkheid van de techniek al. Maar veel belangrijker is, is dat je had dat

152
00:13:18,160 --> 00:13:22,760
makkelijk kunnen omzeilen door gewoon aan elke student te vragen in één minuut, leg maar uit

153
00:13:22,760 --> 00:13:27,760
hoe je dit gedaan hebt. Hoe heb je gezocht, wat heb je gekeken, hoe heb je dat aangepakt?

154
00:13:27,760 --> 00:13:33,080
Ja, vertellen het eens in je eigen woorden. En eigenlijk is dat ook hetgeen wat getoetst moet

155
00:13:33,080 --> 00:13:37,880
worden. Heb ik besef van hoe kom ik tot het proces, hoe kom ik tot de beredenering, hoe ben ik de

156
00:13:37,880 --> 00:13:44,000
detective om te komen tot mijn antwoord? Ik zie wel eens mensen waar ik dan mee samenwerk,

157
00:13:44,000 --> 00:13:47,680
die zeggen van, oké, ik heb een stukje code geschreven, ik heb gewoon ChatGPT gevraagd.

158
00:13:47,680 --> 00:13:52,840
Ja. Dan denk ik van, ja, snap je die code dan wel? Ben je wel eigenaar van die code? Dan zie je ze

159
00:13:52,840 --> 00:13:57,320
denken, dan denk ik, ja, nee. Dus wat je dan doet, is je verantwoordelijkheid doorschuiven

160
00:13:57,320 --> 00:14:02,160
naar een stuk techniek. Ja, dat is eigenlijk de makkelijkste weg, zoals net Joop ook zei.

161
00:14:02,160 --> 00:14:08,520
Ja. Ik was nog eens gekeken, Joop, je triggert mij met je vraag over waarom het altijd zo

162
00:14:08,520 --> 00:14:13,880
overkomt als de waarheid. Ik zou het mooi vinden als de taalmodellen ook meer die onzekerheid mee

163
00:14:13,880 --> 00:14:18,960
kunnen nemen en eigenlijk die onzekerheid verwerken in de taaleffecten. Volgens mij hebben we het wel

164
00:14:18,960 --> 00:14:24,000
eens vaker over gehad, dat als er twijfel is en niet 100% zeker uit de teksten te halen is wat het

165
00:14:24,000 --> 00:14:29,440
antwoord is, dat de taal technisch eigenlijk ook twijfelend moet gaan antwoorden. Dus ik hoop dat

166
00:14:29,440 --> 00:14:33,480
we daar nog een keer naartoe gaan bewegen. Ik moet een beetje glimlachen, want als je kijkt

167
00:14:33,480 --> 00:14:42,120
naar hoe ChatGPT werkt, kijk, taalmodellen, die zijn al heel oud. Dus je had in de jaren 70 van

168
00:14:42,120 --> 00:14:47,960
de vorige eeuw, die jaren 80, had je ELIZA. Dat was natuurlijk ook een taalmodel, maar eigenlijk

169
00:14:47,960 --> 00:14:52,520
een soort van IF-Else model. En ELIZA kon zichzelf in die illusie redden door als er geen antwoord

170
00:14:52,520 --> 00:14:54,800
gegeven kon worden, gewoon te zeggen "wil je er iets meer over vertellen".

171
00:14:54,800 --> 00:14:59,480
Ja, maar ELISA was een taalmodel die zich voordeed als een psycholoog.

172
00:14:59,480 --> 00:15:04,400
Ja, als een psycholoog en psychotherapeut. En wat je nu hebt, als je kijkt naar taalmodellen,

173
00:15:04,400 --> 00:15:11,760
dan is de grote doorbraak het stukje attention, aandacht. Dus een algoritme wat eigenlijk

174
00:15:11,760 --> 00:15:17,880
zeg maar een zin opbreekt in elementen met verschillende gewichten eraan. Waarbij het

175
00:15:17,880 --> 00:15:22,440
niet zo hoeft te zijn dat een woord aan het begin minder effect heeft op het woord aan het einde.

176
00:15:22,440 --> 00:15:25,000
Het kan soms zijn dat heel veel effect heeft, dus dat is een stukje attention.

177
00:15:25,000 --> 00:15:33,760
Nou, om een antwoord te geven wordt eigenlijk een zin opgebouwd woord per woord. En om de illusie

178
00:15:33,760 --> 00:15:39,280
van een mens te creëren zit er een parameter in, de temperature parameter, en dat is randomness.

179
00:15:39,280 --> 00:15:45,920
Ja. Dat is chaos eigenlijk. Wij gedijen bij chaos. Alleen het model is zo getraind en ook

180
00:15:45,920 --> 00:15:52,280
handmatig aangelengd, want dat vergeten mensen ook nog wel eens, handmatig aangelengd, om gewoon

181
00:15:52,280 --> 00:15:59,800
liever een antwoord te geven dan een fout antwoord te geven. Want anders vervalt de illusie. En dan

182
00:15:59,800 --> 00:16:05,400
krijg je dus wat jij zegt, die onzekerheid zit er niet in. En sterker nog, het gaat zover dat als je

183
00:16:05,400 --> 00:16:10,040
dan zegt van oké, wat is 1+1? Dan zeg je 2, dan zeg ik nee, is 3. Dan zegt hij ja, sorry, het is 3.

184
00:16:10,040 --> 00:16:16,200
Ja. En dat zou wel beter worden. Dat is een kwestie van tijd. Want het besef moet er wel

185
00:16:16,200 --> 00:16:21,400
zijn. Het is een machine, het is geen mens. En waar zit het, want wat je nu ziet, iedereen

186
00:16:21,400 --> 00:16:26,560
focussen helemaal op die generatieve EH. Je zegt ik ben data wetenschapper, je zit er ook langer

187
00:16:26,560 --> 00:16:34,640
in. Wij zitten er ook al meer dan een decennia in dit vakgebied. Waar zit nou de scheidslijn dat

188
00:16:34,640 --> 00:16:40,200
je zegt van ja, maar eigenlijk moet je juist hier geen generatieve EH gebruiken. Mensen hebben nu

189
00:16:40,200 --> 00:16:45,520
ineens een hamer en zien overal een spijker. Waar zit die scheidslijn die je zegt van ja,

190
00:16:45,520 --> 00:16:50,680
maar jongens, we hebben echt hele andere technieken die veel beter zijn voor dit soort

191
00:16:50,680 --> 00:16:56,720
oplossingen. Voor dit soort problemen moet ik eigenlijk zeggen. Ja, ik denk kijk, generatieve

192
00:16:56,720 --> 00:17:05,080
AI. Kijk, ik vind het mooie van generatieve AI is het kunnen switchen tussen verschillende mediums.

193
00:17:05,080 --> 00:17:11,080
Als ik een video opneem zeg maar, dan kan ik uit die video, heb ik natuurlijk ook audio. Van die

194
00:17:11,080 --> 00:17:15,240
audio kan ik een artikel maken, van die artikel kan ik een podcast maken en van die podcast kan

195
00:17:15,240 --> 00:17:20,560
ik in principe een video maken zeg maar. Dus ik kan heel makkelijk switchen. Ik kan vanuit woorden

196
00:17:20,560 --> 00:17:25,320
kan ik een beeld maken, vanuit beeld kan ik weer woorden maken zeg maar. Dus ik denk dat is handig

197
00:17:25,320 --> 00:17:31,600
en dat zie je ook. Maar als je ziet in de projecten die ik draai en dat heeft dan te maken met

198
00:17:31,600 --> 00:17:39,000
voorspellen wanneer een vriescel invriest, hoe een tomaat groeit of bepaald iemand in de zorg

199
00:17:39,000 --> 00:17:45,280
fraude heeft gepleegd zeg maar. Ja, van dat soort dingen gebruik ik geen ChatGPT. Dat is gewoon

200
00:17:45,280 --> 00:17:51,120
keihard modelleren. Dat is gewoon je features maken. Dat is gewoon vooral heel veel gesprekken

201
00:17:51,120 --> 00:17:55,600
hebben met de experts. Heel veel kijken hoe integreer ik nou dit technisch proces in een menselijk

202
00:17:55,600 --> 00:18:00,240
proces zeg maar. Dus ik dan vraag niet ChatGPT van hé hoe kan ik dat het beste doen? Nee, dan ga

203
00:18:00,240 --> 00:18:04,720
ik zitten en dan ga ik voelen. Dat is dat ik hier zit zeg maar. Dan ga ik voelen, ik kijk jullie aan,

204
00:18:04,720 --> 00:18:07,720
dan ga ik voelen hoe gaat het gesprek, wat denk ik wat jullie willen, kijk naar jullie gezichten.

205
00:18:07,720 --> 00:18:12,960
Dat is wat ik doe en dat is ook wat veel mensen vergeten. Je bent wel een modelleur, maar mijn

206
00:18:12,960 --> 00:18:18,600
werk is net zoveel sociaal en menselijk dan dat is het programmeren. Precies, van wat is belangrijk,

207
00:18:18,600 --> 00:18:23,720
waar mogen de fouten wel een beetje gemaakt worden, waar niet. Dat zijn allemaal hele belangrijke

208
00:18:23,720 --> 00:18:28,160
vraagstukken. Ja en is dat dan een harde scheidslijn? Dat weet ik niet. Het is wel,

209
00:18:28,160 --> 00:18:33,480
dat zeg je wel heel mooi, ik moet een beetje gniffelen. Ik zie nu heel veel generatieve AI

210
00:18:33,480 --> 00:18:39,760
cursus naar boven komen. Ronald en ik wilden cursus geven voor dit boek en het lukte maar

211
00:18:39,760 --> 00:18:42,880
gewoon niet met de aanmelding. Het rode boek was echt heel makkelijk, lukte maar gewoon niet met

212
00:18:42,880 --> 00:18:47,960
die aanmelding. Ik zeg Ronald, hoe kan dat nou? We keken dus wat er allemaal was en het was echt,

213
00:18:47,960 --> 00:18:54,680
verander je bedrijf met ChatGPT, ChatGPT als tweede brein, ChatGPT als dit. Het zijn

214
00:18:54,680 --> 00:19:02,800
eigenlijk de Excel en Office cursussen van de jaren 90 van de vorige eeuw. Maar ik snap dat wel.

215
00:19:02,800 --> 00:19:07,840
Zeker, want het is natuurlijk wel een techniek die je echt moet aanleren. Het is echt wat anders

216
00:19:07,840 --> 00:19:13,680
dan, kijk de mensen zijn wel gewend om Excel te gebruiken, om Google te gebruiken en als jij

217
00:19:13,680 --> 00:19:18,520
als jij deze technologie gebruikt als zijn in een Google dan kom je er niet uit. Het zijn hele

218
00:19:18,520 --> 00:19:25,560
handige trainingen denk ik inderdaad. Wat lastig is, is dat het nu overal voor gebruikt wordt.

219
00:19:25,560 --> 00:19:33,560
Ja, dus dat zie je. When you have a hammer everything looks like a nail. Dat is klassiek.

220
00:19:33,560 --> 00:19:39,960
Ja. En die hype stopt nog niet. Nee, dat denk ik ook niet. Het gaat wel steeds sneller. Dus ik dacht

221
00:19:39,960 --> 00:19:44,560
van die Gartner hype cycle, dat is snel doorheen. Nee, dat gaat rondjes. Hij heeft zelfs nu zijn

222
00:19:44,560 --> 00:19:50,600
eigen cycle gekregen, zeg maar. Zijn eigen grafiekje. Ja, Chen AI heeft zijn eigen grafiekje.

223
00:19:50,600 --> 00:19:57,200
Grappig. Ja, zo snel. We hebben ook vragen van luisteraars en ik denk dat deze er best wel heel

224
00:19:57,200 --> 00:20:03,960
mooi op aansluit, als ik je die mag laten horen. De vraag van de leek is deze week.

225
00:20:03,960 --> 00:20:13,800
Ja, hallo. Mijn naam is Rafaël Demeray van Zendesk. Wat ik vandaag de dag zie is dat we in een fase zijn

226
00:20:13,800 --> 00:20:22,120
waar enorm tekort is van resources. Vooral binnen IT, maar ook binnen de business. We leven nu ook

227
00:20:22,120 --> 00:20:29,160
in een economische fase, waar veel organisaties kosten moeten besparen. En dat heeft te maken

228
00:20:29,160 --> 00:20:34,440
met dat de loonkosten heel erg zijn gestegen. Energieprijzen voor industrieën zijn gestegen.

229
00:20:34,440 --> 00:20:43,080
En mijn vraag is dus, hoe ga je daar in deze nieuwe omstandigheid, hoe ga je daarin navigeren

230
00:20:43,080 --> 00:20:54,760
en ervoor te zorgen dat je business weerbaar blijft? Wel een pittige vraag, hè? Ja. Ik denk

231
00:20:54,760 --> 00:21:00,120
dat iedereen daar naar op zoek is. Je ziet ook wel als je kijkt naar de management top 100 boeken,

232
00:21:00,120 --> 00:21:05,960
dan gaat het altijd daarover. Wie vindt de beste klant? Hoe blijf je weerbaar? Etcetera. De eerste

233
00:21:05,960 --> 00:21:11,280
vraag die ik altijd heb, en wat ik ook doe met mijn klant, is van is techniek wel de juiste

234
00:21:11,280 --> 00:21:15,880
toevoeging? Ja. Dus elke bedrijf bestaat uit menselijke processen. Er zitten ook technische

235
00:21:15,880 --> 00:21:20,320
processen in. Dan gaan we kijken, oké, waar zit nou het gat? Wat heb je nodig? Je werd al genoemd

236
00:21:20,320 --> 00:21:25,600
van oké, ik kan niet genoeg mensen krijgen, de kosten, ik wil minder mensen, ik wil processen

237
00:21:25,600 --> 00:21:31,040
aanvullen, zeg maar. Dan ga je eigenlijk kijken van, oké, wat wil je dan? Wil je minder kosten

238
00:21:31,040 --> 00:21:34,720
maken? Hoe zou je minder kosten kunnen maken? Hoe zou je dingen kunnen vervangen? Waar ben je veel

239
00:21:34,720 --> 00:21:38,520
tijd aan kwijt? Gewoon puur de processen waarmee je bezig bent. Maar kan je gewoon mee stoppen? Ja,

240
00:21:38,520 --> 00:21:42,480
kun je mee stoppen? Ja, tuurlijk. Dus bijvoorbeeld één van de dingen die ik gedaan heb, zeg maar,

241
00:21:42,480 --> 00:21:47,040
is voor een service center, waar echt mensen aan de telefoon zitten, is een voorspellingsmodel

242
00:21:47,040 --> 00:21:51,120
maken. Dat zegt, oké, per uur komen er zoveel telefoontjes binnen, zoveel chatberichten en

243
00:21:51,120 --> 00:21:56,560
zoveel e-mails. En daar kun je dan eigenlijk je bezetting op plannen. En dat was handig. Dat

244
00:21:56,560 --> 00:22:01,440
leverde één of twee fte, zeg maar, op die je dus eigenlijk niet nodig had. En dan was niet dat

245
00:22:01,440 --> 00:22:05,600
mensen ontslagen waren, nee, dan kon je shiften. Dus dat was een hele heldere vraag. Dus dat is

246
00:22:05,600 --> 00:22:10,000
altijd, wat is de vraag? Wat zijn je menselijke processen en waar past waarschijnlijk de techniek

247
00:22:10,000 --> 00:22:15,720
in? En als we dat helder hebben, dan ga je de techniek uitwerken. Ja, maar je begint niet bij

248
00:22:15,720 --> 00:22:21,240
de techniek. Nee, nee, nee. Ik heb dat zo vaak fout zien gaan. We zeiden, en dat kennen jullie ook,

249
00:22:21,240 --> 00:22:27,120
we moeten iets met data zetten. We moeten iets met big data. We moeten iets met AI. We moeten

250
00:22:27,120 --> 00:22:32,960
iets met Gen AI. En dan, ik heb teams opgezet, van 25 man sterk. Ik zei, oké, wat gaan we nu doen?

251
00:22:32,960 --> 00:22:36,880
Ja, we hebben hier wel een data. Oké, dat is een heel wat. En we hebben een model gemaakt. Oké,

252
00:22:36,880 --> 00:22:41,320
top, we leveren het model op. Ja, dit en dat. Waar gaan we het neerzetten? Ja, dat weet ik niet.

253
00:22:41,320 --> 00:22:45,600
Het kan nergens in productie. En uiteindelijk bleek het model ook niet zo veel te doen. Dus

254
00:22:45,600 --> 00:22:52,760
het is echt, ik denk niet dat deze techniek de fundamentele vragen van het doen van zaken

255
00:22:52,760 --> 00:23:00,560
verandert. En dat is kijken naar je processen. En tuurlijk, ik snap wel dat, je ziet het nu vooral

256
00:23:00,560 --> 00:23:04,400
in de zorg, bijvoorbeeld ontslagbrieven sneller schrijven. Je ziet het wel met transcripten

257
00:23:04,400 --> 00:23:09,280
maken, notulen maken. Dat snap ik. Super. Ja, precies. Ja, tuurlijk. Dat is ondersteuning.

258
00:23:09,280 --> 00:23:13,480
Ik gebruik ook een rekenapparaat. Ja, tuurlijk. Ja, tuurlijk. En ik snap die elektrische fiets ook

259
00:23:13,480 --> 00:23:21,400
wel. Maar Gen AI gaat bijvoorbeeld niet de zorg veranderen, niet de fundamentele dingen van de

260
00:23:21,400 --> 00:23:24,440
zorg veranderen. Dat zijn de mensen van de zorg zelf die dat moeten aanvullen. De echt

261
00:23:24,440 --> 00:23:29,680
fundamentele dingen als blijdschap en gelukkig en werkdruk, et cetera. Dus het kan helpen,

262
00:23:29,680 --> 00:23:35,280
maar het moet beginnen vanuit de vraag. En de vraag is niet de techniek.

263
00:23:35,280 --> 00:23:41,280
Nee. En hoe denk je er dan? Nou, eigenlijk weet ik het niet. Ik ga nu een vraag stellen waar ik het

264
00:23:41,280 --> 00:23:43,480
antwoord op weet, omdat je dat in je boek hebt. Maar ik ga hem toch stellen.

265
00:23:43,480 --> 00:23:48,320
Mag ik de lijstvraag zetten? Ja, precies. Er wordt gezegd van, met deze technologie,

266
00:23:48,320 --> 00:23:54,680
die gaat net als de automatisering, die gaat ons helpen zodat wij meer vrije tijd krijgen.

267
00:23:54,680 --> 00:23:59,720
We gaan minder werken, want dat wordt natuurlijk direct allemaal door AI gedaan. Dus we houden

268
00:23:59,720 --> 00:24:07,840
meer tijd over. Sommigen zullen bang zijn dat dat leidt tot ontslagen. Hoe kijk jij daarnaar?

269
00:24:07,840 --> 00:24:14,280
Ja, dit is… Kijk, we hebben natuurlijk in het hoofdstuk vijf, dat is zeg maar het beleg van,

270
00:24:14,280 --> 00:24:18,040
als je dit boek als een sandwich ziet, dan is dat het beleg. Dat is gebaseerd op het boek

271
00:24:18,040 --> 00:24:23,080
van Friedrich Jünger. Friedrich Jünger is een Duitse techniekfilosoof van de vorige eeuwen.

272
00:24:23,080 --> 00:24:29,200
En die heeft een boek geschreven over techniek en de invloed van techniek ten tijde van de

273
00:24:29,200 --> 00:24:34,320
mechanisering. Ja, dat is 100 jaar geleden schrijf jij. Ja, en hij zegt, en dat vond ik heel mooi,

274
00:24:34,320 --> 00:24:37,320
en dat kunnen we denk ik allemaal wel relativeren, hij zegt van, oké luister,

275
00:24:37,320 --> 00:24:43,560
vroeger deed je een veld bewerken met een paard en een ploeg. En over een bepaald stuk veld deed

276
00:24:43,560 --> 00:24:49,520
je acht uur. En toen kwam er een stuk mechanisering. En toen deed je er nog maar twee uur over. Dus van

277
00:24:49,520 --> 00:24:54,320
acht naar twee uur. Wat ga je met die andere zes uur doen? Ga je dan over een rietje zitten kauwen?

278
00:24:54,320 --> 00:24:59,520
Ga je dan naar je vrouw toe met je kinderen? Nee. Dan ga je dus zoveel keer meer doen.

279
00:24:59,520 --> 00:25:05,720
Dan gaat die andere zes uur, je gaat gewoon vier keer zoveel werk verrichten. En dat heeft ook

280
00:25:05,720 --> 00:25:10,520
mee te maken dat techniek is niet voor iedereen gelijk. En zeker niet toen. En dat zie je nu ook

281
00:25:10,520 --> 00:25:15,720
als je kijkt naar de grote technische bedrijven, de big five, dat dat zijn degenen die de techniek

282
00:25:15,720 --> 00:25:21,440
hebben. En wij zijn degenen die er gebruik van maken. Maar zij maken meer gebruik van ons dan

283
00:25:21,440 --> 00:25:26,440
dat wij van hun maken om de techniek voor de techniek. Dus de vraag van ja, maakt deze techniek

284
00:25:26,440 --> 00:25:30,200
ons zo vrij? Maakt deze techniek, geeft die ons zoveel? Dan denk ik van ja, ga maar eens bij

285
00:25:30,200 --> 00:25:36,720
jezelf raden. Is dat wel zo? En als ik weer een dag in de trein rond zwerf of doorbreng,

286
00:25:36,720 --> 00:25:40,160
dat gebeurt nu vaak en ik zie iedereen op zijn telefoon kijken, dan weet ik het antwoord wel.

287
00:25:40,160 --> 00:25:46,760
Nou ja, ik ben ook benieuwd, zeg maar, welke baas, welke manager zegt van,

288
00:25:46,760 --> 00:25:51,920
oh ja, maar wat jij normaal gesproken in acht uur deed, kan je dus nu in twee uur. Dus nou,

289
00:25:51,920 --> 00:25:58,560
tot morgen. Ja, nou wat er dus gebeurt, wat er dus gebeurt is dat, stel je voor je kunt iets wat

290
00:25:58,560 --> 00:26:04,800
je in acht uur deed, dat kun je er nu in twee. Nou ja, ik denk dat van die zes die je over hebt,

291
00:26:04,800 --> 00:26:08,480
heb je waarschijnlijk al drie nodig om de techniek in stand te houden. Dat is ook een

292
00:26:08,480 --> 00:26:16,560
goede ja. Kan je daar een voorbeeld van geven? Ja, kijk, het is, als ik een model zeg maar,

293
00:26:16,560 --> 00:26:21,120
in productie zet, dus als ik probeer iets te automatiseren, dan kost dat heel veel werk. Hoe

294
00:26:21,120 --> 00:26:25,680
meer ik moet automatiseren, hoe meer werk dat kost. Maar je kunt nooit iets 100% volledig

295
00:26:25,680 --> 00:26:30,120
automatiseren. Er gebeurt altijd wel iets, waardoor er een afwijking is die je niet had

296
00:26:30,120 --> 00:26:33,040
voorzien. Dus je moet dat soort dingen moet je in stand gaan houden. Je moet zorgen dat de

297
00:26:33,040 --> 00:26:38,080
infrastructuur er is. Je moet zorgen dat altijd internet is, altijd stroom, water. Je moet zorgen

298
00:26:38,080 --> 00:26:41,720
dat die processen altijd beschikbaar zijn, dat het allemaal loopt. Dan heb je weer mensen

299
00:26:41,720 --> 00:26:46,640
voor nodig. Dat is ook, en dat zie je ook, mogelijk een helpdesk. Ja, dat zie je gewoon.

300
00:26:46,640 --> 00:26:53,440
Die IT-afdeling zit ook bijna altijd onder CFO, dat de grootste kost op ons is. En als je natuurlijk

301
00:26:53,440 --> 00:26:57,000
een heel heel tragisch voorbeeld wil hebben, dan heb je bijvoorbeeld dingen als de overheid,

302
00:26:57,000 --> 00:27:06,440
waarin als je nog een oude programmeertaal beheerst, ben je echt koning daar. Wat vind je

303
00:27:06,440 --> 00:27:12,320
daarvan? We hebben nu gehad, en op het moment dat deze live komt, zijn we een paar weken verder,

304
00:27:12,320 --> 00:27:18,080
maar de overheid heeft aangekondigd, we gaan AI inzetten om het probleem met de verkeerde

305
00:27:18,080 --> 00:27:23,240
WIA-berekeningen op te lossen. Ik zie je heel diep zuchten nu met de ogen dicht.

306
00:27:23,240 --> 00:27:28,600
Ja, ik heb dat dus niet gehoord, maar ik hoor dus nu dan van jou.

307
00:27:28,600 --> 00:27:38,600
Dan zal ik iets meer context geven. De WIA gaat over uitkering, dat als je arbeidsongeschikt bent,

308
00:27:38,600 --> 00:27:46,840
en het blijkt in de afgelopen jaren dat daar heel veel berekeningen fout zijn gegaan, maar ze kunnen

309
00:27:46,840 --> 00:27:53,880
die berekeningen ook niet meer terughalen. Sommigen zijn letterlijk op briefjes uitgewerkt,

310
00:27:53,880 --> 00:27:58,640
en sommige mensen hebben te veel gekregen, sommige mensen hebben te weinig gekregen,

311
00:27:58,640 --> 00:28:04,520
en in eerste instantie werd gezegd van, we zetten er gewoon een streep onder,

312
00:28:04,520 --> 00:28:09,640
en als je teveel hebt gekregen, dan hoef je dat niet terug te betalen. Daarvan heeft,

313
00:28:09,640 --> 00:28:15,600
geloof ik, nu het kabinet gezegd, nou, dat gaan we niet doen. En de oplossing, dat lijkt een beetje

314
00:28:15,600 --> 00:28:22,360
nu zeg maar voor alles, de oplossing is AI. We gaan AI inzetten om erachter te komen wie

315
00:28:22,360 --> 00:28:26,400
uiteindelijk te weinig gekregen heeft of te veel uitbetaald heeft gekregen.

316
00:28:26,400 --> 00:28:31,880
Hoe doe je dat? Ik wou zeggen, #hoe dan? Als je dat niet hebt, hoe ga je er dan achter komen?

317
00:28:31,880 --> 00:28:36,120
Ja, ik ben echt hard op aan het denken, zeg maar, hoe zou je dat dan aanvliegen?

318
00:28:36,120 --> 00:28:43,320
Als je dan, waar moet ik dan, want ik bedoel, misschien de uitbetalingen die je dan hebt.

319
00:28:43,320 --> 00:28:45,400
Hoe weet je of iemand te veel of te weinig heeft gekregen?

320
00:28:45,400 --> 00:28:50,360
Ja, geen idee. Oké. Dat is ellende.

321
00:28:50,360 --> 00:28:51,360
Ja toch? Ja.

322
00:28:51,360 --> 00:28:55,800
Nee, maar dit is ook, en dit is wel mooi, want we zijn, ik ben met Ronald, ben ik nu,

323
00:28:55,800 --> 00:29:01,960
en ik belde hem net nog voordat ik naar binnen liep. We zijn bezig met een richtlijn van de

324
00:29:01,960 --> 00:29:07,040
provincie Zuid-Holland, echt over de inzet van modellen voor beleid, dus ook voor juristen,

325
00:29:07,040 --> 00:29:12,520
ambtenaren en modelleurs, waarin we dus een aantal, waarin we dus eigenlijk het hele

326
00:29:12,520 --> 00:29:19,400
inzetten van modellen toetsbaar willen maken op basis van het bestuursrecht. Kijk, dus wat je nu

327
00:29:19,400 --> 00:29:23,280
ziet, en bijvoorbeeld nu, als je dit zo vertelt, er wordt straks een beslissing gemaakt. Voor iedere

328
00:29:23,280 --> 00:29:27,880
persoon wordt een beslissing gemaakt, te veel, te weinig of precies goed. En dan wordt dan,

329
00:29:27,880 --> 00:29:30,920
laten we zeggen, een model wordt aan gehandhaafd. Oké, dus er wordt een besluit genomen.

330
00:29:30,920 --> 00:29:32,560
Ja. En dan heb je, dat is een primair besluit.

331
00:29:32,560 --> 00:29:35,880
Dus je krijgt op een gegeven moment een brief binnen, mijn vader zei bijvoorbeeld,

332
00:29:35,880 --> 00:29:37,880
wie jij? En die zegt van, oké, ik moet 2000 euro terugbetalen.

333
00:29:37,880 --> 00:29:39,640
Ja. Oké, dan heb je een primair besluit.

334
00:29:39,640 --> 00:29:45,160
Dan kun je bezwaar indienen. En dan komt er een besluit op bezwaar. Wat betekent dat?

335
00:29:45,160 --> 00:29:50,560
De overheid moet motiveren hoe dat besluit tot stand is gekomen. Dat betekent dat dus eigenlijk

336
00:29:50,560 --> 00:29:51,720
dat moet worden uitgelegd. Onderbouwing.

337
00:29:51,720 --> 00:29:57,200
Onderbouwing, precies. Motiveringsbeginsel, vertrouwensbeginsel, fairplaybeginsel. Hoe is

338
00:29:57,200 --> 00:30:00,800
dit tot stand gekomen? Ga dat maar eens uitleggen. Dit is gewoon, met alle respect, dit is gewoon

339
00:30:00,800 --> 00:30:06,680
een toeslagenriedeltje nog een keer. Dus dit is gewoon ellende. Dit is administratieve ellende.

340
00:30:06,680 --> 00:30:09,520
Misschien kun je dat dan weer met Jen op TV AI opgelost.

341
00:30:09,520 --> 00:30:14,760
Ja, dat je er een andere taal weer aan koppelt. Ja, nee, het is echt.

342
00:30:14,760 --> 00:30:21,000
Maar weet je wat het mooie is? En dit is zo, je krijgt direct energie. Kijk, wij leven nu in

343
00:30:21,000 --> 00:30:25,200
een tijd waarin we het gevoel hebben van, we hebben techniek, we hebben data, we hebben

344
00:30:25,200 --> 00:30:31,720
computerkracht. Dus laten we het dan proberen. Bij ons leeft zo dat idee dat omdat we iets hebben,

345
00:30:31,720 --> 00:30:36,360
laten we dat gewoon doen. Dan krijg je dat hele hamer en een nagel zeg maar. We hebben techniek,

346
00:30:36,360 --> 00:30:41,520
we hebben de data. Ja, hoe dan? Laten we het gewoon gaan doen. En het probleem met de overheid

347
00:30:41,520 --> 00:30:47,960
is dan dat vaak de samenleving is het experiment. Ja, en dat is echt heel kwalijk.

348
00:30:47,960 --> 00:30:50,760
Impact veel te groot. Ja. Kijk, als wij een model maken,

349
00:30:50,760 --> 00:30:53,080
dan doen we dat proof of concept. We zetten dat niet direct in productie.

350
00:30:53,080 --> 00:30:56,480
Zij zetten het direct in productie en schalen het helemaal uit.

351
00:30:56,480 --> 00:31:02,400
Ja, en weet je, ik heb niet in mijn hoofd zeg maar hoeveel WIA uitkeringsgerechtigden er zijn,

352
00:31:02,400 --> 00:31:04,760
maar dat is gigantisch. Ja, je hebt het hier wel echt.

353
00:31:04,760 --> 00:31:08,960
En dan heb je nog, je zegt al van mijn vrouw, dus je hebt mensen eromheen, gezinnen eromheen.

354
00:31:08,960 --> 00:31:12,720
Dus je raakt eigenlijk, je raakt gewoon een heel groot gedeelte van de maatschappij.

355
00:31:12,720 --> 00:31:17,440
Ja, mijn vader, ja, nee, mijn vader is daar dus, die kwam dus ook te zeggen,

356
00:31:17,440 --> 00:31:21,960
"Marcus, kijk, ik weet nu dus dat ze het via AI gaan doen. Nou, als ik weet dat het niet klopt,

357
00:31:21,960 --> 00:31:24,880
zeg maar, en ik ga het dus opvragen." Als er iemand op sluiting denkt,

358
00:31:24,880 --> 00:31:27,800
"Nee, dan ga ik het gewoon opvragen." Maar wat we eigenlijk met die richtlijnen willen doen,

359
00:31:27,800 --> 00:31:32,280
is we willen dat voor zijn. We willen gewoon heel graag, het liefste dat er gewoon op paragraaf

360
00:31:32,280 --> 00:31:36,160
wordt opgenomen bestuursrecht, waarop we kunnen zeggen van, "Oké, dit mag niet meer gebeuren."

361
00:31:36,160 --> 00:31:40,280
En de manier waarop je zorgt dat dit soort dingen niet meer gebeuren, is door daar transparant over

362
00:31:40,280 --> 00:31:42,920
te zijn. - En zorgen dat er een proces is in het beleid.

363
00:31:42,920 --> 00:31:47,720
Dat het proces helder is en dat als je het proces helder hebt, dan weet je waar ik technologie in

364
00:31:47,720 --> 00:31:50,920
zet of niet. Maar als het proces niet helder is, maar gewoon een magisch ticketje opgeplakt,

365
00:31:50,920 --> 00:31:52,040
dan heb je eigenlijk geen proces. - Juist.

366
00:31:52,040 --> 00:31:55,800
- En volgens mij komt het vaak daarop neer, ga kijken naar het proces.

367
00:31:55,800 --> 00:31:59,640
- Ja, ja, helemaal eens. - Nou, en je maakt voor ons een mooi

368
00:31:59,640 --> 00:32:03,680
bruggetje naar beleid, want ik denk dat beleid heel belangrijk is. Voor ieder bedrijf die AI

369
00:32:03,680 --> 00:32:08,880
toepast, ook al zou het zijn dat het beleid is dat je zegt, "We doen het niet." Dat is ook beleid,

370
00:32:08,880 --> 00:32:13,200
hè? We hebben een kaartspel ontwikkeld met een heel aantal stellingen daarin,

371
00:32:13,200 --> 00:32:17,400
dat als je een beetje antwoord hebt met elkaar, dus eigenlijk hoe je het speelt,

372
00:32:17,400 --> 00:32:23,040
is dat je met z'n vieren rond een stelling eigenlijk met elkaar praat van, "Hoe kijken

373
00:32:23,040 --> 00:32:29,560
we hiernaar?" Dus zonder goede of foute antwoord. En als je een beetje deze vragen kan beantwoorden,

374
00:32:29,560 --> 00:32:33,880
ben je al een hele eind op weg met je beleid en strategie, in ieder geval als input.

375
00:32:33,880 --> 00:32:37,000
Dus die willen we graag ook aan jouw eentje voorleggen. - Jazeker.

376
00:32:37,000 --> 00:32:37,800
- Zeker. - Je ziet hem hier zo schudden.

377
00:32:37,800 --> 00:32:58,280
- Nou, je hebt het gezien. Ik heb het geschud. En je hebt hem zelf mogen pakken.

378
00:32:58,280 --> 00:33:03,920
Dus de stelling die we hebben voor jou is in de categorie wetgeving en beleid.

379
00:33:03,920 --> 00:33:06,720
Nou, alsof het zo moet zijn. - Alsof het zo moet zijn.

380
00:33:06,720 --> 00:33:11,920
- En de stelling is, "Wij hebben een verbod op generatieve AI ingevoerd."

381
00:33:11,920 --> 00:33:16,000
Dus even misschien even in de context van de situatie die je gehad hebt,

382
00:33:16,000 --> 00:33:21,240
of voor je eigen organisatie. "Wij hebben een verbod op generatieve AI ingevoerd."

383
00:33:21,240 --> 00:33:25,280
- Oké, en nu wil je van mij wat ik daarvan vind, zeg maar.

384
00:33:25,280 --> 00:33:30,600
Kijk, we hebben er in dat boek natuurlijk een heel hoofdstuk aan besteed.

385
00:33:30,600 --> 00:33:37,200
Ik hou niet van verbieden. Dus je hebt nu de Europese AI Act,

386
00:33:37,200 --> 00:33:41,400
die dus modellen indeelt in classificaties. Sommige willen we gewoon niet hebben,

387
00:33:41,400 --> 00:33:44,960
anderen zeggen van alles gewoon peanuts. Als je kleine regeltjes leest,

388
00:33:44,960 --> 00:33:48,200
dan is eigenlijk alles mogelijk onder het mom van bijvoorbeeld nationale veiligheid.

389
00:33:48,200 --> 00:33:51,560
Dus echt verbieden. Ik hou niet van verbieden.

390
00:33:51,560 --> 00:33:54,720
Ik geloof veel meer in het nemen van verantwoordelijkheid en het geven van onderwijs.

391
00:33:54,720 --> 00:33:58,600
Dus als je zegt van "Oké, je ziet dat nu wel vaker, generatieve AI,

392
00:33:58,600 --> 00:34:03,560
er staan dingen in die niet kloppen, dingen zijn racistisch, fascistisch, noem maar op."

393
00:34:03,560 --> 00:34:07,840
Kijk, AI is nooit, dat heb ik ook al gesproken, nooit fascistisch of racistisch.

394
00:34:07,840 --> 00:34:11,680
Dat heeft te maken met de data die onderliggend zijn, de processen.

395
00:34:11,680 --> 00:34:15,240
Het is echt een blackmailer, zeg maar. - We hebben dat erin gestopt als mensen.

396
00:34:15,240 --> 00:34:17,320
- Ja, AI heeft geen normen of waarden, het zijn rekenregels.

397
00:34:17,320 --> 00:34:20,440
Dus dat moet je gewoon begrijpen. Het zijn de mensen die het gebruiken.

398
00:34:20,440 --> 00:34:25,560
Dus om iets te verbieden, daar hou ik zelf niet van.

399
00:34:25,560 --> 00:34:27,720
Ik denk dat je je eigen verantwoordelijkheid moet nemen.

400
00:34:27,720 --> 00:34:33,360
Kijk, wij schrijven natuurlijk ook wel, in Amerika is er elke dag een school shooting.

401
00:34:33,360 --> 00:34:35,640
Dat horen wij al niet meer, alleen als het heel erg is.

402
00:34:35,640 --> 00:34:41,760
Ik geloof ook heilig in dat dat veel minder zou zijn als er dus geen geweren zouden zijn.

403
00:34:41,760 --> 00:34:43,320
Dus als dat niet beschikbaar is.

404
00:34:43,320 --> 00:34:45,720
Dus met een verbod kun je wel een hele hoop dingen doen.

405
00:34:45,720 --> 00:34:50,160
Alleen, een geweer heeft ook een keerzijde in de zin dat het je kan beschermen.

406
00:34:50,160 --> 00:34:56,520
Gen AI kan wel degelijk goede dingen doen. Het heeft wel degelijk toegepaste waarden.

407
00:34:56,520 --> 00:35:01,880
Dus om dingen te verbieden, ik denk dat bij mezelf, als je dingen verbiedt,

408
00:35:01,880 --> 00:35:07,800
dan aan de ene kant geeft het je ook aandacht. Dat zie je bij kleine kinderen al, zeg maar.

409
00:35:07,800 --> 00:35:11,400
Dat gaat heel hard, dingen mogen niet. Maar je leert ook niks.

410
00:35:11,400 --> 00:35:16,920
Want de vraag is juist van, oké, waarom wil je iets wel of niet gebruiken, onbepaald?

411
00:35:16,920 --> 00:35:19,520
Dat is eigenlijk wat we ook deden met die stelling voor gezond verstand.

412
00:35:19,520 --> 00:35:25,400
En we snappen dat het al een lange weg is, maar ik zelf zou niet voor een verbod gaan.

413
00:35:25,400 --> 00:35:27,400
Mooi.

414
00:35:27,400 --> 00:35:43,920
Ik heb nog wel een vraag voor je.

415
00:35:43,920 --> 00:35:46,280
Je hebt het over gezond verstand.

416
00:35:46,280 --> 00:35:50,080
En er zijn natuurlijk heel veel ontwikkelingen die ook heel snel gaan.

417
00:35:50,080 --> 00:35:54,120
Je hebt er al een paar genoemd. We hebben ook een sessie gehad van een paar afleveringen terug.

418
00:35:54,120 --> 00:35:56,000
Hebben we de Mythbusters hebben we gedaan van AI.

419
00:35:56,000 --> 00:35:59,440
Dus heb je die nog niet geluisterd, zoek die aflevering even op.

420
00:35:59,440 --> 00:36:03,400
Dat is echt een aanrader, waarin we een aantal myth van AI bussen.

421
00:36:03,400 --> 00:36:05,680
Maar ik ben benieuwd, met voorbereiding voor het boek,

422
00:36:05,680 --> 00:36:08,960
welke myth ben jij tegengekomen die je echt verrast heeft?

423
00:36:08,960 --> 00:36:12,840
En zou je willen debunken of in ieder geval toelichten dat het niet zo is?

424
00:36:12,840 --> 00:36:20,280
Ik denk dat wat mij echt verbaast heeft, is die wel rondom bewustzijn.

425
00:36:20,280 --> 00:36:26,040
Daar besteden we natuurlijk ook best wel een flink deel aan in het boek.

426
00:36:26,040 --> 00:36:28,920
Kan je daar iets over uitleiden?

427
00:36:28,920 --> 00:36:31,640
Kijk, wij leven in een tijd.

428
00:36:31,640 --> 00:36:35,560
We leven ook in een cultuur waarin de ratio, het denken, heel centraal is.

429
00:36:35,560 --> 00:36:37,360
Dus ik denk, dus ik ben.

430
00:36:37,360 --> 00:36:38,880
Descartes zei het al.

431
00:36:38,880 --> 00:36:43,640
Met het wegnemen van religie, en ik ben zeker niet religieus,

432
00:36:43,640 --> 00:36:46,240
maar het wegnemen van religie als de dominante, verklarende kracht,

433
00:36:46,240 --> 00:36:50,840
en het helemaal gaan naar de verlichting, de wetenschap,

434
00:36:50,840 --> 00:36:52,560
hebben we gezegd, oké, alles moet verklaarbaar zijn.

435
00:36:52,560 --> 00:36:55,320
En met daarmee zei ik ook, oké, als alles verklaarbaar moet zijn,

436
00:36:55,320 --> 00:36:57,040
moet ook alles kunnen opbreken.

437
00:36:57,040 --> 00:36:59,120
En we hebben succes natuurlijk in de fysica.

438
00:36:59,120 --> 00:37:01,120
De wiskunde komt grotendeels uit de fysica, zeg maar.

439
00:37:01,120 --> 00:37:04,040
De fysica is zo fijn, omdat het heel veel regelmaat heeft.

440
00:37:04,040 --> 00:37:06,000
Daarom zeggen we, het zijn wetten van de fysica, maar het is geen wet.

441
00:37:06,000 --> 00:37:07,480
Het is gewoon een enorme regelmaat.

442
00:37:07,480 --> 00:37:09,960
En op basis daarvan heb ik heel veel wiskunde neergezet.

443
00:37:09,960 --> 00:37:14,840
Dus wat wij zeggen is, oké, we zijn onderdelen van de fysica.

444
00:37:14,840 --> 00:37:16,880
Een neuraal netwerk.

445
00:37:16,880 --> 00:37:19,520
Atomen, neuronen, noem maar op.

446
00:37:19,520 --> 00:37:24,120
Waardoor de illusie leeft, dat als wij maar lang genoeg zoeken

447
00:37:24,120 --> 00:37:27,840
en onszelf maar hard genoeg opdelen, in de meest minuscule deeltjes,

448
00:37:27,840 --> 00:37:30,840
we in principe gewoon onszelf kunnen nabootsen.

449
00:37:30,840 --> 00:37:31,840
En wat betekent dat?

450
00:37:31,840 --> 00:37:35,520
Bewustzijn daarvan ook automatische gevolgen.

451
00:37:35,520 --> 00:37:37,880
Dat stukje singulariteit, zeg maar.

452
00:37:37,880 --> 00:37:40,280
En in dat boek nemen we een heel mooi voorbeeld.

453
00:37:40,280 --> 00:37:41,840
En Ronald is er heel fier op.

454
00:37:41,840 --> 00:37:42,840
Hij is er echt heel fier op.

455
00:37:42,840 --> 00:37:43,840
Hij is echt van luisteren, Marc.

456
00:37:43,840 --> 00:37:47,240
Hij zegt, oneindigheid.

457
00:37:47,240 --> 00:37:51,560
Oneindigheid is iets wat eigenlijk bijna niet bestaat.

458
00:37:51,560 --> 00:37:54,360
Dus als je een munt opgooit, dus je zegt, oké, kop of munt,

459
00:37:54,360 --> 00:37:56,560
dan is het eigenlijk 50/50 zou het moeten zijn.

460
00:37:56,560 --> 00:37:59,560
En je weet dat als je dat honderd keer doet, dan krijg je niet per se 50/50.

461
00:37:59,560 --> 00:38:01,960
Als je honderd keer honderd keer doet, krijg je ook niet per se 50/50.

462
00:38:01,960 --> 00:38:03,720
Het gaat steeds dichterbij, steeds dichterbij.

463
00:38:03,720 --> 00:38:07,640
Maar wij weten, als je in ons hoofd ons oneindig kunt voorstellen,

464
00:38:07,640 --> 00:38:09,040
dat dat uiteindelijk zo zal zijn.

465
00:38:09,040 --> 00:38:11,320
Vroeger deed je wel eens zo'n spelletje met iemand.

466
00:38:11,320 --> 00:38:13,000
Dan zeg je, ik ben sterker dan jou.

467
00:38:13,000 --> 00:38:14,000
En ik ben sterker dan jou naar plus 1.

468
00:38:14,000 --> 00:38:15,000
Ik ben sterker dan jou naar plus 2.

469
00:38:15,000 --> 00:38:16,000
Ik ben sterker dan jou altijd.

470
00:38:16,000 --> 00:38:20,080
En dan wist je in je hoofd, ik heb verloren, terwijl er niks gebeurd was.

471
00:38:20,080 --> 00:38:24,360
Dat stukje oneindigheid, als onze gedachte fysiek zou zijn,

472
00:38:24,360 --> 00:38:28,000
dat zou betekenen dat er ook een oneindig aantal fysieke deeltjes zou moeten zijn

473
00:38:28,000 --> 00:38:29,560
om die oneindigheid vorm te geven.

474
00:38:29,560 --> 00:38:30,560
En dat is niet.

475
00:38:30,560 --> 00:38:31,560
- Nee.

476
00:38:31,560 --> 00:38:32,560
Dat kan niet.

477
00:38:32,560 --> 00:38:33,560
Wij zijn meer dan 0 en 1.

478
00:38:33,560 --> 00:38:36,560
Zelfs met een quantum computer zul je dat niet kunnen oplossen.

479
00:38:36,560 --> 00:38:41,160
Maar we geven ook toe dat de discussie over bewustzijn

480
00:38:41,160 --> 00:38:45,560
net zo zeer filosofisch is als dat het echt wetenschappelijk is.

481
00:38:45,560 --> 00:38:51,040
Maar wat mij heel erg verbaasd heeft zijn de antropomorf…

482
00:38:51,040 --> 00:38:52,040
- Het vermenselijken.

483
00:38:52,040 --> 00:38:53,040
Ja, het vermenselijken geweld.

484
00:38:53,040 --> 00:38:54,040
Hoe makkelijk dat gaat.

485
00:38:54,040 --> 00:38:57,040
Er is gewoon echt business in…

486
00:38:57,040 --> 00:39:02,040
Neem een audiobestand van je overleden moeder.

487
00:39:02,040 --> 00:39:04,040
en een foto.

488
00:39:04,040 --> 00:39:06,040
En ik maak je een afbeelding.

489
00:39:06,040 --> 00:39:08,040
En geloof me dat dat een reactie geeft.

490
00:39:08,040 --> 00:39:09,040
- Tuurlijk.

491
00:39:09,040 --> 00:39:10,040
Emotie.

492
00:39:10,040 --> 00:39:12,040
Dat is een hele industrie.

493
00:39:12,040 --> 00:39:15,040
Een hele liefdes-seksindustrie.

494
00:39:15,040 --> 00:39:19,040
Waarin Gen AI absoluut weer miljarden aan het verdienen is.

495
00:39:19,040 --> 00:39:21,040
Voor die mensen die dat wat inzien.

496
00:39:21,040 --> 00:39:22,040
Die dat nodig hebben.

497
00:39:22,040 --> 00:39:23,040
Die zich daarin verbinden.

498
00:39:23,040 --> 00:39:28,040
Wij zijn zo goed in het toekennen van menselijke waarden

499
00:39:28,040 --> 00:39:31,040
aan dingen die niet menselijk zijn.

500
00:39:31,040 --> 00:39:34,040
- Eigenlijk zijn we te slechte detectives.

501
00:39:34,040 --> 00:39:35,040
Ja.

502
00:39:35,040 --> 00:39:37,040
- We moeten veel nieuwsgieriger zijn met z'n allen.

503
00:39:37,040 --> 00:39:38,040
Van waarom zit dit?

504
00:39:38,040 --> 00:39:39,040
Waarom zit het in elkaar?

505
00:39:39,040 --> 00:39:40,040
Waarom?

506
00:39:40,040 --> 00:39:42,040
Ja, maar we laten ons ook graag betoveren.

507
00:39:42,040 --> 00:39:43,040
Ik weet niet of je vroeger nog zo'n…

508
00:39:43,040 --> 00:39:44,040
Ik weet niet of je dat kent.

509
00:39:44,040 --> 00:39:45,040
Tamagotchi bijvoorbeeld.

510
00:39:45,040 --> 00:39:46,040
Zo'n klein dingetje waar je dan verzorgt.

511
00:39:46,040 --> 00:39:47,040
Oh, als die dood ging.

512
00:39:47,040 --> 00:39:48,040
Oh, wat een verdriet.

513
00:39:48,040 --> 00:39:49,040
Mama, kun je dat eens weer verzorgen?

514
00:39:49,040 --> 00:39:50,040
Ik ben om drie uur thuis.

515
00:39:50,040 --> 00:39:51,040
Hij moet eten tussen negen en twaalf.

516
00:39:51,040 --> 00:39:52,040
Dan wil ik hier geaaid worden.

517
00:39:52,040 --> 00:39:53,040
Nu heb je robots.

518
00:39:54,040 --> 00:39:55,040
Die brengen drie dienbladen.

519
00:39:55,040 --> 00:40:00,040
En die willen graag over hun hoofd geaaid worden.

520
00:40:00,040 --> 00:40:01,040
Dat geeft een reactie bij jou.

521
00:40:01,040 --> 00:40:02,880
Dat geeft een neurologische reactie.

522
00:40:02,880 --> 00:40:11,200
En onze vaardigheid om in oneindigheid te kunnen denken, voedt ook die illusie.

523
00:40:11,200 --> 00:40:15,600
Daar moet je even over nadenken.

524
00:40:15,600 --> 00:40:21,960
Want in eerste instantie zeg je het feit dat we oneindigheid kunnen voorstellen.

525
00:40:21,960 --> 00:40:24,960
Dat betekent dat wij iets met onze bewustzijn kunnen...

526
00:40:24,960 --> 00:40:29,920
Dat betekent dat onze gedachte niet puur materie kan zijn.

527
00:40:29,920 --> 00:40:34,680
En hoe voelt dat dan, die illusie waar je het net over had?

528
00:40:34,680 --> 00:40:38,880
Omdat wij, en dat is ook wel het hele ding, singularity is niet bewezen.

529
00:40:38,880 --> 00:40:42,640
Er is een echt boek over, een Ré Courts, dat is niet bewezen.

530
00:40:42,640 --> 00:40:45,200
Zelfs een organisator die singularity heet.

531
00:40:45,200 --> 00:40:46,200
Ja, precies.

532
00:40:46,200 --> 00:40:47,200
En dat voelt ook.

533
00:40:47,200 --> 00:40:52,480
Techniek gaat de wereld verbeteren, redden of het gaat de wereld vernietigen.

534
00:40:52,480 --> 00:40:53,480
Ja.

535
00:40:53,480 --> 00:41:00,640
Dus die gedachte van oneindigheid voedt ook die illusie van AI dat we zeggen van...

536
00:41:00,640 --> 00:41:04,560
"Wacht eens even, AI kan binnenkort dit en dat."

537
00:41:04,560 --> 00:41:07,400
En als je die rekenkracht maar vergroot en als je die data maar vergroot...

538
00:41:07,400 --> 00:41:10,880
En als je die algoritmes vergroot en oneindige, dan komt het daar.

539
00:41:10,880 --> 00:41:16,280
Ik geloof erin dat we ons nu al gedragen naar iets wat dan niet is.

540
00:41:16,280 --> 00:41:18,400
Waarvan wij denken dat het gaat er aankomen.

541
00:41:18,400 --> 00:41:22,600
Dat is onze vaardigheid om creatief te zijn.

542
00:41:22,600 --> 00:41:26,080
Om dingen te maken en te denken en te dromen.

543
00:41:26,080 --> 00:41:27,080
Ja, fantaseren.

544
00:41:27,080 --> 00:41:30,280
Fantaseren staat ook soms een stukje gezond verstand weg.

545
00:41:30,280 --> 00:41:32,400
Dat zijn van die heuristieken.

546
00:41:32,400 --> 00:41:35,000
Dat is gewoon dat we ook best wel lui zijn.

547
00:41:35,000 --> 00:41:36,800
Dat we denken van "Laten we dat zo eens bedenken."

548
00:41:36,800 --> 00:41:43,640
En wij zijn natuurlijk ook goed in patronen verzinnen als het ware.

549
00:41:43,640 --> 00:41:45,640
Want iedereen verwacht...

550
00:41:45,640 --> 00:41:50,080
Jij had het al over november 2022.

551
00:41:50,080 --> 00:41:51,080
Kwam GPT uit.

552
00:41:51,080 --> 00:41:52,760
Er was eigenlijk versie 3.

553
00:41:52,760 --> 00:41:56,040
Mensen wisten niet eens dat er versie 1 en 2 bestond.

554
00:41:56,040 --> 00:41:57,040
Versie 3.

555
00:41:57,040 --> 00:41:58,040
Jaar later versie 4.

556
00:41:58,040 --> 00:41:59,040
Waar iedereen gaat er vanuit.

557
00:41:59,040 --> 00:42:01,040
We zitten in 2024.

558
00:42:01,040 --> 00:42:03,040
We krijgen versie 5.

559
00:42:03,040 --> 00:42:08,400
Alleen al dat soort aannames worden gewoon gemaakt.

560
00:42:08,400 --> 00:42:09,920
Dat moet nu gebeuren.

561
00:42:09,920 --> 00:42:15,360
Niet alleen dat, maar GPT 5 gaat weer direct exponentieel beter zijn dan 4.

562
00:42:15,360 --> 00:42:17,960
Want 4 was zoveel beter dan 3.

563
00:42:17,960 --> 00:42:21,640
Dus wij trekken ook alles met het grootste gemak door.

564
00:42:21,640 --> 00:42:23,400
Maar is dat niet ook een beetje wensdenken?

565
00:42:23,400 --> 00:42:24,400
Ja, natuurlijk.

566
00:42:24,400 --> 00:42:25,400
Dat is heel veel wensdenken.

567
00:42:25,400 --> 00:42:26,400
Ja, tuurlijk.

568
00:42:26,400 --> 00:42:31,960
Kijk, je hoort nu heel vaak dat AI niet mensen gaat vervangen.

569
00:42:31,960 --> 00:42:35,480
Maar het gaat bijvoorbeeld mensen die niet AI gebruiken vervangen.

570
00:42:35,480 --> 00:42:37,880
En ik vind dat wel een hele grappige stelling.

571
00:42:37,880 --> 00:42:39,960
Want stel je voor, ik ben een programmeur.

572
00:42:39,960 --> 00:42:44,240
Stel je voor, je hebt nu een andere programmeur en die bouwt code met chat-GPT.

573
00:42:44,240 --> 00:42:46,160
Die zou sneller zijn dan ik ben.

574
00:42:46,160 --> 00:42:47,160
Dat denk ik zeker.

575
00:42:47,160 --> 00:42:49,920
Gezien dat ik gewoon moet programmeren, zal het gewoon sneller knip-plak-klaar.

576
00:42:49,920 --> 00:42:50,920
En als het werkt, dan helemaal fijn.

577
00:42:50,920 --> 00:42:55,640
Over een aantal jaar, wanneer de AI steeds beter en steeds beter en steeds beter wordt

578
00:42:55,640 --> 00:42:59,040
en je bent er aan gewend om het te gebruiken, zul je op een gegeven moment een stukje afhankelijkheid

579
00:42:59,040 --> 00:43:01,920
inbouwen, die we ons nu geen weten van hebben, die wel komt.

580
00:43:01,920 --> 00:43:07,520
Waardoor er een moment komt, waarop je zegt waar is ook alweer die persoon geweest die

581
00:43:07,520 --> 00:43:09,000
je zeg maar daadwerkelijk kan programmeren.

582
00:43:09,000 --> 00:43:13,880
En dat is iets, wij laten ons gewoon graag betoveren.

583
00:43:13,880 --> 00:43:18,520
Maar het is bij AI, Ronald, ik zeg ervan, oké, als je dat boek in één zin zou willen

584
00:43:18,520 --> 00:43:23,200
samenvatten, dan is het van, het gaat niet om wat AI van ons gaat overnemen, het gaat

585
00:43:23,200 --> 00:43:25,680
om wat wij bereid zijn om op te geven.

586
00:43:25,680 --> 00:43:35,160
En ik denk dat ons wensdenken en onze vaardigheid om vooruit te denken, ons niet altijd in staat

587
00:43:35,160 --> 00:43:39,000
stelt om te denken wat nu verstandig is.

588
00:43:39,000 --> 00:43:44,960
Als we kijken naar AI en de ervaring die je hebt, wat is nu verstandig?

589
00:43:44,960 --> 00:43:50,200
Ik denk dat het voor bedrijven en voor mensen gewoon heel verstandig is om daar wel weet

590
00:43:50,200 --> 00:43:51,200
van te hebben.

591
00:43:51,200 --> 00:43:53,040
Het is gewoon goed om daar weet van te hebben.

592
00:43:53,040 --> 00:44:01,000
Ik denk ook dat het heel verstandig is om te voelen en het besef te hebben dat jouw bedrijf,

593
00:44:01,000 --> 00:44:03,680
maar ook wie jij bent, heeft altijd te maken met mensen.

594
00:44:03,680 --> 00:44:06,320
We leven in een wereld vol mensen, we leven niet in een wereld vol techniek, ik weet het

595
00:44:06,320 --> 00:44:09,240
steeds meer, maar we leven in een wereld vol mensen.

596
00:44:09,240 --> 00:44:11,000
En dat gaat gewoon voorop.

597
00:44:11,000 --> 00:44:15,280
Dus je kunt die techniek voor jezelf uitzoeken, oké, heeft dat een vaardigheid?

598
00:44:15,280 --> 00:44:18,120
Is dat van toegepaste waarden?

599
00:44:18,120 --> 00:44:22,960
En vindt er een plek in op zo'n manier dat het symbiotisch gaat werken?

600
00:44:22,960 --> 00:44:26,800
Ik kan me heel goed voorstellen dat je straks robots hebt die bijvoorbeeld dienbladen gaan

601
00:44:26,800 --> 00:44:29,960
afhalen, die in een sushi restaurant gewoon het eten brengen.

602
00:44:29,960 --> 00:44:31,200
Is daar veel meer verloren?

603
00:44:31,200 --> 00:44:32,200
Weet ik niet.

604
00:44:32,200 --> 00:44:35,960
Je verliest een stukje sociale interactie, maar hoeveel sociale interactie heb je van

605
00:44:35,960 --> 00:44:36,960
iemand die dat gewoon...

606
00:44:36,960 --> 00:44:38,520
Kranten bezorgen, dat soort dingen.

607
00:44:38,520 --> 00:44:42,800
Maar zelfs tegenwoordig in restaurants dat ze een bord op je tafel gooien.

608
00:44:42,800 --> 00:44:43,800
Ja, precies.

609
00:44:43,800 --> 00:44:45,480
Dat snap ik wel.

610
00:44:45,480 --> 00:44:48,640
Ik zie ook dingen toepasbaar in de zorg bijvoorbeeld.

611
00:44:48,640 --> 00:44:49,640
Dat zie ik ook wel.

612
00:44:49,640 --> 00:44:50,640
Kijk, onderwijs daarentegen.

613
00:44:50,640 --> 00:44:54,480
Ik zie niet toegevoegde waarden dat ik les krijg van een robot.

614
00:44:54,480 --> 00:44:59,160
Iedereen kent nog wel een docent die hem of haar geraakt heeft.

615
00:44:59,160 --> 00:45:00,160
De passie.

616
00:45:00,160 --> 00:45:01,160
Ja, tuurlijk.

617
00:45:01,160 --> 00:45:02,160
Fantastisch.

618
00:45:02,160 --> 00:45:03,160
Dat is die interactie.

619
00:45:03,160 --> 00:45:04,160
We moeten dat niet vergeten.

620
00:45:04,160 --> 00:45:05,160
We moeten dat koesteren.

621
00:45:05,160 --> 00:45:07,560
Ja, maar ik voel gewoon dat is de energie.

622
00:45:07,560 --> 00:45:10,480
Iets kunnen overbrengen van mens tot mens.

623
00:45:10,480 --> 00:45:11,480
Juist.

624
00:45:11,480 --> 00:45:16,800
Het is wel grappig, want niet alleen de docent die jou geïnspireerd heeft, maar ook degene

625
00:45:16,800 --> 00:45:19,000
die je enorm geïrriteerd heeft.

626
00:45:19,000 --> 00:45:20,000
Ook daar leer je van.

627
00:45:20,000 --> 00:45:21,000
Dus als dat wegvalt.

628
00:45:21,000 --> 00:45:22,000
Uiterst.

629
00:45:22,000 --> 00:45:23,000
Ja.

630
00:45:23,000 --> 00:45:24,000
Dat je op zoek bent...

631
00:45:24,000 --> 00:45:25,000
Ik was misschien iets klierderig.

632
00:45:25,000 --> 00:45:28,000
Dat zeg ik het heel netjes, denk ik, in de klas.

633
00:45:28,000 --> 00:45:29,000
Ik ook wel.

634
00:45:29,000 --> 00:45:33,080
Dat je daarmee ook leert waar grenzen liggen.

635
00:45:33,080 --> 00:45:36,960
Ook dat soort dingen scherpt je sociale vaardigheden aan.

636
00:45:36,960 --> 00:45:37,960
Ja.

637
00:45:37,960 --> 00:45:39,600
Ik denk dat daar...

638
00:45:39,600 --> 00:45:43,240
Dus ik denk van, AI als personal assistant, snap ik.

639
00:45:43,240 --> 00:45:48,080
Maar het zou mij tevaren dat je zegt van, oké, we hebben nu een nieuwe board member.

640
00:45:48,080 --> 00:45:49,080
Dat is, ja...

641
00:45:49,080 --> 00:45:52,080
Noem maar eens wat, weet je wel.

642
00:45:52,080 --> 00:45:54,320
Dat zie je ook gebeuren als gimmick.

643
00:45:54,320 --> 00:45:57,520
Maar ik denk dat daar wel volop mee geëxperimenteerd wordt.

644
00:45:57,520 --> 00:45:58,520
Ja.

645
00:45:58,520 --> 00:46:01,680
Dat zou wel heel apart zijn inderdaad, in je board.

646
00:46:01,680 --> 00:46:04,880
Om af te sluiten, want pleidooi voor gezond verstand.

647
00:46:04,880 --> 00:46:06,920
Wat zou onze luisteraars nou...

648
00:46:06,920 --> 00:46:08,240
En die zetten hem zo direct uit.

649
00:46:08,240 --> 00:46:18,200
Wat zou je ze mee willen geven om dat gezond verstand nog extra in te zetten na dit gesprek?

650
00:46:18,200 --> 00:46:23,960
Ik denk wat ik ze zou willen meegeven rondom AI.

651
00:46:23,960 --> 00:46:26,760
Dat gezond verstand rondom AI is van, oké.

652
00:46:26,760 --> 00:46:32,240
Verdiep je nou eens hoe AI echt werkt.

653
00:46:32,240 --> 00:46:34,720
Verdiep je nou eens hoe zo'n rekenregel werkt.

654
00:46:34,720 --> 00:46:36,560
Verdiep je nou eens hoe zo'n model werkt.

655
00:46:36,560 --> 00:46:43,160
Dat hoeft niet per se op basis van hele extreme wiskundige stellingen.

656
00:46:43,160 --> 00:46:44,480
Maar dat ik denk van, oké.

657
00:46:44,480 --> 00:46:47,520
Verdiep je nou eens hoe komt zo'n antwoord überhaupt tot stand.

658
00:46:47,520 --> 00:46:48,520
Ja.

659
00:46:48,520 --> 00:46:49,520
Want dat doen wij mensen ook.

660
00:31:17,441 --> 00:31:21,440
Ik weet nu dus dat ze het via AI gaan doen.

661
00:31:21,440 --> 00:31:23,440
Als ik weet dat het niet klopt, zeg maar.

662
00:31:23,440 --> 00:31:24,440
Ik ga het dus opvragen.

663
00:31:24,440 --> 00:31:26,440
Als ik iemand op sluiting krijg, dan ga ik het gewoon opvragen.

664
00:31:26,440 --> 00:31:29,440
Maar wat we eigenlijk met die richtlijnen willen doen, is dat we dat voor willen zijn.

665
00:31:29,440 --> 00:31:33,440
We willen gewoon heel graag, het liefste dat er op paragraaf wordt opgenomen, bestuursrecht.

666
00:31:33,440 --> 00:31:36,440
Waar we kunnen zeggen van oké, dit mag niet meer gebeuren.

667
00:31:36,440 --> 00:31:41,440
En de manier waarop je zorgt dat dit soort dingen niet meer gebeuren, is door daar transparant over te zijn.

668
00:31:41,440 --> 00:31:43,440
En zorgen dat er een proces is in het beleid.

669
00:31:43,440 --> 00:31:44,440
Dat het proces helder is.

670
00:31:44,440 --> 00:31:48,440
En dat als je het proces helder hebt, dan weet je waar ik technologie in zet of niet.

671
00:31:48,440 --> 00:31:52,440
Maar als het proces niet helder is, maar gewoon een magisch stickertje opgeplakt wordt, dan heb je eigenlijk geen proces.

672
00:31:52,440 --> 00:31:56,440
En volgens mij komt het vaak daarop neer. Ga kijken naar het proces.

673
00:31:56,440 --> 00:31:58,440
Ja, helemaal eens.

674
00:31:58,440 --> 00:32:00,440
En je maakt voor ons een mooi bruggetje naar beleid.

675
00:32:00,440 --> 00:32:02,440
Want ik denk dat beleid heel belangrijk is.

676
00:32:02,440 --> 00:32:04,440
Voor ieder bedrijf die AI toepast.

677
00:32:04,440 --> 00:32:08,440
Ook al zou het zijn dat het beleid is dat je zegt, we doen het niet.

678
00:32:08,440 --> 00:32:09,440
Dat is ook beleid hè.

679
00:32:09,440 --> 00:32:13,440
We hebben een kaartspel ontwikkeld met een heel aantal stellingen daarin.

680
00:32:13,440 --> 00:32:16,440
Dat als je een beetje antwoord hebt met elkaar.

681
00:32:16,440 --> 00:32:21,440
Dus eigenlijk hoe je het speelt, is dat je met z'n vieren rond een stelling eigenlijk met elkaar praat.

682
00:32:21,440 --> 00:32:23,440
Hoe kijken we hier naar?

683
00:32:23,440 --> 00:32:25,440
Dus zonder goede of foute antwoord.

684
00:32:25,440 --> 00:32:33,440
En als je een beetje deze vragen kan beantwoorden, ben je al een heel eind op weg met je beleid en strategie.

685
00:32:33,440 --> 00:32:34,440
In ieder geval als input.

686
00:32:34,440 --> 00:32:37,440
Dus die willen we graag ook aan jou eentje voorleggen.

687
00:32:37,440 --> 00:32:38,440
Zeker.

688
00:32:38,440 --> 00:32:55,440
[muziek]

689
00:32:55,440 --> 00:32:57,440
Nou je hebt het gezien, ik heb het geschud.

690
00:32:57,440 --> 00:32:59,440
En je hebt hem zelf mogen pakken.

691
00:32:59,440 --> 00:33:04,440
De stelling die we hebben voor jou is in de categorie wetgeving en beleid.

692
00:33:04,440 --> 00:33:06,440
Nou, alsof het zo moet zijn.

693
00:33:06,440 --> 00:33:07,440
Alsof het zo moet zijn.

694
00:33:07,440 --> 00:33:12,440
En de stelling is, wij hebben een verbod op generatieve AI ingevoerd.

695
00:33:12,440 --> 00:33:16,440
Dus even misschien in de context van een situatie die je gehad hebt.

696
00:33:16,440 --> 00:33:18,440
Of voor je eigen organisatie.

697
00:33:18,440 --> 00:33:21,440
Wij hebben een verbod op generatieve AI ingevoerd.

698
00:33:21,440 --> 00:33:25,440
Oké, en nu wil je van mij wat ik daarvan vind zeg maar.

699
00:33:25,440 --> 00:33:30,440
Maar ja, kijk we hebben er natuurlijk een heel hoofdstuk aan besteed.

700
00:33:30,440 --> 00:33:33,440
Ik hou niet van verbieden.

701
00:33:33,440 --> 00:33:37,440
Dus je hebt nu de Europese AI Act.

702
00:33:37,440 --> 00:33:40,440
Die dus modellen indeelt in classificaties.

703
00:33:40,440 --> 00:33:41,440
Sommige willen we gewoon niet hebben.

704
00:33:41,440 --> 00:33:43,440
Anderen zeggen van dat is gewoon peanuts.

705
00:33:43,440 --> 00:33:48,440
Als je kleine regeltjes leest, dan is eigenlijk alles mogelijk onder het mom van bijvoorbeeld nationale veiligheid.

706
00:33:48,440 --> 00:33:50,440
Dus echt verbieden.

707
00:33:50,440 --> 00:33:51,440
Ik hou niet van verbieden.

708
00:33:51,440 --> 00:33:55,440
Ik geloof veel meer in het nemen van verantwoordelijkheid en het geven van onderwijs.

709
00:33:55,440 --> 00:33:59,440
Dus als je zegt van oké, je ziet dat nu wel vaker, generatieve AI.

710
00:33:59,440 --> 00:34:01,440
Er staan dingen in die niet kloppen.

711
00:34:01,440 --> 00:34:04,440
Dingen zijn racistisch, fascistisch, noem maar op.

712
00:34:04,440 --> 00:34:08,440
AI is nooit, dat heb ik ook al gesproken, nooit fascistisch of racistisch.

713
00:34:08,440 --> 00:34:11,440
Dat heeft te maken met de data die onderliggend zijn.

714
00:34:11,440 --> 00:34:13,440
De processen, het is echt een blackmailer zeg maar.

715
00:34:13,440 --> 00:34:15,440
We hebben dat erin gestopt als mensen.

716
00:34:15,440 --> 00:34:17,440
AI heeft geen normen afhaal, dat zijn rekenregels.

717
00:34:17,440 --> 00:34:19,440
Dat moet je gewoon begrijpen.

718
00:34:19,440 --> 00:34:21,440
Het zijn de mensen die het gebruiken.

719
00:34:21,440 --> 00:34:25,440
Dus om iets te verbieden vind ik eigenlijk, daar hou ik zelf niet van.

720
00:34:25,440 --> 00:34:28,440
Omdat ik denk je moet je eigen verantwoordelijkheid nemen.

721
00:34:28,440 --> 00:34:33,440
Wij schrijven natuurlijk ook wel, in Amerika is er elke dag een school shooting.

722
00:34:33,440 --> 00:34:36,440
Dat horen wij niet meer, alleen als het heel erg is.

723
00:34:36,440 --> 00:34:41,440
Ik geloof ook heilig in dat dat veel minder zou zijn als er geen geweren zouden zijn.

724
00:34:41,440 --> 00:34:43,440
Dus als dat niet beschikbaar is.

725
00:34:43,440 --> 00:34:46,440
Dus met een verbod kun je wel een hele hoop dingen doen.

726
00:34:46,440 --> 00:34:50,440
Alleen een geweer heeft ook een kernzijde in de zin dat het je kan beschermen.

727
00:34:50,440 --> 00:34:53,440
Gen AI kan wel degelijk goede dingen doen.

728
00:34:53,440 --> 00:34:57,440
Het heeft wel degelijk toegepaste waarden.

729
00:34:57,440 --> 00:35:03,440
Dus om dingen te verbieden, ik denk dat bij mezelf, als je dingen verbiedt dan...

730
00:35:03,440 --> 00:35:06,440
Aan de ene kant geef je het ook aandacht.

731
00:35:06,440 --> 00:35:08,440
Dat zie je bij kleine kinderen al.

732
00:35:08,440 --> 00:35:10,440
Dat gaat heel hard, dingen mogen niet.

733
00:35:10,440 --> 00:35:12,440
Maar je leert ook niks.

734
00:35:12,440 --> 00:35:17,440
De vraag is juist, waarom wil je iets wel of niet gebruiken?

735
00:35:17,440 --> 00:35:20,440
Dat is eigenlijk wat we deden met die stelling voor gezond verstand.

736
00:35:20,440 --> 00:35:22,440
We snappen dat dat een lange weg is.

737
00:35:22,440 --> 00:35:26,440
Maar ik zelf zou niet voor een verbod gaan.

738
00:35:26,440 --> 00:35:28,440
Ik denk dat dat een heel groot probleem is.

739
00:35:28,440 --> 00:35:31,440
En dat is waarom we ook een hele grote stelling hebben.

740
00:35:31,440 --> 00:35:33,440
En dat is waarom we ook een hele grote stelling hebben.

741
00:35:33,440 --> 00:35:36,440
En dat is waarom we ook een hele grote stelling hebben.

742
00:35:36,440 --> 00:35:38,440
En dat is waarom we ook een hele grote stelling hebben.

743
00:37:38,440 --> 00:37:40,440
En in dat boek nemen we een heel mooi voorbeeld.

744
00:37:40,440 --> 00:37:42,440
En Ronald is er heel fier op.

745
00:37:42,440 --> 00:37:44,440
Hij is er echt heel fier op.

746
00:37:44,440 --> 00:37:46,440
Hij is echt van: "Luister Marc".

747
00:37:46,440 --> 00:37:48,440an
Oneindigheid.

748
00:37:48,440 --> 00:37:50,440
Oneindigheid is iets wat eigenlijk bijna niet bestaat.

749
00:37:50,440 --> 00:37:52,440
Oneindigheid.

750
00:37:52,440 --> 00:37:54,440
Als je een munt opgooit, dan is het eigenlijk 50/50 zou het moeten zijn.

751
00:37:56,440 --> 00:37:58,440
En je weet dat als je dat honderd keer doet, dan krijg je niet per se 50/50.

752
00:38:00,440 --> 00:38:02,440
Als je honderd keer honderd keer doet, dan krijg je ook niet per se 50/50.

753
00:38:02,440 --> 00:38:04,440
Het gaat steeds dichterbij, steeds dichterbij.

754
00:38:04,440 --> 00:38:06,440
Ik heb met mijn eigen handen een hele goede idee.

755
00:38:06,440 --> 00:38:08,440
Ik heb me met mijn eigen handen een hele goede idee.

756
00:38:08,440 --> 00:38:10,440
Ik heb me met mijn eigen handen een heel goede idee.

757
00:40:14,440 --> 00:40:16,440
Daar moet je even over nadenken.

758
00:40:16,440 --> 00:40:22,440
Want in de eerste instantie zeg je dat we oneindigheid kunnen voorstellen.

759
00:40:22,440 --> 00:40:25,440
Dat betekent dat wij iets met onze bewustzijn kunnen...

760
00:40:25,440 --> 00:40:30,440
Dat betekent dat onze gedachte niet puur materie kan zijn.

761
00:40:30,440 --> 00:40:34,440
En hoe voelt dat dan, die illusie waar je het net over had?

762
00:40:34,440 --> 00:40:37,440
Nou, omdat wij, en dat is ook wel het hele...

763
00:40:37,440 --> 00:40:39,440
Singularity is niet bewezen.

764
00:40:39,440 --> 00:40:41,440
Dat is een echt boek over Ray Kurzweil.

765
00:40:41,440 --> 00:40:43,440
Dat is niet bewezen.

766
00:40:43,440 --> 00:40:45,440
Dat is een organisator die Singularity heet.

767
00:40:45,440 --> 00:40:47,440
Ja, precies. En dat voelt ook.

768
00:40:47,440 --> 00:40:49,440
De reactie op techniek is ook vaak van...

769
00:40:49,440 --> 00:40:52,440
Techniek gaat de wereld verbeteren, redden, of het gaat de wereld vernietigen.

770
00:40:52,440 --> 00:40:53,440
Ja.

771
00:40:53,440 --> 00:40:57,440
Dus die gedachte van oneindigheid voelt ook...

772
00:40:57,440 --> 00:41:00,440
De illusie van AI dat we zeggen van...

773
00:41:00,440 --> 00:41:04,440
Hé, wacht eens even. AI kan binnenkort dit en dat.

774
00:41:04,440 --> 00:41:07,440
En als je die rekenkracht maar vergroot en als je die data maar vergroot...

775
00:41:07,440 --> 00:41:10,440
En als je die algoritmes vergroot en onteindigen, dan komt het daar.

776
00:41:10,440 --> 00:41:15,440
En ik geloof erin dat wij ons nu al gedragen naar iets wat dan niet is...

777
00:41:15,440 --> 00:41:17,440
Waarvan wij denken dat gaat er aankomen.

778
00:41:17,440 --> 00:41:22,440
Dat is onbewezen. En dat is onze vaardigheid om creatief te zijn.

779
00:41:22,440 --> 00:41:25,440
Om dingen te maken en te denken en te dromen.

780
00:41:25,440 --> 00:41:27,440
Ja, fantaseren.

781
00:41:27,440 --> 00:41:30,440
Fantaseren staat ook soms een stukje gezond verstand weg.

782
00:41:30,440 --> 00:41:32,440
Dat zijn van die heuristieken.

783
00:41:32,440 --> 00:41:34,440
Dat is gewoon dat we ook best wel lui zijn.

784
00:41:34,440 --> 00:41:36,440
Dat we denken van, laten we dat zo eens bedenken.

785
00:41:36,440 --> 00:41:43,440
En wij zijn natuurlijk ook goed in patronen verzinnen.

786
00:41:43,440 --> 00:41:45,440
Want iedereen verwacht...

787
00:41:45,440 --> 00:41:49,440
We hadden het al over november 2022.

788
00:41:49,440 --> 00:41:51,440
Toen kwam de GPT uit.

789
00:41:51,440 --> 00:41:53,440
Er was eigenlijk versie 3.

790
00:41:53,440 --> 00:41:55,440
Mensen wisten niet eens dat er versie 1 en 2 bestond.

791
00:41:55,440 --> 00:41:57,440
Versie 3, jaar later versie 4.

792
00:41:57,440 --> 00:41:59,440
Dus iedereen gaat er vanuit.

793
00:41:59,440 --> 00:42:02,440
We zitten in 2024. We krijgen versie 5.

794
00:42:02,440 --> 00:42:08,440
Alleen al dat soort aannames worden gemaakt.

795
00:42:08,440 --> 00:42:10,440
Dat moet nu gebeuren.

796
00:42:10,440 --> 00:42:13,440
En niet alleen dat, maar GPT 5 gaat zo direct.

797
00:42:13,440 --> 00:42:15,440
Exponentieel beter zijn dan 4.

798
00:42:15,440 --> 00:42:17,440
Want 4 was zoveel beter dan 3.

799
00:42:17,440 --> 00:42:21,440
Dus wij trekken ook alles met het grootste gemak door.

800
00:42:21,440 --> 00:42:23,440
Maar is dat niet ook een beetje wensdenken?

801
00:42:23,440 --> 00:42:25,440
Ja, natuurlijk.

802
00:42:25,440 --> 00:42:31,440
Je hoort nu heel vaak dat AI niet mensen gaat vervangen.

803
00:42:31,440 --> 00:42:35,440
Maar het gaat bijvoorbeeld mensen die niet AI gebruiken vervangen.

804
00:42:35,440 --> 00:42:37,440
En ik vond dat een hele grappige stelling.

805
00:42:37,440 --> 00:42:39,440
Want stel je voor, ik ben een programmeur.

806
00:42:39,440 --> 00:42:42,440
Stel je voor, je hebt nu een andere programmeur.

807
00:42:42,440 --> 00:42:44,440
En die bouwt code met chat-GPT.

808
00:42:44,440 --> 00:42:46,440
Die zou sneller zijn dan ik ben.

809
00:42:46,440 --> 00:42:48,440
Dat denk ik zeker, gezien ik moet programmeren.

810
00:42:48,440 --> 00:42:50,440
Ze had een snelle kniplak klaar.

811
00:42:50,440 --> 00:42:52,440
En het werkt helemaal fijn.

812
00:42:52,440 --> 00:42:55,440
Maar het is een aantal jaar dat wanneer de AI steeds beter en beter wil.

813
00:42:55,440 --> 00:42:57,440
En je bent er aan gewend om het te gebruiken.

814
00:42:57,440 --> 00:43:00,440
Zul je op een gegeven moment een stukje afhankelijkheid inbouwen.

815
00:43:00,440 --> 00:43:02,440
Die we ons nu geen weet van hebben, die wel komt.

816
00:43:02,440 --> 00:43:05,440
Waardoor er een moment komt, kun je gif op innemen.

817
00:43:05,440 --> 00:43:09,440
Waarop ze zeggen, waar is ook alweer die persoon geweest die daadwerkelijk kan programmeren.

818
00:43:09,440 --> 00:43:13,440
En dat is iets, wij laten ons gewoon graag betoveren.

819
00:43:13,440 --> 00:43:17,440
Maar het is bij AI, Ronald en ik zeggen van oké.

820
00:43:17,440 --> 00:43:19,440
Als je dat boek in één zin zou willen samenvatten.

821
00:43:19,440 --> 00:43:23,440
Dan is het van, het gaat niet om wat AI van ons gaat overnemen.

822
00:43:23,440 --> 00:43:26,440
Het gaat om wat wij bereid zijn om op te geven.

823
00:43:26,440 --> 00:43:31,440
En ik denk dat ons wensdenken en onze vaardigheid om vooruit te denken.

824
00:43:31,440 --> 00:43:38,440
Ons niet altijd in staat stelt om te denken wat nu verstandig is.

825
00:43:38,440 --> 00:43:43,440
Als we kijken naar AI en de ervaring die je hebt.

826
00:43:43,440 --> 00:43:45,440
Wat is nu verstandig?

827
00:43:45,440 --> 00:43:51,440
Ik denk dat het voor bedrijven en mensen heel verstandig is om daar wel weet van te hebben.

828
00:43:51,440 --> 00:43:53,440
Het is gewoon goed om daar weet van te hebben.

829
00:43:53,440 --> 00:43:58,440
Ik denk ook dat het heel verstandig is om te voelen en het besef te hebben.

830
00:43:58,440 --> 00:44:03,440
Dat jouw bedrijf, maar ook wie jij bent, heeft altijd te maken met mensen.

831
00:44:03,440 --> 00:44:05,440
We leven in een wereld vol mensen.

832
00:44:05,440 --> 00:44:06,440
We leven niet in een wereld vol techniek.

833
00:44:06,440 --> 00:44:09,440
Ik weet het steeds meer techniek, maar we leven in een wereld vol mensen.

834
00:44:09,440 --> 00:44:11,440
En dat gaat gewoon voorop.

835
00:44:11,440 --> 00:44:13,440
Je kunt die techniek voor jezelf uitzoeken.

836
00:44:13,440 --> 00:44:15,440
Heeft dat een vaardigheid?

837
00:44:15,440 --> 00:44:18,440
Is dat van toegepaste waarde?

838
00:44:18,440 --> 00:44:23,440
En vindt er een plek in op zo'n manier dat het symbiotisch gaat werken.

839
00:44:23,440 --> 00:44:27,440
Ik kan me heel goed voorstellen dat je straks robots hebt die bijvoorbeeld dienbladen gaan afhalen.

840
00:44:27,440 --> 00:44:30,440
Die in een sushi restaurant gewoon het eten brengen.

841
00:44:30,440 --> 00:44:32,440
Is daar veel meer verloren? Weet ik niet.

842
00:44:32,440 --> 00:44:34,440
Je verliest een stukje sociale interactie.

843
00:44:34,440 --> 00:44:37,440
Maar hoeveel sociale interactie heb je voor iemand die dat gewoon...

844
00:44:37,440 --> 00:44:39,440
Kranten bezorgen, dat soort dingen.

845
00:44:39,440 --> 00:44:43,440
Zelfs tegenwoordig in restaurants dat ze een bord op je tafel gooien.

846
00:44:43,440 --> 00:44:46,440
Ja, precies. Dat snap ik wel.

847
00:44:46,440 --> 00:44:49,440
Ik zie ook dingen toepasbaar in de zorg bijvoorbeeld.

848
00:44:49,440 --> 00:44:54,440
Onderwijs daarentegen. Ik zie niet toegevoegde waarde dat ik les krijg van een robot.

849
00:44:54,440 --> 00:44:59,440
Iedereen kent nog wel een docent die hem of haar geraakt heeft.

850
00:44:59,440 --> 00:45:01,440
De passie. Ja, tuurlijk.

851
00:45:01,440 --> 00:45:06,440
Dat is die interactie. We moeten dat niet vergeten. We moeten dat koesteren.

852
00:45:06,440 --> 00:45:10,440
Ik voel dat het de energie is om iets te kunnen overbrengen van mens tot mens.

853
00:45:10,440 --> 00:45:16,440
Dat is wel grappig. Niet alleen de docent die jou geïnspireerd heeft...

854
00:45:16,440 --> 00:45:20,440
maar ook degene die je enorm geïrriteerd heeft. Ook daar leer je van.

855
00:45:20,440 --> 00:45:22,440
Dus als dat wegvalt.

856
00:45:22,440 --> 00:45:26,440
Dat je op zoek bent... Ik was misschien iets klierderig.

857
00:45:26,440 --> 00:45:29,440
Dat zeg ik het heel netjes in de klas. Ik ook wel.

858
00:45:29,440 --> 00:45:33,440
Dat je daarmee ook leert waar grenzen liggen.

859
00:45:33,440 --> 00:45:37,440
Ook dat soort dingen scherpt je sociale vaardigheden aan.

860
00:45:37,440 --> 00:45:43,440
Ik denk dat AI als personal assistant... Snap ik.

861
00:45:43,440 --> 00:45:46,440
Maar het zou mij tevaren dat je zegt...

862
00:45:46,440 --> 00:45:49,440
"Oké, we hebben nu een nieuwe board member."

863
00:45:49,440 --> 00:45:52,440
Dat is... Ja, noem maar eens wat.

864
00:45:52,440 --> 00:45:54,440
Dat zie je ook gebeuren als gimmick.

865
00:45:54,440 --> 00:45:58,440
Maar ik denk dat daar wel volop mee geëxperimenteerd wordt.

866
00:45:58,440 --> 00:46:01,440
Ja, dat zou wel heel apart zijn in je board.

867
00:46:01,440 --> 00:46:04,440
Om af te sluiten. Want pleidooi voor gezond verstand.

868
00:46:04,440 --> 00:46:08,440
Wat zou onze luisteraars nou... En die zetten hem zo direct uit.

869
00:46:08,440 --> 00:46:12,440
Wat zou je ze mee willen geven...

870
00:46:12,440 --> 00:46:17,440
om dat gezond verstand nog extra in te zetten na dit gesprek?

871
00:46:17,440 --> 00:46:21,440
Ik denk wat ik ze zou willen meegeven...

872
00:46:21,440 --> 00:46:25,440
rondom AI. Dat gezond verstand rondom AI.

873
00:46:25,440 --> 00:46:32,440
Is van... Verdiep je nou eens hoe AI echt werkt.

874
00:46:32,440 --> 00:46:34,440
Verdiep je nou eens hoe zo'n rekenregel werkt.

875
00:46:34,440 --> 00:46:36,440
Verdiep je nou eens hoe zo'n model werkt.

876
00:46:36,440 --> 00:46:38,440
Dat hoeft niet per se op basis van...

877
00:46:38,440 --> 00:46:42,440
hele extreme wiskundige stellingen.

878
00:46:42,440 --> 00:46:44,440
Maar dat ik denk van...

879
00:46:44,440 --> 00:46:47,440
Verdiep je nou eens hoe zo'n antwoord überhaupt tot stand komt.

880
00:46:47,440 --> 00:46:49,440
Want dat doen wij mensen ook.

881
00:46:49,440 --> 00:46:51,440
Ik zit nu met jullie twee en je voelt iets.

882
00:46:51,440 --> 00:46:53,440
En als je iemand hebt die je nog niet kent...

883
00:46:53,440 --> 00:46:55,440
Ik ken jullie net pas zeg maar.

884
00:46:55,440 --> 00:46:57,440
Dan ga je kijken hoe voelt zo'n persoon.

885
00:46:57,440 --> 00:46:59,440
We hebben een gesprek gehad hiervoor.

886
00:46:59,440 --> 00:47:01,440
Dan krijg je een idee bij zo'n iemand.

887
00:47:01,440 --> 00:47:03,440
Dat geeft een heel ander gesprek.

888
00:47:03,440 --> 00:47:06,440
Dat heeft te maken met dat we in een wereld leven waarin we ook...

889
00:47:06,440 --> 00:47:08,440
Je wil ook iemand kunnen vertrouwen.

890
00:47:08,440 --> 00:47:10,440
Er zit heel veel gevoel bij.

891
00:47:10,440 --> 00:47:12,440
En ik denk AI heeft dat niet. AI is gewoon koud.

892
00:47:12,440 --> 00:47:14,440
En ik denk van als jij AI wil toelaten in je bedrijf...

893
00:47:14,440 --> 00:47:17,440
maar ook voor jezelf. Je wil dat ondersteunen.

894
00:47:17,440 --> 00:47:20,440
Dan moet je weet hebben van wat het precies is dat je inzet.

895
00:47:20,440 --> 00:47:25,440
En ik denk dat het al helpt als je begrijpt dat het eigenlijk allemaal uitrekenen is.

896
00:47:25,440 --> 00:47:28,440
Daarmee onttover je denk ik al een hele hoop.

897
00:47:28,440 --> 00:47:33,440
Het zijn echt allemaal formules die uitgewerkt zijn.

898
00:47:33,440 --> 00:47:35,440
Die berekeningen uitvoeren.

899
00:47:35,440 --> 00:47:38,440
En die dan uiteindelijk dat wordt omgezet.

900
00:47:38,440 --> 00:47:40,440
In ChatGPT. In dit geval dan in woorden.

901
00:47:40,440 --> 00:47:43,440
In andere in voorspellingen. Maar het is allemaal wiskundig.

902
00:47:43,440 --> 00:47:45,440
Daar ben je zelf verschuldigd.

903
00:47:45,440 --> 00:47:48,440
Ik bedoel, ik weet ook niet hoe een auto precies werkt.

904
00:47:48,440 --> 00:47:51,440
Maar ik denk dat het ook wel een soort van technologie is.

905
00:47:51,440 --> 00:47:53,440
Dat je het ook kunt veranderen.

906
00:47:53,440 --> 00:47:55,440
En dat je ook kan veranderen.

907
00:48:15,440 --> 00:48:17,440
Je hebt een bron in je hoofd.

908
00:48:17,440 --> 00:48:19,440
Waarvan je zegt, als je daar begint...

909
00:48:19,440 --> 00:48:22,440
Uiteraard je boek hè? De onttovering van AI.

910
00:48:22,440 --> 00:48:24,440
We zullen het nog een keer noemen.

911
00:48:24,440 --> 00:48:26,440
Hij komt ook in die show notes uiteraard.

912
00:48:26,440 --> 00:48:29,440
Maar zou er nog een andere bron zijn...

913
00:48:29,440 --> 00:48:35,440
waarvan je zegt, hier krijg je echt inzicht in hoe er gerekend wordt?

914
00:48:35,440 --> 00:48:40,440
Ja, ik snap dat ik je hiermee overval.

915
00:48:40,440 --> 00:48:42,440
Nee, want ik ben aan het denken...

916
00:48:42,440 --> 00:48:45,440
aan de ene kant heb je de hele basisboeken...

917
00:48:45,440 --> 00:48:47,440
van algebra en calculus.

918
00:48:47,440 --> 00:48:49,440
Ja, maar daar haakt iedereen af.

919
00:48:49,440 --> 00:48:51,440
Ik denk dat wat ik zelf...

920
00:48:51,440 --> 00:48:55,440
Je hebt natuurlijk ook de boeken van statistical learning.

921
00:48:55,440 --> 00:48:58,440
Die gele Springer boeken.

922
00:48:58,440 --> 00:49:01,440
Wat is een bron op vandaag?

923
00:49:01,440 --> 00:49:05,440
Ik denk dat... Je hebt ook hele goede online courses.

924
00:49:05,440 --> 00:49:07,440
Courses van een Nederlands...

925
00:49:07,440 --> 00:49:09,440
Juist, juist.

926
00:49:09,440 --> 00:49:11,440
Maar ik denk dat... Ik heb niet één bron.

927
00:49:11,440 --> 00:49:13,440
Het kan ook zijn...

928
00:49:13,440 --> 00:49:16,440
Zoek een goed gesprek met iemand die dit doet.

929
00:49:16,440 --> 00:49:18,440
Die je er de hele dag mee bezig is.

930
00:49:18,440 --> 00:49:20,440
Die je dan even vertelt.

931
00:49:20,440 --> 00:49:22,440
Wat is jouw werk?

932
00:49:22,440 --> 00:49:25,440
Loot eens een dag mee. Wat doe je eigenlijk in principe voor werk?

933
00:49:25,440 --> 00:49:27,440
Hoe mooi.

934
00:49:27,440 --> 00:49:29,440
Wij staan in ieder geval altijd open.

935
00:49:29,440 --> 00:49:32,440
Als mensen vragen hebben, wil ik het altijd met alle liefde uitleggen.

936
00:49:32,440 --> 00:49:35,440
Sterker nog, je kan ook je vragen insturen.

937
00:49:35,440 --> 00:49:38,440
Dan leggen we ze voor aan een gast.

938
00:49:38,440 --> 00:49:40,440
Of wij antwoorden daar zelf op.

939
00:49:40,440 --> 00:49:42,440
Ik denk dat dat wel een hele mooie is.

940
00:49:42,440 --> 00:49:45,440
Inderdaad, een vragers-en-expert bij je in de buurt.

941
00:49:45,440 --> 00:49:47,440
Ik heb één boek.

942
00:49:47,440 --> 00:49:49,440
Wat me echt bijgebleven is.

943
00:49:49,440 --> 00:49:51,440
Dat heb ik twee jaar geleden gelezen.

944
00:49:51,440 --> 00:49:53,440
Dat heet 'Het spiegelpaleis van data'.

945
00:49:53,440 --> 00:49:55,440
Het spiegelpaleis van data.

946
00:49:55,440 --> 00:49:57,440
Dat is geloof ik Levien Nordeman.

947
00:49:57,440 --> 00:49:59,440
Dat is een geel boek.

948
00:49:59,440 --> 00:50:01,440
Dat ging over data.

949
00:50:01,440 --> 00:50:03,440
Wat ik zo mooi vond, hij beschreef een bepaald voorbeeld.

950
00:50:03,440 --> 00:50:05,440
Hoe kun je nou dingen leren?

951
00:50:05,440 --> 00:50:07,440
Dat was een casino gemaakt.

952
00:50:07,440 --> 00:50:09,440
Mensen konden naar een casino gaan.

953
00:50:09,440 --> 00:50:11,440
Ze hadden een casino nagebouwd.

954
00:50:11,440 --> 00:50:13,440
Mensen kregen elk vijf chips.

955
00:50:13,440 --> 00:50:15,440
Ze konden vijf chips op een roulette of blackjack of wat dan ook.

956
00:50:15,440 --> 00:50:18,440
Iemand die meer chips wilde, die kon dat voor elkaar krijgen.

957
00:50:18,440 --> 00:50:20,440
Hoe kon diegene dat voor elkaar krijgen? Dat was gewoon simpel.

958
00:50:20,440 --> 00:50:24,440
Eén chip was voor elk WhatsApp-berichtje dat je iemand liet lezen.

959
00:50:24,440 --> 00:50:27,440
Tien chips was bijvoorbeeld voor je laatste vijf foto's die je gemaakt had.

960
00:50:27,440 --> 00:50:29,440
Honderd chips was voor je pincode.

961
00:50:29,440 --> 00:50:34,440
Zo kun je het aantal chips in die roulette en casino vergroten.

962
00:50:34,440 --> 00:50:37,440
Maar de grap is dat dat is hoe het echt gaat.

963
00:50:37,440 --> 00:50:40,440
Data en algoritmes zijn onzichtbaar.

964
00:50:40,440 --> 00:50:44,440
Dus de taak die iedere persoon heeft, is om dat voor zichzelf zichtbaar te maken.

965
00:50:44,440 --> 00:50:46,440
Mooi. Mooie afsluiting.

966
00:50:46,440 --> 00:50:48,440
Dank je wel.

967
00:50:48,440 --> 00:50:53,440
Fijn dat je weer luistert naar een aflevering van AIToday Live.

968
00:50:53,440 --> 00:50:56,440
Wil je nou op de hoogte blijven van alle ontwikkelingen,

969
00:50:56,440 --> 00:50:59,440
maar ook kijk je achter de schermen van onze podcast,

970
00:50:59,440 --> 00:51:01,440
abonneer je dan eens een keer op onze nieuwsbrief.

971
00:51:01,440 --> 00:51:03,440
Link staat in de show notes.

972
00:51:03,440 --> 00:51:05,440
En wat ik zei, stuur vragen in.

973
00:51:05,440 --> 00:51:09,440
Je hoort het. We leggen ze voor aan de gasten en verantwoorden ze zelf.

974
00:51:09,440 --> 00:51:12,440
Dank je wel weer voor het luisteren. Tot de volgende keer.

975
00:51:12,440 --> 00:51:17,040
[Muziek]

People on this episode