AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E91 - Dit is waarom GPT-5 er voorlopig niet komt! En dat is prima.
In de nieuwste aflevering van AIToday Live wordt de toekomst van ChatGPT besproken. De hosts analyseren waarom GPT-5 waarschijnlijk niet snel zal verschijnen, ondanks hoge verwachtingen in de tech-wereld.
Ze belichten de zakelijke overwegingen, zoals de noodzaak om eerst de huidige investeringen terug te verdienen. Ook worden technische uitdagingen besproken, waaronder de behoefte aan nieuwe architecturen voor echt redeneren.
De podcast gaat in op de trend naar kleinere, gespecialiseerde taalmodellen als alternatief voor één groot GPT-5 model. Deze benadering biedt voordelen qua efficiëntie en controle voor organisaties.
Onderwerpen
- Zakelijke overwegingen rondom de ontwikkeling van GPT-5
- Technische uitdagingen van huidige AI-modellen
- Onbenutte mogelijkheden van bestaande AI-technologie
- Trend naar kleinere, gespecialiseerde taalmodellen
Links
- Podcast: AIToday Live podcast
- Onderzoek: Apple Research over redeneren en taalmodellen
- Platform: Hugging Face
- YouTube Video: Computer use for orchestrating tasks
- Kaartspel: AI Game Changer - Generative AI editie
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,001 --> 00:00:07,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.
2
00:00:07,000 --> 00:00:10,000
Met vandaag met z'n tweetjes Niels.
3
00:00:10,000 --> 00:00:12,000
Twee speciale gasten.
4
00:00:12,000 --> 00:00:15,000
Zo zou je het kunnen zien ja.
5
00:00:15,000 --> 00:00:18,000
Maar in ieder geval denk ik wel met een prikkelend onderwerp.
6
00:00:18,000 --> 00:00:25,000
Want we gaan het namelijk hebben over waarom het goed is dat ChatGPT daar voorlopig nog niet komt.
7
00:00:25,000 --> 00:00:28,000
En wat de reden daarvan is, in ieder geval volgens mij.
8
00:00:28,000 --> 00:00:38,000
Dat is meteen wel een goed begin.
9
00:00:38,000 --> 00:00:41,000
Want al is eigenlijk heel relatief.
10
00:00:41,000 --> 00:00:43,000
Want het is natuurlijk nog geen twee jaar.
11
00:00:43,000 --> 00:00:46,000
Dus we vergeten hoe snel dat is gegaan.
12
00:00:46,000 --> 00:00:51,000
En de verwachting, we zijn ooit begonnen met GPT-3.
13
00:00:51,000 --> 00:00:53,000
GPT-4 is uitgekomen.
14
00:00:53,000 --> 00:00:58,000
En dan voelen we een soort van logisch vervolg, ja er moet 5 komen.
15
00:00:58,000 --> 00:01:04,000
En rondom ChatGPT-5, daar zit wel een hele wereld aan ideeën.
16
00:01:04,000 --> 00:01:07,000
Misschien zelfs gedeeltelijk fantasieën omheen.
17
00:01:07,000 --> 00:01:09,000
Van wat dat allemaal zou kunnen betekenen.
18
00:01:09,000 --> 00:01:12,000
Maar dat zou bijna net zo'n grote stap in je hoofd moeten zijn.
19
00:01:12,000 --> 00:01:14,000
Als van 3 naar 4.
20
00:01:14,000 --> 00:01:17,000
Toch? Dat is niet een hele gekke aanname.
21
00:01:17,000 --> 00:01:20,000
Dus mensen verwachten daar enorm veel van.
22
00:01:20,000 --> 00:01:23,000
Ja, dat is de hype.
23
00:01:23,000 --> 00:01:25,000
On steroids inderdaad.
24
00:01:25,000 --> 00:01:27,000
Maar daar gaan we verder op in deze aflevering.
25
00:01:27,000 --> 00:01:33,000
Ja, want ik geloof namelijk dat, misschien is dat even een downer dan.
26
00:01:33,000 --> 00:01:37,000
Dat GPT-5 er voorlopig niet gaat komen.
27
00:01:37,000 --> 00:01:39,000
Ik denk dat wel goed is inderdaad.
28
00:01:39,000 --> 00:01:41,000
Wat valt er dan een beetje onder GPT-5?
29
00:01:41,000 --> 00:01:43,000
Wat zijn eigenlijk die verwachtingen dan, Joop?
30
00:01:43,000 --> 00:01:45,000
Die eraan vastgeplakt zitten?
31
00:01:45,000 --> 00:01:51,000
Nou ja, ik denk in ieder geval dat hij ons eigenlijk nog veel beter begrijpt.
32
00:01:51,000 --> 00:01:57,000
En dat er nog minder hallucinaties.
33
00:01:57,000 --> 00:02:02,000
Dat hij meer up-to-date is.
34
00:02:02,000 --> 00:02:04,000
Dat er meer mogelijk is daarin.
35
00:02:04,000 --> 00:02:08,000
Misschien zelfs wel video erbij.
36
00:02:08,000 --> 00:02:12,000
Ik denk dat iedereen eigenlijk een andere verwachting heeft.
37
00:02:12,000 --> 00:02:15,000
Dat de lat van de verwachting heel hoog ligt.
38
00:02:15,000 --> 00:02:19,000
Dus mensen hadden gehoopt, toen O1 uitkwam.
39
00:02:19,000 --> 00:02:21,000
We hebben nu O1 Preview.
40
00:02:21,000 --> 00:02:23,000
Dat dat GPT-5 was.
41
00:02:23,000 --> 00:02:25,000
Nou, dat bleek dat dan niet te zijn.
42
00:02:25,000 --> 00:02:28,000
Het is eigenlijk maar een laagje bovenop een GPT-4.
43
00:02:28,000 --> 00:02:31,000
Daar komen ze direct nog wel verder op uit.
44
00:02:31,000 --> 00:02:35,000
Maar de verwachting van wat hij allemaal zou moeten kunnen.
45
00:02:35,000 --> 00:02:37,000
Ik denk dat dat bij iedereen wat anders is.
46
00:02:37,000 --> 00:02:42,000
Maar dat iedereen verwacht dat dat weer een hele grote stap vooruit is.
47
00:02:42,000 --> 00:02:51,000
En ik ga vertellen waarom ik denk dat dat er niet gaat komen.
48
00:02:51,000 --> 00:02:56,000
Je moet het zo zien.
49
00:02:56,000 --> 00:03:01,000
Die taalmodellen zijn, ik denk dat iedereen dat nu wel weet.
50
00:03:01,000 --> 00:03:06,000
Maar even ten overvloede, is gebaseerd op hele grote hoeveelheden data.
51
00:03:06,000 --> 00:03:10,000
En daar zit een bepaalde architectuur onder.
52
00:03:10,000 --> 00:03:13,000
Dus dat betekent eigenlijk hoe die modellen getraind worden.
53
00:03:13,000 --> 00:03:19,000
Eigenlijk is dat allemaal hetzelfde.
54
00:03:19,000 --> 00:03:24,000
Of je het nou hebt over Google Gemini, over Anthropic Claude of ChatGPT.
55
00:03:24,000 --> 00:03:28,000
Ze worden allemaal op ruwe data getraind.
56
00:03:28,000 --> 00:03:30,000
En daarna gaat er nog een slag overheen.
57
00:03:30,000 --> 00:03:34,000
Waarbij mensen een trainingslaag ook weer trainen.
58
00:03:34,000 --> 00:03:40,000
En zeggen van dit is een gewenst antwoord van alle mogelijke antwoorden die je zou kunnen geven.
59
00:03:40,000 --> 00:03:45,000
Dus dit is een gewenst antwoord bij de vraag, de prompt die ik gesteld heb.
60
00:03:45,000 --> 00:03:46,000
Dus de sturing.
61
00:03:46,000 --> 00:03:47,000
De sturing.
62
00:03:47,000 --> 00:03:52,000
Dat noemen ze Reinforcement Learning with Human Feedback.
63
00:03:52,000 --> 00:03:54,000
Dat is met menselijke feedback.
64
00:03:54,000 --> 00:04:01,000
Dat geeft aan van dit is eigenlijk zoals wij graag het antwoord zouden willen zien.
65
00:04:01,000 --> 00:04:13,000
Dus als je naar GPT 5 zou willen, heb je dus heel veel meer data nog nodig dan wat je nu al hebt in GPT 4.
66
00:04:13,000 --> 00:04:19,000
Wat je ziet is dat het ook steeds moeilijker wordt van hoe kom je dan aan die data.
67
00:04:19,000 --> 00:04:21,000
Ten eerste is die beschikbaar.
68
00:04:21,000 --> 00:04:29,000
En daarmee bedoel ik gewoon van stel dat ze dat op dezelfde manier zouden kunnen krijgen als hiervoor.
69
00:04:29,000 --> 00:04:37,000
Toen we nog niet wisten dat ze GPT's aan het trainen waren op onze data, stond heel veel open.
70
00:04:37,000 --> 00:04:44,000
Nu zijn er natuurlijk heel veel websites, juist van de media, waar ze heel veel gebruik van hebben gemaakt.
71
00:04:44,000 --> 00:04:48,000
Grote Amerikaanse kranten, denk ook Nederlandse content.
72
00:04:48,000 --> 00:04:50,000
Dat is allemaal dichtgezet.
73
00:04:50,000 --> 00:04:55,000
Dus die hebben of het gelicenseerd of hebben het dichtgezet.
74
00:04:55,000 --> 00:05:02,000
Dus het is ook steeds moeilijker voor dit soort bedrijven om aan heel veel echt nieuwe data te komen.
75
00:05:02,000 --> 00:05:07,000
Die ervoor zorgt dat die taalmodellen ook meer patronen herkennen.
76
00:05:07,000 --> 00:05:10,000
Want het is eigenlijk een vorm van patroonherkenning.
77
00:05:10,000 --> 00:05:13,000
Nou daar is bijgekomen.
78
00:05:13,000 --> 00:05:18,000
Ik denk dat heel veel mensen denken van oh ja maar gooi er gewoon meer data tegenaan.
79
00:05:18,000 --> 00:05:24,000
En dan krijgen we GPT-5 en die is dan nog slimmer, nog beter, kan nog beter redeneren.
80
00:05:24,000 --> 00:05:25,000
Maar zo werkt het niet.
81
00:05:25,000 --> 00:05:31,000
Sterker nog, Apple is de afgelopen maand, hebben zij een onderzoek uitgebracht,
82
00:05:31,000 --> 00:05:37,000
waarin zij laten zien dat het echt gaat om patroonherkenning.
83
00:05:37,000 --> 00:05:45,000
Er wordt iedere keer de vraag gesteld hoe goed is een taalmodel in redeneren, reasoning.
84
00:05:45,000 --> 00:05:53,000
En wat zij lieten zien in dat onderzoek, is dat als je je prompt zeg maar een klein beetje aanpast,
85
00:05:53,000 --> 00:06:00,000
dat je getalletjes aanpast, woordjes aanpast, dat je ook significant andere antwoorden krijgt.
86
00:06:00,000 --> 00:06:02,000
Dat zou je eigenlijk niet verwachten.
87
00:06:02,000 --> 00:06:03,000
Dat zou je niet verwachten.
88
00:06:03,000 --> 00:06:10,000
Dus zij zeiden ook van ja de manier waarop nu gemeten wordt zeg maar hoe goed de redenering is,
89
00:06:10,000 --> 00:06:13,000
daar zou ook een andere benchmark voor moeten komen.
90
00:06:13,000 --> 00:06:16,000
Dus de huidige taalmodellen daar zitten allemaal benchmarks tegenaan.
91
00:06:16,000 --> 00:06:26,000
En dan zeggen ze nou ja je weet je je scoort zoveel, de hoogste score is 100%, je haalt zoveel daar op en zo goed doet ie het.
92
00:06:26,000 --> 00:06:32,000
En ze zeggen ja maar weet je, hele kleine verschillen, hele kleine aanpassingen,
93
00:06:32,000 --> 00:06:39,000
kunnen dus een heel groot effect hebben op de uitkomst van de redenering.
94
00:06:39,000 --> 00:06:43,000
Ja en ik denk dat daar ook wel het belang zit van goede benchmarks.
95
00:06:43,000 --> 00:06:47,000
Dat als je de vraag zo stelt, dan gaan mensen zich toewerken naar die benchmark.
96
00:06:47,000 --> 00:06:50,000
Dus dan gaan ook de antwoorden en het modellen getraind worden richting de benchmark.
97
00:06:50,000 --> 00:06:54,000
Dus lijkt me ook logisch dat dat in termijnen ook verandert die benchmark.
98
00:06:54,000 --> 00:06:59,000
Precies, dus er zijn eigenlijk twee redenen waarom ik denk dat GPT-5 er voorlopig niet gaat komen.
99
00:06:59,000 --> 00:07:02,000
Een is technisch, zo weet ik dan zo direct nog wat verderop.
100
00:07:02,000 --> 00:07:05,000
Maar een is ook zakelijk.
101
00:07:05,000 --> 00:07:07,000
En ik denk dat dat nog het belangrijkste is.
102
00:07:07,000 --> 00:07:14,000
Want als we een stapje terug nemen en het vanuit een zakelijke blik bekijken,
103
00:07:14,000 --> 00:07:18,000
dan zitten natuurlijk enorme investeringen in het trainen,
104
00:07:18,000 --> 00:07:23,000
het onderhouden en het aanbieden van de huidige modellen.
105
00:07:23,000 --> 00:07:26,000
Dat is echt gigantisch.
106
00:07:26,000 --> 00:07:32,000
Het is niet voor niks dat OpenAI werkt samen met Microsoft,
107
00:07:32,000 --> 00:07:37,000
en Tropic werkt met Amazon en Google die heeft dan zijn eigen cloud.
108
00:07:37,000 --> 00:07:40,000
Dus er zitten miljarden investeringen in.
109
00:07:40,000 --> 00:07:46,000
En als je nog iets verder kijkt, ze gaan ervan uit dat dit jaar 2024
110
00:07:46,000 --> 00:07:51,000
OpenAI een verlies gaat leiden van 5 miljard dollar.
111
00:07:51,000 --> 00:07:54,000
Dat moet natuurlijk ergens terugverdiend worden.
112
00:07:54,000 --> 00:07:59,000
En dat zit niet in de consumentenabonnementen.
113
00:07:59,000 --> 00:08:02,000
Daar halen ze nu best wel een flinke omzet op.
114
00:08:02,000 --> 00:08:06,000
Maar daar ga je natuurlijk niet dit soort bedragen mee verdienen.
115
00:08:06,000 --> 00:08:10,000
Dus het zit, ze moeten het gaan verdienen in de zakelijke markt.
116
00:08:10,000 --> 00:08:18,000
Daarom hebben ze ook die samenwerking met de grote vendors.
117
00:08:18,000 --> 00:08:23,000
Want uiteindelijk is dat eigenlijk je toegangspoort tot de zakelijke markt.
118
00:08:26,000 --> 00:08:31,000
De trainer onderhouden infrastructuur super duur.
119
00:08:31,000 --> 00:08:33,000
Moet terugverdiend worden.
120
00:08:33,000 --> 00:08:39,000
Dus een van de dingen die je ziet is dat ze juist bezig zijn om te kijken van
121
00:08:39,000 --> 00:08:45,000
hoe kan je dus de huidige modellen uitnutten om daar meer geld uit te krijgen.
122
00:08:45,000 --> 00:08:47,000
Dat is natuurlijk ook logisch.
123
00:08:47,000 --> 00:08:53,000
Dus ze komen wel met minimale varianten en updates.
124
00:08:53,000 --> 00:08:57,000
Zodat ze weer meer up-to-date content hebben.
125
00:08:57,000 --> 00:09:02,000
Maar dat is dus niet de GEPTU 5.
126
00:09:02,000 --> 00:09:04,000
Nee, en ik denk dat het ook niet erg is.
127
00:09:04,000 --> 00:09:07,000
Want zo kunnen we er ook aan wennen en de verandering ook mee kunnen gaan maken.
128
00:09:07,000 --> 00:09:10,000
Want anders heb je iedere keer een hele sprong die je moet maken.
129
00:09:10,000 --> 00:09:14,000
En ik ben altijd van de iteratieve, continue groei van ontwikkeling.
130
00:09:14,000 --> 00:09:18,000
Ik denk dat het eigenlijk nodig is voor de maatschappij om die kleine stapjes mee te groeien.
131
00:09:18,000 --> 00:09:21,000
In plaats van elke keer een hele wissel te moeten maken.
132
00:09:21,000 --> 00:09:24,000
Dat is denk ik een heel belangrijk punt.
133
00:09:24,000 --> 00:09:27,000
Want je ziet natuurlijk dat de adoptie van de generatieve AI,
134
00:09:27,000 --> 00:09:33,000
ik denk dat bijna ieder bedrijf wil gaan experimenteren of experimenteert.
135
00:09:33,000 --> 00:09:36,000
Maar als je natuurlijk heel puur kijkt,
136
00:09:36,000 --> 00:09:40,000
is de adoptie in bedrijfskritische processen nog heel erg laag.
137
00:09:40,000 --> 00:09:45,000
Er is nog een hele wereld en markt te winnen met de huidige modellen.
138
00:09:45,000 --> 00:09:50,000
Er zijn nog heel veel use cases die in te vullen zijn met de huidige stap.
139
00:09:50,000 --> 00:09:58,000
Het is als het ware dat je eigenlijk al hoopt op een soort van supercar.
140
00:09:58,000 --> 00:10:02,000
Terwijl je je rijbewijs nog niet gehaald hebt.
141
00:10:02,000 --> 00:10:06,000
Dus er staat een Honda Civic, Toyota Prius voor je klaar.
142
00:10:06,000 --> 00:10:08,000
Maar je kan daar eigenlijk nog niet in rijden.
143
00:10:08,000 --> 00:10:10,000
Dus je bent nog bezig met je rijlessen.
144
00:10:10,000 --> 00:10:19,000
En je droomt eigenlijk over een auto waar je helemaal nog niks mee kan.
145
00:10:19,000 --> 00:10:21,000
En ik denk nog wel even daarop aan te vullen,
146
00:10:21,000 --> 00:10:26,000
is denk ik ook ga je voor die simpele auto die nu voor je klaar staat,
147
00:10:26,000 --> 00:10:30,000
of ga je toch wachten qua investering in de organisatie,
148
00:10:30,000 --> 00:10:34,000
het kennis opdoen als de Ferrari dadelijk ook voor je klaar staat.
149
00:10:34,000 --> 00:10:36,000
Ga je die tussenstap al investeren?
150
00:10:36,000 --> 00:10:41,000
Ik denk dat dat ook iets is wat bij organisaties een bepaalde drempel kan zijn.
151
00:10:41,000 --> 00:10:44,000
Van hé, maar er komt dadelijk echt een auto voor dezelfde prijs, die veel meer kan.
152
00:10:44,000 --> 00:10:47,000
Waarom ga ik nu instappen en niet wat later?
153
00:10:47,000 --> 00:10:49,000
Daarvoor twee dingen.
154
00:10:49,000 --> 00:10:53,000
Want het is handig om alvast dat rijbewijs te halen.
155
00:10:53,000 --> 00:10:57,000
Want dan ben je flexibel in wanneer je wil instappen.
156
00:10:57,000 --> 00:11:01,000
En dat goedkoper worden, dat is maar de vraag.
157
00:11:01,000 --> 00:11:08,000
Kijk, een van de dingen die ze aan het uitnutten zijn op de huidige modellen,
158
00:11:08,000 --> 00:11:12,000
pak ik toch even weer die O-One Preview als voorbeeld.
159
00:11:12,000 --> 00:11:18,000
Die is door OpenAI als een soort van heel nieuw model gelanceerd.
160
00:11:18,000 --> 00:11:22,000
Er is prachtige marketing omheen, strawberry werd die ook genoemd.
161
00:11:22,000 --> 00:11:27,000
Mensen op social media gingen helemaal los van, kijk eens wat die allemaal kan.
162
00:11:27,000 --> 00:11:33,000
Maar dat was een getraind laagje boven op het bestaande GPT-4 model.
163
00:11:33,000 --> 00:11:37,000
En dat is wat zij hadden gedaan, chain of thought prompting.
164
00:11:37,000 --> 00:11:41,000
Wat je normaal gesproken zelf zou moeten doen, is voor jou geautomatiseerd.
165
00:11:41,000 --> 00:11:45,000
Dus dat betekent dat die dat voor jou uitvoert.
166
00:11:45,000 --> 00:11:50,000
Maar wel tegen honderd keer de kosten van GPT-4-O.
167
00:11:50,000 --> 00:11:54,000
Superslim natuurlijk, want je denkt, hey, nieuwer, beter.
168
00:11:54,000 --> 00:11:56,000
Ik stap daar in.
169
00:11:56,000 --> 00:12:01,000
Honderd keer duurder dan 4-O.
170
00:12:01,000 --> 00:12:05,000
Die als je die gewoon goed zelf met chain of thought prompt,
171
00:12:05,000 --> 00:12:10,000
dezelfde resultaten kan halen als die O-One Preview.
172
00:12:10,000 --> 00:12:12,000
Het wordt alleen wel heel veel makkelijker gemaakt.
173
00:12:12,000 --> 00:12:16,000
Het wordt wat makkelijker gemaakt, maar hetzelfde model, meer uitnutten.
174
00:12:16,000 --> 00:12:18,000
Dus je snapt wat er gebeurt.
175
00:12:18,000 --> 00:12:24,000
Dus ik geloof namelijk dat een search GPT, die ze al maanden geleden hebben aangekondigd,
176
00:12:24,000 --> 00:12:31,000
dat we die eerder krijgen dan GPT-5.
177
00:12:31,000 --> 00:12:37,000
Dat denk ik ook ja, want dat is de iteratieve improvements op het uitnutten van de huidige modellen
178
00:12:37,000 --> 00:12:39,000
en de functionaliteiten daarop uitbreiden.
179
00:12:39,000 --> 00:12:42,000
En daar kunnen ze, daar ligt een markt open.
180
00:12:42,000 --> 00:12:47,000
Geen idee hoe ze die gaan openbreken, van een advertentiemarkt van Google,
181
00:12:47,000 --> 00:12:51,000
die ze kunnen aanvallen op basis van de huidige modellen,
182
00:12:51,000 --> 00:12:54,000
maar toegespitst op een andere use case.
183
00:12:54,000 --> 00:13:00,000
En daar hebben ze geen andere, weet je, onderliggend hebben ze geen andere architectuur nodig.
184
00:13:00,000 --> 00:13:03,000
Hebben ze misschien zelfs geen andere data nodig.
185
00:13:03,000 --> 00:13:05,000
Waarschijnlijk is daar iets extra's nodig.
186
00:13:05,000 --> 00:13:07,000
Qua service.
187
00:13:07,000 --> 00:13:11,000
Vooral de actualiteit van de data, daar zit je natuurlijk mee.
188
00:13:11,000 --> 00:13:15,000
Maar ze maken steeds meer stappen in hoe je RAC systems maakt.
189
00:13:15,000 --> 00:13:20,000
Dat is dat je eigen content koppelt aan die taalmodellen.
190
00:13:20,000 --> 00:13:25,000
Dus als je dat hebt voor je eigen omgeving, in je eigen organisatie,
191
00:13:25,000 --> 00:13:29,000
waarom zouden zij dat niet met hun eigen middelen kunnen koppelen?
192
00:13:29,000 --> 00:13:33,000
Aan search engines of zoekresultaten die er zijn.
193
00:13:33,000 --> 00:13:39,000
Precies. Dus het uitnutten van huidige modellen.
194
00:13:39,000 --> 00:13:44,000
Wat je ook ziet is dat er steeds meer features rondom,
195
00:13:44,000 --> 00:13:47,000
ik noem het toch even het consumentengedeelte.
196
00:13:47,000 --> 00:13:52,000
Dus waar jij je abonnement afneemt, ChatGPT, Claude.AI,
197
00:13:52,000 --> 00:13:55,000
komen met nieuwe functionaliteiten.
198
00:13:55,000 --> 00:13:59,000
OpenAI is met het Canvas gekomen.
199
00:13:59,000 --> 00:14:03,000
Dus als jij een artikel aan het schrijven bent,
200
00:14:03,000 --> 00:14:06,000
krijg je hem rechts, krijg je hem daarnaast,
201
00:14:06,000 --> 00:14:08,000
bij waar je een type bent.
202
00:14:08,000 --> 00:14:11,000
En dan kan je op stukjes, net als in Word,
203
00:14:11,000 --> 00:14:14,000
dat je comments geeft op wat iemand anders geschreven heeft.
204
00:14:14,000 --> 00:14:17,000
Kun je nu comments geven aan het taalmodel.
205
00:14:17,000 --> 00:14:19,000
En dan gaat hij dat aanpassen.
206
00:14:19,000 --> 00:14:23,000
Dat zijn natuurlijk gewoon user experience verbeteringen
207
00:14:23,000 --> 00:14:25,000
op het bestaande model.
208
00:14:25,000 --> 00:14:28,000
Ik wil niet zeggen dat dat niet hele goede verbeteringen zijn.
209
00:14:28,000 --> 00:14:31,000
Maar dat zijn ze hartstikke mooi en handig.
210
00:14:31,000 --> 00:14:35,000
En dat gaan we de aankomende periode veel meer zien.
211
00:14:35,000 --> 00:14:41,000
Ik weet niet of je de demos gezien hebt van Claude Computer Use.
212
00:14:41,000 --> 00:14:47,000
Ja, zeker weten. Daar schrok ik wel even van.
213
00:14:47,000 --> 00:14:49,000
Kan je even uitleggen wat het is?
214
00:14:49,000 --> 00:14:52,000
Wat het gaat bieden qua functionaliteit,
215
00:14:52,000 --> 00:14:56,000
is dat je eigenlijk je scherm, alles wat er op je scherm staat,
216
00:14:56,000 --> 00:14:58,000
input zijn wat je mee kan nemen.
217
00:14:58,000 --> 00:15:00,000
Dus je hebt een bepaalde taak die je wil verrichten.
218
00:15:00,000 --> 00:15:04,000
Je wil bijvoorbeeld in Excel een bepaalde pivot tabel gaan maken.
219
00:15:04,000 --> 00:15:06,000
Je weet nog niet precies hoe je dat moet doen.
220
00:15:06,000 --> 00:15:08,000
Dan kan je natuurlijk andere copilots voor gebruiken.
221
00:15:08,000 --> 00:15:10,000
Maar je kan daar ook Claude gebruiken.
222
00:15:10,000 --> 00:15:13,000
Dan geef je toestemming om mee te kijken op je scherm.
223
00:15:13,000 --> 00:15:16,000
En dan worden de acties op je scherm uitgevoerd.
224
00:15:16,000 --> 00:15:19,000
Dus een beetje RPA.
225
00:15:19,000 --> 00:15:22,000
De afkomst staat voor Robotic Process Automation.
226
00:15:22,000 --> 00:15:24,000
Ja, Robotic Process Automation.
227
00:15:24,000 --> 00:15:28,000
Dat betekent dat je op je scherm bepaalde activiteiten kan automatiseren.
228
00:15:28,000 --> 00:15:30,000
En dat zijn dus ook stappen die je met Computer Use kan gaan doen.
229
00:15:30,000 --> 00:15:35,000
Je kan bepaalde acties met behulp van een prompt automatiseren
230
00:15:35,000 --> 00:15:37,000
en geautomatiseerd uit laten voeren.
231
00:15:37,000 --> 00:15:42,000
Eén van de demos die ik zag, is dat ze met een prompt iets lieten opzoeken
232
00:15:42,000 --> 00:15:48,000
in een Excel sheet, wat nodig was om een ander formulier
233
00:15:48,000 --> 00:15:50,000
daar de invulling voor te geven.
234
00:15:50,000 --> 00:15:52,000
Ze zeiden zoek even de gegevens van deze klant,
235
00:15:52,000 --> 00:15:57,000
want die moeten op een andere website worden ingevuld.
236
00:15:57,000 --> 00:16:04,000
En hij kon uitzoeken welke elementen uit het formulier nodig waren,
237
00:16:04,000 --> 00:16:06,000
waar die in de Excel zaten.
238
00:16:06,000 --> 00:16:08,000
Dus hij kon die ook gaan scrollen.
239
00:16:08,000 --> 00:16:15,000
Wat ze het taalmodel hebben geleerd, is om het scherm af te lezen,
240
00:16:15,000 --> 00:16:18,000
maar dus ook te scrollen en te klikken.
241
00:16:18,000 --> 00:16:22,000
Het is nog heel experimenteel, dat zeggen ze ook.
242
00:16:22,000 --> 00:16:25,000
Eigenlijk zeggen ze 'don't use this at home'.
243
00:16:25,000 --> 00:16:28,000
Ze doen het ook in een veilige omgeving.
244
00:16:28,000 --> 00:16:31,000
Maar ze hebben het al beschikbaar gesteld om ervoor te zorgen
245
00:16:31,000 --> 00:16:35,000
dat ze heel vroegtijdig feedback willen, om het ook zo veilig mogelijk te maken.
246
00:16:35,000 --> 00:16:37,000
Maar dat is inderdaad een volgende stap.
247
00:16:37,000 --> 00:16:41,000
Wat je ziet, is dat daar zitten eigenlijk dezelfde modellen onder.
248
00:16:41,000 --> 00:16:43,000
Ze hebben dat weer helemaal uitgeprompt.
249
00:16:43,000 --> 00:16:46,000
Alleen meer toegang gegeven.
250
00:16:46,000 --> 00:16:51,000
Functionaliteiten gestapeld en handige toepassingen gemaakt.
251
00:16:51,000 --> 00:16:55,000
Eigenlijk vermarkt naar een onderdeel van een product.
252
00:16:55,000 --> 00:16:56,000
Precies.
253
00:16:56,000 --> 00:16:58,000
En dat is natuurlijk ook logisch.
254
00:16:58,000 --> 00:17:01,000
Dus dat al die investeringen die je nu gedaan hebt,
255
00:17:01,000 --> 00:17:04,000
dat je die op een andere manier eigenlijk uitnut.
256
00:17:04,000 --> 00:17:10,000
Dus ik verwacht dat we het aankomende jaar vooral dit soort toevoegingen gaan krijgen.
257
00:17:10,000 --> 00:17:12,000
Echt waanzinnige toevoegingen.
258
00:17:12,000 --> 00:17:16,000
Maar onderliggend nog steeds dezelfde modellen.
259
00:17:16,000 --> 00:17:17,000
Dus het voelt als nieuw.
260
00:17:17,000 --> 00:17:19,000
Voelt als nieuw.
261
00:17:19,000 --> 00:17:21,000
Technologisch is dat het niet.
262
00:17:21,000 --> 00:17:24,000
We kwamen al op die technologische beperking.
263
00:17:24,000 --> 00:17:28,000
Het is dus het onderzoek van Apple.
264
00:17:28,000 --> 00:17:33,000
Mogelijk heb je een nieuwe architectuur nodig.
265
00:17:33,000 --> 00:17:38,000
En ik denk dat dat ook de doorbraak zou moeten worden voor echt een GPT-5.
266
00:17:38,000 --> 00:17:43,000
Dus zij hadden bijvoorbeeld als een van de adviezen is,
267
00:17:43,000 --> 00:17:46,000
misschien moeten we gaan kijken naar hybride modellen.
268
00:17:46,000 --> 00:17:51,000
Die ook wat ze dan noemen symbolic reasoning integreren.
269
00:17:51,000 --> 00:17:55,000
En dat zit eigenlijk veel meer in,
270
00:17:55,000 --> 00:17:58,000
ga je naar, dat is een veel oudere techniek,
271
00:17:58,000 --> 00:18:03,000
waarbij je toch wel regels meegeeft aan een model.
272
00:18:03,000 --> 00:18:05,000
Die zegt van hier moet je je aan houden.
273
00:18:05,000 --> 00:18:10,000
En als jij regels gaat combineren met de vrijheid van taalmodellen,
274
00:18:10,000 --> 00:18:15,000
dan verwachten zij dat je meer doorbraken gaat krijgen,
275
00:18:15,000 --> 00:18:18,000
zodat je een GPT 5 zou kunnen krijgen.
276
00:18:18,000 --> 00:18:25,000
Je zou kunnen zeggen, pas als je generatieve AI in gaat zetten,
277
00:18:25,000 --> 00:18:29,000
bijvoorbeeld voor een hypotheek aanvraag, in dat hele proces,
278
00:18:29,000 --> 00:18:32,000
kan je regels gaan introduceren,
279
00:18:32,000 --> 00:18:35,000
die zegt van ja, maar als iets boven een bepaald bedrag is,
280
00:18:35,000 --> 00:18:40,000
ga je anders reageren, ga je anders om met het taalmodel,
281
00:18:40,000 --> 00:18:43,000
dan als je onder dat bedrag zit.
282
00:18:43,000 --> 00:18:50,000
Dus je gaat zeg maar domeinkennis, ga je inbrengen in het taalmodel,
283
00:18:50,000 --> 00:18:53,000
waarbij je instructies als het ware geeft,
284
00:18:53,000 --> 00:18:56,000
hoe die uiteindelijk moet gaan reageren.
285
00:18:56,000 --> 00:18:58,000
Dus je gaat regelgebaseerd,
286
00:18:58,000 --> 00:19:01,000
ga je combineren met de vrijheid van taalmodellen.
287
00:19:01,000 --> 00:19:05,000
En hoe dan, en hoe dat dan precies, in welke verhouding,
288
00:19:05,000 --> 00:19:09,000
en hoe ga je dan zeg maar generiek dingen leren.
289
00:19:09,000 --> 00:19:12,000
En specifiek uitvoeren.
290
00:19:12,000 --> 00:19:15,000
En specifiek uitvoeren, dat weten ze nog niet,
291
00:19:15,000 --> 00:19:18,000
daarom zeggen ze ook van, dat moet allemaal onderzocht worden,
292
00:19:18,000 --> 00:19:21,000
maar we verwachten daar eigenlijk, dat die stap nodig is.
293
00:19:21,000 --> 00:19:27,000
Eigenlijk zeggen ze, we verwachten dat er een ander type model nodig is,
294
00:19:27,000 --> 00:19:31,000
een ander type architectuur die daaronder zit,
295
00:19:31,000 --> 00:19:33,000
van hoe je zo'n taalmodel traint,
296
00:19:33,000 --> 00:19:37,000
die nodig is voor zo'n volgende stap,
297
00:19:37,000 --> 00:19:45,000
dat die beter is in redeneren, in ons begrijpen, in taken uitvoeren.
298
00:19:45,000 --> 00:19:47,000
Ja, twee vragen voor Joop.
299
00:19:47,000 --> 00:19:50,000
Nu je dit zo zegt, je noemt telkens zij,
300
00:19:50,000 --> 00:19:52,000
wie is zij in deze context?
301
00:19:52,000 --> 00:19:55,000
Dit is dan Apple, de Apple researchers,
302
00:19:55,000 --> 00:19:59,000
het zijn wetenschappers, het is niet Tim Cook ofzo die dit zegt,
303
00:19:59,000 --> 00:20:02,000
het zijn de researchers die vooral gekeken hebben,
304
00:20:02,000 --> 00:20:05,000
die keken van, hoe goed is hij nou in redeneren?
305
00:20:05,000 --> 00:20:08,000
Redeneert hij nou echt, of is het patroonherkenning,
306
00:20:08,000 --> 00:20:14,000
en is het een soort van oplepelen van een hele groot geheugen wat je hebt,
307
00:20:14,000 --> 00:20:17,000
en daar de juiste dingen uit pakken.
308
00:20:17,000 --> 00:20:21,000
En daarvan hebben ze echt wel, zij hebben aangetoond,
309
00:20:21,000 --> 00:20:23,000
maar er zijn soms ook papers die zeggen van,
310
00:20:23,000 --> 00:20:25,000
ja maar die reasoning bestaat wel,
311
00:20:25,000 --> 00:20:29,000
het is een beetje lastig welk paper je leest,
312
00:20:29,000 --> 00:20:32,000
maar waar ik wel in geloof is dat dan,
313
00:20:32,000 --> 00:20:35,000
voor een echte grote nieuwe stap,
314
00:20:35,000 --> 00:20:42,000
hebben we dus ook een andere vorm van onderliggende techniek nodig,
315
00:20:42,000 --> 00:20:45,000
om die grote volgende stap te maken.
316
00:20:45,000 --> 00:20:47,000
En voor mij dan even, als ik dat zo hoor,
317
00:20:47,000 --> 00:20:51,000
is die volgende stap, is dat op grote schaal kunnen uitvoeren,
318
00:20:51,000 --> 00:20:55,000
want eigenlijk wat je zegt, het geven van de kaders en sturing,
319
00:20:55,000 --> 00:20:57,000
en meer de regels om het taalmodel heen,
320
00:20:57,000 --> 00:21:00,000
is wat je nu vaak ziet in custom implementaties,
321
00:21:00,000 --> 00:21:02,000
die we ook voor organisaties ontwikkelen,
322
00:21:02,000 --> 00:21:05,000
waardoor we het kaderen, het volledig testen van de omgeving,
323
00:21:05,000 --> 00:21:06,000
zorgen dat het goed werkt,
324
00:21:06,000 --> 00:21:10,000
maar dat eigenlijk op grote schaal, automagisch, met het model kunnen doen.
325
00:21:10,000 --> 00:21:12,000
Daar hebben we het over.
326
00:21:12,000 --> 00:21:16,000
Die sturing bouwen we natuurlijk nu custom,
327
00:21:16,000 --> 00:21:19,000
om voor organisaties dingen te automatiseren.
328
00:21:19,000 --> 00:21:22,000
En de taalmodellen waar we het hier over hebben,
329
00:21:22,000 --> 00:21:25,000
die heette niet voor niks large language models,
330
00:21:25,000 --> 00:21:29,000
zijn dus groot en zijn dus bedoeld om generiek in te zetten.
331
00:21:29,000 --> 00:21:33,000
Dus ze kunnen eigenlijk alles redelijk.
332
00:21:33,000 --> 00:21:35,000
Ja, heel generiek.
333
00:21:35,000 --> 00:21:40,000
Dus je probeert een soort van wereldbeeld in zo'n model te stoppen.
334
00:21:40,000 --> 00:21:44,000
En wil je dit dus heel generiek kunnen doen,
335
00:21:44,000 --> 00:21:51,000
moet je dus op een andere manier kunnen leren, erbij kunnen leren.
336
00:21:51,000 --> 00:21:53,000
Dus je moet ook een soort van regels erbij kunnen leren.
337
00:21:53,000 --> 00:21:55,000
En dat is wat anders inderdaad dan,
338
00:21:55,000 --> 00:21:58,000
kijk, als je een hele specifieke use case hebt,
339
00:21:58,000 --> 00:22:00,000
kan je dat nu ingeven.
340
00:22:00,000 --> 00:22:03,000
En ik denk dat dat namelijk ook heel krachtig is,
341
00:22:03,000 --> 00:22:10,000
want dan kom je namelijk op de techniek uit van small language models.
342
00:22:10,000 --> 00:22:14,000
Namelijk, specifiek voor het doel wat je wil bereiken,
343
00:22:14,000 --> 00:22:19,000
ga je het tailoren en efficiënt, kostenefficiënt, eco-efficiënt creëren.
344
00:22:19,000 --> 00:22:24,000
En daar is nog zo ontzettend veel winst te halen,
345
00:22:24,000 --> 00:22:28,000
dat je gaat zien dat daar veel meer op ingezet gaat worden.
346
00:22:28,000 --> 00:22:31,000
Dus die Search GPT zou je kunnen zeggen,
347
00:22:31,000 --> 00:22:35,000
ik weet niet of dat een small language model is,
348
00:22:35,000 --> 00:22:38,000
maar het is in ieder geval een toegespitste variant,
349
00:22:38,000 --> 00:22:41,000
die een hele specifieke taak kent,
350
00:22:41,000 --> 00:22:47,000
waardoor je andere gegevens, data niet meer nodig hebt uit zo'n taalmodel.
351
00:22:47,000 --> 00:22:51,000
Dan kan je een taalmodel kleiner maken, gerichter maken.
352
00:22:51,000 --> 00:22:53,000
Je maakt eigenlijk experts.
353
00:22:53,000 --> 00:22:57,000
Dus het large language model is iemand,
354
00:22:57,000 --> 00:23:03,000
niet iemand, is iets wat heel generiek te gebruiken is.
355
00:23:03,000 --> 00:23:07,000
Dus de volgende stap zal eerder zijn,
356
00:23:07,000 --> 00:23:11,000
hoe kan je van, we hebben nou zo'n generiek model,
357
00:23:11,000 --> 00:23:15,000
op welke plekken kan je er nou kleinere modellen van maken,
358
00:23:15,000 --> 00:23:20,000
small language models, die heel gerichte taken kunnen uitvoeren.
359
00:23:20,000 --> 00:23:24,000
En die gaan we heel veel zien in het aankomende jaar.
360
00:23:24,000 --> 00:23:30,000
Want daar is natuurlijk voor hun ook veel geld in te verdienen.
361
00:23:30,000 --> 00:23:37,000
En wat je daar ziet, jij gaf het eigenlijk al aan,
362
00:23:37,000 --> 00:23:43,000
het is niet alleen dat je daar je domeinkennis veel beter in kan stoppen,
363
00:23:43,000 --> 00:23:49,000
waarbij je dat zelf kan trainen, want je kan zelf een deel van zo'n model fine-tunen.
364
00:23:49,000 --> 00:23:52,000
Er zijn allerlei technieken hoe je aan zo'n model kan komen.
365
00:23:52,000 --> 00:23:56,000
Maar belangrijk is dat hij inderdaad zuiniger, goedkoper.
366
00:23:56,000 --> 00:24:03,000
Dus een GPT-4O mini is eigenlijk een kleinere variant van het grote broertje.
367
00:24:03,000 --> 00:24:07,000
Dus Claude heeft zo direct drie varianten.
368
00:24:07,000 --> 00:24:13,000
Je hebt de Opus, dat is de allergrootste, beste variant.
369
00:24:13,000 --> 00:24:16,000
Je hebt dan Sonnet en je hebt de Haiku.
370
00:24:16,000 --> 00:24:21,000
Zij doen dit in termen van literatuur.
371
00:24:21,000 --> 00:24:26,000
En de Haiku is gewoon eigenlijk een verkleinde variant van de Opus,
372
00:24:26,000 --> 00:24:35,000
die dus goedkoper is, ecologisch, minder uitstoot, dat soort zaken.
373
00:24:35,000 --> 00:24:40,000
Dus een hele grote kans dat als jij een small language model vandaag de dag nodig hebt,
374
00:24:40,000 --> 00:24:44,000
dat als je een Hugging Face gaat, dat die al voor jou beschikbaar is,
375
00:24:44,000 --> 00:24:46,000
zelfs in de open-source variant.
376
00:24:46,000 --> 00:24:49,000
Die je zelf kan draaien op eigen hardware,
377
00:24:49,000 --> 00:24:52,000
waarbij je zelf het in de handen hebt.
378
00:24:52,000 --> 00:24:58,000
Zowel de versionering, als hoe lang je erover mag doen,
379
00:24:58,000 --> 00:25:01,000
hoeveel krachtige hardware je er wel of niet onderzet.
380
00:25:01,000 --> 00:25:05,000
En je kan je CO2 gewoon uitrekenen die je zelf uitstoot.
381
00:25:05,000 --> 00:25:08,000
Je bent dus ook onafhankelijker daarmee.
382
00:25:08,000 --> 00:25:09,000
Precies.
383
00:25:09,000 --> 00:25:12,000
En in controle van wanneer de veranderingen gaan komen.
384
00:25:12,000 --> 00:25:16,000
Dat is belangrijk voor toepassen in organisaties.
385
00:25:16,000 --> 00:25:22,000
Dat je dus zelf kan plannen wanneer je bepaalde activiteiten wil gaan uitvoeren
386
00:25:22,000 --> 00:25:24,000
en wijzigingen wil gaan doorvoeren.
387
00:25:24,000 --> 00:25:25,000
Precies.
388
00:25:25,000 --> 00:25:30,000
En ik denk dat die noodzaak straks ook veel meer gevoeld gaat worden.
389
00:25:30,000 --> 00:25:37,000
Want hoe meer je uiteindelijk generatieve AI gaat inzetten in bedrijfskritische onderdelen,
390
00:25:37,000 --> 00:25:40,000
dat je echt je processen ondersteunt hebt,
391
00:25:40,000 --> 00:25:47,000
dan wil je niet zomaar hebben dat een model onder je vandaan verandert.
392
00:25:47,000 --> 00:25:50,000
Dat hij iets anders doet dan dat je verwacht.
393
00:25:50,000 --> 00:25:54,000
Want bij ieder nieuwe update van een model is het niet
394
00:25:54,000 --> 00:25:57,000
hij kan hetzelfde alleen meer en beter.
395
00:25:57,000 --> 00:25:59,000
Het is een ander model.
396
00:25:59,000 --> 00:26:02,000
Je schuift als het ware een nieuwe medewerker erin,
397
00:26:02,000 --> 00:26:06,000
waarbij je maar mag hopen dat hij hetzelfde kan,
398
00:26:06,000 --> 00:26:11,000
hetzelfde reageert en hetzelfde output uiteindelijk levert.
399
00:26:11,000 --> 00:26:16,000
Ja, je wil niet zonder dat je het weet dat hetgeen wat een uur geleden nog werkte,
400
00:26:16,000 --> 00:26:19,000
nu niet meer werkte omdat er iets in de omgeving veranderd is.
401
00:26:19,000 --> 00:26:23,000
En we gaan ook geen code naar productie brengen die we niet testen.
402
00:26:23,000 --> 00:26:27,000
Dus ook hier zal je daar een bepaalde materie oplossen moeten laten
403
00:26:27,000 --> 00:26:29,000
om het goed te kunnen testen en in controle te zijn.
404
00:26:29,000 --> 00:26:30,000
Precies.
405
00:26:30,000 --> 00:26:32,000
Vooral als je bedrijfskritische processen er mee gaat raken,
406
00:26:32,000 --> 00:26:35,000
dan ga je niet zomaar even een afhankelijkheid inbouwen op deze schaal.
407
00:26:35,000 --> 00:26:41,000
Ja, en daar gaan die small language models je dan behelpen,
408
00:26:41,000 --> 00:26:43,000
juist omdat je die zelf kan hosten.
409
00:26:43,000 --> 00:26:46,000
Maar denk ook aan privacy.
410
00:26:46,000 --> 00:26:56,000
Dus als je een language model als een expert in een medisch gebied wilt,
411
00:26:56,000 --> 00:26:59,000
of op juridisch gebied,
412
00:26:59,000 --> 00:27:03,000
dan wil je het zo veilig maken dat je zegt van
413
00:27:03,000 --> 00:27:06,000
"Laten we dat dan zelf gaan hosten, er gaat geen data naar buiten,
414
00:27:06,000 --> 00:27:09,000
kunnen we wel de kracht gebruiken van die modellen,
415
00:27:09,000 --> 00:27:11,000
we kunnen ze zelfs slimmer maken,
416
00:27:11,000 --> 00:27:17,000
want ze hebben kennis, domeinkennis van onze organisatie
417
00:27:17,000 --> 00:27:19,000
en we hebben z'n eigen beheer.
418
00:27:19,000 --> 00:27:23,000
We kunnen zelf bepalen of we gaan upgraden ja of nee.
419
00:27:23,000 --> 00:27:26,000
En als iets werkt, wil je het ook werkend houden.
420
00:27:26,000 --> 00:27:29,000
Ja, dat betekent natuurlijk ook een extra complexiteit,
421
00:27:29,000 --> 00:27:32,000
want dat betekent dat je moet weten welke modellen zijn er,
422
00:27:32,000 --> 00:27:34,000
welke zijn de open source,
423
00:27:34,000 --> 00:27:37,000
wat zijn de krachten van de verschillende modellen,
424
00:27:37,000 --> 00:27:39,000
en dat is natuurlijk niet makkelijk in de huidige markten,
425
00:27:39,000 --> 00:27:41,000
met hoeveel er nu wordt gecreëerd en ontstaat,
426
00:27:41,000 --> 00:27:43,000
is natuurlijk enorm.
427
00:27:43,000 --> 00:27:47,000
Dus dat brengt wel extra complexiteit met zich mee om daarin te duiken.
428
00:27:47,000 --> 00:27:48,000
Precies.
429
00:27:48,000 --> 00:27:52,000
Nou en daarom, dus ik denk dat als je,
430
00:27:52,000 --> 00:27:57,000
dat we langzaam naar in ieder geval mijn conclusie gaan,
431
00:27:57,000 --> 00:28:01,000
van waarom het eigenlijk ook nog helemaal niet logisch is,
432
00:28:01,000 --> 00:28:04,000
waarom GPT 5 nu zou uitkomen.
433
00:28:04,000 --> 00:28:08,000
Dus het heeft zakelijke overwegingen, technische overwegingen,
434
00:28:08,000 --> 00:28:12,000
en er ligt gewoon nog zoveel open,
435
00:28:12,000 --> 00:28:14,000
wat we kunnen doen met de huidige modellen.
436
00:28:14,000 --> 00:28:16,000
We zijn nog, weet je,
437
00:28:16,000 --> 00:28:19,000
we zijn op dit moment beperkt in onze fantasie,
438
00:28:19,000 --> 00:28:22,000
en niet beperkt in de technologie.
439
00:28:22,000 --> 00:28:23,000
Nee.
440
00:28:23,000 --> 00:28:26,000
Dus ja, dat is eigenlijk waarom ik denk,
441
00:28:26,000 --> 00:28:28,000
van voorlopig niet.
442
00:28:28,000 --> 00:28:33,000
Ik zou niet weten, behalve dat ze het op een gegeven moment, zeg maar,
443
00:28:33,000 --> 00:28:36,000
marketing technisch gaan labelen als zodanig.
444
00:28:36,000 --> 00:28:38,000
Maar gezien het feit, zeg maar,
445
00:28:38,000 --> 00:28:41,000
OpenAI had het kunnen doen met O1 Preview.
446
00:28:41,000 --> 00:28:44,000
Maar ik denk dat zij ook bedachten van,
447
00:28:44,000 --> 00:28:48,000
ja, maar als we dat labelen als GPT 5,
448
00:28:48,000 --> 00:28:51,000
Wat moet dan de volgende zijn?
449
00:28:51,000 --> 00:28:54,000
Nee, maar dat dan de markt ook eigenlijk heel gedesillusioneerd zou zijn.
450
00:28:54,000 --> 00:28:57,000
Dat alles wat zij nu, zeg maar, aan stroom kregen van,
451
00:28:57,000 --> 00:29:01,000
oh, moet je eens kijken wat die kan, en hij kan nu veel beter dit.
452
00:29:01,000 --> 00:29:04,000
Een stap te klein voelde voor wat ze...
453
00:29:04,000 --> 00:29:09,000
Voor wat iedereen in zijn hoofd heeft, wat GPT 5 zou moeten zijn.
454
00:29:09,000 --> 00:29:14,000
Ze hebben daarmee ook gezegd, ja, we gaan ook naar een andere nummering.
455
00:29:14,000 --> 00:29:19,000
Daarom doen we ook O1, in de zin van, we gaan terug naar nul eigenlijk.
456
00:29:19,000 --> 00:29:25,000
Dus ik vraag me af of we überhaupt, zeg maar, het getalletje 5 gaan zien.
457
00:29:25,000 --> 00:29:30,000
Maar, nou ja, dat is in ieder geval, weet je,
458
00:29:30,000 --> 00:29:34,000
dus zowel zakelijk, maar ook dus het uitnutten van use cases.
459
00:29:34,000 --> 00:29:40,000
Het is op dit moment, denk ik, dat ze zouden denken dat ze underdeliveren,
460
00:29:40,000 --> 00:29:43,000
met wat er in de markt is.
461
00:29:43,000 --> 00:29:48,000
En we hebben het op dit moment eigenlijk ook nog helemaal niet nodig.
462
00:29:48,000 --> 00:29:52,000
Nee, ik denk dat we het wel nodig hebben dat we erover nadenken,
463
00:29:52,000 --> 00:29:55,000
dat we dit soort gesprekken voeren. Want eigenlijk komt daar de fantasie vandaan.
464
00:29:55,000 --> 00:29:58,000
En daarmee komen wel nieuwe creaties, naar mijn mening, los,
465
00:29:58,000 --> 00:30:00,000
over hoe we het in de praktijk zouden kunnen toepassen,
466
00:30:00,000 --> 00:30:02,000
of waar we naartoe zouden willen bewegen.
467
00:30:02,000 --> 00:30:04,000
Dus ik denk dat de discussie hierover heel goed is.
468
00:30:04,000 --> 00:30:08,000
Maar ja, ik ga volledig mee in de punten die je ook noemt,
469
00:30:08,000 --> 00:30:11,000
dat het wel apart zou zijn als die al heel snel zou komen.
470
00:30:11,000 --> 00:30:15,000
Ja, toch? Ik ben benieuwd, want ik ga ervan uit, zeg maar,
471
00:30:15,000 --> 00:30:18,000
dat we nu een aantal luisteraars hebben die zeggen van
472
00:30:18,000 --> 00:30:22,000
"Ja, Joop, jonge, jonge, je zit er echt volledig naast."
473
00:30:22,000 --> 00:30:26,000
Laat het ons weten via de socials, dan zijn we heel erg benieuwd,
474
00:30:26,000 --> 00:30:29,000
zeker naar de argumentatie.
475
00:30:29,000 --> 00:30:36,000
Nou, en ik denk dat het een mooi moment is om ook aan te geven van
476
00:30:36,000 --> 00:30:41,000
dat je uiteindelijk, zeg maar, dingen kan inbrengen,
477
00:30:41,000 --> 00:30:45,000
vragen aan ons zou kunnen stellen die we ook kunnen behandelen
478
00:30:45,000 --> 00:30:48,000
in de podcast. Dus schroom niet.
479
00:30:48,000 --> 00:30:51,000
We zijn heel makkelijk te vinden via LinkedIn.
480
00:30:51,000 --> 00:30:54,000
Stuur ons even een uitnodigingsverzoek.
481
00:30:54,000 --> 00:30:59,000
En laat even weten wat jij vindt. Wanneer gaat GPT5 komen?
482
00:30:59,000 --> 00:31:04,000
En ik ben benieuwd hoe oneens je het met me bent.
483
00:31:10,000 --> 00:31:13,000
Dank je wel weer voor het luisteren naar deze aflevering.
484
00:31:13,000 --> 00:31:16,000
Vergeet je niet te abonneren via je favoriete podcast-app.
485
00:31:16,000 --> 00:31:19,000
En dan mis je geen aflevering. Dank je wel weer.
486
00:31:19,000 --> 00:31:21,000
Tot de volgende keer.
487
00:31:21,000 --> 00:31:23,000
[Muziek]