AIToday Live

S06E19 - Waarom octrooien essentieel zijn voor AI-innovaties

Aigency by Info Support Season 6 Episode 19

In deze aflevering van AIToday Live wordt de invloed van kunstmatige intelligentie (AI) in de life sciences sector onder de loep genomen. Gasten Sara Reekmans en Youri de Groote, beide experts in octrooien met een specialisatie in life sciences en softwaretoepassingen, delen hun unieke perspectieven op hoe AI de brug slaat tussen biomedische wetenschappen en softwaretechnologie.

Ze verkennen de rol van AI in de geneesmiddelenontwikkeling, van pre-diagnostiek tot patiëntenmonitoring, en bespreken de uitdagingen rondom octrooien en ethische vraagstukken. Deze aflevering biedt een diepgaand inzicht in de transformerende kracht van AI in de life sciences.


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,200
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:06,200 --> 00:00:08,720
Met vandaag premier Niels. Ja zeker.

3
00:00:08,720 --> 00:00:11,280
We hebben voor het eerst Belgische gasten in de studio.

4
00:00:11,280 --> 00:00:14,680
Zeker, vanuit België. Heel erg leuk.

5
00:00:14,680 --> 00:00:17,040
Nou mijn naam is Joop Snijder, CTO bij Aigency.

6
00:00:17,040 --> 00:00:19,800
Mijn naam Niels Naglé, Chapter Lead Data & AI bij Info Support.

7
00:00:19,800 --> 00:00:25,720
Ja, Youri, Sara Reekmans en Youri de Groote hebben we in de studio.

8
00:00:25,720 --> 00:00:29,080
Sara zou jij je als eerste willen voorstellen aan onze luisteraars?

9
00:00:29,080 --> 00:00:36,680
Ja zeker. Dus ik ben Sara Reekmans. Ik heb een medische achtergrond.

10
00:00:36,680 --> 00:00:37,280
Ja.

11
00:00:37,280 --> 00:00:41,160
Doctoraat in de biomedische wetenschappen eigenlijk.

12
00:00:41,160 --> 00:00:42,880
Heb gestudeerd aan de Universiteit van Leuven.

13
00:00:42,880 --> 00:00:48,360
En ik ben een vijftiental jaar geleden in het beroep van een octrooigemachtigde gerold.

14
00:00:48,360 --> 00:00:48,680
Ja.

15
00:00:48,680 --> 00:00:51,640
En dus ben nu Europees en Belgisch octrooigemachtigde.

16
00:00:51,640 --> 00:00:53,520
Met een focus op de life science sector.

17
00:00:53,520 --> 00:01:00,600
Dus wij doen alles wat te maken heeft met vaccins, geneesmiddelen, diagnostiek.

18
00:01:00,600 --> 00:01:01,640
Dat soort zaken allemaal.

19
00:01:01,640 --> 00:01:02,880
Mooi, dankjewel.

20
00:01:02,880 --> 00:01:04,760
Youri?

21
00:01:04,760 --> 00:01:08,040
Ja, ik ben Youri de Groote. Ik ben ingenieur van opleiding.

22
00:01:08,040 --> 00:01:11,520
Ik ben dan eigenlijk ook toevallig in het octrooien vak geplant.

23
00:01:11,520 --> 00:01:14,520
Ondertussen ook Europees gemachtigd. Belgisch en Nederlands.

24
00:01:14,520 --> 00:01:19,160
Ik ben vooral gespecialiseerd in elektromechanica en software toepassingen.

25
00:01:19,160 --> 00:01:21,440
Vooral uit de voorliefde voor de software.

26
00:01:21,440 --> 00:01:21,800
Ja.

27
00:01:21,800 --> 00:01:26,480
En dat is ook vandaar dat we eigenlijk ook samenwerken op de twee raakvlakken

28
00:01:26,480 --> 00:01:27,520
dat we momenteel merken.

29
00:01:27,520 --> 00:01:28,880
Een beetje samen te kunnen werken.

30
00:01:28,880 --> 00:01:29,400
Ja.

31
00:01:29,400 --> 00:01:33,120
En we zitten hier in een AI podcast.

32
00:01:33,120 --> 00:01:35,800
Dus ik hoor octrooien, ik hoor techniek.

33
00:01:35,800 --> 00:01:39,320
Wat is eigenlijk de relatie met AI waar we het vandaag over gaan hebben?

34
00:01:39,320 --> 00:01:42,240
Ja, daar kijk ik eigenlijk vooral een beetje naar Youri.

35
00:01:42,240 --> 00:01:43,480
Dus Youri heeft al kort toegelicht.

36
00:01:43,480 --> 00:01:49,720
Dus wij werken eigenlijk op het raakvlak tussen de life sciences en de AI.

37
00:01:49,720 --> 00:01:55,960
Omdat wij vanuit vooral mijn cliënteel eigenlijk gemerkt hebben dat heel veel bedrijven

38
00:01:55,960 --> 00:02:00,360
die in de life science sector bezig zijn, echt wel die move richting AI aan het maken zijn.

39
00:02:00,360 --> 00:02:04,640
Om daar inderdaad nieuwe zaken te gaan ontwikkelen en versnellen en zo.

40
00:02:04,640 --> 00:02:08,480
Maar aangezien ik zelf geen software achtergrond heb,

41
00:02:08,480 --> 00:02:11,160
is het voor mij best wel moeilijk om dat allemaal te begrijpen.

42
00:02:11,160 --> 00:02:16,240
En dan in die context hebben we eigenlijk een samenwerking met ons twee opgezet.

43
00:02:16,240 --> 00:02:19,800
Waarbij dat Youri dus ondersteunt op alle software vragen.

44
00:02:19,800 --> 00:02:25,120
En dat we dus eigenlijk samen die klanten zo goed mogelijk gaan proberen te helpen.

45
00:02:25,120 --> 00:02:29,800
Ja, welke ontwikkelingen zie je op het gebied van AI in de life science?

46
00:02:29,800 --> 00:02:37,320
Ja, ik kan de life science eigenlijk een beetje opsplitsen in vier verschillende gebieden.

47
00:02:37,320 --> 00:02:42,720
In die zin, vier verschillende fases denk ik, met een beetje van een geneesmiddelenontwikkeling.

48
00:02:42,720 --> 00:02:45,200
Natuurlijk zijn er veel meer verschillende fases.

49
00:02:45,200 --> 00:02:49,960
Maar als je de vier grote identificeert, heb je eigenlijk een beetje de pre-diagnostiek.

50
00:02:49,960 --> 00:02:55,960
Waarbij je zegt, oké, we gaan eigenlijk al proberen te voorspellen of iemand ziek gaat worden.

51
00:02:55,960 --> 00:02:57,000
Dus ben je nog niet ziek?

52
00:02:57,000 --> 00:02:59,640
Maar op basis van dat soort zaken.

53
00:02:59,640 --> 00:03:06,440
Wat je daar bijvoorbeeld van ontwikkelingen ziet, is bedrijven die bezig zijn met natuurlijk een hele grote dataset.

54
00:03:06,440 --> 00:03:09,560
Wat je nodig hebt om met jouw producten te kunnen ontwikkelen.

55
00:03:09,560 --> 00:03:19,120
Met hele grote datasets, waarbij je bijvoorbeeld CT-scans van patiënten hebt, die in een niet ziekteomgeving gemaakt zijn.

56
00:03:19,120 --> 00:03:23,120
Dus die patiënten zijn niet ziek, maar hebben wel CT-scans om andere redenen gehad.

57
00:03:23,120 --> 00:03:30,360
Waarbij ze dan eigenlijk dat soort CT-scans gaan vergelijken met CT-scans van gezonde mensen.

58
00:03:30,360 --> 00:03:34,720
En dat eigenlijk die AI erin slaagt om bepaalde zaken te gaan identificeren,

59
00:03:34,720 --> 00:03:39,440
die eigenlijk op latere termijn zouden kunnen leiden tot ziekteontwikkeling.

60
00:03:39,440 --> 00:03:44,880
Dus eigenlijk veel vroeger dan een arts in staat is om te kunnen gaan vaststellen dat iemand ziek gaat worden,

61
00:03:44,880 --> 00:03:47,280
kan je toch al kleine veranderingen zien in zo'n scans.

62
00:03:47,280 --> 00:03:49,280
Maar dan denk ik heel subtiele veranderingen.

63
00:03:49,280 --> 00:03:51,280
Ja, dat zijn heel subtiele veranderingen, absoluut.

64
00:03:51,280 --> 00:03:53,280
En daar is dan die machine goed in.

65
00:03:53,280 --> 00:03:56,280
Wat wij niet kunnen zien, dat die machine dat dan wel kan zien.

66
00:03:56,280 --> 00:03:58,280
Die dingen er inderdaad uithalen.

67
00:03:58,280 --> 00:04:02,280
Dus dat is een van de ontwikkelingen, dat is dan eigenlijk voor je ziek wordt.

68
00:04:02,280 --> 00:04:04,280
Maar je kan dan ook gaan kijken naar het volgende proces.

69
00:04:04,280 --> 00:04:10,280
Op het moment dat je effectief wel ziek wordt, dan moet er natuurlijk vastgesteld worden, wat heb je?

70
00:04:10,280 --> 00:04:12,280
Want je kan je wel slecht voelen, maar wat heb je dan?

71
00:04:12,280 --> 00:04:15,280
Dus dat is dan eigenlijk de diagnostiek zoals wij ze noemen.

72
00:04:15,280 --> 00:04:19,280
Ook daar zien we wel grote ontwikkelingen.

73
00:04:19,280 --> 00:04:21,280
En een beetje hetzelfde context natuurlijk.

74
00:04:21,280 --> 00:04:26,280
Een beetje ook opnieuw die CT-scans, waar dan eigenlijk beelden gemaakt worden.

75
00:04:26,280 --> 00:04:31,280
Waar het voor artsen soms moeilijk is om die beelden te gaan interpreteren, analyseren.

76
00:04:31,280 --> 00:04:33,280
Kan hij dan in heel grote hulp zijn.

77
00:04:33,280 --> 00:04:37,280
Maar niet alleen beeldvorming, maar bijvoorbeeld ook bloedanalyses.

78
00:04:37,280 --> 00:04:43,280
Er zijn ook heel veel data die uit bloedanalyses komen, waar dat informatie uit voortkomt.

79
00:04:43,280 --> 00:04:45,280
Waar dat voorspellingen moeten gedaan worden.

80
00:04:45,280 --> 00:04:48,280
Waar ziektes eigenlijk geïdentificeerd kunnen worden.

81
00:04:48,280 --> 00:04:50,280
Dus eigenlijk de tweede fase.

82
00:04:50,280 --> 00:04:54,280
De derde fase heb je dan de geneesmiddelenontwikkeling zelf.

83
00:04:54,280 --> 00:04:58,280
Dus op het moment dat je ziek wordt, heb je ook een geneesmiddel nodig natuurlijk om het te kunnen gaan genezen.

84
00:04:58,280 --> 00:05:01,280
Daar zien we ook hele grote ontwikkelingen.

85
00:05:01,280 --> 00:05:03,280
Want nu, hoe het vroeger eigenlijk ging,

86
00:05:03,280 --> 00:05:07,280
er werd een hele groep, voor een klassiek geneesmiddel,

87
00:05:07,280 --> 00:05:10,280
een hele grote groep chemische moleculen ontwikkeld.

88
00:05:10,280 --> 00:05:13,280
Die moeten natuurlijk allemaal op de een of andere manier getest worden.

89
00:05:13,280 --> 00:05:15,280
Of die überhaupt iets gaat doen.

90
00:05:15,280 --> 00:05:20,280
Heel vaak was dat vroeger gewoon op celniveau.

91
00:05:20,280 --> 00:05:22,280
Dat er cellen gekwikt werden in een labo,

92
00:05:22,280 --> 00:05:25,280
waar die die moleculen op losgelaten werden om te gaan zien, doet dit iets, doet dit niks.

93
00:05:25,280 --> 00:05:28,280
Maar daar zien we heel grote veranderingen.

94
00:05:28,280 --> 00:05:33,280
Dat AI eigenlijk al kan gaan voorspellen.

95
00:05:33,280 --> 00:05:37,280
Dit gaat het waarschijnlijk niet doen, maar misschien deze type van moleculen gaan het wel doen.

96
00:05:37,280 --> 00:05:42,280
Waardoor je eigenlijk die looptijd van de ontwikkeling van geneesmiddelen enorm gaat verkorten.

97
00:05:42,280 --> 00:05:45,280
En ook enorm gaat versnellen.

98
00:05:45,280 --> 00:05:50,280
Hoe ziet dat eruit, dat de AI dat kan voorspellen?

99
00:05:50,280 --> 00:05:55,280
Heel veel van die firma's hebben een enorme bulk aan gegevens.

100
00:05:55,280 --> 00:06:01,280
Waardoor door de testen uiteindelijk ook wel heel veel waardevol informatie uitgehaald wordt.

101
00:06:01,280 --> 00:06:08,280
En dan is je AI vaak gewoon heel sterk in het clusteren van gegevens en het extraheren van informatie daaruit.

102
00:06:08,280 --> 00:06:11,280
En als je dan ziet, als er een bepaald ziektebeeld is,

103
00:06:11,280 --> 00:06:15,280
en er zijn een paar moleculen voor aan het ontwikkelen om dat ziektebeeld aan te pakken,

104
00:06:15,280 --> 00:06:20,280
dan kan AI eigenlijk al op gegevens die readily available zijn bij die firma's,

105
00:06:20,280 --> 00:06:24,280
eigenlijk al een beetje gaan voorspellen van, kijk, molecule A,

106
00:06:24,280 --> 00:06:28,280
ik verwacht eigenlijk wel dat dat een grotere slaagkans heeft om ziektebeeld B aan te pakken.

107
00:06:28,280 --> 00:06:29,280
Ja, precies.

108
00:06:29,280 --> 00:06:33,280
En dus daar waar de kracht zit, en we spreken niet over een Excel-file,

109
00:06:33,280 --> 00:06:39,280
we spreken over tientallen duizenden, of zelfs miljoenen gegevens en data,

110
00:06:39,280 --> 00:06:41,280
die eigenlijk ergens opgeslagen staat,

111
00:06:41,280 --> 00:06:47,280
met dan ergens correlaties die niet altijd zomaar gemakkelijk te realiseren zijn of te linken zijn.

112
00:06:47,280 --> 00:06:51,280
En komt er dan ook simulatie bekijken, want het is een voorspelling?

113
00:06:51,280 --> 00:06:54,280
Ga je dat simuleren of ga je dat dan in de praktijk toetsen?

114
00:06:54,280 --> 00:07:00,280
Ja, ik denk de grote kracht in die AI-modellen die in de geneesmiddelenontwikkeling gebruikt worden,

115
00:07:00,280 --> 00:07:05,280
is dat er inderdaad ineens een voorspelling gaat zijn van, oké, ik denk dat dit of dit goed gaat doen.

116
00:07:05,280 --> 00:07:07,280
Maar het gaat dan ook effectief in de praktijk getest worden.

117
00:07:07,280 --> 00:07:11,280
Dus het aantal, wat ik in het begin zei, wordt op celniveau getest.

118
00:07:11,280 --> 00:07:16,280
Vroeger startte dat van nul en nu gooit het er maar op los en je ziet wel wat eruit komt.

119
00:07:16,280 --> 00:07:23,280
Nu heb je al een soort voorspelling, op basis van wat je eigenlijk een beperkter aantal moleculen effectief gaat testen.

120
00:07:23,280 --> 00:07:28,280
Maar die data die dan weer komen uit die testen die je doet, die ga je natuurlijk weer in het AI-model steken.

121
00:07:28,280 --> 00:07:33,280
Het AI-model gaat verder getraind worden van, oké, hier heb ik het fout voorspeld of hier heb ik het goed voorspeld.

122
00:07:33,280 --> 00:07:41,280
En dus ik denk dat het die kracht is tussen wat komt er uit mijn model en wat komt er eigenlijk uit wat ik dan effectief in het labo ga testen.

123
00:07:41,280 --> 00:07:51,280
Dat dat de versnelling teweeg brengt om veel accurater te gaan voorspellen van welke moleculen gaan effectief in een bepaalde clinical setting iets gaan doen.

124
00:07:51,280 --> 00:08:00,280
Dus dus eigenlijk meer focus op hetgeen waar de kans groter geacht wordt succes te behalen in plaats van met een schot hagel op een muggen schopje.

125
00:08:00,280 --> 00:08:07,280
Ja, maar zo was het vroeger wel. Maar het is niet alleen, ja en dan ook ik denk vooral versnellend ook.

126
00:08:07,280 --> 00:08:14,280
Je gaat veel sneller kunnen gaan naar een beperkte set. Maakt het ook een stuk goedkoper, wat natuurlijk ook interessant is.

127
00:08:14,280 --> 00:08:25,280
Dus daar zit een hele grote revolutie mogelijk. En ik heb laatst zelfs gezien dat het eerste AI-ontwikkelde geneesmiddel effectief in clinical trial zit nu.

128
00:08:25,280 --> 00:08:33,280
Dus een beetje afwachten wat het gaat worden. Dus dat is zo eentje wat effectief voorspeld is via AI.

129
00:08:33,280 --> 00:08:40,280
Ja, dus voorspeld, getoetst in de praktijk en vervolgens inderdaad het reguliere proces ingegaan voor controles.

130
00:08:40,280 --> 00:08:46,280
Ja, natuurlijk we gaan niet gewoon zeggen van oké dit komt er voorspellend uit. We gaan direct straks in de mens gaan toepassen. Dat gaan we niet doen.

131
00:08:46,280 --> 00:08:53,280
Dus er wordt wel nog altijd het traject in het labo wordt natuurlijk wel nog altijd doorlopen. Maar het is gewoon veel sneller, efficiënter en korter.

132
00:08:53,280 --> 00:09:01,280
En heeft dit ook te maken met, ik lees wel vaker dat ze nu bezig zijn met AI om eiwitten te ontdekken. Zit dat ook in deze hoek?

133
00:09:01,280 --> 00:09:08,280
Ja, absoluut. Dat zit inderdaad ook in deze hoek. Dan moeten we een klein beetje technisch gaan over de eiwitmontering.

134
00:09:08,280 --> 00:09:16,280
Maar dus ja, misschien de terugkoppeling met de geneesmiddel om het een beetje zichtbaar te maken.

135
00:09:16,280 --> 00:09:22,280
Dus wat een geneesmiddel vaak gaat doen is eigenlijk koppelen aan eiwitten waar het mis mee loopt.

136
00:09:22,280 --> 00:09:28,280
Je lichaam zit helemaal vol met eiwitten. Soms loopt het gewoon mis en gaat een eiwit gekke dingen beginnen doen wat hij niet moet doen.

137
00:09:28,280 --> 00:09:37,280
Dat is maar één voorbeeld. Je kan er van alles mis kopen. En wat ons geneesmiddel dan vaak gaat doen is een effectieve fysieke binding aangaan met zo'n eiwit.

138
00:09:37,280 --> 00:09:43,280
En dat eigenlijk dus hetgeen wat misloopt dat eiwit gewoon gaan lam leggen. Dus die kan niet meer fout gaan.

139
00:09:43,280 --> 00:09:55,280
Zo'n eiwit heeft een soort van pocket. Hij heeft een bepaalde vorm. En die molecule moet net in die vorm van dat eiwit passen om die te kunnen lam leggen.

140
00:09:55,280 --> 00:10:00,280
Dus dat zijn heel veel 3D, 4D structuren die effectief ook gebruikt kunnen worden.

141
00:10:00,280 --> 00:10:07,280
En als je één keer weet wat de 3D structuur van je eiwit is en je weet wat de 3D structuur van je moleculen is,

142
00:10:07,280 --> 00:10:14,280
dan kan je makkelijk gaan kijken of dit effectief gaat matchen. Je wil natuurlijk niet dat het misloopt.

143
00:10:14,280 --> 00:10:19,280
En ook daar gaat het weer om veelbelovendheid zoeken.

144
00:10:19,280 --> 00:10:24,280
Het is geen garantie. Het is een proberenstof, maar het is een goede guesstimate.

145
00:10:24,280 --> 00:10:33,280
Ja, dat is wel een mooie. We hebben dus proberen voorspellen van ziekte, fase 1, diagnose, geneesmiddelen.

146
00:10:33,280 --> 00:10:35,280
Wat is stap 4?

147
00:10:35,280 --> 00:10:40,280
Stap 4 is dan de patiëntenmonitoring. Dus op het moment dat ze ziek zijn, dan gaan ze medicatie krijgen.

148
00:10:40,280 --> 00:10:45,280
Maar dan is het natuurlijk heel belangrijk om op te gaan volgen van hoe dit die patiënt met bepaalde medicatie doet.

149
00:10:45,280 --> 00:10:49,280
Moet ik die medicatie gaan bijsturen? Moet ik die medicatie aanpassen?

150
00:10:49,280 --> 00:10:58,280
Ook daar zien we ontwikkelingen. Ik heb laatst al gezien dat er een AI-tool ontwikkeld is om in klinische trials,

151
00:10:58,280 --> 00:11:07,280
op basis van geluidsuitdrukking van personen, te gaan kijken hoe die reageren op geneesmiddelen.

152
00:11:07,280 --> 00:11:16,280
Ik kan me voorstellen natuurlijk dat als je pijn hebt of als je je niet goed voelt, dat je dat met kleine geluidsaanpassingen kan identificeren.

153
00:11:16,280 --> 00:11:21,280
Dus dat is echt facial recognition die daar gebruikt wordt.

154
00:11:21,280 --> 00:11:30,280
En ook in die context worden ook heel vaak chatbots gebruikt die gerichte vragen gaan stellen aan patiënten,

155
00:11:30,280 --> 00:11:39,280
waar patiënten op kunnen antwoorden, om health gegevens te bekomen en artsen dus heel veel informatie te geven.

156
00:11:39,280 --> 00:11:46,280
En helpt het dan ook bij het voorspellen van mogelijke bijwerkingen?

157
00:11:46,280 --> 00:11:52,280
Absoluut, denk ik. Ik denk dat dat zeker ook toepassing heeft. Ik weet het nu niet direct.

158
00:11:52,280 --> 00:11:56,280
Ik denk dat AI heel breed inzetbaar is in de life sciences.

159
00:11:56,280 --> 00:11:58,280
Maar dat heb je nog niet gezien?

160
00:11:58,280 --> 00:12:02,280
Nog niet direct, nee. Maar ik kan me wel voorstellen dat die mogelijkheden er zeker wel zijn.

161
00:12:02,280 --> 00:12:06,280
Wat hij wel kan doen is natuurlijk rekening houden met de geschiedenis van de patiënt.

162
00:12:06,280 --> 00:12:10,280
Kijken wat er gegeven is. Dokters hebben daar niet altijd een goed zicht op.

163
00:12:10,280 --> 00:12:14,280
Maar als die informatie beschikbaar is, kan hij ook voorspellend werken.

164
00:12:14,280 --> 00:12:17,280
Vorige week heeft hij een medicijntje aangenomen.

165
00:12:17,280 --> 00:12:21,280
Misschien is het geen goed idee om medicijntje B te geven op dit moment, voor die en die reden.

166
00:12:21,280 --> 00:12:27,280
Dus in dat opzicht kan het ook echt wel ondersteunend werken voor geneesheren of medici in het algemeen.

167
00:12:27,280 --> 00:12:34,280
Mooi. Jullie zien veel van dit soort voorbeelden voorbijkomen, met name met jullie werk voor octrooi support en dergelijke.

168
00:12:34,280 --> 00:12:37,280
Daar zou ik meteen nog wel een vraag geven van waar moet ik dan aan denken?

169
00:12:37,280 --> 00:12:41,280
Ik denk dat het belangrijkste is om te kijken naar de realiteit.

170
00:12:41,280 --> 00:12:44,280
En dat is ook een van de dingen die we in de AI-oplossingen zien.

171
00:12:44,280 --> 00:12:47,280
Dat is ook een van de dingen die we in de AI-oplossingen zien.

172
00:15:17,280 --> 00:15:20,280
Dat soort zaken moeten natuurlijk in zo'n model terechtkomen.

173
00:15:20,280 --> 00:15:22,280
Wil het effectief werken?

174
00:15:22,280 --> 00:15:26,280
Maar dat heeft natuurlijk wel ethische consequenties, ethische vragen, confidentialiteitsvragen.

175
00:15:26,280 --> 00:15:29,280
Dus ik denk dat dat wel een grote uitdaging gaat worden.

176
00:15:29,280 --> 00:15:32,280
Voor zo'n grote data-packages effectief.

177
00:15:32,280 --> 00:15:36,280
Om daar toegang toe te krijgen om die AI-modellen effectief te gaan ontwikkelen.

178
00:15:36,280 --> 00:15:37,280
Ja, precies.

179
00:15:37,280 --> 00:15:40,280
Ja, ik had namelijk dat ook wel als een beetje mijn hunch feeling van

180
00:15:40,280 --> 00:15:42,280
wat is nou de grootste uitdaging?

181
00:15:42,280 --> 00:15:44,280
Had ik die eigenlijk inderdaad verwacht.

182
00:15:44,280 --> 00:15:46,280
Of heb ik dat niet verwacht?

183
00:15:48,280 --> 00:15:50,280
Maar het is natuurlijk wel een grote uitdaging.

184
00:15:50,280 --> 00:15:52,280
Ja, dat is ook wel een grote uitdaging.

185
00:15:52,280 --> 00:15:54,280
Maar het is ook wel een grote uitdaging.

186
00:15:54,280 --> 00:15:56,280
Ja, het is inderdaad een grote uitdaging.

187
00:15:56,280 --> 00:15:58,280
Maar het is ook wel een grote uitdaging.

188
00:15:58,280 --> 00:16:00,280
Ja, het is inderdaad een grote uitdaging.

189
00:16:00,280 --> 00:16:02,280
Maar het is ook wel een grote uitdaging.

190
00:16:02,280 --> 00:16:04,280
Ja, het is inderdaad een grote uitdaging.

191
00:16:04,280 --> 00:16:06,280
Maar het is inderdaad een grote uitdaging.

192
00:16:08,280 --> 00:16:10,280
Ja, het is inderdaad een grote uitdaging.

193
00:16:12,280 --> 00:16:14,280
Maar het is inderdaad een grote uitdaging.

194
00:19:28,280 --> 00:19:30,280
Nu komt hij wel beter binnen.

195
00:19:30,280 --> 00:19:36,280
Het is vooral die mythe dat voor veel mensen, zeker de biotech die niet vaak te maken heeft gehad met software,

196
00:19:36,280 --> 00:19:38,280
Het is vooral die mythe dat voor veel mensen, zeker de biotech die niet vaak te maken heeft gehad met software,

197
00:19:38,280 --> 00:19:42,280
de barrière vormt tussen het octroëren van hun innovaties in dat vakgebied,

198
00:19:42,280 --> 00:19:45,280
naar het bewaren als bedrijfsgeheim.

199
00:19:45,280 --> 00:19:48,280
Uiteindelijk is een octrooi bedoeld om innovatie te steunen,

200
00:19:48,280 --> 00:19:51,280
want je krijgt er voor 20 jaar monopolie op,

201
00:19:51,280 --> 00:19:54,280
maar na 20 jaar moet iedereen het kunnen gebruiken.

202
00:19:54,280 --> 00:19:56,280
Dat is de insteek van octrooi.

203
00:19:56,280 --> 00:20:01,280
En dat vergeet hij natuurlijk iedereen, want iedereen denkt '20 jaar geld verdienen'.

204
00:20:01,280 --> 00:20:03,280
Maar daarna is het gewoon open.

205
00:20:03,280 --> 00:20:04,280
Ja, exact.

206
00:20:04,280 --> 00:20:07,280
Ik moet je eerlijk zeggen, ik dacht dat ook van wat jij zei.

207
00:20:07,280 --> 00:20:12,280
Software is niet, daar is geen octrooi op te vragen.

208
00:20:12,280 --> 00:20:15,280
Ik ben ook blij dat ik dit nu weet.

209
00:20:15,280 --> 00:20:18,280
Als ik nog kijk naar de grootste firma's, Google, Apple,

210
00:20:18,280 --> 00:20:23,280
die jongens, die portofuus hebben wel wat elementen van bijvoorbeeld telefoons,

211
00:20:23,280 --> 00:20:27,280
of Apple voor chips en zo van die zaken.

212
00:20:27,280 --> 00:20:31,280
Maar het grote deel is echt software gebaseerde dienstverlening.

213
00:20:31,280 --> 00:20:36,280
En dan zijn jullie nu gespecialiseerd in het kijken voor de AI-oplossingen,

214
00:20:36,280 --> 00:20:39,280
hoe je daar octrooien voor aanvraagt. Klopt dat?

215
00:20:39,280 --> 00:20:40,280
Ja.

216
00:20:40,280 --> 00:20:42,280
Of is dat te kort door de bocht?

217
00:20:42,280 --> 00:20:45,280
Ja, nee, dat is eigenlijk een heel korte samenvatting van wat wij eigenlijk doen.

218
00:20:45,280 --> 00:20:49,280
Uiteindelijk hebben wij alle twee een specialisatie opgebouwd in ons vakgebied,

219
00:20:49,280 --> 00:20:53,280
die we eigenlijk alle twee nodig hebben om de vragen die we krijgen

220
00:20:53,280 --> 00:20:56,280
in het biotechverhaal te kunnen oplossen.

221
00:20:56,280 --> 00:21:00,280
Want het is een speciaal vakgebied, software octrooien schrijven en verdedigen.

222
00:21:00,280 --> 00:21:02,280
Dat zijn een paar strenge regels.

223
00:21:02,280 --> 00:21:06,280
En ik heb mijn specialisatie en ik moet eigenlijk opgevoed worden door Sara

224
00:21:06,280 --> 00:21:10,280
in wat wil de marker X zeggen, wat wil micro-RNA zeggen,

225
00:21:10,280 --> 00:21:15,280
wat is daar belangrijk aan, hoe komt dat die moleculen daarop kan binden.

226
00:21:15,280 --> 00:21:20,280
Want ik moet dat allemaal natuurlijk verduidelijken en waarom die software die link kan leggen.

227
00:21:20,280 --> 00:21:23,280
Maar ik moet er dan wel voor zorgen dat het software octrooi blijft

228
00:21:23,280 --> 00:21:27,280
en dat het niet zomaar een werkwijze is voor het produceren van stofje X

229
00:21:27,280 --> 00:21:29,280
die ziektebeeld ei verhelpt.

230
00:21:29,280 --> 00:21:30,280
Ja, precies.

231
00:21:30,280 --> 00:21:35,280
En wat is daar anders aan, want je zegt van we zijn hierin gespecialiseerd,

232
00:21:35,280 --> 00:21:39,280
wat is daar anders aan dan de, even tussen aanhalingstekens,

233
00:21:39,280 --> 00:21:41,280
traditionele software dan?

234
00:21:42,280 --> 00:21:47,280
Er is niet veel verschillend ten opzichte van traditionele software.

235
00:21:47,280 --> 00:21:50,280
Het is uiteindelijk de toepassing die het moeilijker maakt.

236
00:21:50,280 --> 00:21:55,280
Je moet van beide vakgebieden heel veel kennen om het goed op te schrijven.

237
00:21:55,280 --> 00:21:59,280
En uiteindelijk onze taak is om alles goed op te schrijven.

238
00:21:59,280 --> 00:22:04,280
En een octrooi, je hebt eigenlijk maar bijzonder weinig kans om een octrooi aan te passen

239
00:22:04,280 --> 00:22:06,280
of goed op te schrijven.

240
00:22:06,280 --> 00:22:09,280
Je hebt daar eigenlijk maar een jaar de tijd voor als je het cru bekijkt.

241
00:22:09,280 --> 00:22:10,280
Oké.

242
00:22:10,280 --> 00:22:14,280
De ene keer dat het opgeschreven is, kan je meestal niet zoveel wijzigingen meer aanbrengen

243
00:22:14,280 --> 00:22:16,280
en laat staan dingen toevoegen.

244
00:22:16,280 --> 00:22:18,280
Het moet er gewoon goed staan.

245
00:22:18,280 --> 00:22:21,280
En daarom dat je zowel de expertise van iemand van de biotech nodig hebt

246
00:22:21,280 --> 00:22:24,280
als iemand van de software die het natuurlijk moet uitleggen.

247
00:22:24,280 --> 00:22:28,280
Want uiteindelijk een octrooi wordt bestudeerd door een Europese onderzoeker

248
00:22:28,280 --> 00:22:32,280
die gestudeerd heeft in de software, want dat is het uiteindelijk.

249
00:22:32,280 --> 00:22:33,280
Ja.

250
00:22:33,280 --> 00:22:36,280
Want die gaat dan uiteindelijk ook weer micro-RNA's naar zijn hoofd krijgen

251
00:22:36,280 --> 00:22:38,280
en zoiets van, wat staat hier nu?

252
00:22:38,280 --> 00:22:44,280
En dat is net eigenlijk het unieke selling point, dat we de twee kunnen combineren.

253
00:22:44,280 --> 00:22:47,280
Want er zijn niet veel mensen die als één persoon de twee kunnen.

254
00:22:47,280 --> 00:22:48,280
Nee, precies.

255
00:22:48,280 --> 00:22:50,280
Laat staan, octrooi gemakkelijk.

256
00:22:50,280 --> 00:22:51,280
Duidelijk.

257
00:22:51,280 --> 00:22:55,280
En wat is het risico als je dit niet goed opschrijft?

258
00:22:55,280 --> 00:22:57,280
Dat je geen octrooi krijgt.

259
00:22:57,280 --> 00:22:59,280
En dan heb je iets precies gegeven dat geen octrooi wordt.

260
00:22:59,280 --> 00:23:03,280
Ja, want de octrooi wordt natuurlijk wel ingediend, wordt het publiek.

261
00:23:03,280 --> 00:23:05,280
Dus anderen kunnen dat gaan inzien.

262
00:23:05,280 --> 00:23:08,280
En wordt die publiek als die afgekeurd is, of als die goed gekeurd is?

263
00:23:08,280 --> 00:23:10,280
Of kan je ook in de proces zijn naartoe?

264
00:23:10,280 --> 00:23:13,280
Nee, dus op zich, een octroïd blijft het eerste anderhalf jaar geheim.

265
00:23:13,280 --> 00:23:15,280
En dan wordt die wel publiek.

266
00:23:15,280 --> 00:23:17,280
Als je hem verder zet natuurlijk.

267
00:23:17,280 --> 00:23:19,280
Oh, je hebt nog een keuze in...

268
00:23:19,280 --> 00:23:20,280
Ja, je kan hem terugtrekken.

269
00:23:20,280 --> 00:23:23,280
Dan weet niemand dat je een octroïd hebt ingediend.

270
00:23:23,280 --> 00:23:24,280
Oké.

271
00:23:24,280 --> 00:23:27,280
Ja, maar dus als je dan inderdaad erna het risico loopt dat die afgekeurd wordt,

272
00:23:27,280 --> 00:23:31,280
na die anderhalf jaar, dan heb je wel publiek gemaakt waar je mee bezig bent natuurlijk.

273
00:23:31,280 --> 00:23:34,280
Dus wel hele goede afwegingen maken tussen, wat dien ik in?

274
00:23:34,280 --> 00:23:35,280
Wat laat ik publiceren?

275
00:23:35,280 --> 00:23:38,280
Wat zijn mijn kansen dat ik hier effectief ook dan een monopolie voor krijg?

276
00:23:38,280 --> 00:23:40,280
Want dat is uiteindelijk wel de bedoeling als je een octrooi indient,

277
00:23:40,280 --> 00:23:42,280
dat je er een monopolie voor krijgt.

278
00:23:42,280 --> 00:23:44,280
Dus ja, dat is onze taak.

279
00:23:44,280 --> 00:23:47,280
Om dat soort taken inderdaad te gaan nakijken.

280
00:23:47,280 --> 00:23:49,280
Er komen maar twee vragen naar boven.

281
00:23:49,280 --> 00:23:50,280
Oké.

282
00:23:50,280 --> 00:23:55,280
De eerste vraag is, gebruiken jullie ook zelf AI bij het opstellen van octrooien?

283
00:23:55,280 --> 00:23:58,280
Of bij de support die jullie leveren?

284
00:23:58,280 --> 00:24:01,280
We zijn er eigenlijk heel veel mee aan het experimenteren.

285
00:24:01,280 --> 00:24:04,280
Eén, we moeten heel fel opletten wat we doen.

286
00:24:04,280 --> 00:24:07,280
Want als we zoiets opstellen, dan is het natuurlijk geheim.

287
00:24:07,280 --> 00:24:10,280
Dus in eerste instantie experimenteren wij in offline omgevingen,

288
00:24:10,280 --> 00:24:14,280
zodanig dat we zeker zijn dat de gegevens niet buiten gaan.

289
00:24:14,280 --> 00:24:17,280
Uiteraard werken we met meer dan alleen ons tweeën samen.

290
00:24:17,280 --> 00:24:22,280
We willen zo'n tools gebruiken om één, onze kosten naar klanten toe te drukken,

291
00:24:22,280 --> 00:24:27,280
zelf efficiënter te kunnen werken, want dat doet het wel echt wel goed.

292
00:24:27,280 --> 00:24:32,280
En dan drie, is het eigenlijk in het algemeen de dienstverlening te kunnen verbeteren.

293
00:24:32,280 --> 00:24:36,280
Dus, wereld AI assisted patent attorneys, zoals wij het noemen dan,

294
00:24:36,280 --> 00:24:43,280
is vooral om onze dienstverlening te kunnen verbeteren en met minder tijd meer gedaan te krijgen.

295
00:24:43,280 --> 00:24:45,280
Dus echt efficiëntie verhogen.

296
00:24:45,280 --> 00:24:51,280
En mijn andere vraag die ik had is, voor wat zou ik een octrooi kunnen indienen?

297
00:24:51,280 --> 00:24:53,280
Waar moet ik dan aan denken?

298
00:24:53,280 --> 00:24:56,280
Moet er iets volledig nieuws zijn?

299
00:24:56,280 --> 00:25:02,280
Eigenlijk heel simpel, voor elke technische oplossing van een technisch probleem.

300
00:25:02,280 --> 00:25:08,280
En dan, als je dat hebt, dan moet je octrooi uiteindelijk voldoen aan twee hoofdvoorwaarden.

301
00:25:08,280 --> 00:25:10,280
Ik schets het heel heel heel beknopt.

302
00:25:10,280 --> 00:25:15,280
Je moet eigenlijk voldoen aan nieuwheid en aan een tweede voorwaarde is inventiviteit.

303
00:25:15,280 --> 00:25:17,280
Nieuwheid is eigenlijk heel zwart op wit.

304
00:25:17,280 --> 00:25:19,280
Als je het voorbeeld neemt van bijvoorbeeld een tafel.

305
00:25:19,280 --> 00:25:25,280
Stel, er staat al jarenlang een tafel met drie poten en die tafel met drie poten die wobbelt een beetje.

306
00:25:25,280 --> 00:25:31,280
En jij bent al wobbelen beu en je verzint dat die tafel met een vierde poot veel stabieler staat.

307
00:25:31,280 --> 00:25:35,280
Ik geef het heel simpelst neer, maar je hebt dus een tafel met vier poten uitgevonden.

308
00:25:35,280 --> 00:25:40,280
Dat wil zeggen dat die vierde poot nieuw is ten opzichte van die drie andere poten.

309
00:25:40,280 --> 00:25:46,280
Dan is eigenlijk de tweede hoordel dat je moet aantonen dat die vierde poot inventief is.

310
00:25:46,280 --> 00:25:51,280
Dat die niet voor de hand ligt om aan die tafel met drie poten een vierde poot te zetten.

311
00:25:51,280 --> 00:25:56,280
En dat is eigenlijk de oefening die wereldwijd wordt gedaan op de octrooien.

312
00:25:56,280 --> 00:26:00,280
Een onderzoeker gaat kijken waar jij bescherming voor vraagt.

313
00:26:00,280 --> 00:26:02,280
Een tafel met vier poten.

314
00:26:02,280 --> 00:26:04,280
Die gaat opzoeken wat er allemaal bestaat.

315
00:26:04,280 --> 00:26:07,280
Die gaat misschien een tafel met vier poten vinden.

316
00:26:07,280 --> 00:26:10,280
En dan gaat hij eigenlijk gewoon heel eenvoudig zeggen, jouw uitvinding is niet nieuw.

317
00:26:10,280 --> 00:26:14,280
Maar stel, die vindt maar tafels met drie poten.

318
00:26:14,280 --> 00:26:17,280
Dan gaat hij moeten toegeven dat jouw uitvinding nieuw is.

319
00:26:17,280 --> 00:26:23,280
En dan gaat hij eigenlijk de tweede rendering volgen van ligt het voor de hand om daar die vierde poot onder te zetten.

320
00:26:23,280 --> 00:26:26,280
En dat is dan weer een beetje ons werk.

321
00:26:26,280 --> 00:26:32,280
Wij moeten dat dan gaan beargumenteren dat het wel degelijk niet voor de hand ligt om daar een vierde poot onder te zetten.

322
00:26:32,280 --> 00:26:36,280
Omdat ja, jarenlang is dat met drie poten gedaan, zo van die verhalen.

323
00:26:36,280 --> 00:26:38,280
We moeten dat natuurlijk ook kunnen aantonen.

324
00:26:38,280 --> 00:26:43,280
Als die onderzoeker met een document komt van als je een vierde poot onder een tafel steekt,

325
00:26:43,280 --> 00:26:47,280
dan verhoogt de stabiliteit van je tafel, dan zijn wij ook uitgepraat.

326
00:26:47,280 --> 00:26:49,280
Dat is dan stopt de discussie.

327
00:26:49,280 --> 00:26:52,280
Maar dat is het spel eigenlijk dat wij spelen.

328
00:26:52,280 --> 00:26:54,280
Interessant.

329
00:26:54,280 --> 00:27:03,280
Ik weet niet of je hier antwoord op kan en mag geven, maar heb je een voorbeeld van een octrooi dat is goedgekeurd,

330
00:27:03,280 --> 00:27:07,280
waar je iets over mag zeggen van dat was echt een vernieuwing?

331
00:27:07,280 --> 00:27:10,280
Er zijn veel voorbeelden waar we kunnen noemen.

332
00:27:10,280 --> 00:27:14,280
Want als het is verleend, dan is het publiek en dan mogen we erover spreken.

333
00:27:14,280 --> 00:27:18,280
Toch vragen, we zijn in de terughouden tijd.

334
00:27:18,280 --> 00:27:22,280
We zouden nooit niks zeggen als ze niet mochten.

335
00:27:22,280 --> 00:27:24,280
Er zijn echt wel meerdere voorbeelden.

336
00:27:24,280 --> 00:27:28,280
Dat gebeurt wekelijks dat octrooien verleend worden op vernieuwingen.

337
00:27:28,280 --> 00:27:31,280
Maar dat kan van hele brede toepassingen gaan.

338
00:27:31,280 --> 00:27:34,280
Bijvoorbeeld het meten van corrosie op leidingen.

339
00:27:34,280 --> 00:27:40,280
Roest op leidingen.

340
00:27:40,280 --> 00:27:43,280
Bijvoorbeeld dat is een heel groot probleem in de oil en gas industrie.

341
00:27:43,280 --> 00:27:47,280
Oh, maar ik zit nog even in de gezondheidszorg.

342
00:27:47,280 --> 00:27:49,280
Sorry.

343
00:27:49,280 --> 00:27:52,280
Ik dacht roestopleiding.

344
00:27:52,280 --> 00:27:54,280
Ik zit in je lichaam.

345
00:27:54,280 --> 00:27:56,280
Ik was in mijn elektrosectie.

346
00:27:56,280 --> 00:28:01,280
Er zijn ook meerdere toepassingen in life sciences.

347
00:28:01,280 --> 00:28:03,280
Bijvoorbeeld in medische beeldherkenning.

348
00:28:03,280 --> 00:28:08,280
Waar ze kijken naar CT-scans van longen.

349
00:28:08,280 --> 00:28:13,280
En dan kunnen ze afhankelijk van het feedback van de CT-scan

350
00:28:13,280 --> 00:28:17,280
voorspellen wat de weefselafbraken zijn.

351
00:28:17,280 --> 00:28:20,280
En kunnen ze op basis daarvan weer ziektebeelden voorspellen.

352
00:28:20,280 --> 00:28:25,280
Dus dat is echt een technische diagnose van een ziektebeeld.

353
00:28:25,280 --> 00:28:31,280
Ik denk dat een van de sectoren die vanuit de medische wereld boomt op dit moment

354
00:28:31,280 --> 00:28:33,280
is de RNA-vaccinatie.

355
00:28:33,280 --> 00:28:37,280
Die vanwege covid natuurlijk een hele grote boost doorgemaakt heeft.

356
00:28:37,280 --> 00:28:41,280
Ik heb het voordeel dat een van mijn klanten daar ook aanwezig is.

357
00:28:41,280 --> 00:28:43,280
Dus ik heb daar heel kort bij kunnen opvolgen.

358
00:28:43,280 --> 00:28:47,280
Dat is een sector die eigenlijk al 15 jaar bestaat.

359
00:28:47,280 --> 00:28:51,280
Maar weinig of nog nooit geen aandacht gehad heeft tot covid kwam.

360
00:28:51,280 --> 00:28:56,280
En daar zijn natuurlijk hele grote ontwikkelingen geweest over de laatste jaren.

361
00:28:56,280 --> 00:29:00,280
Daar hebben we eigenlijk gezien dat we op een heel korte tijd, heel snel,

362
00:29:00,280 --> 00:29:03,280
een nieuw vaccin kunnen ontwikkelen.

363
00:29:03,280 --> 00:29:07,280
Dat is misschien niet direct AI aan te pas gekomen, maar dat is toch wel een heel grote boost geweest.

364
00:29:07,280 --> 00:29:13,280
En daar zijn ook een hoop rechtszaken gaande tussen verschillende partijen

365
00:29:13,280 --> 00:29:15,280
die elkaar aan het bevechten zijn.

366
00:29:15,280 --> 00:29:18,280
Want wij waren eerder met dit soort technologie dan jullie.

367
00:29:18,280 --> 00:29:22,280
Dus dat is wel een van de grootste ontwikkelingen, denk ik,

368
00:29:22,280 --> 00:29:24,280
inderdaad geweest de laatste jaren in de medische wereld.

369
00:29:24,280 --> 00:29:27,280
Ja, mooie voorbeelden denk ik toch?

370
00:29:27,280 --> 00:29:31,280
We hebben ook nog een virtuele co-host.

371
00:29:31,280 --> 00:29:37,280
Die willen wij ook altijd even de gelegenheid stellen om een vraag aan jullie te stellen.

372
00:29:37,280 --> 00:29:38,280
Oké.

373
00:29:38,280 --> 00:29:44,280
En waar...

374
00:29:44,280 --> 00:29:46,280
Even, ah daar is hij.

375
00:29:46,280 --> 00:29:48,280
Ja, je had hem.

376
00:29:48,280 --> 00:29:49,280
Top.

377
00:29:49,280 --> 00:30:07,280
Bedankt dat je ons vandaag vergezeld. Ik ben Aisha, de AI van deze show.

378
00:30:07,280 --> 00:30:11,280
Zou je het goed vinden als ik je een vraag stel?

379
00:30:11,280 --> 00:30:13,280
Ja, doe maar.

380
00:30:13,280 --> 00:30:20,280
Is er een specifiek gebied van AI dat je 's nachts wakker houdt vanwege de mogelijke positieve?

381
00:30:20,280 --> 00:30:22,280
Implicaties ervan?

382
00:30:22,280 --> 00:30:25,280
Zo.

383
00:30:25,280 --> 00:30:27,280
Goh, wat moeilijk.

384
00:30:27,280 --> 00:30:32,280
Ik lijk daar persoonlijk niet zo heel erg van wakker, want ik zit natuurlijk in een heel andere sector.

385
00:30:32,280 --> 00:30:34,280
Dus ik kijk een beetje naar Youri.

386
00:30:34,280 --> 00:30:36,280
Ik lijk er niet zo zeer wakker van liggen.

387
00:30:36,280 --> 00:30:38,280
Vooral de opportuniteiten die er zijn.

388
00:30:38,280 --> 00:30:42,280
Er is heel veel kans om ons leven te verbeteren met AI.

389
00:30:42,280 --> 00:30:46,280
Het is niet wakker liggen, het is gewoon het zien van de mogelijkheden.

390
00:30:46,280 --> 00:30:49,280
Wat de firma's aan het ontwikkelen zijn, waar ze mee bezig zijn.

391
00:30:49,280 --> 00:30:51,280
Ze gaan verschrikkelijk ver.

392
00:30:51,280 --> 00:30:55,280
Het is zo impressionant om te zien wat ze allemaal aan het doen zijn met die gegevens, met die AI.

393
00:30:55,280 --> 00:31:01,280
Dat gaat niet zozeer over het verbeteren van datastructuren, want dat is echt de core AI verbeteringen.

394
00:31:01,280 --> 00:31:09,280
Maar de toepassingen van AI in ons algemeen leven is niet te stoppen voor de duidelijkheid.

395
00:31:09,280 --> 00:31:14,280
En dat is sowieso een must-have en een verbetering in mijn ogen.

396
00:31:14,280 --> 00:31:18,280
Ik denk dat we zeker met de ontwikkelingen die er gaan zijn,

397
00:31:18,280 --> 00:31:25,280
dat we nog niet de fantasie hebben om alles te kunnen gebruiken wat er nu misschien al mogelijk is.

398
00:31:25,280 --> 00:31:26,280
Nee.

399
00:31:26,280 --> 00:31:28,280
En het is misschien zelfs niet praktisch beschikbaar in sommige gevallen.

400
00:31:28,280 --> 00:31:30,280
Ja, ook dat.

401
00:31:30,280 --> 00:31:38,280
Kijk aan.

402
00:31:38,280 --> 00:31:41,280
Ik dacht dat er geen vragen worden gezien van het leven.

403
00:31:41,280 --> 00:31:43,280
A42.

404
00:31:43,280 --> 00:31:46,280
Maar deze zat er niet ver vanaf, toch?

405
00:31:46,280 --> 00:31:50,280
Het leuke is, wij weten eigenlijk ook nooit welke vragen er gesteld worden.

406
00:31:50,280 --> 00:31:53,280
Dus dat zorgt altijd wel voor enige verrassing.

407
00:31:53,280 --> 00:31:58,280
Waar lig jij wel eens wakker van, de positieve implicaties van AI, Niels?

408
00:31:58,280 --> 00:32:04,280
Dat ik eigenlijk nog wel meer AI zou willen hebben om niet wakker te liggen.

409
00:32:04,280 --> 00:32:09,280
Mijn support met het offloaden van acties, het doetjes en de eigen AI-assistent.

410
00:32:09,280 --> 00:32:10,280
Daar lig ik wel wakker van.

411
00:32:10,280 --> 00:32:13,280
Maar vooral niet positief, maar dat ik het nog wil gaan hebben in een betere vorm.

412
00:32:13,280 --> 00:32:15,280
Dat is ook wel een mooie.

413
00:32:15,280 --> 00:32:18,280
Ja, misschien sluit ik me daar eigenlijk wel van jou.

414
00:32:18,280 --> 00:32:21,280
Dat zou ontzettend helpen.

415
00:32:21,280 --> 00:32:22,280
Zeker weten.

416
00:32:22,280 --> 00:32:29,280
Niels had het net al een beetje aan jullie gevraagd, dat je al wat aan AI gebruikt.

417
00:32:29,280 --> 00:32:38,280
Als je verder mag denken, wat naar voren, zie je nog mogelijkheden om je werk daarin te verbeteren,

418
00:32:38,280 --> 00:32:44,280
te vergemakkelijken, specifieker te maken, beter in de storytelling? Ik heb geen idee.

419
00:32:44,280 --> 00:32:47,280
Ik denk dat wij naar de toekomst veel minder zelf gaan schrijven.

420
00:32:47,280 --> 00:32:51,280
Ik denk dat dat wel door de computer zal worden overgenomen.

421
00:32:51,280 --> 00:32:57,280
Maar dat onze meerwaarde wel in de strategie en het begeleiden van door het proces zal gebeuren.

422
00:32:57,280 --> 00:33:01,280
Het is nog altijd niet zo eenvoudig om een goede conclusie,

423
00:33:01,280 --> 00:33:04,280
dat is wat jouw beschermingsomvang bepaalt, neer te schrijven.

424
00:33:04,280 --> 00:33:08,280
Daar zien we ongelooflijk veel mogelijkheden en opportuniteiten doorheen.

425
00:33:08,280 --> 00:33:12,280
Dus wij zijn nog sowieso ons job niet kwijt, zoals sommige mensen wel denken.

426
00:33:12,280 --> 00:33:14,280
Iedereen zegt AI gaat ons vervangen.

427
00:33:14,280 --> 00:33:19,280
Totdat AI deftig het licht kan uitzetten, ben ik nog een beetje aan het afwachten.

428
00:33:19,280 --> 00:33:22,280
Ik geloof dat ook niet zo winnen. Zeker niet.

429
00:33:22,280 --> 00:33:29,280
Wat ik ook straks zei, die combinatie van AI met de arts, ik denk dat die bij ons ook gewoon in het beroep hetzelfde gaat zijn.

430
00:33:29,280 --> 00:33:34,280
De combinatie van AI met ons, als octrooigemachtigde, met de expertise die we hebben,

431
00:33:34,280 --> 00:33:36,280
die moet je gewoon maximaal proberen in te zetten.

432
00:33:36,280 --> 00:33:44,280
En de taken die makkelijk overgenomen kunnen worden, laten overnemen en de rest focussen op de essentie.

433
00:33:44,280 --> 00:33:50,280
Zou je hem kunnen gebruiken als een soort van reviewer?

434
00:33:50,280 --> 00:34:01,280
Dat je zegt, je bent een hele kritische octrooibeooordelaar, schiet hier eens even gaten in, in mijn betoog.

435
00:34:01,280 --> 00:34:07,280
Absoluut, daar zijn we nu mee aan het testen. En dat doet hij met af en toe succes goed.

436
00:34:07,280 --> 00:34:10,280
Wat hij wel heel goed doet, is vergelijkingen.

437
00:34:10,280 --> 00:34:19,280
Uiteindelijk vergelijken we ons document met een ander document, zeggen wat de verschillen zijn.

438
00:34:19,280 --> 00:34:24,280
Daar is hij best goed in om die verschillen te identificeren, althans op een heel abstract niveau.

439
00:34:24,280 --> 00:34:28,280
Als het echt octrooittechnisch te diep gaat, dan haakt hij af.

440
00:34:28,280 --> 00:34:33,280
Maar hij kan je echt wel helpen met bijvoorbeeld, zeg die technologie die je daar gebruikt,

441
00:34:33,280 --> 00:34:37,280
die is toch wel noemenswaardig anders dan de technologie die in dat document beschreven staat.

442
00:34:37,280 --> 00:34:39,280
Dus daar zijn we zo mee aan het spelen.

443
00:34:39,280 --> 00:34:46,280
Zodat de interpretatie voor jullie daar gelijk gedaan kan worden, in plaats van eerst zelf die documenten ook nog helemaal door te opleveren.

444
00:34:46,280 --> 00:34:49,280
Ja, vooral dat wij minder moeten lezen, dat we enkel de essentie moeten lezen.

445
00:34:49,280 --> 00:34:53,280
Dat we op basis van die informatie dan wel direct conclusies kunnen trekken.

446
00:34:53,280 --> 00:34:57,280
En in dat opzicht is misschien wel iets waar je van wakker moet liggen.

447
00:34:57,280 --> 00:35:04,280
Het maakt het moeilijker voor mensen om in ons vak te komen, als ze niet het beulenwerk hebben gedaan op voorhand.

448
00:35:04,280 --> 00:35:09,280
Want je komt niet zomaar tot die conclusie zonder het document is gelezen te hebben,

449
00:35:09,280 --> 00:35:11,280
of te weten wat er eigenlijk van informatie nodig is.

450
00:35:11,280 --> 00:35:17,280
Precies. Je moet uiteindelijk nog van alles heel erg in detail weten,

451
00:35:17,280 --> 00:35:21,280
om uiteindelijk goed ondersteund te kunnen worden door de technologie.

452
00:35:21,280 --> 00:35:22,280
Exact.

453
00:35:22,280 --> 00:35:26,280
Ja, en ik denk een van de ontwikkelingen die we ook wel zien, en die zeker nu al aan het gebeuren is,

454
00:35:26,280 --> 00:35:30,280
maar waar het dan nog wel verder gaat, is ook het zoeken naar relevante documenten.

455
00:35:30,280 --> 00:35:33,280
Dus niet enkel als ik een document heb, het gaan interpreteren.

456
00:35:33,280 --> 00:35:35,280
Maar ik moet het ook eerst vinden.

457
00:35:35,280 --> 00:35:39,280
En er is zoveel publieke informatie beschikbaar. Dat boomt.

458
00:35:39,280 --> 00:35:44,280
Zelfs documenten, want voor ons is het vaak wat Youri zei, dat het een nieuwheid moet zijn.

459
00:35:44,280 --> 00:35:46,280
Maar nieuwheid is absoluut een nieuwheid.

460
00:35:46,280 --> 00:35:51,280
Dat wil zeggen, er mag nog nooit iets ergens gezegd geweest zijn over een tafel met vier poten.

461
00:35:51,280 --> 00:35:56,280
Dat kan tot in China gaan, dat kan over de hele wereld gaan, dat kan honderd jaar geleden zijn.

462
00:35:56,280 --> 00:35:58,280
Dus het moet echt absoluut nieuw zijn.

463
00:35:58,280 --> 00:36:01,280
Dus dat wil zeggen, er is zo'n bron aan informatie beschikbaar,

464
00:36:01,280 --> 00:36:07,280
die doorzocht moet worden om te zien, is dit wat ik wil patenteren effectief nieuw?

465
00:36:07,280 --> 00:36:10,280
En ik denk dat AI daar enorm in kan ondersteunen,

466
00:36:10,280 --> 00:36:13,280
om die grote bron aan informatie effectief te gaan doorzoeken.

467
00:36:13,280 --> 00:36:16,280
En daar die documenten uit te halen die het dichtst in de buurt komen.

468
00:36:16,280 --> 00:36:19,280
En dan kunnen wij inderdaad onze expertise daarbovenop leggen,

469
00:36:19,280 --> 00:36:22,280
om te gaan analyseren, komt dit echt in de buurt?

470
00:36:22,280 --> 00:36:27,280
Zonder dat wij al die duizenden documenten zelf gaan moeten doornemen.

471
00:36:27,280 --> 00:36:29,280
Uiteindelijk volgt dat ook de kwaliteit van de verleende octrooien,

472
00:36:29,280 --> 00:36:31,280
wat uiteraard heel belangrijk is.

473
00:36:31,280 --> 00:36:33,280
Nu merken we dat er veel octrooien worden verleend,

474
00:36:33,280 --> 00:36:35,280
maar dat er ook veel worden onderuit geschopt,

475
00:36:35,280 --> 00:36:37,280
als ze worden aangevallen.

476
00:36:37,280 --> 00:36:39,280
Iedereen is gebaat bij een sterk octrooi.

477
00:36:39,280 --> 00:36:43,280
Zelfs de octrooihouder, niemand is gebaat bij een flauw octrooi.

478
00:36:43,280 --> 00:36:45,280
Want je mag niet zomaar gaan wapperen met je octrooi,

479
00:36:45,280 --> 00:36:48,280
als je weet dat het niet inventief is.

480
00:36:48,280 --> 00:36:49,280
Nee precies.

481
00:36:49,280 --> 00:36:50,280
Of niet nieuw.

482
00:36:50,280 --> 00:36:52,280
Ik heb nog een vraag, die zit eigenlijk een beetje op mijn achterhoofd,

483
00:36:52,280 --> 00:36:54,280
maar ik kom nu naar voren, dus ik ga toch zeggen,

484
00:36:54,280 --> 00:36:55,280
ik weet niet of jullie een antwoord op kunnen geven,

485
00:36:55,280 --> 00:36:58,280
maar wat ik me afvroeg is, voor zo'n octrooiaanvraag,

486
00:36:58,280 --> 00:37:00,280
we weten heel veel, blackbox modellen,

487
00:37:00,280 --> 00:37:02,280
dan liefst wil je ze kunnen verklaren,

488
00:37:02,280 --> 00:37:04,280
wil je toelichting hebben.

489
00:37:04,280 --> 00:37:06,280
Maakt dat nog uit voor het octrooi,

490
00:37:06,280 --> 00:37:08,280
of het een blackbox model is,

491
00:37:08,280 --> 00:37:10,280
of dat die toegelicht kan worden,

492
00:37:10,280 --> 00:37:12,280
dat hij zichzelf helpt te beschrijven?

493
00:37:12,280 --> 00:37:14,280
Dat is een hele goeie vraag,

494
00:37:14,280 --> 00:37:16,280
ik ben blij dat je die gesteld hebt.

495
00:37:16,280 --> 00:37:18,280
Voor de heel eenvoudige reden,

496
00:37:18,280 --> 00:37:21,280
dat is vaak een discussie die we hebben met klanten.

497
00:37:21,280 --> 00:37:23,280
Wat geven we prijs in het octrooi?

498
00:37:23,280 --> 00:37:27,280
Wat is echt essentieel voor jouw oplossing,

499
00:37:27,280 --> 00:37:29,280
om te laten werken?

500
00:37:29,280 --> 00:37:31,280
Wij zijn niet verplicht om het perfecte model

501
00:37:31,280 --> 00:37:33,280
op te nemen in een octrooiaanvraag,

502
00:37:33,280 --> 00:37:36,280
we zijn niet verplicht om de nodes waarden aan te geven,

503
00:37:36,280 --> 00:37:38,280
of zelfs een datastructuur aan te geven.

504
00:37:38,280 --> 00:37:40,280
Dat is niet nodig.

505
00:37:40,280 --> 00:37:42,280
En dat geeft ook kansen.

506
00:37:42,280 --> 00:37:44,280
Dat wil zeggen dat je in een octrooi,

507
00:37:44,280 --> 00:37:47,280
moet je het werkbaar kopieerbaar kunnen maken.

508
00:37:47,280 --> 00:37:49,280
Dus als iemand jouw octrooi leest,

509
00:37:49,280 --> 00:37:52,280
moet die eigenlijk jouw uitvindingen kunnen kopiëren.

510
00:37:52,280 --> 00:37:54,280
Waar komt het eigenlijk op neer?

511
00:37:54,280 --> 00:37:59,280
Als je gewoon zegt, ik geef verse water in om er cola van te maken,

512
00:37:59,280 --> 00:38:01,280
zoals Coca-Cola doet,

513
00:38:01,280 --> 00:38:04,280
en je zegt dat Coca-Cola wordt gemaakt met een black box,

514
00:38:04,280 --> 00:38:06,280
daar krijg je geen octrooi voor.

515
00:38:06,280 --> 00:38:10,280
Want iedereen weet dat niemand tot Coca-Cola is geslaagd momenteel.

516
00:38:10,280 --> 00:38:12,280
Oké, dus daar zit het nuance spel van,

517
00:38:12,280 --> 00:38:15,280
wat moet ik vrijgeven en wat kan ik vrijgeven,

518
00:38:15,280 --> 00:38:16,280
zodat het reproduceerbaar is,

519
00:38:16,280 --> 00:38:19,280
maar misschien toch nog net genoeg voor jezelf kunnen houden.

520
00:38:19,280 --> 00:38:22,280
We zoeken eigenlijk altijd naar, het moet namaakbaar zijn,

521
00:38:22,280 --> 00:38:24,280
maar niet op de best mogelijke manier.

522
00:38:24,280 --> 00:38:26,280
En die best mogelijke manier houden we wel intern,

523
00:38:26,280 --> 00:38:27,280
dus laat de rest maar doen.

524
00:38:27,280 --> 00:38:29,280
Maar ze gaan nooit zo'n goed product ontwikkelen,

525
00:38:29,280 --> 00:38:30,280
zoals je zelf ontwikkelt.

526
00:38:30,280 --> 00:38:32,280
Het heeft ook iets paradoxaals.

527
00:38:32,280 --> 00:38:34,280
Je wil iets beschermen,

528
00:38:34,280 --> 00:38:37,280
zodat het niet nagelijk gemaakt kan worden,

529
00:38:37,280 --> 00:38:40,280
tenminste voorlopig, maar het moet wel namaakbaar zijn.

530
00:38:40,280 --> 00:38:43,280
Ja, maar dat heeft te maken met het feit dat octrooien eigenlijk,

531
00:38:43,280 --> 00:38:45,280
het monopolie wat je krijgt van octrooi,

532
00:38:45,280 --> 00:38:46,280
dat moet je iets voor teruggeven.

533
00:38:46,280 --> 00:38:51,280
En monopolie krijg je om innovatie weer verder te gaan stimuleren.

534
00:38:51,280 --> 00:38:54,280
Ze zeggen, je hebt daar geld, je hebt daar middelen in gestoken,

535
00:38:54,280 --> 00:38:55,280
je hebt daar tijd in gestoken,

536
00:38:55,280 --> 00:38:58,280
oké, jij krijgt alleen recht om dit effectief te gaan doen,

537
00:38:58,280 --> 00:39:02,280
maar je moet wel aan de maatschappij ter beschikking stellen

538
00:39:02,280 --> 00:39:04,280
wat je gedaan hebt, hoe je dat gedaan hebt,

539
00:39:04,280 --> 00:39:07,280
zodat anderen daar weer verdere ontwikkelingen op kunnen doen.

540
00:39:07,280 --> 00:39:09,280
Dat is een beetje de achtergrond van octrooien.

541
00:39:09,280 --> 00:39:12,280
Dus naast de twee criteria die Youri in het begin zei,

542
00:39:12,280 --> 00:39:14,280
dus nieuwheid, inventiviteit, is één van de derde criteria,

543
00:39:14,280 --> 00:39:17,280
er zijn er nog meer, we gaan jullie sparen met alle details,

544
00:39:17,280 --> 00:39:20,280
is een ander criterium ook, het moet nawerkbaar zijn.

545
00:39:20,280 --> 00:39:23,280
Maar dat staat niet in de wet, het moet op de best mogelijke manier.

546
00:39:23,280 --> 00:39:25,280
Nee, precies. Ik kan me daar niets meer voorstellen.

547
00:39:25,280 --> 00:39:30,280
Het wijden stimuleren van verdere innovatie ligt daarvan.

548
00:39:30,280 --> 00:39:36,280
Als je ergens een geheim ingrediënt hebt, die je niet nodig hebt voor het octrooi,

549
00:39:36,280 --> 00:39:37,280
dan snap ik het.

550
00:39:37,280 --> 00:39:40,280
Het meest bekende voorbeeld is dat van Google en de crawler.

551
00:39:40,280 --> 00:39:42,280
Ze hebben zoveel octrooien op die zoekmachine,

552
00:39:42,280 --> 00:39:45,280
maar er staat in geen enkele octrooi exact wat ze doen.

553
00:39:45,280 --> 00:39:47,280
Dat maakt het de kat niet wijs.

554
00:39:47,280 --> 00:39:53,280
Nee, dat is ook een strategie. Heel veel octrooien op heel kleine stukjes en beetjes,

555
00:39:53,280 --> 00:39:56,280
zodat het hele proces ergens beschermd is,

556
00:39:56,280 --> 00:39:58,280
maar je moet er helemaal bijeen gaan puzzelen uit al die octrooien,

557
00:39:58,280 --> 00:39:59,280
daar kom je toch niet achter.

558
00:39:59,280 --> 00:40:02,280
Dus dat is ook een manier om toch bescherming te krijgen,

559
00:40:02,280 --> 00:40:06,280
zonder dat je het hele proces in principe gaat vrijgeven.

560
00:40:06,280 --> 00:40:08,280
Dus we hebben wel heel veel speelruimte.

561
00:40:08,280 --> 00:40:13,280
En daar zit dan wel de meerwaarde die we als personen wel hebben.

562
00:40:13,280 --> 00:40:17,280
Ik denk dat AI daar toch nog net niet sterk genoeg staat

563
00:40:17,280 --> 00:40:20,280
om dat soort strategische beslissingen effectief te gaan maken.

564
00:40:20,280 --> 00:40:24,280
Hoeveel octrooien dien ik in, op welke stukjes dien ik een octrooi in,

565
00:40:24,280 --> 00:40:28,280
welke stukjes hou ik geheim. Dat denk ik nog niet.

566
00:40:28,280 --> 00:40:33,280
Stel je voor dat zoiets als een copilot een octrooiaanvraag opstelt,

567
00:40:33,280 --> 00:40:36,280
beschikking heeft tot alle informatie, ook je bedrijfsschermen,

568
00:40:36,280 --> 00:40:38,280
want dat staat allemaal op de cloud.

569
00:40:38,280 --> 00:40:40,280
En zo, hop, even in die octrooiaanvraag, het is belangrijk dat,

570
00:40:40,280 --> 00:40:42,280
en hoi, roef, heel bedrijfsscherm.

571
00:40:42,280 --> 00:40:46,280
Dus dat onderscheid maken, dat is toch nog wel iets.

572
00:40:46,280 --> 00:40:48,280
Dat is wel echt mensenwerk.

573
00:40:48,280 --> 00:40:50,280
Ja, dat is mensenwerk.

574
00:40:50,280 --> 00:40:54,280
Ik denk dat we een heel mooi overzicht hebben gekregen van wat jullie doen,

575
00:40:54,280 --> 00:40:57,280
tegen welke uitdagingen jullie aanlopen.

576
00:40:57,280 --> 00:41:00,280
Maar ik ben ook nog wel benieuwd, in je persoonlijke leven,

577
00:41:00,280 --> 00:41:03,280
gebruik je ergens AI in je persoonlijke leven?

578
00:41:03,280 --> 00:41:07,280
Ik niet eigenlijk.

579
00:41:07,280 --> 00:41:09,280
Ik best veel.

580
00:41:09,280 --> 00:41:13,280
Maar dat is vooral voor opzoekingen.

581
00:41:13,280 --> 00:41:15,280
Voor persoonlijke opzoekingen?

582
00:41:15,280 --> 00:41:19,280
Je bent thuis bezig met de verbouwing,

583
00:41:19,280 --> 00:41:22,280
en dan vraag ik aan een ChatGPT in dit geval,

584
00:41:22,280 --> 00:41:26,280
wat zijn de regelgevingen in België voor isolatie van zoveel?

585
00:41:26,280 --> 00:41:27,280
Oh ja.

586
00:41:27,280 --> 00:41:29,280
Ik doe het eigenlijk nog op een klassieke manier.

587
00:41:29,280 --> 00:41:31,280
Ik ga gewoon naar Google en vraag het aan Google,

588
00:41:31,280 --> 00:41:34,280
maar ik denk misschien moet ik toch wel eens een keer switchen naar een ChatGPT.

589
00:41:34,280 --> 00:41:36,280
Dan krijg je zoveel reclame op je neus.

590
00:41:36,280 --> 00:41:37,280
Dat is wel waar.

591
00:41:37,280 --> 00:41:40,280
Wat mij kortstaat, maar wat de isolatie waarde is voor dit,

592
00:41:40,280 --> 00:41:42,280
en waar moet ik dat zoeken?

593
00:41:42,280 --> 00:41:43,280
Ja, precies.

594
00:41:43,280 --> 00:41:44,280
Ja, grappig.

595
00:41:44,280 --> 00:41:45,280
Ja.

596
00:41:45,280 --> 00:41:46,280
Ik had het laatst gebruikt voor,

597
00:41:46,280 --> 00:41:49,280
ik wilde een heel korte tour maken,

598
00:41:49,280 --> 00:41:52,280
nadat ik om een conferentie in Ierland gesproken had.

599
00:41:52,280 --> 00:41:56,280
Dat ik zei van, ik heb maar twee dagen, doe maar even een route,

600
00:41:56,280 --> 00:41:58,280
zodat ik, ik wil graag foto's maken,

601
00:41:58,280 --> 00:42:02,280
dus geef me de beste fotolocaties die ik in twee dagen kan doen.

602
00:42:02,280 --> 00:42:03,280
Ja.

603
00:42:03,280 --> 00:42:08,280
Dat soort, dat is geweldig om dat eruit te krijgen.

604
00:42:08,280 --> 00:42:10,280
En dan is het toevallig in Ierland gepakt,

605
00:42:10,280 --> 00:42:12,280
ergens in de zuidoost.

606
00:42:12,280 --> 00:42:15,280
Dat we daar toevallig ook een eilandje Ierland...

607
00:42:15,280 --> 00:42:16,280
O, zo.

608
00:42:16,280 --> 00:42:17,280
Nee, nee, nee.

609
00:42:17,280 --> 00:42:20,280
Ik kreeg een hele mooie route die ik ongeveer gevolgd heb,

610
00:42:20,280 --> 00:42:22,280
want natuurlijk als je aan het rijden bent,

611
00:42:22,280 --> 00:42:24,280
dan denk je, hé, dat zie ik ook wel leuk.

612
00:42:24,280 --> 00:42:26,280
Dus het was ondersteunend, maar niet leidend.

613
00:42:26,280 --> 00:42:27,280
Want met die kraft.

614
00:42:27,280 --> 00:42:28,280
Ja.

615
00:42:28,280 --> 00:42:30,280
Ja, voor mij was het inspiratiegevend.

616
00:42:30,280 --> 00:42:33,280
Dus kinderfeestjes, sporten, andere activiteiten,

617
00:42:33,280 --> 00:42:36,280
trainen en echt, ja, voor inspiratie.

618
00:42:36,280 --> 00:42:39,280
En dat zijn dan dingen die jullie ook in JetGPT opzoeken,

619
00:42:39,280 --> 00:42:41,280
of gebruiken jullie ook andere AI-tools?

620
00:42:41,280 --> 00:42:46,280
Want ik loop zo een beetje verloren in alle AI-tools die er ter beschikking zijn,

621
00:42:46,280 --> 00:42:49,280
om dan te vinden van welke tool heb ik nu eigenlijk nodig?

622
00:42:49,280 --> 00:42:51,280
Ik heb bijna AI nodig om de juiste tool te vinden.

623
00:42:51,280 --> 00:42:53,280
Die is er ook trouwens.

624
00:42:53,280 --> 00:42:54,280
Waarschijnlijk.

625
00:42:54,280 --> 00:42:55,280
Nee.

626
00:42:55,280 --> 00:42:58,280
Nou ja, wat ik ook dan wel gebruik is MidJourney.

627
00:42:58,280 --> 00:43:02,280
Met MidJourney kun je plaatjes creëren.

628
00:43:02,280 --> 00:43:05,280
Die gebruik ik ook voor mijn presentaties en dat soort dingen.

629
00:43:05,280 --> 00:43:08,280
Maar in mijn privéleven vind ik het leuk om voor de kinderen

630
00:43:08,280 --> 00:43:12,280
om bijvoorbeeld hele specifieke kleurplaten te maken.

631
00:43:12,280 --> 00:43:15,280
Eén van de kinderen is helemaal gek van paardrijden.

632
00:43:15,280 --> 00:43:19,280
En dan lijkt het alsof er een kleurplaat is van haar zelf,

633
00:43:19,280 --> 00:43:22,280
met lange haren, met een paard die door de branding loopt.

634
00:43:22,280 --> 00:43:24,280
En die kan ze dan lekker gaan inkleuren bijvoorbeeld.

635
00:43:24,280 --> 00:43:26,280
Dat is een goeie. Die ga ik ook toepassen.

636
00:43:26,280 --> 00:43:27,280
Ja, die moet ik ook proberen.

637
00:43:27,280 --> 00:43:30,280
Ik heb namelijk ook een dochter die helemaal gek is van paardrijden.

638
00:43:30,280 --> 00:43:35,280
En dan kun je hem helemaal personaliseren van wat er op moet komen te staan.

639
00:43:35,280 --> 00:43:36,280
Oké, top.

640
00:43:36,280 --> 00:43:39,280
Mijn zoon is net met pixelart begonnen op school.

641
00:43:39,280 --> 00:43:45,280
Dus ik ga er eens even kijken wat voor plaatje van dat zo'n hobby een pixelart kan laten genereren.

642
00:43:45,280 --> 00:43:46,280
Ja, mooi.

643
00:43:46,280 --> 00:43:53,280
Laatste is van, wat is een vraag die wij niet gesteld hebben,

644
00:43:53,280 --> 00:43:55,280
die je misschien wel verwacht had?

645
00:43:56,280 --> 00:43:59,280
Dat is een heel goeie vraag.

646
00:43:59,280 --> 00:44:01,280
Weeral een goeie vraag.

647
00:44:01,280 --> 00:44:06,280
Het feit dat we erover moeten nadenken is waarschijnlijk het feit dat je al een vraag gesteld hebt.

648
00:44:06,280 --> 00:44:12,280
Ik moet er echt goed over nadenken, want ik denk dat we heel veel topics hebben geraakt.

649
00:44:12,280 --> 00:44:16,280
Ja, dat kan ook de conclusie zijn, toch?

650
00:44:16,280 --> 00:44:17,280
Dat we mooi hebben afgerond.

651
00:44:17,280 --> 00:44:20,280
We weten heel veel meer, denk ik, over octrooien,

652
00:44:20,280 --> 00:44:25,280
over de fases die jij genoemd hebt, Sarah, van waar dat zich allemaal afspeelt.

653
00:44:25,280 --> 00:44:30,280
Ik heb in ieder geval geleerd op Sofia kan je prima octrooien aanvragen,

654
00:44:30,280 --> 00:44:31,280
dus dat is voor ons ook wel interessant.

655
00:44:31,280 --> 00:44:32,280
Zeker.

656
00:44:32,280 --> 00:44:36,280
Ontzettend bedankt dat jullie hier naartoe wilden komen, helemaal vanuit België.

657
00:44:36,280 --> 00:44:38,280
Sarah bedankt, Jorik bedankt.

658
00:44:38,280 --> 00:44:40,280
Joop, jou ook bedankt. Fijne keer.

659
00:44:40,280 --> 00:44:41,280
Zo, dat is het.

660
00:44:41,280 --> 00:44:43,280
Dat gewinnen ze vaak.

661
00:44:43,280 --> 00:44:48,280
Dank je wel dat je weer wilde luisteren naar een aflevering van ons.

662
00:44:48,280 --> 00:44:52,280
Vergeet je niet te abonneren via de Favoriete Podcast App.

663
00:44:52,280 --> 00:44:56,280
Mocht je ons willen steunen, 5 sterren op Spotify helpt enorm.

664
00:44:56,280 --> 00:44:59,280
Dan komen we iets hoger in de zoekresultaten.

665
00:44:59,280 --> 00:45:02,280
Er zit ook een stukje AI achter, dat helpt enorm.

666
00:45:02,280 --> 00:45:05,280
Dank je wel weer voor het luisteren. Tot de volgende keer.

667
00:45:05,280 --> 00:45:07,280
[Muziek]

668
00:45:07,280 --> 00:45:09,280
[Muziek]


People on this episode