AIToday Live

S06E04 - Omgekeerde wereld: AI interviewt

Aigency by Info Support Season 6 Episode 4

Stuur ons een bericht

In de aflevering 'Artificial Intelligence als Interviewer' van AIToday Live staat een opmerkelijk moment centraal: een AI-gedreven interviewer ondervraagt Joop Snijder over Generatieve AI.

Het is de omgekeerde wereld: AI vraagt en Joop geeft antwoord.

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,400
Hi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:06,400 --> 00:00:13,360
Dit is echt wel een hele speciale aflevering, want ik ga geïnterviewd worden door AI.

3
00:00:13,360 --> 00:00:19,280
We zijn er inmiddels aan gewend om vragen te stellen aan ChatGPT en behoorlijk goede

4
00:00:19,280 --> 00:00:24,320
antwoorden terug te krijgen. Maar zou ChatGPT zelf ook goede vragen kunnen stellen?

5
00:00:24,320 --> 00:00:28,440
Nou, dat hebben we getest. Ik ben de interviewkandidaat die een keer de

6
00:00:28,440 --> 00:00:34,600
antwoorden terug mocht geven. Want ik word namelijk aan de tand gevoeld door ChatGPT.

7
00:00:34,600 --> 00:00:40,760
We hebben een AI interviewer gemaakt die gebaseerd is op generatieve AI.

8
00:00:40,760 --> 00:00:48,360
En die gaat mij ook bevragen over de toepassing van generatieve AI en de

9
00:00:48,360 --> 00:00:54,440
potentiële impact daarvan op Info Support. En ik kan je sowieso al vast vertellen dat

10
00:00:54,440 --> 00:00:59,240
wat vooral verbaast is de potentie van de chatbot om echt inhoudelijke volgvragen te stellen.

11
00:00:59,240 --> 00:01:03,560
Laten we eens even luisteren hoe dat gaat. Here we go.

12
00:01:03,560 --> 00:01:09,440
Kun je een voorbeeld geven van een project of initiatief binnen Info Support waarbij generatieve

13
00:01:09,440 --> 00:01:13,800
AI momenteel wordt ingezet of waarbij er plannen zijn om deze te gaan gebruiken?

14
00:01:13,800 --> 00:01:19,360
Ja, ik heb daar drie voorbeelden voor. Voor een grote bierbrouwwerij hebben wij een

15
00:01:19,360 --> 00:01:24,280
proof of concept gemaakt waarbij social media gegevens worden gebruikt om personas te maken.

16
00:01:24,280 --> 00:01:30,640
Mensen met gelijke karakteristieken worden gegroepeerd en met generatieve AI wordt een

17
00:01:30,640 --> 00:01:35,360
persona ontwikkeld, zowel in tekst als de bijbehorende profielfoto.

18
00:01:35,360 --> 00:01:43,480
We gebruiken daar GPT en DALI3 voor als techniek. Nadat de persona is gemaakt kunnen we met

19
00:01:43,480 --> 00:01:49,200
generatieve AI praten met de persona en marketinggerelateerde vragen stellen.

20
00:01:49,200 --> 00:01:55,320
Je moet hierbij bijvoorbeeld denken aan wat zouden goede advertentieteksten kunnen zijn?

21
00:01:55,320 --> 00:01:59,560
Hoe wil iemand benaderd worden? Nou ja, ga zo maar door.

22
00:01:59,560 --> 00:02:05,840
Ook hebben we een eigen AI assistent in productie die is gebaseerd op generatieve AI.

23
00:02:05,840 --> 00:02:11,760
Zo kunnen Info Supporters veilig zonder risico op het delen van gevoelige informatie de assistent

24
00:02:11,760 --> 00:02:18,240
gebruiken. Met generatieve AI worden ze dan geholpen om hun werk beter uit te voeren omdat

25
00:02:18,240 --> 00:02:23,920
we Info Support specifieke kennis hebben toegevoegd. Onze best practices liggen vast in onze guidance

26
00:02:23,920 --> 00:02:30,320
framework en deze kennis nemen we dan mee in de assistent en die neemt dat dan mee in het

27
00:02:30,320 --> 00:02:36,760
beantwoorden van vragen die je dan stelt. Tenslotte, samen met een klant zijn er plannen

28
00:02:36,760 --> 00:02:42,120
om generatieve AI in te zetten voor het extraheren van kennis uit ingescande documenten.

29
00:02:42,120 --> 00:02:47,280
De klant heeft ontzettend veel documenten die ook nog eens uit meerdere versies aan

30
00:02:47,280 --> 00:02:53,720
en aanvullingen bestaat. Met generatieve AI lezen we de documenten en halen we bijna

31
00:02:53,720 --> 00:03:00,840
100 vooraf gedefiniëerde kenmerken uit die documenten. Tenminste, dat is het plan.

32
00:03:00,840 --> 00:03:06,560
Interessant. Je hebt duidelijk uiteengezet hoe generatieve AI een rol speelt binnen

33
00:03:06,560 --> 00:03:12,440
verschillende projecten bij Info Support. Laten we dieper ingaan op de toepassing in marketing.

34
00:03:12,440 --> 00:03:19,160
Het gebruik van personas die gegenereerd zijn door AI biedt fascinerende mogelijkheden voor

35
00:03:19,160 --> 00:03:25,800
marketingdoeleinden. Hoe waarborg je echter dat de gegenereerde inhoud nou aansluit bij de echte

36
00:03:25,800 --> 00:03:31,680
voorkeuren en behoeften van je doelgroep en hoe ga je te werk om eventuele vooroordelen in de AI

37
00:03:31,680 --> 00:03:39,040
modellen te identificeren en te mitigeren? Of de gegenereerde inhoud helemaal aansluit

38
00:03:39,040 --> 00:03:43,080
bij de echte voorkeuren en behoeften van je doelgroep, dat weet je helaas niet van tevoren.

39
00:03:43,080 --> 00:03:49,080
Maar je kunt wel meten of je het beter doet dan de huidige manier. De klant meet de conversie

40
00:03:49,080 --> 00:03:55,440
van advertenties en met een betere aansluiting zou die conversie omhoog moeten gaan. Anderzijds is

41
00:03:55,440 --> 00:04:01,440
de huidige manier van personas maken gebaseerd op internationale demografische data en ervaring

42
00:04:01,440 --> 00:04:09,480
van het marketingteam. Deze zit vol aanname en eventuele bias-vooroordelen. Wij zijn uitgegaan

43
00:04:09,480 --> 00:04:16,280
van data van social media. En dankzij de grotere hoeveelheden data hebben we zo een beter beeld

44
00:04:16,280 --> 00:04:21,400
kunnen vormen van een persona. Maar je hebt gelijk, dat sluit eventuele bias nog altijd niet

45
00:04:21,400 --> 00:04:27,640
uit. Echter, de resultaten en teksten die uit het systeem komen blijven beoordeeld worden door de

46
00:04:27,640 --> 00:04:33,960
marketeers van de organisatie en hebben ook een verplichting om naar die bias te kijken.

47
00:04:33,960 --> 00:04:41,560
Excuses, hier is de volgende vraag voor jou. Hoe zorgen jullie ervoor dat de AI-modellen actueel

48
00:04:41,560 --> 00:04:48,480
blijven en gebaseerd zijn op recente data, met name gezien de dynamische aard van sociale media?

49
00:04:48,480 --> 00:04:54,640
Is er een proces of systeem bij Info Support dat zich specifiek bezighoudt met het up-to-date

50
00:04:54,640 --> 00:05:00,280
houden van deze modellen? In het geval van personas wordt nieuwe data periodiek bijgeladen

51
00:05:00,280 --> 00:05:06,520
en kunnen de personas eenvoudig opnieuw worden samengesteld. Termijn en proces worden van tevoren

52
00:05:06,520 --> 00:05:10,560
afgestemd en geautomatiseerd op basis van de doelstellingen van de organisatie.

53
00:05:10,560 --> 00:05:17,000
Automatisering van data integratie lijkt een efficiënte manier om de AI-modellen relevant

54
00:05:17,000 --> 00:05:23,600
en actueel te houden. Nu vraag ik me af over de brede toepassing binnen de organisatie. Hoe

55
00:05:23,600 --> 00:05:27,960
borgen jullie de kennisoverdracht van deze generatieve AI-toepassingen naar andere

56
00:05:27,960 --> 00:05:32,680
afdelingen binnen Info Support, zodat het niet alleen bij gespecialiseerde teams blijft,

57
00:05:32,680 --> 00:05:36,560
maar ook door de rest van de organisatie effectief gebruikt kan worden?

58
00:05:36,560 --> 00:05:42,200
Wat een goede vraag. We hebben daar verschillende vormen voor. Zo is er een samenwerking tussen

59
00:05:42,200 --> 00:05:47,920
Info Support Nederland en Info Support België waar deze systemen worden ontwikkeld. De makers

60
00:05:47,920 --> 00:05:52,520
wisselen veel kennis onderling uit omdat ze daar profijt van hebben bij de doelontwikkeling van

61
00:05:52,520 --> 00:05:58,080
hun eigen systemen. Daarnaast borgen we zo snel mogelijk nieuwe best practices in ons

62
00:05:58,080 --> 00:06:04,160
guidance framework en delen we kennis via verschillende events. We hebben een Info Support

63
00:06:04,160 --> 00:06:09,920
kennisavond, we hebben een AI community en we delen dit ook binnen de area data en AI.

64
00:06:09,920 --> 00:06:16,960
Uitstekend. Het lijkt erop dat Info Support een sterke focus heeft op kennisdeling en samenwerking,

65
00:06:16,960 --> 00:06:22,880
zowel intern als internationaal. Als we ons nu richten op bijbehorende risico's,

66
00:06:22,880 --> 00:06:30,000
met de implementatie van AI in kritische bedrijfsprocessen komen ook risico's kijken,

67
00:06:30,000 --> 00:06:36,280
zoals veiligheidsproblemen en ethische vraagstukken. Kun je een situatie beschrijven waarbij jullie

68
00:06:36,280 --> 00:06:40,040
geconfronteerd werden met een dergelijk risico en hoe hebben jullie dit aangepakt?

69
00:06:40,040 --> 00:06:46,640
We hebben voor onszelf een helder ethisch kader. Zo is een van de uitgangspunten dat AI de mens

70
00:06:46,640 --> 00:06:51,920
moet versterken en niet vervangen. Daarnaast willen we verantwoordelijke systemen maken.

71
00:06:51,920 --> 00:06:57,360
En als we de vraag krijgen om modellen te ontwikkelen die mensen oneigenlijk benadelen,

72
00:06:57,360 --> 00:07:01,600
zullen wij niet ingaan op die vraag. In het afgelopen jaar hebben we twee

73
00:07:01,600 --> 00:07:06,240
mogelijke projecten daarom niet uitgevoerd. Het eerste ging voornamelijk om veiligheid.

74
00:07:06,240 --> 00:07:12,160
Het systeem bevatte medische zeer gevoelige gegevens van kwetsbare mensen. En nog voordat

75
00:07:12,160 --> 00:07:16,360
we de ethische beoordeling hadden gedaan, bleek dat de veiligheidsproblemen te ernstig waren

76
00:07:16,360 --> 00:07:21,600
en de potentiële klant niet bereid was deze op te lossen. We geven dan advies hoe deze

77
00:07:21,600 --> 00:07:24,720
veiligheidsrisico's te dichten, maar namen het project niet aan.

78
00:07:24,720 --> 00:07:30,360
Een ander project ging over het scoren van mensen voor vacatures. En dan voel je aan je water aan

79
00:07:30,360 --> 00:07:36,400
dat je gauw tegen ethische bezwaren, mogelijke discriminatie en misschien zelfs wetgeving gaat

80
00:07:36,400 --> 00:07:41,920
aanlopen. Ook hier hebben we in een vroeg stadium aangegeven dat wij een dergelijk model niet bouwen.

81
00:07:41,920 --> 00:07:47,240
De commitment aan ethische principes en veiligheid is duidelijk een prioriteit,

82
00:07:47,240 --> 00:07:53,840
wat vertrouwen wekt in de integriteit van Info Support. Dit brengt me bij de evaluatie van

83
00:07:53,840 --> 00:08:00,160
dergelijke projecten. Kun je het proces beschrijven dat Info Support hanteert voor ethische en

84
00:08:00,160 --> 00:08:05,880
veiligheidsbeoordelingen voorafgaand aan AI-projecten? Hoe wordt bepaald of een project

85
00:08:05,880 --> 00:08:10,600
voldoet aan jullie uitgangspunten? Nou, ten eerste bespreken we heel goed met

86
00:08:10,600 --> 00:08:16,720
onze klanten wat het doel is van het AI-project. Wat wil je veranderen? Wat wil je bereiken? Hiermee

87
00:08:16,720 --> 00:08:22,640
filter je de eerste ethische bezwaren er eigenlijk al uit. Daarna definiëren we het AI-project met

88
00:08:22,640 --> 00:08:28,760
de hulp van ons AI-experiment canvas. Daarin wordt je gedwongen om je project nog concreter

89
00:08:28,760 --> 00:08:34,760
te maken. Wat is je hypothese? Hoe ga je die meten? Welke ethische principes moeten worden afgewogen

90
00:08:34,760 --> 00:08:39,960
en welke wettelijke bepalingen moeten worden gecontroleerd? We leggen duidelijk vast op

91
00:08:39,960 --> 00:08:44,640
basis van welke criteria een project wordt stopgezet mochten we tegen deze principes

92
00:08:44,640 --> 00:08:50,480
aanlopen. We stimuleren onze medewerkers om goed na te denken over ethische principes en

93
00:08:50,480 --> 00:08:55,840
moedigen ze aan om deze ook te uiten. Zo hebben we in onze AI-community een hele sessie gewijd aan

94
00:08:55,840 --> 00:09:01,880
ethische grenzen. We delen ook voorbeelden van projecten van derden waar wij van vinden dat dit

95
00:09:01,880 --> 00:09:06,640
ethisch niet verantwoord was. Hier wordt steeds meer duidelijk waar onze grens ligt en wat we

96
00:09:06,640 --> 00:09:12,640
niet willen. En bij twijfel wordt in overleg besloten of het AI-project kan doorgaan en

97
00:09:12,640 --> 00:09:17,960
wordt dit aan een groep met verschillende disciplines voorgelegd. Een grondige en

98
00:09:17,960 --> 00:09:23,000
gestructureerde aanpak om te zorgen dat de AI-projecten ethisch verantwoord en wettelijk

99
00:09:23,000 --> 00:09:30,520
toelaatbaar zijn. Wat betreft de organisatiestructuur rond dit onderwerp? Hoe ervaren medewerkers de

100
00:09:30,520 --> 00:09:36,760
ruimte om ethische kwesties aan de kaak te stellen binnen Info Support? Heb je voorbeelden waarbij de

101
00:09:36,760 --> 00:09:41,720
feedback van medewerkers heeft geleid tot significante veranderingen in een AI-project

102
00:09:41,720 --> 00:09:48,080
of het afwijzen ervan? Ja, omdat we hier open over zijn hoop ik dat iedereen de ruimte voelt

103
00:09:48,080 --> 00:09:52,760
om ethische kwesties aan de kaak te stellen. Ik weet dat een medewerker het persoonlijk als

104
00:09:52,760 --> 00:09:58,160
vegetariër niet prettig vond om mee te werken aan een AI-project in een slachthuis. Hier is

105
00:09:58,160 --> 00:10:03,520
uiteraard direct naar geluisterd en gehandeld. Ethisch gezien past het project binnen de kaders

106
00:10:03,520 --> 00:10:08,200
van Info Support, maar persoonlijke grenzen worden dan wel gerespecteerd. Dus een medewerker

107
00:10:08,200 --> 00:10:15,200
is niet op het project gezet en er is vervanging geregeld. Het is bemoedigend te horen dat persoonlijke

108
00:10:15,200 --> 00:10:20,680
principes eveneens gerespecteerd worden binnen het bedrijf. Dit leidt me naar een bredere blik

109
00:10:20,680 --> 00:10:27,400
op de toekomst. Kijkend naar de toekomst, hoe ziet Info Support de ontwikkeling en integratie

110
00:10:27,400 --> 00:10:34,160
van generatieve AI in jullie diensten voor de komende 5 jaar? Zijn er bepaalde trends of

111
00:10:34,160 --> 00:10:40,120
technologieën waar jullie bijzonder op gebrand zijn om te volgen of te implementeren? Na je

112
00:10:40,120 --> 00:10:45,320
antwoord zal ik het interview afsluiten. De ontwikkeling en integratie van generatieve

113
00:10:45,320 --> 00:10:49,440
AI zal de aankomende jaren een vlucht nemen. Veel organisaties hebben een berg,

114
00:10:49,440 --> 00:10:54,360
zo groot als de Mount Everest, aan documenten en benutten de inhoud daar niet echt van.

115
00:10:55,360 --> 00:10:59,800
Met de komst van generatieve AI ontstaat de mogelijkheid om de inhoud toegankelijk te maken

116
00:10:59,800 --> 00:11:05,960
voor een brede doelgroep. De trend zal zijn dat veel van deze systemen gebouwd worden,

117
00:11:05,960 --> 00:11:10,960
maar wij zijn erop gebrand om die systemen juist robuust en betrouwbaar te maken. We

118
00:11:10,960 --> 00:11:16,200
doen onderzoek naar bijvoorbeeld de herleidbaarheid van de uitkomsten van generatieve AI en bronvermelding.

119
00:11:16,200 --> 00:11:21,400
De nieuwe ontwikkeling van bijvoorbeeld taalmodellen gaat rap en in een hoog tempo

120
00:11:21,400 --> 00:11:27,960
komen er nieuwe versies uit. Dat brengt uitdagingen met zich mee, want blijft je AI-systeem gebaseerd

121
00:11:27,960 --> 00:11:34,080
op generatieve AI wel werken als het fundament vervangen wordt? Wij kijken daarom naar geautomatiseerde

122
00:11:34,080 --> 00:11:40,360
testen van prompts en hoe je dit soort systemen monitort in productie. In de komende vijf jaar

123
00:11:40,360 --> 00:11:45,360
zullen er helaas ook veel onzin-applicaties worden gebouwd, gewoon omdat het technisch mogelijk is.

124
00:11:45,360 --> 00:11:52,000
De technologie wordt dan leidend en niet de bedrijfsdoelstellingen. Dit zal voor een aantal

125
00:11:52,000 --> 00:11:57,560
organisaties een dure les worden. Dat is zeker een belangrijk punt van aandacht. Bedankt voor

126
00:11:57,560 --> 00:12:04,960
dit interview. Best wel cool hoe uiteindelijk dan zo'n groot taalmodel zo'n interview kan

127
00:12:04,960 --> 00:12:13,880
afnemen. Hoe hebben we dit nou gemaakt? Kijk, het is niet met stemmen gegaan. We hebben echt een

128
00:12:13,880 --> 00:12:19,600
taalmodel gebruikt. Dus de vragen zijn geschreven en ik heb de antwoorden gegeven. Dus we hebben dit

129
00:12:19,600 --> 00:12:28,560
ingesproken alsof JGPT met daadwerkelijk spraak dit aan mij zou geven. En ik heb antwoorden die

130
00:12:28,560 --> 00:12:37,040
ik daadwerkelijk geschreven heb, heb ik ook zo nu opgenoemd in deze aflevering. Ik hoop dat je

131
00:12:37,040 --> 00:12:44,160
deze aflevering leuk en interessant vond. Zorg dan dat je je abonneert via je favoriete podcast

132
00:12:44,160 --> 00:12:46,520
app en mis geen aflevering. Dank je wel weer voor het luisteren.

133
00:12:46,520 --> 00:12:47,520
 
134
00:12:47,520 --> 00:12:47,520
 
135
00:12:47,520 --> 00:12:49,520
 

People on this episode