1
00:00:00,000 --> 00:00:05,240
Welkom bij een nieuwe, korte aflevering van AIToday Live met vandaag.
2
00:00:05,240 --> 00:00:08,800
Als we onze eigen besluiten al niet echt kunnen uitleggen,
3
00:00:08,800 --> 00:00:12,880
verwachten we daar niet te veel van machines om besluiten wel uit te leggen.
4
00:00:12,880 --> 00:00:19,520
Ik ben te gast geweest in de podcast 'De Dataloog' en daarin spraken we uitgebreid
5
00:00:19,520 --> 00:00:21,120
over Explainable AI.
6
00:00:21,120 --> 00:00:27,720
En een reactie die ik vaker krijg als ik over Explainable AI spreek of schrijf is het volgende.
7
00:00:27,720 --> 00:00:33,560
Hoe uitlegbaar zijn beslissingen eigenlijk als mensen ze nemen en weten we altijd van
8
00:00:33,560 --> 00:00:35,920
onszelf waarom we iets vinden en besluiten?
9
00:00:35,920 --> 00:00:41,360
Hebben we eigenlijk wel altijd toegang tot deze argumenten en kunnen we deze uitleggen?
10
00:00:41,360 --> 00:00:46,600
Om goed antwoord te geven moeten we eerst kijken naar hoe we als mensen besluiten nemen
11
00:00:46,600 --> 00:00:47,600
en die uitleggen.
12
00:00:47,600 --> 00:00:52,600
Want deze menselijke beoordeling is namelijk niet altijd goed de grond.
13
00:00:52,600 --> 00:00:58,860
Het maken van beslissingen is een fundamenteel aspect van het menselijk bestaan en speelt
14
00:00:58,860 --> 00:01:03,160
een cruciale rol in zowel ons persoonlijke als professionele leven.
15
00:01:03,160 --> 00:01:10,320
Hoewel we vaak streven naar rationele besluitvorming, gebaseerd op logica en feiten, is de invloed
16
00:01:10,320 --> 00:01:14,240
van irrationele of emotionele factoren niet te onderschatten.
17
00:01:14,240 --> 00:01:21,100
Laten we kijken naar de complexiteit van het besluitvormingsproces, de balans tussen rationele
18
00:01:21,100 --> 00:01:27,160
en emotionele componenten en hoe we deze kennis kunnen gebruiken, juist als argument voor
19
00:01:27,160 --> 00:01:29,160
explainable AI.
20
00:01:29,160 --> 00:01:34,800
Rationele besluitvorming is het proces waarbij individuen beslissingen nemen op basis van
21
00:01:34,800 --> 00:01:37,800
feiten, data en logische redenering.
22
00:01:37,800 --> 00:01:44,720
Dit model gaat ervan uit dat mensen optimaal handelen binnen de grenzen van de beschikbare
23
00:01:44,720 --> 00:01:50,640
informatie en consistent streven naar wat gezegd wordt aan het maximaliseren van hun
24
00:01:50,640 --> 00:01:51,960
welzijn of winst.
25
00:01:51,960 --> 00:01:58,960
Het rationele proces omvat het identificeren van het probleem, het verzamelen van informatie,
26
00:01:58,960 --> 00:02:05,280
het evalueren van alternatieven en daar dan het uitkiezen van de beste optie.
27
00:02:05,280 --> 00:02:13,360
Een kernaspect van rationele besluitvorming is het concept van bounded rationality.
28
00:02:13,360 --> 00:02:19,360
Hoewel mensen streven naar rationaliteit, zijn onze cognitieve capaciteiten beperkt.
29
00:02:19,360 --> 00:02:25,640
We kunnen niet alle mogelijke informatie en alternatieven verwerken wat leidt tot
30
00:02:25,640 --> 00:02:32,840
sacrificing, het kiezen van een optie die goed genoeg is in plaats van optimaal.
31
00:02:32,840 --> 00:02:38,120
Daarnaast hebben we te maken met emotionele besluitvorming.
32
00:02:38,120 --> 00:02:44,360
Dat verwijst naar beslissingen die sterk worden beïnvloed door gevoelens, stemmingen of andere
33
00:02:44,360 --> 00:02:45,600
niet-logische factoren.
34
00:02:45,600 --> 00:02:51,880
Emoties kunnen onze perceptie van feiten kleuren, leiden tot vertekeningen in ons oordeel en
35
00:02:51,880 --> 00:02:56,480
ons duwen naar beslissingen die niet noodzakelijk in ons beste belang zijn.
36
00:02:56,480 --> 00:03:01,640
Zo kennen we bijvoorbeeld de confirmation bias.
37
00:03:01,640 --> 00:03:06,920
Die zorgt ervoor dat we informatie zoeken die onze bestaande overtuigingen bevestigt.
38
00:03:06,920 --> 00:03:14,120
Ook hebben we soms te maken met loss aversion, waardoor we meer gemotiveerd zijn om verliezen
39
00:03:14,120 --> 00:03:17,480
te vermijden dan om gelijkwaardige winsten te behalen.
40
00:03:17,480 --> 00:03:23,920
In werkelijkheid zijn de meeste beslissingen die we nemen niet volledig rationeel of emotioneel,
41
00:03:23,920 --> 00:03:25,720
ze zijn een mengsel van beide.
42
00:03:25,720 --> 00:03:30,000
Emoties kunnen ons oordeel vertroebelen en ons leiden naar ondoordachte beslissingen.
43
00:03:30,000 --> 00:03:36,640
Emoties spelen een cruciale rol in de initiële besluitvorming omdat ze snel en efficiënt
44
00:03:36,640 --> 00:03:42,720
onze aandacht kunnen richten op iets anders dat belangrijk is of voelt, gebaseerd op
45
00:03:42,720 --> 00:03:44,960
eerdere ervaringen en waarden.
46
00:03:44,960 --> 00:03:49,800
Maar in een wereld die veel waarden hecht aan logica en rationaliteit, kunnen mensen
47
00:03:49,800 --> 00:03:55,840
zich gedwongen voelen om hun emotionele keuzes te rechtvaardigen met logische redeneringen.
48
00:03:55,840 --> 00:04:01,600
Dit kan leiden tot selectieve interpretatie van de beschikbare informatie om de gemaakte
49
00:04:01,600 --> 00:04:02,840
keuzes te ondersteunen.
50
00:04:02,840 --> 00:04:10,640
Dus, inderdaad, als mensen besluiten nemen, is het niet even transparant, niet even uitlegbaar.
51
00:04:10,640 --> 00:04:18,640
Maar nu krijgen we te maken met een technologie die keuzes kan maken en waarvan wij kunnen
52
00:04:18,640 --> 00:04:20,800
bepalen hoe die technologie eruitziet.
53
00:04:20,800 --> 00:04:28,960
Dus als we de stap maken naar machine learning, dan is een machine learning model een benadering
54
00:04:28,960 --> 00:04:36,320
van de werkelijkheid en heeft ook niet alle informatie ter beschikking en kan vaak maar
55
00:04:36,320 --> 00:04:39,600
op één uitkomst gemaximaliseerd worden.
56
00:04:39,600 --> 00:04:45,400
Bijvoorbeeld klantbehoud optimaliseren of e-mail in de juiste categorie indelen.
57
00:04:45,400 --> 00:04:52,200
Maar het kan wel gebruik maken van de informatie die wordt aangeboden en dat kunnen honderden
58
00:04:52,200 --> 00:04:54,680
of duizenden variabelen zijn.
59
00:04:54,680 --> 00:05:02,160
Hier bepalen wij ook wat de boundaries zijn van de informatie die meegenomen kan worden
60
00:05:02,160 --> 00:05:03,920
in zo'n model.
61
00:05:03,920 --> 00:05:12,080
Met deze technologie, als we dan daar besluitvorming mee gaan modelleren en mogelijk besluiten
62
00:05:12,080 --> 00:05:14,520
gaan automatiseren, krijgen we dus een keuze.
63
00:05:14,520 --> 00:05:17,840
Gaan we dat wel of niet uitlegbaar maken?
64
00:05:17,840 --> 00:05:22,040
Ik zie dan liever hoe het model een besluit neemt.
65
00:05:22,040 --> 00:05:23,880
Hoe het als het ware redeneert.
66
00:05:23,880 --> 00:05:31,160
Wij hebben de keuze of een blackbox model waar we niet in kunnen kijken, laten we zeggen
67
00:05:31,160 --> 00:05:38,740
hoe wij als mens besluiten nemen, of wij zo'n blackbox acceptabel vinden of dat we willen
68
00:05:38,740 --> 00:05:41,840
begrijpen hoe de machine tot een uitkomst is gekomen.
69
00:05:41,840 --> 00:05:49,360
Wat mij betreft hoe belangrijker het besluit, hoe belangrijker het is dat we uitleg krijgen.
70
00:05:49,360 --> 00:05:57,400
Bij uitlegbare AI weten we de gebruikte informatie, zien we hoe de besluiten worden genomen en
71
00:05:57,400 --> 00:06:02,800
met deze uitleg kunnen we fouten opsporen, mogelijke vooroordelen vinden en krijgen we
72
00:06:02,800 --> 00:06:07,000
de mogelijkheid om een uitkomst op zijn betrouwbaarheid te controleren.
73
00:06:07,000 --> 00:06:14,840
Maar nogmaals, een machine learning model is een benadering van de werkelijkheid en tussen
74
00:06:14,840 --> 00:06:23,120
de input data en label, de uitkomst, zat meestal een menselijke beoordeling.
75
00:06:23,120 --> 00:06:24,360
Dat moeten we niet vergeten.
76
00:06:24,360 --> 00:06:32,920
Dus ook al proberen we het zo objectief mogelijk te maken en kunnen we inzicht krijgen in
77
00:06:32,920 --> 00:06:40,480
hoe het model een besluit neemt, zit daar nog steeds het ondoorgrondelijke van de mens
78
00:06:40,480 --> 00:06:41,480
in.
79
00:06:41,480 --> 00:06:46,080
Toch, als het mogelijk is, kies ik altijd voor uitlegbare AI.
80
00:06:46,080 --> 00:06:51,400
De technologie kan zo een nieuwe dimensie toevoegen ten opzichte van onze ondoorgrondelijke
81
00:06:51,400 --> 00:06:58,240
besluitvorming en daarmee inzicht geven die voor ons als mens onvoorstelbaar is.
82
00:06:58,240 --> 00:07:05,040
Leuk dat je weer luisterde naar een korte aflevering van AIToday Live.
83
00:07:05,040 --> 00:07:07,800
Mijn naam is Joop Snijder, CTO bij Aigency.
84
00:07:07,800 --> 00:07:09,240
Tot de volgende keer!
85
00:07:09,240 --> 00:07:15,240
-
86
00:07:15,240 --> 00:07:17,240
-