AIToday Live

S05E78 - Waarom de vloek van AI Act een zegen is

Aigency by Info Support Season 5 Episode 78

Stuur ons een bericht

In deze aflevering van AIToday Live verkent Joop Snijder de nuances van de toekomstige Europese wetgeving voor kunstmatige intelligentie. De EU AI Act staat centraal in een discussie die licht werpt op de balans tussen innovatie en risicomanagement, waarbij Joop de impact en de gewenste regulering vanuit een technologisch standpunt benadert.


Links

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:07,760
Hoi, leuk dat je weer luistert naar een nieuwe AIToday Live, de korte versie deze keer.

2
00:00:07,760 --> 00:00:16,840
En ik ga het hebben weer over de EU AI Act en voornamelijk waarom de vloek van de AI Act een

3
00:00:16,840 --> 00:00:25,840
zege blijkt te zijn. De afgelopen week is het heel veel gegaan over de aangenomen EU AI Act.

4
00:00:25,840 --> 00:00:33,640
En daar is zoveel zin en onzin voorbijgekomen dat ik daar toch deze aflevering aan wil wijden.

5
00:00:33,640 --> 00:00:40,360
En ik moet wel zeggen ik reageer vanuit mijn AI expertise. Ik heb geen juridische achtergrond,

6
00:00:40,360 --> 00:00:48,920
dus ik ga het niet hebben over wat het juridisch betekent. Maar laten we wel even kijken zeg maar

7
00:00:48,920 --> 00:00:54,200
wat er allemaal verteld is, gezegd is en nou ja hoe ik daar in ieder geval naar kijk.

8
00:00:54,200 --> 00:01:04,760
Laten we eerst eens even beginnen met dat de AI Act nog niet is. Het is een politiek akkoord,

9
00:01:04,760 --> 00:01:11,600
dat wil zeggen dat deze nog moet worden voorgelegd aan het Europees Parlement en de Raad en die moeten

10
00:01:11,600 --> 00:01:17,440
er dan over stemmen. En dat politieke akkoord dat gaat tekstueel echt nog wel op punten en

11
00:01:17,440 --> 00:01:25,480
komma's aangepast worden. Waarom heb ik het over de vloek? Dat is omdat ik dat nou zo bijna wel

12
00:01:25,480 --> 00:01:29,840
gehoord heb eigenlijk de afgelopen week. Het wordt gezegd ja deze wet is een vloek,

13
00:01:29,840 --> 00:01:35,000
want die beperkt mij in mijn innovatiekracht en hierdoor gaan we als Europa achterlopen.

14
00:01:35,000 --> 00:01:41,440
Technologische doorbraken van Big Tech komen met vertraging, uitgekleed of helemaal niet op

15
00:01:41,440 --> 00:01:47,780
de Europese markt. Iemand zei tegen mij zelfs van ja ik zie nu al Amerikaanse concurrenten AI

16
00:01:47,780 --> 00:01:53,400
tools gebruiken die ik vanwege de Europese wetgeving niet kan en mag gebruiken. Dit voelt

17
00:01:53,400 --> 00:02:02,560
heel oneerlijk. Maar deze wet gaat over impact. Hoeveel impact maak je nou op de levenssfeer van

18
00:02:02,560 --> 00:02:07,800
mensen? Hoeveel mensen raak je in principe? Het gaat over mensenrechten, dus onze rechten als

19
00:02:07,800 --> 00:02:14,640
Europese burger. En het mooie van deze wet vind ik is dat die heel proportioneel is. Dus als je

20
00:02:14,640 --> 00:02:22,200
heel weinig impact maakt betekent dat er ook heel weinig risico is en dat er dan ook lage of geen

21
00:02:22,200 --> 00:02:29,320
eisen worden gesteld vanuit deze wet op jouw AI systeem. Hoe meer mensen je raakt, hoe meer impact

22
00:02:29,320 --> 00:02:37,000
je maakt, hoe hoger het risico wordt, hoe meer eisen er gesteld worden aan het systeem. En dat

23
00:02:37,000 --> 00:02:43,080
lijkt me dan eigenlijk wel heel logisch toch. Als je heel veel mensen raakt en heel veel schade

24
00:02:43,080 --> 00:02:47,080
kan toebrengen dat we ook zeggen van ja maar daar willen we wel bescherming omheen hebben.

25
00:02:47,080 --> 00:02:53,040
Ook een van de dingen die ik van de week heb gehoord is gezegd van ja maar technologie zou

26
00:02:53,040 --> 00:03:00,240
best wel mogen crashen. En daar werd de analogie aangehaald van auto's. Net als in het begin van

27
00:03:00,240 --> 00:03:06,320
de auto's hadden we geen gordels en op een gegeven moment kwamen we erachter dat het toch wel handig

28
00:03:06,320 --> 00:03:13,280
zou zijn dat dat bescherming geeft tijdens ongelukken. En ik denk dat we juist daarvan

29
00:03:13,280 --> 00:03:18,640
moeten leren dat we niet eerst honderd, ja ik heb geen idee over hoeveel mensen het hebben,

30
00:03:18,640 --> 00:03:21,760
maar we hebben het waarschijnlijk over tienduizenden, misschien wel honderdduizend

31
00:03:21,760 --> 00:03:27,440
mensen wereldwijd die eerst dood hebben moeten gaan vanwege een gebrek aan bescherming gordels,

32
00:03:27,440 --> 00:03:34,840
dus met grote impact. En met deze wet voorkomen we dit soort dingen. Dan wordt er ook gezegd ja

33
00:03:34,840 --> 00:03:40,120
die innovatiekrachten die heb ik net genoemd daarmee gaan we dan achterlopen als Europa.

34
00:03:40,120 --> 00:03:48,000
Maar ik denk dat dat toch wel een beetje onzin is, beetje erg. Want wat er gesteld is is dat

35
00:03:48,000 --> 00:03:53,000
gezegd wordt bijvoorbeeld alles wat te maken heeft met research, puur research op het gebied

36
00:03:53,000 --> 00:04:05,640
van AI valt niet onder deze wet. Startups en innovatie dan heb je nog weinig impact als het

37
00:04:05,640 --> 00:04:13,960
goed is op mensen, samenleving en omdat dus die impact lager is kun je dus je innovatiekracht

38
00:04:13,960 --> 00:04:19,080
kan je grote inzetten want dan heb je dus minder strikte strengere regels worden eraan gesteld.

39
00:04:19,080 --> 00:04:26,400
En als je groeit als startup en je krijgt steeds meer gebruikers of je raakt steeds meer mensen,

40
00:04:26,400 --> 00:04:33,200
wordt het risico hoger en daarmee worden er strengere eisen gesteld. Heel logisch lijkt

41
00:04:33,200 --> 00:04:41,040
mij. Dan hebben we natuurlijk nog de foundation models. De taalmodellen, de grote taalmodellen,

42
00:04:41,040 --> 00:04:48,680
ChatGPT is daar de meest voorkomende, meest bekende in. Daar gelden best wel strengere regels zo

43
00:04:48,680 --> 00:04:58,600
direct voor. En ook dat lijkt me best wel logisch, want ook die hebben grote impact. Volgens mij

44
00:04:58,600 --> 00:05:04,360
hebben ze daar best wel heel goed over nagedacht. En je moet je ook voorstellen, wat ik deze week

45
00:05:04,360 --> 00:05:12,720
ook eigenlijk niet of nauwelijks heb gehoord, is de allerhoogste risicocategorie is eigenlijk

46
00:05:12,720 --> 00:05:18,120
de verboden categorie. En in die verboden categorie hebben ze zaken neergezet waarvan

47
00:05:18,120 --> 00:05:23,640
ik denk, ja maar die moet je ook helemaal niet willen. Social scoring zit erin. We kennen

48
00:05:23,640 --> 00:05:30,080
allemaal denk ik wel de voorbeelden van China, hoe die omgaan met hun burgers. Dat als je een

49
00:05:30,080 --> 00:05:37,040
aantal keren te vaak door rood bent gelopen en er hangen overal camera's, dat dat je kredietscore

50
00:05:37,040 --> 00:05:42,600
naar beneden haalt. Dus dat je dan bijvoorbeeld geen hypotheek krijgt of dat je weet ik het,

51
00:05:42,600 --> 00:05:47,320
je baan kan verliezen. En als je denkt, ja maar dat zijn Chinese praktijken, die komen hier niet

52
00:05:47,320 --> 00:05:56,840
voor. Wat ook niet mag, is dat je camera's de hele dag op werknemers zet. En een aantal jaar geleden

53
00:05:56,840 --> 00:06:02,720
werd een transportbedrijf, die werd echt hier voor op de vingers getikt, een Nederlands transportbedrijf,

54
00:06:02,720 --> 00:06:09,400
die camera's in de cabine hing van de chauffeurs, die dan constant gedurende hun werk gefilmd werden.

55
00:06:09,400 --> 00:06:16,240
Onder het mom van kijken of ze niet in slaap vallen of ze geen onveilige dingen doen. Klinkt

56
00:06:16,240 --> 00:06:22,320
allemaal heel mooi. Maar moet jij er eens voorstellen dat jij tijdens je werk continu een

57
00:06:22,320 --> 00:06:30,000
camera op je hebt en dat er wordt gekeken wat je doet, hoe je het doet, maar ook emotieherkenning.

58
00:06:30,000 --> 00:06:34,920
Dus die emotieherkenning mag ook niet. Dus ik denk dat ze, die verboden heb ik het echt heel

59
00:06:34,920 --> 00:06:41,680
weinig over gehoord. Ik denk dat die ook echt niet passen in onze Europese normen en waarden. Dus

60
00:06:41,680 --> 00:06:47,080
dat is echt wat mij betreft waanzinnig. En tuurlijk zullen er zo direct allerlei haken en ogen zijn,

61
00:06:47,080 --> 00:06:52,520
zal ik als AI-expert soms ook misschien toch een klein beetje deze wet vervloeken,

62
00:06:52,520 --> 00:06:57,440
omdat ik denk "Hè, dit past net helemaal niet". Maar ik denk dat het makkelijker is om zo direct

63
00:06:57,440 --> 00:07:06,160
die wet te verruimen dan uiteindelijk om hem krabber weer te krijgen. Mijn beeld is wat we

64
00:07:06,160 --> 00:07:12,160
hebben laten schieten met social media en waar we nu geëindigd zijn, laten we dat juist niet

65
00:07:12,160 --> 00:07:21,400
hebben voor AI. En ik moet zeggen, ik ben blij dat we zo direct een mooi afgekaderd,

66
00:07:21,400 --> 00:07:26,440
proportionele wetgeving hebben rondom AI. Dank je wel voor het luisteren.

67
00:07:26,440 --> 00:07:32,640
Weet je trouwens dat we een nieuwe nieuwsbrief hebben met exclusieve content?

68
00:07:32,640 --> 00:07:36,680
De link staat in de show note. Zorg dat je je hier snel abonneert.

69
00:07:36,680 --> 00:07:46,680
[Muziek]

70
00:07:46,680 --> 00:08:11,880
 

People on this episode