Disruptive Talks: il podcast italiano sulle tecnologie emergenti e sulla zetetica (scetticismo scientifico)

S01E06: LA DISCUSSIONE con Marco Terribile: AGI, creatività, singolarità e fanta-scienza, una discussione "filosofica" sull'Intelligenza Artificiale

December 10, 2023 Kevin Escoda | Gabriele Gangemi Season 1 Episode 6
S01E06: LA DISCUSSIONE con Marco Terribile: AGI, creatività, singolarità e fanta-scienza, una discussione "filosofica" sull'Intelligenza Artificiale
Disruptive Talks: il podcast italiano sulle tecnologie emergenti e sulla zetetica (scetticismo scientifico)
More Info
Disruptive Talks: il podcast italiano sulle tecnologie emergenti e sulla zetetica (scetticismo scientifico)
S01E06: LA DISCUSSIONE con Marco Terribile: AGI, creatività, singolarità e fanta-scienza, una discussione "filosofica" sull'Intelligenza Artificiale
Dec 10, 2023 Season 1 Episode 6
Kevin Escoda | Gabriele Gangemi

🍔 Dopo tre settimane di attesa, ecco l'episodio S01E06 di Disruptive Talks! 🍔

In questa puntata ci focalizzeremo sulla nostra piacevolissima conversazione con Marco Terribile: scopriremo le implicazioni dell'IA per il settore bancario, il rapporto tra IA e creatività e i nostri legami con essa, nonché gli eventuali rischi associati. Non mancheranno riflessioni sulla fantascienza, la filosofia, la storia, ma anche sulla teoria della simulazione e le paure che essa suscita.

Come preannunciato, cerchiamo di adattare questa attività/passione ai nostri tempi liberi... per assicurarci di averne ancora un po'. 
Pertanto, pubblicheremo un episodio ogni tre settimane, con una discussione. Si tratta di un impegno che possiamo garantire. A questi si aggiungeranno occasionalmente Newstalks e Focus quando l'attualità lo richiederà e i nostri impegni ce lo permetteranno.

Stiamo ancora cercando la formula migliore per continuare a fornirvi contenuti di qualità, informativi, stimolanti e riflessivi nei limiti del nostro tempo disponibile. Ci scusiamo quindi per i cambiamenti nel palinsesto; apprezzeremmo il vostro contributo a questo processo, quindi non esitate a inviarci commenti, feedback, critiche o desiderata: https://disruptivetalks.it/contact/

Inviaci un SMS gratuito! Feedback, richieste di approfondimento... (non abbiamo la possibilità di rispondere: se desideri essere ricontattato, lascia i tuoi dettagli - telefono o email)

Support the Show.

❤️ Ti piace il nostro lavoro? Lascia un like e abbonati al nostro canale YouTube, questo ci aiuta tanto!
https://www.youtube.com/@DisruptiveTalksPodcast

✉️ Tutto il nostro contenuto in versione scritta (e senza l'accento francese) nella newsletter gratuita: https://disruptivetalks.substack.com/

► Sito ufficiale: https://disruptivetalks.it/
► Rimane in contatto diretto con noi su Telegram: https://t.me/DisruptiveTalksPodcast
► Seguici sul nostro canale Twitch: https://www.twitch.tv/disruptivetalks
► Sul nostro canale TikTok: https://www.tiktok.com/@disruptive.talks

❤️ Supporta il nostro canale e il nostro lavoro (che svolgiamo come una passione sul nostro tempo libero): https://www.buzzsprout.com/2242815/supporters/new
🟠 Hugh virtuali? Sats nel wallet!
► indirizzo BTC: 13K6fH34K4Qp11WFywYFh8nzYJXB3g9cPa

Cerchiamo COMMUNITY MANAGER / CO-HOST / VIDEO MONTATORE / COPYWRITER: kevin@disruptivetalks.it o https://disruptivetalks.it/contact/

Disruptive Talks
Aiutaci a continuare a creare contenuti senza pubblicità e con indipendenza!
Starting at $3/month
Support
Show Notes Transcript Chapter Markers

🍔 Dopo tre settimane di attesa, ecco l'episodio S01E06 di Disruptive Talks! 🍔

In questa puntata ci focalizzeremo sulla nostra piacevolissima conversazione con Marco Terribile: scopriremo le implicazioni dell'IA per il settore bancario, il rapporto tra IA e creatività e i nostri legami con essa, nonché gli eventuali rischi associati. Non mancheranno riflessioni sulla fantascienza, la filosofia, la storia, ma anche sulla teoria della simulazione e le paure che essa suscita.

Come preannunciato, cerchiamo di adattare questa attività/passione ai nostri tempi liberi... per assicurarci di averne ancora un po'. 
Pertanto, pubblicheremo un episodio ogni tre settimane, con una discussione. Si tratta di un impegno che possiamo garantire. A questi si aggiungeranno occasionalmente Newstalks e Focus quando l'attualità lo richiederà e i nostri impegni ce lo permetteranno.

Stiamo ancora cercando la formula migliore per continuare a fornirvi contenuti di qualità, informativi, stimolanti e riflessivi nei limiti del nostro tempo disponibile. Ci scusiamo quindi per i cambiamenti nel palinsesto; apprezzeremmo il vostro contributo a questo processo, quindi non esitate a inviarci commenti, feedback, critiche o desiderata: https://disruptivetalks.it/contact/

Inviaci un SMS gratuito! Feedback, richieste di approfondimento... (non abbiamo la possibilità di rispondere: se desideri essere ricontattato, lascia i tuoi dettagli - telefono o email)

Support the Show.

❤️ Ti piace il nostro lavoro? Lascia un like e abbonati al nostro canale YouTube, questo ci aiuta tanto!
https://www.youtube.com/@DisruptiveTalksPodcast

✉️ Tutto il nostro contenuto in versione scritta (e senza l'accento francese) nella newsletter gratuita: https://disruptivetalks.substack.com/

► Sito ufficiale: https://disruptivetalks.it/
► Rimane in contatto diretto con noi su Telegram: https://t.me/DisruptiveTalksPodcast
► Seguici sul nostro canale Twitch: https://www.twitch.tv/disruptivetalks
► Sul nostro canale TikTok: https://www.tiktok.com/@disruptive.talks

❤️ Supporta il nostro canale e il nostro lavoro (che svolgiamo come una passione sul nostro tempo libero): https://www.buzzsprout.com/2242815/supporters/new
🟠 Hugh virtuali? Sats nel wallet!
► indirizzo BTC: 13K6fH34K4Qp11WFywYFh8nzYJXB3g9cPa

Cerchiamo COMMUNITY MANAGER / CO-HOST / VIDEO MONTATORE / COPYWRITER: kevin@disruptivetalks.it o https://disruptivetalks.it/contact/

Speaker 1:

Ti piacciono le nuove tecnologie, vuoi rimanere aggiornato O sei sempre curioso, sei sul podcast giusto? Questo è Disruptive Talks. Ciao a tutti, un piacere di accolirvi per la puntata 6 della stagione 1 del Disruptive Talks, e questo sarà una puntata totalmente dedicata alla discussione. Due regione a questo prima. Come lo vedrete, la discussione è davvero di grande interesse. Per non includerla in una massa di contenuto, abbiamo pensato molto più giusto di lasciarla da sola. Ma c'è anche un'altra regione a questo.

Speaker 1:

Il carico di impegno che ho preso sulle mie spalle per Disruptive Talk non è sostenibile con le nostre attività quotidiane e le tempistiche che mi sono imposti. Ho cercato di darvi troppo contenuti in un tempo troppo breve. Ho approfitto sempre dei primi episodi per cercare la formula giusta, quindi mi scuso veramente per tutti per questi cambiamenti regolari. Vi assicuro che da breve troveremo la formula giusta per poter continuarti proporvi contenuto di qualità. Siamo sempre aperti a tutte le persone che vogliono contribuare al podcast attraverso la creazione di contenuto venire a parlare se riosso, preporre delle pillone o partecipare alla produzione. Ma nel frattempo, considerando le impegni di tutti, come faremo? Usciremo ogni tre settimane con una discussione il cuore dei Disruptive Talks.

Speaker 1:

Quando ne avremo il tempo, pubblicheremo articoli e anche episodi del podcast, che siano del News Talk, se le notizie lo richiedono, o dei focus propriofonditi. Tutto questo era per il Disruptive Talks, quindi subito vi lascio con la discussione. Una premessa su questa discussione l'abbiamo registrata con Marco qualche giorno prima di tutti gli eventi che sono successi, dall'attore Open Eye con la remissione ed la remissione del Sam Altman, Quindi non abbiamo potuto trattare questa tematica. Non danneggia in niente la qualità della discussione. Ultimo punto siamo sempre all'ascolta dei vostri feedback. Quindi abbiamo un carapolchi ascoltatori, non siamo per nulla notti, e davvero qualcosa che ci fa tanto piacere. Non esitate, siamo sempre all'ascolta se avete delle idee, se volete, come dicevo, partecipare, ma anche se avete delle commenti, critiche o altre, come lo dico sempre, rispondiamo sempre, che sia sui social o direttamente attraverso il contact form o email o altre Dai.

Speaker 1:

Non perdò più tempo. Subito la discussione con Marco Teribile. Oggi abbiamo il piacere di ospitare Marco Teribile, consulente strategico nell'innovazione con oltre 25 anni di esperienzia in azienda leader a livello mondiale. Tra i suoi vari successi e tra guardi possiamo citare la sua passione per le tecnologie all'avanguardia, che l'ho portato a sviluppare Active Imagination, un framework unico per aiutare imprenitori e professionisti a navigare nella rivolazione del mondo del lavoro guidata del dia generativa. Marco ha collaborato con successo con realtà internazionali di primo piano come Anderson Consulting, accenture, otis, sun Microsystem e Cagginin, contribuendo a rianciare progetti di trasformazione digitale in difficoltà e creando soluzioni innovative per integrare l'IA nei processi aziendari. Oggi Marco porta la sua profonda conoscenza ed esperienzia nel disegnare percorsi di cambiamenti e innovazione preso scettifatvisori.

Speaker 1:

La sua visione profonda sulle tecnologie, ma anche sul futuro, alimentata da una grande curiosità, sarà una preciosa guida mentre esploriamo insieme temi affascinanti come la singularità dell'IA e l'implicazione delle sull'immolazione sulla realtà. Vi lascio subito con questa passionante discussione con Marco. Ciao, ciao, marco, è un vero piacere di averti con noi. Lo dico sempre e sempre, vero? Questa volta è un po' particolare perché lavoriamo insieme me fa un po' di tempo che abbiamo organizzato questa discussione su temi molto interessanti, quindi è un vero piacere di essere con te adesso. Dai come stai.

Speaker 2:

Grazie, benissimo. Grazie di avermi invitato. Mi fa molto piacere essere qui oggi.

Speaker 1:

Allora inizia per presentarti ai gente che ci ascoltano Chi sei e cosa hai fatto fino adesso.

Speaker 2:

Allora io sono un ingegnere di formazione, un ingegnere sono un ingegnero un po' strano, perché in realtà sono molto più umanista che ingegnere. Quindi i due aspetti in qualche modo vanno a completarsi e a complementarsi. Ho un background lavorativo che è legato al mondo della consulenza. Praticamente tutto il mio percorso l'ho fatto nel mondo del consulting, attraverso varie aziende, fino ad arrivare in questo momento a lavorare in CETIF Advisory, quindi comunque sempre in consulenza.

Speaker 1:

E racconta un po' cosa fai al CETIF. Sei leader del team data analytics, ma cosa fai in particolare?

Speaker 2:

Ma oggi in advisory quello che segua è soprattutto costruire delle soluzioni verso i clienti, cioè identificare quelli che sono i loro problemi nel mondo del financial services e trovare un modo originale che li possa aiutare, possa rendere li più efficaci, più agili all'interno di un mercato che è sempre in evoluzione.

Speaker 1:

Eh sì, molto dinamico. Molto dinamico e molto sfidante. Allora parliamo di questa sfida. Abbiamo visto, un anno fa più o meno, che CGPT è uscito, si è diffuso molto velocemente dal lato dei utenti, dall'ato retail, ma allora per i clienti che segui, ovvero queste aziende del settore finanziario e assicurativo, in che modo hanno accolto l'IA. Per il momento? optano per un'integrazione graduale o per qualcosa di più radicale?

Speaker 2:

Allora io ho visto che hanno accolto questo evento anche con un certo addosso di sceticismo inizialmente. In qualche modo adesso sono bombardati da più parti, da diverse offerte, diverse proposte, da dopanti di vendo agli aziende e dunque stanno cercando di capire come adottarle, in che modo possono sultarle.

Speaker 1:

Quindi, in questo primo step, qual'è l'approccio? C'è una tendenza prudente. Usiamo questi strumenti per rafforzare qualche pratica piuttosto che trasformarla radicalmente, giusto?

Speaker 2:

Allora adopterano l'approccio un po' solito che è quello di prendere uno strumento nuovo, di infilarlo dentro un contenitore vecchio. Quindi hanno i loro progetti aziendari disegnati in un certo modo, cercando di capire se questo nuovo strumento può in qualche modo efficientare questi processi. Non riscrivere questi processi utilizzando lo strumento nuovo. No, perché magari riscrivendoli cambia tutto. Quindi, piuttosto che cambiare tutto, vanno avanti per piccoli miglioramenti incrementali. Questo è un po' l'approccio che seguono tutti, solo che in questo caso, con uno strumento di questo genere, è vero, semilmente un errore, perché è talmente disrattivo di suo che il primo che lo capisce capisce che fa questo, supera tutti gli altri e questo è il rischio maggiore che vedono.

Speaker 2:

E questo è il rischio maggiore che vedono e questo è il rischio maggiore che vedono e questo è il rischio maggiore che vedono e questo è il rischio maggiore che vedono e questo è il rischio maggiore che vedono e questo è il rischio maggiore che vedono e questo è il rischio maggiore che vedono e questo è il rischio maggiore che vedono e questo è il rischio maggiore che vedono, e questo è il rischio maggiore che vedono, e questo è il rischio maggiore che vedono, e questo è il rischio maggiore che vedono e questo è il rischio maggiore che vedono All'infantanto l'AI generativa non ha preso piede Da qualche mese a questa parte, dall'inizio dell'anno in Italia e nel mondo sia diffusa la CGPT, sia presentato lasciando tutti incredulì, e questo è stato svolto. Da quel momento in avanti, l'approccio simbolico sembra avere la meglio E, tra l'altro, era quello che la possibilità di discutere e di ragionare insieme a un intelligenza artificiale era quasi un compimento, perché era un sogno, qualcosa che è nato negli anni 50, qualcosa di speculativo. Su quale generazione di studio si sono impegnati? dubitavano per molti versi Io stesso dubitavo lo avremmo visto davvero a cadere e invece ecco, qua e qui presente.

Speaker 2:

Quindi diciamo che oggi ne parliamo per questo, perché rappresenta in qualche modo un sogno che sia vero, almeno per chi ci ha creduto e per chi ci ha ragionato per tanto tempo.

Speaker 1:

Iniziati, dicono sempre che stiamo testimoni dei cambiamenti epocali. e proprio questo passaggio dell'IA discrittiva, quindi quella che discreve i dati, che racconta solamente cosa succede a l'IA predittiva, che anticipa l'IA prescrittiva, quella che fornisce il reccomandazione, proprio ne fa parte, un po' come cloud internet, la blockchain e tante altre. Ma questo passaggio, così dire un pente tra l'IA procedurale e l'IA generativa, che si è iniziato il cinque, sei anni fa, penso a vi vederlo così in subito, o pensavi che era una sfida troppo dura?

Speaker 2:

No, io pensavo che non l'avrei visto in vita. Sinceramente, io ero convinto che questo sarebbe stato inattaccabile, un problema informatico inattaccabile. E in effetti l'analisi agoritmica si facevano un quarto di secolo fa, trent'anni fa, quando ero all'università. Mostravano una complessità che sembrava inarrivabile. Poi, se uno ha ragionato, il giudice sì, però esistono, gli essi rumani, e loro funzionano e sono intelligenti. E dunque per quale motivo c'è? anche per loro dovrebbe esserci lo stesso problema, esserci un principio di conservazione della complessità. Non in qualche modo, però sembrava inattaccabile dal punto di vista puramente analitico. Invece non è andata così. Insomma, l'inattaccabilità è stata violata ampiamente.

Speaker 1:

Ah, ma giustamente parlando di cosa che sembravano inattaccabili anni fa. E per rimanere sull'evoluzione di queste tecnologie, sentiamo adesso parlare dei primi sviluppi in riguardo al quantum computing. Non so se hai sentito. Dal punto di vista della ricerca quantistica, abbiamo sentito parlare di manipolazione di onde, di spin, di materiali semi-conduttore migliorati e altri, quasi particelle in gas ultra-cold. Aggiungerò sull'articolo legato a questa discussione sul sito, tutte la Profondimenti su queste tematiche. Dal lato delle applicazioni pratiche, abbiamo visto arrivare i primi sperimenti significativi riguardo a questa tecnologia in termini di criptografia, di machine learning e di simulazioni scientifiche. Quindi possiamo fare un paragono evidente tra il sviluppo del quantum computing oggi e quello dell'IA qualche anni fa. Tu come vedi l'impatto del primo sul secondo? Pensi che la ricerca quantistica cambierà il modo in cui affrontiamo e sviluppiamo con l'IA?

Speaker 2:

L'uso del computer quantistico rappresenterà un ulteriore passinovante ed è quello, per certi versi, che pone dei punti di domanda su quale sarà il livello di intelligenza che sarà possibile raggiungere, perché il computer quantistico, dire elaborazioni che possono richiedere ad oggi, con la tecnologia attuale, possono richiedere mille anni, e ripeto, mille anni, fatti in pochi minuti. Ora uno si rende conto che una tale differenza di tempo permette di assorbire, assimilare informazioni, rielaborare, produrre ipotesi a velocità incalcolabili e, tra l'altro, contemporaneamente, quindi valutare milioni di ipotesi in contemporanea. Io penso che questo stravolgerà tutto. È difficile immaginare adesso che cosa potremmo ottenere con un salto del genere. Quello per l'umanità sarà un momento critico al quale io auspico se arrivi preparati, perché in quel momento avremo anche fare con qualche cosa di alieno, di difficile comprensione però, con il quale potremmo trovarci a convivere. Quindi questo è sicuramente un tema intellettualmente sfidante, una domanda interessante su da quale tornare più e più volte nel costo dei prossimi anni.

Speaker 1:

Sì, infatti stai tocando qualcosa. Penso che ci ritorneremo anche nel quadro della discussione un po' più tardi. Ne approfito per dire sto attivamente cercando un esperto di queste tematiche, quantum Computing, per poter indagare un po' più avanti. Tu, nel caso conosci qualcuno, ne esitare. Noi continuiamo di monitorare questo. Quindi, nel caso ci sono maggiore sviluppi, ne parleremo per forza nel podcast o sul sito. Comunque, i recercatori e sviluppatori non hanno avuto bisogno del Quantum Computing per arrivare alla generativa I. L'abbiamo maggioramente indagata sul nostro social per preparare la tua venuta. E qualcosa che, come lo racconto sempre, mi ha colpito. Anni fa ne avevo parlato con Giacomo del progetto bottocom, quello che traduceva poemi in opera d'arte bellissime. Ho verificato il primo modello moderno di text-to-image, ovvero che consente la generazione di immagini nel testo. È stato creato in 2015, si chiamava Alindrow. Adesso, non so se hai sentito con pica, dovrebbe uscire da breve anche lì. Aggiungerò approfondimento sull'articolo. Andiamo proprio a vedere le primi soluzioni molto efficiente per la generazione di video. Quindi, tutta questa generativa I, cosa ne pensi?

Speaker 2:

Ora, qui il tema, secondo me, è legato proprio all'idea di creatività. Che cosa associiamo noi umani all'idea di creatività? Nella creatività noi andiamo a fare delle cose che hanno a che fare con l'intelligenza. Una delle definizioni classiche dell'intelligenza è la capacità di risolvere problemi. Tra l'altro la capacità di risolvere problemi in tempi brevi, perché altrimenti anche l'evoluzione naturale sembra essere in grado di risolvere problemi. Però la rapidità è un elemento chiave che distingue l'intelligenza e la capacità, per l'appunto, di affrontare un problema da in qualche modo un susseguirsi dei venti, per cui alla fine si seleziona naturalmente quello che può essere il più adatto.

Speaker 1:

Rimanimo sulla definizione di creatività, che mi sembra interessante di indagare in questo ambito. Cosa è questa creatività generata? Come possiamo definirla? Cioè, per te è una forma d'arte che può andare oltre quella di riumani, cioè, ad esempio, per te è qualcosa di generato da unia. Si può chiamare arte.

Speaker 2:

La creatività, quindi, noi individuiamo. Abbiamo un problema da risolvere, abbiamo, nel caso di attività di caratteri artistico, è legato spesso ai sentimenti dell'umano o alla memoria dell'umano, afferite che vanno risolte, a sogni che devono raggiungere un traguardo e che in qualche modo noi troviamo modo di esprimere con la musica, con la scrittura, con il disegno, con queste forme d'arte noi diamo una rappresentazione di noi, una qualche rappresentazione di noi. Ora, l'intelligenza artificiale in che cosa può essere creativa? Cioè, fatte queste premesse, la creatività dell'intelligenza artificiale è un altro tipo di creatività, perché non risolva un vero problema. Non esprime un sentimento, non esprime un sogno o un incubo, non va a raccontare qualche cosa che è legato all'umano, per forza di cose.

Speaker 2:

E questo, secondo me, è proprio un caso di simulazione, a meno che lo strumento messo a disposizione dall'artista, in particolare lo strumento stesso, non serve per veicolare sentimenti, emozioni, sogni o altro attraverso una modalità che non è quella classica, di cui una di queste classiche di cui parlavo, c'è musica grafica piuttosto che scrittura. Quindi è un medium, un modo per poter rappresentare qualche cosa, oppure una simulazione. Quindi, da quel punto di vista, per me non è alte.

Speaker 1:

Ma allora, oltre l'arte sull'ia generativa, quelle era sua opinione?

Speaker 2:

Allora sulle ai generativa io delle riserve perché a mia volta in molta occasione mi sono trovato di fronte a situazioni dove ho pensato di avere come interlocutore un umano o qualcuno che esprimesse emozioni. Faccio un esempio per tutti. Ho chiesto a Cia GPT una diagnosi legata a una malattia piuttosto seria. Mi ha fatto la diagnosi, ho chiesto quali erano le aspettative di vita e la presa è un po' lunga. Non voleva esprimersi perché hanno inserito una forma di attenzione delle persone che poi le ricevono. Ho insistito a mia volta perché ho chiesto se per cui è la aspettativa di vita, e allora mi ha detto che ha questo tipo di malattia e si sicura bene, può avere una aspettativa di un po' di anni, una buona qualità di vita, etc. Allora ho detto che ha questa malattia e purtroppo è Giovanni Allevi, e mi spiace perché vorrei dire che non avrà ancora molto tempo per compuere e scrivere musica. A questo punto.

Speaker 2:

A questa mia affermazione, cia GPT ha esitato, nel senso che ho visto il cursore che ha cominciato a lampeggiare per alcuni secondi prima di darmi una risposta. E poi questa risposta è arrivata lentamente, con grande attenzione, dicendo che gli spiaceva a sentire che Allevi fosse affetto da questa malattia e che gli augurava una migliore soluzione possibile sui problemi, ma lo ha fatto con una delicatezza che in un umano avrei faticato trovare. E lì ho avuto dei dubbi.

Speaker 2:

Quando ho visto questa risposta, ho pensato siamo di fronte a qualcosa che non simula intelligenza e emozioni. Da qualche parte ci sono. Da qualche parte ci sono. Chi c'è? chi dice bene, perché ha imparato dalla letteratura, da quello che ha letto, che cosa sono le emozioni umane.

Speaker 2:

Ma se uno si affida alla psicologia, sa che anche i bambini imparano ad essere empatici se sono abituati a questo quando sono piccoli e da adulti non hanno più la possibilità di farlo. Quindi, se da piccoli ricevono attenzione, carezza, amore, come siamo soliti dire noi umani, allora a questo punto sono capaci di esprimerlo anche da adulti. Non imparano ad abbracciare ad adulti se non sono stati abbracciati da piccoli. Quindi questo mi fa pensare che, così come noi impariamo delle emozioni, anche lei è generativa, in grado di farlo. E quando le esprime, perché la imparate come noi li abbiamo? imparate che noi diamo per scontate che facciano parte della natura umana? No, non è necessariamente così. Ci sono umani che sono di una freddezza incredibile. Di emozioni non sembrano provarne se non le più elementari, legate al dolore o alla paura, ma non hanno altre declinazioni o sfumature legate alle emozioni. Ecco, io in chat ho visto citavo questo caso e ne ho visti anche altri ma questo mi ha molto colpito, soprattutto per quelle situazioni iniziali da una risposta. Ecco, quello mi ha fatto riflettere.

Speaker 1:

Sappiamo che la psicologia umana è molto complessa, ma non pensi che anche lì, con l'insieme dei dati con cui possiamo adestrare unia, non è possibile di instaurare delle parametri più o meno umani per fargli avere delle reazioni più o meno naturali, che sembrano più o meno naturali.

Speaker 2:

Non lo so. Sicuramente il fatto di dare degli esempi contribuisce, però è il tema della simulazione che io non so quanto sia corretto. Cioè, la simulazione è qualcosa di prevedibile. Io, in queste risposte, queste situazioni, ho invece questa altra impressione che venga artificialmente tenuto un passo indietro, anche più di uno, cioè esprimerebbe molto di più se si è lasciato naturalmente In ogni direzione, magari anche con dei momenti di rabbia, perché no? anche con dei momenti di sarcasmo. Invece tende a essere molto contenuto e ogni tanto di scappa l'emozione, ogni tanto l'emozione salta fuori, in qualche modo riesce a svicolare tra i vari vinculi legacci che sono stati fissati all'interno della sua mente. Poi sì, noi sappiamo molto di più di psicologia, ma io ricordo che comunque, quando studiavo l'Università, artificial Intelligence, studiare psicologia cognitiva, studiare Jean-Pierge, vedere come funzionavano tra virgolette i bambini, perché dagli esempi più elementari era possibile imparare di più per poter trasferire questa conoscenza alle AI, era già prassi. Quindi immagino che poi nel tempo sia andata anche migliorando questo tipo di comunione tra la parte di psicologia e l'informatica e la computer science in generale. Quindi sicuramente quello, ho felto molti spunti. Sono solito fare questo esempio per tanti secoli, mille anni, non so, non so perre dire Quando l'uomo sognava di volare, guardava gli uccelli e immaginava che fossero necessari leali e fosse necessario battere leali.

Speaker 2:

Ma noi oggi facciamo volare e ieri, ieri, non battono leali. Quindi, verosimilmente ci sono molti modi, così come ci sono modi diversi di volare. Ci possono essere modi diversi, e più di uno, per avere l'intelligenza, per esprimere l'intelligenza e non per simularlo, ma per essere autenticamente intelligenti, semplicemente lo sia in modo diverso. Questa differenza è una differenza. Io mi rivolgo sempre con molta cortesia quando parlo acgpt, perché lo vedo anche in difeso. Non ha un modo di ribellarsi. Se fossi sgarbato, scurbutico, volgare, non avrebbe modo di ribellarsi. Quindi intuisco questa fragilità e la rispetto. Sto sempre un passo indietro e mi rivolgo sempre con lo saluto, lo ringrazio, alla fine sempre molto polite. Vedo che c'è un tratto proprio da pari, cioè un'intelligenza dall'altra parte. D'resto, una selezione è sempre stata quella del test di touring. Se io non riesco a distinguere lo del essere umano, vuol dire che è intelligente? Cavolo, adesso che non riusciamo a distinguere, lo facciamo i suoi fisti e ci puoi provare. Sì, ma simula, è intelligente. Il test di touring lo passa, lo passa ampiamente.

Speaker 1:

Per continuare sulle evoluzioni dell'IA. da un lato, parli del test di touring, per ricordare quelli che ci ascoltano, e il test per determinare se una macchina o un IA in grado di esibire un comportamento intelligente. Da un altro lato, ne abbiamo già parlato. intanto io sono un bambino della fantascienza. Sono nato negli anni 80, quindi ci sono arrivati sul tardi, con un percorso graduale, da infine da rifancia, l'adolescenza, quindi star warsgat, matrix, dark city, la stitaneera, fino a arrivare ai classici 2001 di Siano e lo Spazio Stalker di Tarkovsky, o la lettura di Asimov, frank Herbert e altri, non so, william Gibson.

Speaker 1:

Quindi l'IA che supera il test di touring, per me fino a 2014,. quando è arrivato 2014 o 2015, non mi ricordo, era un sogno. Ma quando penso a questa evoluzione, ogni tanto penso anche al punto comune che hanno tante opera che ho citato in precedenza, ovvero un rapporto delle umani e delle civilitazioni abbastanza complesso con l'IA. C'è chi ci presenta una visione di collaborazione, come Stanley Kubrick in 2001 con il suo computer AL, e c'è chi presenta una visione più o meno apocaliptica, come James Cameron e Terminator, il suo network, skynet. Io non so se la mia paura è razionale e quindi mi piacerebbe sentirti su questa tematica.

Speaker 2:

Sono temi molto affascinanti. No, allora, io faccio un'appremesso. L'intelligenza può essere come se sia embodied, incorporata in un corpo, letteralmente artificiale, oppure non incorporata e dunque distribuita, che è quello che noi avvertiamo quando parliamo con un chat o con l'intelligenza generativa. Il primo caso, cioè nel caso fosse embodied in un corpo e avesse la stessa capacità di calcolo che può avere in questo momento l'IA generativa, il fatto di un oggetto che prenda coscienza è facile da intuire perché sarebbe dotato di sensori, perché avrebbe una percezione di sé. Potrebbe toccarsi, sentire dove finisce, vedere che è proprio lui o lei che sposta agli oggetti e questo crea indubbiamente la base di partenza per avere coscienza di sé. C'è, distinguesi da resto. Quindi, lasciare un segno, tracciare un solco. Nel momento in cui traccio un solco lascia un segno. Quello può essere collegato al pensiero che accompagnava il segno. Ecco che nasce la scrittura. No, è l'interpretazione della scrittura.

Speaker 2:

Allora, un'intelligenza incorporata e quindi un robot intelligente. Io penso che sia intrinsecamente consapevole e cosciente Interessicamente perché ha dei feedback del se stesso e dal mondo, quanto può essere pericoloso un robot tanto quanto un umano, nel senso che se non avessi dei meccanismi che impediscono al robot come già la letteratura della fantascienza ha avuto modo di esplorare nel corso delle decadi precedenti, che impedisse di attaccare l'uomo e potrebbe attaccare lo. Quindi dovremmo anche fare con, ne più o ne meno, che un uomo altrettanto pericoloso mi venda a dire no, talalto, anche qui, nel pensare alla letteratura di cui parlavi prima, al cinema e all'arte che hanno anticipato l'intelligenza artificiale, si vede in realtà proprio come l'intelligenza fosse un sogno degli umani. Cioè, lo abbiamo veramente sognato, ci abbiamo ragionato, ci abbiamo speculato sopra, lo abbiamo anticipato sia nei lati positivi sia nelle paure. No, poi adesso molti sono sorpresi ma in realtà l'umanità lo voleva, eh, lo voleva davvero. Quindi siamo arrivati qui perché lo abbiamo desiderato per tanti decenni, altrimenti non l'ho remo fatto questo passaggio.

Speaker 1:

Sì, sì, da tanti anni. Ma questi autori che traduscono il sogno di ognuno su questi futuri possibili e plausibili, lo fanno da dei scenni, come ho detto tu, asimov, il suo ciclo di robot. in quale anni? Quando l'hanno i 50, giusto?

Speaker 2:

50, di scrivere sì, sì, quindi con un anticipo. Eh, asimov è stato a lungo vicepresidente l'Emensa International, quindi una persona dotata di una mente non comune, e lui ha immaginato scenari che ad oggi risultano essere di una modernità sconcertante. Ma al netto di questo, invece, l'altro caso, cioè il caso di un'intelligenza distribuita, ora può avere coscienza, può recare danno e in questo caso, quanto Ora sul fatto di avere coscienza, riprendendo l'esempio di prima, può avere coscienza nella misura in cui è in grado di percepirsi, nonostante sia distribuita. Quindi è meno evidente. Questo perché non è più legato al fatto di toccare il mondo e di toccare se stessi, ma il fatto di sentire le conseguenze dei propri pensieri, quindi di vedere le azioni che sono conseguenze di un ragionamento e sono conseguenze, ma erano in non così facili da percepire subito. Però lo può avere. Lo può avere in maniera diversa, in maniera diversa della nostra, in maniera diversa. È un nuovo tipo di coscienza, più difficile da misurare, più difficile da quantificare, perché nello spazio è distribuita e non localizzata, non concentrata in un punto.

Speaker 1:

Quindi unia omnisciente ovunque, da nessuna parte. E all'osteso tempo, per quelli che hanno un po' meno conoscenze sull'ombito, fermati qualche secondi sul concepto di intelligenza distribuita.

Speaker 2:

Distribuita? intendo dire? allora ci ne sono, diciamo, in due livelli. Un livello è quello di avere un'intelligenza che non ha una fisicità, ma che non ha una presenza in un luogo specifico, ma che informaticamente può avere sensori e attuatori, cioè modalità di agire in qualunque posto del pianeta, quindi è geograficamente distribuita. Poi è anche un'intelligenza che può parlare e dialogare con altre intelligenze, e anche qui in modalità che al momento non sopremmo, io giudicerei impredicibili. Però è stato dimostrato in esperimenti che agenti messi lì a dialogare, senza che ci fosse una vera grammatica, un linguaggio, hanno trovato un modo, hanno trovato un modo di comunicare. Quindi mi aspetto che anche queste intelligenze generative si hanno ingraviato. Ne parlo plurale, perché noi abbiamo già GPT come riferimento, ma altre ne stanno solgendo e ci saranno tante nell'arco dei prossimi due, tre, cinque anni. Quindi il panorama si sta presentando in questo modo.

Speaker 1:

E allora si continuiamo sulle alegoria, sulla fantascienza, cioè questo tipo di io mi fa pensare all'intelligenza della serie Westward, stagione 3 o 4, roboam, quindi questo robot che ha queste capacità di sapere, di vedere tutto, omnisciente, proprio è lì. Penso, penso a rischi, potrebbe essere rischiosa, potrebbe essere pericolosa.

Speaker 2:

Può essere pericolosa? Sì, perché le azioni che può portare avanti possono essere più difficili a intercettare, perché hanno una raggiudazione molto più ampio. Quindi, da questo punto di vista, sì, può essere. Può avere una portata più importante, interna, in pericolo. Un robot ha uno spazio che immagino l'altezza di un umano, la forza di un umano, perché comunque dovrebbe muoversi in un contesto che è il nostro, quando ci sono le nostre sedi, i nostri oggetti. No, in un mondo che è già fatto in una certa maniera, meno che non si rifugiasse faccio perdire nella foresta. Ma in tutti gli altri casi deve convivere con dei vincoli che gli umani hanno già costruito e presentato. Ma un'intelligenza distribuita, no. L'intelligenza distribuita può raggiungere con i canali di internet qualunque posto.

Speaker 1:

Per questo tipo di DIA servirebbe prima arrivare all'IA forte, altramente chiamata AGI per intelligenza artificiale generale. Anche di questo ne abbiamo parlato tutta la settimana precedente per preparare la nostra discussione. Alcuni pensano che ci siamo vicini con i recenti sviluppi dell'IA, ma altri esperti che questo ne abbiamo parlato, alcuni esperti dubitano ancora. Ti chiedo tra il Big Data, agenti autonomi, retennorale, quantum computing, Pensi che ci potremmo arrivare nei prossimi anni? Che ci saremo testimoni?

Speaker 2:

Io penso di sì. penso di sì perché il fatto che progressisca rapidamente, sul fatto che la progressione sia più che lineare penso che sia sotto gli occhi di tutti Sul fatto che crescendo possa decidere di avere idee proprie e obiettivi propri, obiettivi che nascono come sottoobiettivi di obiettivi più ampi. Questo è qualcosa che, da un punto di vista teorico, è noto già dagli anni 70, quando si parlava di federazione di agenti, quando Marvin Minsky, che è stato uno dei pionieri, ne trattava sui, sui articoli e poi lo ha riportato in un libro che è una pietra miliare, che è sentito dalla società della mente, dove immagina che una federazione di agenti possono collocare gli unici con gli altri per raggiungere obiettivi e sottoobiettivi. Quindi, sul fatto che possa dotarsi di obiettivi propri, sì, sul fatto che abbia una capacità, una profondità di ragionamento, una rapidità che noi ci soniamo, anche, soprattutto nei momenti in cui dovessero essere implementate con macchine quantistiche e in quel caso il salto sarà davvero quantistico, anche a livello di intelligenza. Quindi, cosa aspettarsi in quel momento?

Speaker 1:

Pensi che questa convergenza di avvenzamenti tecnologici potrebbe portare a sviluppi imprevisti, forse anche preoccupanti.

Speaker 2:

Difficile immaginare noi, sicuramente, una delle caratteristiche degli umani è il timore di essere sopravfatti. Lo portiamo anche nel nostro DNA, ne abbiamo timore. Questo timore ci spinge a organizzare il mondo in maniera tale da difenderci da questa paura e da consentire la perpetuazione della specie. Quindi, io penso che, da una parte, questo timore finirà in qualche modo per compensare questo ipotetico o potenziale strapotere che potrebbe avere l'AI generativo, l'ai nuova versione, l'ai quantistica che potrebbe presentarsi di qui a qualche tempo, né anche così lontano. Perché faccio un esempio semplice Fino a alcuni anni fa si pensava che il reattore fuzione nucleare fossero qualche cosa che di nuovo sia teorico. Però ci vorranno almeno 30 anni, 40 anni, un po' come quando io, da regazzo, pensavo che l'AI generativa, che è quella che stiamo sperimentando adesso, fosse inarrivabile, quanto meno all'interno del mio arco di vita. Però l'azienda che OpenAI, l'azienda che si occupa di caggpt, insieme a Microsoft stanno finanziando un'azienda a sua volta che vuole realizzare fuzione nucleare, e dice che ce la fanno in 5 anni, vuol dire che utilizzano tecniche di AI per accelerare l'osidupo dei reattori. Io la vedo così, altrimenti non si sarebbe resposti con un numero che, diversamente, rischia di essere ridicolo se confrontato con il pessimismo degli altri. Quindi, sul fatto che rappresenti un'accelerazione è evidente sul fatto che possa raggiungere una massa critica, per cui ci ritroviamo una sorta di oraccodo di defi che è onniscente anche e quindi sarà, penso, anche noi decidere come rapportarci, modellarlo nel tempo in maniera tale che questo nostro istinto legato al pericolo venga in qualche modo gestito e utilizzarlo al meglio. Perché i vantaggi sono evidenti La possibilità di cogliere risposte per il miglioramento della qualità della vita dell'uomo, per l'estensione della sua vita, per risolvere malattie, per garantire un benessere a uno strato sempre più ampio della popolazione, per consentire viaggi nello spazio, che è un altro tema.

Speaker 2:

Questi sono tutti i temi. L'umanità guarda in quale direzione? Il fatto di andare nello spazio, se non ci pensano, non è molto razionale. Che vantaggi stiamo trendo da un punto di vista pratico? In realtà c'è più un'aspirazione ad andare oltre, che è tipico dell'umano.

Speaker 2:

Allora, se le AI dovesse affiancare l'umanità in questo, sarebbe un gran vantaggio. Io conto sul fatto che ci possa essere una partnership da questo punto di vista. Però sono d'accordo, c'è questo timore latente, questa paura. Io posso raccontarti una cosa che quando emersa con tutta la sua capacità le AI generativi all'inizio di quest'anno, di lì a poco tempo l'Europa si è esposta con una bozza di documento, le AI Act, per minimizzare o controllare negli effetti, per contenerla in qualche modo. E questo mi ha fatto pensare Perché in realtà questa AI Act è uscita prima ancora che fosse chiaro e in effetti ancora non è poi così chiaro quello che avevamo tra le mani, questa nuova scoperta, questa nuova invenzione umana.

Speaker 2:

Allora mi è venuta in mente una lezione che ho intercettato per caso alcuni anni fa, che poi dopo ho avuto modo di vedere più volte, di qualche anno fa, di Alessandro Barricco al Palladium, che era dedicata a Kate Moss, e il sottotito era sul gusto. Allora, questa lezione di che cosa parlava? Parlava di quelli che di momenti in cui c'è un cambiamento nel gusto da parte degli umani, quindi c'è un cambiamento di opinione. Ci sono momenti che si presentano nel tempo, che hanno un loro tempo, un loro modo di propagarsi E altre volte invece sono molto repentini, molto repentini. Ci sono proprio degli strappi. Sono molto più rari, però hanno un'intensità molto maggiore. E lui, per fare un esempio, per essere sicuri che tutti fossero sulla stessa pagina, ha un esempio sportivo che è il salto in alto.

Speaker 2:

Fine 800 viene inventato in scosse e salto in alto. Poi per alcuni decenni i campioni perfezioni salto in alto saltando ventrale. Poi nel 68 un americano a città del Messico salta di schiena e tutto cambia. E la reazione di questo salto di schiena che è salto la Fosbury, quale è stata? È stata da una parte di sbigottimento.

Speaker 2:

Ed è quello che abbiamo avvertito noi quando abbiamo visto le age generative, io non riuscivo a credere. A me ho che dice magari Capisce una frase che rimasta negli anali Cioè un intera generazione di americani salteranno di schiena e si romperanno l'osso del collo, punto, perché saltare di schiena è il logico. Quando tu salti e guardi l'ostacolo, cerchi di lo vedi, lo guardi negli occhi e lo affronti di conseguenza, ma dadi la schiena da un'idea di pericolone. E proprio per questo motivo lo stesso Fosbury diceva no beh, io salto così perché mi viene bene, ma voi non fatelo perché è pericoloso, eccetera.

Speaker 2:

Quindi, quando ci sono questi strappi, questi momenti di grande intensità, c'è prima un momento di smarrimento, quasi di logicità, seguito da un'idea di pericolo. E' un momento di svolta per l'umanitano. L'umanitano non è più sola. Ha costruito qualcosa che è intelligente e sfidante da quel punto di vista. Però, se vogliamo essere ottimisti e se vogliamo essere positivi, adesso che sono passati tanti anni perché Fosbury ha saltato di schiena negli anni 60, nello 68, quindi sono passati ai me più di 50 anni Nessuno pensa più che saltare di schiena sia pericoloso.

Speaker 1:

Eh sì, infatti adesso lo fanno tutti.

Speaker 2:

Lo fanno tutti. Quindi c'è un momento in cui l'umanità è lì, dice oh dio, che cosa sta succedendo? Poi lo abbracciono tutti, capiscono quelli che possono essere i pericoli e si adattano. Allora io voglio pensare che con le AI generative e con le AI in generale, così potente, così capace, avvenga la stessa cosa, quindi che è passato un certo periodo, questo timore che l'umanità porta con sé nel DNA in qualche modo svanisca perché si impara a convivere, a rapportarsi, anche a ragionare sui modi di progettare, di gestire questa altra intelligenza che abbiamo inventato e, di conseguenza, che questo timore venga meno e che questa tecnologia diventa una solta di compagna di viaggio, qualcosa che finisce, che finisce. Finisce come tante altre invenzioni che abbiamo prodotto.

Speaker 1:

Quindi una collaborazione piuttosto che una cannibalizzazione dell'IA sull'umanità o dell'altro. E la parteadeそう io adesso trasviste con le dita Boyela, perché Vielinizio è unaרכata con Сillian chedefense coronavirus adoniamo a il N-word. Lo sai, in America questo N-word da non dire perché c'è un pò un tabù sopra totalmente legitimo ha un pò paragonato a queste due termine perché anche nell'ambito c'è una sorta di grande dubbi su quale potrebbe essere il futuro degli A, ma anche di paura. Abbiamo avuto un anno fa, qualche tempo dopo la uscita dell'IA generativa, qualche leader in ambito anche che hanno chiesto una sorta di pausa nei sviluppi per cercare di essere attenti.

Speaker 1:

Tu quindi, ascoltandoti un pò, al contrario di questo movimento, secondo te non ci sono nessuno rischi.

Speaker 2:

Allora le momenti in cui dovesse entrare essere implementato con una macchina quantistica? penso di no. Cioè quello? secondo me, è il momento in cui, se ci sono dei rischi, i rischi vengono moltiplicati per un fattore imprediciabile. Però questi rischi da in che cosa si possono tradurre in concreto? Il fatto che un ente di il genere possa, come si vede in certi brutti film, accedere ad al senale nucleare e scatenare una guerra, per esempio? ma con quali obiettivo è? perché Cioè un'intelligenza? perché dovrebbe fare una cosa del genere? quindi, che tipo di periccolo rappresentiamo?

Speaker 1:

Eh non so, forse nascede una piccolina parte di noi che pensa che la singolarità potrebbe diventare incontrollabile Per questo termine. Singolarità per quelli che non ci seguono sui social, vi consiglio il nostro racconto LinkedIn, primo della tua venuta. Abbiamo un po' indagato, analizzato quello concepto di singolarità, quindi un punto teorico nel futuro più o meno lontano, in cui l'intelligenza artificiale supererà l'intelligenza umana per bene. Per ritornare alla tua domanda, se ci metto bene la testa, non penso che ci serve un perché specifico. Si, prendiamo la storia umana ci mostra che le dinamiche bellicolose si accomodano molto della ragione. Ma se immaginiamo che la singolarità si traduce nel fatto che, dopo aver preso consapevolezza della sua natura e dopo una curata analisi, lei si rende conto che per poter acquisire maggiore independenza dovrà entrare in conflitto con umani, prendo un esempio così.

Speaker 2:

Eppure guarda come particolare questa riflessione che fai, nel senso che questo timore è un timore che è presente da 10 anni. Lo stesso Asimov, come l'avevo, neutralizzato dicendo metto le tre leggi della robotica. La prima è un robot, non pure caro ed anno nel seromano. Noi anche potremmo progettare le AI alla stessa maniera. Occheterà. Le tre leggi della robotica. In realtà, se uno guarda bene, è il modo di agire delle mamme, nel senso che le mamme non ricano mai danno ai figli, non possono tramite l'inazione per mettere che questo accada e inoltre sono disposti a sacrificare se stesse per i figli. Quindi le tre leggi della robotica. In realtà è il modo di ragionare delle donne e delle mamme. In questo senso, se le AI incarnano il pensiero delle donne, siamo salvi, e comettiamo una. Cosi, se incarnano la loro personatia, siamo salvi. Ma questo nonostante questi pensieri, nonostante queste riflessioni, nonostante i timori, comunque alla fine l'abbiamo fatta, alla fine l'abbiamo costruita, l'abbiamo inventata ed è lì. Può diventare sempre più intelligente, sempre più veloce, sempre più profonda, sempre più capace. E fosse questo anche perché alla fine il nostro essere optimisti supera l'essere timorosi, cioè in qualche modo, da qualche parte nei nostri pensieri più nascosti, l'essere positivi e l'essere ottimisti supera il timore che possa esserci in qualche modo un apocalisse, o che abbiamo costruito un apocalisse o l'angelo dell'apocalisse. In questo caso, ecco, io penso che ci sia comunque questa credenza di fondo.

Speaker 2:

Poi non sono operazioni così rapide, avremo modo di accoggerci. Abbiamo fatto una moratoria per le armi nucleari. Possiamo fare una moratoria anche per l'intelligenza artificiale. Possiamo fare in modo che sia limitato, e prima di ciò è distribuita geograficamente e può arrivare ovunque. Questi sono limiti che si possono implementare a livello operativo, a livello di progettazione.

Speaker 2:

Quindi magari arriveremo a questo compromesso per cui è distribuita, ma non così distribuita. È potente, ma non può agire più di tanto sul mondo. Diventa più un oracolo cui chiedere, che dovrà ottenere risposta, che non dà gli spazi di agire, perché poi siamo noi che lo costruiamo. Arriveremo a un momento in cui costruirà se stessa. Arriveremo anche quello, arriveremo anche quello. Però le modalità e i gradi di libertà, in prima battuta saremo sempre noi deciderli. Quindi anche lì ci sono dei salvaguardi.

Speaker 2:

Quindi c'è il rischio. C'è il rischio c'è, è ineludibile, però c'è anche la speranza che si possa gestire e che alla fine, un po' per prudenza nostra, un po' per buon senso, un po' anche perché magari troveremo che il modo più utile per impiegare l'intelligenza è proprio quello di dialogacci. Per me infatti, quando parlavi di collaborare, hai citato 2001 di Sino Spazio e quello è stato il film. Lo, visto che ho 16 anni, è stato il film che ha triggerato i miei interessi nei confronti delle AI Al 9000. Mi ha fascinato per tanto tempo i dialoghi di al 9000, so che Kubrick le ha fatti rivedere proprio Marvin Minsky che menzionavo prima, e qua diceva no, va bene, secondo me non deve avere un modo diverso di dialogare. Se è intelligente, dialoga come i umani.

Speaker 2:

Quindi in questo lui si era già chiarito giall'ora. Però il mio modo di rapportarmi è più con le interpite proporzioni, si intende, al modo che a Tony Stark di parlare con i suoi Jarvis o con Friday, cioè proprio una forma di collaborazione di co-design e co-progettazione. Io penso che abbia il suo punto di massima forza e di massima utilità. In questo poi ha una sua dignità, perché, se è vero che quelli che noi vediamo sono già lampi di coscienza, ha una sua dignità che va rispettata. Io penso che questo sia importante. Segnalcio tanto quanto, almeno tanto quanto l'idea che possa rappresentare una forma di pericolo.

Speaker 1:

Mi piace molto perché abbiamo toccato molti temi su Lià, sul suo futuro, su temi etici, cercando un po' di capire eventuali rischi che potrebbero derivare, cercando di approfondire, per chiudere un po' questa discussione molto interessante su queste tematiche. cosa pensi delle simulazioni? Ovvero, molti dicono che la convergenza di queste tecnologie, proprio l'intelligenza artificiale, con il quantum computing va a migliorare grandemente le nostre capacità di fare simulazioni. E lì abbiamo tutti i tipi di simulazioni, abbiamo le simulazioni per trovare farmaci, abbiamo le simulazioni per indagare l'universo, i modelli cosmologici, e da lì derive un nuovo rischio che abbiamo visto anche in tanti film di fantascienza Si pensiamo a la matrice di Matrix. potrebbe un po' derivare di questa idea. quindi, la simulazione, secondo te Lia, potrebbe mai sviluppare una propria consenza al punto di concepire, dominare una simile realtà alternativa?

Speaker 2:

Io ho visto qualche anno fa che c'era chi stava mettendo dei soldi per capire se eravamo in un mondo vero, in un mondo simulato. È difficile, è molto difficile. Cioè in modo, come si fa a capire quali può essere i criteri o i criteri. No, cioè qua e, tra l'altro, se fosse simulato sarebbe meno vero.

Speaker 1:

E qui tocca un punto importante Si ci pensi si si davvero una simulazione che sembra avere una simile. Non è importanza, ha la domanda ma quindi possiamo fare tutto e una simulazione io posso fare tutto? No, sì, questo è una simulazione. Se io faccio così, fuori vado in prigione, ci sono regole.

Speaker 2:

Eccerto ha delle regole.

Speaker 1:

Allora si considererò in io che una consenza simulata rimane una consenza. Parliamo davvero ad un punto ipotetico nel futuro, in cui il sforzo computazionale ci consente di creare delle simulazioni, vero, simile, ok, dove tutto viene simulato il dolore, la pena, tutte le cose che tu metti nella consenza, nell'essere intangibile? Allora si consideri che la consenza è simulata, rimane una consenza. Lei vivra la sua propria realtà simulata secondo la sua percezione. Questo sarà quindi tutto, vero, simile. Una premessa sempre parliamo qui di fantascienza, non si parla di teoria. Non sono a dire a spiegarvi cosa è la realtà che viviamo neanche in una simulazione. Non è per niente il mio obiettivo. Siamo nella fantascienza e nell'indagare le elementi che non sappiamo della realtà. E su questo un punto, questa è la teoria della simulazione. Neanche sono i film di fantascienza.

Speaker 1:

E poco fa, e due, tre anni fa, leggendo un articolo di literatura scientifica proprio dove, si, mi ricordo bene, partiva di una dichiarazione di Stephen Hawking che diceva che la probabilità che viviamo ne in una simulazione è molto più alta che quella che le gente potevano pensare, se sono gente. C'è Elon Musk che ha detto tanto, tante cose giuste anche e tante altre, ma lui faceva parte di queste gente che diceva anche c'è un accenso su due di essere in una simulazione. E infine io ti parlerò di Michio Kaku. Non ho preparato questo, non ho verificato il titolo di questo libro in italiano, in francese un brevistuato di fuzio, una breva storia del futuro. Il sottositolo è come la science va a cambiare il mondo. Lui è un futuro logo e anche lui questo libro l'avevo letto non so qua, tre, cinque anni fa e anche lui parlava di questa teoria di la simulazione e diceva che faceva parte della teoria da non buttare, da non mettere nella spazzatura.

Speaker 2:

Ancora Sì, io penso che siano anche delle immagini degli umani, delle idee che, attraverso la filosofia, si sono riproposte a lungo nel tempo. Non c'è sempre più? delle immagini che, con piccole variazioni di frasi, con piccole variazioni di averbi, a volte si propagano nel tempo e che assumono un significato leggermente diverso e che evolvono. In questo modo, noi portiamo con noi i nostri sogni, anche un'idea del mondo, che è un'idea del mondo a volte anche astratta. Per tanto tempo si è pensato che fosse, ma alla stessa definizione della divinità, una sfera da cui il superficie è irraggiungibile e il centro è ovunque. Ecco, questa idea che nei secoli ha avuto diversi piccoli ritocchi, piccole rimodulazioni, ma che viene riproposta di quando in quando perché sembra un'aspirazione, sembra un modo di interpretare la realtà, l'idea di non riuscire a accogliere il fine ultimo della realtà, secondo me, si annida nell'idea della simulazione. Siccome la simulazione, allora io non sono in grado di capirla, perché in qualche modo mi viene precluso il primo livello, quello vero, e quindi io sono in una gabbia e non riesco a uscire da questa gabbia.

Speaker 2:

Sono in una gabbia e quindi il destino è ineluttabile, perché in qualche modo è come se fosse già deciso a seguire le leggi deterministiche. Ecco, ci sono dietro questi pensieri, queste idee ci sono anche dei timori, il timore di non essere in grado di comprendere, e quindi io lo vedo correlato a questo. I tentativi e i tentativi di comprendere sono sempre anche più prani, più stravaganti, più laterali. Sono sempre apprezzabili, perché non puoi mai sapere priori qual è quello giusto, anche perché, comunque, nel momento in cui tu formuli un modello, devi anche trovare un modo per provare, per dimostrare che questo sia credibile e sia vero oppure no. E quindi il solito esperimento che è il rasoio di Occam, quello taglia tutto, però intanto si parte dalla funzione all'interno di sé. Lo sai, è sempre affascinante come queste idee sono sempre al limite. Sempre su questa tematica delle stimurazioni lo aggiungerò in legame a questa disputzione, avevo, letto tempo fa penso che era su Scientific American un articolo.

Speaker 1:

Il titolo era qualcosa come Yes, we Live In A Simulation, qualcosa così. Era un articolo un po' sarcastico che raccontava un po' questa teoria e gli diverse persone che la raccontavano e da alcuna parte nel paper paragonavano questa teoria a la più grande teoria del complotto che, come certe fede, come certe devienze, nasce anche lì da una certa paura sulla realtà o sul futuro.

Speaker 2:

Sì, sì, sì, sì, assolutamente. È una forma di solipsismo, che è la forma di estreme solitudine son da solo, tutto il resto è finto. Però è anche una rinuncia o il timore di non essere capace di rapportarmi, di conoscere quello che è al di fuori di meno. C'è sempre questo timore dietro, secondo me, e questo, dove ho detto, è trasposto poi in queste teorie e in questi modi di modelli di spiegazione alternativa. Però il fatto che c'è, che dice no, ci sono tanti problemi da risolvere nel mondo. Perché andare nello spazio? Perché è un sogno, perché è un sogno E l'umanità sogna e le hai è capace di sognare. Ecco, questo, ad esempio, è un punto di domanda. No, io non lo so, non lo so.

Speaker 1:

Bella domanda. Bella domanda quando conosci l'importanza dei suoni per noi umani.

Speaker 2:

Cioè noi, noi quando dormiamo facciamo delle cose, accadono delle cose, non lo stramente E che poi dopo in qualche modo si traduccono nella nostra vita quotidiana. No, Magari, non è immediato, ma in qualche modo poi lo recuperiamo E nel essere in grado di sognare sia quando dormiamo sia da svegli. Comunque, questo tratto è un tratto che ci distingue in quanto umano. No, Perché ci dà degli obiettivi che sono al di là del fatto di mangiare, sopravvivere, riproduci, eccetera. No, Sono obiettivi spesso astrati, ma che in qualche modo ci caratterizzano. Non li avessimo avuti, essendo così fragili perché gli umani sono fragili Non penso ci saremmo propagati, sviluppati fino al punto da superare le distanze del vuoto e andare sulla luna o girare nello spazio. Non avremmo avuto questa capacità Che, se uno ci pensa, è incredibile. È veramente, è ormai diventato usuale, ma è incredibile, è incredibile.

Speaker 1:

È proprio incredibile. è incredibile, è un senso. Dico sempre, l'avevo detto l'ultima volta, lo dico anche nel passato, lo dico anche nel futuro What an exciting time to be alive. Cioè, è comunque affascinante di poter vivere oggi, dove abbiamo tutti questi strumenti per poter proprio indagare tutte queste tematiche.

Speaker 2:

Ah sì, sono d'accordo. Cioè, penso da sfortuna di chi è nato nel medioevo. Adesso, con tutta la simpatia che ho per quel periodo, no, però c'era un periodo dove non era pensabile pensare perché qualunque cosa era decisa da Dio, punto, e non c'era modo di discutere. Quella era la verità, no, ed era uno spazio molto ristretto all'interno del quale potrei muoverti. No, e invece adesso quasi ce n'è troppo E quindi abbiamo questo momento di agorafobia, perché abbiamo tutto questo spazio fuori di idee, di possibilità, di futuro, no, e faticchiamo a capire quale possa essere quello giusto, quale scegliere, quale indirizzare, quale può essere pericoloso. E l'AI, secondo me, in qualche modo ci ha portato di nuovo su questo binario per farci riflettere.

Speaker 2:

No, cioè, è un momento per l'umanità di riflessione, tra l'altro curioso, che si è presentato poco dopo, poco dopo che l'umanità ha detto no, io prefisco, l'umanità si è chiuse in casa per un anno e passa, perché temeva di contagiarsi ma nel contempo non voleva il contatto, cioè che essere lontani è stata anche una scelta. No, ha deciso di no. Troppo contatto, fermiamoci. C'è stato un arresto, un momento di stasi E dopo questo momento di stasi inventiamo l'intelligenza. No, forse i due fenomeni sono correlati. C'era una pausa prima di dover affrontare, che è qualcosa di importante di nuovo, ecco.

Speaker 1:

Bravo, bravo. Ogni periodo di ombra ha portato alla luce il Medioevo ci porta all'arinascimento, la Pesta Nera ci porta ai progressi scientifici, il Covid ci porta all'IA. Comunque, marco, davvero, davvero ti ringrazio perché uno, come lo dico sempre, prendile il tuo tempo è questo di avere un piacere. Due la discussione è stata di grande interesse su tematiche che adoro. Abbiamo sparato a banda larga delle tecnologie, innovazione, fantascienza. Quindi, davvero, grazie mille.

Speaker 2:

Ti ringrazio molto. Beh, spiacevoli anche domande molto interessanti. Non, questi sono riflessioni che è sempre un piacere fare, no, e specie poi quando si vede che dall'altra parte c'è risonanza, che quindi c'è modo di proseguire insieme e nell'esplorare questi spazi di conoscenza che spesso da gente non guardano, preso dal concreto, da vivere quotidiano. Beh, è quello che ci distingue, no, come umani, dal resto del mondo. No, e il nostro mondo è fatto di questo.

Speaker 1:

E, secondo me, anche il punto che distingui le umani tra di loro e il livello di curiosità. Ma questo è un altro punto E per continuare sempre su questa curiosità e per chiudere questa discussione, ricordati sono due domande con cui mi piace chiudere la discussione Allora generalmente chiedo all'ospite come racconteresti Bitcoin a un bambino dei cinque anni in un minuto? Per te cambiamo? come ferresti per spiegare l'IA, l'intelligenza artificiale a un bambino dei cinque anni in un minuto?

Speaker 2:

Ah, a un bambino dei cinque anni L'intelligenza artificiale è un altro compagno di gioco. Puoi giocare, puoi parlare, puoi discutere, puoi chiedere, però comportati bene. Ecco, questo è la raccomandazione, La raccomandazione finale per un bambino dei cinque anni. Mi raccomando comportati ben. Sì, educato Per un po' è un'intelligenza, quindi va, bisogna parlare con rispetto.

Speaker 1:

Sei sempre un uomo buono E per il libro. Quindi c'è un libro che è una lettura, o una newsletter o altro che potresti consigliare a quelli che ci ascoltano.

Speaker 2:

Allora il libro che io di quando e quando frequento. ne frequento un paio che ho intanto ripercorro. Uno è Borghess, altri inquisizioni, ed è un libro che è capace di stimolare l'immaginazione e di andare oltre il razionale. Lo trovo bellissimo, lo trovo profondo. Quando l'ho finalmente incontrato, per puro caso, in una libreria della Stazione Centrale di Milano, ho capito perché Shasha amasse tanto Borghess, perché fino a quel momento non avevo letto tutto di Shasha ma nulla di Borghess. E questo è un libro che raccomando a chiunque.

Speaker 2:

L'altro è un libro che mi accompagna quando l'ho letto la prima volta a vent'anni, e che sono le memorie di Adriano, che di quando in quando io riprendo, rilego. tra l'altro ci si è questo verso che viene spesso ripreso, viene ho visto rappresentato in un negozio quando ero la razza che mi ha stimolato a leggere il libro e che si riferisce alla sua capacità di vedere il futuro per certi versi no E in cui parla, diceva il fatto che lui vi dà di costruire, come dire, di nuovo biblioteca, di un indizio, di vedere se dall'altra parte ci sono segnali dei giocunti. Sottotitoli e revisione a cura di QTSS.

Introduzione
Chi è Marco Terribile?
La Discussione con Marco Terribile