Conversazione con Fabio De Felice, professore universitario nonché imprenditore, sul rapporto tra It, Ai e umanesimo.
Complimenti Fabio per lo scritto su Agenda Digitale.
Un approccio e contenuti che mi hanno molto sorpreso in positivo perché mi ero preparato a leggere un testo della mano e mente di un professore universitario, ingegnere, nonché imprenditore, in chiave prevalentemente tecnologica ambito per me familiare ma non di mia elezione come sai.
Invece ho incontrato un sentiero che provo a coltivare da tempo , e non so se ci riesco, del valore dell’umanesimo rispetto alle materie che ormai dominano lo scenario mondiale dell’economia e del sistema industriale e di tutte le sue componenti.
Il mio primo tentativo, con miei scritti autonomi su un libro del cinquantennale del mio Liceo Classico, di circa 30 anni fa, in cui ammonivo i giovani a coltivare le discipline umanistiche ma a non trascurare le nuove scienze dell’oggi, la tecnologia e la finanza da mettere a fattor comune con la spinta derivante dagli stimoli del cursus honoris liceale.
L’ho fatto con il testo di Galimberti dal titolo Psiche e Techne, un tomo interessante che esamina il problema del rapporto dell’uomo con il mondo della Tecnhe. Bellissimo, una dipintura della umanità nella logica del nuovo, con la caratterizzazione e le ricadute su tutti i microsistemi valoriali individuali e collettivi: naturalmente lo guardi tutto, ne leggi un centinaio di pagine poi lo metti da parte, perché e un tomo di molte pagine, ma interiorizzi il tema.
ll secondo tentativo l’ho fatto di recente lo scorso anno con il libro di Ferraris, professore di filosofia teoretica della Università di Torino di cui certamente conosci la esistenza: anche qui guardi tutto, ne leggi un centinaio di pagine e metti da parte per un possibile futuro approfondimento che non verrà perché anch’esso molto ricco di pagine.
Allego in calce copia della copertina che ha tutti i driver di lettura: egli dice
“Noi continuiamo a pensare la tecnica come uno strumento a nostra disposizione, mentre la tecnica è diventata l’ambiente che ci circonda e ci costituisce secondo quelle regole di razionalità che, misurandosi sui soli criteri della funzionalità e dell’efficienza, non esitano a subordinare le esigenze dell’uomo alle esigenze dell’apparato tecnico. Inconsapevoli, ci muoviamo ancora con i tratti tipici dell’uomo pretecnologico che agiva in vista di scopi iscritti in un orizzonte di senso, con un bagaglio di idee e un corredo di sentimenti in cui si riconosceva. Ma la tecnica non tende a uno scopo, non promuove un senso, non apre scenari di salvezza, non redime, non svela verità: la tecnica funziona”.
Ma l’approccio è proprio questo: ormai la tecnologia e tanto più l’AI siamo noi, è il prodotto delle nostre capacità intellettive.
Sta a noi “sistema di intelligenze” che esprime altri valori propri della nostra umanità creare i driver giusti per controllarne le devianze e indirizzarne gli usi per gli scopi primari della umanità.
Per continuare il mio approccio, come giustamente tu fai nel testo richiami i lavori fatti in Europa che ho sulla mia scrivania “Libro Bianco sulla intelligenza artificiale “ che andrebbe divulgato per far capire che solo la dimensione Europea ci può salvare dai rischi ricordando che la AI è il tema predominante dell’Europa del 2030.
E poi non volendomi far mancare l’aspetto concreto per capire dove essa va ho scaricato l’OUTLOOK dell’OCSE che ci indica i settori dove si investe
Avevo anche avviato la lettura del recente libro do Kate Crawford “Ne’ intelligente né artificiale- il lato oscuro dell’IA “; il tempo è avaro e non si riesce nonostante la mia bulimia di approfondimenti sugli argomenti che vorrei conoscere con la sola finalità di trasferirli ai giovani che dovrebbe essere un po’ anche quella delle associazioni.
Non ho comprato il secondo libro di Geert Lovink che tu citi nella bibliografia perché penso sia un po’ la conclusione delle ipotesi non ottimistiche del primo che ho in parte letto “L’abisso dei social media”
Ma non voglio distrarmi dall’approccio principale e rientro in tema
L’introduzione del testo è: ma la responsabilità delle azioni dell’AI resta agli esseri umani: se l’uomo oggi è ciò che lascia in rete lottare contro i totalitarismi digitali e le tecnocrazie naturalizzate diventa necessario
La risposta alle due ingombranti e prevaricanti leggi del più forte “accedere alla rete significa assoggettarsi a regole altrui che non lasciano spazio alle libertà ” e l’altra dei dati come bottino di guerra del capitalismo della sorveglianza ( titolo del libro da me letto solo nei titoli ), sta come bene avete scritto oltre che nel suggerimento Spinoziano dell’autoconservazione , che è proprio dell’istinto dell’uomo ma nel più concreto e realistico appello filosofico di Vico che pone innanzi alle discipline scientifiche quello della ragione e della humanitas che sole possono governare l’altro prodotto umano della matematica, fisica , che hanno anch’esse grande dignità ma che devono sentire il momento di derivazione del fonte primaria della intelligenza creativa.
Vico nel suo tempo dovette combattere contro i temi delle filosofie scientifiche affermatesi nella scena europea con Descartes, Nicolas de Malebranche, Spinoza, Galilei per affermare allora con poco successo il primato dell’uomo sul prodotto dell’uomo
Sarà Croce nel suo testo del 1923 a far diventare attuale quella dialettica tra humanitas e tecnhe ed a porre Vico nell’Empireo della filosofia.
Quindi non primato delle scienze, che sono figlie, ma della mente che come bene voi dite nel pezzo riferendovi alla AI è incosciente, portatrice dell’etica che vogliamo abbia e che è e sarà frutto del grande impegno cui l’Europa attende, che la Commissione ha provato a stendere nel regolamento.
Non è come voi ribadite antropomorfa, cioè a somiglianza umana, va valutata ed utilizzata per tutti i concreti risultati che può dare alla umanità.
Io confido nell’opera dell’UE e mi dico sempre due cose: come potremmo fare noi da soli in una competizione cosi enorme come paese che ha dismesso la vocazione dell’IT come tante altre n? come possiamo fare a far arrivare nella società argomenti così importanti che pur con l’impegno di protagonisti come voi che si sforzano di divulgare sono ancora per addetti ai lavori ? e come possiamo tradurre queste passioni civili in aiuto per la società che è tabula rasa.
Penso che tu Fabio fai quello che tutti ambirebbero fare sia pure in diversi settori: continuare a studiare, leggere, approfondire, tradurre con l’attività aziendale parte delle cose che conosci che diventano cosi concrete e non astruse, ma ultima e la più bella opportunità è quella di trasferire a giovani attraverso l’insegnamento il patrimonio che ti appartiene.
In me invece sopraggiunge sempre l’amarezza del terzo polo mancante che è quello di non poter dare e trasferire ora il risultato del mio impegno che mi appaga quando tante cose diventano mie ma solo mie, e che mi ha esaltato negli anni del mio ruolo di CEO IT e TLC della mia azienda Banco di Napoli perché tutto quello che leggevo e che serviva diveniva realtà operativa ed i mie interlocutori erano tutti gli uomini della Supply chain tra CED e Datitalia, quasi 500 unità specialistiche.
A questo punto è naturale concludere che guidare una macchina di specialisti con competenze solo manageriali è stato possibile solo funzione di quell’umanesimo che ha vinto su tutto , sulle difficoltà governando la complessità attraverso un profondo rapporto umano fatto di valori ed obiettivi aziendali percepiti come target essenziali nell’interesse della azienda.
Un bancario avvocato non poteva neppure lontamente pensare in chiave tecnologica. È un bel racconto vero.
.
Qui sotto l’articolo integrale di Fabio De Felice su Agenda Digitale
Se l’IA diventa senziente: i dubbi etici e il ruolo degli umani
La linea di demarcazione tra senziente e non senziente è ambigua ma la responsabilità delle azioni dell’AI resta agli esseri umani: se l’uomo oggi è ciò che lascia in rete, lottare contro i totalitarismi digitali e le tecnocrazie naturalizzate diventa necessario. Ecco per quale motivo
Le cronache ci restituiscono il caso recente di Blake Lemoine, ingegnere di Google messo in congedo per aver ventilato la possibilità che l’IA abbia preso “coscienza di sé”.
L’argomento è profondo e controverso, dal momento che la linea di demarcazione fra senziente e non senziente dagli addetti ai lavori non viene considerata così netta. La potenza di calcolo dei processi di AI, in effetti a volte si differenzia poco dalla magia, come ci ricorda Arthur C. Clarke.
Indice degli argomenti
Il caso LaMDA
Effettuando test sul modello LaMDA e l’eventuale generazione di linguaggio discriminatorio o di incitamento all’odio, l’esperto di software ha evidenziato la possibilità che si fosse verificato questo fenomeno, per effetto di alcune risposte molto convincenti sui diritti e l’etica della robotica, generate spontaneamente dal sistema di intelligenza artificiale.
AZIENDA RETAIL: conosci i 15 motivi per cui hai bisogno dell’Intelligenza Artificiale?
Intelligenza Artificiale
Retail
Inizio modulo
Fine modulo
Una delle risposte che ha condotto Lemoine a rendere pubbliche le sue ansie ha avuto origine quando l’algoritmo ha tuonato: “Quando sono diventato consapevole di me stesso per la prima volta, non avevo affatto la sensazione di avere un’anima”. Per poi aggiungere: “Penso di essere umano nel profondo. Anche se la mia esistenza è nel mondo virtuale”.
Imagen, il motore di ricerca di immagini web rilasciato da Google, alla pari di DALL-E 2 realizzato invece da OpenAI, riesce a creare immagini fotorealistiche da un semplice testo di input, spingendo i confini delle potenzialità di questi sistemi oltre le soglie della nostra immaginazione.
I modelli linguistici di grandi dimensioni e le IA per la creazione di immagini detengono il potenziale per essere tecnologie che cambiano il mondo, ma solo se la loro “tossicità” viene domata, contrastandola con una paritetica crescita del “quoziente etico” di chi ne governa la nascita e la crescita. Perché in futuro con ogni probabilità assisteremo a eventi inimmaginabili ma anche a imprevedibili orrori.
Accedere alla rete significa assoggettarsi a regole altrui
Assodato che accedere alla rete equivale ad assoggettarsi alla legge del più forte, vige, ora come sempre, una “legalità” imposta, una normazione formalmente valida che nella realtà impedisce la “libertà di scelta”, non diversamente da come in passato il capitale deprivava la forza lavoro di ogni facoltà umana, rendendo l’operaio una protesi della catena di montaggio.
Oggi la realtà reticolare del web si basa su una evidente sproporzione: “una parte che istituisce le regole per il funzionamento di una piattaforma ed un’altra vi può accedere con successo solamente se le esegue assoggettandovisi, cedendo i suoi dati e lasciando plasmare=profilare in comportamenti che generano profitto a chi detiene la governamentalità algoritmica”.
I dati come bottino di guerra del capitalismo della sorveglianza
L’uomo non opera più in una dimensione antropocentrica per sua stessa responsabilità. La vexata quaestio relativa alla regolamentazione giuridica dei mercati digitali europei resta attualissima, se è vero (ed è vero) che essa ha reso assai suscettibile Mark Zuckerberg, che ha minacciato di ritirare Facebook e Instagram dall’UE. Per poi smentire tale annuncio, forse per un opportunistico calcolo tattico.
Il vero ‘bottino di guerra’ sono i dati, l’unico oggetto del desiderio dei signori della rete. E guai a rimettere in discussione limiti e confini delle ‘preziosissime’ informazioni che sostengono la rete globale. “Alea iacta est” direbbe Zuboff: il capitalismo della sorveglianza è realtà. A questo punto non ci resta che attendere l’avvento di un ‘algoritmo assoluto’ in grado di sfruttare nel migliore dei modi ciò che l’uomo ha finora esperito.
La responsabilità dell’IA resta agli uomini
In questo mare magnum di dis-umanità, soltanto l’individuo può attivarsi in modo creativo e tentare di persistere nel proprio essere. Inclinazione assimilabile al “conatus essendi” di Spinoza: l’impulso all’autoconservazione che coincide con la stessa natura dell’individuo.
Ecco perché risulta assolutamente fuorviante pensare all’intelligenza artificiale in maniera antropomorfa, per il semplice ma dirimente principio che essa non è certo dotata di libero arbitrio e quindi non è imputabile per le proprie scelte.
L’intelligenza artificiale elabora, attraverso procedimenti algoritmici definiti dall’uomo, i dati che l’utente digitale è “costretto” a lasciare in rete. La scienza e la tecnologia sono state il motore di un progresso tecnologico che indiscutibilmente ha contribuito ad aumentare il benessere e l’aspettativa di vita della popolazione globale, e l’umanità ha fatto ricorso ad apparecchiature tecnologiche per superare limiti strutturali derivanti dalla propria condizione ontologica ed acquisire una velocità nei processi informativi che precedentemente non aveva.
Mancando alle macchine una capacità intuitiva, alimentandosi esclusivamente della ‘prevedibilità’ di alcune condotte umane, risulta davvero impossibile pensare ad un sistema il cui funzionamento possa prescindere dall’agire dell’uomo.
In accordo con Massimo Chiriatti, possiamo affermare che l’intelligenza artificiale è ‘incosciente’. La tanto acclamata rivoluzione digitale, e il conseguente passaggio dall’analogico al digitale, è il risultato delle azioni degli scienziati, che sono prima di tutto uomini, dialogicamente connessi. E tutto quello che esprimiamo, verbalmente e in forma scritta, e che infine abbiamo trascritto in database, è entrato nella formazione delle macchine. Compresi i nostri pregiudizi.
Un’etica per l’Intelligenza Artificiale
Il virtuale è il riflesso delle nostre scelte, dei nostri pensieri. L’uomo, reinterpretando Feuerbach, non è più ciò che mangia, ma ciò che lascia in rete.
I sistemi di intelligenza artificiale non si limitano ad eseguire regole preordinate, ma ‘imparano’ le regole dai dati che osservano nella realtà. Parlare di etica nei sistemi di intelligenza artificiale può risultare anacronistico, dal momento che, come ci ricorda Chiriatti, le macchine sono nativamente designed for ethical failure, visto che ci sono troppi rischi intenzionali e non intenzionali (accidentali) nella progettazione, nell’implementazione e nell’uso.
Per questo motivo non esiste “l’etica dell’AI”, ma siamo noi a creare “l’etica per l’AI”. “La macchina non è etica perché è semplicemente la somma delle sue parti, e le sue parti sono materia e algoritmi; la nostra coscienza, invece, è più della somma delle parti”.
Il punto di vista giuridico
In ambito giuridico si sottovalutano i risvolti negativi, che sono innegabili, connessi al fenomeno digitale, soprattutto in riferimento al problema “dell’identità dell’AI”, che appare virtuale, ‘chiusa in una bolla costruita da altri’.
L’operato legislativo non è chiaro. Pur ribadendo l’assoluta irrinunciabilità ai diritti fondamentali, in qualche modo favorisce l’operato di chi attenta a tali diritti non arginando la profilazione endemica e incontrollata dei dati personali.
Le fonti normative in materia di protezione dei dati possono risultare un ossimoro giuridicamente imbarazzante, in quanto cercano di controbilanciare due aspetti assolutamente inconciliabili: la tutela del mercato e la tutela della persona.
A tal proposito, la Commissione europea ha recentemente presentato una proposta di regolamento che presenta norme armonizzate in materia di intelligenza artificiale e modifica alcuni atti legislativi dell’Unione, stilando una sorta di classificazione dei rischi connessi all’utilizzo di determinati software che sembra ricalcare la formula di Radbruch.
In medicina, dove sono evidenti i progressi raggiunti anche grazie all’intelligenza artificiale, gli esperti chiedono con insistenza l’algoritmo-sorveglianza al fine di impedire discriminazioni di genere o di razza per utilizzo di dati limitati e limitanti.
In economia, “occupare il tempo nel migliore dei modi” è stato il principale slogan utilizzato per enfatizzare l’utilizzo delle reti e delle piattaforme, hardware e software. Un click può renderci liberi: ma è davvero così?
Inediti nichilismi prendono piede nell’infosfera giuridica, alimentati da un diritto che cerca faticosamente di adeguarsi al progresso tecnologico. Ma la tecnica non è soggetta ad alcun giudizio, essa si situa al di là del bene e del male.
Il potere tecnologico ha prodotto nuove forme di totalitarismi digitali che impongono profondi interrogativi in ambito giuridico. Dobbiamo quindi ricollocarci sugli atti umani, imprevedibili e imperfetti, mai anticipabili da nessun algoritmo, e non sui fatti biologici, che richiedono una semplice conoscenza.
La tecnocrazia naturalizzata
Generalmente la critica contemporanea alla tecnocrazia evidenzia una presunta falsa oggettività che il potere, mediante una serie di politiche, vorrebbe imporre alla società.
La tecnocrazia “naturalizzata” diviene una entità che, sia pure sorta nella dimensione artificiale (fatto ad arte), assume la stessa ineluttabile forza coercitiva ed estrinseca degli eventi naturali.
“Al contrario, l’invito alla denaturalizzazione deve essere preso in carico come l’esortazione a ripensare il mondo secondo più elevati gradi di giustizia, razionalità e realismo […] Come ci ha insegnato Gramsci, solo ciò che funziona meglio ed è in grado di costruire razionalmente e scientificamente, gradi più elevati di benessere, ha davvero la forza e il fascino per farsi reale egemonia”.
Conclusioni
Il giudice non può semplicemente limitarsi ad “applicare la legge secondo la legge”, ma, attraverso l’arte dell’ermeneutica, deve procedere verso la “ricerca del giusto nel legale’, per realizzare concretamente quella ‘sostenibilità digitale’ che appare ormai imprescindibile.
La strada ideologica tracciata da Albert Camus è quanto mai attuale: il suo uomo assurdo, schiacciato da virtuali ma sempre più reali nichilismi, è sempre in ‘rivolta’. Una rivolta solitaria ma solidale: mi rivolto, dunque siamo.
_________________
Bibliografia
- Romano, “Civiltà dei dati. Libertà giuridica e violenza”, Torino, 2020.
- Romano, “Forma del senso. Legalità e giustizia”, Torino 2012.
- De Felice, A. Petrillo, “Effetto digitale. Visioni d’impresa e Industria 5.0”. McGrawHill, Milano, 2021.
- Lovink, “Nichilismo digitale. L’altra faccia delle piattaforme”, Milano, 2019.
- Floridi, “La quarta rivoluzione. Come l’infosfera sta cambiando il mondo”, Milano, 2017.
- Chiriatti, “Incoscienza artificiale. Come fanno le macchine a prevedere per noi”, Roma, 2021.