Cerca

 

Accesso Socio

Rinnova la tua iscrizione, paga la tua quota associativa.

Non sei ancora registrato? Registrati ora

Accesso Ideatore

Carica le tue idee o partecipa alle call ItaliaCamp

Non sei ancora registrato? Registrati ora

30 marzo 2023

Umanità artificiale: etica e conoscenza al cospetto degli algoritmi

Giovedì 30 marzo presso Industrie Fluviali l’appuntamento con il format di incontri “Visioni in campo” dell’Associazione Italiacamp.

Giovedì 30 marzo a Industrie Fluviali si è tenuto l’evento “Umanità artificiale: etica e conoscenza al cospetto degli algoritmi”, primo appuntamento del ciclo di incontri Visioni in Campo dell’Associazione Italiacamp.

Hanno partecipato Enrico Panai Presidente dell’Association of AI Ethicists e Professore di Responsible AI presso la EMlyon Business School Paris e Marta Bertolaso, Professoressa di Filosofia della Scienza e Sviluppo Umano presso Università Campus Bio-Medico di Roma e co-founder della Fondazione Venture Thinking. Introdotti dal Presidente dell’Associazione Italiacamp Cristiano Panfili e moderati dal consigliere con delega a education e cultura Filippo Salone, hanno discusso delle implicazioni più profonde legate ai recenti sviluppi dell’Intelligenza Artificiale.

L’incontro è partito dal tema delle relazioni: come evidenziato da Enrico Panai “è già Aristotele a dirci che gli esseri umani sono animali politici, che si mettono in relazione con gli altri e che vivono in un rapporto sociale con gli altri. Questo rapporto è sempre basato su una relazione creata dallo scambio di informazioni: prima in maniera informale e poi con la scrittura in modo sempre più strutturato”. Tuttavia, sebbene da sempre le informazioni veicolate abbiano contenuto dei dati, solo con la rivoluzione digitale il dato è diventato così importante.

Ma non si tratta solamente di dati, anzi. Forse l’elemento più importante della rivoluzione digitale è quello del senso. Da dove deriva il successo di Google, Instagram e Open AI oggi? Sono applicazioni/aziende che hanno “cambiato il senso di gestire le cose”, ed è questo forse il potere più forte del digitale: gestire il capitale semantico. Per comprendere meglio il concetto, si può fare riferimento all’invenzione della stampa. Anche quella fu una rivoluzione nella modalità di creare e fruire i contenuti, ma fu una rivoluzione prevalentemente quantitativa: grazie alla stampa si potevano produrre più libri, ma il senso del libro rimaneva lo stesso. L’algoritmo di Google, i filtri di Instagram, i contenuti di Open AI cambiano invece il senso delle cose. Anche in questo caso torna utile il pensiero di Aristotele. Il filosofo greco parlava di agnizione: un’informazione critica e improvvisa che fa cambiare tutta l’idea precedente. “Quello che ci fa esclamare: Wow, Eureka”.

Noi siamo drogati di agnizione: chi crede che la terra sia piatta, chi crede alle fake news, non fa altro che cercare altro senso alle cose. Ma l’agnizione funziona solo quando il senso che diamo alle cose è autentico perché ci fa reinterpretare il reale in modo autentico”. È quindi qui la differenza sostanziale tra gli uomini e le macchine: le intelligenze artificiali producono significato, ma a volte quel significato non è autentico. “Creiamo modelli e sistemi che arrivano in modo inferenziale a farci capire quali sono le relazioni tra le informazioni, ma quello che ci fanno capire non è autentico ed è per questo che creano Deep Fake”.

In quest’ottica diventa quindi fondamentale governare le relazioni tra individui, nello scambio di informazioni che sono intercettate e condizionate dai prodotti delle intelligenze artificiali. Come fare? Attraverso la legge, il quadro teorico di un contratto sociale, l’etica che ci aiuta quotidianamente a gestire l’incertezza, e soprattutto attraverso l’educazione. È infatti fondamentale un percorso formativo che non si limiti a migliorare l’uso degli strumenti, ma che problematizzi il fatto che dietro lo strumento ci sono sistemi in grado di agire e che usano i nostri bias per costruire dei percorsi (economici, politici, sociali) che siamo obbligati a seguire.

Dal tema delle relazioni (e della gestione) e della costruzione del senso, si è passati agli effetti psicologici. Con le parole di Marta Bertolaso: “gli scenari che ci vengono prospettati da Chat GTP o dal Metaverso, a prima vista ci affascinano ma la sensazione che si scatena subito dopo è l’ansia, perché nella storia non avevamo mai sperimentato una percezione di uomo mediato dalla tecnologia in modo così forte”. Eppure gli esseri umani hanno sempre abitato il mondo utilizzando le tecnologie, da sempre costruiscono e usano oggetti e strumenti. Infatti, quello dell’ansia causata dal rapporto uomo-macchina non è un sentimento nuovo, basti pensare alla prima e alla seconda rivoluzione industriale, al luddismo o alle iconiche scene del film Tempi Moderni di Charlie Chaplin; ma, come anticipato, oggi forse tutto questo ci spaventa ancora di più perché entra in relazione con senso e non solo con il fare. Da sempre infatti le tecnologie ci hanno aiutato nel performare meglio, nell’avere processi di produzione più automatizzati, più veloci, più efficaci e di conseguenza abbiamo giudicato il valore di una tecnologia secondo un criterio funzionale. Il problema è che questo criterio funzionale è diventato un valore anche per giudicare la conoscenza e la stessa dimensione umana: “Si giudicano le persone sulla base di ciò che fanno e non hanno fatto. È una narrazione che condiziona la nostra comprensione di ciò che accade. È una delle ragioni che crea ansia. L’intelligenza artificiale ci anticiperà, ci dirà come stiamo e noi rischieremo di crederci. D’altronde quanto è facile credere a ciò che vogliamo ascoltare?”. Per questo il discorso etico deve tornare a giocare un ruolo di orientamento e non di difesa.

Come scritto in precedenza, l’Intelligenza Artificiale lavora con le informazioni che riesce a raccogliere, non cambia scenari. Ma c’è un’altra differenza fondamentale con gli esseri umani: i silenzi, che a noi umani, come in uno spartito musicale, permettono di interpretare una frase o un contesto e che costruiscono la comunicazione stessa, per una macchina sono solo un buco tra dati e “se è vero che l’AI mette insieme il dato meglio di noi, la dimensione relazionale che ci fa essere umani dipende  dall’automatismo. Dobbiamo educare a usare gli oggetti tecnologici per recuperare questa dimensione relazionale e per stare con gli altri”. Lo stesso si può dire delle domande: “Un AI può mettere insieme tantissime risposte, ma non riesce ad elaborare le domande”.

Ma allora è l’uomo che è schiavo della macchina o viceversa? Quale conoscenza cerchiamo nell’interazione con un AI? Solo un trasferimento di informazioni e di dati? Ci interessa ricordare che le nostre scelte sono veicolate da valori? Ci interessa recuperare una dimensione umana, relazionale, antropologica, fisica? E come possiamo farlo? “Anche attraverso i luoghi: se non sappiamo abitare il mondo non sapremo costruire”.