Uno sguardo sull'intelligenza artificiale

 

Approfondiamo il concetto di intelligenza artificiale e le modalità in cui esercita la sua funzione. È possibile disegnare uno scenario etico-politico nell’epoca digitale? 

Nel film Her (2013) diretto da Spike Jonze, il protagonista Theodore (interpretato da Joaquin Phoenix) avvia una relazione con un sistema operativo basato su un’intelligenza artificiale (IA), in grado di modificare i propri comportamenti in base alle esigenze dell’utente. Samantha (voce di Scarlett Johansson) è il nome dell’intelligenza artificiale. Il film presenta indubbiamente tratti fantascientifici, ma in un futuro nemmeno troppo lontano si possono prospettare situazioni di questo tipo?

 

 

Secondo Luciano Floridi, il vocabolo intelligenza artificiale è un ossimoro. Per il filosofo, infatti, l’IA rappresenta una nuova forma di agire, ma non di intelligenza (L. Floridi, Etica dell’intelligenza artificiale). L’IA instaura una separazione inedita fra la capacità di risolvere un problema o portare a termine un compito con successo dalla necessità di essere intelligenti nel farlo. Insomma, nell’IA conta il risultato, l’esecuzione corretta di una serie di procedure per raggiungere un determinato obbiettivo. L’insieme di attività che contribuisce a creare l’intelligenza umana, cioè la comprensione, la consapevolezza, la sensibilità, la preoccupazione, l’intuizione e altro ancora non rientrano nell’agire artificiale. L’IA sa calcolare in fretta, ma non è in grado di ascoltare e tendere l’orecchio verso ciò che sta fuori di sé. Ai fini del calcolo, la capacità del pensiero di farsi concetto e creare un nuovo mondo in direzione di un’alterità e di un altrove risulterebbero solo un disturbo. 

Tuttavia, è proprio tale separazione tra agire e intelligenza che consente di delineare le nuove caratteristiche dell’epoca digitale nella quale viviamo. Il successo dell’IA è dovuto al fatto che stiamo costruendo un ambiente adattato alle nuove tecnologie. In altre parole, la rivoluzione digitale fa parte di quei cambiamenti strutturali che mutano progressivamente il significato del nostro ambiente e del mondo in cui viviamo. Ecco che, in questo contesto, l’avvolgimento diventa un concetto chiave. Stiamo avvolgendo l’ambiente per adattarlo ai sistemi di IA e sfruttare le sue capacità limitate. Avvolgere significa proprio questo: adattare l’ambiente e le attività alle capacità dell’IA. Ciò accade in strada o in ufficio. Pensiamo agli impianti di riscaldamento e raffreddamento automatizzati o ai robot in grado di pulire le superfici e tagliare l’erba. Oggi viviamo sempre più nell’infosfera, uno spazio insieme analogico e digitale. Per spiegare meglio questo intreccio tra i due piani, Floridi utilizza l’immagine dell’estuario dove il fiume incontra il mare. In quel luogo non ha senso domandarsi se l’acqua è dolce o salata, piuttosto dovremmo dire che è salmastra. Analogamente, l’ambiente insieme offline e online è ciò che connota le odierne società dell’informazione. 

 

L. Floridi
L. Floridi

 

Byung-Chul Han ritiene che ci troviamo in un periodo di passaggio tra l’èra delle cose e l’èra delle non-cose (B. C. Han, Le non cose). In maniera sempre più consistente non sono più gli oggetti, bensì le informazioni a predisporre il mondo in cui viviamo. Ciò crea un disorientamento. Mentre il mondo delle cose stabilizza la vita umana fornendo una continuità, in quanto le cose (ad esempio un tavolo o una tazza) sono i punti fermi dell’esistenza, le informazioni invece hanno una validità molto limitata nel tempo e si fondano sul brivido della sorpresa. Oggi le cose passano sullo sfondo della nostra attenzione. In primo piano sta una produzione e consumazione continua di informazioni. Ecco che le cose tendono sempre più a trasformarsi in infomi, cioè agenti che elaborano informazioni. È l’intelligenza artificiale a trasformare le cose in infomi. Pensiamo allo smartphone, il principale infoma del nostro tempo. Il suo aspetto esteriore non è poi così rilevante, infatti i cellulari sono molto simili tra loro apparentemente. Ciò che conta nello smartphone è la capacità di elaborare informazioni, ma anche l’efficacia informativa di produzione automatizzata. Un sistema automatizzato, come nel caso dello smartphone o del computer, è in grado di integrare diverse funzioni in un unico centro di controllo. Esso è un sistema dotato di autoregolazione, sulla base dei compiti per cui è stato programmato e, inoltre, è anche un sistema in grado di adattarsi. 

L’automatizzazione è tale in modo da regolarsi in base ai meccanismi degli altri dispositivi con cui è in relazione e di compiere una serie di azioni in risposta alle azioni di questi stessi dispositivi (A. Fabris, Etica per le tecnologie dell’informazione e della comunicazione). È con tutto ciò che l’essere umano è chiamato ad interagire.

 

 

Se, attraverso la rivoluzione copernicana, l’uomo si è reso conto di non essere al centro dell’universo, è solamente con Darwin che egli perde la sua centralità anche nel regno biologico. Successivamente, con Freud viene meno la razionalità umana come elemento cardine al quale l’umano può costantemente aggrapparsi. Oggi siamo nella cosiddetta quarta rivoluzione nella comprensione di noi stessi. Dopo Turing, non siamo più al centro della nuova società dell’informazione. Nell’ambiente digitale, l’uomo è chiamato ad interagire con i dispositivi tecnologici e i suoi sistemi sempre più sofisticati di IA. Come si esercita e come può svilupparsi l’interazione tra l’uomo e la macchina? Ecco che a partire da questo interrogativo entra in scena la vera e propria questione politica. Oggi, infatti la posta in gioco non consiste tanto nell’innovazione tecnologica, quanto piuttosto nella buona governance del digitale (v. L. Floridi). Le tecnologie aumentano e migliorano giorno dopo giorno, ma per salvare il pianeta e noi stessi dobbiamo usarle molto meglio rispetto a quanto fatto finora. La tecnologia non rappresenta un bene di per sé, piuttosto la sua efficienza (capacità di produrre più risultati con meno risorse) e la sua efficacia (capacità di produrre risultati di maggior successo) hanno una precisa connotazione etico-politica. Se l’IA non è controllata e guidata in modo equo e sostenibile, la sua diffusione: può fomentare problemi sociali come pregiudizi e discriminazioni, ad esempio attraverso le fake news; può erodere l’autonomia e la responsabilità umana, ad esempio intralciando la questione relativa alla privacy, il trattamento e la salvaguardia dei dati personali; può amplificare i problemi del passato, come nel caso dello sviluppo di una cultura della mera distrazione di massa. Affinché tutto ciò non si verifichi, è necessario indirizzare e saper governare l’IA in modo da affrontare le sfide più importanti del nostro tempo. Mi riferisco in particolare al cambiamento climatico e all’ingiustizia sociale. L’IA può aiutarci a conoscere, comprendere e prevedere di più e meglio questo tipo di tematiche. 

 

L’IA può contribuire a migliorare ed espandere la nostra attuale comprensione del cambiamento climatico, tramite l’elaborazione di enormi quantità di dati per studiare le tendenze climatiche esistenti e prevedere gli sviluppi futuri, oltre all’impatto e il successo o meno delle politiche a tal riguardo. Ad esempio, sono state impiegate tecniche di IA per prevedere le variazioni della temperatura media globale, per predire fenomeni climatici e oceanici o per comprendere meglio aspetti legati alle precipitazioni e i loro effetti a catena, come la domanda di risorse idriche. Gli strumenti di IA possono anche contribuire ad anticipare eventi metereologici estremi, come i danni causati dalle forti piogge, gli incendi boschivi e altre conseguenze che ne derivano, ad esempio le migrazioni umane. Oltre a migliorare la comprensione scientifica, l’IA può fornire soluzioni più ecologiche, come il miglioramento e l’ottimizzazione della generazione e dell’uso dell’energia, contribuendo fortemente alla lotta contro il riscaldamento globale. 

 

Per quanto riguarda la problematica dell’ingiustizia sociale, un progetto di IA per il bene sociale è tale nella misura in cui contribuisce a ridurre o eliminare un certo problema sociale, senza introdurre nuovi danni o ampliando quelli esistenti. Per esaminare in che modo l’IA ha un impatto sulle opinioni della società è necessario aprire un dibattito sulla valutazione di quali compiti e funzioni decisionali non dovrebbero essere delegati ai sistemi di IA, così da rispettare i principi di autonomia e responsabilità umane. In parallelo, è fondamentale sviluppare un quadro per migliorare la divulgazione pubblica circa i sistemi di IA che assumono decisioni socialmente rilevanti, sia nel caso di conseguenze desiderate, che nel caso di conseguenze indesiderate. Ciò richiede un contributo interdisciplinare, con il coinvolgimento di associazioni professionali, esperti in campo scientifico, etico, giuridico e commerciale. 

Altri elementi importanti potrebbero essere: la promozione di un osservatorio internazionale per monitorare gli sviluppi, fornire un forum per alimentare il dibattito e il consenso; fornire un archivio per la letteratura e il software sull’IA; formulare progressive raccomandazioni e linee guida per l’azione. Un ultimo aspetto riguarda la diversità. È necessario che la diversità, in termini di genere, classe, etnia, disciplina e altre dimensioni rilevanti comporti l’inclusione, la tolleranza e la ricchezza di idee e prospettive nell’elaborazione e nello sviluppo dell’IA. In caso contrario, gli algoritmi propri dei sistemi di IA rischiano di fomentare pregiudizi e discriminazioni.

L’approccio interdisciplinare rappresenta un ponte significativo per l’inclusione, affinché i risultati (sempre parziali e provvisori) della ricerca scientifico-tecnologica si integrino con aspetti storicamente legati agli studi umanistici e viceversa.

 

17 novembre 2022

 









  • Canale Telegram: t.me/gazzettafilosofica