Come cambiano il nostro mondo e la nostra vita, non soltanto da un punto di vista di categorie di pensiero e di modalità di ricerca, ma come cambia la nostra vita quotidiana, grazie a questi sviluppi scientifici e tecnologi? Cambia, certamente molto. E ciò suscita in noi una serie di riflessioni e di impegni.
Rispetto a questo l’etica si fa un’unica domanda: che cosa possiamo fare? Che cosa dobbiamo fare? Per etica si intende la riflessione sui criteri e i principi dell’agire umano, riflessione che ci serve nel momento in cui dobbiamo scegliere, nel momento in cui ci sono principi in contrasto, riflessione che ci serve quando cambia lo scenario in cui noi ci troviamo a vivere.
Questo è uno di quei momenti, lo scenario sta cambiando, nel momento in cui noi cerchiamo di pensare quello che sta succedendo siamo già in ritardo. Gli sviluppi scientifico-tecnologici vanno molto più veloci della nostra possibilità di pensarli. Due secoli fa Hegel diceva che la filosofia è come la civetta di Minerva che si leva sul fare del crepuscolo e guarda quello che è successo durante la giornata, questa immagine di filosofia non è più applicabile, perché nel momento in cui si leva lo scenario è già cambiato.
Noi che cosa possiamo fare? Possiamo porci le domande giuste. La prima domanda giusta è che cosa effettivamente sta cambiando. Quello che cambia è che per la prima volta nella storia dell’umanità noi abbiamo a che fare con agenti (soggetti di azione) che non sono solamente gli esseri umani, ma che sono agenti artificiali. Addirittura, c’è chi parla di “agenti artificiali morali”, dicendo che bisogna trovare i criteri e i principi per regolamentare questa diversa forma di agire. Perché dico che è la prima volta? La storia dell’etica (l’iniziatore è Aristotele) si rivolge ai criteri dell’agire umano, non ai criteri dell’agire animale. Secondo Aristotele gli animali agiscono secondo istinti, secondo modalità prevedibili. Ci sono certamente eventi che avvengono in maniera imprevedibile, al di fuori del controllo dell’essere umano (quello che è accaduto in Florida nei giorni scorsi è un evento naturale che l’essere umano non può prevedere nelle forme in cui poi si realizza), Aristotele parlava di eventi legati alla sorte, al caso, alla fortuna, oppure eventi collegati ad una serie di procedure.
Adesso la situazione è diversa: noi abbiamo entità, dispositivi, che sono in grado di agire in modo programmabile, ma anche di modificare la propria azione in maniera tale da risultare non prevedibile. Essi sono caratterizzati da una certa, relativa, graduale, autonomia. Questo è il problema, questo cambia il nostro modo di pensare l’etica. Le scelte sono scritte nel programma, ma non esplicitamente, sono implicate in esso. Si parla di black box: anche gli informatici, i programmatori, non sanno esattamente quello che avviene nei diversi livelli del machine learning. Già qui non c’è un controllo totale e preciso, una precisa comprensione di tutti i passaggi, il che costituisce un problema. C’è un controllo per quanto riguarda alcune conseguenze. Ma in molti casi, se l’agire della macchina non può essere programmato fino in fondo, perché la macchina cambia il suo comportamento nell’interazione con l’ambiente, di nuovo viene meno il controllo. Qui c’è un problema. Come lo affrontiamo?
Il termine “delega” è il cuore della questione. Cosa vuol dire “delegare”? Svincolare, svincolarsi rispetto a determinati impegni e quindi attribuire ad altri capacità, modalità di azioni, criteri, che sono nostri e che noi chiediamo ad altri che vengano compiuti al posto nostro. Però, attenzione, la delega si pone tra due estremi: il supporto, l’aumento delle nostre capacità e potenzialità grazie ai dispositivi di intelligenza artificiale; l’altro polo è la sostituzione. La domanda è: siamo supportati o siamo sostituiti dall’intelligenza artificiale? Dove si ferma la delega? Se io vado al supermercato e trovo il cassiere che non è in grado di calcolare a mente il resto che mi deve ed è costretto per forza usare il calcolatore vuol dire che ha perso una competenza, ha perso la capacità di calcolare a mente. Qui la delega diventa sostituzione. L’essere umano ha una caratteristica, quella di antropomorfizzare. Noi siamo indotti a considerare le entità artificiali a partire da quello che siamo noi. E ciò causa confusioni.
Di fronte a ciò come ci dobbiamo comportare? Che cosa facciamo? Qui ci viene incontro l’etica.
Nello specifico, l’etica dell’intelligenza artificiale affronta tre grossi problem e si può articolare in tre modi:
Etica nell’intelligenza artificiale: noi siamo in grado effettivamente di programmare algoritmi sempre nuovi, ma non può valere dal punto di vista etico l’idea per cui tutto quello che si può fare è bene che sia fatto. Ci devono essere limiti, controlli, perché sia i presupposti, sia le conseguenze di un programma devono essere tenute di conto. Di chi è la competenza per fare questo? Dell’ingegnere? Del collaudatore? Del costruttore? No. Bisogna vedere quali sono i presupposti e quali sono le conseguenze di una determinata procedura e questa competenza non è dei tecnologi. Sta avvenendo un affiancamento interdisciplinare tra gli esperti ed emergono la figura e il ruolo dell’eticista che in qualche modo considera, suggerisce, prevede, quelle che possono essere conseguenze e responsabilità. Riusciamo a recuperare il controllo? Sì, se programmiamo questi dispositivi che a un certo punto si fermano, programmi capaci di rinviare all’essere umano o di fermarsi in particolari situazioni. Esempio: oggi esistono programmi che sono in grado di fare analizzare esami medici in maniera estremamente più accurata di un essere umano. Però cosa succede quando la probabilità che vi sia un tumore in un determinato luogo è calcolata al 49%, cioè quando lo scarto tra una diagnosi fausta e una infausta è minimo? Chi è chiamato a interpretare davvero i dati, in maniera complessiva e globale, cioè tenendo conto anche di altri aspetti e fattori? Questo non lo fa il programma: il programma non interpreta. Lo fa l’essere umano. Supportiamo dunque l’intelligenza umana, non sostituiamola.
Etica dell’intelligenza artificiale: di fronte a certi dispostivi come prendiamo le misure? Ci rendiamo conto di quello che è cambiato? Come ci comportiamo rispetto a questo mutamento radicale ed epocale? Sappiamo che cosa è bene per noi come esseri umani? Quello che abbiamo finora detto dà alcune risposte. Di fronte a questi sviluppi tecnologici noi acquisiamo la consapevolezza e ci regoliamo in una determinata maniera sulla base di criteri e principi condivisi e condivisibili. Quali sono? Premessa fondamentale: non esiste un’etica privata. L’etica esiste soltanto se condivisa. Se non ci fosse una trattazione dei principi condivisa ci troveremmo in una situazione in cui vince il più forte o chi sa convincere gli altri. L’etica invece ricerca criteri e principi universali. Finora per individuare questi criteri e principi in questi ultimi anni sono state utilizzate due strategie:
Una strategia principialista: troviamo dei principi universali e poi li applichiamo nei vari contesti concreti. Sono ad esempio quelli che possiamo ricavare da altre discipline consolidate, ad esempio dalla bioetica, un’etica applicata consolidata, su cui ci si accorda tutti: rispettare la vita delle altre persone, non fare del male etc. Per analogia applichiamo questi principi anche all’uso dell’intelligenza artificiale. Qual è la debolezza di questa proposta? Essa sta nell’applicare ad entità artificiali criteri propri degli esseri viventi. Essa consiste poi nell’applicare dei principi a situazioni concrete. Come facciamo a essere sicuri che vengano applicati correttamente? Gli Stati si sono posti il problema di come regolamentare l’intelligenza artificiale. Ma come si fa a calare i principi nella realtà?
Quale può essere la soluzione? Ecco la seconda strategia: un lavoro dal basso all’alto, il contrario dell’applicazione dei principi. Andiamo a vedere se ci sono dei principi comuni riconosciuti da tutte le normative di tutti gli stati che hanno rilasciato un regolamento sull’intelligenza artificiale. Ne abbiamo analizzati quasi centocinquanta e abbiamo trovato che ci sono principi comuni che si sovrappongono, che si intersecano:
Questi criteri sono condivisi da tutti i diversi regolamenti statuali. È consolante questo risultato. Adesso però ci vuole una fondazione etica ulteriore. Bisogna spiegare perché questi principi sono condivisi e, a partire da qui, mostrare perché l’essere umano deve applicare proprio questi criteri per regolamentare, nella sua vita quotidiana e nei contesti comuni, l’utilizzo di programmi e dispositivi di intelligenza artificiale. Abbiamo i principi, i criteri. Ora li dobbiamo applicare: non perché c’è qualcuno che ci impone di farlo, ma perché corrispondono a quella apertura di possibilità che è propria dell’essere umano.
Nota: Trascrizione, rivista dall’Autore, della conferenza tenuta a Brescia l’11.10.2024.