Seleziona una pagina

Intelligenza Artificiale

L’intelligenza artificiale (AI), attualmente sta conquistando un’attenzione sempre più crescente, e non sempre per ragioni positive. Spesso ci viene detto di come essa stia aumentando la disuguaglianza, o peggio, di come minacci l’esistenza stessa della razza umana. Quando il tasso di progresso in questo campo è così veloce, può essere difficile rimanere su ciò che è realtà e ciò che è finzione, ciò che è razionale e ciò che è isterico. In questo saggio cercheremo di capire meglio le minacce e i benefici posti dall’ AI, comprendendo prima che cos’è effettivamente l’intelligenza artificiale.

Uno dei motivi principali della confusione è che le persone intendono l’AI in riferimento a due concetti completamente diversi. Il primo potrebbe essere definito più precisamente come “intelligenza artificiale generale” (AGI), o in alternativa “intelligenza artificiale forte”. Tuttavia non esiste una definizione universalmente condivisa di ciò che questo esattamente significhi. Generalmente è accettato il fatto che una macchina che esibisce intelligenza artificiale generale, sarebbe in grado di eseguire con successo qualsiasi compito intellettuale che un essere umano sia in grado di compiere, in altri termini, la macchina sarebbe in grado di simulare l’intelligenza umana. In effetti uno dei test proposti per un AGI che abbia successo è osservare se essa possa essere confusa per un essere umano in una conversazione al buio. Pertanto, in particolare, AGI è caratterizzata da una capacità delle macchine di espletare compiti indipendentemente: come ragionare sul mondo che le circonda, imparare dalle loro esperienze, fare progetti per raggiungere obiettivi e comunicare con gli umani usando un linguaggio naturale.

L’AI è anche usata per riferirsi a ciò che potremmo chiamare più precisamente “AI applicata” o “AI debole”. Questo è l’uso che ne fanno i software/programmi informatici per risolvere specifiche questioni di “problem solving” o attività di ragionamento. Una macchina che esibisce AI debole sarà in grado di risolvere un compito molto specifico, spesso estremamente bene, ma è diversa da una AGI in quanto non è adattabile allo stesso modo. L’AI debole non può imparare dalle sue esperienze e quindi applicarle a ciò che ha appreso in un nuovo contesto.

La distinzione tra i due tipi è importante perché un pubblico medio pensa all’AGI quando sente parlare di intelligenza artificiale, ma in realtà ne hanno davvero ben poca comprensione. In effetti, la creazione di un’intelligenza artificiale generale, qualora essa venga raggiunta, è probabilmente lontana nel futuro. Di conseguenza, anche se ci sono domande serie su cui rispondere in merito all’etica e alla sicurezza dell’AGI, è più interessante concentrarsi sull’AI applicata e discutere su alcune delle grandi domande presenti in questo campo.

Iniziamo dal principio e cerchiamo innanzitutto di capire cos’è l’AI applicata e come si è formata; passiamo poi a discutere di alcuni dei successi e fallimenti dell’AI applicata, così come alcune delle sfide che deve e sta affrontando.
In primo luogo, che cos’è l’AI applicata? L’intelligenza artificiale applicata è principalmente una rinominazione del “learning machine”, un ramo dell’informatica che riguarda lo studio e la costruzione di ciò che consente a un computer di apprendere senza essere esplicitamente programmato. Le sue origini si fanno risalire agli anni ‛50, grazie all’informatico Arthur Samuel, che si ritiene abbia scritto il primo programma al mondo di autoapprendimento, ovvero un programma che poteva giocare a dama. Mezzo secolo dopo, l’AI applicata continua ad influenzare le nostre vite quotidiane. Quando si pubblica una lettera, gli algoritmi di apprendimento automatico leggono l’indirizzo e aiutano lo smistamento presso l’ufficio postale. Quando si utilizza la carta di credito, gli algoritmi di apprendimento automatico passano attraverso la cronologia degli acquisti per verificare possibili frodi. Quando si riceve un’e-mail, i messaggi di spam vengono filtrati dagli algoritmi di apprendimento automatico. Perché tali algoritmi diventano così prevalenti e perché potremmo preoccuparci di poter consentire ai computer di apprendere da soli, piuttosto che essere programmati esplicitamente per svolgere un’attività? Per rispondere a questa domanda, è più semplice utilizzare un esempio specifico.

Supponiamo di voler insegnare ad un computer a riconoscere cifre scritte a mano, numeri da 0 a 9. Sebbene il compito sia molto ben definito, non è ovvio come si possa scrivere un algoritmo che prenda come input un’immagine di una cifra e come ouput la previsione della cifra che è stata mostrata. Prendiamo ad esempio il numero 7, alcune persone lo scrivono con un po’ di curva, altri aggiungono una linea sul gambo lungo, c’è abbastanza variazione nei diversi modi in cui è scritto, e quindi non è immediatamente ovvio ciò che si dovrebbe dire al computer per far si che cerchi la giusta risposta. In parte, questo succede perché noi stessi non seguiamo tale processo. Infatti, noi come umani impariamo dall’esperienza, una volta che abbiamo visto un numero sufficiente di esempi di 1 o di 2, siamo in grado di confrontare nuovi esempi con le nostre esperienze passate e formulare quindi un giudizio.

Motivato da questo, sembra ragionevole indagare sulla possibilità di consentire ad un computer di imparare modelli simili attraverso l’esempio. Per realizzare ciò sono stati ideati diversi metodi. Una cosa che tutti questi approcci hanno in comune è che richiedono una vasta serie di esempi classificati, di solito come “set di allenamento”. Il modo in cui viene utilizzato questo set di allenamento varia molto. Una delle cose più semplici che possiamo fare è la seguente: data una nuova immagine, cerchiamo attraverso il set di allenamento di trovare tutti gli esempi classificati che sono più simili alla nuova immagine, in precedenza non vista. Possiamo quindi prevedere l’etichetta che appare più comunemente tra gli esempi più simili. Ciò si basa sulla convinzione che se si dovesse disegnare un 5, allora dovrebbe sembrare più simile ad altri esempi di 5. Naturalmente, il nostro insieme di esempi di formazione più è ampio e diversificato, più possiamo aspettarci che questo approccio funzioni.

Questo approccio, noto nei circoli di apprendimento automatico come l’algoritmo k-nearest neighbours, ha i suoi limiti. Il principale tra questi è che stiamo assegnando etichette basate sulla somiglianza con esempi visti, quando in realtà vorremmo assegnare etichette basate su caratteristiche osservate che sono in qualche modo più fondamentali. Un buon riconoscitore di cifre non sarebbe sensibile alle variazioni e alle stranezze minori presenti nella calligrafia di un individuo, ma sarà invece in grado di individuare le caratteristiche chiave che distinguono le diverse cifre.

Il modo migliore per raggiungere questo obiettivo è ancora oggi oggetto di ricerca attiva, in particolare a riguardo del problema del riconoscimento e della distinzione delle cifre da 0 a 9, per non parlare dell’apprendimento automatico nel suo insieme. La maggior parte degli algoritmi si inserisce nel quadro abbastanza generale di eseguire una sequenza di trasformazioni matematiche sui dati di input, per assegnare a ciascuna etichetta possibile, un punteggio o un livello di sicurezza. Poiché ogni esempio di addestramento viene inserito nel modello, modifichiamo leggermente le trasformazioni matematiche applicate in modo che la sicurezza dell’etichetta corretta per quell’esempio salga e le sicurezze per le etichette rimanenti diminuiscano. Dopo che l’algoritmo ha visto molti esempi di addestramento, le trasformazioni sono state modificate abbastanza da consentire all’algoritmo di individuare l’etichetta corretta. Naturalmente abbiamo scartato molti dettagli, c’è un’arte nella scelta delle trasformazioni appropriate per ogni compito dato, ma questa struttura di alto livello costituisce la base di molti algoritmi di apprendimento automatico.

Il concetto più importante da comprendere, è che l’apprendimento automatico, che guida quasi tutto ciò che potremmo descrivere come AI debole, equivale in realtà a una forma avanzata di riconoscimento automatico dei modelli. Questi algoritmi imparano quasi sempre a riconoscere i modelli elaborando esempi etichettati, piuttosto che essere programmati esplicitamente. Demistificato questo concetto, diamo un’occhiata ad alcuni dei grandi successi dell’AI debole.

Uno dei progressi più visibili è l’elaborazione del linguaggio naturale e il riconoscimento vocale automatico. La nostra capacità di convertire la parola in testo e di analizzare il significato del linguaggio naturale è aumentata notevolmente nell’ultimo decennio. È ora possibile chiedere al telefono se sarà necessario un ombrello e in pochi secondi verrà visualizzata una previsione meteo locale. Anche se questa può sembrare una novità marginale, in realtà migliora notevolmente l’accessibilità delle tecnologie a coloro che sono ipovedenti o che hanno difficoltà a digitare nei loro dispositivi. In medicina, gli algoritmi di apprendimento automatico stanno mostrando grandi sviluppi. Un team di ricercatori della Stanford University ha addestrato un algoritmo di riconoscimento delle immagini per capire se una talpa fosse a rischio di cancro. L’algoritmo ha eguagliato o superato la capacità dei dermatologi qualificati. Tali tecnologie promettono di ridurre i costi e aumentare la velocità di diagnosi di patologie pericolose come il cancro. Con l’aumentare delle prestazioni potrebbe anche essere possibile rilevare queste patologie prima, aumentando così la possibilità di un trattamento efficace. L’AI debole ha avuto successo anche nel consentirci di elaborare i “big data”. I grandi dati si riferiscono al fenomeno che la quantità di dati che produciamo aumenta in modo esponenziale. Ad esempio, oggi giorno scattiamo oltre un trilione di foto ogni anno; in qualsiasi momento, circa il 10% di tutte le foto scattate ha meno di un anno. I nostri orologi registrano ora i nostri battiti cardiaci e il numero di passi che abbiamo compiuto. I nostri telefoni registrano dove siamo andati e con chi abbiamo parlato, cosa abbiamo cercato e cosa abbiamo comprato. È persino possibile ora acquistare un frigorifero che tiene traccia di ciò che si sta mangiando e può anticipare quando è necessario fare shopping. Affrontare questi enormi volumi di dati richiede algoritmi sofisticati, dal momento che l’input manuale è semplicemente fuori questione.

Ma c’è un vero pericolo quando molti di questi processi che influenzano le nostre vite quotidiane vengono automatizzati in modi che la maggior parte di noi non comprende a pieno. Se non sappiamo come funzionano questi algoritmi che governano le nostre vite, allora la sorveglianza diventa più difficile, è più difficile mettere in discussione qualcosa che non capiamo veramente. Inoltre, è facile dare a questi algoritmi uno stato che non meritano veramente, in parte perché li definiamo come AI che implica intelligenza, quando in realtà, come abbiamo visto, di solito stanno semplicemente imparando modelli da esempi. Di conseguenza sono suscettibili nell’apprendere pregiudizi o errori nei dati stessi. Prendiamo ad esempio i recenti sforzi per creare un algoritmo predittivo per la polizia negli Stati Uniti. L’idea era di usare i dati del crimine per costruire un algoritmo in grado di individuare i modelli di crimine e quindi prevedere dove sarebbe stato commesso un crimine. La polizia potrebbe quindi assicurarsi che l’area della città fosse più sorvegliata rispetto alle aree a basso rischio.

Il problema è che in realtà i dati sulla criminalità non esistono. Invece i modelli vengono addestrati su dati di arresto, che potrebbero sembrare essenzialmente la stessa cosa, ma diverso in modo cruciale, vale a dire che i dati di arresto contengono al suo interno tutti i pregiudizi dell’essere umano che effettua gli arresti e non rappresentano perfettamente veri tassi di criminalità. Quindi un algoritmo che impara ad esso modelli dati, impara anche tutti questi pregiudizi. Il risultato è che un algoritmo predittivo della polizia addestrato sui dati di arresto, finisce per esagerare il rischio di criminalità in aree che sono già troppo sorvegliate, come i quartieri con minoranza etnica e poveri. Esempi come questo dimostrano quanto sia facile per gli algoritmi di “learning machine” avere ingerenze umane incorporate inavvertitamente nel loro processo decisionale. Ciò è particolarmente problematico in un mondo in cui tali algoritmi sono collocati su un piedistallo e considerati arbitri intelligenti della verità, piuttosto che fallaci riconoscitori di schemi.

Ci sono anche altre questioni etiche da considerare. Prendiamo l’avvento di auto a guida autonoma. Nel mondo sviluppato, la principale causa di morte tra i giovani è rappresentata dagli incidenti automobilistici. Le auto che guidano da sole sono drivers più sicuri degli umani, e quindi hanno il potenziale per ridurre notevolmente il numero di incidenti stradali e quindi di morti. I principali ostacoli che ora devono affrontare non sono tecnologici, piuttosto normativi e legali. Chi dovrebbe essere considerato responsabile se un auto che guida da sola si schianta e uccide il suo occupante?. Il proprietario dell’auto? La compagnia automobilistica? Il programmatore che ha programmato il software di auto-guida? Si può fare un caso per ognuna di queste tre risposte, ma senza alcun vero precedente legale per tali questioni, le risposte non sono facili da ottenere.

Ancora più difficile è rispondere alla domanda in che modo affrontare qualcosa come il seguente scenario ipotetico. Supponiamo che un’auto che guida da sola stia guidando e un gruppo di bambini delle scuole scenda in strada davanti alla macchina; non c’è assolutamente modo che l’auto possa fermarsi in tempo, ma sarebbe possibile sterzare e schiantarsi contro un muro di mattoni. L’auto dovrebbe sterzare e colpire il muro, probabilmente uccidendo l’occupante e il proprietario del veicolo, o l’auto dovrebbe continuare lungo la strada e colpire il gruppo di scolari? Da un punto di vista puramente utilitaristico, è meglio uccidere il singolo occupante del veicolo piuttosto che i bambini presenti sulla strada. D’altra parte, la prima priorità del veicolo dovrebbe essere la sicurezza del suo proprietario, quali sono le implicazioni etiche della vendita di una macchina programmata per uccidere, in determinate circostanze, il suo proprietario? Queste domande morali ed etiche sono in un certo senso più difficili da rispondere rispetto alle sfide tecniche che devono essere in primo luogo superate per costruire un’auto a guida autonoma.

In conclusione, ci sono molti esempi che dimostrano il potere e il potenziale che l’AI applicata ha per produrre cambiamenti positivi, ma ci sono alcuni problemi seri per i quali non abbiamo ancora buone soluzioni. Il principale tra questi è la mancanza di comprensione da parte della popolazione di cosa sia esattamente l’AI applicata. Ciò porta a una situazione in cui i membri ordinari del pubblico non sentono di poter mettere in discussione le decisioni degli algoritmi che sono sempre più utilizzati per governare le loro vite quotidiane. Inoltre, nonostante i grandi progressi compiuti in campo tecnologico, permangono una serie di questioni morali ed etiche che finora non hanno ricevuto una risposta soddisfacente. Infine, qualsiasi cosa creata dagli umani è suscettibile a ereditare difetti e pregiudizi, gli algoritmi di apprendimento automatico non sono diversi. Dobbiamo riflettere maggiormente su cosa significano realmente le previsioni di tali algoritmi e se l’AI applicata e l’apprendimento automatico, sono in primo luogo le tecniche appropriate per risolvere un dato problema. Il futuro è promettente, ma non dobbiamo illuderci di pensare che siamo già alle soglie di una soluzione.

Thomas Begley

Note sull’Autore

Thomas Begley è un matematico con un background in analisi geometrica. Ha conseguito il dottorato presso il Cambridge Center for Analysis dell’Università di Cambridge, dove ha anche studiato calcolo delle probabilità, statistica e analisi numerica. Per il suo progetto ASI (Artificial Science Intelligence) ha lavorato con Amnesty International, un’associazione benefica che si occupa di ricerche e campagne contro le violazioni dei diritti umani in tutto il mondo. Ha utilizzato tecniche NPL (metodi di programmazione neuro-linguistica) e modelli di apprendimento automatico per automatizzare il processo di monitoraggio dei media di Amnesty, abbinando gli articoli e le notizie ai comunicati stampa e determinando in tal modo l’impatto di ogni comunicato stampa. Ha integrato il suo lavoro con l’infrastruttura tecnologica esistente di Amnesty, migliorando notevolmente l’efficienza del processo di monitoraggio dei media.