Alan Turing e l’intelligenza della macchina

Il test di Turing, introdotto dal geniale matematico inglese nel 1950, stabilisce che un algoritmo possa essere definito intelligente se è in grado di imitare in maniera indistinguibile il comportamento umano (“Imitation Game”). 

“Le macchine possono pensare?” (“Can machines think?”): con questa domanda Alan Turing apre l’articolo Computing Machinery and Intelligence, pubblicato sulla rivista Mind nel 1950. L’articolo è divenuto celebre per aver dato inizio al campo di ricerca che va sotto il nome di Intelligenza Artificiale o AI, sebbene questo termine sia stato coniato qualche anno dopo, nel 1955, da John McCarthy.

Turing (1912 – 1954) è considerato una delle più grandi menti matematiche del secolo scorso: a lui si deve lo sviluppo dei primi computer digitali. Già nel 1936 infatti, aveva ideato il concetto di macchina universale, cioè una macchina di calcolo programmabile che potesse lavorare su algoritmi differenti: Turing introdusse quindi la differenziazione tra hardware (“la struttura della macchina”) e software (“l’algoritmo”). Fino a quel momento infatti, i primi modelli di computer erano macchine meccaniche in grado di svolgere solo un limitato numero di compiti e non erano programmabili.

Turing è ricordato anche per aver dato un contributo decisivo in favore degli alleati nel corso della seconda guerra mondiale. Durante la sua permanenza a Bletchley Park, nelle campagne di Londra, dove il governo inglese aveva radunato le migliori menti del tempo, Turing riuscì a decifrare l’impenetrabile codice Enigmautilizzato dalla marina tedesca, fornendo quindi le informazioni chiave per individuare i sottomarini U-Boot che rappresentavano una spina nel fianco per la Gran Bretagna.

Dopo la guerra Turing si trasferì a Manchester, dove si dedicò allo sviluppo dei primi computer digitali ed iniziò appunto a ragionare sul tema dell’intelligenza artificiale.

Il gioco dell’imitazione (“The imitation game”)

Per cercare di rispondere in maniera semplice al quesito sull’intelligenza delle macchine, nel paper del 1950 Turing propone un gioco, definito appunto “gioco dell’imitazione”.

Il gioco prevede tre partecipanti: un giudice (umano), un uomo ed una macchina, posti in locali separati. Il giudice dialoga con messaggi testuali con gli altri due personaggi e deve scoprire chi dei due sia l’uomo e chi la macchina. Pensiamo ad esempio ad una sorta di chat di assistenza clienti in cui dobbiamo scoprire se chi risponde alle nostre domande sia un computer oppure un operatore in carne ed ossa.

Le regole del gioco prevedono che il computer possa mettere in atto qualsiasi comportamento per non farsi scoprire: per esempio potrebbe sbagliare di proposito oppure ritardare nell’effettuare un calcolo matematico complicato che potrebbe smascherare immediatamente le sue capacità computazionali.

Turing profetizzò che nel giro di 50 anni (quindi attorno al 2000) sarebbe stato possibile programmare dei computer che avrebbero giocato così bene l’imitation game che il giudice, avendo a disposizione 5 minuti per fare domande, non sarebbe stato in grado di individuare la macchina con più del 70% di probabilità.

Questa metodologia è passata alla storia con la definizione di test di Turing e rappresenta ancora oggi il benchmark di riferimento per capire se un algoritmo possa essere considerato o meno intelligente.

Supponiamo ad esempio di voler verificare l’intelligenza di un algoritmo di una chat (definito chatbot) utilizzando il test di Turing: individuiamo 10 giudici; li facciamo interagire tramite chat per 5 minuti con l’algoritmo e con un umano; se almeno 3 giudici su 10 non sono in grado di capire chi sia l’uomo e chi la macchina, l’algoritmo ha passato il test.

La macchina impara: la nascita del “machine learning”

Il paper del 1950, è considerato un capolavoro assoluto di conoscenza e visione non solo perché ci ha lasciato in eredità il test di Turing: il matematico inglese si è spinto infatti anche ad indicare la strada da seguire negli anni successivi per poter arrivare a creare degli algoritmi intelligenti, introducendo il concetto di “machine learning”.

Il ragionamento sviluppato da Turing è il seguente: il funzionamento di una mente adulta dipende dallo stato iniziale, cioè quello alla nascita, e dall’educazione che ha ricevuto successivamente. Per cui: invece di partire da un programma che cerca di replicare direttamente la mente dell’adulto, perché non iniziare dallo stato del bambino? Se sottoponiamo poi il programma ad un corretto processo di educazione potremmo evolverlo gradualmente verso una modalità di ragionamento di una mente adulta.

Il ragionamento di Turing è assolutamente rivoluzionario, soprattutto se pensiamo che fu elaborato nel 1950: il primo computer digitale era stato sviluppato a Manchester solo 2 anni prima.

Turing prospettò la possibilità di una macchina in grado di imparare (“machine learning”), un aspetto divenuto poi fondamentale nel campo della ricerca AI. I sistemi di autoapprendimento sono basati su algoritmi che anziché agire sulla base di istruzioni fisse, sono in grado di “osservare” l’ambiente in cui operano, riconoscerne gli schemi (pattern recognition) ed estrarne dei dati da utilizzare per modificare di conseguenza il proprio programma e quindi il proprio comportamento. Queste tecniche, sono alla base degli algoritmi utilizzati per la guida automatica dei veicoli, nei motori di ricerca su Internet, o nel riconoscimento vocale.

Qui si apre uno scenario cruciale: secondo lo schema del machine learning per educare la macchina abbiamo bisogno di informazioni. Più dati abbiamo, più la macchina impara velocemente e l’algoritmo diventa più intelligente. Per questo negli ultimi anni abbiamo sempre più sentito  parlare di “big data”: gli algoritmi si nutrono di big data per poter crescere e apprendere.

Non è un caso che i primi algoritmi intelligenti siano stati sviluppati nel campo della finanza. Il mondo degli investimenti è uno dei pochi settori caratterizzato da una disponibilità in tempo reale di informazioni sui prezzi di un numero sostanzialmente infinito di strumenti finanziari: gli algoritmi possono quindi crescere e imparare velocemente. Sebbene non ci siano dati ufficiali, si stima che per quel che riguarda le azioni americane, i volumi derivanti da strategie di algorithmic trading abbiano già superato da qualche anno il 50% del totale (vedi grafico 1).

Grafico 1: la percentuale di High Frequency Trading (HFT) sul totale dei volumi scambiati sul mercato azionario USA. Fonte: Tabb Group.

 

L’avvento dei social media ha creato un nuovo campo di gioco mettendo a disposizione delle società del settore un quantitativo infinito di informazioni sulle caratteristiche personali e di consumo degli utilizzatori. Non è un caso che oggi i maggiori sviluppatori di algoritmi di intelligenza artificiale siano proprio le società come Amazon, Facebook, Apple e Google che dispongono di informazioni dettagliate ed in tempo reale sui propri utilizzatori: grazie a queste dati possono educare sempre meglio i propri algoritmi.

Google e la profezia di Turing

Proviamo a pensare alle chatbot utilizzate dalle aziende come primo livello di customer care, agli assistenti virtuali presenti nei nostri telefonini, ai traduttori automatici: nessuno di quelli che ci è capitato di utilizzare può esserci sembrato neanche lontanamente simile ad un umano.

Nonostante la profezia del matematico inglese fissasse nel 2000 l’anno chiave per lo sviluppo di algoritmi intelligenti, il test di Turing si è rivelato un ostacolo molto difficile da superare.

Almeno fino a maggio 2018, quando durante l’annuale conferenza con gli sviluppatori, il CEO di Google Sundar Pichai ha mostrato un video che ha lasciato tutti a bocca aperta.

Il video mostra l’assistente di Google effettuare due telefonate per prenotare un taglio di capelli ed un tavolo al ristorante, sostenere conversazioni complicate, superare degli ostacoli non prevedibili e non essere riconosciuto come macchina dall’interlocutore. Per molti osservatori questo video ha rappresentato la prova che Google Duplex sia stato il primo algoritmo a superare in maniera inequivocabile il test di Turing.

Weak AI vs Strong AI

Occorre riconoscere che il test di Turing sia una sorta di provocazione filosofica: il fatto che una macchina sia in grado di passare il test non significa che possa essere considerata intelligente ma che se appositamente istruita, possa comportarsi come un umano nello svolgimento di un determinato compito. Lo stesso management di Google ha specificato come l’algoritmo Duplex possa ad oggi essere utilizzato solo per effettuare prenotazioni in una determinata tipologia di esercizi commerciali e solo dopo essere stato appositamente istruito: non è assolutamente in grado di sostenere una conversazione generica.

Il test di Turing consente quindi di verificare quella che fu definita intelligenza artificiale debole (“Weak AI”) dal filosofo John Searle nel paper Minds, Brains, and Programs del 1980: posta di fronte ad un compito specifico e ben definito, la macchina si comporta come se pensasse. La Weak AI è molto distante dalla intelligenza artificiale forte (“Strong AI”), paradigma che prevede lo sviluppo di macchine che possano pensare e avere una mente con le stesse capacità di quella umana, sull’esempio del supercomputer HAL 9000 di 2001: Odissea nello spazio.

Se si riuscirà mai a raggiungere un livello di intelligenza artificiale forte è un tema ancora dibattuto tra gli scienziati. Il video di Google ci ha sicuramente stupito sulle capacità di Duplex di fare prenotazioni come se fosse un umano; nessuno però ha valutato seriamente, neppure per un secondo, che Duplex possa pensare come noi.

“Possiamo vedere solo poco avanti a noi, ma possiamo vedere che c’è ancora tanto da fare.” (Alan Turing)

 

La macchina come strumento o come imitazione dell’uomo?

Fin dagli albori dell’umanità, la macchina è stata inventata dall’uomo per aiutarlo nell’esecuzione di compiti specifici: l’impiego di un utensile, di un veicolo meccanico, tutta la tecnologia, ha permesso all’uomo prestazioni che senza questo aiuto non sarebbe stato in grado di ottenere. La prestazione della macchina, per definizione, più che umana deve quindi essere sovrumana: un bulldozer può sollevare un peso molto superiore a quanto possano fare le braccia umane, un’auto corre molto più veloce e così via. Lo stesso computer è in grado di effettuare calcoli complicati in maniera sovrumanamente precisa e rapida.

Se una delle caratteristiche chiave delle macchine è quella di essere superiore all’uomo nello svolgimento di determinati compiti specifici, e quindi il suo valore è rappresentato dal fatto di essere complementare rispetto alla capacità umane, perché tutto questo interesse ad avere macchine che imitano gli uomini?

La risposta è da ricercarsi nell’attività di quelle aziende che vendono i propri prodotti e servizi al consumatore finale. Queste aziende hanno interesse a rafforzare i legami con i propri clienti, coinvolgendoli in un’esperienza di consumo esclusiva e personalizzata e questo obiettivo può essere realizzato in maniera economicamente efficiente solo con la tecnologia. Gli algoritmi utilizzati per interagire con i clienti hanno l’obiettivo di far percepire il brand come qualcosa di vivo, intelligente e conscio del contesto in modo tale da generare sentimenti di fedeltà e fiducia da parte dei clienti stessi che si sentono in un certo modo anche corrisposti dalle attenzioni che ricevono da parte dell’azienda indipendentemente dal fatto che i contatti siano generati da una macchina. Insomma, per essere competitivi, anche il brand deve superare il test di Turing.

 

Bibliografia:

Chinnici, Giorgio. Turing. L’Enigma di un genio. Hoepli, 2016.

Searle, John R. Minds, Brains, and Programs. Behavioral and Brain Sciences, September 1980.

Turing, Alan M. Computing Machinery and Intelligence. Mind, October 1950.

 

Articolo a cura di thinkinpark.it

 

Advertisement