Blake Lemoine, ingegnere di Google, ha fatto sapere di recente che uno dei sistemi di intelligenza artificiale più avanzati dell’azienda, The Language Model for Dialogue Applications (LAMDA), potrebbe avere dei sentimenti suoi. Dietro le impressionanti capacità verbali della tecnologia, ha detto, potrebbe nascondersi una mente senziente. Google ha negato e l’ingegnere è stato messo in congedo retribuito. Ma il mondo dell’intelligenza artificiale è ormai sempre più vicino a quello delle emozioni umane.
Le intelligenze artificiali possono provare sentimenti?
I ricercatori che si occupano di intelligenza artificiale e gli esperti di neuroscienze, in realtà, concordano sul fatto che le attuali forme di intelligenza artificiale non possono avere le proprie emozioni, ma al contrario possono imitare le emozioni grazie ai sistemi di machine learning. A enfatizzare questo effetto, c’è anche il linguaggio sintetico di molti assistenti che aiuta a enfatizzare il tono umano con cui molti di questi servizi operano ed emettono emozioni più realistiche.
Essendo in grado di masticare e processare infiniti dati, i Big Data e l’Intelligenza Artificiale rendono alcuni dispositivi di supporto incredibilmente simili all’essere umano. Ne sono una dimostrazione gli assistenti vocali casalinghi e quelli presenti negli smartphone o anche i robot che si prendono cura degli anziani, in grado di offrire un’interazione estremamente efficace e di anticipare anche alcune richieste degli utenti.
I programmatori, in effetti, hanno fatto molta strada nella progettazione rendendo sempre più affinati i processi di machine learning. Ma la spinta a vedere la replica delle emozioni umane nelle macchine ha anche fare con un processo di umanizzazione della tecnologia. Che da un lato è finalizzata a renderla simile all’umano e dall’altro anche a interagire meglio con essa.
Decodificare le emozioni
Sull’altro fronte, poi, l’intelligenza artificiale si sta evolvendo sempre più anche nella capacità di riconoscimento delle emozioni umane. L’affective computing serve appunto a studiare, analizzare e sviluppare strumenti di calcolo basati per riconoscere e generare a sua volta emozioni normalmente attribuite all’uomo.
Come spiega The Conversation, sebbene le risposte di Lamda di Google siano certamente simili a quelle umane, questo significa che siamo davanti a una tecnologia avanzata nel machine learning e non che ci siano di mezzo dei veri e propri sentimenti. È l’essere umano direttamente coinvolto ad attribuire umanità al robot tramite l’interazione e la comunicazione che avvia con la macchina, e non la macchina ad avere sentimenti propri.
Ci sono infatti diversi software in grado di comprendere le emozioni e gli stati cognitivi delle persone attraverso l’analisi delle espressioni del volto, lo sguardo, i gesti e il tono della voce. In questo modo la macchina non solo riconosce se siamo felici, tristi, stanchi o sereni. Ma a sua volta apprende i dati associati alle emozioni. Ed è in grado di replicarle.