• Notizie

    Da Musk ad Amazon, così si prova a leggere le nostre emozioni con l’A.I.

    Gli elettrodi di Neuralink e il bracciale Halo puntano a decodificare sensazioni e stati d’animo

    di Redazione Open Innovation | 31/08/2020

La dimostrazione di come operano i chip di Neuralink dell’imprenditore Elon Musk e l’arrivo sul mercato Usa del braccialetto Halo del colosso Amazon. Ecco i due eventi che negli ultimi giorni hanno accesso nuovamente i riflettori sulle potenzialità - e sui rischi - dell’utilizzo dell’Intelligenza Artificiale in un campo che riscuote sempre maggiore interesse: quello della ‘lettura’ e decodificazione delle sensazioni ed emozioni, grazie all’analisi di dati o - addirittura - alla creazione di un’inedita interfaccia tra uomo e macchine.

La ‘demo’ di Musk

Dopo il successo della sua ultima impresa - il lancio e il recupero del primo vettore spaziale costruito da una ditta privata, la sua SpaceX -, il visionario ed eclettico fondatore della Tesla guarda ora all’interazione tra cervello e Intelligenza Artificiale. Lo ha mostrato con la sua demo sul progresso delle attività della startup Neuralink, il 28 agosto da San Francisco.

Neuralink punta su un chip delle dimensioni di una moneta, installato per l’occasione a livello cerebrale in tre suini: quando il primo, Gertrude, si è mosso nel suo recinto gli spettatori hanno potuto seguire le sue connessioni neurali su un display: e dunque interpretare le sue intenzioni e sensazioni.

Neuralink lavora infatti a come far interagire uomo e macchina tramite elettrodi, impiantati nella scatola cranica e poi collegabili con uno smartphone. Con l’obiettivo dichiarato di intervenire, grazie a questa interazione, anzitutto su disturbi come perdita di memoria o dell’udito e - in un futuro non troppo lontano - anche su patologie molto gravi, ad esempio tetraplegie dovute alla lesione del midollo spinale, Alzheimer e Parkinson. La demo, nelle intenzioni di Musk, potrebbe accelerare l’iter per le autorizzazioni a sperimentare Neuralink sull’essere umano.

L’analisi di voce e massa corporea per scoprire le nostre emozioni

Dal controllo degli stimoli cerebrali a quello delle emozioni: l’altra novità, il progetto Halo di Amazon, guarda esplicitamente in questa direzione. Il suo primo step prevede un bracciale e una app collegata, offerta in abbonamento. A differenza di altri wearable quest’ultimo non ha un display, e si presenta più come un sensore a tutto tondo. A fronte di funzionalità dunque per certi versi più limitate (ad esempio a livello di connettività), Halo integra però due opzioni del tutto nuove per il mercato salute-benessere.

La prima è la possibilità di avere un’immagine in 3D della propria massa corporea, magra e grassa, con alcune implicazioni per la privacy - la società di Jeff Bezos si è affrettata ad assicurare che l’immagine non verrà conservata dai server di Amazon - e per la percezione di sé.

La seconda è quella di registrare la voce di chi lo indossa tramite due microfoni, per poi unire i dati sul tono vocale e le altre informazioni raccolte -  battito cardiaco, temperatura, qualità del sonno, livello di grasso corporeo - per arrivare a ‘interpretare’ non solo lo stato di salute, ma appunto le emozioni di chi lo indossa. Lo stile di vita e l’intonazione racconterebbero insomma anche che cosa proviamo.

Anche in questo caso, l’interpretazione dei dati è affidata ad algoritmi di Intelligenza Artificiale: usati in questo caso per arrivare a capire come ci sentiamo in ogni momento, e non più solo le nostre abitudini di acquisto.

 

CONDIVIDI
I nostri canali social