MIT: Tatto e vista anche per i robot


L'invenzione, messa a punto dai ricercatori del Computer Science e Artificial Intelligence Laboratory (CSAIL) del MIT (Massachusetts Institute of Technology) consiste nel dotare un computer di un sistema che gli consenta di capire semplicemente guardandolo come risulterà al tatto un oggetto.

"Guardando una scena, il nostro modello può immaginare la sensazione che derivano dal tocco di una superficie piatta o di un bordo tagliente" ha spiegato il principale autore dello studio, Yunzhu Li che, insieme al collega Jun-Yan Zhu, ha collaborato con i professori Russ Tedrake e Antonio Torralba.

Per un essere umano associare un'immagine ad una sensazione tattile - e quindi di potenziale pericolo - è qualcosa di scontato, in quanto capacità che si acquisisce in tenera età quando, ad esempio, ci si scotta toccando un ferro rovente o ci si taglia giocando con un coltello.

Immaginate quanto possa essere difficile per un'intelligenza artificiale fare altrettanto, data l'assenza di veri e proprio recettori del dolore e di sensazioni che possano permettere ad un organo artificiale, che fa le veci del nostro cervello, di elaborarle e di trarne delle conclusioni. Ad oggi, si può dire che sono state gettate le basi per poter superare ciò che distingue l'essere umano dalla macchina?

L'origine di tutto

Per ottenere questo fantastico risultato si sono fatti confluire più progetti già esistenti in un unico nuovo e rivoluzionario: il braccio robotico KUKA sviluppato dal CSAIL è stato utilizzato con il un sensore tattile chiamato GelSight creato dal MIT - in particolare dal reparto guidato da Ted Adelson - a sua volta in collaborazione con una tecnologia di Intelligenza Artificiale che recepisce le informazioni di tale sensore e le usa per registrare la correlazione fra informazioni visive e tattili.

Il sensore sfrutta una telecamera e una pellicola in gomma per mappare in 3D gli oggetti che si afferrano e le superfici che si toccano. I ricercatori, dopo aver registrato 200 oggetti di vario tipo, dimensione e materiale, per un totale di 12 mila videoclip, hanno creato un database, chiamato VisGel, che contiene oltre 3 milioni di accoppiamenti visivo-tattili.

Successivamente, la rete analizza i vari frame di quelle clip e li confronta con i dati ottenuti dal braccio robotico e dai sensori posti su di esso. Così facendo, l'AI “impara” cosa aspettarsi dal contatto con alcuni tipi di materiali e a descrivere alcuni imput reali.

Andrew Owens, ricercatore all'Università della California, Berkeley, ha commentato: "Si tratta del primo metodo che riesce, in modo convincente, a connettere segnali visivi e tattili...metodi come questo possono essere molto utili per la robotica, in situazioni in cui occorra, per esempio, sapere se un oggetto sia duro o morbido, o comprendere come afferrarlo al meglio".

Archivio tattile

Grazie a questo progetto è stato inaugurato, a maggio di quest'anno, l'archivio tattile più grande e fornito al mondo. La rivista scientifica Nature ha pubblicato i dettagli relativi all'archivio, che consentiranno alle AI future di elaborare sempre più dati, influendo in svariati campi tecnologici, quali ad esempio protesi con una sensibilità elevatissima.

Il progetto, coordinato da Subramanian Sundaram, trova la sua origine in dei guanti dotati di 550 sensori, sperimentati inizialmente su 26 oggetti di diverso tipo di uso quotidiano, ottenendo un archivio unico al mondo.

Nei primi test le AI hanno ottenuto un'accuratezza del 76% nell'identificare superfici ed oggetti, prevedendone il peso corretto con uno scarto di circa 60 grammi. Gli ideatori del progetto hanno concluso che “queste informazioni potranno aiutare i robot a identificare e manipolare gli oggetti, e a progettare future protesi robotiche”.

Keigo, l'uomo e la tecnologia

Il MIT non è l'unico ad aver fatto parlare di sé in quanto a sensazioni e tecnologia. Di recente è stata rilasciata un'applicazione per mobile, KEIGO, la quale aiuta la comprensione del carattere e della personalità di una persona tramite l'analisi di una foto. Un ulteriore esempio di AI applicabile ai più diversi contesti e, allo stesso tempo una svolta piuttosto rilevante nell'ambito tecnologico.

Tuttavia sorgono spontanei diversi dubbi: abbiamo davvero bisogno che un'intelligenza artificiale ci spieghi la nostra personalità o quella di un amico a fini di autoanalisi o per costruire un rapporto più diretto con altre persone?

Aprire le porte alla possibilità che Ie nostre interazioni possano essere influenzate, se non addirittura decise da un'AI sulla base dell'analisi di una foto non è assurdo?

La tecnologia è indubbiamente fondamentale per l'essere umano. Sapere di poter avere protesi robotiche che possano restituire sensazioni così umane è sorprendente. La vita cambia, le difficoltà crescono e le AI saranno sempre più presenti nella nostra vita quotidiana aiutandoci, tuttavia queste non devono sostituire elementi puramente umani.

Costruirsi una personalità che si adatta in base a chi ci si trova di fronte, vuol dire diventare robot. L'essere umano deve relazionarsi in base a ciò che è realmente, imparando ad accettare le differenze reciproche, non modificando sé stessi a seconda della necessità.

#innovazione #intelligenzaartificiale #openinnovation #MIT #robot

COFFEEBYTES rappresenta un concept brand ideato da SaidiSEO.com

Sede Ufficio: Via Privata Francesco Koristka, 4, 20154 Milano MI - P.IVA 09215030967
e-mail per informazioni: info@ferdinandodagostino.com; saidiseo@ferdinandodagostino.com

Ferdinando Dagostino - SaidiSEO "Web Creative e SEO"

P.IVA 09215030967

YouTube CB.png
Spreaker CB.png
Facebook CB.png
Instagram CB.png
LinkedIn CB.png