Nuove frontiere (canva.com) -www.systemscue.it
Grazie ai Neural Jacobian Fields, il MIT insegna ai robot a riconoscere e controllare il proprio corpo sfruttando unicamente la vista.
Cosa implica per un automa essere consapevole di sé? Questa domanda, da sempre al centro della filosofia, trova ora una risposta tangibile nei laboratori del MIT, dove la robotica sta compiendo progressi significativi verso forme di autoconsapevolezza artificiale.
In un contesto in cui la gestione dei robot si basa su sensori dispendiosi, simulazioni elaborate e una programmazione complessa, emerge una tecnologia capace di istruire una macchina sul proprio fisico, tramite la semplice osservazione di se stessa.
Niente sensori, mappe o assistenza esterna: solo la vista. Questo è il concetto alla base dei Neural Jacobian Fields (NJF), il nuovo sistema sviluppato dal Computer Science and Artificial Intelligence Laboratory (CSAIL) del Massachusetts Institute of Technology.
Come indicato nella sezione News del MIT, NJF è una rete neurale che consente ai robot di assimilare la propria struttura e le connessioni tra movimento e controllo motorio usando unicamente una telecamera, abbandonando così l’idea tradizionale di un modello prestabilito.
Un campo jacobiano neurale è una funzione che lega ogni punto del robot ai suoi possibili spostamenti, rispondendo ai comandi in maniera adattiva. Il sistema trae ispirazione dai Neural Radiance Fields (NeRF), ampliandoli per apprendere non solo la forma del robot, ma anche come ogni sua parte si muove di risposta agli impulsi meccanici. I test hanno coinvolto vari prototipi: una mano robotica pneumatica, un braccio creato con la stampa 3D, una piattaforma rotante e una mano rigida Allegro.
In ogni scenario, NJF ha dimostrato di poter perfettamente apprendere autonomamente il funzionamento del corpo robotico e di gestirlo in tempo reale, con un controllo chiuso basato esclusivamente su input visivi. Riducendo i costi di progettazione e rendendo l’automazione più accessibile, le possibili applicazioni si estendono dall’agricoltura alla logistica, fino all’edilizia e alla robotica domestica, settori in cui l’adattabilità è cruciale. Tuttavia, il sistema presenta ancora dei limiti: ogni robot necessita di un processo di apprendimento, e NJF non integra ancora sensori tattili, limitando l’efficacia in attività basate fortemente sul contatto.
L’approccio proposto da NJF rappresenta comunque un cambiamento fondamentale: non più robot programmati, ma robot “istruiti”, che apprendono come il proprio corpo interagisce nello spazio. È una visione che supera di gran lunga i limiti dell’automazione tradizionale, orientando la robotica verso forme più intuitive, adattabili e resilienti.
Come evidenzia Sizhe Lester Li, dottorando al MIT e principale autore dello studio, “Oggi molte attività robotiche richiedono ingegneria complessa. In futuro, potremo semplicemente mostrare a un robot cosa fare e lasciarlo imparare autonomamente come realizzarlo”. È questo l’obiettivo verso cui NJF si orienta: un’autonomia che nasce dalla vista, e che promette di trasformare il modo in cui le macchine interagiscono con il mondo e con sé stesse; quasi come esseri umani, ma non del tutto.