Illustrazione di un viso umano (canva FOTO) - systemscue.it
Questa testa robotica è identica a quella di un essere umano, sia nelle forme che nelle movenze. Non si notano molte differenze!
Ci sono video che, appena li vedi, ti lasciano addosso quella strana sensazione di essere davanti a qualcosa di troppo… realistico. È successo anche con Origin M1, la nuova creazione dell’azienda cinese AheadForm: un robot facciale che muove gli occhi, solleva le sopracciglia e piega le labbra in un modo talmente naturale da far quasi dimenticare che, sotto quel viso, ci sono solo circuiti e motori.
Il volto è scolpito in silicone e sotto la pelle si nascondono 25 motori brushless che si muovono con precisione chirurgica. Ognuno controlla un gruppo di muscoli artificiali: c’è chi si occupa di un sopracciglio, chi delle guance, chi dei movimenti più sottili delle labbra. Dentro gli occhi, poi, ci sono telecamere RGB che permettono al robot di osservare ciò che lo circonda.
Ma non è solo la parte estetica a colpire. AheadForm, nata nel 2024, sta già sperimentando diverse linee di robot. L’Origin M1, però, è qualcosa di diverso: non serve a vendere o a intrattenere, è più che altro un banco di prova, un tentativo di capire fino a dove si può arrivare con l’espressività artificiale
E non è l’unico esempio di questa corsa al volto perfetto. Recenti studi pubblicati su Science Robotics stanno provando a insegnare ai robot a prevedere le emozioni umane e a esprimerle nello stesso momento. Non dopo, non copiandole. Insieme. È come se si volesse creare una sintonia emotiva tra uomo e macchina, una sorta di linguaggio non verbale condiviso.
Per anni si è pensato che bastasse dare un po’ di voce e movimento a un robot per renderlo “umano”. In realtà, è il volto a fare la differenza. È lì che passa gran parte della comunicazione: microespressioni, piccoli sguardi, contrazioni quasi invisibili che raccontano tutto senza dire nulla. Il problema è che replicare questi dettagli in modo convincente è un’impresa: basta un’ombra fuori posto e il risultato scivola nel grottesco. Ecco perché sempre più ricercatori stanno puntando su sistemi capaci non solo di reagire, ma di anticipare. ù
Si chiama facial co-expression, cioè la capacità del robot di prevedere un’emozione e mostrarla nello stesso istante in cui l’umano la sta per esprimere, come riportato su un articolo pubblicato su Science Robotics. Non è imitazione, ma sincronizzazione. Se l’altro alza un sopracciglio per sorpresa, il robot lo fa insieme a lui, quasi all’unisono. E sembra banale, ma quel millisecondo di anticipo o ritardo può cambiare completamente la percezione: un’espressione in ritardo ci appare finta, una simultanea ci inganna quasi del tutto.
Nello studio pubblicato su Science Robotics, il gruppo di Hu e colleghi ha sviluppato un modello con due reti neurali: la prima predice l’espressione futura basandosi sui movimenti minimi del volto umano, la seconda, chiamata inverse model, traduce quei dati in comandi motori per il robot. Il prototipo, chiamato Emo, possiede 26 gradi di libertà e una pelle in silicone fissata con magneti rimovibili, così da poterla sostituire o modificare durante gli esperimenti.
Il sistema riesce persino a prevedere un sorriso con circa 839 millisecondi di anticipo rispetto a quando la persona lo compie davvero. Non è poco: significa che il robot riesce a “entrare in scena” quasi nello stesso momento dell’essere umano. L’accuratezza del modello raggiunge un 72 % circa, con un valore predittivo positivo che sfiora l’80 % .