
di Mattia Aimola
L’idea nasce all’interno del corso Soluzioni di grafica 3D in applicazioni biometriche, ideato da Enrico Vezzetti, direttore del 3D LAB Research Group
C’è chi dice che gli italiani parlino con le mani. La verità è che, a volte, le mani arrivano prima delle parole. Prima ancora di un «ma cosa stai dicendo?», ecco spuntare la celebre «mano a borsa», dita raccolte verso l’alto e polso che sobbalza su e giù come un punto esclamativo vivente. Poi ci sono le dita incrociate, spesso per scaramanzia. Per non parlare di quel cerchietto tra pollice e indice che spesso non significa solo «ok», ma «fallo per bene!».
Al Politecnico hanno pensato ad una un’intelligenza artificiale che osserva questi gesti, li riconosce e li spiega a chi italiano non è.
L’idea nasce all’interno del corso Soluzioni di grafica 3D in applicazioni biometriche, ideato dal professor Enrico Vezzetti, direttore del 3D LAB Research Group, dove insegna anche Luca Ulrich, ricercatore al dipartimento di Ingegneria gestionale. Il gruppo lavora da anni sull’interazione uomo-macchina, sensori 3D, realtà aumentata e analisi del corpo umano. Questa volta, però, al centro non c’è un volto da riconoscere ma la gestualità italiana.
Il progetto




