Pentru oameni este usor sa estimeze cum se simte un obiect la atingere dupa aspect, sau sa spuna cum arata niste obiecte numai dupa atingere. Dar aceste lucruri pot fi o mare provocare pentru roboti.
Robotii nu au nicio problema sa ridice obiecte, dar acestia nu stiu ceea ce ating. Aceasta ar fi de fapt o caracteristica foarte utila. Asta pentru ca, daca robotii pot identifica ce ating sau tin, acestora le-ar fi mai usor sa sorteze si sa clasifice lucrurile.
Acest lucru ar fi util la reciclare, culegerea materialelor periculoase si asa mai departe. Cu toate acestea, se pare ca cercetatorii de la CSAIL din cadrul MIT au reusit sa creeze ceva.
Cercetatorii MIT au creat un robot care nu numai ca poate identifica obiecte dupa aspect, ci si dupa cum se simt la atingere. Acest lucru se datoreaza utilizarii unui nou senzor denumit GelSight de catre cercetatorii MIT.
Informatiile adunate de senzor sunt apoi trimise catre AI, iar apoi AI invata legatura dintre informatiile vizuale (de aspect) si cele tactile. Pentru a instrui AI pentru a putea identifica acele obiecte, cercetatorii MIT au alimentat sistemul cu multe clipuri video cu diverse lucruri atinse, clipuri care mai tarziu au fost defalcate in imagini statice.
Potrivit studentului Yunzhu Li din cadrul MIT, „Prin atingerea pe nevazute, sistemul nostru poate prezice interactiunea cu mediul numai din simtul atingerii. Combinarea celor doi senzori impreuna ar imbunatati robotul si ar reduce datele necesare pentru sarcini care implica manevrarea si apucarea obiectelor”.
Aceasta nu e prima data cand MIT a explorat conceptul robotilor care pot identifica obiecte dupa atingere. Anterior, cercetatorii de la institutul MIT din Statele Unite au creat un robot de reciclare care poate sorta lucruri bazandu-se pe atingere.