Companiilor le place sa se laude cu inteligenta lor artificiala (AI), dar adevarul e ca inteligenta artificiala asa cum o stim noi este destul de nepriceputa. Desi poate genera rezultate utile, nu poate explica cum a ajuns la acele rezultate.
DARPA crede totusi ca poate imbunatati AI. Agentia DARPA lanseaza un program de explorare prin care va investi in noi concepte pentru ca inteligenta artificiala sa explice cum ia deciziile.
Noi, oamenii, in cea mai parte parte, putem explica de ce savarsim anumite actiuni. De exemplu, daca cineva te-ar intreba de ce alegi un anumit brand in detrimentul altuia, ai putea spune motivele pentru care l-ai ales intr-o maniera (uneori) logica.
Cu toate acestea, intrebarea este: poate inteligenta artificiala sa reuseasca acelasi lucru? Acesta este de fapt un domeniu pe care DARPA spera sa il exploreze in continuare, deoarece vrea sa dezvolte AI care isi poate explica propriile actiuni.
Denumit sistem AI „third wave”, DARPA spera sa dezvolta inteligenta artificiala care poate explica cum ia decizii. De exemplu, daca sistemul de inteligenta artificiala al DARPA detecteaza un obiect, va fi apoi capabil sa explice logic de ce si cum a ajuns la acea concluzie.
Va fi interesant sa vedem cum se poate aplica acest lucru in viitor. In momentul de fata, se pare ca inteligenta artificiala va juca un rol important in viitorul nostru, pentru ca poate fi folosita in diverse industrii, cum ar fi cea medicala – unii cercetatori folosind inteligenta artificiala pentru a cauta boli si afectiuni pe care oamenii le-ar putea omite din neatentie.
Prin faptul ca AI DARPA se explica pe aceasta insasi, acest lucru poate oferi medicilor o perspectiva asupra modului in care a ajuns la o anumita concluzie sau, in unele cazuri, ar putea exista pozitive false pe care medicii le-ar putea ignora.