Nu este niciun secret ca exista un pic de teama cu privire la faptul ca inteligenta artificiala ar putea duce la o revolta a robotilor. Revolta robotilor ar putea parea un lucru scos din filmele SF, dar avand in vedere ca computerele devin din ce in ce mai smart cu cat trece timpul, in unele cazuri acestea sunt practic capabile sa ne invinga la propriile noastre jocuri, cum a fi la jocul Go si la sah.
Desi nimeni nu poate prezice viitorul, presupunem ca preventia revoltei robotilor este mai buna decat leacul pentru revolta robotilor, iar asta este ceea ce Google si OpenAI incearca sa obtina. Compania DeepMind a Google si compania OpenAI a lui Elon Musk au lansat recent un articol de cercetare (citat de Engadget) in care Google si OpenAI au subliniat o noua metoda de machine learning in care inteligenta artificiala si robotii primesc directive de la oameni, in loc ca inteligenta artificiala sa fie lasata sa gandeasca pe cont propriu, lucru care ar putea uneori sa duca la consecinte nedorite si la o revolta a robotilor.
De exemplu, articolul de Google si OpenAI subliniaza cum una dintre principalele probleme ale inteligentei artificiale si ale robotilor este ca uneori invata ca trisarea poate fi uneori cea mai eficienta modalitate de a obtine recompensa maxima, ceea ce este ce s-a intamplat atunci cand OpenAI a incercat determine inteligenta artificiala sa joace un joc.
Aceasta a trisat conducand in cerc, in loc sa termine cursa. Asadar, prin primirea de directive de recompense de la oameni, spre deosebire de existenta unui sistem automat de recompensa atunci cand telurile sunt atinse, viitorul inteligentei artificiale ar putea in cele din urma sa ajunga in punctul in care aceasta s-ar putea comporta intr-un fel care indeplineste telul, in timp ce satisface preferintele noastre ca si oameni. Dezavantajul este ca aceasta metoda actuala necesita foarte mult feedback din partea oamenilor, ceea ce s-ar putea sa nu fie ideal sau eficient, dar macar AI nu se va revolta. Asadar, Google si OpenAI ne apara de un viitor apocaliptic.