Sa presupunem ca asculti muzica si ca mai apoi arunci o privire si iti dai ca iPhone-ul tau a intrat de unul singur pe un site. Acesta este scenariul de cosmar despre care cercetatorii spun ca este posibil, dupa ce acestia au dovedit ca comenzile vocale rau intentionate pentru asistentul virtual Siri pot fi ascunse in melodii.
Este evident ca exista un avantaj clar de a avea dispozitive cu asistenti virtuali care asculta incontinuu comenzi vocale, pentru ca asta inseamna ca poti accesa dispozitivele de la distanta si nu trebuie sa folosesti butoanele.
Acest lucru este cu siguranta mai eficient. Cu toate acestea, exista si un dezavantaj, iar acesta este ca dispozitivele asculta incontinuu. Desigur, companiile neaga intotdeauna ca te-ar asculta si ca ti-ar inregistra conversatiile, dar faptul ca dispozitivele noastre cauta tot timpul cuvintele de declansare poate fi deranjant pentru unii.
De fapt, cercetatorii au descoperit recent ca comenzile vocale rau intentionate pentru asistentii virtuali pot fi practic ascunse in interiorul melodiilor. Asta potrivit cercetatorilor de la Berkeley care au publicat recent o lucrare despre asta, si anume conceptul CommanderSong care arata cum pot fi ascunse comenzile vocale rau intentionate pentru asistenti virtuali in melodii.
In plus, cercetatorii de la Princeton si Universitatea din Zhejian, China, au demonstrat ceea ce acestia numesc „DolphinAttack”. Acestia au ascuns comenzi vocale rau intentionate in melodii pentru asistentul virtual Siri, comenzi vocale care nu pot fi auzite de urechea umana si care vor declansa Siri pentru ca asistentul virtual sa efectueze anumite sarcini, cum ar fi sa captureze o fotografie, sa efectueze un apel si asa mai departe.
Pana in prezent, nu exista cazuri stiute cu astfel de atacuri sau cu folosirea acestor exploit-uri cu comenzi vocale rau intentionate ascunse in melodii pentru asistentul virtual Siri in lumea reala, dar acest lucru este probabil un lucru pe care companii precum Apple, Amazon si Google ar trebui sa-l aiba in vedere.