Apple a lucrat pentru ca asistentul virtual Siri sa aiba o voce care sa sune mai putin ca un robot si mai mult ca un om. Avand in vedere ca compania se pregateste pentru a lansa iOS 11 pentru sute de milioane de utilizatori de pe glob, Apple a lansat un raport care detaliaza cum a folosit tehnologia deep learning pentru ca Siri sa sune mai putin a voce de robot.
Compania a inclus chiar mostre de voce in raport care iti vor permite sa auzi diferenta dintre vocile lui Siri. Cateva ore de sunet de inalta calitate a fost capturat, asa ca acesta a putut fi „feliat” pentru a crea raspunsuri vocale.
De asemenea, dezvoltatorii trebuiau sa lucreze pentru a obtine prosodia corecta, acesta este tiparul intonatiei intr-o limba vorbita. Nu conteaza numai ca acest lucru sa functioneze.
Conteaza si ca acest lucru sa functioneze pe dispozitivele mobile, pentru ca nivelul de procesare poate pune un stres foarte mare pe procesorul dispozitivului si astfel ii poate incetini performanta.
Apple s-a bazat pe deep learning pentru a se ocupa de asta. Suficiente date de training i-au permis sa ajute sistemul sa inteleaga cum secventele de sunet pereche trebuie sa fie selectate pentru a crea raspunsuri care suna mai natural.
Siri va suna mult mai bine cu iOS 11. Apple a lucrat cu o noua actrita de voce pentru a inregistra mai mult de 20 de ore de engleza. Apple a generat intre 1 si 2 milioane de segmente audio care au fost folosite pentru a antrena sistemul deep learning.
Apple mentioneaza in raport ca subiectilor de test le-au placut noile raspunsuri ale Siri, comparativ cu cele anterioare. Arunca o privire asupra raportului companiei Apple cu privire la acest lucru pentru a auzi cat de diferit suna vocea lui Siri in iOS 11.