Algoritmii AI pot genera texte pentru a produce stiri false in masa si recenzii false. Din fericire, exista acum o modalitate care poate fi folosita pentru a identifica textele false redactate de inteligenta artificiala.
Cercetatorii de la Universitatea Harvard si de la MIT-IBM au dezvoltat un nou instrument AI care poate identifica textul redactat de inteligenta artificiala. Acel instrument isi poate da seama daca cuvintele par prea previzibile pentru a fi scrise de o fiinta umana.
Dezvoltarea AI a avansat destul de mult si s-a ajuns chiar pana in punctul in care AI poate redacta anumite stiri, fara nicio contributie din partea omului.
Acest lucru poate fi un pericol, deoarece, avand in vedere ca computerele nu au nevoie sa doarma, ar putea fi folosite ca arme pentru a redacta stiri false pe banda rulanta.
Exista o vorba ca trebuie sa lupti cu focul cu alt foc, motiv pentru care cercetatorii de la Universitatea Harvard si de la MIT-IBM au dezvoltat un nou instrument AI care are abilitatea de a identifica textul care a fost generat de un alt tip de AI.
Denumit Giant Language Model Test Room, acest instrument se bazeaza pe faptul ca inteligenta artificiala genereaza de obicei text bazat pe modele statistice.
Practic, ideea este ca, daca o bucata de text pare a fi prea previzibila pentru a fi redactata de om, exista posibilitatea ca aceasta a fost scrisa de un computer.
Instrumentul poate fi folosit pentru identificarea de lucruri precum textele false redactate si dezinformarea si ar putea contribui la lupta impotriva stirilor false si a botilor.
Exista deja website-uri si organizatii care s-au dedicat verificarii stirilor false redactate. Se spera ca, cu ajutorul AI, munca lor va deveni mult mai eficienta.
Sursa imagine: Flickr.com