Cand vine vorba despre a trata impartasirea si raspandirea online a continutului extremist si de terorism, companii precum Google si Facebook au deja mai multe modalitati de a se ocupa de acestea.
Cu toate acestea, metodele ar putea fi imbunatatite si exact asa a procedat Facebook. Intr-o postare de-a companiei, Facebook a detaliat cum au procedat pentru a contracara si elimina astfel de lucruri de pe platforma.
Potrivit Facebook, in ultima vreme au eliminat de doua ori cantitatea de continut extremist care a aparut pe platforma sa. Ei au adaugat, de asemenea, lucruri precum mesaje de avertizare privind continutul care a fost distribuit pe platforma in scopuri informative sau care tin de ura.
Facebook mai sustine faptul ca aproape tot continutul extremist care a fost inlaturat a fost descoperit de ei si de filtrele lor si ca timpul mediu pentru eliminarea continutului extremist de pe platforma a fost imbunatatit la sub un minut.
De asemenea, Facebook spune ca au lucrat nu numai pentru a inlatura continutul extremist nou pe platforma, dar si pentru a-l elimina pe cel vechi. Potrivit Facebook, „Nu avem nicio iluzie ca munca s-a terminat si ca progresele pe care le-am facut sunt suficiente. Gruparile teroriste incearca mereu sa evite sistemele noastre, asa ca trebuie sa ne imbunatatim in mod constant. Cercetatorii si echipele noastre de recenzori gasesc in mod regulat materiale pe care tehnologia noastra le rateaza. Dar invatam din fiecare greseala, experimentam noi metode de detectare si lucram pentru a ne extinde”.
Asa cum am spus, este foarte mult de munca pentru a contracara si elimina continutul extremist de pe platforma, cum ar fi redirectionarea utilizatorilor catre clipuri video pentru antiterorism sau, in cazul guvernului britanic, acesta se bazeaza pe inteligenta artificiala pentru a detecta astfel de clipuri video.