Potrivit acestui raport inedit, care se înscrie în eforturile de transparenţă ale grupului care se confruntă cu scandalul Cambridge Analytica, 3,4 milioane de imagini violente au fost suprimate sau însoţite de avertismente în primul trimestru din 2018, aproape triplu faţă de trimestrul precedent.
Un salt legat în principal, potrivit reţelei, de o ameliorare a tehnologiilor sale de analiză, care fac din ce în ce mai mult apel la inteligenţa artificială. În aproape 86% din cazuri, aceste imagini au fost detectate de reţea înainte chiar de a-i fi semnalate, şi ele au reprezentat mai puţin de 0,3% dintre conţinuturile vizionate pe platformă între lunile ianuarie şi martie.
În ceea ce priveşte imaginile cu nuditate sau cu activităţi sexuale (cu excepţia pornografiei infantile), grupul declară 21 de milioane de elemente suprimate în primul trimestru. Asta reprezintă mai puţin de 0,1% dintre conţinuturile vizionate, şi în aproape 96% din cazuri imaginile au fost eliminate înainte de a fi semnalate. Uneori reţeaua a acţionat cu prea mult zel, notează AFP, ca atunci când a cenzurat anumite opere de artă totuşi tolerate de regulile sale, precum „La liberté guidant le peuple”, de Delacroix.
În ceea ce priveşte propaganda teroristă, grupul a confirmat cifrele de la sfârşitul lui aprilie: 1,9 milioane de conţinuturi au fost eliminate în primul trimestru, cu 73% mai multe decât în trimestrul al patrulea din 2017, datorită ameliorării tehnologice. În acest caz 99,5% dintre conţinuturile eliminate au fost înlăturate înainte de a fi semnalate.
Facebook întâmpină în schimb dificultăţi cu mesajele care incită la ură. Grupul pretinde că a eliminat 2,5 milioane în primul trimestru, cu 56% în plus faţă de trimestrul precedent, dar numai 38% au fost detectate înainte de fi semnalate. Din nefericire, Facebook nu a furnizat estimări privind prevalenţa lor pe platformă.
Grupul explică că întâmpină dificultăţi în a gestiona aceste mesaje, întrucât inteligenţa artificială are probleme în a separa grâul de neghină: insultele rasiste sau homofobe pot fi, de exemplu, „readaptate” de minorităţile pe care le vizează sau utilizate pentru a le denunţa, ceea ce este în mod normal permis de platformă. Şi numai atacurile împotriva persoanelor sunt interzise, nu şi cele care vizează o ideologie sau o instituţie.