Compania Facebook a fost implicată în acest an în mai multe controverse generate de activitatea de moderare a conţinuturilor difuzate pe site-ul său – de la plângeri venite din întreaga lume după eliminarea unei fotografii legendare, realizată în timpul Războiului din Vietnam, din cauza nudităţii, şi până la permisiunea acordată utilizatorilor de a publica şi de a distribui ştiri false.
Tradiţional, Facebook s-a bazat până acum în principal pe utilizatorii săi pentru a raporta conţinuturile ofensatoare, care sunt apoi verificate de angajaţi ai companiei, pentru ca acestea să nu fie contrare „standardelor comunităţii”. Deciziile asociate chestiunilor spinoase generate de controversele generate de anumite conţinuturi sunt luate de obicei de manageri de top din structura companiei americane.
Facebook ar lucra la o unealtă de cenzură „made in China”
Joaquin Candela a dezvăluit reporterilor americani că Facebook a început să folosească tot mai mult inteligenţa artificială pentru a descoperi conţinuturile ofensatoare de pe site-ul său. „Este vorba de un algoritm care detectează nuditatea, violenţa sau oricare alte lucruri care nu corespund politicilor noastre”, a precizat managerul american.
Facebook a început deja să utilizeze programe automatizate pentru a semnala conţinuturile video extremiste, a dezvăluit agenţia de presă Reuters, în iunie.
În prezent, noul program automatizat este testat în cadrul Facebook Live, serviciul de streaming folosit de utilizatorii care efectuează transmisiuni video live pe site-ul platformei.
Facebook foloseşte, de asemenea, programe automatizate pentru a analiza zecile de milioane de semnalări pe care le primeşte în fiecare săptămână, pentru a putea să selecteze conţinuturile raportate şi să le direcţioneze apoi spre experţii companiei, specializaţi în analizarea de conţinuturi.
Mark Zuckerberg, cofondator şi CEO-ul Facebook, a precizat în luna noiembrie că Facebook îşi va îndrepta atenţia spre programele automatizate, ca parte a planului companiei de a identifica mai eficient ştirile false.
Numeroşi observatori au acuzat Facebook că a facilitat victoria lui Donald Trump în alegerile prezidenţiale de pe 8 noiembrie, permiţând susţinătorilor acestuia să distribuie articole mincinoase. Peste 1 milion de distribuiri au fost înregistrate pe Facebook asociate unor link-uri cu ştiri false, precum, de exemplu, acela în care internauţii erau asiguraţi, în mod eronat, că papa Francisc susţinea candidatura politicianului republican sau acela potrivit căruia un agent FBI care investiga e-mailurile candidatei democrate Hillary Clinton a fost găsit decedat.
Cu toate acestea, stabilirea cu certitudine a faptului că un anumit conţinut instigă la ură sau la intimidare, de exemplu, necesită un anumit context, au precizat reprezentanţii Facebook.
Yann LeCun, directorul departamentului de cercetări în domeniul inteligenţei artificiale din cadrul Facebook, a refuzat să discute despre utilizarea inteligenţei artificiale pentru depistarea ştirilor mincinoase, limitându-se să spună că, în general, ameliorările ce vizează News Feed-ul („Fluxul de ştiri”, n.r.) fiecărui utilizator ridică o serie de întrebări despre echilibrul factorilor implicaţi în acest proces, precum filtrarea informaţiilor şi cenzură, libertatea de exprimare, decenţă şi onestitate.