21.05.2017 - 19:43
|
Actualització: 21.05.2017 - 23:08
The Guardian ha filtrat aquest diumenge les regles internes de moderació de Facebook, provocant una nova polèmica amb la gran xarxa social dels nostres dies. En un article editorial el diari anglès es pregunta si Facebook no està esdevenint un fòrum de misògins i racistes i alerta que l’empresa no està fent el que caldria per a impedir la degeneració del servei. Els diversos arxius es poden trobar ací.
Facebook té 4.500 ‘moderadors’, persones encarregades de vigilar els materials que s’hi pengen i ha anunciat que en contractarà 3.000 més. La xifra, però, és clarament insuficient a la vista de com està evolucionant la xarxa amb més d’un milió d’apuntament escrits cada minut. Facebook té un primer filtre automàtic basat en paraules i anàlisis d’imatges, que esborra materials que considera no apropiat, però després han de revisar-los aquests moderadors, que es queixen que no poden atendre tantes demandes en tants fronts diferents, en tantes llengües diferents i responent a criteris culturals i socials tan diferents.
Aquests moderadors abans de posar-se a treballar reben una formació de dues setmanes, clarament insuficient i després segueixen uns materials interns, bona part dels quals han estat filtrats per primer vegada a The Guardian.
Entre les instruccions que criden més l’atenció hi ha que Facebook recomana deixar que una persona retransmeti en directe com es fa mal a ella mateixa, fins i tot si això porta al suïcidi. Segons afirmen això és així per no crear més problema encara amb una persona que es vol suïcidar. L’arxiu, però, ha de ser retirat si la persona mor.
En molts casos el gran problema és que les mateixes instruccions són difícils d’entendre. Per exemple no es pot amenaçar un cap d’estat però en canvi es pot explicar com matar una persona, perquè això no és considera per Facebook una amenaça concreta per ningú. De la mateixa manera resulten especialment complicades les instruccions relacionades amb els actes sexuals. Així no estan permeses, en teoria, les fotografies explicitament sexuals però si els dibuixos explícitament sexuals. En el cas del maltracte infantil estan permeses les expressions de maltracte infantil sempre que no comportin ‘celebració’, un concepte difícil d’explicar, especialment si el moderador només té deu segons per prendre la decisió, que és la mitjana que tenen.
Facebook ha de tenir regles conegudes de manera pública?
Els escàndols que han sacsejat Facebook els darrers mesos estan fent créixer la pressió sobre l’empresa. Governs, associacions, mitjans de comunicació i personalitats estan fent veure la gran contradicció que representa que la majoria dels ciutadans rebin les seves notícies a través de Facebook sense que Facebook en tingui la responsabilitat editorial, com la tenen els mitjans de comunicació, quan publiquen alguna cosa.
Els crítics assenyalen que és evident que Facebook ha de prendre la responsabilitat pel que deixa publicar i que no hi ha prou amb l’automatització de les cerques de continguts perillosos ni amb set mil moderadors. Els esforços de Facebook per netejar el seu timeline, diuen, no es corresponen amb els diners que podrien invertir en fer-ho, si volguessin.
Facebook insisteix a dir, pel contrari, que són una empresa tecnològica i no un mitjà i que per això no tenen perquè invertir en netejar els seus continguts. En els arxius que ara s’han fet públics per The Guardian, però, queda clar que Facebook té consciència de la gravetat del problema i reconeix que no fa prou per solucionar-lo.