Las noticias

Facebook alertará a los usuarios que hayan visto contenidos dañinos sobre el coronavirus

El coronavirus está cambiando el mundo que conocíamos; los bulos que circulan por internet, probablemente también, y desde antes. Su peso decisivo en el Brexit, en las elecciones estadounidenses que auparon a Donald Trump a la presidencia o las brasileñas, que hicieron lo propio con Jair Bolsonaro, pusieron en alerta a las redes sociales, que comenzaron a desperezarse y tratar de acotar la intoxicación digital. Vistas las mentiras que circulan durante esta pandemia, fueron insuficientes. Facebook acaba de anunciar este jueves que va a dar otro paso: avisará a todo el que ha visto un contenido considerado dañino y le remitirá información oficial y fiable.

Hasta ahora, la red social tenía varias formas de luchar contra los bulos, como eliminar lo que identifica que puede causar daño físico en las personas, ya que va contra los términos y condiciones de la plataforma. Ahora, quienes hayan interactuado con estos contenidos relativos al coronavirus (ya sea simplemente haciendo clic, compartiendo, comentando o dando me gusta) recibirán a posteriori un aviso de que vieron información falsa con un enlace a una página de la Organzación Mundial de la Salud que derriba mitos sobre la covid-19. Además de esto, Facebook marca como información posiblemente falsa aquella sobre que sus verificadores independientes habían alertado, algo que la compañía asegura que reduce su difusión entre un 85% y un 95%. Esto seguirá siendo así, pero si no la consideran “dañina” no enviarán alertas a los usuarios que la vieron.

La Fundación Avaaz, que lleva años presionando a las redes sociales para que tomen medidas con las noticias falsas, ha analizado una muestra de más de 100 noticias falsas sobre el coronavirus en Facebook en seis idiomas. Estas publicaciones se compartieron 1,7 millones de veces y tuvieron 117 millones de visualizaciones estimadas, a pesar de haber sido desmentidas por verificadores independientes. “La compañía puede tardar hasta 22 días en emitir etiquetas que avisen de desinformación sobre el coronavirus, con retrasos significativos incluso cuando los socios de Facebook han informado rápidamente a la plataforma sobre el contenido pernicioso. El 41% de las noticias falsas analizadas permanecen en la plataforma sin ninguna etiqueta de advertencia”, informa Avaaz. Además, en función de los idiomas, el panorama es distinto: no ha emitido etiquetas de advertencia para el 70% del contenido en castellano, el 68% del contenido en italiano o el 50% del contenido en portugués, comparado con el 29% del contenido en inglés.

Ante esto, Facebook responde a través de un portavoz: “Su muestra no es representativa de la comunidad en Facebook y sus hallazgos no reflejan el trabajo que hemos realizado. Desde que comenzó el brote, hemos ampliado nuestras asociaciones independientes de verificación de hechos para abarcar más de una docena de nuevos países y hemos eliminado cientos de miles de informaciones erróneas sobre el virus que podrían provocar daños físicos inminentes. También hemos dirigido a más de 2.000 millones de personas a recursos de las autoridades de salud a través de nuestro Centro de Información covid-19 y ventanas emergentes con más de 350 millones de personas haciendo clic para obtener más información”.

Otro estudio encargado por la misma fundación a la Universidad George Washington y la Universidad Estatal de Ohio titulado Rectificar la Información muestra que, si se le proporciona información fiable, un usuario de Facebook expuesto a bulos puede reducir radicalmente la creencia en la desinformación a casi la mitad de media. “Esta investigación se apoya en una larga línea de estudios académicos que demuestran que las correcciones efectivas pueden reducir e incluso eliminar los efectos de la desinformación”, explica Luis Morago, director de campañas de Avaaz.

“Lo ideal sería que la alerta fuera más específica y también sería muy recomendable que se aplicase a otras redes sociales, como Twitter o Youtube y Whatsapp, donde sabemos que están circulando muchos bulos. Pero lo que se da ahora es un primer paso importante; Facebook reconoce que hay un problema que puede perjudicar a la salud pública”, explica Morago.

Un ejemplo de bulos muy difundidos que circulan por las redes es el del horticultor y curandero Josep Pàmies, que ha promocionado el MMS (clorito de sodio) como solución al coronavirus (y prácticamente a cualquier dolencia). Sus vídeos han circulado profusamente y el Consejo General de Colegios Oficiales de Médicos anunció el miércoles que se personará como acusación particular en el procedimiento iniciado a instancias de la denuncia reciente presentada por el Consejo Catalán de Colegios Médicos ante la Fiscalía. “Es una sustancia prohibida en España y Europa para consumo humano, la afirmación [de que cura la covid-19] constituye un atentado contra la salud pública, un acto de intrusismo profesional y publicidad ilícita y publicidad engañosa que pone en riesgo gravemente la salud de los ciudadanos y pacientes”. Pero la justicia es lenta. Hasta que se tomen medidas, sus vídeos sigue circulando y miles de personas han podido verlos.

“La típica pregunta que surge es: ‘¿Se va a censurar? ¿Van a surgir ministerios de la verdad?”, reconoce Morago. “Estamos muy preocupados con que llegue un Gobierno o una empresa y empiece a tomar decisiones sobre la información que considera válida o no, por eso somos partidarios de un sistema de verificadores independientes, que hagan su trabajo con transparencia y que los usuarios sean parte de estos mecanismos”, continúa.

En España, la asociación Maldita es parte de este sistema de verificadores. Clara Jiménez Cruz, una de sus fundadoras, explica que ellos priorizan las noticias que verifican con dos criterios: que sean virales y que puedan suponer un peligro para la salud o la paz social. “Por ejemplo, hubo una tras un incendio en Galicia que decía que el agua en Vigo estaba contaminada por el fuego y no era potable”, expone. A partir de ahí, escrutan la información con una metodología pública, en la que siempre ofrecen las fuentes, que deben ser portavoces autorizados. “Los lectores deben ser capaces de replicarlas para comprobar que lo que decimos es cierto. Cada proceso está auditado y votado por los redactores senior de Maldita: tiene que haber al menos cuatro votos a favor [de siete] y ninguno en contra”, añade. Jiménez Cruz subraya que los verificadores no son quienes deciden qué contenidos se eliminan de Facebook, esto lo hace la propia red social en función de sus criterios y sus condiciones de uso.

Información sobre el coronavirus

Aquí puede seguir la última hora sobre la evolución de la pandemia

Así evoluciona la curva del coronavirus en España y en cada autonomía

Preguntas y respuestas sobre el coronavirus

Guía de actuación ante la enfermedad

– En caso de tener síntomas, estos son los teléfonos que se han habilitado en cada comunidad

Pinche aquí para suscribirse a la newsletter diaria sobre la pandemia

Debido a las excepcionales circunstancias, EL PAÍS está ofreciendo gratuitamente todos sus contenidos digitales. La información relativa al coronavirus seguirá en abierto mientras persista la gravedad de la crisis.

Decenas de periodistas trabajan sin descanso por llevarte la cobertura más rigurosa y cumplir con su misión de servicio público. Si quieres apoyar nuestro periodismo puedes hacerlo aquí por 1 Euro el primer mes (a partir de junio 10 euros). Suscríbete a los hechos.

Suscríbete

Leave a Reply