"Los posteos y las cuentas que promueven el odio, la violencia física o el abuso sexual violan nuestras políticas y por eso los eliminamos directamente. Ahora también lo haremos con aquellas publicaciones que puedan suponer un peligro físico para las personas", sostuvo en la ronda de prensa John Hegeman, responsable de News Feeds y el análisis de las publicaciones en Facebook. Estos posteos pueden ser, por ejemplo, falsas denuncias de crímenes o acusaciones sin fundamento que pueden llevar a acciones violentas, como ocurrió con el "pizzagate". Esto marca una diferencia en cómo venía trabajando la empresa, ya que hasta ahora, solo se reducía la exposición de estas noticias sin eliminarlas.
El anuncio llega en un momento delicado para la red social: su creador y presidente ejecutivo, Mark Zuckerberg, realizó recientemente declaraciones con una postura ambigua sobre quienes niegan el Holocausto, a la vez que se acusó a Facebook de hacer poco o nada por evitar que en su plataforma se propaguen videos incitando al odio o la violencia contra grupos étnicos, como ocurrió en Sri Lanka o Myanmmar. Precisamente en Sri Lanka es donde se empezarán a eliminar los contenidos que puedan resultar en violencia física.
Áreas grises
Desde la empresa también sostienen que, "los extremos son malos: no podemos dejar que todo lo que se publica quede sin revisar, pero tampoco podemos examinar cada uno de los millones de posteos que se realizan diariamente". Es por eso que utilizan Machine Learning e inteligencia artificial para analizar la información posteada. Si de esos análisis surge que determinado tipo de posteo podría ser una noticia falsa, se encienden las alertas. Si no cumple con las normas de publicación que la empresa tiene publicadas y que actualiza continuamente y si además "provocan daños físicos reales a una persona, el contenido no debe estar en la plataforma", agrega Hegeman.
Ahora bien, como muchas veces las noticias falsas llegan disfrazadas (con lenguaje irónico o apuntando por ejemplo a un link válido), es necesario un segundo control, esta vez hecho por un ser humano, que analiza la información y comprueba si es falsa o no.
"Hay muchas áreas grises y leyes distintas en cada país donde Facebook está presente, por lo que necesitamos toda la ayuda posible", indicó a los periodistas Tessa Lyons, gerente de Producto de la empresa. Es por eso que efectúan controles verificando si las fuentes de la información son confiables (por ejemplo, si provienen de un sitio de noticias reconocido), así como si se está hablando de ese tema en otros sitios de Internet o medios de comunicación. A eso, suma además que sea la propia comunidad la que ayude a identificar las noticias falsas, con las herramientas que están en la parte superior de la vista de las publicaciones, que permiten chequear de dónde proviene la información.
"Además, comenzaremos a trabajar con nuestros aliados de verificación para que utilicen Claim Review de Schema.org, un framework de código abierto utilizado por varias empresas de tecnología para la verificación de datos", añadió Lyons.
Otros elementos que añade Facebook en esta cruzada contras las noticias falsas son la verificación de elementos que aparecen en fotos y videos (que les permiten detectar si una foto o un video fue manipulado intencionalmente, para tomar medidas al respecto) algo que ya lo hacen en 4 países y planean expandirlo a varios más; así como alianzas con gobiernos y organizaciones no gubernamentales que efectúen sus propios análisis para confirmar si una noticia es verdadera o falsa, algo que realizan en la Argentina junto a Chequeado.
Límites a las noticias falsas virales en WhatsApp
Los mensajes reenviados serán etiquetados en WhatsApp para distinguir el texto del contenido que forma parte de la conversación entre dos personas o un grupo Los mensajes reenviados serán etiquetados en WhatsApp para distinguir el texto del contenido que forma parte de la conversación entre dos personas o un grupo
El servicio de mensajería instantánea de Facebook también estuvo en los últimos meses bajo la lupa por diversos casos de denuncia, rumores y noticias falsas que circularon sin parar entre los usuarios y grupos de WhatsApp . Por este motivo la compañía decidió comenzar a notificar a los usuarios si un mensaje fue reenviado con el objetivo de diferenciar el contenido generado por un amigo o familiar de aquellos que fueron creados por un tercero.
A su vez, los usuarios no podrán reenviar un mensaje de texto más de 20 veces, un límite que es más estricto en India, con solo cinco contactos o grupos.
Fuente: La Nación