Mediante el uso de un programa basado en la inteligencia artificial capaz de establecer conexiones entre mensajes, imágenes y comentarios, la red social Facebook afirmó que redujo en los últimos meses contenidos violentos, odiosos o sexuales en su plataforma.
Según explicó Mike Schroepfer, responsable técnico de la plataforma, en una conferencia telefónica "Con el nuevo algoritmo, que comenzó a ser utilizado durante 2020, Facebook puede ahora tener "una visión de conjunto".
Hasta ahora, el sistema de detección de la red social solo permitía analizar un contenido a la vez, y no se podían por ejemplo cruzar las señales provenientes de una foto y de un mensaje, según informó AFP.
La red social puede sobre todo descifrar mejor el sentido de "memes", imágenes o animaciones en general con fin humorístico, que a veces contienen un mensaje de odio o discriminatorio comprensible solo cuando se asocia el texto con la imagen.
"Hay que comprender todo el contexto" para analizar y eventualmente descartar un mensaje, dijo Schroepfer, y explicó que el programa puede cruzar contenidos en varios idiomas.
La herramienta informática evita también retiro de algunos mensajes que habrían desencandenado una alerta anteriormente a raíz de una palabra o una imagen interpretada de manera demasiado literal.
Facebook atribuye en parte a este sistema la caída en la difusión de contenidos dudosos en su sitio. Los indicadores trimestrales miden el número de veces que estos contenidos son vistos, y no su cantidad.
En el primer trimestre, entre 0,05% y 0,06% de los contenidos vistos por usuarios de Facebook fueron considerados odiosos contra un margen de 0,07% a 0,08% en el cuarto trimestre de 2020 y de 0,10% a 0,11% en el tercer trimestre del mismo año.
La red social aseguró que también intervino en 34,3 millones de contenidos a los que evalúan como violentos o chocantes, contra 15,9 millones en el cuarto trimestre de 2020.