Facebook comparte los avances en IA para la detección proactiva de contenidos dañinos en su ecosistema

El evento anual de desarrolladores de Facebook, F8, ha celebrado este miércoles su segunda jornada, que se ha centrado en la inteligencia artificial y su uso en la detección proactiva de los contenidos que violan las políticas de Facebook y su ecosistema.

El CEO de Facebook, Mark Zuckerberg, centró la primera jornada en los trabajos que la compañía desarrolla para dotar de mayor privacidad a sus servicios. Este jueves, el responsable de Tecnología en Facebook, Mike Schroepfer, ha reiterado el compromiso de la compañía con la «innovación responsable» y la lucha contra el contenido dañino, la desinformación, y por el bienestar y la seguridad de los usuarios.

Para ello, Schroepfer ha explicado que la compañía ha invertido en los últimos años en tecnología de inteligencia artificial para realizar avances estables en las áreas de combaten, con el fin de detectar de forma proactiva los contenidos problemáticos que violan sus políticas antes de que de los usuarios los denuncien.

Con el ejemplo de contenido dañino relacionado con drogas, el directivo ha explicado la evolución de la tecnología detrás de la detección de imágenes y texto. Antes de 2015, la detección se basaba en el emparejamiento de palabras clave (droga, marihuana) que posteriormente se complementó con la visión por ordenador, para la identificación de imágenes que contienen marihuana (por ejemplo, cajas de metálicas de galletas requisadas por la Policía).

Este año, la compañía trabaja con una aproximación de comprensión multimodal y de vecinos más cercanos, con la que la IA de la compañía es capaz de identificar contenedores de droga, sin que en las imágenes se muestre específicamente la droga.

La compañía trabaja para asegurarse de que sus sistemas de inteligencia artificial pueden comprender el contenido con la mejor supervisión posible, ya que la supervisión humana ralentiza el proceso de aprendizaje de la IA y por eso han apostado por los sistemas predictivos y la ‘autosupervisión’ de las máquinas.

Schroepfer, no obstante, ha asegurado que en la compañía, si bien han mejorado los sistemas de detección, aún están «lejos de ser perfectos» y que todavía queda mucho camino por delante.

Procesamiento del lenguaje natural

Los sistemas de inteligencia artificial de Facebook tienen que detectar contenido dañino en distintos idiomas, lo que significa que estos sistemas tienen que entender el idioma en el que se ha publicado dicho contenido.

Entrenar a la IA en todos los idiomas es complejo, especialmente encontrar los ejemplos de las más de 6.000 lenguas que se hablan en el mundo, y por ello la compañía ha desarrollado un lenguaje digital común para las traducciones.

De esta forma, se entrena un único modelo para que comprenda veintenas de idiomas, en lugar de tener que usar un modelo diferente para cada idioma.

Comprensión de la escena

La comprensión de los elementos de una imagen es importante para identificar si su contenido está violando las políticas de la compañía. Facebook emplea un sistema de análisis de pixel que reconoce los elementos individuales de una imagen, y ha avanzado en las capacidades del sistema para comprender las relaciones entre esos elementos.

El reto en la comprensión de la imagen se encontraba en el fondo de la misma. En Facebook trabajan con la aproximación de red de pirámide de características panópticas, que emplea una red neural para reconocer de forma simultánea los elementos situados en primer plano y categorizar los elementos del fondo. Con este sistema, la IA obtiene mayor comprensión del contexto de una imagen.

Más difícil resulta identificar contenidos dañinos en los vídeos. Al recurrir al análisis de clips, el sistema puede analizar un pequeño conjunto de fotogramas en un modelo espacio temporal. La información agregada ayudará a realizar predicciones.

La compañía, además, entrena a su sistema para que se centre en determinadas secciones del vídeo, que muestran comportamientos concretos, cuando el resto del vídeo resulta irrelevante, lo que acelera el entrenamiento.

Inteligencia artificial inclusiva

Facebook trabaja también por hacer que su inteligencia artificial sea inclusiva, es decir, que no excluya a las personas por sus características físicas. Esto es especialmente importante en realidad aumentada y virtual.

El equipo de Oculus, por ejemplo, al introducir los comandos de voz en la realidad virtual, entrena a su sistema con datos representativos de distintos dialectos, edades y géneros. En Spark AR, los ingenieros de la compañía se aseguran de que los efectos de realidad aumentada están disponibles para todas las personas.

En cuando a los avatares, uno de los retos a los que se enfrenta la compañía en la actualidad es la réplica virtual de cuerpos. Los rostros que se generan con Codec Avatars permiten a los usuarios interactuar entre ellos en tiempo real, pero la comunicación completa requiere del cuerpo.

La compañía está trabajando con modelos 3D que replican la anatomía humana y se adaptan a los movimientos de los individuos. Estos modelos se han construido desde el interior, es decir, han replicado primero el esqueleto, al que han ido añadiendo las distintas capas hasta generar un avatar de cuerpo entero con ropa.