Tecnología

Facebook está probando IA para evitar peleas en la red

Facebook está probando su Inteligencia Artificial para mantener el orden y evitar discusiones en la plataforma.

Facebook frenará transferencia de datos entre Europa y EE.UU.

La red social está probando el uso de la IA para detectar peleas en sus numerosos grupos, de modo que los administradores de los mismos puedan ayudar a calmar la situación.

El anuncio se hizo en un blog, en el que Facebook presentó una serie de nuevas herramientas de software para ayudar a los más de 70 millones de personas que dirigen y moderan grupos en su plataforma.

La IA de Facebook decidirá enviar lo que la empresa ha denominado “alertas de conflicto” a los administradores, si la herramienta determina que una conversación en su grupo es “conflictiva o “poco saludable”, dijo la empresa.

La plataforma cuenta con unos 2.850 millones de usuarios mensuales, y tan solo a finales del 2020, más de 1.800 millones de personas participaron en grupos por mes. Decenas de millones de grupos, se mantienen activos en la red social.

Durante años, plataformas tecnológicas como Facebook y Twitter han recurrido cada vez más a la IA para determinar gran parte de lo que se ve en Internet, desde las herramientas que detectan y eliminan el discurso de odio en Facebook hasta los tuits que Twitter muestra en su línea de tiempo.

Esto puede ser útil para impedir el contenido que los usuarios no quieren ver, y la Inteligencia Artificial puede ayudar a los moderadores humanos a limpiar las redes sociales que han crecido demasiado para que la gente las controle por sí misma.

Sin embargo, la IA puede tener problemas cuando se trata de comprender la sutileza y el contexto de las publicaciones en línea. El funcionamiento de los sistemas de moderación basados en la IA también puede parecer misterioso e hiriente para los usuarios.

Un portavoz de Facebook detalló a CNN, que la IA de la compañía utilizará varias señales de las conversaciones para determinar cuándo enviar una alerta de conflicto, incluyendo los tiempos de respuesta a los comentarios y el volumen de comentarios en una publicación.

El portavoz indicó que algunos administradores ya tienen configuradas alertas de palabras clave que pueden detectar temas que pueden llevar a discusiones.

Al recibir una alerta de conflicto, el administrador puede tomar medidas que, según Facebook, tienen como objetivo ralentizar las conversaciones, presumiblemente con la esperanza de calmar a los usuarios.

Estas medidas podrían incluir la limitación temporal de la frecuencia con la que algunos miembros del grupo pueden publicar comentarios y la determinación de la rapidez con la que se pueden hacer comentarios en las publicaciones individuales.

Las capturas de pantalla de un simulacro de discusión que Facebook utilizó para mostrar cómo podría funcionar muestran una conversación que se ha salido de control en un grupo llamado “Cachorros de otras personas”, dentro de la plataforma, donde un usuario responde a la publicación de otro escribiendo: “Cállate que eres taaaan tonto”.

Facebook está probando IA para evitar peleas en la red

“¡Idiotas!” responde otro usuario en el ejemplo. “¡Si siguen ocurriendo estas tonterías, me voy del grupo!”.

La herramienta permite que en la conversación aparezca en una pantalla con las palabras “Moderation Alerts” en la parte superior, debajo de las cuales aparecen varias palabras en letra negra dentro de burbujas grises. A la derecha, la palabra “Conflicto” aparece en azul, en resaltado en una burbuja azul.

Otra serie de imágenes de pantalla ilustra cómo un administrador puede responder a una conversación acalorada -no sobre política, vacunas o guerras culturales, sino sobre los méritos del aderezo ranchero y la mayonesa– limitando a un miembro a publicar, digamos, cinco comentarios en las publicaciones del grupo para el día siguiente.

Con información de CNN.

Te puede interesar: Instagram y Facebook dejan atrás los “likes”