Tecnología

Algoritmo de YouTube impulsa la violencia y la desinformación

El algoritmo de YouTube sigue impulsando los vídeos violentos, de odio y desinformación, a pesar de los esfuerzos de la empresa por limitar el alcance de estos.

YouTube colocará advertencia en videos relacionados con las elecciones

La Fundación Mozilla, una organización sin ánimo de lucro dedicada al software y a las cuestiones de privacidad, ha llevado a cabo una investigación de 10 meses de duración, en la que se ha descubierto que el algoritmo de YouTube recomendaba el 71% de los vídeos marcados por voluntarios como perturbadores.

El estudio, que Mozilla describió como “la mayor investigación de crowdsourced sobre el algoritmo de YouTube”, utilizó datos aportados voluntariamente por los usuarios que instalaron una extensión de Mozilla en su navegador web que rastreaba su uso de YouTube y les permitía informar de vídeos potencialmente problemáticos.

Los investigadores pudieron comprobar entonces si los vídeos marcados habían sido sugeridos por el algoritmo o si el usuario los había encontrado por su cuenta.

“Cuando se sugiere activamente que la gente vea contenidos que violan las políticas de YouTube, el algoritmo parece estar trabajando en contra de los objetivos declarados de la plataforma, sus propias directrices de la comunidad, y el objetivo de hacer de la plataforma un lugar seguro para la gente”, dijo Brandi Geurkink, gerente senior de defensa de Mozilla.

La mayoría -el 71%- de las denuncias procedían de vídeos recomendados por el algoritmo de YouTube, y los vídeos recomendados tenían un 40% más de probabilidades de ser denunciados que los vídeos buscados intencionadamente, según el informe.

Más de 37.000 usuarios de 91 países instalaron la extensión, y los voluntarios marcaron 3.362 “vídeos lamentables” entre julio de 2020 y mayo de 2021.

Mozilla recurrió a 41 investigadores de la Universidad de Exeter para que revisaran los vídeos marcados y determinaran si podían infringir las directrices comunitarias de YouTube.

De los más de 3.300 vídeos marcados, el 71% fueron sugeridos por el algoritmo, según el estudio.

Entre ellos había una parodia sexualizada de “Toy Story” y un vídeo electoral que afirmaba falsamente que el fundador de Microsoft, Bill Gates, había contratado a estudiantes implicados en el movimiento Black Lives Matter para que contaran las papeletas de voto en estados disputados.

Otros incluían conspiraciones sobre el 11-S y la pandemia del COVID-19, así como la promoción de la supremacía blanca, según el informe. Más tarde, YouTube eliminó 200 vídeos que los participantes marcaron, lo que equivale a un 9% aproximadamente.

Pero los vídeos ya habían acumulado más de 160 millones de visitas antes de ser retirados, según Mozilla.

Algoritmo de YouTube impulsa la violencia y la desinformación

Un portavoz de YouTube dijo a The Post que no está claro cómo definió el estudio los vídeos censurables y cuestionó algunas de las conclusiones.

“Acogemos con agrado la investigación sobre nuestras recomendaciones, y estamos explorando más formas de traer a investigadores externos para que estudien nuestros sistemas”, señaló el portavoz en un comunicado.

“Pero nos resulta difícil sacar conclusiones de este informe, ya que nunca definen lo que significa ‘arrepentido’ y sólo comparten unos pocos vídeos, no todo el conjunto de datos”, continuó.

“Por ejemplo, algunos de los contenidos catalogados como ‘lamentables’ incluyen un tutorial de fabricación de cerámica, un clip del programa de televisión Silicon Valley, un vídeo de manualidades de bricolaje y un segmento de Fox Business”.

“Nuestros datos públicos muestran que el consumo de contenidos recomendados al límite es significativamente inferior al 1% y que sólo entre el 0,16 y el 0,18% de todas las visualizaciones en YouTube proceden de contenidos infractores”, añade el comunicado.

con información de The New York Post.

También puedes leer: YouTube probará eliminar los “no me gusta” en sus videos