Saltar al contenido

El tirador de Christchurch y la trampa de la radicalización de YouTube

julio 2, 2021


En una declaración por correo electrónico, un portavoz de YouTube dice que la compañía ha logrado «avances significativos en nuestro trabajo para combatir el discurso de odio en YouTube desde el trágico ataque en Christchurch». Citando el 2019 fortificado política de incitación al odio, el portavoz dice que ha habido un «aumento de cinco veces en la cantidad de videos de odio eliminados de YouTube». YouTube también ha modificado su sistema de recomendaciones para «limitar la difusión de contenido límite».

YouTube dice que de los 1.8 millones de canales cancelados por violar sus políticas el último trimestre, 54,000 fueron por incitación al odio, la mayor cantidad jamás registrada. YouTube también eliminó más de 9,000 canales y 200,000 videos por violar las reglas contra la promoción del extremismo violento. Además de Molyneux, las prohibiciones de junio de YouTube incluían a David Duke y Richard Spencer. (El terrorista de Christchurch donó al National Policy Institute, que dirige Spencer). Por su parte, Facebook dice que ha prohibido a más de 250 grupos supremacistas blancos de sus plataformas y ha fortalecido su política de individuos y grupos peligrosos.

“Está claro que el núcleo del modelo comercial tiene un impacto en permitir que este contenido crezca y prospere”, dice Lewis. «Han ajustado su algoritmo, han expulsado a algunas personas de la plataforma, pero no han abordado ese problema subyacente».

La cultura en línea no comienza y termina con YouTube o en cualquier otro lugar, por diseño. Fundamental para el modelo de negocio de las redes sociales es el intercambio multiplataforma. “YouTube no es solo un lugar al que la gente va en busca de entretenimiento; son absorbidos por estas comunidades. Esos te permiten participar a través de comentarios, claro, pero también haciendo donaciones e impulsando el contenido en otros lugares ”, dice Joan Donovan, directora de investigación del Centro Shorenstein de Medios, Política y Políticas Públicas de la Universidad de Harvard. Según el informe del gobierno de Nueva Zelanda, el terrorista de Christchurch compartía regularmente publicaciones de Reddit, páginas de Wikipedia y videos de YouTube de extrema derecha, incluso en un chat de un sitio de juegos sin nombre.

El terrorista de la mezquita de Christchurch también siguió y publicó en varios grupos de Facebook nacionalistas blancos, a veces haciendo comentarios amenazantes sobre inmigrantes y minorías. Según los autores del informe que lo entrevistaron, “el individuo no aceptó que sus comentarios hubieran preocupado a las agencias antiterroristas. Pensó esto debido a la gran cantidad de comentarios similares que se pueden encontrar en Internet «. (Al mismo tiempo, tomó medidas para minimizar su huella digital, incluida la eliminación de correos electrónicos y la eliminación del disco duro de su computadora).

Reubicar o hacer proselitismo de supremacistas blancos sin contexto o advertencia, dice Donovan, allana un camino sin fricciones para la difusión de ideas marginales. “Tenemos que ver cómo estas plataformas brindan la capacidad de transmisión y escala que, lamentablemente, ahora han comenzado a tener fines negativos”, dice.

Los incentivos comerciales de YouTube obstaculizan inevitablemente ese tipo de transparencia. No hay buenas formas para que los expertos externos evalúen o comparen técnicas para minimizar la propagación del extremismo entre plataformas. A menudo, en cambio, deben confiar en los informes publicados por las empresas sobre sus propias plataformas. Daniel Kelley, director asociado del Centro de Tecnología y Sociedad de la Liga Antidifamación, dice que si bien YouTube informa un aumento en la eliminación de contenido extremista, la medida no habla de su prevalencia pasada o actual. Los investigadores fuera de la empresa no saben cómo funcionaba el algoritmo de recomendación antes, cómo cambió, cómo funciona ahora y cuál es el efecto. Y ellos no sé cómo se define el «contenido límite»—Un punto importante teniendo en cuenta que muchos argumentan que sigue prevaleciendo en YouTube, Facebook y otros lugares.

«Es difícil decir si su esfuerzo ha valido la pena», dice Kelley. «No tenemos ninguna información sobre si realmente está funcionando o no». La ADL ha consultado con YouTube, sin embargo, Kelley dice que no ha visto ningún documento sobre cómo define el extremismo ni cómo capacita a los moderadores de contenido en él.



Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *