LA VIDA EN VIDEOS

¿Es posible arbitrar YouTube?

La falta de censura previa en YouTube convirtió a la plataforma en un propagador de teorías conspirativas, noticias falsas y discursos violentos que distintas agencias buscan sancionar y regular. Por Luciano Lahiteau
1034
30-12-2021
Compartir

Ilustración Juan Dellacha

 

En 2013, el Estado islámico comenzó a difundir la filmación de ejecuciones y mensajes de reclutamiento en Twitter, Facebook y YouTube. El grupo terrorista con pie en Siria e Irak comenzó a distinguirse de otras organizaciones fundamentalistas al utilizar las redes sociales para captar nuevos miembros y amplificar el terror que esparce por sus áreas de influencia. Un año después, en 2014, las tres plataformas acordaron eliminar el contenido subido por las cuentas asociadas a ISIS y restringir la difusión de mensajes cifrados que condujeran a los circuitos cerrados de difusión y a sitios de la red oscura donde el grupo comunicaba sus ideas e intentaba cooptar más fanáticos.

La espantosa obscenidad violenta con que el terrorismo hacía uso de la plataforma hizo evidente la necesidad de un frente único para censurar los contenidos propagados por ISIS. Todavía hoy, YouTube continúa buscando la mejor herramienta para disuadir a los usuarios que comparten videos de grupos terroristas y asordinar mensajes de los yihadistas. ¿Pero qué sucede con los contenidos de otros grupos que difunden el odio y la información falsa o sesgada, aunque no impliquen un peligro político y humanitario de las dimensiones del terrorismo internacional?

En Argentina, la incidencia de las teorías pseudocientíficas y los discursos basados solo en fundamentos religiosos quedó patente durante el debate por la despenalización de la interrupción voluntaria del embarazo. Aunque fueran amplísimos los acuerdos entre científicos y sanitaristas respecto a la necesidad de quitar la carga penal sobre el aborto para sacarlo de la clandestinidad y abordarlo como un asunto de salud pública, la proliferación de discursos antiderechos sostenidos en la creencia religiosa o la autoafirmación de teorías incomprobables entorpeció el debate arribando desde el margen al centro de la escena. De pronto valía lo mismo lo que dijera una investigadora citada por el Congreso que lo que tuviera que decir una usuaria de redes sociales con varios seguidores. 

YouTube jugó un rol importante en la multiplicación de estos discursos. La plataforma permitió que los contenidos se difundieran y compartieran indiscriminadamente, y posibilitó que se reprodujeran. La lógica comunitaria y el algoritmo de YouTube suelen crear una ilusión donde lo que un usuario consume y reproduce es lo que todos consumen y reproducen. Son anillos de contenidos relacionados que pueden hacernos caer en una trampa de autoformación continua, donde las ideas contrapuestas, las antítesis o siquiera las preguntas no existen o (lo que es lo mismo) no están a la vista. Lo otro es inhallable; cuando aparece, es parte de una conspiración. En este sentido, y tal como dijo el periodista Eric Kohn, "YouTube flota en una paradoja: es una plataforma para fomentar la expresión que vacila sobre los tipos de expresión que quiere admitir".

La compañía lleva adelante un trabajo sostenido contra los discursos de odio desde los acontecimientos de 2013. Según su reporte de transparencia, son millones las cuentas y videos quitados y retirados por infringir las normas de la comunidad de la plataforma. Entre julio y septiembre de 2021, 4.806.042 canales fueron dados de baja a nivel mundial. El 92% de estos canales se dedicaba a enviar spam o mostrar contenido sexual para adultos. Un 1,5% de ellos estaba destinado al ciberacoso. Otros ítems no llegan a un porcentaje relevante, pero adquieren importancia si se los considera en términos absolutos: 44.598 canales fueron eliminados por difundir material vejatorio o que induzca al odio, 27.659 por suplantación de identidad y 16.054 por ofrecer contenido perjudicial o peligroso. Cada canal puede tener cientos de videos que se eliminan junto a la cuenta, pero también pueden ser duplicados por otros usuarios.

La cantidad de videos retirados en el mismo período alcanza el total de 6.229.882. La gran mayoría es retirado automáticamente, es decir que es detectado y eliminado por los equipos que YouTube tiene destinados a esa tarea. Es destacable que el segundo agente de detección de infracciones es el propio público, y que las organizaciones estatales están a la cola de las agencias atentas a estos contenidos problemáticos, detrás de las ONG. YouTube también se jacta de la prontitud de sus procedimientos de protección. Según la plataforma, solo el 27,6% de los videos sancionables alcanza las 10 visualizaciones antes de ser retirados de la web. Durante este período, Argentina ocupó el puesto 19 en el ránking de más videos retirados por país (tercero en Latinoamérica, luego de Brasil y México), con  51.548.

Pese al esfuerzo y los recursos dispuestos por YouTube para moderar el tráfico de videos dentro de su plataforma y de los loables términos de sus políticas contra los discursos de odio y las teorías que los incitan, la deslocalización de los procedimientos y la falta de seguimiento de la compañía puede hacer que esos contenidos se derramen por otros sitios y consigan sobrevivir. Así ocurrió con el suicidio de la streamer e influencer serbia Kristina Dukic, que decidió quitarse la vida luego de sufrir años de acoso y ciberbullying por su aspecto físico, y que una vez que dejó de publicar videos en YouTube fue perseguida por sus agresores en otras redes sociales. 

Lo que resulta en la necesidad de que otras agencias tengan una mirada transversal y apliquen sus propias medidas a contenido que, al fin y al cabo, es público. Un buen ejemplo es la sanción que la Comisión Nacional de Valores decidió aplicar al flamante legislador porteño del partido Avanza La Libertad, Ramiro Marra. El armador político de Javier Milei y youtuber financiero fue multado por la CNV por dar consejos para invertir en su canal de YouTube sin ser idóneo ante el organismo. Otro es el sondeo de los estudiantes de posgrado de Ciencias de la Salud del Hub eSalud sin Bulos, en España, que detectó que una importante cantidad de los videos sobre la pandemia que circulan en YouTube contiene información falsa.