Así intoxica la ultraderecha en YouTube con su ideología… y además gana dinero

Por: P. Romero.

Mientras los medios hemos dedicado mucho tiempo en denunciar los bulos, las manipulaciones y los mensajes tóxicos en redes como Facebook o Twitter —como las llamadas ‘fake news’ que han llegado a condicionar la agenda política en todo el mundo—, un estudio publicado esta semana muestra cómo YouTube —propiedad de Alphabet, matriz de Google—aparece descrita como una plataforma efectiva para difundir mensajes extremistas, racistas y de odio, y con el incentivo extra de poder monetizarlos.

El informe, elaborado por la investigadora especializada en manipulación mediática y desinformación Rebecca Lewis y publicado en Data and Society (en donde el pasado año publicó otro completo estudio sobre los efectos de la distribución de noticias falsas), refleja cómo la popular plataforma de vídeo se ha convertido en uncaldo de cultivo para radicales de extrema derecha.

Así, se indica que ideas como el nacionalismo, el racismo y el antifeminismo encuentran en YouTube un creciente espacio de influencia, y no sólo a causa del algoritmo de recomendación del propio servicio, como ya mostró el diario The Guardian en febrero de este año.

La autora del estudio analiza cerca de 65 académicos, personajes mediáticos y ‘youtubers’ en 81 canales, que forman lo que Lewis describe como una “red de influencia” que promueve un amplio rango de posturas ideológicas derechistas y reaccionarias, y que se erige en una “alternativa” a los medios de comunicación convencionales.

Y lo hacen no bajo una apariencia de credibilidad, sino de “autenticidad”: a menudo aparecen como víctimas de una persecución ideológica (algunos se quejan de que les censuran por ser ‘políticamente incorrectos’) y con un cierto halo contracultural, en contraste con los medios tradicionales: constituyen lo que la autora bautiza como Alternative Influence Network (Red Alternativa de Influencia).

En su informe, Lewis analiza no sólo qué dicen sino cómo se relacionan entre ellos. Y, lo que es más importante, cómo han logrado conectar de manera íntima con sus audiencias.

Mensajes muy medidos

Sus mensajes, aunque controvertidos, están muy estudiados para situarse en los límites de las condiciones de uso de la plataforma. Desde YouTube España indican a Público que la compañía fomenta la libertad de expresión: “Tratamos de defender los derechos de los usuarios para expresar puntos de vista impopulares, pero no permitimos el discurso de odio”. No obstante, reconocen que existe “una delgada línea” entre lo que se considera y lo que no se considera discurso de odio. En esa línea juega la Red Alternativa de Influencia.

El informe describe una red en el que se incluyen nombres muy conocidos en EEUU, desde influyentes personajes de ideología conservadora como el editor y columnista Ben Shapiro, el psicólogo Jordan Peterson o el comediante Dave Rubin y su Rubin Report, hasta polémicos ‘youtubers’ antifeministas como Stefan Molyneux (Freedomain Radio) y Carl Benjamin e incluso personajes abiertamente supremacistas blancos como Richard B. Spencer –bruñidor de Alt-Right — y Colin Robertson.

Si bien no todos los perfiles se suscriben abiertamente al ideario ultraderechista, sí interactúan con radicales de forma normalizada e incluso amistosa que pueden amplificar ese tipo de mensajes.

Por qué YouTube

Otras plataformas sociales han sido objeto de controversia por alojar mensajes manipuladores. Así sucedió, por ejemplo, a raíz del escándalo de Cambridge Analytica y el acceso a datos de 87 millones de usuarios de Facebook con fines electoralistas. YouTube no ha recibido tanta atención en los últimos años.

Sin embargo, la plataforma tiene un inmenso peso en el consumo de contenidos ‘online’; sólo en EEUU, el 73% de los adultos visita con asiduidad el servicio, y el porcentaje sube al 94% para los usuarios en la franja de edad de 18 años a 24 años, según datos del centro de investigación Pew. Únicamente Facebook supera estas cifras.

Lewis destaca que esos actores influyentes utilizan técnicas de marketingampliamente conocidas para conectar con sus seguidores, tales como testimonios directos, controversia estratégica en sus mensajes, optimización en motores de búsqueda y un gran conocimiento de cómo reaccionamos los usuarios en el contexto de las redes sociales, entre otras.

“Cuando los espectadores interactúan con sus contenidos, se enmarca como algo entretenido, rebelde y divertido”, describe la autora en su informe, y denuncia que de esta forma “se oscurece el impacto que tienen los problemas en poblaciones vulnerables y subrepresentadas: la comunidad LGBTQ, las mujeres, inmigrantes y personas de color”.

“YouTube está diseñado para incentivar el comportamiento de estos ‘influencers’”

Lewis cree que la plataforma no sólo debe evaluar qué contenidos se vuelcan en qué canales sino también “a quién hospedan y qué dicen sus invitados”. Porque, afirma la investigadora, “YouTube está diseñado para incentivar el comportamiento de estos ‘influencers’ políticos”. “YouTube monetiza la influencia para todo el mundo, independientemente de lo dañino que sean sus creencias”, apunta.

“En muchos casos se generan ingresos publicitarios siempre y cuando los mensajes no incluyan insultos explícitamente”, añade, y resalta que YouTube también se beneficia directamente de funcionalidades como Super Chat —que permite ganar dinero al instar a los usuarios a que resalten sus comentarios en los vídeos mediante el pago de una pequeña cantidad— que, a menudo, “incentiva el contenido impactante”, algo que ya mostró BuzzFeed el pasado mes de mayo.

Es decir, afirma Lewis en sus conclusiones, el tipo de contenido generado por la extrema derecha y sus simpatizantes se adapta a la perfección al modelo de YouTube.

En una entrevista en Mother Jones, la propia Lewis justifica la finalidad de su estudio. “Intento mostrar que hay problemas fundamentales que debemos abordar con YouTube de la misma manera que hemos reconocido problemas fundamentales con Facebook y Twitter”, comentó.

Desde YouTube insisten a este diario en que son “una plataforma abierta en la que cualquiera puede elegir publicar vídeos para una audiencia global”, sujeto a unas pautas de conducta de la comunidad que aplican “rigurosamente”.

La compañía asegura que ha mantenido contacto con Data and Society y recuerda que la investigación de campo de Lewis finalizó en abril. Desde entonces, remarca, YouTube ha realizado “más actualizaciones sobre qué canales tienen acceso a las funciones de monetización” y ha implementado tecnología avanzada de aprendizaje automático para detectar con mayor rapidez y efectividad cualquier “discurso de odio” en los comentarios de los vídeos publicados.

————–

Nota: Este articulo fue publicado en el Diario Público el 19 de septiembre de 2018.