Rage-baiting - Enciclopedia

En el argot de internet, el "rage-baiting" (también conocido como "rage-farming") es una táctica manipulativa que consiste en provocar la ira con el objetivo de aumentar el tráfico en internet, el compromiso en línea, los ingresos y el apoyo. El rage-baiting o el rage-farming pueden ser utilizados como herramientas para aumentar el compromiso, atraer suscriptores, seguidores y simpatizantes, lo que puede ser muy lucrativo. El rage-baiting y el rage-farming manipulan a los usuarios para que reaccionen de manera equivalente a titulares, memes, tópicos o comentarios ofensivos e inflamatorios.

El "rage-farming", que se ha mencionado desde al menos enero de 2022, es una derivación del rage-baiting donde la ira de la persona que se ve provocada se cultiva o manipula para generar un compromiso en línea mediante el "rage-seeding" que ayuda a amplificar el mensaje del creador del contenido original. También ha sido utilizado como una táctica política en detrimento de los oponentes.

El científico político Jared Wesley de la Universidad de Alberta afirmó en 2022 que el uso de la táctica del rage-farming estaba en aumento, con políticos de derecha que emplean la técnica "promoviendo teorías de la conspiración y desinformación". A medida que los políticos aumentan el rage-farming contra sus oponentes políticos y ideológicos, atraen más seguidores en línea, algunos de los cuales pueden participar en violencia offline, incluyendo violencia verbal y actos de intimidación. Wesley describe cómo aquellos involucrados en el rage-farming combinan medias verdades con "mentiras flagrantes".

El concepto más amplio de publicar contenido generalmente provocativo para fomentar la interacción del usuario se conoce como "engagement farming" (farming de compromiso).

Etimología, definiciones y términos relacionados

El "rage-farming" (o "rage-seeding") deriva del concepto de "farming" (cultivo) de la ira; plantar semillas metafóricas que causan que las respuestas de ira crezcan. Es una forma de clickbait, un término utilizado desde aproximadamente 1999, que es "más sutil" y no necesariamente se ve como una táctica negativa. El término "rage bait", que se ha mencionado desde al menos 2009, es una forma negativa de clickbait ya que se basa en manipular a los usuarios para que respondan de manera equivalente a titulares, memes, tópicos o comentarios ofensivos e inflamatorios.

En su tuit de 2022, un investigador sénior del Citizen Lab, John Scott-Railton, describió cómo una persona estaba "siendo rage-farmed" cuando respondía a un post inflamatorio con un tuit de cita igualmente inflamatorio, ya que los tuits de cita recompensan al tuit original de ira. Se descubrió que los algoritmos de redes sociales como Facebook, Twitter, TikTok, Instagram y YouTube recompensan el aumento del compromiso positivo y negativo al dirigir el tráfico a los posts y amplificarlos.

En un artículo del Atlantic sobre la estrategia republicana, la escritora estadounidense Molly Jong-Fast describió al rage-farming como "el producto de una tormenta perfecta de maldades, una mezcla desagradable de algoritmos y ansiedad".

El científico político Jared Wesley escribió que el rage-farming a menudo "se utiliza para describir el discurso diseñado para provocar la ira de los oponentes". El rage-baiting se utiliza para describir una táctica para atraer, mantener y aumentar una base de simpatizantes y seguidores.

El clickbait, en todas sus versiones, incluyendo el rage-baiting y el rage-farming, es una forma de manipulación mediática, específicamente de manipulación en línea. Mientras que el objetivo de algunos clickbait es generar ingresos, también puede ser utilizado como una táctica efectiva para influir en las personas en plataformas de redes sociales, como Facebook, Twitter, Instagram y YouTube. Según un análisis de noviembre de 2016 de Facebook, los clickbait se diseñan intencionalmente para aprovechar las preexistentes tendencias a la confirmación de un grupo de interés específico. Los algoritmos de Facebook utilizan una burbuja de filtro que comparte publicaciones específicas con un público filtrado.

Un artículo del Westside Seattle Herald publicado en mayo de 2016 citó la definición del Urban Dictionary en línea, que define un post en redes sociales por parte de una organización de noticias diseñado explícitamente para outrajar a la mayor cantidad posible de personas con el objetivo de generar interacción. El artículo describió cómo el aumento del tráfico de usuarios en línea resulta en más ingresos para las plataformas y sitios web en línea de publicidad pagada y patrocinadores.

Un artículo del 25 de mayo de 2016 describió al ragebait como "el gemelo malvado del clickbait".

Un artículo de la revista Time de 2006 describió cómo los trolls en línea publican comentarios incendiarios con el único propósito de provocar una discusión incluso sobre temas más triviales. Una declaración como "NASCAR es tan mucho un deporte como las animadoras" en un foro de carreras de autos o apoyar abiertamente las fronteras abiertas a Lou Dobbs se citó como un ejemplo.

Los creadores de rage bait y outrage bait inventan "historias de noticias controvertidas de la nada". El ejemplo citado fue una publicidad falsa de una empresa de medios digitales irlandesa del 15 de diciembre de 2018 que afirmaba falsamente que dos tercios de las personas querían que Santa Claus fuera femenino o de género neutro.

Desde tan temprano como 2012, la investigación sugirió que en los medios y en la política, provocar la ira es una herramienta poderosa en la manipulación mediática. En los medios políticos, tanto la ira real como la imaginada atraen lectores, haciendo que las narrativas que la evocan sean muy populares en los medios políticos.

Contexto
Un artículo del Journal of Politics (JOP) de 2012 encontró que los actores políticos estaban incorporando intencionalmente contenido emocional a sus mensajes para evocar ansiedad y generar interés en un tema. El artículo preguntó por qué esta táctica política resultó en que los espectadores sintieran más ira que ansiedad. El estudio descubrió que la ira aumentaba el comportamiento de búsqueda de información y a menudo resultaba en que los usuarios de la web hicieran clic en el sitio web político para aprender más. El estudio dijo que también había incentivos psicológicos para utilizar el lenguaje irracional en la comunicación política. Un artículo de Media Matters for America de 2018 que citaba el Journal of Politics reiteró que "la ira es una herramienta poderosa en los mundos tanto de la política como de los medios". La industria de los medios políticos sabe que la ira real o imaginada atrae lectores, haciendo que las narrativas que la evocan sean muy populares en los medios políticos.

Un artículo del National Review de noviembre de 2018 que denunciaba a los guerreros de la justicia social fue citado como un ejemplo de rage-baiting por Media Matters for America. El artículo del Review fue una respuesta a tuits que criticaban la imagen utilizada por la cuenta de Twitter de ABC para anunciar el Thanksgiving de Charlie Brown el 21 de noviembre de 2018. Franklin, el amigo negro, estaba sentado solo en un lado de la mesa de Thanksgiving de Charlie Brown. Varios usuarios de Twitter, incluyendo uno con cero seguidores, calificaron la imagen como racista. Los conservadores estaban tan frustrados con estos liberales "sensibles" y políticamente correctos que publicaron, que a su vez respondieron con ira. El artículo de Media Matters for America dijo que había ironía en la forma en que el artículo del National Review, que pretendía ilustrar cómo los liberales se provocan fácilmente la ira, en realidad logró enojar a los conservadores.

Las tecnologías de la información y los medios digitales permiten capacidades sin precedentes para la manipulación en línea, incluyendo el clickbaiting, el rage-baiting y el rage-farming. En su tuit del 7 de enero de 2022, John Scott-Railton describió cómo una persona estaba "siendo rage-farmed" cuando respondía a un post inflamatorio con un tuit de cita igualmente inflamatorio, ya que los algoritmos de Twitter, TikTok, YouTube, Facebook y otras plataformas de redes sociales recompensan los posts que atraen compromiso al amplificarlos.

Una revisión de 2020 de la revista de noticias en línea conservadora canadiense The Post Millennial, que se inició en 2017, dijo que era la salida más reciente de rage-baiting de América.

Ejemplos de rage farming


= Redes sociales =

El rage farming y el rage baiting son las últimas iteraciones del clickbait y otras formas de manipulación en línea que utilizan teorías de la conspiración y desinformación para fomentar la ira y atraer a los usuarios. Facebook ha sido "culpado" por fomentar el odio sectario, guiar a los usuarios hacia el extremismo y las teorías de la conspiración, y alentar a los políticos a tomar posturas más divisorias, según un informe del Washington Post de 2021. A pesar de los informes previos sobre los cambios en sus algoritmos de News Feed para reducir el clickbait, las revelaciones del informante de Facebook Frances Haugen y el contenido del escándalo de Facebook de 2021, conocido informalmente como "Facebook Papers", proporcionan evidencia del papel que jugó el algoritmo de News Feed de la empresa en la agricultura de la ira para obtener ganancias al difundir división, teorías de la conspiración y odio sectario que pueden contribuir a la violencia en el mundo real. Un ejemplo muy criticado fue cuando Facebook, con más de 25 millones de cuentas en Myanmar, no vigiló adecuadamente los posts de odio que generaban ira y dirigidos a la minoría musulmana rohingya en Myanmar que se cree que facilitaron el genocidio rohingya. En 2021, se presentó una demanda colectiva por 173 mil millones de dólares contra Meta Platforms Inc (el nuevo nombre de Facebook) en nombre de los refugiados rohingya en el Tribunal de Distrito del Norte de California, alegando que los algoritmos de Facebook amplificaron el odio.

En respuesta a las quejas sobre el clickbait en el News Feed de Facebook y el algoritmo de clasificación del News Feed, la empresa introdujo un algoritmo anti-clickbait en 2014 y nuevamente en 2016 para eliminar sitios de su News Feed que utilizan con frecuencia titulares que "ocultan, exageran o distorsionan la información".

Un artículo de febrero de 2019 promovido en Facebook describía cómo el outrage bait hace que la gente se enfade "intencionalmente". Las empresas de medios digitales y los actores de redes sociales incitan a la ira para aumentar el compromiso; "clics, comentarios, me gustas y compartidos", que generan "más ingresos publicitarios". Si el contenido no aumenta el compromiso, "el algoritmo de la línea de tiempo" limita el número de usuarios que puede alcanzar este contenido inerte. Según este artículo, cuando Facebook se enfocó en su guerra contra el clickbait, el algoritmo cambió, lo que hizo más difícil para los creadores y sitios usar clickbait. El artículo dijo que se introdujo una nueva estrategia de compromiso para reemplazar el clickbait, ya sea rage bait o outrage bait.

Se dice que los algoritmos de 2016 estaban entrenados para filtrar frases que se utilizan con frecuencia en los titulares del clickbait, de manera similar a los filtros que eliminan el correo no deseado. Los editores que continúan utilizando clickbait supuestamente fueron castigados con una pérdida de tráfico de referencias.

A partir de 2017, los ingenieros de Facebook cambiaron su algoritmo de clasificación para que valore las reacciones con emojis cinco veces más que los "me gustas", ya que los emojis extienden el compromiso del usuario, según un artículo del Washington Post del 26 de octubre de 2021. El modelo de negocio de Facebook dependía de mantener y aumentar el compromiso del usuario. Uno de los investigadores de Facebook planteó preocupaciones sobre los algoritmos que recompensan "publicaciones controvertidas" incluyendo las que incitan a la ira, que podrían resultar en más spam, abuso y clickbait.

Desde 2018, los ejecutivos de Facebook habían sido advertidos en una presentación que sus algoritmos promovían la división, pero se negaron a actuar. En una entrevista de 2022, Scott-Railton observó que la amplificación por los algoritmos de estos tuits de cita inflamatorios en el rage-farming que se auto-alimentan podría haber sido planeada y estructural o accidental. Los algoritmos recompensan el compromiso positivo y negativo. Esto crea una "verdadera dilema para todos". Los algoritmos también permiten a los políticos evitar a los medios de comunicación tradicionales que verifican los hechos, proporcionándoles acceso a un público objetivo que es muy receptivo a su mensaje, incluso cuando es desinformación.

Para 2019, los científicos de datos de Facebook confirmaron que las publicaciones que incitaban a la ira con emojis eran "disproporcionadamente propensas a incluir desinformación, toxicidad y noticias de baja calidad".

El documental de Netflix de 2020 The Social Dilemma analizó cómo las redes sociales fueron diseñadas intencionalmente para la maximización de beneficios a través de la manipulación en línea, lo que puede incluir la difusión de teorías de la conspiración y desinformación y la promoción de un uso problemático de las redes sociales. Los temas cubiertos en el filme incluían el papel de las redes sociales en la polarización política en los Estados Unidos, la radicalización política, incluyendo la radicalización juvenil en línea, la propagación de noticias falsas y como herramienta de propaganda utilizada por partidos políticos y organismos gubernamentales. Las redes sociales tienen tres objetivos principales: mantener y aumentar el compromiso, el crecimiento y los ingresos publicitarios, según un ex ético de diseño de Google.

Un artículo de Rolling Stone de 2024 discute el aumento de influyentes de rage-bait en TikTok que crean contenido diseñado para provocar la ira y generar compromiso. Influencers como Winta Zesu y Louise Melcher producen videos controversialmente escenificados que a menudo se vuelven virales en múltiples plataformas, atrayendo a espectadores que pueden no darse cuenta de que el contenido es falso.

Facebook fuera de Estados Unidos

Un informe del Washington Post de 2021 reveló que Facebook no vigilaba adecuadamente su servicio fuera de Estados Unidos. La empresa dedicó solo el 16% de su presupuesto a combatir la desinformación y el odio en países fuera de Estados Unidos, como Francia, Italia e India, donde el inglés no es el idioma materno. Por el contrario, la empresa asignó el 84% a Estados Unidos, que representa solo el 10% de los usuarios diarios de Facebook.

Desde al menos 2019, los empleados de Facebook estaban al tanto de cómo "estos países, como India, eran vulnerables al abuso de actores malintencionados y regímenes autoritarios", pero no hicieron nada para bloquear cuentas que publicaban odio y promovían la violencia. En su informe de 2019 de 434 páginas presentado al Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos sobre los hallazgos de la Misión Internacional de Investigación Independiente sobre Myanmar, se investigó el papel de las redes sociales en la difusión del odio y la incitación a la violencia en las riñas anti-musulmanas y el genocidio rohingya. Facebook se mencionó 289 veces en el informe debido a que hay millones de cuentas de Facebook en ese país. Después de la publicación de una versión anterior del informe en agosto, Facebook tomó el "paso raro" de eliminar cuentas que representaban a 12 millones de seguidores implicados en los hallazgos del informe.

En octubre de 2021, Haugen testificó ante un comité del Senado de Estados Unidos sobre cómo Facebook había incitado la violencia étnica en Myanmar, que tiene más de 25 millones de usuarios de Facebook, y en Etiopía a través de sus algoritmos que promovían publicaciones que incitaban o glorificaban la violencia. No se eliminaron las afirmaciones falsas sobre que los musulmanes estaban almacenando armas.

La Ley de Servicios Digitales es una propuesta legislativa europea para fortalecer las reglas sobre la lucha contra la desinformación y el contenido dañino, que fue presentada por la Comisión Europea al Parlamento Europeo y al Consejo de la Unión Europea en parte en respuesta a las preocupaciones planteadas por los archivos de Facebook y las revelaciones en la testimonio de Haugen en el Parlamento Europeo. En 2021, se presentó una demanda colectiva por 173 mil millones de dólares contra Meta Platforms Inc, anteriormente conocida como Facebook, en el Tribunal de Distrito del Norte de California por parte de abogados de las firmas Edelson PC y Fields PLLC en nombre de los refugiados rohingya, alegando que Facebook fue negligente por no eliminar publicaciones inflamatorias que facilitaron el genocidio rohingya en Myanmar. La demanda dijo que los "algoritmos de Facebook amplificaron el odio".

Desde su lanzamiento en Myanmar en 2011, Facebook "rápidamente se volvió omnipresente". Un informe encargado por Facebook llevó a la empresa a admitir en 2018 que no había hecho "suficientes esfuerzos para evitar la incitación a la violencia y el odio contra la [...] minoría musulmana en Myanmar". El informe independiente descubrió que "Facebook se ha convertido en un medio para aquellos que buscan difundir odio y causar daño, y las publicaciones han estado vinculadas a la violencia offline".