Existe una lista secreta de palabras que no se pueden decir en las redes sociales… o, al menos, eso es lo que muchos creen.

Quizás hayas notado que la gente evita ciertas palabras en estas plataformas. Dicen unalived (no vivo) en lugar de killed (asesinado). Las armas son pew pews (una onamatopeya que simula en inglés el sonido de los disparos). De los adultos que tienen relaciones sexuales entre ellos se dice que tienen seggs para no decir sex (sexo).

Los propios usuarios de redes sociales admiten que esto los hace sonar ridículos. Pero muchos piensan que no tienen otra opción.

Publicidad

“Algospeak”, como se le suele llamar, es un lenguaje codificado completo basado en la idea de que los algoritmos entierran el contenido que usa palabras o frases prohibidas, ya sea para impulsar las agendas políticas de las empresas de redes sociales o para limpiar nuestros feeds para los anunciantes.

La industria tecnológica insiste en que todo esto es una tontería. Un portavoz de YouTube llamado Boot Bullwinkle lo explica con claridad: “YouTube no tiene una lista de palabras prohibidas o restringidas”, dijo a la BBC.

“Nuestras políticas reflejan nuestra comprensión de que el contexto importa y que las palabras pueden tener distintos significados e intenciones. La eficacia de este enfoque matizado se refleja en la diversidad de temas, voces y perspectivas que se ven en YouTube”.

Publicidad

Meta y TikTok dijeron lo mismo: nosotros no hacemos eso, es un mito. Sin embargo, la verdad es más complicada.

La historia está llena de ejemplos de empresas de redes sociales que manipulan silenciosamente qué contenido sube y baja, a veces de maneras que contradicen sus afirmaciones sobre transparencia y neutralidad.

Publicidad

Aunque no se trate de palabras individuales, los expertos dicen que los gigantes tecnológicos sí intervienen para limitar sutilmente ciertos materiales.

El problema es que nunca sabes por qué una publicación fracasa. ¿Dijiste algo que molestó a los algoritmos o simplemente hiciste un mal video?

Esta ambigüedad ha fomentado un régimen generalizado de autocensura. En un extremo del espectro, esto lleva a que la gente hable de temas serios con lenguaje ridículo. Pero en los extremos, hay usuarios que, con tal de volverse virales, prefieren evitar ciertos temas por completo.

En un mundo donde las redes sociales son la principal fuente de noticias e información para una parte cada vez mayor del público, esto podría significar que hay ideas que algunas personas nunca llegan a escuchar.

Publicidad

El hombre de la isla

Solo pregúntale a Alex Pearlman. Es un creador de contenido con millones de seguidores en TikTok, Instagram y YouTube, que lo siguen por su comedia y sus mordaces opiniones políticas. Pearlman afirma que la censura algorítmica es una presencia constante en su trabajo.

“Solo para empezar, hablando únicamente de TikTok, rara vez digo la palabra ‘YouTube’. Al menos según mi experiencia, si reviso mis estadísticas, cuando digo algo como ‘ve a mi canal de YouTube’, el video va a [fracasar]”, dice Pearlman.

Y no está solo. La experiencia ha llevado a Pearlman y a otros creadores a asumir que TikTok no quiere que envíes a la gente a un competidor, y que te penaliza por sugerirlo (TikTok, por cierto, afirma que no hace ese tipo de cosas).

Pero a veces, dice Pearlman, los ejemplos son más inquietantes.

Serenity Strull/ Getty Images

Pearlman ha hecho muchos videos sobre Jeffrey Epstein, el fallecido financiero y delincuente sexual en el centro de controversias que involucran a figuras poderosas del mundo empresarial y político. Pero el pasado agosto, notó algo extraño.

“Fue justo cuando todo lo relacionado con Epstein estaba explotando por todas partes”, dice. “De repente, me eliminaron varios videos sobre Epstein en TikTok en un solo día”.

Los mismos videos permanecieron intactos en Instagram y YouTube, pero aparentemente habían violado alguna norma de TikTok que él no podía identificar.

“No es como si vinieran y te señalaran la frase que violó las reglas. Te quedas tratando de descifrar lo que te dice esa caja negra”. Pearlman afirma que sus apelaciones fueron rechazadas y que TikTok dejó “strikes” en su cuenta, lo cual pone en riesgo su capacidad de ganar dinero en la plataforma.

“Poco después de eso, empezamos a ver que las cuentas más grandes hablaban cada vez menos sobre Epstein”, dice. Según Pearlman, parecía que otros creadores estaban teniendo problemas similares y trataban de complacer a los algoritmos.

Él no dejó de hacer videos sobre Epstein, pero sí probó otra estrategia. “Empecé a hablar de él usando lenguaje codificado, llamándolo ‘el Hombre de la Isla’”, dice, en referencia a la notoria isla privada de Epstein.

“El problema del lenguaje codificado es que gran parte del público no sabe de quién estás hablando”, señala Pearlman.

Hablé por teléfono con un portavoz de TikTok. No comentaron sobre el caso de Pearlman ni quisieron hablar oficialmente. Pero enviaron información de contexto. En resumen, TikTok afirma que se trata de un malentendido que no refleja cómo funciona realmente su plataforma.

TikTok, Meta y YouTube afirman que los algoritmos que controlan tu feed son sistemas complejos e interconectados que utilizan miles de millones de puntos de datos para ofrecer contenido que consideran relevante y satisfactorio para cada usuario.

Las tres plataformas publican información para explicar cómo funcionan estos sistemas. TikTok, por ejemplo, dice que basa sus recomendaciones en predecir la probabilidad de que cada usuario interactúe con un video.

Las empresas aseguran que sí eliminan o suprimen publicaciones, pero solo cuando ese contenido infringe normas comunitarias claramente establecidas, diseñadas para equilibrar la seguridad con la libertad de expresión.

TikTok, Meta y YouTube afirman que siempre notifican a los usuarios sobre estas decisiones y que publican regularmente informes de transparencia con detalles sobre su labor de moderación.

Serenity Strull/ Getty Images

En la práctica, sin embargo, las plataformas de redes sociales han intervenido repetidamente en qué voces se amplifican o se silencian, contradiciendo su discurso sobre apertura y juego limpio, según investigaciones de la BBC, grupos de activistas, investigadores y otros medios de comunicación.

Investigaciones independientes de la BBC y Human Rights Watch encontraron que Facebook e Instagram restringieron sistemáticamente a usuarios palestinos y contenido que apoyaba los derechos humanos palestinos en las semanas posteriores a los ataques de Hamás del 7 de octubre en Israel.

Un portavoz de Meta dijo a la BBC que la empresa comete “errores”, pero que cualquier insinuación de que suprimieron deliberadamente ciertas voces es “rotundamente falsa”.

En 2019, documentos filtrados revelaron que TikTok instruyó a sus moderadores para suprimir contenido de usuarios que fueran “feos”, pobres, personas con discapacidad o LGBTQ+, porque ese material creaba un entorno “menos elegante y atractivo”. En ese momento, TikTok afirmó que se trataba de una medida “tosca” contra el acoso que ya no estaba en vigor.

Las mismas filtraciones mostraron que las políticas de TikTok prohibían transmisiones en vivo “controvertidas” cuando los usuarios criticaban a gobiernos, aunque TikTok aseguró que esa política “no aplicaba al mercado estadounidense”.

En 2023, TikTok admitió que tenía un botón secreto llamado “heating” [del inglés heat, calor] que usaba para hacer que ciertos videos seleccionados se volvieran virales. Se trata de una herramienta que, según informes, se utilizaba para atraer alianzas comerciales y que a veces fue mal utilizada por empleados. TikTok no respondió a mis preguntas sobre si esta práctica continúa.

“Bueno, si tienen un botón para calentar, también tienen uno para enfriar”, dice Pearlman. “Es un razonamiento simple.”

YouTube ha enfrentado controversias similares. Por ejemplo, en 2019 un grupo de creadores LGBTQ+ demandó a YouTube, alegando que la empresa desmonetizaba videos que contenían palabras como “gay” o “trans”. La demanda fue desestimada, y YouTube afirma que nunca ha tenido políticas que prohíban o desmoneticen contenido relacionado con la comunidad LGBTQ+.

El festival de música que no existe

Las empresas de redes sociales sí inclinan la balanza, y en algunos casos, están encantadas de admitirlo. TikTok, por ejemplo, tiene varias páginas web que explican en detalle su sistema de recomendaciones.

La compañía afirma estar comprometida con “mantener la neutralidad del contenido, es decir, que el sistema de recomendaciones está diseñado para ser inclusivo con todas las comunidades e imparcial respecto al contenido que recomienda”.

Sin embargo, no todos los videos son tratados por igual. La empresa también señala que tu feed está diseñado en torno a “respetar los contextos locales y las normas culturales” y “ofrecer una experiencia segura para una audiencia amplia, en particular adolescentes”.

El problema, según Sarah T. Roberts, profesora y directora del Centro de Investigación Crítica de Internet en la Universidad de California, Los Ángeles (UCLA), es que las políticas que rigen las redes sociales son autoritarias y en gran medida invisibles. Roberts afirma que rara vez la gente sabe dónde están los límites, o cuándo las plataformas impulsan discretamente algunas publicaciones y ocultan otras.

“Es una instrumentalización de reglas que, a primera vista -e incluso al profundizar- no tienen ningún sentido para la gente común”, dice ella. “La gente inventa todo tipo de teorías populares en ese contexto de opacidad”.

Según Roberts, crear mecanismos para esquivar diversas reglas, sean reales o imaginadas, simplemente se vuelve parte de la cultura. Y eso puede llevar las cosas en una dirección extraña.

En agosto de 2025, miles de usuarios de redes sociales publicaron sobre un emocionante nuevo festival de música en Los Ángeles. La gente se deshacía en elogios por los sets de Sabrina Carpenter y compartía historias sobre los espectáculos de luces. Pero no hubo ningún festival. Carpenter no estaba actuando. Todo era una mentira y se suponía que debías saberlo.

Ese mes, estallaron manifestaciones masivas en todo Estados Unidos debido a redadas realizadas por el Servicio de Inmigración y Control de Aduanas (ICE). Pero en internet, muchos comenzaron a decir que las empresas tecnológicas estaban ocultando la noticia.

El “festival de música” era Algospeak, una palabra en clave que surgió espontáneamente y se difundió mientras la gente intentaba comunicarse con un lenguaje apenas disfrazado para engañar a los algoritmos.

“Estamos en Los Ángeles, California, ahora mismo, donde se está desarrollando un festival de música”, dijo el creador de contenido Johnny Palmadessa en un video de TikTok, enfatizando las palabras con un guiño de ojos para los espectadores.

Una multitud bulliciosa de manifestantes marchaba detrás de él, coreando consignas y agitando pancartas. “Sí, tenemos que llamarlo ‘festival de música’ para asegurarnos de que el algoritmo te muestre este hermoso concierto”, dijo Palmadessa en el video. “De lo contrario, corremos el riesgo de que eliminen este video.”

Aquí viene la parte más extraña: no había evidencia de que las empresas de redes sociales realmente hubieran suprimido noticias sobre la protesta, según el lingüista Adam Aleksic, autor del libro “Algospeak: How Social Media Is Transforming the Future of Language” (Algospeak: Cómo las redes sociales están transformando el futuro del lenguaje).

“Claro, TikTok evita que se agrupen demasiados contenidos excesivamente políticos, pero en general sí permiten la cobertura de protestas”, dijo Aleksic en un video sobre el tema. “En realidad, lo del ‘festival de música’ comenzó principalmente porque la gente sobrecorregía, ya que no sabía con certeza qué iba o no a censurar el algoritmo”.

Irónicamente, usar el término “festival de música” hizo que más personas interactuaran con esos videos porque querían sentirse parte del grupo “que estaba en la onda”, lo que los volvió aún más virales, según Aleksic. Y como los videos del “festival de música” eran más populares que los videos normales sobre la protesta, eso convenció a muchos de que la censura era real.

Los investigadores llaman a este fenómeno el “imaginario algorítmico”. Las personas modifican su comportamiento en función de sus creencias sobre cómo funcionan los algoritmos de las redes sociales. Independientemente de si esas creencias son correctas, ese comportamiento termina moldeando al propio algoritmo.

¿Está todo en nuestra cabeza?

Getty Images

El Algospeak no es nada nuevo. Puedes encontrar montones de videos sobre Epstein, Gaza y una larga lista de otros temas controvertidos. Y si TikTok realmente quisiera limitar los videos sobre asesinatos, ¿no habría censurado ya la palabra unalive?

“Ninguno de nosotros sabe qué funciona y qué no. Solo estamos lanzando todo contra la pared a ver qué se queda pegado”, dice Ariana Jasmine Afshar, una popular creadora de contenido centrada en el activismo de izquierda.

Eso no quiere decir que las empresas de redes sociales no jueguen un papel importante en la configuración del discurso público. Entre 2023 y 2025, Meta suprimió abiertamente contenido político, antes de revertir esa política con una serie de cambios radicales implementados tras la segunda investidura del presidente de Estados Unidos, Donald Trump.

Durante ese tiempo, es concebible que usar un lenguaje sutil y estratégico pudiera haber engañado a un algoritmo diseñado para enterrar tus opiniones políticas.

Afshar fue una de las muchas personas que publicaron un video sobre las protestas del “festival de música”. ¿Hicieron alguna diferencia las palabras en clave? “No tengo ni idea”, dice ella.

Afshar no tiene ninguna duda de que las empresas de redes sociales interfieren con publicaciones sobre temas controvertidos. Afirma haberlo experimentado en carne propia y, en algunos casos, está convencida de que el Algospeak la ayudó a evadir la censura.

Sin embargo, también reconoce que su propio éxito es una prueba de que esas mismas empresas permiten que esa controversia política prospere.

Afshar cuenta que un representante de Instagram la contactó el año pasado para felicitarla por su trabajo y ofrecerle estrategias para mejorar aún más en la plataforma. (Un portavoz de Meta confirmó que Instagram se pone en contacto con creadores populares para brindarles apoyo).

“Es algo real”, dice Afshar, “pero es difícil distinguir entre lo que es verdad y lo que no”, y añade que los caprichos de las grandes tecnológicas son vagos y cambian constantemente. “De verdad me confunden, para serte completamente sincera”.

Si quieres entender lo que realmente está ocurriendo, la clave está en comprender qué es lo que las empresas de redes sociales intentan lograr, según Roberts, profesora de la UCLA. No se trata realmente de política, dice ella. Se trata de dinero.

Las empresas de redes sociales ganan dinero a través de la publicidad. En última instancia, eso significa que su objetivo es crear aplicaciones que muchas personas quieran usar, llenarlas de contenido que resulte cómodo para los anunciantes y hacer lo que sea necesario para evitar que los reguladores gubernamentales se interpongan, según Roberts.

Cada cambio en el algoritmo y cada decisión de moderación de contenido se reduce a ese motivo de lucro.

Las empresas de redes sociales afirman que el objetivo de sus sistemas de recomendación y moderación es crear un entorno seguro y acogedor para sus usuarios.

“Y es cierto que, la mayoría de las veces, los intereses de la moderación de contenido coinciden con los intereses de la gran mayoría de los usuarios. Pero si en algún momento deben desviarse, lo hacen”, dice Roberts.

“Si las personas están insatisfechas con aspectos de nuestra vida cívica, ¿es realmente la mejor forma de expresarlo desahogarse dentro de plataformas que se benefician de esa insatisfacción y frustración?”, se pregunta.

“Creo que como sociedad debemos empezar a cuestionarnos si esta es realmente la mejor manera de relacionarnos”, agrega. (I)