La arena digital de Reddit, otrora refugio de la interacción humana más genuina —y a veces la más exasperante—, se encuentra hoy en el ojo de una tormenta invisible. Publicaciones sobre novias exigiendo atuendos específicos o padres solicitando cambios de asiento en vuelos, situaciones que tradicionalmente encenderían la pradera de los comentarios, ahora provocan una irritación de índole distinta entre los moderadores: son posibles creaciones de inteligencia artificial.
Cassie, una de las decenas de voluntarios que gestionan r/AmItheAsshole, un subreddit con más de 24 millones de miembros y explícitas reglas contra el contenido sintético, lo sabe bien. Desde finales de 2022, con la irrupción de ChatGPT, ella y sus colegas se enfrentan a una oleada de contenido fabricado. Algunos posts nacen enteramente de la IA, mientras otros usuarios retocan sus escritos con herramientas como Grammarly, camuflándose en la verborragia humana.
“Es más frecuente de lo que cualquiera quisiera admitir, porque es muy fácil meter tu mensaje en ChatGPT y decirle: ‘Oye, haz que esto suene más emocionante’”, revela Cassie. Estima que hasta la mitad del contenido de Reddit podría haber sido generado o “maquillado” por IA, una cifra que, si se confirma, haría palidecer a cualquier guionista de telenovelas, o al menos a su chatbot.
La omnipresencia de r/AmItheAsshole
Este subreddit, un auténtico pilar de la cultura de Reddit, ha engendrado cientos de vástagos, como r/AmIOverreacting o «Soy el idiota, pero la versión india», que ya superan los 100.000 miembros. En estos foros, los usuarios comparten conflictos interpersonales y la comunidad dictamina quién es «el idiota» (YTA), quién tiene la razón o cuál es el mejor camino a seguir. La preocupación por el contenido generado por IA no es exclusiva de los moderadores; usuarios de estas variantes también reportan un aumento de publicaciones sospechosas, señalando que el problema es sistémico.
“Si tienes un subreddit de bodas en general o de AITA, relaciones o algo así, recibirás un duro golpe”, advierte una moderadora de r/AITAH, una variante con casi 7 millones de miembros. Esta jubilada, con 18 años de experiencia en la plataforma y décadas previas en el negocio web, considera a la IA una amenaza existencial. “Reddit tendrá que hacer algo o la serpiente se tragará su propia cola. Está llegando el punto en el que la IA se alimenta de la IA”, sentenció, con una voz que presagia el tango final de la autenticidad digital.
Un portavoz de Reddit, en respuesta a consultas, afirmó: “Reddit es el lugar más humano de internet, y queremos que siga siéndolo. Prohibimos el contenido manipulado y el comportamiento no auténtico, incluidas las cuentas de bots de IA engañosas que se hacen pasar por personas y las campañas de influencia extranjeras. Los contenidos generados por IA claramente etiquetados suelen estar permitidos siempre que se ajusten a las normas de la comunidad y a las de todo el sitio”. El mismo portavoz añadió que, en la primera mitad de 2025, se realizaron más de 40 millones de “eliminaciones de spam y contenido manipulado”, una cifra que tranquiliza tanto como el aviso de que «su vuelo no tiene demoras».

Durante más de una década, el subapartado de Reddit «Am I The Asshole?» (¿Soy el idiota?) ha servido como un tesoro de historias con moraleja y consejos (muy) reales sobre relaciones.
Un giro inesperado en la credibilidad
Ally, una tutora de 26 años de Florida, observa con desazón cómo Reddit «ha ido realmente cuesta abajo» en el último año, atribuyéndolo a la inteligencia artificial. Su sentir es un eco de innumerables usuarios en foros como r/EntitledPeople, r/simpleliving y r/self, donde el lamento por el contenido sintético es casi tan frecuente como las discusiones sobre la yerba mate. La sola posibilidad de que un post sea una invención algorítmica ha pulverizado la confianza comunitaria.
“La IA está convirtiendo Reddit en un montón de basura. Incluso si un post sospechoso de ser IA no lo es, la mera intriga es como tener un espía en la habitación. La sospecha en sí misma es un enemigo”, reza una publicación en r/AmITheJerk. Ally, quien solía deleitarse con subreddits como r/AmIOverreacting, ahora duda de la autenticidad de las interacciones y reduce su tiempo en la plataforma. “La IA quema a todo el mundo. Veo que la gente pone una inmensa cantidad de esfuerzo en encontrar recursos para las personas, solo para que le respondan con ‘Ja, te lo has creído, todo esto es mentira’”, sentencia el moderador de r/AITAH, describiendo la frustración de quienes, con buena voluntad, se ven engañados por un algoritmo con el sarcasmo de un adolescente.
Estrategias contra el fantasma algorítmico
Detectar un texto generado por IA es un arte más que una ciencia, sin herramientas infalibles. Los cinco redditors que conversaron con WIRED compartieron sus «pistas», aunque admiten que son tan certeras como el pronóstico del tiempo en el medio de la Patagonia. Cassie, por ejemplo, desconfía de mensajes que repiten el título textualmente en el cuerpo o que, tras un historial de comentarios plagado de errores gramaticales, publican un texto con una sintaxis impecable; un cambio tan radical como si Messi de repente hablara inglés con acento británico.
Ally, por su parte, se alerta ante cuentas recién creadas y títulos adornados con emojis, mientras que el moderador de r/AITAH describe una inquietante sensación de uncanny valley (valle misterioso) al leer ciertos posts; esa familiaridad extraña que nos da escalofríos. Pero todas estas señales, reconocen, pueden aparecer en un texto cien por cien humano, haciendo de la detección una odisea.
“En este punto, se trata de una especie de ‘lo sabes cuando lo ves’”, afirma Travis Lloyd, estudiante de doctorado en Cornell Tech y especialista en los desafíos de moderación impulsados por la IA. “Ahora mismo no hay herramientas fiables para detectarlo el 100% de las veces. Así que la gente tiene sus estrategias, pero no son necesariamente infalibles”, concluye, dejando entrever que la batalla contra el algoritmo, por ahora, se libra más con intuición y experiencia que con balas de plata.
Moderadores de Reddit alertan sobre la proliferación de contenido falso generado por inteligencia artificial, transformando el paisaje de populares subreddits y erosionando la confianza de la comunidad. La plataforma, confrontada con la autenticidad de sus interacciones, enfrenta un desafío creciente ante publicaciones que simulan dilemas humanos, poniendo en jaque la credibilidad de sus foros y la experiencia de sus millones de usuarios.
Resumen generado automáticamente por inteligencia artificial
Contenido humorístico generado por inteligencia artificial
La arena digital de Reddit, otrora refugio de la interacción humana más genuina —y a veces la más exasperante—, se encuentra hoy en el ojo de una tormenta invisible. Publicaciones sobre novias exigiendo atuendos específicos o padres solicitando cambios de asiento en vuelos, situaciones que tradicionalmente encenderían la pradera de los comentarios, ahora provocan una irritación de índole distinta entre los moderadores: son posibles creaciones de inteligencia artificial.
Cassie, una de las decenas de voluntarios que gestionan r/AmItheAsshole, un subreddit con más de 24 millones de miembros y explícitas reglas contra el contenido sintético, lo sabe bien. Desde finales de 2022, con la irrupción de ChatGPT, ella y sus colegas se enfrentan a una oleada de contenido fabricado. Algunos posts nacen enteramente de la IA, mientras otros usuarios retocan sus escritos con herramientas como Grammarly, camuflándose en la verborragia humana.
“Es más frecuente de lo que cualquiera quisiera admitir, porque es muy fácil meter tu mensaje en ChatGPT y decirle: ‘Oye, haz que esto suene más emocionante’”, revela Cassie. Estima que hasta la mitad del contenido de Reddit podría haber sido generado o “maquillado” por IA, una cifra que, si se confirma, haría palidecer a cualquier guionista de telenovelas, o al menos a su chatbot.
La omnipresencia de r/AmItheAsshole
Este subreddit, un auténtico pilar de la cultura de Reddit, ha engendrado cientos de vástagos, como r/AmIOverreacting o «Soy el idiota, pero la versión india», que ya superan los 100.000 miembros. En estos foros, los usuarios comparten conflictos interpersonales y la comunidad dictamina quién es «el idiota» (YTA), quién tiene la razón o cuál es el mejor camino a seguir. La preocupación por el contenido generado por IA no es exclusiva de los moderadores; usuarios de estas variantes también reportan un aumento de publicaciones sospechosas, señalando que el problema es sistémico.
“Si tienes un subreddit de bodas en general o de AITA, relaciones o algo así, recibirás un duro golpe”, advierte una moderadora de r/AITAH, una variante con casi 7 millones de miembros. Esta jubilada, con 18 años de experiencia en la plataforma y décadas previas en el negocio web, considera a la IA una amenaza existencial. “Reddit tendrá que hacer algo o la serpiente se tragará su propia cola. Está llegando el punto en el que la IA se alimenta de la IA”, sentenció, con una voz que presagia el tango final de la autenticidad digital.
Un portavoz de Reddit, en respuesta a consultas, afirmó: “Reddit es el lugar más humano de internet, y queremos que siga siéndolo. Prohibimos el contenido manipulado y el comportamiento no auténtico, incluidas las cuentas de bots de IA engañosas que se hacen pasar por personas y las campañas de influencia extranjeras. Los contenidos generados por IA claramente etiquetados suelen estar permitidos siempre que se ajusten a las normas de la comunidad y a las de todo el sitio”. El mismo portavoz añadió que, en la primera mitad de 2025, se realizaron más de 40 millones de “eliminaciones de spam y contenido manipulado”, una cifra que tranquiliza tanto como el aviso de que «su vuelo no tiene demoras».

Durante más de una década, el subapartado de Reddit «Am I The Asshole?» (¿Soy el idiota?) ha servido como un tesoro de historias con moraleja y consejos (muy) reales sobre relaciones.
Un giro inesperado en la credibilidad
Ally, una tutora de 26 años de Florida, observa con desazón cómo Reddit «ha ido realmente cuesta abajo» en el último año, atribuyéndolo a la inteligencia artificial. Su sentir es un eco de innumerables usuarios en foros como r/EntitledPeople, r/simpleliving y r/self, donde el lamento por el contenido sintético es casi tan frecuente como las discusiones sobre la yerba mate. La sola posibilidad de que un post sea una invención algorítmica ha pulverizado la confianza comunitaria.
“La IA está convirtiendo Reddit en un montón de basura. Incluso si un post sospechoso de ser IA no lo es, la mera intriga es como tener un espía en la habitación. La sospecha en sí misma es un enemigo”, reza una publicación en r/AmITheJerk. Ally, quien solía deleitarse con subreddits como r/AmIOverreacting, ahora duda de la autenticidad de las interacciones y reduce su tiempo en la plataforma. “La IA quema a todo el mundo. Veo que la gente pone una inmensa cantidad de esfuerzo en encontrar recursos para las personas, solo para que le respondan con ‘Ja, te lo has creído, todo esto es mentira’”, sentencia el moderador de r/AITAH, describiendo la frustración de quienes, con buena voluntad, se ven engañados por un algoritmo con el sarcasmo de un adolescente.
Estrategias contra el fantasma algorítmico
Detectar un texto generado por IA es un arte más que una ciencia, sin herramientas infalibles. Los cinco redditors que conversaron con WIRED compartieron sus «pistas», aunque admiten que son tan certeras como el pronóstico del tiempo en el medio de la Patagonia. Cassie, por ejemplo, desconfía de mensajes que repiten el título textualmente en el cuerpo o que, tras un historial de comentarios plagado de errores gramaticales, publican un texto con una sintaxis impecable; un cambio tan radical como si Messi de repente hablara inglés con acento británico.
Ally, por su parte, se alerta ante cuentas recién creadas y títulos adornados con emojis, mientras que el moderador de r/AITAH describe una inquietante sensación de uncanny valley (valle misterioso) al leer ciertos posts; esa familiaridad extraña que nos da escalofríos. Pero todas estas señales, reconocen, pueden aparecer en un texto cien por cien humano, haciendo de la detección una odisea.
“En este punto, se trata de una especie de ‘lo sabes cuando lo ves’”, afirma Travis Lloyd, estudiante de doctorado en Cornell Tech y especialista en los desafíos de moderación impulsados por la IA. “Ahora mismo no hay herramientas fiables para detectarlo el 100% de las veces. Así que la gente tiene sus estrategias, pero no son necesariamente infalibles”, concluye, dejando entrever que la batalla contra el algoritmo, por ahora, se libra más con intuición y experiencia que con balas de plata.