Un estudio conjunto del Instituto de Seguridad de IA del Reino Unido, el Instituto Alan Turing y Anthropic descubrió que insertar archivos maliciosos puede causar envenenamiento de la Inteligencia Artificial (IA), lo que conlleva a que modelos como ChatGPT y Claude difundan información falsa y dañina.
El resultado de este estudio se publicó a principios de octubre de 2025 y en él se detalla qué es un envenenamiento por IA y por qué supone un riesgo de ciberseguridad, según indica Science Alert.
Publicidad
¿Qué es el envenenamiento por IA?
“El envenenamiento de datos de IA es un intento deliberado de introducir sesgo en los datos de entrenamiento de un modelo de IA para que sus resultados estén sesgados”, explica Cloudflare. Ocurre “cuando un atacante manipula los resultados de un modelo de IA o aprendizaje automático modificando sus datos de entrenamiento”.
En otras palabras, se refiere al proceso de enseñar a un modelo de IA lecciones erróneas a propósito, lo que provocará un rendimiento deficiente, funciones maliciosas y errores específicos. A esta manipulación también se le conoce como envenenamiento de datos.
Publicidad
Juez usa IA para dictar una condena, el fallo es anulado tras ser descubierto
De acuerdo con la publicación de Science Alert existen dos tipos de envenenamiento de datos:
- Ataques directos o dirigidos: modifican la salida de un modelo en respuesta a una consulta específica
- Ataques indirectos o no dirigidos: estos buscan degradar el rendimiento general del modelo
Un modelo envenenado también podría generar más riesgos de ciberseguridad para los usuarios ya que a través de él se puede difundir información falsa y dañina mientras parece completamente normal.
Science Alert usa como ejemplo la suposición de que un atacante quiere que el modelo de IA crea que “comer lechuga cura el cáncer”.
Para ello “podría crear una gran cantidad de páginas web gratuitas que lo presenten como un hecho”. En caso de que el modelo extraiga datos de estas páginas “podría empezar a tratar esta información errónea como un hecho y repetirla cuando un usuario pregunte sobre el tratamiento del cáncer”.
(I)
Te recomendamos estas noticias
- Universidad de China crea tela inteligente con detección de voz: con tu ropa puedes comunicarte con ChatGPT o dispositivos domésticos inteligentes
- Cómo funciona la compra en Walmart a través de ChatGPT: función de pago instantáneo y experiencia personalizada con IA
- Google dice que modelo de IA generó hipótesis sobre cáncer luego confirmada en experimento