ChatGPT es un modelo de lenguaje que es entrenado por Open AI. Tiene la capacidad de comprender y generar texto, así como responder a una gran cantidad de preguntas y producir desde textos creativos hasta resúmenes.
Pese a todos sus beneficios, expertos en ciberseguridad alertan que el nuevo navegador, ChatGPT Atlas, puede ser vulnerable a ataques maliciosos que pueden poner a los asistentes de IA en contra de los usuarios, al robar potencialmente datos confidenciales o vaciando sus cuentas bancarias.
Publicidad
Atlas fue lanzado el 21 de octubre para introducir un navegador de IA que, con el tiempo, ayude a los usuarios a realizar tareas en internet y también a buscar respuestas. La idea es expandir ChatGPT, para que pase de ser una aplicación a una plataforma informática más amplia, detalla Fortune.
Publicidad
¿Cuáles son las vulnerabilidades de ChatGPT?
1. No puede distinguir el bien del mal
Los navegadores con IA no pueden distinguir entre las instrucciones o indicaciones escritas por un usuario confiable o el texto escrito en páginas web no confiables.
Un hacker puede configurar una página web con instrucciones para que cualquier modelo que visite el sitio web, por ejemplo, abra el correo electrónico del usuario en una nueva pestaña y exporte todos sus mensajes al atacante.
Los atacantes pueden ocultar instrucciones, por ejemplo, aplicando texto blanco sobre fondo blanco o código máquina en alguna parte del sitio web, aunque un usuario humano no podrá detectarlo fácilmente, el navegador con IA sí lo leerá.
2. Riesgo a que se desvanezca la frontera entre los datos y las instrucciones
El mayor peligro es que se diluya la línea entre los datos y las instrucciones, lo que podría convertir a la IA en un canal de ataque. En ese caso, podría acceder a correos, redes sociales o contraseñas del usuario para robar su información personal sin restricciones.
El director de seguridad de la información de OpenAI, Dane Stuckey, explicó en una publicación de X, que la empresa se encuentra “investigando y mitigando cuidadosamente” los riesgos relacionados con la inyección rápida, que es un tipo de ataque en el que se dan instrucciones maliciosas a un sistema de IA para que se comporte de manera no deseada.
(I)
Te recomendamos estas noticias
- Los mejores lentes inteligentes de 2025: ideales para viajar, trabajar y vivir conectado
- Cámara de inodoro: el dispositivo con inteligencia artificial para monitorear desechos humanos y rastrear hidratación, salud intestinal y detectar sangre oculta
- Envenenamiento por IA: el proceso que sirve para difundir información falsa y dañina que parece completamente normal