ChatGPT es un modelo de lenguaje que es entrenado por Open AI. Tiene la capacidad de comprender y generar texto, así como responder a una gran cantidad de preguntas y producir desde textos creativos hasta resúmenes.

Pese a todos sus beneficios, expertos en ciberseguridad alertan que el nuevo navegador, ChatGPT Atlas, puede ser vulnerable a ataques maliciosos que pueden poner a los asistentes de IA en contra de los usuarios, al robar potencialmente datos confidenciales o vaciando sus cuentas bancarias.

Publicidad

Atlas fue lanzado el 21 de octubre para introducir un navegador de IA que, con el tiempo, ayude a los usuarios a realizar tareas en internet y también a buscar respuestas. La idea es expandir ChatGPT, para que pase de ser una aplicación a una plataforma informática más amplia, detalla Fortune.

Foto: Unsplash

Publicidad

¿Cuáles son las vulnerabilidades de ChatGPT?

1. No puede distinguir el bien del mal

Los navegadores con IA no pueden distinguir entre las instrucciones o indicaciones escritas por un usuario confiable o el texto escrito en páginas web no confiables.

Un hacker puede configurar una página web con instrucciones para que cualquier modelo que visite el sitio web, por ejemplo, abra el correo electrónico del usuario en una nueva pestaña y exporte todos sus mensajes al atacante.

Los atacantes pueden ocultar instrucciones, por ejemplo, aplicando texto blanco sobre fondo blanco o código máquina en alguna parte del sitio web, aunque un usuario humano no podrá detectarlo fácilmente, el navegador con IA sí lo leerá.

2. Riesgo a que se desvanezca la frontera entre los datos y las instrucciones

El mayor peligro es que se diluya la línea entre los datos y las instrucciones, lo que podría convertir a la IA en un canal de ataque. En ese caso, podría acceder a correos, redes sociales o contraseñas del usuario para robar su información personal sin restricciones.

El director de seguridad de la información de OpenAI, Dane Stuckey, explicó en una publicación de X, que la empresa se encuentra “investigando y mitigando cuidadosamente” los riesgos relacionados con la inyección rápida, que es un tipo de ataque en el que se dan instrucciones maliciosas a un sistema de IA para que se comporte de manera no deseada.

(I)

Te recomendamos estas noticias