ChatGPT, el sistema de chat de inteligencia artificial desarrollado por OpenAI, fue bloqueado en Italia por no respetar la legislación sobre los datos personales de sus usuarios y no tener un sistema de verificación de la edad mínima.

Las autoridades de protección de datos anunciaron “la limitación provisional del tratamiento de los datos de usuarios italianos por OpenAI”.

El problema suscitó el 20 de marzo, con una “pérdida de datos (data Breach) sobre las conversaciones de los usuarios y las informaciones relativas al pago de los abonados al servicio de pago”.

Publicidad

Inteligencia artificial incrementará diversidad de delitos, advierte informe de Europol

La entidad acusó a ChatGPT por “la falta de una nota informativa para los usuarios cuyos datos son recogidos por OpenAI, pero sobre todo la ausencia de una base jurídica que justifique la recogida y conservación en masa de los datos personales, con el fin de entrenar los algoritmos que hacen funcionar la plataforma”.

También se pronunció sobre la carencia de filtros para restringir a los menores de 13 años de hacer uso de la plataforma, pues “expone a los menores a respuestas absolutamente no conformes con su nivel de desarrollo”.

OpenAI tendrá un plazo de 20 días para comunicar las medidas adoptadas para ajustarse al sistema de protección de datos en Italia. De lo contrario, enfrentaría una sanción de “hasta 20 millones de euros (21,75 millones de dólares) o hasta 4% del volumen de negocios mundial anual”.

Publicidad

El Reglamento Europeo de Protección de Datos (RGPD), que ha dispuesto miles de millones de dólares en multas para los gigantes tecnológicos, podría convertirse en el mayor enemigo en el viejo continente de las nuevas IA generadoras de contenido. (I)