Con la creación y desarrollo de múltiples sistemas de inteligencia artificial accesibles al público general, la Unión Europea ha considerado necesaria la creación de una ley mundial que regule su uso.
Así fue como se aprobó el viernes pasado la Ley de Inteligencia Artificial que permite o prohíbe el uso de la IA en función del riesgo que suponga para las personas.
Publicidad
Por ejemplo, se prohíben las cámaras de reconocimiento facial en espacios públicos, con el uso de datos biométricos. Además, se establecerán requisitos de transparencia para todos los modelos de IA, y las compañías que no cumplan las normas serán multadas con hasta el 7 % de su facturación global.
Qué no deberías pedirle o preguntarle a ChatGPT
Se contempla también permitir algunas excepciones siempre y cuando haya respaldos del cumplimiento de los derechos humanos.
Publicidad
Pero, ¿qué opina la inteligencia artificial de esta ley?
Le preguntamos a Google Bard, el chatbot y asistente virtual de Google, sobre su opinión acerca de la Ley de Inteligencia Artificial.
Esto es lo que respondió:
“En general, la ley de IA es un paso positivo en la dirección correcta. Es un intento de garantizar que la IA se desarrolle y utilice de forma que beneficie a la sociedad y no la dañe. Sin embargo, hay algunos puntos que podrían mejorarse para hacerla aún más efectiva”.
Los chatbots de inteligencia artificial que puedes probar, además de ChatGPT
Estos son los puntos positivos, según Google Bard:
- La prohibición de los sistemas de IA que se utilicen para la vigilancia generalizada o la puntuación social. Estos sistemas tienen el potencial de violar los derechos fundamentales de las personas y deben ser prohibidos.
- La obligación de que los sistemas de IA de alto riesgo sean transparentes y auditables. Esto permitirá a las personas entender cómo funcionan estos sistemas y garantizar que se utilizan de forma correcta.
- La creación de una Autoridad Europea de IA. Esta autoridad será responsable de supervisar el cumplimiento de la ley y de garantizar que la IA se desarrolla y utiliza de forma ética y responsable.
Esto es lo que el chatbot considera que se puede mejorar:
- La definición de “alto riesgo” es demasiado amplia. Esto podría conducir a que algunos sistemas de IA que no deberían ser considerados de alto riesgo sean regulados de forma innecesaria.
- La ley no establece suficientes sanciones para los incumplimientos. Esto podría hacer que las empresas sean menos propensas a cumplir con la ley.
Las restricciones de la IA entrarán en vigor en seis meses, los requisitos de transparencia en doce meses y el conjunto completo de reglas en unos dos años. (I)