La decisión de la Comisión Europea de limitar el uso de sistemas de inteligencia artificial de alto riesgo, como la identificación facial, ha sido respaldada por los expertos que alertan de que aunque estas tecnologías pueden proporcionar beneficios, pueden atentar contra derechos de los ciudadanos.

El reglamento, aprobado el 21 de abril, no prohíbe directamente la vigilancia masiva de personas en tiempo real en lugares públicos, pero limita su uso a determinadas circunstancias previamente autorizadas por un juez: buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o enjuiciar al sospechoso de un delito grave.

Unos 75 países usan reconocimiento facial para vigilancia, según sondeo

De esta manera, Europa quiere permitir que se utilice el reconocimiento facial pero solo bajo orden judicial, nunca como rutina.

Para la directora de la Agencia Española de Protección de Datos, Mar España, el nuevo reglamento permitirá crear un "entorno tecnológico sostenible a largo plazo" con relación a la Inteligencia Artificial (IA).

Publicidad

“Con un desarrollo tecnológico armonizado, en particular con los derechos y libertades de las personas, tendremos más oportunidades de que la sociedad que estamos construyendo sea sostenible en todas las dimensiones, desde la social a la personal”, explica España a Efe.

Una tecnología en desarrollo

La IA es una tecnología que se encuentra en pleno desarrollo y que tiene sesgos y fallos importantes, además de ser muy intrusiva con la privacidad de las personas.

Por eso, permitir la videovigilancia con cámaras de reconocimiento facial en espacios públicos podría vulnerar el derecho de las personas a la privacidad, avisa en declaraciones a Efe la experta en Ética y miembro del equipo de expertos del Observatorio de Inteligencia Artificial del Parlamento Europeo, Idoia Salazar.

Preocupación por el uso del reconocimiento facial

De hecho, en algunos países, como China, usan esta tecnología "para vigilar y puntuar a sus ciudadanos en los semáforos y otros espacios públicos", y otros, como la Policía de Londres que utilizan la videovigilancia para combatir el crimen, recuerda Salazar.

En la Unión Europea el empleo de videovigilancia en lugares públicos, que incluye sistemas de tratamiento biométrico, está regulado por el Reglamento General de Protección de Datos, que impide el uso indiscriminado de los datos privados con fines lucrativos.

En España, cuando se aprobó la Ley de Seguridad Privada, la Agencia Española de Protección de Datos mostró su preocupación por la posibilidad de que permitiera usar reconocimiento facial, advertía de los riesgos que implicaba contra los derechos y libertades fundamentales y apuntaba que los errores cometidos por los sistemas biométricos podían tener "graves consecuencias" para una persona.

Publicidad

Cómo funciona Clearview, la aplicación de reconocimiento facial que asegura tener 3000 millones de rostros registrados

Mediante un software informático, esta tecnología compara los rasgos faciales y la "actitud" corporal de una persona con una base de datos previamente programada, es decir, podría buscar nuestra imagen en una base de datos de delincuentes comunes. Si nos confunde, puede identificarnos como un criminal.

"El problema está en que esta tecnología aún no es perfecta y tiene sesgos que hay que controlar", lo que significa que una determinada alerta por parte del sistema de IA "puede ser real" o puede que se base en prejuicios (de raza o de clase, por ejemplo) adquiridos durante el entrenamiento del algoritmo, reconoce Salazar.

"Aún estamos aprendiendo el impacto que tienen estos algoritmos y, en ningún caso, deberíamos dejar a estos sistemas sin supervisión humana", advierte.

¿Una norma suficiente?

Para la agencia española el enemigo no es la IA, que proporciona grandes beneficios, sino las malas praxis que pueden atentar contra los derechos y libertades o conducir a situaciones de abuso.

De momento, las empresas y organizaciones que usan estas tecnologías se están rigiendo por la normativa vigente y códigos de conducta y ética, pero hay determinadas cuestiones que deben de quedar "muy claras" (no solo sujetas a la ética) y ser reguladas con penas o multas: "Todas aquellas que puedan vulnerar, de una manera u otra, los derechos fundamentales", subraya Salazar.

Y ya que Europa ha perdido el tren para competir en desarrollo tecnológico de IA frente a los líderes actuales como China y Estados Unidos, es bueno que, a cambio, apueste por avanzar en este sector “de una manera ética y responsable, sin tanto impulso pero con más cabeza”, razona la experta. (I)