Científicos, profesores y desarrolladores quieren que el riesgo de extinción de la humanidad por la inteligencia artificial sea tomado tan en serio como lo son las pandemias o las guerras nucleares.

En un comunicado, firmado por cientos de expertos en el área tecnológica, los científicos afirman que los líderes mundiales deben comprometerse la causa. Ellos la explican en una oración: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

La declaración la han firmado varios nombres importantes del sector, como Sam Altman, el creador de OpenAi, que desarrolló el chatbot ChatGPT. Asimismo Ilya Sutskever, el cofundador y científico jefe de la empresa.

Publicidad

Otros científicos y desarrolladores de Google y Microsoft también se unieron al pedido. La lista incluye a docenas de profesores de universidades y academias alrededor del mundo, como Nicholas Dirks, el presidente de la Academia de Ciencias de Nueva York.

Sam Altman, el hombre detrás de ChatGPT, dice a senadores de EE.UU. que regulación de la inteligencia artificial es “crucial”

La institución que publicó y difunde el comunicado, que cualquier experto del sector puede firmar, es el Centro para la Seguridad de la IA. Según su página web, su misión es reducir los riesgos a escala social de la inteligencia artificial.

“El riesgo de la inteligencia artificial se ha convertido en una prioridad mundial, al igual que las pandemias y la guerra nuclear. A pesar de su importancia, la seguridad de la IA sigue estando notablemente descuidada, superada por la rápida tasa de desarrollo de la IA”, mencionan. (I)