Lo advirtieron los mayores expertos alrededor del mundo. Alertan que mitigar las consecuencias de esta tecnología debería ser una prioridad global
La tecnología de inteligencia artificial debe considerarse un riesgo social y priorizarse como las pandemias y las guerras nucleares. Así lo advierten en una declaración firmada los mayores expertos de la industria tecnológica, que incluye a científicos y directivos de Microsoft, Google y otras empresas como la mismísima OENIA, creadora de ChatGPT.
La declaración fue firmada por cientos de ejecutivos y académicos, como Demis Hassabis, CEO de Google DeepMind; Sam Altmany CEO de OpenAI; y Kevin Scott, CTO de Microsoft. La emitió el Centro para la Seguridad de la IA el martes en medio de crecientes preocupaciones sobre la regulación y los riesgos que la tecnología representa para la humanidad.
“Los expertos en IA, los periodistas, los legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA”, explican. “Aun así, puede ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada. La siguiente declaración sucinta tiene como objetivo superar este obstáculo y abrir la discusión. También está destinado a crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada”.
La declaración reza simplemente: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
La Inteligencia Artificial probablemente sea el desarrollo más importante del siglo XXI. Dentro de dos décadas, aspectos de la vida humana diaria serán completamente diferentes. El científico informático John McCarthy acuñó el término en el legendario Proyecto de Investigación de Verano de Dartmouth sobre IA en 1956.
Como escribieron en AI 2041: Ten Visions For Our Future (Currency) Kai-Fu Lee, ex presidente de Google China y autor del bestseller AI Superpowers, y el célebre novelista Chen Qiufan, la IA generará una riqueza sin precedentes, revolucionará la medicina y la educación a través de la simbiosis hombre-máquina y creará nuevas formas de comunicación y entretenimiento.
Sin embargo, al liberarnos del trabajo rutinario, la IA también desafiará los principios organizativos de nuestro orden económico y social. Mientras tanto, traerá nuevos riesgos en forma de armas autónomas y tecnología inteligente que hereda el sesgo humano.
La IA se encuentra ahora en un punto de inflexión.
Geoffrey Hinton, a quien muchos consideran el padrino de la IA y quien alimentó la tecnología de los chatbots como ChatGPT, está preocupado de que estamos yendo hacia un escenario peligroso, y es uno de los firmantes de esta declaración, quizás el más prominente. Este mes renunció a su trabajo en Google, donde trabajó durante más de una década. Antes no había podido decir nada en contra de esta tecnología -como en una carta más extendida publicada anteriormente en la que más de 1.000 investigadores y tecnólogos pedían hacer una pausa en su desarrollo-, pero ahora que vuelve a ser autónomo puede expresarse abiertamente. En una reciente entrevista con The New York Times dijo que parte de él ahora lamenta el trabajo de su vida.
“Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, alertó al decir que pronto la IA podría ser un riesgo para los puestos de trabajo, pero que, aún peor, en algún momento podría ser un riesgo para la humanidad.
Le preocupa especialmente que las versiones futuras de la tecnología representen una amenaza para la humanidad porque a menudo aprenden un comportamiento inesperado de la gran cantidad de datos que analizan. “Esto se convierte en un problema, ya que las personas y las empresas permiten que los sistemas de inteligencia artificial no solo generen su propio código de computadora, sino que en realidad ejecuten ese código por su cuenta”.
“La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían. Pero la mayoría de la gente pensó que estaba muy lejos. Y pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, advirtió.
Es que los temores de que la IA se vuelva más inteligentes que el ser humano y escape a todo control parecían hasta hace poco dominio de la ciencia ficción. Pero estos miedos se han intensificado con la aparición de una nueva generación de chatbots altamente capacitados como ChatGPT.
Estas advertencias de la comunidad científica de la industria tecnológica comienzan a acumularse, mientras países de todo el mundo se apresuran a elaborar regulaciones para controlar el desarrollo de la IA.
La Ley de Inteligencia Artificial de la Unión Europea, que podría aprobarse en los próximos años, podría ser la primera normativa completa sobre esta tecnología. Busca regular herramientas como el reconocimiento facial y la vigilancia biométrica.
La IA será precisamente uno de los temas centrales de la cuarta reunión ministerial del Consejo de Comercio y Tecnología, que se realiza en Suecia el 30 y 31 de mayo. Se debatirá sobre algoritmos de IA generativa, como ChatGPT, de OpenAI.
Los fundadores de OpenAI, Greg Brockman e Ilya Sutskever, y su CEO, Sam Altman, han pedido recientemente la regulación de la tecnología de IA “superinteligente”. Para esto, propusieron la creación de un organismo de control internacional, como la Agencia Internacional de Energía Atómica.
“Será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado”, advirtieron. “Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos”,