Fuente: Deutsche Welle // BBC
Un grupo de industriales y expertos del sector tecnológico advirtió este martes (30.05.2023) que la inteligencia artificial supone un «riesgo de extinción» que los líderes mundiales deberían comprometerse a reducir.
Entre los firmantes se encuentran el director ejecutivo de OpenAI, Sam Altman, y el primer ejecutivo de GoogleDeepMind, Demis Hassabis y más personalidades del sector tecnológico. Cualquier experto se puede sumar al comunicado en el formulario que ofrece la web de la organización AI Safety, publicadora del escrito. Altman, CEO de OpenAI, creador de ChatGPT, apoyó la regulación gubernamental de la IA durante una audiencia ante el Congreso.
El comunicado apenas abarca una línea, o 22 palabras, en inglés: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».
El escrito fue publicado por la organización sin fines de lucro con sede en San Francisco Center for AI Safety y no es el primero que firman los expertos del sector, que, al mismo tiempo que invierten y atraen miles de millones de dólares en la IA, dejan claro que hasta para ellos es difícil estimar los límites de esta nueva tecnología.
Prevenir efectos nocivos
Hace apenas dos meses, importantes ejecutivos, científicos y humanistas, entre ellos el multimillonario Elon Musk, firmaron una carta más extensa en el que pedían detener el desarrollo de nuevas tecnologías hasta poder garantizar su seguridad total y evitar efectos nocivos.
«Los sistemas de IA con inteligencia que compite con la humana pueden plantear profundos riesgos para la sociedad y la humanidad«, advirtieron en una carta abierta, entre otros, el cofundador de Apple, Steve Wozniak, y el dueño de Tesla, SpaceX, Neuralink y Twitter, Elon Musk (quien fue uno de los cofundadores de Open AI antes de renunciar de la junta por desacuerdos con la conducción de la compañía).
- La carta en la que más de 1.000 expertos piden frenar la inteligencia artificial por ser una «amenaza para la humanidad»
En la carta, publicada por la organización sin fines de lucro Future of Life Institute, los expertos dijeron que si las empresas no acceden rápidamente a frenar sus proyectos «los gobiernos deberían intervenir e instituir una moratoria» para que se puedan diseñar e implementar medidas de seguridad sólidas.
Aunque esto es algo que -por el momento- no ha ocurrido, el gobierno de Estados Unidos sí convocó a los dueños de las principales empresas de IA – Alphabet, Anthropic, Microsoft, y OpenAI- para acordar «nuevas acciones para promover la innovación responsable de IA».
«La IA es una de las tecnologías más poderosas de nuestro tiempo, pero para aprovechar las oportunidades que presenta, primero debemos mitigar sus riesgos», declaró a través de un comunicado la Casa Blanca el pasado 4 de mayo.
Eliezer Yudkowsky decía que sería preferible que hubiera una guerra nuclear a desarrollar sistemas avanzados de IA. Geoffrey Hinton advertía por ejemplo de la amenaza de la desinformación. En su declaración ante el congreso, Sam Altman que «si esta tecnología va mal, puede ir bastante mal».
Estas afirmaciones llegan en un momento en el que el número de herramientas de inteligencia crecen vertiginosamente, a la vez que los retos actuales, como la guerra en Ucrania o la crisis climática, demuestran el riesgo que supone la inteligencia artificial, especialmente en torno a la desinformación.
Recientemente, el llamado «padrino de la inteligencia artificial» Geoffrey Hinton, pionero en la investigación de redes neuronales y aprendizaje profundo que permiten a las máquinas aprender de la experiencia, igual que los humanos, alertó en una entrevista con la BBC que podríamos estar cerca de ese hito.
«En este momento (las máquinas) no son más inteligentes que nosotros, por lo que puedo ver. Pero creo que pronto podrían serlo«, dijo el hombre de 75 años, quien acaba de retirarse de Google.