Un grupo de destacados empresarios, expertos y científicos del ámbito de la inteligencia artificial (IA), liderados por Sam Altman, el creador de ChatGPT, ha emitido un breve pero contundente comunicado advirtiendo sobre el potencial “riesgo de extinción” que conlleva la IA.
El comunicado, publicado en el sitio web del Center for AI Safety, una organización sin fines de lucro, destaca la necesidad de abordar el riesgo de extinción por la IA como una prioridad mundial, junto con otros riesgos sociales a gran escala, como las pandemias y las guerras nucleares. Aunque el mensaje es conciso, su objetivo es iniciar una discusión y dar a conocer a los especialistas que se toman en serio esta problemática.
MIRA: Anuncios con IA: ¿cómo la inteligencia artificial está cambiando la creación de los spots publicitarios?
“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, se lee en el comunicado.
El texto lleva la firma de reconocidos nombres en el campo de la IA, además de Sam Altman. Entre los firmantes se encuentran Demis Hassabis, CEO de Google DeepMind, Dario Amodei, CEO de Anthropic, Emad Mostaque, CEO de Stability AI, y Kevin Scott, jefe tecnológico de Microsoft, así como destacados investigadores como Geoffrey Hinton, Yoshua Bengio y Lex Fridman, entre otros.
Aunque el comunicado ha despertado curiosidad por su brevedad y su estilo peculiar, los expertos invitan a leer entre líneas. No significa necesariamente que crean que ChatGPT u otras IA sean una amenaza de aniquilación para la civilización, pero sí plantean la importancia de regular y salvaguardar adecuadamente la aplicación de la IA para evitar posibles usos destructivos. La discusión sobre la regulación de la IA se ha convertido en un tema candente, incluso impulsada por actores destacados de la industria como la startup de Sam Altman.
Este comunicado difiere de la polémica carta abierta promovida anteriormente por Elon Musk, que pedía una pausa en el desarrollo de modelos de lenguaje más poderosos que GPT-4. Sin embargo, varios de los firmantes de aquella carta también apoyan el nuevo comunicado, lo que indica una preocupación compartida sobre los posibles efectos adversos y la necesidad de abordar responsablemente el desarrollo de la IA.
MIRA: CEO de Nvidia habla sobre la inteligencia artificial: “Todo el mundo es programador ahora”
El Center for AI Safety ha recopilado ejemplos concretos sobre cómo la IA podría ser utilizada con fines nefarios, incluyendo el desarrollo de armas químicas utilizando herramientas de aprendizaje automático y el uso de la tecnología para difundir desinformación. Además, existe preocupación por la concentración de poder en manos de un grupo reducido de personas debido a la competencia y el avance rápido de los sistemas de IA.
Dan Hendrycks, director ejecutivo del Center for AI Safety, dijo que la advertencia era “una situación que recuerda a los científicos atómicos que emiten advertencias sobre las mismas tecnologías que han creado”.
Altman escribió la semana pasada que el riesgo existencial de la IA podría surgir dentro de una década, con el software superando a los expertos humanos en la mayoría de los campos.
La regulación de la IA se presenta como un desafío complejo que requiere la participación tanto de expertos y científicos como de legisladores y empresas. A pesar de los riesgos, es importante tener en cuenta que la tecnología también ofrece beneficios significativos en áreas como la educación y la salud. En este sentido, se hace hincapié en la necesidad de encontrar un equilibrio, como señaló recientemente Bill Gates, para protegernos de los riesgos y al mismo tiempo aprovechar los beneficios que la IA puede brindar a la humanidad.
Contenido sugerido
Contenido GEC