La carta es consecuencia del lanzamiento de GPT-4 por parte de OpenAI.

 

Más de mil personas, entre ellas Elon Musk y Steve Wozniak, cofundador de Apple, han firmado una carta abierta en la que se pide pausar el desarrollo de sistemas de inteligencia artificial, que empiezan a ser muy potentes, para garantizar la seguridad.

 

La carta es la consecuencia del lanzamiento de GPT-4 por parte de OpenAI y cuenta con el apoyo de Microsoft.

 

OpenAI ha declarado que su último modelo de inteligencia artificial es mucho más potente que la versión interior, empleada para ChatGPT, el bot que es capaz de generar fragmentos de texto a partir de muy pocas instrucciones.

 

La carta abierta lleva por título "Pausa a los experimentos gigantes de IA" y en ella pueden leerse frases como esta: "Los sistemas de IA con inteligencia humana competitiva pueden plantear profundos riesgos para la sociedad y la humanidad" y esta: "Los sistemas de IA potentes deberían desarrollarse sólo cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables".

 

El propio Elon Musk, que ha firmado la carta, fue uno de los primeros inversores de OpenAI y formó parte de su consejo de administración durante varios años. Una de las empresas del magnate multimillonario, Tesla, desarrolla sistemas de inteligencia artificial para avanzar en la tecnología de conducción autónoma.

 

El texto que recoge la petición está promovido por el Future of Life Institute, entidad financiada por Musk. En él han firmado personas que se muestran críticas con OpenAI, así como competidores de la compañía responsable de ChatGPT.

 

Yoshua Bengio, que es pionero de la inteligencia artificial en Canadá y que también ha firmado la carta dijo en una rueda de prensa virtual "que la sociedad no está preparada" para esta herramienta tan poderosa y sus posibles usos indebidos.

 

"Vayamos más despacio. Asegurémonos de que desarrollamos mejores guardarraíles", dijo, pidiendo un debate internacional exhaustivo sobre la IA y sus implicaciones, "como hemos hecho con la energía nuclear y las armas nucleares".

 

En la carta los autores citaban las palabras del fundador de OpenAI, Sam Altman, quien escribió en un blog que “en algún momento puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas". Los firmantes le dan la razón y afirman que ese momento ha llegado.

 

"Hacemos un llamamiento a todos los laboratorios de IA para que pausen inmediatamente, durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT4", escriben.

 

Lo que defienden los firmantes de la carta es que durante seis meses se trabaje en garantizar la seguridad de los sistemas de IA, no en el desarrollo de IA más potentes con idea de que estos sean “fiables y leales”.

 

Los responsables de la redacción de la carta no detallan cuáles son los peligros de GPT-4.