OpenAI se deshace de su equipo de riesgos de IA a largo plazo
OpenAI, la compañía detrás de ChatGPT, ha decidido disolver su equipo centrado en los riesgos a largo plazo de la IA sólo un año después del anuncio de su constitución.
Este equipo, conocido como el equipo Superalignment, ha enfocado su trabajo en avances científicos y técnicos para dirigir y controlar sistemas de IA mucho más inteligentes que el ser humano, en palabras de la compañía. Cuando el equipo se fundó, OpenAI declaró que comprometería el 20% de su potencia informática a la iniciativa durante un total de cuatro años.
La disolución de este equipo vino precedida por el anuncio de la salida de Ilya Sutskever y Jan Leike, dos miembros clave de la compañía. Tal y como el propio Leike informó, decidió dejar la compañía por no compartir el rumbo que la dirección de ésta había decidido tomar. En particular, Leike indicó que consideraba necesario que la compañía dedicase un mayor porcentaje de su ancho de banda a la seguridad, la supervisión, la preparación, la protección y el impacto social de la IA.
En su cuenta de X (antes Twitter), Leike escribió lo siguiente:
“Construir máquinas más inteligentes que las humanas es una tarea intrínsecamente peligrosa”. “OpenAI asume una enorme responsabilidad en nombre de toda la humanidad. Pero en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”.
La salida de Sutskever y Leike, así como la disolución del equipo Superalignment, llegan poco tiempo después de que OpenAI lanzara al mercado un nuevo modelo de IA y una versión de escritorio de ChatGPT. También ha sido publicada una nueva interfaz de usuario actualizada.