El equipo de OpenAI encargado de
analizar el riesgo de la IA ya no existe.
En julio del año pasado, OpenAI anunció la formación de un nuevo
equipo de “Superalignment” (Superalineación), que prepararía la
llegada de una inteligencia artificial superinteligente, capaz de
burlar y superar a sus creadores. Ilya Sutskever, científico jefe de
OpenAI y uno de los cofundadores de la empresa, fue nombrado
codirector de aquel nuevo equipo. OpenAI dijo que el grupo recibiría
el 20% de su potencia informática.
No más, pues ahora el equipo de Superalineación de OpenAI no existe,
confirmó la empresa. Esto se produce tras la marcha de varios
investigadores implicados, la noticia del martes de que Sutskever
dejaba la empresa y la dimisión del otro colega del equipo. El
trabajo del conjunto se integrará en otras actividades de
investigación de OpenAI.
La marcha de Sutskever saltó a los titulares porque, aunque había
ayudado al CEO Sam Altman a poner en marcha OpenAI en 2015 y había
marcado el rumbo de la investigación que dio lugar a ChatGPT,
también fue uno de los cuatro miembros de la Junta que despidió a
Altman en noviembre. Altman fue restituido como CEO cinco caóticos
días después, tras una revuelta masiva del personal de OpenAI y la
mediación de un acuerdo en el que Sutskever y otros dos directores
de la empresa abandonaron la Junta.
Horas después de que se anunciara la marcha de Sutskever el martes,
Jan Leike, el antiguo investigador de DeepMind que era el otro
colíder del equipo de Superalineación, publicó en X que había
dimitido. Bastante silencio. Ni Sutskever ni Leike respondieron a
las peticiones de comentarios. Sutskever no ofreció una explicación
de su decisión de irse, pero entregó su apoyo a la trayectoria
actual de OpenAI en un
post en X. "La trayectoria de la compañía ha sido nada menos que
milagrosa, y estoy seguro de que OpenAI construirá IAG (Inteligencia
Artificial General) que sea
|
|
a la vez segura y beneficiosa" bajo
su liderazgo actual, escribió.
Leike publicó el viernes un hilo en X en el que explicaba que su decisión se
debía a un desacuerdo sobre las prioridades de la empresa y la cantidad de
recursos que se asignaban a su equipo. "He estado en desacuerdo con la dirección
de OpenAI sobre las prioridades básicas de la empresa durante bastante tiempo,
hasta que finalmente llegamos a un punto de ruptura", escribió Leike, "En los
últimos meses mi equipo ha estado navegando contra el viento. A veces teníamos
problemas de computación y cada vez era más difícil llevar a cabo esta
investigación crucial."
La disolución del equipo de Superalineación de OpenAI se suma a las recientes
pruebas de una sacudida dentro de la empresa a raíz de la crisis de gobernanza
del pasado noviembre. Dos investigadores del equipo, Leopold Aschenbrenner y
Pavel Izmailov, fueron despedidos por filtrar secretos de la empresa, según
informó The Information el mes pasado. Otro miembro del equipo, William Saunders,
abandonó OpenAI en febrero, según se publicó en un foro de internet en su
nombre.
Otros dos investigadores de OpenAI que trabajaban en política y gobernanza de la
IA también parecen haber abandonado la empresa recientemente. Cullen O'Keefe
dejó su puesto de jefe de investigación sobre fronteras políticas en abril,
según LinkedIn. Daniel Kokotajlo, un investigador de OpenAI que ha sido coautor
de varios artículos sobre los peligros de los modelos de IA más capaces,
"abandonó OpenAI debido a la
pérdida de confianza en que se comportaría de forma responsable en la época de
la AGI", según una publicación en un foro de Internet en su nombre. Ninguno de
los investigadores que al parecer se han marchado respondió a las peticiones de
comentarios.
OpenAI declinó hacer comentarios sobre la marcha de Sutskever, de otros miembros
del equipo de Superalineación, o sobre el futuro de su trabajo sobre los riesgos
de la IA a largo plazo. La investigación sobre los riesgos asociados a modelos
más potentes correrá a cargo de John Schulman, quien coordina el equipo
responsable de ajustar los modelos de IA tras el entrenamiento.
El equipo de Superalineación no era el único que reflexionaba sobre
|
|
la cuestión de cómo mantener la IA bajo
control, aunque se posicionó públicamente como el principal que trabajaba en la
versión más lejana de ese problema. La entrada del blog que anunciaba el equipo
de Superalineación el verano pasado afirmaba: "Actualmente, no tenemos una
solución para dirigir o controlar una IA potencialmente superinteligente y
evitar que se vuelva rebelde".
Los estatutos de OpenAI la comprometen a desarrollar la llamada inteligencia
artificial general, o tecnología que rivalice o supere a los humanos, de forma
segura y en beneficio de la humanidad. Sutskever y otros líderes han hablado a
menudo de la necesidad de proceder con cautela. Pero OpenAI también ha sido
pionera en desarrollar y dar a conocer públicamente proyectos experimentales de
IA. En el pasado, OpenAI era inusual entre los laboratorios de IA destacados por
el entusiasmo con el que los investigadores como Sutskever hablaban de crear IA
sobrehumana y de la posibilidad de que esa tecnología se volviera contra la
humanidad. Este tipo de discurso se generalizó el año pasado, después de que
ChatGPT convirtiera a OpenAI en la empresa tecnológica más importante y vigilada
del planeta. A medida que los investigadores y los responsables políticos
lidiaban con las implicaciones de ChatGPT y la perspectiva de una IA mucho más
capaz, se hizo menos controversial preocuparse porque la IA perjudicara a
humanos o a la humanidad en su conjunto.
La angustia existencial se ha enfriado desde entonces. Y la IA aún tiene que dar
otro salto masivo, pero la necesidad de regular la IA sigue siendo un tema
candente. Y esta semana OpenAI ha presentado una nueva versión de ChatGPT que
podría volver a cambiar la relación de la gente con la tecnología de formas
nuevas, potentes y quizá problemáticas. Las salidas de Sutskever y Leike se
producen poco después de la última gran revelación de OpenAI: un nuevo modelo de
IA "multimodal" llamado GPT-4o que permite a ChatGPT ver el mundo y conversar de
una forma más natural y humana. En una demostración transmitida en vivo, la
nueva versión de ChatGPT imitaba las emociones humanas e incluso intentaba ligar
con los usuarios. OpenAI ha asegurado que pondrá la nueva interfaz a disposición
de los usuarios de pago en un par de semanas.
No hay indicios de que las recientes salidas tengan algo que ver con los
esfuerzos de OpenAI por desarrollar una IA más parecida a la humana o por lanzar
productos. Pero los últimos avances plantean cuestiones éticas en torno a la
privacidad, la manipulación emocional y los riesgos de ciberseguridad. OpenAI
cuenta con otro grupo de investigación, el equipo Preparedness, que se centra en
estas cuestiones.
|