En una cálida noche de mediados de noviembre de 2023, el multimillonario inversor de capital riesgo Peter Thiel celebró el cumpleaños de su esposo en YESS, un vanguardista restaurante japonés ubicado en un antiguo edificio bancario reformado en el Distrito de las Artes de Los Ángeles. Junto a él estaba su amigo Sam Altman.
Thiel había respaldado el primer fondo de capital riesgo de Altman hacía más de una década y siguió siendo su mentor cuando Altman se convirtió en el rostro de la revolución de la inteligencia artificial como director ejecutivo de OpenAI. El lanzamiento viral de ChatGPT por parte de OpenAI en noviembre de 2022 había catapultado las acciones tecnológicas a uno de sus mejores años en décadas. Sin embargo, Thiel estaba preocupado.
Años antes de conocer a Altman, Thiel había acogido bajo su protección a otro prodigio obsesionado con la IA llamado Eliezer Yudkowsky, financiando su instituto, que se esforzaba por garantizar que cualquier IA más inteligente que los humanos fuera amigable con su creador. Ese mismo marzo, Yudkowsky argumentó en la revista Time que, a menos que se detuviera la actual ola de investigación en IA, «literalmente, todos los habitantes de la Tierra morirían».
“No entiendes cómo Eliezer ha programado a la mitad de la gente de tu empresa para que crea en esas cosas”, advirtió Thiel a Altman. “Tienes que tomártelo más en serio”.
Altman picoteó su plato vegetariano e intentó no poner los ojos en blanco. Esta no era la primera cena en la que Thiel le advertía que la empresa había sido absorbida por “los EA”, es decir, por quienes apoyaban el altruismo efectivo. Últimamente, EA había pasado de intentar acabar con la pobreza mundial a intentar evitar que la IA descontrolada asesinara a la humanidad. Thiel había predicho repetidamente que “los responsables de la seguridad de la IA” “destruirían” OpenAI.
“Bueno, fue en cierto modo cierto en el caso de Elon, pero nos deshicimos de Elon”, respondió Altman en la cena, refiriéndose a la complicada ruptura de 2018 con su cofundador, Elon Musk, quien una vez se refirió al intento de crear inteligencia artificial como “invocar al demonio”.
Casi 800 empleados de OpenAI estaban en plena expansión y a punto de tener la oportunidad de comprar segundas residencias frente al mar con el cierre inminente de una oferta pública de adquisición que valoraba la empresa en 86 000 millones de dólares. No había motivo de pánico.
Altman, a sus 38 años, estaba terminando el mejor año de una carrera encantada, un año en el que se convirtió en un nombre conocido, se reunió con presidentes y primeros ministros de todo el mundo y, lo más importante dentro del sistema de valores de Silicon Valley, presentó una nueva tecnología que parecía que muy posiblemente iba a cambiarlo todo.
Pero mientras los dos socios inversores celebraban bajo las vigas expuestas del nuevo restaurante más de moda de Los Ángeles, cuatro miembros de la junta directiva de OpenAI, compuesta por seis personas, incluyendo dos con vínculos directos con la comunidad de EA, mantenían videoconferencias secretas. Y estaban decidiendo si debían despedir a Sam Altman, aunque no por EA.
Este relato se basa en entrevistas con decenas de personas que vivieron una de las historias empresariales más disparatadas de todos los tiempos: el repentino despido del director ejecutivo de la empresa tecnológica más prometedora del planeta y su reincorporación días después. En el centro de la historia se encontraba un líder voluble que inspiraba a todos a su alrededor con su visión tecnológica, pero también los confundía e inquietaba a veces con su red de secretos y despistes.
Desde el principio, OpenAI se concibió para ser una empresa tecnológica diferente, gobernada por una junta directiva sin fines de lucro con un deber no hacia los accionistas, sino hacia la humanidad. Altman había sorprendido a los legisladores a principios de año al declarar bajo juramento que no poseía ninguna participación en la empresa que cofundó.
Aceptó el acuerdo sin precedentes para formar parte de la junta directiva, que exigía que la mayoría de los directores no tuvieran vínculos financieros con la empresa. En junio de 2023, declaró a Bloomberg TV: «La junta puede despedirme. Eso es importante».
Tras bastidores, la junta directiva estaba descubriendo, para su creciente frustración, que realmente era Altman quien tomaba las decisiones.
Durante el último año, la junta directiva estuvo estancada sobre qué experto en seguridad de IA incorporar a sus filas. La junta entrevistó a Ajeya Cotra, experta en seguridad de IA de la organización benéfica de EA, Open Philanthropy, pero el proceso se estancó, en gran parte debido a la lentitud de Altman y su cofundador, Greg Brockman, quien también formaba parte de la junta. Altman replicó con sus propias sugerencias.
“Hubo una pequeña lucha de poder”, dijo Brian Chesky, director ejecutivo de Airbnb, uno de los posibles miembros de la junta directiva que Altman sugirió. “Había una cuestión básica: si Sam decía el nombre, debían ser leales a Sam, así que iban a decir que no”.
La dinámica se volvió más tensa después de que tres miembros de la junta directiva, partidarios de Altman, renunciaran uno tras otro a principios de 2023 debido a diversos conflictos de intereses. Esto dejó a seis personas en la junta directiva de la organización sin fines de lucro que dirigía el gigante de la IA con fines de lucro: Altman, su aliado cercano Brockman, su compañero cofundador Ilya Sutskever y tres directores independientes. Estos eran Adam D’Angelo, director ejecutivo de Quora y exejecutivo de Facebook; Helen Toner, directora de estrategia del Centro de Seguridad y Tecnología Emergente de Georgetown y veterana de Open Philanthropy; y Tasha McCauley, exdirectora ejecutiva del sector tecnológico y miembro de la junta directiva británica de la organización benéfica de IA Effective Ventures.
Las preocupaciones sobre la gobernanza corporativa y la capacidad de la junta para supervisar a Altman se volvieron mucho más urgentes para varios miembros de la junta después de que vieron una demostración de GPT-4, una IA más poderosa que podría aprobar el examen de Biología AP, en el verano de 2022.
“Cosas como ChatGPT y GPT-4 supusieron cambios significativos para que la junta directiva se diera cuenta de que hay mucho más en juego”, dijo Toner. “No es que todos vayamos a morir mañana, pero la junta necesita funcionar bien”.
Toner y McCauley ya habían empezado a desconfiar de Altman. Para evaluar los riesgos de los nuevos productos antes de su lanzamiento, OpenAI había creado una junta de seguridad conjunta con Microsoft, un patrocinador clave de OpenAI que tenía acceso especial para usar su tecnología en sus productos. Durante una reunión en el invierno de 2022, mientras la junta evaluaba cómo lanzar tres mejoras algo controvertidas de GPT-4, Altman afirmó que las tres habían sido aprobadas por la junta de seguridad conjunta. Toner solicitó pruebas y descubrió que solo una había sido aprobada.
Casi al mismo tiempo, Microsoft lanzó una prueba del aún inédito GPT-4 en India, la primera vez que el código revolucionario se publicaba sin la aprobación de la junta de seguridad conjunta. Y nadie se molestó en informar a la junta de OpenAI de que se había omitido la aprobación de seguridad. Los miembros independientes de la junta se enteraron cuando un empleado de OpenAI detuvo a uno de ellos en el pasillo al salir de una reunión de seis horas. En esa reunión, Altman y Brockman nunca mencionaron la brecha.
Entonces, una noche del verano de 2023, un miembro de la junta directiva de OpenAI escuchó a una persona en una cena hablar sobre el Fondo de Startup de OpenAI. El fondo se lanzó en 2021 para invertir en startups relacionadas con la IA, y OpenAI había anunciado que sería “gestionado” por ella. Sin embargo, el miembro de la junta escuchó quejas de que las ganancias del fondo no iban a parar a los inversores de OpenAI.
Esto fue una novedad para la junta directiva, así que consultaron con Altman. Con el paso de los meses, los directores descubrieron que Altman era el propietario personal del fondo. Los ejecutivos de OpenAI primero dijeron que había sido por razones fiscales, y luego finalmente explicaron que Altman había creado el fondo porque era más rápido y solo un acuerdo “temporal”. OpenAI afirmó que Altman no obtuvo comisiones ni ganancias del fondo, un acuerdo inusual.
Para los miembros independientes de la junta, la supervisión administrativa era inverosímil y presentaba las omisiones previas como parte de un posible patrón de engaño deliberado. Por ejemplo, tampoco habían sido alertados el otoño anterior cuando OpenAI lanzó ChatGPT, considerado entonces un “avance de investigación” que utilizaba tecnología existente, pero que terminó causando sensación. (News Corp, propietaria de The Wall Street Journal, tiene un acuerdo de licencias de contenido con OpenAI).
A finales de septiembre, Sutskever le envió un correo electrónico a Toner preguntándole si tenía tiempo para hablar al día siguiente. Esto era muy inusual. En realidad, no hablaban fuera de las reuniones de la junta. Por teléfono, Sutskever titubeó antes de soltar una pista: «Deberías hablar más con Mira».
Mira Murati había sido ascendida a directora de tecnología de OpenAI en mayo de 2022 y, desde entonces, se había encargado de la gestión diaria. Cuando Toner la llamó, Murati le contó cómo lo que ella consideraba el estilo de gestión tóxico de Altman había estado causando problemas durante años, y cómo la dinámica entre Altman y Brockman —quien le reportaba directamente, pero recurría a él cada vez que ella intentaba controlarlo— le hacía prácticamente imposible realizar su trabajo.
Murati había planteado algunos de estos problemas directamente a Altman meses antes, y Altman había respondido llevando a la jefa de RR.HH. a sus reuniones individuales durante semanas hasta que finalmente le dijo que no tenía intención de compartir sus comentarios con la junta.
Toner regresó con Sutskever, el científico jefe de la compañía . Dejó claro que había perdido la confianza en Altman por varias razones, incluyendo su tendencia a enfrentar a los empleados con mayor antigüedad. En 2021, Sutskever había diseñado y creado un equipo para abordar la siguiente dirección de investigación de OpenAI, pero meses después, otro investigador de OpenAI, Jakub Pachocki, comenzó a perseguir algo muy similar. Los equipos se fusionaron y Pachocki asumió el cargo después de que Sutskever centrara su atención en la seguridad de la IA. Posteriormente, Altman ascendió a Pachocki a director de investigación y les prometió en privado a ambos que podrían liderar la dirección de investigación de la compañía, lo que provocó meses de pérdida de productividad.
Sutskever había estado esperando el momento en que la dinámica del directorio permitiera reemplazar a Altman como CEO.
Con cautela, temerosos de ser descubiertos por Altman, Murati y Sutskever hablaron con cada uno de los miembros independientes de la junta durante las siguientes semanas. Fue solo gracias a su contacto diario que los directores independientes descubrieron a Altman en una mentira particularmente flagrante.
Toner había publicado un artículo en octubre que reiteraba las críticas al enfoque de seguridad de OpenAI. Altman estaba furioso. Le dijo a Sutskever que McCauley había dicho que Toner obviamente debería dejar la junta debido al artículo. McCauley se quedó atónita al escuchar este relato de Sutskever; sabía que no había dicho tal cosa.
Sutskever y Murati habían estado recopilando pruebas, y ahora Sutskever estaba dispuesto a compartirlas. Envió por correo electrónico a Toner, McCauley y D’Angelo dos extensos documentos PDF mediante la función de autodestrucción de Gmail.
Uno trataba sobre Altman, el otro sobre Brockman. El documento de Altman contenía docenas de ejemplos de sus supuestas mentiras y otros comportamientos tóxicos, respaldados en gran medida por capturas de pantalla del canal de Slack de Murati. En una de ellas, Altman le había dicho a Murati que el departamento legal de la empresa había indicado que GPT-4 Turbo no necesitaba pasar por la revisión conjunta de la junta de seguridad. Cuando Murati lo consultó con el abogado principal de la empresa, este afirmó no haber dicho eso. El documento sobre Brockman se centraba principalmente en su presunto acoso.
Si querían actuar, advirtió Sutskever, tenían que hacerlo rápidamente.
Así, la tarde del jueves 16 de noviembre de 2023, él y los tres miembros independientes de la junta se conectaron a una videollamada y votaron a favor de despedir a Altman. Sabiendo que era improbable que Murati aceptara ser directora ejecutiva interina si tenía que rendir cuentas a Brockman, también votaron a favor de destituir a Brockman de la junta. Tras la votación, los miembros independientes de la junta le comunicaron a Sutskever que les preocupaba que lo hubieran enviado como espía para poner a prueba su lealtad.
Esa noche, Murati estaba en una conferencia cuando los cuatro miembros de la junta la llamaron para comunicarle que despedirían a Altman al día siguiente y para pedirle que asumiera el cargo de directora general interina. Ella aceptó. Cuando preguntó por qué lo despedían, no se lo dijeron.
“¿Le han comunicado esto a Satya?”, preguntó Murati, consciente de lo esencial que era para la empresa el compromiso del director ejecutivo de Microsoft, Satya Nadella, con su alianza. No lo habían hecho. Decidieron que Murati se lo comunicaría a Microsoft justo antes de que la noticia se publicara en el sitio web de OpenAI.
El sorpresivo despido de Altman se convirtió instantáneamente en un titular explosivo en todo el mundo.
Pero la junta no tenía respuestas para los empleados o el público en general sobre por qué se despidió a Altman, más allá de que no había sido “constantemente sincero” con la junta.
El viernes por la noche, la junta directiva y el equipo ejecutivo de OpenAI celebraron una serie de reuniones cada vez más polémicas . Murati estaba cada vez más preocupada por la posibilidad de que la junta directiva estuviera poniendo en riesgo a OpenAI al no prepararse mejor para las repercusiones del despido de Altman. En un momento dado, ella y el resto del equipo ejecutivo dieron a la junta un plazo de 30 minutos para explicar por qué habían despedido a Altman o para que dimitieran; de lo contrario, el equipo ejecutivo dimitiría en masa.
La junta directiva consideró que no podía divulgar que había sido Murati quien les había proporcionado algunas de las pruebas más detalladas de las deficiencias de gestión de Altman. Habían confiado en que Murati calmaría a los empleados mientras buscaban un director ejecutivo. En cambio, ella estaba liderando a sus colegas en una revuelta contra la junta.
Entre los aliados de Altman comenzó a extenderse una narrativa de que todo había sido un “golpe de Estado” de Sutskever, impulsado por su enojo por el ascenso de Pachotki, e impulsado por el enojo de Toner porque Altman había intentado expulsarla del tablero.
Sutskever estaba asombrado. Esperaba que los empleados de OpenAI lo aplaudieran.
Para el lunes por la mañana, casi todos habían firmado una carta amenazando con dimitir si no reincorporaban a Altman. Entre las firmas estaban las de Murati y Sutskever. Era evidente que la única manera de evitar la implosión de la empresa era reincorporar a Altman.
Fuente: https://www.wsj.com/tech/ai/the-real-story-behind-sam-altman-firing-from-openai-efd51a5d?st=oHYcbE