Dentro de la historia que enfureció a OpenAI

INTELIGENCIA ARTIFICIAL. Tiempo de lectura: 25 minutos.-

En 2019, Karen Hao, reportera sénior de MIT Technology Review, me propuso escribir un artículo sobre una empresa entonces poco conocida, OpenAI.

Era su encargo más importante hasta la fecha. La hazaña periodística de Hao dio varios giros en los meses siguientes, hasta revelar finalmente cómo la ambición de OpenAI la había alejado mucho de su misión original. El artículo final detitulado « » (La ambición de OpenAI se aleja de su misión original), era una visión profética de una empresa en un punto de inflexión, o que ya lo había superado. Y OpenAI no estaba contenta con el resultado. El nuevo libro de Hao, Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI , es una exploración en profundidad de la empresa que inició la carrera armamentística de la IA y lo que esa carrera significa para todos nosotros. Este extracto es la historia del origen de ese reportaje. — Niall Firth, editor ejecutivo, MIT Technology Review 

Llegué a las oficinas de OpenAI el 7 de agosto de 2019. Greg Brockman, entonces de treinta y un años, director de tecnología de OpenAI y futuro presidente de la empresa, bajó las escaleras para recibirme. Me estrechó la mano con una sonrisa vacilante. «Nunca antes habíamos dado tanto acceso a nadie», dijo. 

En aquel momento, pocas personas fuera del mundo aislado de la investigación en IA conocían OpenAI. Pero como periodista de MIT Technology Review que cubría los límites cada vez más amplios de la inteligencia artificial, había seguido de cerca sus movimientos. 

Hasta ese año, OpenAI había sido una especie de hijastro en la investigación sobre IA. Tenía la extravagante premisa de que la IGA podría alcanzarse en una década, cuando la mayoría de los expertos ajenos a OpenAI dudaban de que pudiera alcanzarse en absoluto. Para gran parte del sector, contaba con una cantidad obscena de financiación a pesar de tener poca orientación y gastaba demasiado dinero en comercializar lo que otros investigadores solían despreciar por considerarlo una investigación poco original. Para algunos, también era objeto de envidia. Como organización sin ánimo de lucro, había declarado que no tenía intención de perseguir la comercialización. Era un raro campo de juego intelectual sin ataduras, un refugio para ideas marginales. 

Pero en los seis meses previos a mi visita, la rápida sucesión de cambios en OpenAI señaló un cambio importante en su trayectoria. Primero fue su confusa decisión de retener GPT-2 y presumir de ello. Luego, su anuncio de que Sam Altman, quien había abandonado misteriosamente su influyente puesto en YC, asumiría el cargo de director ejecutivo de OpenAI con la creación de su nueva estructura de «beneficios limitados». Ya había hecho los preparativos para visitar la oficina cuando se reveló su acuerdo con Microsoft, que daba al gigante tecnológico prioridad para comercializar las tecnologías de OpenAI y lo obligaba a utilizar exclusivamente Azure, la plataforma de computación en la nube de Microsoft. 

Cada nuevo anuncio generaba nuevas controversias, intensas especulaciones y una atención cada vez mayor, que comenzaba a traspasar los límites del sector tecnológico. Mientras mis colegas y yo, como miembros del , cubríamos la evolución de la empresa, nos resultaba difícil comprender el alcance total de lo que estaba sucediendo. Lo que estaba claro era que OpenAI estaba empezando a ejercer una influencia significativa en la investigación sobre la IA y en la forma en que los responsables políticos estaban aprendiendo a comprender la tecnología. La decisión del laboratorio de transformarse en una empresa parcialmente con ánimo de lucro tendría un efecto dominó en sus esferas de influencia en la industria y el gobierno. 

Así que una noche, a instancias de mi editor, envié un correo electrónico a Jack Clark, director de políticas de OpenAI, con quien ya había hablado anteriormente: estaría en la ciudad durante dos semanas y me parecía que era el momento adecuado en la historia de OpenAI. ¿Les interesaría un perfil? Clark me pasó con el jefe de comunicaciones, quien me respondió. OpenAI estaba realmente lista para volver a presentarse al público. Tendría tres días para entrevistar a los directivos y conocer la empresa desde dentro. 

Brockman y yo nos acomodamos en una sala de reuniones acristalada con el científico jefe de la empresa, Ilya Sutskever. Sentados uno al lado del otro en una larga mesa de conferencias, cada uno desempeñó su papel. Brockman, el programador y ejecutor, se inclinó hacia delante, un poco nervioso, dispuesto a causar una buena impresión; Sutskever, el investigador y filósofo, se recostó en su silla, relajado y distante. 

Abrí mi ordenador portátil y revisé mis preguntas. La misión de OpenAI es garantizar una AGI beneficiosa, comencé. ¿Por qué gastar miles de millones de dólares en este problema y no en otra cosa? 

Brockman asintió enérgicamente. Estaba acostumbrado a defender la postura de OpenAI. «La razón por la que nos preocupa tanto la IGA y creemos que es importante desarrollarla es porque pensamos que puede ayudar a resolver problemas complejos que están fuera del alcance de los seres humanos», afirmó. 

Ofreció dos ejemplos que se habían convertido en dogma entre los creyentes de la AGI. El cambio climático. «Es un problema muy complejo. ¿Cómo se supone que se puede resolver?». Y la medicina. «Fíjate en la importancia que tiene la sanidad en Estados Unidos como tema político en la actualidad. ¿Cómo podemos conseguir un mejor tratamiento para las personas a un menor coste?». 

Sobre esto último, comenzó a contar la historia de un amigo que padecía una enfermedad rara y que recientemente había pasado por el agotador proceso de ir de un especialista a otro para averiguar cuál era su problema. La IGA reuniría todas estas especialidades. Las personas como su amigo ya no tendrían que gastar tanta energía y frustración para obtener una respuesta. 

¿Por qué necesitábamos AGI para hacer eso en lugar de IA? Le pregunté. 

Esta era una distinción importante. El término AGI, que antes estaba relegado a una sección poco popular del diccionario tecnológico, solo recientemente había comenzado a ganar un uso más generalizado, en gran parte gracias a OpenAI. 

Y tal y como lo definió OpenAI, la AGI se refería a la cima teórica de la investigación en IA: un software que tuviera tanta sofisticación, agilidad y creatividad como la mente humana para igualar o superar su rendimiento en la mayoría de las tareas (económicamente valiosas). La palabra clave era «teórico». Desde el comienzo de la investigación seria sobre la IA varias décadas antes, se había debatido acaloradamente si los chips de silicio que codifican todo en sus unos y ceros binarios podrían simular alguna vez el cerebro y los demás procesos biológicos que dan lugar a lo que consideramos inteligencia. Aún no había pruebas definitivas de que esto fuera posible, lo que ni siquiera abordaba el debate normativo sobre si las personas deberían desarrollarlo. 

Por otro lado, IA era el término de moda tanto para la versión de la tecnología disponible en ese momento como para la versión que los investigadores podían alcanzar razonablemente en un futuro próximo mediante el perfeccionamiento de las capacidades existentes. Esas capacidades, basadas en un potente sistema de reconocimiento de patrones conocido como aprendizaje automático, ya habían demostrado tener aplicaciones muy interesantes en la mitigación del cambio climático y la atención sanitaria. 

Sutskever intervino. Cuando se trata de resolver retos globales complejos, «fundamentalmente, el cuello de botella es que hay un gran número de personas y no se comunican tan rápido, no trabajan tan rápido, tienen muchos problemas de incentivos». La AGI sería diferente, dijo. «Imagina que se trata de una gran red informática de ordenadores inteligentes: todos ellos realizan diagnósticos médicos y se comunican entre sí los resultados con extrema rapidez». 

Esto me pareció otra forma de decir que el objetivo de la IGA era sustituir a los humanos. ¿Era eso lo que quería decir Sutskever? Se lo pregunté a Brockman unas horas más tarde, cuando nos quedamos solos. 

«No», respondió Brockman rápidamente. «Esto es algo realmente importante. ¿Cuál es el propósito de la tecnología? ¿Por qué existe? ¿Por qué la creamos? Llevamos miles de años creando tecnologías, ¿verdad? Lo hacemos porque sirven a las personas. La AGI no va a ser diferente, no tal y como la concebimos, no tal y como queremos crearla, no tal y como creemos que debería funcionar». 

Dicho esto, reconoció unos minutos más tarde que la tecnología siempre había destruido algunos puestos de trabajo y creado otros. El reto de OpenAI sería crear una IGA que proporcionara a todo el mundo «libertad económica» y les permitiera seguir «viviendo una vida con sentido» en esa nueva realidad. Si lo conseguía, separaría la necesidad de trabajar de la supervivencia. 

«De hecho, creo que eso es algo muy bonito», afirmó. 

En nuestra reunión con Sutskever, Brockman me recordó el panorama general. «Nuestro papel no es determinar si se construirá la IGA», dijo. Este era uno de los argumentos favoritos en Silicon Valley: la carta de la inevitabilidad. Si nosotros no lo hacemos, lo hará otra persona. «La trayectoria ya está trazada», enfatizó, «pero lo que sí podemos influir es en las condiciones iniciales en las que nace». 

«¿Qué es OpenAI?», continuó. «¿Cuál es nuestro propósito? ¿Qué estamos tratando de hacer realmente? Nuestra misión es garantizar que la IA general beneficie a toda la humanidad. Y la forma en que queremos hacerlo es: crear IA general y distribuir sus beneficios económicos». 

Su tono era pragmático y definitivo, como si hubiera respondido a mis preguntas. Y, sin embargo, de alguna manera habíamos vuelto exactamente al punto de partida. 

Nuestra conversación siguió dando vueltas hasta que se acabó el tiempo, después de cuarenta y cinco minutos. Intenté, sin mucho éxito, obtener detalles más concretos sobre lo que estaban tratando de construir exactamente —lo cual, por naturaleza, explicaron, no podían saber— y por qué, entonces, si no podían saberlo, estaban tan seguros de que sería beneficioso. En un momento dado, probé un enfoque diferente y les pedí que me dieran ejemplos de las desventajas de la tecnología. Este era uno de los pilares de la mitología fundacional de OpenAI: el laboratorio tenía que construir una buena IGA antes de que alguien construyera una mala. 

Brockman intentó responder: los deepfakes. «No está claro que el mundo sea mejor gracias a sus aplicaciones», dijo. 

Yo ofrecí mi propio ejemplo: hablando del cambio climático, ¿qué hay del impacto medioambiental de la propia IA? Un estudio reciente de la Universidad de Massachusetts Amherst había publicado unas cifras alarmantes sobre las enormes y crecientes emisiones de carbono que genera el entrenamiento de modelos de IA cada vez más grandes. 

Eso era «innegable», afirmó Sutskever, pero merecía la pena porque la AGI, «entre otras cosas, contrarrestaría específicamente el coste medioambiental». No llegó a ofrecer ejemplos. 

«Sin duda, es muy deseable que los centros de datos sean lo más ecológicos posible», añadió. 

«Sin duda», bromeó Brockman. 

«Los centros de datos son los mayores consumidores de energía, de electricidad», continuó Sutskever, que ahora parecía decidido a demostrar que era consciente de este problema y que le preocupaba. 

«Es el 2 % a nivel mundial», señalé. 

«¿No es Bitcoin como el 1 %?», dijo Brockman. 

«¡Vaya!», exclamó Sutskever, en un repentino arrebato de emoción que, en ese momento, tras cuarenta minutos de conversación, resultó algo teatral. 

Más tarde, Sutskever se sentó con el periodista del New York Times Cade Metz para su libro Genius Makers, que narra la historia del desarrollo de la IA, y dice sin una pizca de ironía: «Creo que es bastante probable que no pase mucho tiempo antes de que toda la superficie de la Tierra quede cubierta de centros de datos y centrales eléctricas». Habría «un tsunami informático… casi como un fenómeno natural». La AGI —y, por lo tanto, los centros de datos necesarios para respaldarla— sería «demasiado útil como para no existir». 

Intenté de nuevo obtener más detalles. «Lo que estás diciendo es que OpenAI está haciendo una gran apuesta por alcanzar con éxito una AGI beneficiosa para contrarrestar el calentamiento global antes de que el hecho de hacerlo pueda agravarlo». 

«Yo no iría tan lejos», intervino Brockman apresuradamente. «Nosotros lo vemos así: estamos en una fase de rápido progreso de la IA. Esto es más grande que OpenAI, ¿no? Es todo el campo. Y creo que la sociedad realmente se está beneficiando de ello». 

«El día que anunciamos el acuerdo», dijo, refiriéndose a la nueva inversión de 1000 millones de dólares de Microsoft, «la capitalización bursátil de Microsoft subió 10 000 millones de dólares. La gente cree que hay un retorno de la inversión positivo incluso en tecnología a corto plazo». 

La estrategia de OpenAI era, por lo tanto, bastante simple, explicó: mantenerse al día con ese progreso. «Ese es el estándar al que realmente debemos atenernos. Debemos seguir avanzando. Así es como sabemos que vamos por buen camino». 

Más tarde ese mismo día, Brockman reiteró que el principal reto de trabajar en OpenAI era que nadie sabía realmente cómo sería la IGA. Pero, como investigadores e ingenieros, su tarea consistía en seguir avanzando, en descubrir paso a paso la forma que adoptaría la tecnología. 

Hablaba como Miguel Ángel, como si la IA general ya existiera dentro del mármol que estaba tallando. Todo lo que tenía que hacer era ir quitando pedazos hasta que se revelara. 

Hubo un cambio de planes. Tenía previsto almorzar con los empleados en la cafetería, pero algo me obligaba ahora a salir de la oficina. Brockman sería mi acompañante. Cruzamos la calle y nos dirigimos a una cafetería al aire libre que se había convertido en el lugar favorito de los empleados. 

Esto se convertiría en un tema recurrente a lo largo de mi visita: pisos que no podía ver, reuniones a las que no podía asistir, investigadores que miraban furtivamente al jefe de comunicaciones cada pocas frases para comprobar que no habían infringido alguna política de divulgación. Más tarde me enteraría de que, tras mi visita, Jack Clark emitiría una advertencia inusualmente severa a los empleados en Slack para que no hablaran conmigo más allá de las conversaciones autorizadas. El guardia de seguridad recibiría una foto mía con instrucciones de estar atento por si aparecía sin autorización en las instalaciones. Era un comportamiento extraño en general, que se hacía aún más extraño por el compromiso de OpenAI con la transparencia. ¿Qué estaban ocultando, me preguntaba, si se suponía que todo era investigación beneficiosa que acabaría estando a disposición del público? 

Durante el almuerzo y los días siguientes, indagué más a fondo sobre por qué Brockman había cofundado OpenAI. Era un adolescente cuando se obsesionó por primera vez con la idea de que fuera posible recrear la inteligencia humana. Fue un famoso artículo del matemático británico Alan Turing lo que despertó su fascinación. El nombre de su primera sección, «El juego de la imitación», que inspiró el título de la dramatización hollywoodiense de 2014 sobre la vida de Turing, comienza con la provocativa pregunta: «¿Pueden pensar las máquinas?». El artículo continúa definiendo lo que se conocería como la prueba de Turing: una medida de la progresión de la inteligencia artificial basada en si una máquina puede hablar con un humano sin revelar que es una máquina. Era una historia clásica entre las personas que trabajaban en IA. Encantado, Brockman programó un juego de prueba de Turing y lo puso en línea, obteniendo unas 1500 visitas. Le hizo sentir increíble. «Me di cuenta de que eso era lo que quería hacer», dijo. 

En 2015, cuando la IA experimentó grandes avances, Brockman dice que se dio cuenta de que era hora de volver a su ambición original y se unió a OpenAI como cofundador. Anotó en sus notas que haría cualquier cosa para hacer realidad la AGI, incluso si eso significaba ser conserje. Cuando se casó cuatro años después, celebró una ceremonia civil en la oficina de OpenAI, frente a un muro de flores personalizado con la forma del logotipo hexagonal del laboratorio. Sutskever ofició la ceremonia. La mano robótica que utilizaban para la investigación se encontraba en el pasillo con los anillos, como un centinela de un futuro postapocalíptico. 

«Básicamente, quiero dedicarme a la IGA durante el resto de mi vida», me dijo Brockman. 

¿Qué le motivó? Le pregunté a Brockman. 

«¿Qué probabilidades hay de que una tecnología transformadora llegue a aparecer durante tu vida?», me respondió. 

Estaba convencido de que él, y el equipo que había reunido, se encontraban en una posición única para liderar esa transformación. «Lo que realmente me atrae son los problemas que no se resolverán de la misma manera si yo no participo», afirmó. 

De hecho, Brockman no solo quería ser conserje. Quería dirigir AGI. Y rebosaba la energía ansiosa de alguien que quería un reconocimiento que marcara la historia. Quería que algún día la gente contara su historia con la misma mezcla de asombro y admiración con la que él solía relatar las de los grandes innovadores que le precedieron. 

Un año antes de nuestra conversación, había dicho a un grupo de jóvenes emprendedores tecnológicos en un exclusivo retiro en Lake Tahoe, con un toque de autocompasión, que los directores tecnológicos nunca eran conocidos. Desafió a la multitud a nombrar a un director tecnológico famoso. Les costó hacerlo. Había demostrado su punto de vista. 

En 2022, se convirtió en presidente de OpenAI. 

Durante nuestras conversaciones, Brockman me insistió en que ninguno de los cambios estructurales de OpenAI suponía un cambio en su misión principal. De hecho, el límite de beneficios y la nueva hornada de financiadores la reforzaban. «Hemos conseguido inversores alineados con nuestra misión que están dispuestos a anteponerla a los beneficios. Es algo increíble», afirmó. 

OpenAI disponía ahora de los recursos a largo plazo que necesitaba para ampliar sus modelos y mantenerse por delante de la competencia. Esto era imprescindible, subrayó Brockman. No hacerlo suponía una amenaza real que podía socavar la misión de OpenAI. Si el laboratorio se quedaba atrás, no habría esperanza de inclinar el arco de la historia hacia su visión de una IGA beneficiosa. Solo más tarde me daría cuenta de todas las implicaciones de esta afirmación. Fue esta suposición fundamental —la necesidad de ser los primeros o perecer— la que puso en marcha todas las acciones de OpenAI y sus consecuencias de largo alcance. Puso un reloj en marcha para cada uno de los avances de investigación de OpenAI, basado no en la escala de tiempo de una deliberación cuidadosa, sino en el ritmo implacable necesario para cruzar la línea de meta antes que nadie. Justificó el consumo de una cantidad inconmensurable de recursos por parte de OpenAI: tanto de computación, independientemente de su impacto en el medio ambiente, como de datos, cuya acumulación no podía ralentizarse obteniendo consentimientos o cumpliendo con las regulaciones. 

Brockman volvió a señalar el aumento de 10 000 millones de dólares en la capitalización bursátil de Microsoft. «Lo que eso refleja realmente es que la IA está aportando un valor real al mundo actual», afirmó. Reconoció que, en la actualidad, ese valor se concentraba en una empresa que ya era rica, por lo que OpenAI tenía una segunda misión: redistribuir los beneficios de la IGA entre todos. 

¿Existe algún ejemplo histórico de beneficios tecnológicos que se hayan distribuido con éxito? Le pregunté. 

«Bueno, en realidad creo que… es interesante fijarse incluso en Internet como ejemplo», dijo, titubeando un poco antes de decidirse por una respuesta. «También hay problemas, ¿no?», dijo a modo de advertencia. «Siempre que hay algo muy transformador, no es fácil averiguar cómo maximizar lo positivo y minimizar lo negativo». 

«El fuego es otro ejemplo», añadió. «También tiene algunos inconvenientes reales. Por lo tanto, tenemos que averiguar cómo mantenerlo bajo control y establecer normas comunes». 

«Los coches son un buen ejemplo», continuó. «Mucha gente tiene coche, lo que beneficia a mucha gente. Pero también tienen algunos inconvenientes. Tienen algunas externalidades que no son necesariamente buenas para el mundo», concluyó con vacilación. 

«Supongo que lo que veo es que lo que queremos para la AGI no es tan diferente de los aspectos positivos de Internet, los aspectos positivos de los coches, los aspectos positivos del fuego. Sin embargo, la implementación de la IA general ( ) es muy diferente, porque es un tipo de tecnología muy diferente». 

Sus ojos se iluminaron con una nueva idea. «Fíjate en los servicios públicos. Las compañías eléctricas son entidades muy centralizadas que proporcionan productos y servicios de alta calidad y bajo coste que mejoran significativamente la vida de las personas». 

Era una bonita analogía. Pero Brockman parecía una vez más sin tener claro cómo OpenAI se convertiría en una empresa de servicios públicos. Quizás mediante la distribución de una renta básica universal, se preguntó en voz alta, quizás mediante otra cosa. 

Volvió a lo único que sabía con certeza. OpenAI se había comprometido a redistribuir los beneficios de la AGI y a proporcionar libertad económica a todo el mundo. «Lo decimos muy en serio», afirmó. 

«La forma en que lo vemos es la siguiente: hasta ahora, la tecnología ha sido algo que ha beneficiado a todos, pero tiene un efecto realmente concentrador», afirmó. «La AGI podría ser aún más extrema. ¿Qué pasaría si todo el valor quedara concentrado en un solo lugar? Esa es la trayectoria que estamos siguiendo como sociedad. Y nunca hemos visto un caso tan extremo. No creo que sea un mundo bueno. No es un mundo al que quiera pertenecer. No es un mundo que quiera ayudar a construir». 

En febrero de 2020, publiqué mi perfil para MIT Technology Review, basándome en mis observaciones durante mi estancia en la oficina, casi tres docenas de entrevistas y un puñado de documentos internos. «Existe un desajuste entre lo que la empresa defiende públicamente y cómo opera a puerta cerrada», escribí. «Con el tiempo, ha permitido que una feroz competitividad y una presión cada vez mayor por obtener más financiación erosionen sus ideales fundacionales de transparencia, apertura y colaboración». 

Horas más tarde, Elon Musk respondió a la noticia con tres tuits consecutivos: 

«En mi opinión, OpenAI debería ser más abierta». 

«No tengo ningún control y solo una visión muy limitada de OpenAI. La confianza en Dario en materia de seguridad no es muy alta», afirmó, refiriéndose a Dario Amodei, director de investigación. 

«Todas las organizaciones que desarrollan IA avanzada deberían estar reguladas, incluida Tesla». 

Posteriormente, Altman envió un correo electrónico a los empleados de OpenAI. 

«Quería compartir algunas reflexiones sobre el artículo de Tech Review», escribió. «Aunque definitivamente no es catastrófico, es claramente negativo». 

Dijo que era «una crítica justa», ya que el artículo había identificado una desconexión entre la percepción de OpenAI y su realidad. Esto podría suavizarse no con cambios en sus prácticas internas, sino con algunos ajustes en los mensajes públicos de OpenAI. «Es bueno, no malo, que hayamos descubierto cómo ser flexibles y adaptarnos», dijo, incluyendo la reestructuración de la organización y el aumento de la confidencialidad, «para lograr nuestra misión a medida que aprendemos más».» OpenAI debería ignorar mi artículo por ahora y, en unas semanas, empezar a subrayar su compromiso continuo con sus principios originales bajo la nueva transformación. «Esta también puede ser una buena oportunidad para hablar de la API como estrategia de apertura y reparto de beneficios», añadió, refiriéndose a una interfaz de programación de aplicaciones para ofrecer los modelos de OpenAI. 

«Para mí, el problema más grave de todos», continuó, «es que alguien filtró nuestros documentos internos». Ya habían abierto una investigación y mantendrían informada a la empresa. También sugeriría que Amodei y Musk se reunieran para resolver las críticas de Musk, que eran «leves en comparación con otras cosas que ha dicho», pero que seguían siendo «algo malo». Para evitar cualquier duda, escribió que el trabajo de Amodei y la seguridad de la IA eran fundamentales para la misión. «Creo que en algún momento en el futuro deberíamos encontrar una forma de defender públicamente a nuestro equipo (pero sin dar a la prensa la pelea pública que tanto les gustaría ahora mismo)». 

OpenAI no volvió a hablarme durante tres años. 

Por: Karen Hao.

Sitio Fuente: MIT Technology Review