La paradoja en el centro de la demanda contra OpenAI de Elon Musk

La paradoja en el centro de la demanda contra OpenAI de Elon Musk

Sería fácil desestimar la demanda de Elon Musk contra OpenAI como un caso de uvas amargas.

Musk demandó a OpenAI esta semana, acusando a la compañía de violar los términos de su acuerdo fundacional y violar sus principios fundacionales. Según él, OpenAI se fundó como una organización sin fines de lucro que construiría potentes sistemas de inteligencia artificial en beneficio de la humanidad y distribuiría sus investigaciones al público de forma gratuita. Pero Musk sostiene que OpenAI rompió esa promesa al iniciar una filial con fines de lucro que absorbió miles de millones de dólares en inversiones de Microsoft.

Un portavoz de OpenAI se negó a comentar sobre la demanda. En un memorando enviado a los empleados el viernes, Jason Kwon, director de estrategia de la empresa, negó las afirmaciones de Musk y dijo: “Creemos que las reclamaciones de esta demanda pueden surgir del remordimiento de Elon por no haber estado involucrado con la empresa hoy”, según una copia del memorándum que vi.

Por un lado, la demanda apesta a carnicería personal. Musk, quien fundó OpenAI en 2015 junto con un grupo de otros pesos pesados ​​de la tecnología y proporcionó gran parte de su financiamiento inicial, pero lo abandonó en 2018 en medio de disputas con el liderazgo, le molesta que lo dejen de lado en las conversaciones sobre inteligencia artificial. Tan exitoso como ChatGPT, el chatbot insignia de OpenAI. Y la disputa entre Musk y el director ejecutivo de OpenAI, Sam Altman, ha sido bien documentada.

Pero en medio de toda esta animosidad, hay un punto que vale la pena destacar, porque ilustra una paradoja que está en el centro de gran parte del debate actual sobre la inteligencia artificial, y un punto en el que OpenAI realmente ha hablado con ambos lados de la boca, insistiendo a ambos en que sus sistemas de inteligencia artificial son increíblemente poderosos y no se acercan a la inteligencia humana.

La afirmación se centra en un término conocido como AGI, o “inteligencia general artificial”. Definir qué constituye AGI es notoriamente complicado, aunque la mayoría de la gente estaría de acuerdo en que es un sistema de inteligencia artificial capaz de hacer la mayoría o todas las cosas que el cerebro humano puede hacer. Altman definió AGI como “el equivalente de un humano promedio que podrías contratar como colaborador”, mientras que el propio OpenAI define AGI como “un sistema altamente autónomo que supera a los humanos en el trabajo económicamente más valioso”.

La mayoría de los líderes de las empresas de IA sostienen que no sólo es posible construir AGI, sino que también es inminente. Demis Hassabis, director ejecutivo de Google DeepMind, me dijo en una entrevista reciente en un podcast que cree que AGI podría llegar ya en 2030. Altman dijo que AGI podría tardar solo cuatro o cinco años.

Construir AGI es el objetivo explícito de OpenAI y tiene muchas razones para querer llegar allí antes que nadie. La verdadera AGI sería un recurso increíblemente valioso, capaz de automatizar enormes cantidades de trabajo humano y generar mucho dinero para sus creadores. También es el tipo de objetivo brillante y audaz que a los inversores les encanta financiar y que ayuda a los laboratorios de IA a reclutar a los mejores ingenieros e investigadores.

Pero la AGI también podría ser peligrosa si fuera capaz de ser más astuta que los humanos, o si se volviera engañosa o desalineada con los valores humanos. Las personas que iniciaron OpenAI, incluido Musk, temían que una AGI fuera demasiado poderosa para que la poseyera una sola entidad, y que si alguna vez estuvieran cerca de construir una, tendrían que cambiar la estructura de control a su alrededor para evitar que causando daños o concentrando demasiada riqueza y poder en manos de una sola empresa.

Por eso, cuando OpenAI se asoció con Microsoft, otorgó específicamente al gigante tecnológico una licencia válida sólo para tecnologías “pre-AGI”. (El New York Times está demandando a Microsoft y OpenAI por el uso de obras protegidas por derechos de autor).

Según los términos del acuerdo, si OpenAI alguna vez construyera algo que cumpliera con la definición de AGI, según lo determinado por la junta de OpenAI sin fines de lucro, la licencia de Microsoft ya no se aplicaría y la junta de OpenAI podría decidir hacer lo que quiera para garantizar que el AGI de OpenAI. beneficios. toda la humanidad. Esto podría significar muchas cosas, incluido el acceso abierto a la tecnología o su desmantelamiento por completo.

La mayoría de los comentaristas de IA creen que los modelos de IA actuales no califican como AGI porque carecen de capacidades de razonamiento sofisticadas y a menudo cometen errores tontos.

Pero en sus presentaciones legales, Musk presenta un argumento inusual. Afirma que OpenAI tiene Ya logró AGI con su modelo de lenguaje GPT-4, lanzado el año pasado, y que la tecnología futura de la compañía calificará aún más claramente como AGI

“Con respecto a la información y las creencias, GPT-4 es un algoritmo AGI y, por lo tanto, está expresamente fuera del alcance de la licencia exclusiva de Microsoft con OpenAI a partir de septiembre de 2020”, se lee en la denuncia.

Lo que Musk argumenta aquí es un poco complicado. Básicamente, está diciendo que debido a que logró AGI con GPT-4, OpenAI ya no puede otorgarle licencia a Microsoft, y que su junta directiva debe hacer que la tecnología y la investigación estén disponibles más libremente.

Su queja cita el ahora infame artículo “Sparks of AGI” escrito por un equipo de investigación de Microsoft el año pasado, que afirmaba que GPT-4 demostraba los primeros indicios de inteligencia general, incluidos signos de razonamiento a nivel humano.

Pero la denuncia también señala que es poco probable que la junta directiva de OpenAI decida cambiar sus sistemas de IA. De hecho califica como AGI, porque tan pronto como lo hace, tiene que hacer grandes cambios en la forma en que implementa y se beneficia de la tecnología.

Además, señala que Microsoft –que ahora tiene un asiento de observador sin derecho a voto en la junta directiva de OpenAI, después de una agitación el año pasado que llevó al despido temporal de Altman– tiene un fuerte incentivo para negar que la tecnología de OpenAI califique como AGI. Eso pondría fin a su licencia para utilizar dicha tecnología en sus productos y pondría en peligro ganancias potencialmente enormes.

“Dado el enorme interés financiero de Microsoft en mantener sus puertas cerradas al público, la nueva junta directiva capturada, conflictiva y obediente de OpenAI, Inc. tendrá todos los motivos para retrasar el descubrimiento de que OpenAI ha obtenido AGI”, se lee en el queja. “Por el contrario, para que OpenAI alcance AGI, como ‘Mañana’ en ‘Annie’, siempre estará a un día de distancia”.

Teniendo en cuenta su historial de controversias cuestionables, es fácil cuestionar los motivos de Musk aquí. Y como director de una startup de IA competidora, no sorprende que quiera involucrar a OpenAI en un litigio complicado. Pero su demanda representa un verdadero enigma para OpenAI.

Al igual que sus competidores, OpenAI desea desesperadamente ser visto como un líder en la carrera por construir AGI, y tiene un gran interés en convencer a los inversores, socios comerciales y al público de que sus sistemas están mejorando a un ritmo vertiginoso.

Pero debido a los términos de su acuerdo con Microsoft, es posible que los inversores y ejecutivos de OpenAI no quieran admitir que su tecnología en realidad califica como AGI, siempre y cuando lo haga.

Esto ha puesto a Musk en la extraña posición de pedirle a un jurado que se pronuncie sobre qué constituye AGI y decida si la tecnología de OpenAI ha alcanzado el umbral.

La demanda también ha puesto a OpenAI en la extraña posición de restar importancia a las capacidades de sus propios sistemas, lo que continúa alimentando la anticipación de que un gran avance en AGI está a la vuelta de la esquina.

“GPT-4 no es un AGI”, escribió Kwon de OpenAI en un memorando a los empleados el viernes. “Puede resolver pequeñas tareas en muchos trabajos, pero la proporción entre el trabajo realizado por un humano y el trabajo realizado por GPT-4 en la economía sigue siendo increíblemente alta”.

La disputa personal que impulsó la demanda de Musk ha llevado a algunas personas a verla como una demanda frívola (un comentarista la comparó con “demandar a su ex porque renovó la casa después de su divorcio”) que será rápidamente desestimada.

Pero incluso si es rechazada, la demanda de Musk apunta a preguntas importantes: ¿Quién decide cuándo algo califica como AGI? ¿Las empresas de tecnología están exagerando o exagerando (o ambas cosas) cuando se trata de describir la capacidad de sus sistemas? ¿Y qué incentivos se esconden detrás de las diversas afirmaciones sobre lo cerca o lejos que podríamos estar de AGI?

Una demanda de un multimillonario resentido probablemente no sea la manera de resolver estas cuestiones. Pero vale la pena preguntar, especialmente ahora que los avances en inteligencia artificial continúan acelerándose.

By Alejandro José Varela

Related Posts