Matt Levine ha escrito una columna sobre el affaire Sam Altman. Como sabrán, Sam Altman, consejero-delegado de OpenAI Global LLC ha sido destituido por el consejo de administración de la compañía. Lo que quizá no sepan es que OpenAI Global LLC es una filial de una fundación (en EE.UU. no existe esa separación radical entre fundaciones y sociedades anónimas, todas son “corporations”). La fundación se llama OpenAI Inc. Está gobernada por un “consejo de administración” (en España se denomina “patronato”) que deben lealtad – son fiduciarios – al fin que llevó a la constitución de la fundación, esto es, en el caso de OpenAI “a crear inteligencia artificial segura y provechosa en beneficio de la humanidad”.
Añade Levine que quizá aquí nos encontremos ante un conflicto entre los empleados de OpenAi y sus administradores. Hansmann ya explicó que las empresas sin ánimo de lucro podían ser eficientes como un mecanismo para proteger a los clientes – los consumidores – frente a la explotación por parte de una empresa monopolística o, en general, en mercados con elevados costes de información al contratar para estos consumidores. Por ejemplo, si se funda una ciudad y los habitantes quieren obtener suministro eléctrico, dado que será un monopolio natural, la empresa eléctrica puede explotar a sus clientes y cobrarles un precio monopolístico. Una solución es convertir a la empresa eléctrica en una cooperativa – en una mutua – que oriente su actuación a ofrecer la electricidad al precio más bajo posible a los habitantes de la ciudad. En el caso de servicios a los ancianos y a los niños, como los que pagan el servicio son terceros (los hijos o padres respectivamente), los establecimientos de atención a los ancianos o de guardería o educación pueden estar incentivados para maximizar sus ganancias reduciendo la calidad del servicio que prestan. Una forma de “prometer” a los hijos/padres que tal cosa no ocurrirá es la constituir la empresa bajo una forma no lucrativa de manera que la reducción de costes no beneficie a los individuos que están detrás de la empresa porque no podrán retirarlos. No es extraño, pues, que en estos sectores, las empresas sin ánimo de lucro (reparto de ganancias) proliferen y dominen los mercados. En el caso de OpenAI, la forma de fundación quizá se explique como una forma de atraer empleados-que-quieren-cambiar-el-mundo “prometiéndoles” que, como no hay accionistas a quienes repartir los beneficios, todos los ingresos se destinarán a tenerlos contentos a ellos y, sobre todo, a desarrollar el mejor producto posible.
Levine cree que los empleados de una fundación empresarial “estarán más comprometidos con el fin fundacional que los miembros del consejo de administración”. Pero no da buenos argumentos para alcanzar esta conclusión e, inmediatamente, sugiere que en el caso de OpenAI puede ser al revés: que los incentivos de los empleados les lleven a maximizar los ingresos con mayor intensidad que a los consejeros porque, probablemente, los ingresos personales de los empleados – salarios y participación en los beneficios – dependen en mayor medida de los ingresos de la compañía que los de los miembros del consejo de administración.
En este contexto, los incentivos de los miembros del consejo están mejor alineados con el “interés social” o interés fundacional que los de los empleados. La “misión” de OpenAI, nos dice Levine, incluye “no desarrollar la inteligencia artificial demasiado rápido o demasiado comercialmente” llegando incluso a paralizar los proyectos que pudieran convertir la inteligencia artificial en algo peligroso para la humanidda.
Si así son las cosas ¿estaba justificada la destitución de Sam Altman?
Ayer, prácticamente todo el personal de OpenAI firmó una carta abierta al consejo, exigiendo que dimita y traiga de vuelta a Altman. La carta afirma que el consejo de administración "informó al equipo directivo de que permitir la destrucción de la empresa 'sería coherente con la misión'". ¡Sí! Es decir, el consejo podría estar equivocado sobre los hechos, pero en principio es absolutamente posible que destruir el negocio de OpenAI fuera coherente con su misión. Si has construido una IA insegura, borras el código y quemas el edificio. La misión es condicional -construir inteligencia artificial si es segura- y si la condición no se cumple, entonces… destruyes todo el trabajo.
Y muy agudamente, Levine concluye: esta es precisamente la función del consejo de administración y es la tarea asignada al Consejo porque los directivos y empleados están “conflictuados” para adoptar una decisión semejante. Como el doctor Frankenstein, difícilmente estará dispuesto el equipo directivo a apretar el botón de “delete” del código que permite el funcionamiento – inseguro – de la inteligencia artificial. Está bien que la competencia se atribuya a otro órgano cuyos miembros no estén en conflicto de interés. Naturalmente – continúa Levine – eso no significa que el Consejo acierte.
Pero creo que la decisión del Consejo debería ser respetada. Porque no es que hayan ordenado a los ejecutivos que borren el código o que dejen de comercializar ChatGPT-4. Simplemente han valorado que el liderazgo de Sam Altman podría orientar la empresa en una dirección “too commercial” como para que las consideraciones fundamentales que llevaron a la fundación de la empresa queden preservadas. Especialmente cuando en el capital de la filial han entrado empresas como Microsoft.
En el momento de escribir estas líneas, seguimos sin saber las razones que llevaron al consejo de administración a destituir a Altman. A salvo de referencias a que no habría sido “sincero” con el consejo o que habría “ocultado” cuestiones importantes al Consejo
No hay comentarios:
Publicar un comentario