La respuesta es clarísimamente, no. La IA no crea un nuevo tipo de negligencia ni un nuevo tipo de deslealtad; crea nuevas formas posibles de incurrir en negligencia o deslealtad.
Pero las autoras de esta entrada en el blog de Oxford sostienen lo contrario. No me parecen convincentes
Afirman que el Reglamento europeo de la inteligencia artificial AI Act, “decisively reshapes directors’ fiduciary duties” y da lugar a “two novel fiduciary duties”. Pero esto no se sostiene ni a la luz de la dogmática de los deberes fiduciarios ni del significado de la AI Act. Simplemente, si en la compañía se utiliza la IA, pesa sobre los administradores el deber de supervisión que se extiende a toda la actividad de la compañía.
La AI Act es un reglamento de seguridad y gestión del riesgo aplicable a los proveedores, a los que implantan y desarrollan la IA y a los usuarios de sistemas que la incorporen. Es un marco regulatorio que impone nuevas cargas de cumplimiento a la sociedad de modo que, como digo, el estándar de diligencia se concreta ex post respecto de un nuevo objeto, como ocurrió antes con los riesgos financieros complejos, el compliance penal o la ciberseguridad.
Que ahora existan sistemas algorítmicos complejos no crea un “AI due care duty”. El administrador ya estaba obligado a informarse adecuadamente, a comprender los riesgos relevantes del negocio y a organizar sistemas de control razonables incluidos los programas informáticos que utilizase la compañía. Si hoy una decisión estratégica relevante se apoya en modelos algorítmicos, la exigencia de comprensión mínima del instrumento utilizado no es una nueva obligación fiduciaria, sino una aplicación trivial del viejo estándar: quien decide con ayuda de X debe entender X lo suficiente como para no decidir a ciegas. Eso era cierto cuando X era un derivado financiero, una operación de M&A estructurada o un modelo actuarial; la IA no introduce nada conceptualmente distinto.
Por la misma razón, la supuesta “AI loyalty oversight” es doctrinalmente artificial. El deber de lealtad protege contra conflictos de interés y conductas de desvío del interés social. Si un proveedor de software introduce en la herramienta incentivos contractuales o funcionales contrarios al interés de la sociedad y el administrador lo acepta sin control, el problema no es un nuevo tipo de lealtad algorítmica, sino una infracción clásica del deber de lealtad o, más probablemente, de diligencia organizativa en la contratación y supervisión de terceros. No hay aquí ampliación del concepto de conflicto de interés, sino un cambio en su manifestación empírica. El Derecho societario siempre ha tratado como imputables al órgano de administración las decisiones delegadas en terceros cuando la delegación es negligente o desleal.
La falta de sistemas razonables de información y control sobre riesgos centrales del negocio puede constituir infracción del deber de diligencia. Nada en esa línea jurisprudencial depende de que el riesgo sea algorítmico, sanitario o financiero. Decir que “omission is liability” no convierte el fenómeno en una innovación fiduciaria; simplemente recuerda que la pasividad ante riesgos conocidos y relevantes es incompatible con la diligencia debida.
El tratamiento de la Business Judgment Rule es quizá donde el texto incurre en la mayor exageración retórica. Si un consejo de administración no entiende mínimamente el instrumento del que se sirve, si no documenta por qué confía en él o si se limita a aceptar outputs automáticos, ya hoy quedaría fuera del amparo de la BJR. Business as usual bajo la BJR. La BJR siempre ha exigido actuación informada, de buena fe y sin conflicto de interés. La utilización de IA es un caso paradigmático de confianza en outputs algorítmicos, y esa confianza, como cualquier confianza fiduciariamente relevante en un input decisorio, siempre ha requerido —cuando es controvertida o compleja— poder ser explicada y reconstruida ex post. Es una consecuencia obvia de aplicar un estándar informativo a decisiones complejas. No hay necesidad alguna de una “BJR 2.0”, porque la regla ya distingue entre decisión empresarial protegida y falta de control, ignorancia culpable o delegación irresponsable. Si un administrador no puede explicar mínimamente por qué confió en determinada herramienta, ya hoy queda fuera del amparo de la BJR, con o sin IA.
Nihil novum sub sole iuris. – “Nada nuevo, jurídicamente hablando”. El Derecho de deberes fiduciarios está precisamente diseñado para absorber cambios tecnológicos sin necesidad de reinventarse
O como dice Pier Luigi Matera
"la IA no modifica el estándar legal que rige la responsabilidad de los administradores, sino que modifica el terreno probatorio a través del cual se demuestra que los administradores y ejecutivos han han actuado diligentemente y de buena fe en la supervisión... La cuestión es qué requiere el deber de diligencia cuando la supervisión en sí misma está parcialmente automatizada"
y, en cuanto a las señales de alerta que deben mover a los consejeros a actuar,
En entornos mediados por IA emerge una categoría específica de red flags: indicios de que la propia infraestructura de supervisión puede no estar funcionando correctamente. La deriva del modelo, la degradación progresiva del rendimiento, una estabilidad inexplicada en las tasas de alerta o la divergencia entre los resultados algorítmicos y señales externas —como actuaciones de las autoridades de supervisión o denuncias de informantes— pueden operar como señales de alerta de segundo orden. ... lo determinante para inferir la mala fe no es la complejidad tecnológica, sino la ausencia de mecanismos efectivos que permitan que la información llegue al consejo y que este pueda adoptar decisiones.

No hay comentarios:
Publicar un comentario