martes, 19 de diciembre de 2023

¿Qué prefieres? ¿una mala regulación o ausencia de regulación? ¿un mundo con más inteligencia o un mundo con menos inteligencia? Andrew Ng

En realidad, me encantaría que los gobiernos fueran prácticos y promulgaran una buena regulación, pero las propuestas que hay en marcha son malas... entre una mala regulación y no tener regulación, prefiero no tener regulación.

Esta magnífica entrevista al genio de la Inteligencia Artificial (IA) Andrew Ng que ha publicado el Financial Times está llena de sugerencias. Recomiendo vivamente su lectura. 

La regulación de la IA se ha saludado por canónigos y apóstoles de la cosa europea como un gran éxito aunque, a juzgar por la información sobre su contenido, parece el parto de los montes. En todo caso, la afirmación de Ng de que es preferible no tener regulación a tener una mala regulación deberían grabarla en una placa en sus despachos todos los altos funcionarios y políticos que promueven los acuerdos legislativos en Bruselas, Estrasburgo o Madrid. Porque el sesgo pro-regulatorio es tan potente que se da por descontado que las opciones son regulación o no regulación. Pero esas no son las opciones reales. Las opciones reales son buena regulación, mala regulación y no regulación. Y el análisis de las circunstancias en las que se producen las nuevas normas, un alto funcionario o un político inteligente debería ser capaz de atribuir proporciones a cada una de los tres resultados. Y me parece evidente que las posibilidades de que en Europa sean capaces de dictar una buena regulación general de la IA son muy pequeñas. Por dos motivos fundamentalmente. Sabemos muy poco. Lo que está en juego es tanto que hay que temer un lobby potentísimo para proteger a los incumbentes. Y los incumbentes son las grandes tecnológicas norteamericanas. Cualquier regulación que reduzca la innovación, como las barreras a la apertura de hipermercados, favorece a los que ya tienen un hipermercado abierto en esa ciudad. Y, hoy por hoy, todo el negocio de la IA está en EE.UU. (v., el gráfico sobre las 10 empresas europeas más valiosas). El acierto de las decisiones se mide por el contexto en el que se toman: la misma idea puede ser buena o mala en función del contexto en el que se aplique. No así en la Ciencia.

Ng dice algo útil para los que se dedican a regular: regula las aplicaciones que utilicen IA. No el software ("modelos de código abierto"). Porque el efecto ralentizador sobre la innovación de regular las aplicaciones (médicas, financieras, de marketing) es muy inferior al efecto que tendría regular la IA directamente.

Pero lo más fascinante de sus respuestas está en lo que dice sobre la inteligencia y la conciencia. Dos cosas. Una, en su opinión, la IA generativa es inteligente. ¿Por qué? porque "he visto que... los modelos de IA construyen modelos del mundo y... si una IA tiene un modelo del mundo, me inclino a creer que 'entiende' el mundo... si tienes un modelo del mundo, tienes una idea de cómo funciona... y puedes hacer predicciones sobre cómo puede evolucionar ese mundo en diferentes escenarios... los LLM... construyen un modelo del mundo". Es la definición de inteligencia más brillante que he leído. Nuestro cerebro tiene un modelo de cómo funciona su entorno y es capaz de predecir cómo evolucionará y actuará ajustando la conducta del sujeto - su reacción - a la nueva información sobre el entorno que recibe a través de sus órganos sensoriales. La IA según Ng es capaz de predecir. O sea, es inteligente. 

Y cuando le preguntan por la conciencia (consciousness), (¿qué es la conciencia?) desecha la pregunta porque dice que no es científica. Es filosófica. ¿Cómo distinguimos una pregunta científica de una filosófica? Porque no podemos diseñar una experimento que nos permita decidir si alguien es un ser "consciente" o no lo es. O sea, los filósofos se ocupan de los problemas que la Ciencia no puede todavía resolver. Un buen filósofo es alguien capaz de formular intuiciones colosales, 'conjeturas portentosas' y la Filosofía, una forma de entrenamiento para poder resolver mejor los problemas científicos.

Por último, lo que dice sobre el riesgo de que la IA acabe matándonos a todos es también muy sensato: hay una probabilidad de que eso ocurra semejante a la de que unos extraterrestres estén recibiendo ondas desde la tierra y utilicen ese conocimiento para aniquilarnos. El riesgo no es cero, pero, como sabemos los de Derecho Mercantil, frente a riesgos catastróficos pero de bajísima probabilidad de producción, lo mejor es actuar como si ese riesgo no existiera. Sobre todo, cuando lo que puedes hacer para reducir ese riesgo tiene un coste elevadísimo en términos de ralentización de la innovación, innovación que podría resolver el problema a menor coste en un futuro más o menos lejano. Y la pregunta que se hace Ng es la misma de siempre: ¿qué preferimos? ¿un mundo con más conocimiento o un mundo con menos conocimiento? Que el conocimiento se puede utilizar para fines perversos, lo sabemos desde Adán y Eva. 

No hay comentarios:

Archivo del blog