miércoles, 17 de mayo de 2023

Scott Alexander sobre cómo razonar en un entorno de incertidumbre absoluta



Supongamos que los astrónomos divisaran una nave alienígena en el espacio, de un tamaño enorme y que parece dirigirse hacia la Tierra… No tenemos ni idea de lo que podría pasar pero no parece sensato concluir que la nave alienígena no destruirá nuestro planeta y a todos nosotros con él por lo que no vale la pena preocuparse por la nave.

¿Cuáles la tasa base de naves espaciales alienígenas que se acercan a la Tierra y acaban matando a la Humanidad? No hay tal porque nunca hemos estado en esa situación con anterioridad a hoy. ¿Cuál es la tasa base para un desarrollo de una inteligencia artificial (IA) sobrehumana que acaba matando a la humanidad? Ni idea…

Podríamos razonar para imaginar una tasa base de la siguiente forma: “Ha habido cien inventos o innovaciones importantes desde la aparición de la agricultura y ninguna de ellas acabó con la humanidad, por lo que podemos partir de una tasa base para las innovaciones importantes que acaban matando a la humanidad de aproximadamente 0 %”

Pero esta forma de argumentar puede rebatirse recordando que “ha habido alrededor de una docena de episodios en los que una especie inteligente ha sido seguida por sucesores más inteligentes (australopithecus – homo habilis, homo habilis – homo erectus…) y en todos los casos, la especie sucesora ha eliminado a su predecesora. Por tanto, la tasa base para examinar la probabilidad de que especies sucesoras más inteligentes maten a todos los demás es aproximadamente del 100%.

… en estas circunstancias, el único movimiento ganador es no jugar. Pensar en este asunto en términos de tasa base es muy difícil… y requería argumentos de por qué una tasa base es mejor que otra…”

La conclusión que puede razonablemente extraerse de este texto de Scott Alexander es que si concebimos la inteligencia artificial (IA) como una nueva especie del linaje homo más inteligente que el homo sapiens sapiens, la probabilidad de que la IA acabe con nosotros tiende al 100 %. Ahora bien, si ajustamos un poco más la lente con la que examinamos los precedentes (no sabemos, por ejemplo, si los homo sapiens acabaron con los neanderthales o si, simplemente, los homo sapiens estaban mejor preparados psicológicamente para sobrevivir en un entorno muy peligroso y de subsistencia porque cooperaban mejor entre sí) tal vez la tasa base se reduciría muchísimo. ¿Por qué?

Por dos razones. La primera es que no es nada seguro que las especies del linaje homo más inteligentes que las previas mataran a éstas. Lo más probable es que no coincidieran espacio-temporalmente. Los depredadores de una especie son, normalmente, de otra. La segunda, porque si – imagínese – se descubriera ahora una especie de homo de menor inteligencia que la nuestra, nuestra reacción no sería la de destruirla. Muy al contrario, como lo demuestra la creciente convicción de que los grandes primates merecen un trato próximo al que brindamos a los que consideramos iguales en dignidad. La pregunta entonces, aplicada a la inteligencia artificial es ¿por qué habría de tener incentivos la IA para matarnos? ¿Por qué la IA no sería capaz de ‘darse cuenta’ de que puede matarnos y, no obstante, abstenerse de hacerlo? Si no puede ‘evitarlo’, es que no es tan inteligente en primer lugar.

Scott Alexander, MR intenta la falacia de la incertidumbre segura, 2023

1 comentario:

RAL dijo...

Otro Scott. Scott-Card en sus Libros de Ender. El más inteligente es más empático porque prevé muchísimas más consecuencias incluso muy indirectas de sus actos para otros seres. Suponemos que empático = bondadoso.

Archivo del blog