Milton Friedman (Premio Nobel de Economía) lanzó una advertencia hace 50 años que hoy es más relevante que nunca. Casi nadie logra entender su verdadera magnitud.Le preguntaron: «Sin regulación farmacéutica, la gente moriría por tomar productos peligrosos. ¿No le parece una tragedia?».
Su respuesta fue uno de los giros lógicos más brillantes de la historia económica.
—Sí —respondió Friedman—. Un medicamento no regulado puede matar. Es obvio. Sale en la prensa. Es un escándalo. Todo el mundo lo ve.
Pero lo que nadie ve es a las personas que mueren porque un fármaco que pudo salvarlas estuvo bloqueado 10 años por el proceso burocrático. Nadie contabiliza esas muertes. No hay titulares. Nadie conoce sus nombres. Murieron por la ausencia de algo que nunca llegó a existir.
Esta es la asimetría fundamental de la regulación.
Un regulador puede cometer dos tipos de errores: Error Tipo 1: Aprobar un fármaco peligroso. Resultado: Escándalo, demandas y el regulador pierde su empleo. Error Tipo 2: Bloquear un fármaco que salva vidas. Resultado: Nada. Nadie se entera. Nadie protesta. Los "muertos silenciosos" no tienen voz. ¿Qué hace un regulador racional? Optimiza para evitar el Error 1. Siempre. Añade fases, estudios, comités y retrasos. Cada capa de "seguridad" es su escudo político, pero el coste lo pagan los pacientes que esperan. Friedman sostenía que la FDA probablemente ha matado a más personas retrasando fármacos eficaces que las que ha salvado bloqueando los dañinos. Es imposible dar una cifra exacta, pero la lógica es demoledora.
(acuérdense de la talidomida. Produjo un desastre en Europa. En EE.UU. no hubo casos porque la FDA no dio la autorización para su comercialización. Pero el caso de la talidomida no solo no refuta a Friedman sino que lo confirma: los costes de la autorización de la talidomida en embarazadas los conocemos. Los costes de los enfermos no curados por la prohibición de medicamentos, no los conocemos).
Un ejemplo real: el betabloqueante propranolol se usó en Europa años antes que en EE. UU. Durante ese tiempo, miles de estadounidenses murieron de infartos evitables. ¿Cuántos? Nunca lo sabremos; no registramos las muertes causadas por la inacción.
De hecho, sí que lo sabemos, según algunos estudiosos, la FDA causó indirectamente la muerte de unas 10.000 personas al año en EE. UU. que habrían sobrevivido si hubieran tenido acceso al estándar médico europeo.
Este principio se repite en todo, no solo en medicina: Coches autónomos: Cada año de retraso normativo son accidentes que pudieron evitarse. Pero solo será noticia el primer accidente de un coche autónomo. IA médica: Algoritmos que diagnostican en segundos esperan años por una validación, mientras las listas de espera para una cita crecen meses.
Energía nuclear: El miedo la paralizó. ¿Cuántos han muerto por la contaminación del carbón que quemamos en su lugar? Nadie los cuenta.
Sí, parece que sí se han contado
| Estudio | Conclusión | Dato Clave |
| NASA / James Hansen (2013) | La energía nuclear evitó muertes al desplazar al carbón. | Se calcula que la energía nuclear evitó 1,84 millones de muertes relacionadas con la contaminación del aire entre 1971 y 2009. |
| Journal of Cleaner Production (2020) | Analizó el cierre de centrales tras Fukushima en Alemania. | El abandono de la nuclear en Alemania aumentó las emisiones de CO2 y partículas, causando unas 1.100 muertes adicionales al año por enfermedades respiratorias. |
| Our World in Data (Oxford) | Comparativa de muertes por TWh generado. | El carbón causa 24.6 muertes por teravatio-hora (contaminación + accidentes). La energía nuclear causa 0.03 muertes (incluyendo Chernobyl y Fukushima). |
El patrón es idéntico: vemos el riesgo de actuar, pero el riesgo de la inacción es invisible. Y como es invisible, el regulador siempre elige la parálisis. La inacción no genera titulares.
Friedman lo resumió así: «Las personas salvadas por la FDA son visibles. Las que mueren por sus retrasos son invisibles. Y en democracia, lo visible siempre vence a lo invisible».
La próxima vez que escuches que "necesitamos más regulación para protegernos", hazte una pregunta: ¿cuántas personas están muriendo ahora mismo esperando permiso para vivir?
La respuesta es siempre mayor de lo que imaginamos. Pero nadie la calcula. Las muertes por inacción no tienen rostro.
Un análisis de la desinformación y las políticas útiles para reducir el daño que podría causar, por Sacha Altay
La tesis central del artículo es que las intervenciones públicas contra la desinformación sobredimensionan la prevalencia y el impacto de la información falsa, subestiman el escepticismo del público y focalizan el problema en déficits individuales —cognitivos o formativos— cuando deberían hacerlo sobre los factores estructurales, motivacionales y políticos que sostienen tanto la oferta como la demanda de desinformación.
El consumo de desinformación es, en términos agregados, bajo y extremadamente concentrado. En Europa y Estados Unidos, la información procedente de fuentes poco fiables representa un porcentaje del consumo de noticias en línea inferior al 5 %, y una proporción aún menor del consumo total de contenidos digitales, dado que solo una fracción muy reducida del tiempo en Internet se dedica a informarse. Además, ese consumo se concentra en una minoría muy restringida de usuarios intensivos, altamente politizados y desproporcionadamente activos. Para la mayoría de la población, el problema no es la exposición reiterada a información falsa, sino la escasa exposición a información fiable, causada por el desinterés creciente por las noticias y la evitación informativa. Incluso si fuese posible eliminar por completo la desinformación, los efectos sobre la corrección de creencias serían marginales.
La confianza en los medios es baja y sigue descendiendo, mientras que la evitación de noticias aumenta de forma sostenida. Las personas distinguen razonablemente bien entre información falsa y verdadera, pero presentan una fuerte tendencia a rechazar información veraz antes que aceptar información falsa. Los individuos confían en exceso en sus propias creencias previas y muestran desconfianza hacia fuentes externas, incluso cuando estas son fiables. En este contexto, muchas intervenciones —especialmente las basadas en alfabetización mediática genérica, advertencias o entrenamiento abstracto en “pensamiento crítico”— tienen un margen de mejora muy limitado respecto de la reducción de la confianza en fuentes poco fiables y, además, pueden incrementar el rechazo de información correcta y socialmente valiosa.
La desinformación es, en gran medida, un síntoma. Las personas aceptan y difunden información engañosa porque desconfían de las instituciones, existe una polarización política intensa y una marcada animadversión hacia los rivales políticos. La desinformación funciona como un arma anti‑establishment y cumple una función expresiva o identitaria, lo que explica que desmentir afirmaciones concretas difícilmente altere las disposiciones subyacentes que hacen atractivas esas narrativas. Mientras persistan la desconfianza institucional y la polarización afectiva, la demanda de desinformación seguirá existiendo.
La desinformación con efectos sociales relevantes suele provenir de un número muy reducido de individuos situados en posiciones de poder simbólico: políticos, líderes de opinión o grandes influenciadores con alta capacidad de amplificación, no de los miles de usuarios medios. Sin embargo, la mayor parte de las intervenciones se dirigen a estos últimos. Altay sostiene que actuar sobre los actores con poder de difusión sería mucho más eficaz, aunque reconoce que el coste reputacional de mentir se ha debilitado precisamente porque el público que consume y comparte desinformación desconfía de las instituciones encargadas de sancionar la falsedad.
La lucha contra la desinformación no debería definirse en términos estrictos de verdad y falsedad. Lo relevante es si la difusión de una información produce engaño y daño social. No toda falsedad es perjudicial —como ocurre con la sátira, la ironía o el sarcasmo— mientras que verdades literales pueden resultar profundamente engañosas si se presentan de forma selectiva o descontextualizada (por ejemplo, confundir “afiliaciones” con “afiliados”). El foco normativo debería desplazarse desde la falsedad hacia la capacidad real de inducir a error.
El fact‑checking es eficaz para corregir creencias a corto plazo y rara vez produce efectos contraproducentes de retroceso, pero tiene un alcance limitado, apenas incide en actitudes o comportamientos y llega poco a quienes más consumen desinformación, que suelen desconfiar de los verificadores. Su impacto directo es modesto, aunque el autor subraya su posible valor indirecto como amenaza reputacional para actores públicos.
Los nudges son técnicas de regulación conductual indirecta que buscan orientar el comportamiento informativo de los usuarios mediante cambios en la arquitectura de la decisión, sin prohibir opciones, sin imponer sanciones ni alterar de forma significativa los incentivos materiales. En el ámbito de la desinformación, estas intervenciones no distinguen bien entre contenidos fiables y no fiables y tienden a reducir la circulación de información en general, lo que puede generar efectos netos negativos en un entorno ya caracterizado por una exposición informativa muy limitada.
Altay propone, en primer lugar, desplazar el foco desde la lucha contra la desinformación hacia la promoción activa de información fiable, reforzando la confianza en buenas fuentes más que entrenando a los ciudadanos para verificar contenidos de manera individualizada. La clave no estaría en enseñar a comprobar cada afirmación, sino en ayudar a identificar a qué actores merece la pena delegar confianza epistemológica.
En segundo lugar, intervenir sobre la polarización afectiva y la animadversión partidista, en la medida en que constituyen un motor central de la demanda de desinformación. Ahora bien, esta propuesta resulta problemática en contextos occidentales donde la polarización no es un subproducto espontáneo de la sociedad civil, sino una estrategia activamente promovida y explotada por los propios gobiernos y actores institucionales dominantes.
En tercer lugar, el autor defiende aprovechar de manera más sistemática los efectos indirectos del fact‑checking como amenaza reputacional dirigida a actores con poder de amplificación —políticos y líderes de opinión— en lugar de concebirlo principalmente como una herramienta pedagógica para el público general. En este plano, la rendición de cuentas de las élites aparece como una condición mucho más prometedora que la corrección puntual de creencias individuales.
¿Puede una Fundación (Bancaria La Caixa) autorizar el pago de una indemnización por cese a un directivo de una sociedad participada (Criteria Caixa) por valor de 10 millones de euros
tras 14 meses de trabajo? ¿Puede aprobar una fundación un contrato (el contrato con Simón) que incluya una cláusula de blindaje de 3 años de salario a favor del directivo? ¿Es una retribución conforme con la ley (art. 217.4 LSC)?
El error que cometen los psicólogos evolutivos es pensar que las personas están definidas íntegramente por su conocimiento genético. En realidad, las personas tienen ideas innatas gracias al conocimiento genético. Pero todo conocimiento, incluido el genético, se reescribe mediante conjeturas y críticas. Así que no hay ninguna idea escrita en nuestro código base de tal forma que no pueda cambiarse. Por ejemplo, los psicólogos evolutivos piensan que el Cociente Intelectual es una propiedad intrínseca e inmutable de la arquitectura cerebral. Pero las personas tienen la capacidad de pensar cualquier cosa posible, de simular cualquier proceso posible. Así que el CI es una especie de conocimiento tan reescribible y maleable como cualquier otro concepto.
en todos los estudios. La relación es más fuerte para la confianza en los vecinos y cuando la diversidad étnica se mide más localmente.
Breve:
It moves human work from typing into fact checking; los costes de la gran feminización; Los ayatolás ordenan acelerar los asesinatos de sus ciudadanos; Cero dudas de la responsabilidad aquiliana de REE y ahora, casi ninguna de la responsabilidad del Estado. Como escribí hace unos días:
la cuestión de la responsabilidad civil por el apagón es estrictamente jurídica y ha de establecerse examinando si se dan los requisitos del artículo 1902 CC. Y, desde la perspectiva del artículo 1902 CC deberían caber pocas dudas de que REE actuó negligentemente en relación con el patrón de conducta que le era exigible. Si hubiera aplicado la máxima diligencia exigible al gestor de la red eléctrica frente al riesgo de un cero como el que se produjo (¡el incidente más grave en una red eléctrica en todo el mundo en los últimos 20 años!), el apagón se habría evitado. Si REE asumió más riesgos de los debidos en la operación del sistema porque el Gobierno le indujo a hacerlo, la única consecuencia sería extender al Gobierno, incluida, personalmente, la Ministra para la Transición Ecológica y las otras cosas. Tal inducción podría deducirse de la presión del Gobierno sobre REE para que se incrementase la participación de energías renovables en la red cuando no se disponía de los mecanismos de seguridad (inercia) que garantizasen que no ocurriera lo que acabó ocurriendo. Es impensable, - a efectos del artículo 1902 CC - que se pueda producir un apagón semejante si no ha habido negligencia por parte del operador de la red. Naturalmente, salvo que REE demuestre que el apagón se debió exclusivamente a la defectuosa operación de alguna de las plantas por parte del dueño de las mismas.
En ese post, Scott Cunningham sostiene que la irrupción de sistemas como Claude Code ha roto una relación que durante décadas había estado implícitamente unida en la academia: la de investigar y la de publicar. Su tesis central es que la producción de investigación —entendida como generar análisis empíricos técnicamente correctos, escribir manuscritos coherentes y razonablemente bien argumentados— se está volviendo extraordinariamente barata y rápida, mientras que la publicación en los canales tradicionalmente valorados (revistas bien clasificadas, “top journals”) sigue dependiendo de cuellos de botella profundamente humanos y escasos, como el tiempo de los editores, la disponibilidad de revisores y el espacio limitado de las propias revistas.
Cunningham explica que herramientas como Claude Code reducen de forma drástica el coste marginal de producir un artículo académicamente “presentable”. En ese sentido, “hacer investigación” se democratiza y se acelera: el acceso al capital humano necesario para programar, limpiar datos, estimar modelos y redactar ha cambiado radicalmente. Esto no implica, advierte, que todo lo producido sea bueno, pero sí que producir algo suficientemente competente como para ser enviado a una revista es mucho más fácil que antes.
El problema aparece cuando ese shock de oferta choca con un sistema de publicación que no escala. Las revistas no pueden multiplicar indefinidamente el número de artículos que aceptan, ni los editores y revisores pueden absorber un aluvión de manuscritos sin pagar un precio en congestión, cansancio o calidad de las evaluaciones. Cunningham sugiere que el resultado previsible es una caída todavía mayor de las tasas de aceptación, un aumento del rechazo editorial casi automático y una presión creciente sobre el sistema de revisión por pares, que puede simplemente colapsar por saturación.
De ahí que diga que investigar y publicar se están convirtiendo en “dos cosas distintas”. Los costes monetarios y de tiempo de operar en ese nuevo entorno pueden perjudicar especialmente a investigadores jóvenes, a quienes no tienen acceso a fondos o a infraestructuras potentes, y a quienes están fuera de los grandes centros académicos. Si para seguir siendo visible hay que producir y enviar mucho más, el sistema puede favorecer a quienes pueden permitirse esa escala, incluso aunque la tecnología en principio parezca democratizadora.
Russell T. Warne en Quillette: los profesores comprenden mal la inteligencia. Es como si los ingenieros no comprendieran las leyes de la física.
Uno de los hallazgos más consistentes en psicología es que la inteligencia —medida por el CI— es el mejor predictor de los resultados educativos...[En] naciones industrializadas, alrededor del noventa por ciento de las diferencias en los resultados de aprendizaje están asociadas a diferencias individuales entre los estudiantes. Esto significa que solo alrededor del diez por ciento de las diferencias en los resultados de aprendizaje están relacionadas con características a nivel escolar y de aula...
Décadas de investigación demuestran que, a medida que mejoran las condiciones de aprendizaje, las diferencias entre los estudiantes más capaces y los menos capaces se amplían en lugar de reducirse, y que los esfuerzos bienintencionados por igualar los resultados a menudo solo enmascaran las diferencias en lugar de eliminarlas..
la principal causa de las diferencias individuales en la inteligencia parece ser la genética.
Si repetir es malo, no permitir a los más listos saltarse un curso también es malo
La mayoría de los educadores se sorprenden cuando les digo que hasta una cuarta parte de los estudiantes estadounidenses podrían saltarse su último año de instituto...es imposible que un solo profesor prepare lecciones en todas las materias que permitan a cada alumno aprender información nueva. Es necesario algún tipo de agrupación de habilidades, en la que se enseñe juntos a estudiantes con niveles similares de logro... Cita a Jensen: "Una filosofía de igualación, por muy loables que sean sus ideales, no puede funcionar si se basa en premisas falsas, y ninguna cantidad de propaganda puede hacer que parezca que funciona. Sus fracasos serán impuestos a todos."
La cultura escolar y los objetivos del sistema escolar parecen ser muy relevantes
Después de que mi hermano se saltara 8.º curso, su profesor de Lengua de 9.º se molestó por tener en clase a un alumno más joven y le puso calificaciones más bajas en trabajos que eran mejores que los de sus compañeros. Cuando mis padres abordaron la cuestión con el profesor, éste afirmó que mi hermano no era tan inteligente como ellos creían y que el verdadero problema era que se hubiera saltado un curso. Sin embargo, los resultados objetivos de mi hermano en las pruebas eran muy altos y mostraban claramente que rendía por encima de sus compañeros mayores. Así, un profesor mezquino intentó castigar a mi hermano por haber sido adelantado simplemente porque no le gustaba que un alumno se saltara un curso.
Un obstáculo inesperado a la posibilidad de saltarse cursos en Estados Unidos es la extraña obsesión estadounidense con la vida social en el instituto. Hacia el final de su primer curso de primaria, mi mujer y yo propusimos que nuestro hijo se saltara segundo. La directora respondió: «¿Pero no se sentirá mal cuando esté en el instituto y sea un año más joven que sus compañeros? Ellos conducirán y saldrán con chicas, y él no podrá hacerlo hasta un año después». Esa directora estaba dispuesta a sacrificar las necesidades académicas inmediatas de nuestro hijo por sus temores acerca de cómo sería su vida social una década más tarde. En respuesta, mi mujer y yo le recordamos con suavidad que el desarrollo social de nuestro hijo era responsabilidad nuestra y que la suya consistía en atender a sus necesidades educativas... De hecho, no existe ninguna prueba de que saltarse cursos provoque perjuicios de ningún tipo —académicos, sociales o de otra índole— en los niños. Creo que una de las principales razones por las que el personal escolar se opone a que los alumnos se salten cursos es que no comprende que las diferencias de inteligencia tienen consecuencias en la velocidad de aprendizaje. Tampoco entiende la magnitud de esas diferencias en la velocidad con que se aprende.
La visión dominante en esa encuesta—que también es común entre los educadores estadounidenses—es que el estatus socioeconómico y la vida familiar en el hogar son las influencias más importantes en el rendimiento escolar de un niño. Para ser justos, esta es una creencia razonable. Los niños de hogares más estables y familias más acomodadas sí tienen mejores resultados escolares. El problema de atribuir esta correlación a una relación causal diciendo que el mejor entorno familiar provoca un mejor rendimiento escolar es que la mayoría de los niños son criados por uno o ambos padres biológicos. Esto significa que las influencias genéticas y ambientales de los padres sobre un niño se confunden. Por lo tanto, la correlación entre los comportamientos parentales y los resultados infantiles no nos dice si esa relación está causada por el entorno o no. De hecho, tampoco puede decir si esa relación está causada por los genes.
Una forma bastante sencilla de desentrañar los efectos relativos de los genes parentales y los entornos parentales es observar los resultados de los estudios de adopción. Cuando los niños son adoptados por personas con las que no están relacionados, cualquier similitud que compartan con sus padres adoptivos debe ser ambiental, ya que los niños y los padres no comparten ningún gen. La investigación muestra que estos niños adoptados, efectivamente, tienen un nivel educativo más alto. Por ejemplo, asisten a la universidad a tasas más altas que los niños nacidos en circunstancias similares pero criados por sus padres biológicos. Los niños adoptados también experimentan un aumento de CI de unos tres puntos en los países ricos. Así que, el medio ambiente importa sin duda.
Pero el coeficiente intelectual de los niños adoptados se parece aún más al de sus padres biológicos, y el nivel educativo de los niños adoptados queda por detrás del rendimiento de los hijos biológicos de sus padres adoptivos. Estos hallazgos no pueden explicarse mediante mecanismos ambientales. Así que, los genes también importan sin dúbida. Tanto los genes como el entorno contribuyen a las diferencias individuales en los resultados educativos. Cuando los estudios se diseñan para que los científicos puedan comparar las contribuciones relativas de la genética y el entorno, la influencia genética es más poderosa que la influencia ambiental, comenzando alrededor de los diez años...
La mayor parte de la investigación sobre las diferencias individuales en educación se ha llevado a cabo en países ricos. En estos países existe un entorno de partida favorable que casi todos los niños experimentan: la escolarización es obligatoria, los profesores están formados y razonablemente bien remunerados, los edificios escolares no se encuentran en estado de abandono y abundan los libros y otros materiales educativos. Se trata de un entorno que permite a la mayoría de los estudiantes desarrollarse adecuadamente.
Sin embargo, en muchas partes del mundo estas condiciones no se dan. Un estudio reciente realizado en escuelas africanas mostró que en un tercio de las aulas visitadas aleatoriamente por los investigadores el profesor estaba ausente. Incluso cuando los docentes acuden al trabajo, aproximadamente solo la mitad del tiempo de instrucción se dedica realmente a la enseñanza. Para agravar la situación, más de un tercio de los adolescentes en todo el mundo ni siquiera asisten a la escuela. No importa cuán grande sea el potencial genético de una persona: en un entorno así, es muy poco probable que pueda prosperar desde el punto de vista educativo.
Ned Block se pregunta si la inteligencia artificial puede devenir consciente o si la conciencia requiere de mecanismos biológicos específicos, denominados coloquialmente "ser carne"
El Verbo se hizo carne y habitó entre nosotros (Juan, 1,14). Dios no hubiera podido habitar entre nosotros si no se hubiera hecho carne. ¿Puede la IA ser "consciente" sin un soporte biológico?
El autor analiza el origen de los animales para entender qué hace especial a la biología. Lo hace con los Ctenóforos (peines de mar): Estudios recientes sugieren que podrían ser el grupo hermano de todos los demás animales y poseen un sistema nervioso puramente eléctrico en ciertas etapas
Un grupo hermano es el pariente más cercano de otro grupo en un árbol evolutivo, compartiendo un ancestro común que nadie más tiene. Históricamente, se creía que las esponjas (Porifera) eran la base del árbol porque no tienen neuronas ni músculos. Sin embargo, estudios genómicos sugieren que el árbol se dividió así: Una rama dio lugar a los Ctenóforos (peines de mar). La otra rama dio lugar al resto de los animales (Metazoos, incluyendo esponjas, medusas y humanos). Esto significa que los peines de mar han evolucionado de forma independiente durante unos 600 millones de años, separados de todo el resto del reino animal.
Todos los demás poseemos sistemas electroquímicos, donde las neuronas se comunican mediante neurotransmisores en una "sopa química". Aunque los sistemas eléctricos permiten realizar computaciones complejas, la evolución parece haber favorecido el procesamiento electroquímico.
Block especula que mecanismos como las fluctuaciones iónicas en el espacio extracelular podrían ser fundamentales para la conciencia
Para entender por qué Block le da tanta importancia a las fluctuaciones iónicas, debemos distinguir entre los dos tipos de comunicación que ocurren en nuestro cerebro: 1. La "chispa" (Comunicación Sináptica) Es lo que la IA intenta imitar. Una neurona envía una señal eléctrica a otra a través de una conexión específica (sinapsis). Es puntual, rápida y digital (0 o 1). La mayoría de las teorías de la computación creen que esto es lo único que importa para la mente. 2. La "sopa" (Efectos Efápticos y Espacio Extracelular) Aquí es donde entra la especulación de Block. Entre las neuronas hay un espacio lleno de líquido (el espacio extracelular) cargado de iones (calcio, potasio, sodio). Cuando muchas neuronas se activan, cambian la carga eléctrica de ese líquido. Fluctuaciones iónicas: Son cambios en la concentración de estos iones que no ocurren "dentro" de los cables (neuronas), sino en el ambiente que las rodea. Acoplamiento efáptico: Estos cambios ambientales pueden, a su vez, influir en cómo se activan otras neuronas cercanas, como si fuera un campo magnético que afecta a los cables de alrededor sin tocarlos. ¿Por qué esto sería "fundamental" para la conciencia? Block sugiere que la conciencia podría no ser el resultado de la suma de impulsos eléctricos (la chispa), sino de estas interacciones electroquímicas globales (la sopa).
¿Por qué esto sería "fundamental" para la conciencia? Block sugiere que la conciencia podría no ser el resultado de la suma de impulsos eléctricos (la chispa), sino de estas interacciones electroquímicas globales (la sopa).
No hay comentarios:
Publicar un comentario