El otro blog para cosas más serias

El otro blog para cosas más serias
El otro blog para cosas más serias

lunes, 17 de mayo de 2021

Cómo funcionan las predicciones basadas en datos: machine learning o qué bien explican cualquier cosa los buenos profesores de Derecho


 

… en la forma tradicional de tomar decisiones, los criterios son, o bien racionales (es decir, criterios basados en algún razonamiento, algún principio) o bien irracionales, subjetivos (el ojo crítico, la sana crítica etc), a los que se recurre cuando se considera que hay factores imposibles de racionalizar y que normalmente tienen como consecuencia que la decisión se encomienda a personas muy concretas que tienen la formación y/o la experiencia que supuestamente las convierte en idóneas para tomar esa clase de decisiones.

En el mundo de los algoritmos predictivos y las predicciones basadas en datos, esto cambia por completo. Desaparecen las decisiones subjetivas o irracionales, que se sustituyen por predicciones basadas en correlaciones descubiertas analizando gran cantidad de datos referidos a operaciones anteriores. Pero también son desplazados los criterios “racionales”, derivados de principios o argumentos, porque las predicciones algorítmicas sustituyen la causalidad por la correlación.

Este es un punto fundamental al que es imprescindible prestar más atención. Estamos acostumbrados a que las decisiones se tomen en función de criterios razonados, explicables, lo que nos remite a juicios de causalidad o de tipo normativo. Se opta por un determinado camino porque nos llevará al objetivo, al ser el más coherente con los principios que se aplican en esa actividad, el recomendado por la ‘doctrina’, el que resulta de la ‘teoría’, etc. En cambio los algoritmos predictivos suponen (que)… simplemente se analiza el pasado (gran cantidad de datos referidos a experiencias anteriores, de las que sabemos qué resultado produjeron) y se extraen correlaciones, es decir, se identifica (automáticamente) qué características o grupos de características han llevado a los mejores resultados, y se toman esos criterios como base de las decisiones. Un ejemplo… es la creación de tests ‘baratos’ o ‘sucios’ para detectar enfermedades… que, en lugar de identificar el patógeno… lo que pude ser caro… buscan otros datos que ‘normalmente’ coinciden con aquel… el algoritmo ‘AlphaGo’… vendió al… mejor jugador de go del mundo… a este programa no se le ‘enseñó’ a jugar al go… se le suministraron millones de partidas (de las que se sabe, obviamente, quién ganó) para que, ‘resolviendo’ esos datos con algoritmos, detectase cuáles eran o podían ser las opciones que llevan al triunfo con mayor probabilidad… (la máquina aprendía sin supervisión)… porque… es el ‘ordenador’ el que, aplicando el algoritmo, consigue, a partir del análisis de milones de partidas, identificar las mejores jugadas, es decir, aquellas que ofrecen más probabilidades de llevar a la victoria. De aquí la expresión machine learning (aprendizaje ‘mecánico’ es decir, ‘no humano’), porque, una vez puesto en marcha el mecanismo, el sistema ‘aprende solo’ sin necesidad de guía…

En la mayoría de actividades se opera ya de forma empírica o experimental… la aplicación de algoritmos predictivos introduce cambios importantes incluso en estos casos, porque se tiene en cuenta una cantidad de datos superior a la que puede procesar un analista humano y, además, el análisis de estos datos se realiza por un procedimiento ‘automático’, es decir, por un ordenador, lo que elimina los sesgos o prejuicios que podría tener un humano…

… La expresión deep learning se utiliza con el mismo sentido… hace referencia… a que el sistema aprende autónomamente a partir del análisis de gran cantidad de datos con un modelo matemático de gran complejidad (es decir ‘profundo’)…Es importante... ver la similitud y la diferencia con un baremo, el baremo contiene una serie de magnitudes fácilmente constatadas (antigüedad del funcionario, títulos académicos, cursos de formación que se utilizan como indicadores o proxies de un concepto indeterminado (cuál es el funcionario que tiene más meérito y capacidad para ocupar el puesto de trabajo). De esa forma se evita, en principio, la arbitrariedad [sin perjuicio de que existen otros problemas como (1) que se utilice el baremo para enmascarar una decisión tomada de antemano en favor de un determinado sujeto, (2) que el baremo sea discriminatorio al fijarse en determinadas magnitudes que sólo están al alcance de determinados grupos o, al menos, les favorecen y (3) que el baremo, una vez es conocido por los destinatarios y se mantiene a lo largo del tiempo, pierda su utilidad y produzca distorsiones porque los interesados adaptan su conducta a él por razones tácticas, a veces de forma simulada o fraudulenta]. El algoritmo acaba creando una especie de baremo (en el sentido de que la predicción o la decisión se formulan en función de una serie de factores) pero la diferencia con el baremo que estamos acostumbrados a manejar es que, en el caso del algoritmo, su contenido no lo establece una norma (o un órgano administrativo...) de forma expresa, sino que puede decirse que lo crea el propio modelo informático al analizar los datos y encontrar correlaciones"... Otra advertencia importante... (es)... relativizar la importancia del Derecho de protección de datos... (que) establece normas dirigidas a la utlización de datos personales, es decir, 'información sobre una persona física identificada o identificable' (Art. 4 LO 3/2018), mientras que las predicciones algorítmicas se realizan, sobre todo, a partir de datos no personales... la solvencia de potenciales solicitantes de préstamos... (se determina a partir de)... información sobre la ejecución de préstamos anteriores, pero se trata de información no personal porque no es necesario conocer el nombre y apellidos del prestatarios, sino únicamente... los datos relativos a si ha cumplido o no el contrato de préstamo... a partir de eos datos no personales - anonimizados - se hallarán correlaciones... el peticionario de crédito sí aporta sus datos personales.

En cierto modo triunfa la tesis de Hume, que consideraba que la causalidad no existe, sino que es una ilusión creada a partir de las correlaciones, que son lo único realmente observable… (cita a J. Marías, Historia de la Filosofía, pp 250-251: “Cuando un fenómeno coincide repetidas veces con otro o lo sucede en el tiempo, llamamos, en virtud de una asociación de ideas, al primero, causa, y al segundo, efecto y decimos que este acontece porque se da el primero. La sucesión, por muchas veces que se repita, no nos da la seguridad de su indefinida reiteración, y no nos permite afirmar un vínculo de causalidad en el sentido de una conexión necesaria”)

 

Alejandro Huergo, Una aproximación a los algoritmos desde el Derecho Administrativo, en Huergo/Díaz-González, La regulación de los algoritmos, Cizur Menor, 2020, pp 35-53

1 comentario:

Ana dijo...

Serán también capaces de discernir los casos en que la aplicación de la norma cuantitativa es un despropósito?

Archivo del blog