6533b835fe1ef96bd129ff8e

RESEARCH PRODUCT

El sesgo de la máquina en la toma de decisiones en el proceso penal

Raquel Borges Blázquez

subject

Derechos HumanosHuman RightsArtificial IntelligenceCriminal ProcedureInteligencia artificialProceso Penal

description

espanolLa inteligencia artificial tiene innumerables ventajas en nuestras vidas. La capacidad de almacenar y conectar datos que tiene un ordenador es muy superior a la capacidad humana. Pero esta “inteligencia” comporta tambien problemas de hondo calado etico que el derecho debera responder. Digo “inteligencia” porque a dia de hoy las maquinas no son inteligentes. Las maquinas solo utilizan aquellos datos que, previamente, un humano le ha ofrecido como ciertos. La verdad es relativa y los datos van a tener los mis-mos sesgos y prejuicios que tiene el humano que programa la maquina. En otras palabras, las maquinas van a ser racistas, sexistas y clasistas si lo son sus programadores. A todo esto se le suma un nuevo problema, la dificultad de comprender el algoritmo por parte de los aplicadores del derecho. Esto puede atacar derechos fundamentales basicos en el sistema de justicia pe-nal como son el derecho a la publicidad de las actuaciones y el derecho a la motivacion de las decisiones judiciales. Esta situacion obliga a repensar el proceso penal tan y como hoy lo conocemos, incluyendo la inteligencia artificial e hilando muy fino indicando como, cuando, por que y en que su-puestos podemos hacer uso de la inteligencia artificial y, sobretodo, quien va a programarla. Porque, tal y como indica Silvia Barona, tal vez la pregunta deberia ser: ?quien va a controlar el pensamiento juridico global? EnglishArtificial intelligence has countless advantages in our lives. On the one hand, computer’s capacity to store and connect data is far superior to human ca-pacity. On the other hand, its “intelligence” also involves deep ethical prob-lems that the law must respond to. I say “intelligence” because nowadays machines are not intelligent. Machines only use the data that a human be-ing has previously offered as true. The truth is relative and the data will have the same biases and prejudices as the human who programs the machine. In other words, machines will be racist, sexist and classist if their programmers are. Furthermore, we are facing a new problem: the difficulty to understand the algorithm of those who apply the law.This situa-tion forces us to rethink the criminal process, including artificial intelligence and spinning very thinly indicating how, when, why and under what assumptions we can make use of artificial intel-ligence and, above all, who is going to program it. At the end of the day, as Silvia Barona indicates, perhaps the question should be: who is going to control global legal thinking?

https://institucional.us.es/revistas/Ius_Et_Scientia/VOL6-2/Ius_et_Scientia_vol_6_n2_05_borges_blazquez.pdf