Los científicos presionan para que se utilicen algoritmos para tomar decisiones judiciales, mientras un economista del MIT sugiere que la IA podría ayudar a mejorar los resultados de los ensayos
Los investigadores han sugerido dar a los algoritmos poder sobre una de las columnas vertebrales más importantes de la sociedad estadounidense: el sistema judicial.
Los científicos del MIT propusieron que la tecnología podría usarse para hacer que las decisiones sobre fianzas previas al juicio sean más justas después de que su estudio descubriera que los jueces humanos están sistemáticamente sesgados.
El equipo analizó más de un millón de casos en la ciudad de Nueva York, encontrando El 20 por ciento de los jueces llegó a sus conclusiones basándose en la edad, raza o antecedentes penales del acusado.
El documento encontró que las decisiones de al menos el 32 por ciento de los jueces eran inconsistentes con la capacidad real de los acusados para pagar una fianza específica y el riesgo real de que no comparecieran al juicio.
Un nuevo artículo encontró que los jueces de Nueva York a veces cometían un error basado en sus propios prejuicios al fijar la fianza para un nuevo acusado. Ese investigador dijo que podría ser útil reemplazar la decisión de los jueces con un algoritmo.
Antes de que un acusado sea juzgado por su delito, un juez lleva a cabo una audiencia previa al juicio en la que determina si a alguien se le debe permitir salir al mundo antes de que comience su caso judicial o si es probable que huya y deba ser retenido. en custodia.
Si deciden dejar a alguien en libertad, fijan un precio que esa persona debe pagar para poder salir: su fianza.
La forma en que deciden cuál es la fianza de una persona y si se le debe permitir o no salir de la custodia depende del juez individual. Ahí es donde entra en juego el prejuicio humano, según el autor del estudio, el profesor Ashesh Rambachan.
El artículo, que fue publicado en el Revista trimestral de economíarevisó 1.460.462 casos judiciales anteriores entre 2008 y 2013 en Nueva York.
Encontró que el 20 por ciento de los jueces tomaron decisiones sesgadas basadas en la raza, edad o antecedentes de alguien.
Esto resultó en un error en aproximadamente el 30 por ciento de todas las decisiones de fianza.
Esto podría significar que a alguien se le permitió salir de la cárcel e intentó huir, o podría significar que decidió mantener bajo custodia a alguien que no presentaba riesgo de fuga.
Por lo tanto, el profesor Rambachan sostiene que el uso de un algoritmo para reemplazar o mejorar la toma de decisiones del juez en una audiencia previa al juicio podría hacer que el sistema de fianzas sea más justo.
Esto, escribió, dependería de la construcción de un algoritmo que se ajuste con precisión a los resultados deseados, algo que aún no existe.
Esto puede parecer descabellado, pero la IA se ha ido abriendo paso lentamente en los tribunales de todo el mundo. A finales de 2023, el gobierno británico dictaminó que ChatGPT podría ser utilizado por los jueces para escribir fallos legaless.
A principios de ese mismo año, dos algoritmos Negociaciones legales imitadas con éxito.redactar y acordar un contrato que los abogados consideraran sólido.
Pero en otros lugares, las debilidades de la IA han quedado a la vista.
A principios de este año, la IA Gemini de Google que genera imágenes fue criticada por producir imágenes diversas, aunque históricamente inexactas, para los usuarios.
Por ejemplo, cuando los usuarios pidieron al sitio web que les mostrara una foto de un nazi (la imagen que generaron era la de un persona negra con uniforme de las SS. Google, en respuesta, admite que su algoritmo «no había dado en el blanco» de aquello para lo que fue creado.
Se ha demostrado que otros sistemas, como Chat GPT de Open AI, cometen delitos cuando se dejan desatendidos.
Cuando se le pidió a ChatGPT que actuara como operador financiero en un escenario hipotético, cometió uso de información privilegiada el 75 por ciento de las veces.
Estos algoritmos pueden resultar útiles si se diseñan y aplican correctamente.
Pero no están sujetos a los mismos estándares o leyes que los humanos, sostienen académicos como Christine Moser, lo que significa que no deberían tomar decisiones que requieran ética humana.
El profesor Moser, que estudia teoría de la organización en la Universidad Vrije, en los Países Bajos, escribió en un artículo de 2022 que permitir que la IA tome decisiones podría ser una pendiente resbaladiza.
Reemplazar más sistemas humanos con IA, dijo, «puede sustituir el juicio humano en la toma de decisiones y, por lo tanto, cambiar la moralidad de manera fundamental, tal vez irreversible».