Jueces a AI: ¡Nos oponemos!
Con la ayuda de Derek Robertson
Sabes que los temores sobre la automatización de la IA son reales cuando incluso el presidente del Tribunal Supremo de los Estados Unidos empieza a parecer nervioso.
John Roberts informe de fin de año sobre el poder judicial federal ha causado revuelo con su defensa del valor de los jueces humanos en un mundo donde los modelos de IA han comenzado aprobar exámenes de la barra.
Si bien alentó a los miembros de la aburrida profesión jurídica a sentarse y prestar atención a los avances de la IA, Roberts argumentó que el trabajo de juzgar implica un elemento humano irreductible. “Las determinaciones legales a menudo implican áreas grises que aún requieren la aplicación del juicio humano”, argumentó.
Incluso si los jueces humanos no van a ninguna parte pronto, la evidencia sugiere que Roberts tiene razón al dar la alarma sobre la IA. La tecnología está a punto, o en algunos casos ya está comenzando, a chocar con la práctica del derecho en varios ámbitos, muchos de los cuales podrían no ser obvios, pero podrían tener efectos a largo plazo.
Una cuestión especialmente espinosa será la admisión de pruebas que son producto de un modelo de IA, según James Baker, ex juez federal de apelaciones y coautor de un informe de 2023. guía de jueces sobre IA publicado por el Centro Judicial Federal, agencia de investigación dirigida por y para el poder judicial.
El informe anticipa que resultados como los análisis de pruebas médicas generados por IA o los grupos de solicitantes de empleo seleccionados por IA pronto comenzarán a plantear dilemas legales para los jueces.
Baker dijo al DFD que espera que la complejidad de los modelos haga que las controversias sobre las pruebas de IA sean más desconcertantes que los debates sobre las pruebas de ADN, que superaron el escepticismo inicial para convertirse en un pilar de los procedimientos legales estadounidenses.
«El desafío con la IA es que cada modelo de IA es diferente», dijo, «Es más, los modelos de IA aprenden y cambian constantemente».
Por ahora, los jueces tienen discreción para mantenerse alejados. de esa confusión: Baker señaló Regla 403 de las Reglas Federales de Evidencia, que dice que un juez puede excluir evidencia relevante en el juicio si es probable que cause demasiada confusión o distracción.
Por supuesto, los tribunales no podrán eludir la complejidad de los modelos de IA cuando sean fundamentales para la disputa que se está litigando. La IA generativa ya se ha convertido en tema de varios casos de derechos de autor en cursoincluido uno en el que el New York Times cuestiona el uso de material protegido por derechos de autor por parte de OpenAI para entrenar sus modelos. Baker dijo que también espera comenzar a ver casos que obliguen a los jueces a lidiar con el papel de la IA en la conducción automatizada y la negligencia médica.
Si bien la función constitucional de los jueces ofrece un cierto nivel de seguridad laboral, otros puestos en la profesión jurídica ya están empezando a sentir la presión.
La semana pasada, el ex lugarteniente de Donald Trump, Michael Cohen, un abogado inhabilitado, ofreció una lección memorable sobre cómo no utilizar la IA en la práctica del derecho. El viernes se revelaron registros judiciales que mostraban que Cohen había proporcionado a su equipo legal precedentes legales inexistentesque le dio el chatbot Bard de Google, que luego sus abogados citaron en una moción poner fin anticipadamente a su libertad supervisada.
Pero las herramientas especializadas de investigación jurídica de IA están mejorando rápidamente, según un litigante de una destacada firma de abogados de tamaño mediano a quien se le concedió el anonimato para discutir lo que se está convirtiendo en un tema cada vez más delicado dentro de la profesión jurídica.
Dijo que una herramienta de investigación que probó el mes pasado logró en tres o cuatro minutos lo que a un asociado junior le tomaría 10 horas. Predijo que las firmas de abogados más pequeñas podrán adoptar las tecnologías más rápidamente que las grandes firmas que dominan la industria.
El litigante dijo que los clientes de las empresas emergentes y de la industria tecnológica ya han comenzado a presionar a los abogados para que utilicen las herramientas automatizadas: «Ahora existe la expectativa de que se utilice la IA para reducir costos».
Y las herramientas parecen preparadas para mejorar en la automatización del trabajo humano. El mes pasado, Harvey, una startup que se anuncia a sí misma como «IA generativa para firmas de abogados de élite», anunció que había recaudó 80 millones de dólares de inversores como Kleiner Perkins, Sequoia y OpenAI.
Si los asociados de verano pronto empiezan a sudar, es posible que los presidentes del Tribunal Supremo no se queden atrás.
Matt Henshon, presidente del Comité de Robótica e Inteligencia Artificial de la Asociación de Abogados de Estados Unidos, señaló al DFD una notable “dicotomía” entre el comentario de la “zona gris” de Roberts y sus otros comentarios memorables sobre el papel del poder judicial.
En su audiencia de confirmación En 2005, Roberts describió el modo de juzgar en términos más blancos y negros. «Los jueces son como árbitros», dijo, y agregó, «es mi trabajo cantar bolas y strikes».
Hay buenas razones para que Roberts abandone la comparación con los árbitros en favor de una concepción más vaga y sensible de juzgar (su último informe también enfatizó la capacidad de los jueces para interpretar “una voz temblorosa”, “un momento de vacilación” o “un momento fugaz”). romper el contacto visual”).
Si litigar es el pasatiempo favorito de Estados Unidos, el béisbol podría ser su segundo favorito. Y en 2019, las Grandes Ligas comenzaron a experimentar con “árbitros” automatizados para cantar bolas y strikes en las ligas menores. El año pasado, el árbitros robo Llegó a todos los estadios de Triple A, la última parada antes de ser llamado a las Grandes Ligas.
Los reguladores europeos hacen sonar la alarma para 2024 sobre los riesgos de ciberseguridad que plantean algunas de las nuevas tecnologías más vanguardistas.
como politico Información cibernética (para suscriptores Pro) informó esta mañana, los funcionarios europeos están particularmente preocupados por las amenazas cibernéticas de la criptografía cuántica, los ataques impulsados por IA y las filtraciones de datos en la nube. En materia cuántica, la Unión Europea espera implementar este año una red coordinada a nivel de bloque de comunicaciones a prueba de cuánticos sistemas; la Ley de IA de la UE espera abordar las amenazas planteadas por la corrupción o el uso indebido de potentes modelos de IA; y un planificado esquema de certificación de la nube abordará las amenazas allí. (Y como se señaló hoy en la edición estadounidense de Morning Cybersecurity, los robos y hackeos de criptomonedas siguen siendo una gran amenaza, ya que Corea del Norte utiliza cada vez más el botín para alimentar su programa de cohetes.)
Aún así, estas amenazas se están infiltrando en la conversación sobre políticas europeas en medio de un año que ya se espera esté ocupado evitando la piratería electoral, la publicidad ilegal dirigida y la desinformación. — Derek Robertson
En caso de que te lo perdiste antes de las vacaciones: Waymo, filial de Google, se jacta de que sus coches autónomos son ahora más seguros que nunca.
En dos artículos de investigación publicados recientemente, Waymo se compara favorablemente las tasas de accidentes de sus conductores automatizados con las de los humanos, y luego muestra su trabajo explicando cuáles son esos puntos de referencia para la seguridad en realidad lo son. En general, Waymo afirma una reducción del 85 por ciento en las tasas de accidentes con lesiones en comparación con las tasas de accidentes de conductores humanos, y una reducción del 57 por ciento en los accidentes que se informan a la policía, un indicador de incidentes más importantes.
Los periódicos de buenas noticias llegan cuando Waymo planea expandirse desde sus áreas de servicio existentes de San Francisco y Phoenix a Los Ángeles y Austin, incluso cuando los reguladores en los EE.UU. y en el extranjero preocuparse por la tecnología y su seguridad. — Derek Robertson
Manténgase en contacto con todo el equipo: Ben Schreckinger ([email protected]); Derek Robertson ([email protected]Mohar Chatterjee ([email protected]); Steve Heuser ([email protected]); Nate Robson ([email protected]), Daniella Cheslow ([email protected]), y Christine Mui ([email protected]).
Si le han reenviado este boletín, puede inscribirse y leer nuestra declaración de misión en los enlaces proporcionados.