La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

justicia tecnología en el ambito judicial

Peligros tecnológicos en el ámbito judicial

Hace ya 7 años que desde esta misma publicación augurábamos la influencia que iba a tener la Inteligencia Artificial (IA) en el ámbito judicial. Pero lo cierto es que desde entonces los avances que se han producido han sido increíbles, hasta el punto de que ha sido necesario que se dicte normativa específica en la materia, como el reciente Reglamento de Inteligencia Artificial (“IA Act”) de la Unión Europea, aprobado el pasado 13 de marzo de 2024.

España no quiere quedarse atrás y en febrero de 2024, con motivo de la inauguración del Mobile World Congress, el Gobierno anunció la construcción de una gran modelo fundacional de lenguaje entrenado en español y en las otras lenguas cooficiales, en código abierto y transparente, en colaboración con el Barcelona Supercomputing Center, la Red Española de Supercomputación, la Real Academia Española de la Lengua y la Asociación de Academias de la Lengua Española, para hacerlo extensible a países hispanoamericanos.

Y es que la implantación de la IA no se queda en la generación de contenidos, sino que pretende dar el salto al control del hardware, en especial en el campo de la robótica. En este sentido, en marzo de 2024 OpenAI comunicó la inversión, junto Microsoft y Nvidia, de 675 millones de dólares en la empresa Figure para desarrollar robots humanoides que puedan hablar, razonar, comportarse y que tengan apariencia humana, para ayudar a los seres humanos en la vida cotidiana. Así, se está trabajando en el prototipo “Figure 01” que, a diferencia del “Optimus” de Tesla, sería capaz de hablar, reconocer su entorno, interactuar con personas e, incluso, aprender a hacer café observando a una persona.

Pero la IA no está libre de polémica por muchos aspectos y, en particular, por el sistema de aprendizaje, que ya ha provocado las primeras demandas, como la del New York Times contra OpenAI y Microsoft en diciembre de 2023 por el uso de material protegido para entrenar a ChatGPT; que se une a la lista de reclamaciones judiciales de autores como Paul Tremblay, Mona Awad Sarah Silverman, Chris Golden o Richard Kadrey, por el uso de sus obras obtenidas en las llamadas shadow libraries. Esta es una de las cuestiones que aborda el IA Act, imponiendo a los sistemas de IA requisitos de transparencia y el cumplimiento de la normativa de la Unión Europea sobre derechos de autor.

En el ámbito judicial, los problemas por el uso por abogados de la IA se están generalizando, en especial, en Estados Unidos. En efecto, en junio de 2023, el Juez del distrito sur de Nueva York sancionó a los abogados Steven A. Schwartz y Peter Lo Duca, de Levidow, Levidow & Oberman, con una multa de 5.000 dólares, por usar ChatGPT sin comprobar la existencia de la jurisprudencia incluida en una demanda por lesiones presentada en nombre del pasajero Roberto Mata contra la aerolínea Avianca ante un Juzgado Federal de Manhattan.

Este ambiente de desconfianza que se está generando hacia los sistemas de IA, ha provocado que en junio de 2023 dos Jueces Federales (Distrito Norte de Texas y Distrito Norte de Illinois) emitieran órdenes exigiendo a los abogados que actúen en su jurisdicción una declaración explícita sobre que no han utilizado herramientas de IA generativa para la elaboración de escritos procesales o que, en el supuesto de que lo hayan hecho, su contenido haya sido verificado por un ser humano para comprobar su exactitud.

A la vista de la situación, se están adoptando medidas de prevención, y en noviembre de 2023 el Colegio de abogados de California presentó una guía con recomendaciones para el uso de la IA generativa por abogados (Practical guidance for the use of generative artificial intelligence in the practice of law), advirtiendo que, como cualquier tecnología, debe usarse cumpliendo las obligaciones de responsabilidad profesional, incluidas las deontológicas. Dichas recomendaciones son: cumplimento de la ley, confidencialidad, competencia y diligencia, supervisión del trabajo de colaboradores que usen IA generativa y deber de informar sobre su uso en las actuaciones judiciales.

Más recientemente, en febrero de 2024 se dictaron dos sentencias condenatorias en los Estados de Missouri (por un particular que actuaba sin abogado y que incluyó múltiples referencias a sentencias inexistentes) y de Massachusetts (por un abogado que se excusó en su ignorancia sobre el uso de ChatGPT, lo que habría delegado en abogados jóvenes de su Despacho, sin que hubiera supervisado el contenido que estos le habían entregado). Y en marzo de 2024 el Tribunal Federal de Distrito Medio de Florida suspendió de ejercicio por un año a Neusom, un abogado que presentó un escrito procesal elaborado por IA que incluía precedentes inexistentes, tras la Queja interpuesta por el abogado contrario.

Pero el uso indebido de la IA también se está produciendo por miembros de la Administración de Justicia. En noviembre de 2023, la Corregedoria Regional de Justiça Federal da 1ª Região (Brasil) inició una investigación contra un juez por dictar una sentencia en la que se incluyó jurisprudencia inexistente obtenida de ChatGPT. Siendo cierto que la Resolución 332/2020 del Conselho Nacional de Justiça, permite a los Magistrados el uso de la IA generativa, requiere que se haga con las debidas garantías y bajo su responsabilidad.

Por lo que se refiere al ámbito europeo, en marzo de 2023 el Grupo de Trabajo sobre Justicia Digital e Inteligencia Artificial de la Comisión Europea para la Eficiencia de la Justicia (CEPEJ-GT-CYBERJUST) publicó el documento “Use of Generative Artificial Intelligence (AI) by judicial professionals in a work-related contex”, que contiene recomendaciones para el uso de la IA generativa en el trabajo jurídico; y advierte de sus riesgos, tales como la producción de información inexacta, revelación de datos confidenciales, posible violación de la propiedad intelectual, replicación potencial de resultados, falta de fiabilidad y exageración de sesgos.

Pero el impacto de la tecnología en el ámbito judicial no se limita al uso de la IA, destacando los incidentes en las redes sociales. En este sentido, la sentencia 26/2023 del Tribunal Superior de Justicia de Murcia de 30 de noviembre de 2023 confirmó la condena a un exMagistrado a 16 meses de prisión, una multa de 900 euros, la inhabilitación especial de 5 años para profesión u oficio educativo y la obligación de indemnizar con 3.000 euros a cada una de las demandantes por los daños morales, como autor de un delito de odio del artículo 510-2-a) del Código Penal, por una “carta abierta” publicada en Facebook con expresiones dirigidas a ofender al colectivo homosexual, al cuestionar el correcto desarrollo de una menor por el hecho de haber sido educada por dos progenitoras del mismo sexo.

En cuanto a los letrados, la sentencia 114/2022 del Tribunal Supremo (Sala 1ª) de fecha 15 de febrero de 2022 confirmó la condena solidaria a un abogado y a la revista digital que publicó en 2017 el artículo “La masacre arruí: jueces respaldan el exterminio”, al pago de una indemnización de 10.000 euros por vulneración en el derecho al honor de una Magistrada de Murcia; considerando que no se trata de una crítica a su actuación, sino un escarnio público, imputándola actuaciones deshonrosas, comparándola con el dirigente nazi Goëring y afirmando que había adoptado “la inhumana y perversa decisión de mancharse las manos de sangre”.

Por Javier López, socio de Écija

Deja un comentario

Scroll al inicio