Bahía Blanca | Sabado, 01 de noviembre

Bahía Blanca | Sabado, 01 de noviembre

Bahía Blanca | Sabado, 01 de noviembre

Los abogados de Bahía recurren a un ingeniero para trabajar mejor con IA

Adrián Trujillo, especialista en el tema, aportó un enfoque académico sobre qué es la Inteligencia Artificial y cómo utilizarla de manera ética en el ejercicio del Derecho, basado en la ciencia de datos y la computación cognitiva.

La IA es una herramienta útil para el Derecho, pero también tiene riesgos por posibles errores.

El uso responsable de la Inteligencia Artificial (IA) en el ejercicio del Derecho, los recursos que brinda esta herramienta para la profesión y los riesgos que se corren a raíz de su utilización incorrecta son algunos de los conocimientos que recibieron abogados de esta ciudad en una capacitación.

Los participantes de la actividad, organizada por el Colegio de Abogados de Bahía Blanca (CABB), se interiorizaron además sobre el impacto de la IA en la formación y competencia de los letrados.

La abogada Sandra Vulich, integrante de la comisión del abogado senior del CABB  -coordinadora del encuentro-, enfatizó la importancia de tomar conciencia sobre la incidencia que podría tener la IA a nivel cognitivo.

"Se corre el riesgo de empezar a usar IA automatizadamente y perder así la competencia y la formación permanentes que requiere el profesional del Derecho", reconoció Vulich.

"La IA impacta mucho en nuestros estándares éticos, en la transparencia y la responsabilidad con la que se debe hacer nuestro trabajo", agregó.

En la charla virtual a cargo del ingeniero electrónico Adrián Trujillo, el público también adquirió nociones básicas de IA desde la perspectiva legal.

"A veces la falta de claridad en datos que aporta la IA impacta y se mezcla con nuestras cuestiones éticas y responsabilidades como abogados", analizó la entrevistada, directora de la mencionada comisión del CABB.

Asimismo se habló de los "sesgos" que tiene el trabajo con IA y la posible violación de la confidencialidad de datos producidos por esta herramienta.

En tanto, se planteó la "amenaza" que representa la IA por el riesgo de errores en sus respuestas.

 

 

"Es decir, los errores que la IA presenta en relación con las fuentes del Derecho argentino y los errores dentro de las áreas jurídicas", precisó la abogada.

Es que este sistema digital no suministra resultados "exactos", sino "los más probables" que encuentra en función de los datos con los que la IA fue "entrenada", aclaró Trujillo.

"Entonces podés hallar respuestas erróneas; justamente este es un tipo de error de la IA", explicó el ingeniero bahiense graduado en la UTN.

El profesional, con una maestría en IA de la universidad de La Rioja, enfocó su disertación en el uso responsable de la misma basado en el aspecto "cognitivo y contemplando riesgos", sobre todo los ligados al "código de ética" de los abogados.

Los contenidos de la charla incluyeron el ítem "metodologías", es decir cómo gestionar el uso de la IA.

Una de esas gestiones es el manejo inadecuado de la Inteligencia Artificial, por lo tanto para evitar falencias es fundamental que todas las respuestas proporcionadas por asistentes generadores de texto, como por ejemplo ChatGPT, sean sometidas a "supervisión humana".

Trujillo, certificado en Ciencias de datos por las universidades estadounidenses Harvard y Johns Hopkins, se refirió a las guías de uso de IA con las que cuentan rubros como los de abogacía, medicina e ingeniería.

"En esas guías se detalla qué es lo que no hay que hacer, por ejemplo preguntarle a la IA y copiar y pegar las respuestas", sostuvo la fuente consultada por La Nueva.

"Esas guías tienen directrices comunes y una de ellas es la gestión de riesgos, es decir entender cómo funciona, cuáles son sus limitaciones y qué medidas de supervisión le aplicás a las respuestas, porque en este ámbito el abogado siempre es el responsable final", continuó diciendo el informante radicado en La Plata.

"Existen metodologías, como la aplicación de normas, para darle a la Inteligencia Artificial un uso ético y responsable", finalizó Trujillo, de 56 años.

Datos y detección de riesgos

Otro aspecto a destacar acerca del uso de IA es la protección de datos personales, materia en la que la Argentina cuenta con legislación que se debe respetar para la correcta utilización de esta herramienta.

Por otra parte, el especialista remarcó la importancia de conocer cómo detectar los "riesgos" que pueden derivar de las respuestas generadas por el asistente de IA.

"Esos riesgos van a depender del ámbito en el que se use la IA. En materia legal, por ejemplo tenés jerarquías de fuentes de Derecho, como tratados internacionales y nacionales y legislación nacional, provincial y municipal, que hay que comprender muy bien (para no errar al formular las preguntas dirigidas a la IA)", señaló.

Trujillo asimismo abordó la ingeniería de prompt, que consiste en la manera de preguntar a la IA.

 

 

"Vimos cómo construir un prompt adecuado que mitigue esos riesgos o posibles errores de la IA. También tratamos la técnica Generación aumentada de contexto; se le pregunta a la IA, pero la respuesta la encontrás en diferentes páginas de distintos libros".

En tanto se analizó el uso agéntico de IA, o sea reunir varios modelos de lenguaje para resolver una tarea.

La capacitación tuvo un enfoque académico sobre qué es y cómo se utiliza la IA, basado en la ciencia de datos y la computación cognitiva.

Los conocimientos transferidos se basan en encuestas a abogados hechas por agencias, en las que se les consultó si utilizarán IA, si consideran a esta herramienta como una "ventaja" o si representa una "amenaza" para su profesión.

"La charla además estuvo orientada a analizar esas opiniones y preocupaciones en relación con la IA", explicó Trujillo.

Mal uso de IA en el Derecho

Nulidad. A raíz del uso incorrecto de IA en la elaboración de una sentencia, la Cámara Penal de Esquel anuló en los últimos días un fallo emitido a principios de junio por el juez Carlos Rogelio Richeri, por el cual se había condenado a Raúl Amelio Payalef a dos años y seis meses de prisión de cumplimiento efectivo.

Frase. El tribunal revisor chubutense constató que Richeri incluyó accidentalmente la frase "Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar", que reveló el uso de "IA generativa para redactar la resolución de puntos decisorios".

Datos. El juez de primera instancia además habría incumplido recaudos de confidencialidad al incluir, en el texto procesado por la IA, las identidades de las partes, testigos y peritos.

Deepfakes. En la charla también se habló de deepfakes (contenido gráfico o audiovisual manipulado con IA para simular que alguien dice o hace algo) y sobre la "desinformación que producen, manipulando y distorsionando nuestra tarea y las evidencias, y aportando más dudas que certezas", de acuerdo con Vulich.