Bahía Blanca | Martes, 24 de junio

Bahía Blanca | Martes, 24 de junio

Bahía Blanca | Martes, 24 de junio

"Preocupa el potencial de reemplazar tareas en las que el criterio humano es indispensable"

En su afán de perfección casi humana, la IA obliga a retomar debates ya conocidos sobre privacidad y lo indispensable del ojo humano.

La idea de que las tecnologías son extensiones del ser humano no es nueva, desde la creación de las primeras computadoras la tendencia a la automatización fue imparable. Para cada necesidad —laboral, académica— surgió una nueva app que la satisfaga. 

La superación de todas ellas parecieran ser las que aplican nuevos modelos de lenguaje generativo con Inteligencia Artificial, con un dejo de perfección casi humana, pero que la base de sus datos devuelve a debates ya conocidos.

En diálogo con La Nueva., la Doctora en Ciencias Políticas Lila Luchessi advierte que "el problema no es el uso instrumental que se haga de la IA, sino la conceptualización cognitiva que se haga a partir de ese uso. Sería ingenuo ver a la tecnología solo como una herramienta".

También licenciada en Comunicación (UBA) y directora del Instituto de Investigación en Políticas Públicas de la Universidad Nacional de Río Negro (UNRN), Luchessi considera que "uno puede pensarlas como una herramienta instrumental, pero hay que aprender a usarlas desde el punto de vista conceptual. Me parece que cualquier tecnología que puede incidir en prácticas sociales debe ser pensada para que no determine cuestiones que pueden ser muy nocivas".

Por ejemplo, en relación a la aplicación de la IA en ámbitos judiciales, sostiene: "Puede tener un lugar útil la automatización, que permita agilizar procesos aburridos para cualquier ser humano, pero preocupa el potencial de reemplazar tareas en las que el criterio humano es indispensable".

La especialista cuenta que en el poder judicial peruano fue presentada la herramienta Amauta.Pro, un asistente virtual que "agilice procesos" en casos de violencia de género. El presidente de la Corte de Justicia de Lima había explicado en septiembre que es una herramienta que "lee la denuncia y todos los documentos que ingresan por las comisarías de familia. Analiza y organiza toda la información que está en el expediente judicial electrónico, lee las normas legales aplicables al caso y te proyecta un modelo de resolución para el caso en concreto".

Lila Luchessi. - Foto: Río Negro.

Luchessi afirma: "Si un juez que escribe de manera incomprensible intenta usar herramientas que le permitan redactar de una manera más clara, es aceptable. Ahora, que el juez diga no se qué medida tomar y la herramienta tome la decisión es un problema serio. Porque implica derechos individuales, la constitución de un marco regultatorio".

"Es el riesgo de que la IA le aplique reglas al ser humano. Una cosa es consultarle algo a ChatGPT y otra muy diferente es usarlo para plagiar un libro o redactar fallos judiciales", dice.

La discusión por la privacidad

El sociólogo y ensayista Giuliano Da Empoli considera que "la multiplicación de datos hizo del humano un único sistema nervioso, un mecanismo formado por configuraciones estándares previsibles", algo que radica en que "todas las tecnologías que irrumpieron en nuestras vidas estos últimos años tienen un origen militar".

En las campañas políticas de principios de siglo —la de Barack Obama en 2008, el ejemplo más representativo— las nuevas tecnologías eran vistas como herramientas que permitirían una mayor autonomía o emancipación de los votantes, o más bien de la relación entre los políticos con su electorado, tradicionalmente mediada por la prensa.

"Si queremos realmente aprovecharla, tenemos que usar la tecnología para abrir nuestra democracia", decía Obama, uno de los pocos candidatos que había visitado las oficinas de Google.

Dieciséis años después es innegable el cimbronazo provocado en el debate público, aunque ahora la incógnita sería el costo de esa apertura. Esa apertura no era solo simbólica sino tangible a la vez. La investigadora en periodismo y medios digitales Luchessi remarca que, a fin de cuentas, el uso que hicimos de las nuevas tecnologías es paradójico.

"Permanentemente intercambiamos nuestra privacidad, es una batalla que perdimos mucho antes de la llegada de la IA". Y ejemplifica: "Cuando el Gobierno implementó la SUBE (en 2009) hubo una discusión importante entre quienes cuestionaban que ahora las autoridades iban a saber por dónde circulábamos, pero esa información ya era moneda corriente, Google ya lo sabe y lo utiliza en función de nuestra actividad. No tenemos problema con regalar nuestros datos a cualquier plataforma".

La investigadora señaló que estamos ante una erosión de las instituciones, parte de una tendencia global, que las cuestiona e incluye a las redes sociales. 

"Cuestionar todas las instituciones no implica que, en un futuro quizás lejano, no se comience a cuestionar a las grandes plataformas como X (ex Twitter). Que haya medios grandes (como el británico The Guardian o el español La Vanguardia) que empiezan a bajarse de allí por la circulación de discursos de odio también hace que se ponga en cuestión qué se hizo con todo el potencial de las tecnologías y de qué manera se erosionaron".

Desde los años 60, pensadores como Marshall McLuhan ya vislumbraban las nuevas tecnologías como prolongaciones de nuestras facultades físicas y mentales. Desde allí, muchos otros autores dedicaron incontables estudios a explorar la cada vez más fusionada relación. Aunque con matices, la herramienta que debía liberar une, vincula y relaciona, pero a su vez encadena.