“La IA no te va a sacar el trabajo; te lo va a sacar una persona usando IA”
Para los doctores Gerardo Simari y Axel Soto, expertos de la Universidad Nacional del Sur y del Conicet, la educación es la herramienta clave que permitirá la movilidad de habilidades.
Periodista. Círculo de Periodistas Deportivos de Bahía Blanca. Fue redactor de la revista Encestando (1985-2000). Desde 1987 trabaja en el diario La Nueva Provincia (hoy La Nueva.). Pasó por las secciones Deportes, La Región y La Ciudad, donde se desempeña actualmente. Está especializado en periodismo agropecuario desde 2001. Miembro de la Asociación Bonaerense de Periodistas Agropecuarios. Responsable de las páginas webs de la Asociación de Ganaderos (AGA) y de Abopa.
“Hay un dicho que dice: ‘La inteligencia artificial no te va a sacar el trabajo; te lo va a sacar una persona usando IA'. Es decir, tendrá una ventaja quien sepa utilizar sus limitaciones y potenciar sus fortalezas”.
El Dr. Gerardo Simari, profesor de la Universidad Nacional del Sur en Bahía Blanca (UNS) e investigador del Conicet en el Instituto de Ciencias e Ingeniería de la Computación (ICIC UNS-Conicet), agrega: “La humanidad, como siempre, va a encontrar la forma de acomodarse. Siempre existirá trabajo porque las personas tenemos mucho para aportar, pero cierto es que en todas las grandes olas tecnológicas o revoluciones industriales ha habido casos, como el telar, que dejó a mucha gente sin trabajo durante un tiempo importante”.
También dice: “Para quien está pensando qué estudiar o en qué rama laboral ingresar se trata de algo a considerar, porque es una realidad el hecho de que ciertos trabajos puedan ser reemplazados por herramientas inteligentes. Pero no es alarmante, mañana no nos vamos a quedar todos sin trabajo”.
Por su parte, el Dr. Axel Soto, investigador del Conicet, profesor del Departamento de Ciencias e Ingeniería de la Computación de la UNS y profesor adjunto en Dalhousie University (Canadá), asegura: “Es cierto que los cambios con la revolución de la IA se realizan a una velocidad mayor respecto de otros procesos. Hay una estadística internacional que indica que, por la IA, se van a perder una determinada cantidad de millones de puestos de trabajo pero, a su vez, indica que generará otros tantos millones y que, de la diferencia, surgirán unos 3 millones más de fuentes laborales. En el balance eso es muy bueno, pero la pregunta es cuántas de las personas que perdieron el trabajo van a poder reinsertarse. Ese es el desafío. Y ahí la educación es clave, porque es la herramienta que permitirá esta movilidad de habilidades”.
—¿Desde cuándo se decía que la IA iba a cambiar el mundo?
—Gerardo Simari: La IA se está estudiando desde fines de los 40 y principios de los 50. Y en la Argentina a finales de los 80 ya se investigaba. Hoy vemos que se trata de una de las ramas que ha cobrado centralidad en la discusión por los resultados del aprendizaje automatizado.
—Axel Soto: Entonces empezó como algo filosófico, ya que en los primeros modelos computacionales se veía la capacidad que tenían y luego fue tomando forma con proyectos que, de alguna manera, empezaban a estudiar esta disciplina, en particular en el caso de Alan Turing, cuando fue el desencriptado de datos de la Segunda Guerra Mundial.
“Lo interesante de estos grandes modelos es que capturaron muchos aspectos del lenguaje, de la retórica y de la sintaxis”, dijo Soto.
“Después hubo muchos proyectos de traducción automática pero, en algún momento, no se encontró la forma de hacer algo computacionalmente factible, ya que el lenguaje era complejo para estructurar y, más tarde, llegó el primer invierno de la IA, cuando toda la expectativa y los proyectos entraron en declive. Pero, como en todos los órdenes, alguien encontró una forma distinta de pensarlo y hoy vivimos un verano con la IA generativa. En el caso específico de ChatGPT, parte del éxito se debe a la simpleza en la cual lo hicieron públicamente disponible a través de una interfaz de texto, en la que cualquier persona puede interactuar vía la web, vía Internet”.
—¿Hay alguna forma que este cambio del mundo con la IA tenga una connotación negativa?
—AS: Acá me gustaría aclarar que cuando hablamos de IA nos imaginamos una cuestión de sistema automatizado y reemplazo de la tarea manual. Y hay que entender que podemos concebir un espectro dentro de eso. El uso responsable del sistema automatizado puede lograr una buena complementariedad, donde lo usás para aquellos casos donde se cae de maduro de que algo está mal, o algo está bien, ahorrando tiempo y esfuerzo, y ponés al humano donde verdaderamente se requiere, aprovechando el buen juicio y criterio del experto.
—GS: De alguna manera los peligros son los naturales de cualquier herramienta. Si uno tiene un cuchillo, o un tenedor, se puede usar para comer y para preparar un alimento, pero también para amenazar y para provocarle lesiones a alguien. La IA es mucho más poderosa que una simple herramienta de ese tipo; acá el tema es cómo procesar los datos para obtener resultados útiles y de manera tal que se minimicen los riesgos.
—¿Cómo es el debate por la propiedad intelectual?
—GS: Es uno de los peligros. Muchas herramientas funcionan a partir de datos que están disponibles (en internet, por ejemplo). Actualmente, no se están solicitando los permisos correspondientes para el uso de material de todo tipo, como imágenes, textos, audios y demás.
—AS: Es el área de derechos culturales; esto es, darle atribución a las personas reales que generaron esos datos y ahora los sistemas lo están usando, como también hay un vacío legal en quienes usan esas herramientas. Y acá la pregunta es: ¿De quién es la imagen generada? ¿Quién hizo el click con el mouse y genera una nueva imagen, de la empresa o de la persona que realizó el software para generar la imagen? ¿O son de los dueños originales sobre las cuales las imágenes se basaron?
—¿La IA está planteando cuestiones éticas que no puede resolver la propia IA?
—GS: Ya circulan vehículos autónomos a los que te subís y te llevan a tu casa. Pero qué pasa si choca y te lastimás dentro del auto. Hay muchos de estos casos en países donde se comenzó a implementar y el debate está abierto.
“Por eso me gusta resaltar que la IA nació de la informática, pero que dejó de ser algo exclusivamente del ámbito informático. No podemos resolverlo entre los expertos en el tema, sino que tenemos que colaborar con personas que estudian estos problemas desde hace milenios, literalmente, y que piensan en cuestiones relacionadas con ética, filosofía, psicología, historia y sociología, entre otras ramas del conocimiento humanístico-social”.
—¿Se puede decir también que se necesita un retorno a las fuentes respecto de estas cuestiones?
—GS: Entiendo que sí. Las herramientas que usamos a diario ahora son sistemas sociotécnicas.
—AS: Es algo que se volvió transversal para la sociedad. Y eso hace que la IA deje de estar en el plano meramente informático.
“Hay otro vacío legal aquí y es importante una cierta regulación, que sea de forma tal que, obviamente, limite los riesgos que existen pero también que potencie los beneficios. Insisto: ese es el desafío.
“Porque si uno sobrerregula en definitiva se restringe la innovación y el desarrollo y, de alguna manera, podemos privar de los beneficios que la IA trae, como ser personas con discapacidades para que puedan moverse, el acceso a la información y demás”.
—GS: Por ahí se piensa que alguna aplicación de IA no tendrá efecto, pero de repente salta por otro lado como, por ejemplo, la desinformación. Hoy en día el motor de búsqueda, de videos o de redes sociales, te recomienda algo que es falso, pero popular porque logró viralizarse de una forma y te lo recomienda porque detrás de eso hay un incentivo económico, de difusión de publicidades y demás. Y las empresas simplemente dicen: ‘Nosotros estamos acá para darles a los usuarios lo que quieren’. Eso sucede también.
—¿La IA tiene sentimientos?
—GS: Es muy filosófica la pregunta, porque si uno se pone a pensar realmente, y hay ejercicios muy interesantes acerca del tema, es para plantear qué es tener sentimientos, cómo sé que existís y demás. En un contexto popular, en la película Matrix, de hace 25 años, ya se hablaba de eso.
“El tema es cómo procesar los datos para obtener resultados útiles y de manera tal que se minimicen los riesgos”, sostuvo Simari.
“A la pregunta puntual mi respuesta es que no tiene sentimientos, porque sé cómo está hecho todo, pero si seguimos por este camino podemos llegar a algo tan complejo como el humano mismo; o más. Y ahí se empieza a complicar un poco más la respuesta”.
—AS: Lo interesante de estos grandes modelos es que capturaron muchos aspectos del lenguaje, de la retórica, de la sintaxis y allí se encuentra también la forma de expresarse. Ese sentimiento muchas veces está en el texto, o en un audio, y de alguna manera tiene la capacidad de copiar muy bien. Es fácil atribuir cierta personalidad o características humanas a estos modelos de IA que generan desde una obra de arte hasta música con su letra o poesía, pero no por eso podemos decir que expresa sentimientos propios.
—Justamente, en la película 2001: Odisea del espacio, que Stanley Kubrick hizo en 1968, se presume una rebelión de las máquinas. ¿Eso puede pasar con la IA?
—GS: Hay una rama del pensamiento que le da importancia a esa posibilidad y no es una locura pensarlo. Pero entiendo que para eso se tienen que dar otras circunstancias que, aún, no se están produciendo.
“Por ejemplo, deberían existir muchas más cosas automatizadas en forma completa, de tal forma que la computadora, de repente, considere que lo mejor es cortar la luz y al final decida hacerlo. Hoy en día, al menos en la Argentina, y en muchos países, ese es un proceso manual donde tiene que ir una persona y no está todo enganchado en un mismo sistema, de tal forma que la máquina pueda cobrar vida y hacerlo (tal como sucede en Terminator, para seguir la secuencia de cine).
“Más allá de eso también se tienen que dar capacidades que tecnológicamente tampoco están. No veo, al menos hoy, que se pueda formar un plan tipo de batalla como para dominar a la humanidad. Estamos lejos de eso”.
—AS: Sí creo que está ese miedo latente y hasta digamos la psicosis de darle demasiada cabida al tema. Me parece que esto, muchas veces, nos separa de otros riesgos, que son más inmediatos y más probables que sucedan. Entiendo que el foco debería estar ahí.
—GS: Como también la desinformación, el discurso del odio y cómo se difunden estas cuestiones.
—¿Cuál es la manera de mirar a la IA con el vaso medio lleno?
—GS: Por eso estamos investigando. Si no seríamos agentes de una forma de caos o del mal. Si uno está en una universidad o en un instituto estudiando la temática es porque le ve el lado bueno. Creo que hay mucho por hacer a partir del hecho de poner a disposición la información de una forma adecuada. Se trata de algo semejante a lo que hizo Google en su momento, que nos cambió la vida en muchos aspectos para bien.
—AS: Me parece que el eje central es cómo potencializar todo, aún siendo conscientes de los posibles riesgos y sesgos que pueden existir en cómo se genera.
—GS: Está el lado bueno y el lado malo. Como dije que puede ser un propulsor muy fuerte de la desinformación también puede ser un detector de esa desinformación. Es como un ida y vuelta.
“La desinformación es, para mí, el desafío de los próximos años. Por caso, ya sabemos de la influencia que tiene en las elecciones a nivel mundial; de cómo se percibe un grupo versus el otro y de cómo se propagan el enojo y el odio”.