Bahía Blanca | Domingo, 26 de mayo

Bahía Blanca | Domingo, 26 de mayo

Bahía Blanca | Domingo, 26 de mayo

El gobierno de EE. UU. alerta que la inteligencia artificial podría "extinguir la especie humana"

El estudio encargado por del Departamento de Estado sugiere que los avances tecnológicos podrían poner en riesgo la seguridad nacional.

Departamento de Estado de Estados Unidos en Washington, EE. UU.

Estados Unidos debe responder “con rapidez y decisión” para evitar los importantes riesgos para la seguridad nacional derivados de la inteligencia artificial (IA) que podrían representar una “amenaza a nivel de extinción para la especie humana”, según un informe encargado por la Casa Blanca.

“El desarrollo actual de la IA en las fronteras plantea riesgos urgentes y crecientes para la seguridad nacional”, afirma el informe que el medio TIME obtuvo antes de su publicación.

“El auge de la IA avanzada y la AGI (inteligencia general artificial) tiene el potencial de desestabilizar la seguridad mundial de un modo que recuerda a la introducción de las armas nucleares”, sostiene el estudio.

La AGI se perfila como la futura evolución de esta tecnología, la cual incluso podría emular las capacidades cognitivas humanas. A diferencia de la inteligencia artificial tradicional, que está diseñada para tareas específicas y requiere programación previa, la AGI tiene el potencial de desarrollar máquinas capaces de aprender y resolver problemas de forma autónoma y generalizada.

El estudio financiado por el Departamento de Estado de Estados Unidos llama a prohibir temporalmente la creación de IA avanzada que supere un determinado umbral de potencia computacional.

Asimismo, el informe, encargado como parte de un contrato federal de 250.000 dólares, también pide “definir poderes de emergencia” para el Gobierno “para responder a incidentes peligrosos y rápidos relacionados con la IA”, como la “robótica de enjambre”.

El tratamiento de los chips informáticos de gama alta como contrabando internacional, e incluso vigilar cómo se utiliza el hardware, son sólo algunas de las importantes medidas que exige el nuevo estudio.

Los autores del estudio, los hermanos Jérémie y Edouard Harris de la consultora de Gladstone, declararon a TIME que sus presentaciones anteriores sobre los riesgos de la inteligencia artificial fueron escuchadas por funcionarios del gobierno sin autoridad para actuar. Sin embargo, esto ha cambiado porque su Oficina de Seguridad Internacional y No Proliferación se encarga específicamente de contener la propagación de nuevas armas cataclísmicas.

El mes pasado, los líderes de la Cámara de Representantes dieron un paso clave hacia la elaboración de un plan de acción sobre inteligencia artificial con la creación de un nuevo grupo de trabajo bipartidista, que emitirá recomendaciones sobre cómo podría el Congreso impulsar la innovación en inteligencia artificial manteniendo al mismo tiempo las herramientas bajo control.

Sin embargo, los legisladores que dirigen el grupo dijeron a The Washington Post en una entrevista conjunta que “la implementación de una respuesta completa probablemente será una tarea larga”, ya que consideran el vasto impacto de la tecnología en las elecciones, la seguridad nacional, la economía y más.

El representante republicano de California, Jay Obernolte, elegido por los líderes de la Cámara para presidir el grupo, señaló los esfuerzos de Europa por acordar una ley “integral” sobre IA como ejemplo de advertencia. “Si nos fijamos en los intentos europeos de crear una ley general para regular la IA, veremos algunas de sus falacias”, dijo Obernolte, uno de los pocos legisladores con experiencia en informática. “Han tenido que reescribir ese proyecto de ley varias veces a medida que la cara de la IA ha ido cambiando”.

“No nos imaginamos un proyecto de ley de 5.000 páginas que aborde 57 temas y acabe con la IA”, dijo el representante Demódrata de California, Ted Lieu, copresidente del grupo de trabajo. “Va a ser un proceso plurianual, y habrá una variedad de proyectos de ley diferentes que tratarán de abordar distintos aspectos de la IA”. (Infobae)