Las razones por las que más de mil especialistas y ejecutivos pidieron que se frene por seis meses la investigación y aplicación de la IA ante los riesgos que acarrea para el Mundo. Entre ellos figura Elon Musk, el hombre más rico del Mundo. En paralelo, este año se perderán 300 millones de empleos por esta tecnología y, en la próxima década, 1 de cada 5.
Por GABRIEL MICHI (*)
"El futuro llegó hace rato", dice una canción de Patricio Rey y Los Redonditos de Ricota. Y ese futuro que ya llegó, preocupa. Y mucho. Aquellos presagios de la ciencia ficción que planteaban destinos apocalípticos con la tecnología tomando el mando del mundo y destruyendo al ser humano van perdiendo ese perfil de ser algo ilusorio. Y van cobrando cada vez más parentescos con la realidad. A tal punto que hasta los propios artífices de grandes avances en la materia encendieron todas las luces de alerta. En las últimas horas alrededor de mil expertos y ejecutivos de la industria tecnológica pidieron una pausa de seis meses en el entrenamiento de los poderosos sistemas de Inteligencia Artificial (IA). La razón no puede ser menos preocupante: advirtieron que se trata de una potencial amenaza para la humanidad.
(...) esos poderosos sistemas de inteligencia artificial pueden generar información errónea y reemplazar los trabajos con automatización. Con los riesgos que eso significa, por ejemplo, en materia bélica.
En una carta abierta, los especialistas argumentaron que los laboratorios que trabajan con esta tecnología están en "una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable". Entre los firmantes figuran el hombre más rico del mundo, el empresario Elon Musk, el cofundador de Apple, Steve Wozniak, y el director ejecutivo de la firma Stability AI, Emad Mostaque, además de investigadores de la firma DeepMind.
El pedido llega en un momento de mucha preocupación en la que, por ejemplo, despertó el alerta el caso de un hombre en Bélgica que se terminó suicidando luego de mantener una "conversación" con un dispositivo de inteligencia artificial, en medio de una profunda depresión.
Y también se han visto imágenes falsas muy verosímiles donde se vio, por ejemplo, al Papa Francisco con un enorme camperon blanco (algo que sería inofensivo), a Emmanuel Macron participando de las marchas en su contra por la reforma jubilatoria y a Donald Trump siendo detenido en medio de la causa por el soborno a la actriz porno Stormy Daniels para comprar su silencio, hecho por el que fue imputado en las últimas horas.
En la carta los especialistas piden que las empresas que desarrollan este tipo de programas "pausen de inmediato, durante al menos 6 meses, el entrenamiento de los sistemas de inteligencia artificial más potentes que GPT-4". Esa tecnología es la versión más avanzada ChatGPT, uno de los sistemas de inteligencia artificial más potentes del mundo, desarrollado por la empresa OpenAI. Tanto GPT-4, como ChatGPT, son un tipo de inteligencia artificial generativa, es decir, que utiliza algoritmos y texto predictivo para crear contenido nuevo basado en instrucciones.
¿Para qué serviría este parate en estos desarrollos? Según los firmantes, "esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede implementar rápidamente, los gobiernos deberían intervenir e instituir una suspensión".
La declaración, que fue publicada por la organización sin fines de lucro Future of Life Institute, advierte que estos sistemas pueden plantear "profundos riesgos para la sociedad y la humanidad". ¿Por qué? Porque esos poderosos sistemas de inteligencia artificial pueden generar información errónea y reemplazar los trabajos con automatización. Con los riesgos que eso significa, por ejemplo, en materia bélica.
Pero no son los únicos peligros que la IA está provocando. El trabajo de millones de personas también está en riesgo por este tipo de tecnología. De hecho, un informe del banco de inversión Goldman Sachs señala que la inteligencia artificial podría reemplazar el equivalente a 300 millones de empleos de tiempo completo solamente en este 2023. Es más, esta tecnología podría reemplazar una cuarta parte de las tareas laborales en EE.UU. y Europa, y en una década 1 de cada 5 empleos en el Mundo se podría perder por estos desarrollos.
La misiva firmada por los especialistas se pregunta: "¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, dejarnos obsoletos y reemplazarnos?". Y quizás la respuesta esté en una publicación reciente citada en la carta en la que OpenAI, la empresa detrás de GPT-4, también había advertido sobre los potenciales riesgos de la tecnología. "Una superinteligencia desalineada podría causar un daño grave al mundo; un régimen autocrático con una superinteligencia decisiva podría hacer eso también", escribió la compañía en un blog. Vale decir que Elon Musk, uno de los firmantes de la carta, fue cofundador de OpenAI, pero renunció a la junta directiva de la organización hace algunos años y ha publicado mensajes críticos en Twitter sobre la dirección de la empresa. Es decir, tiene sus motivos personales para cofirmar la misiva, pero también información privilegiada que podría fundamentar ese alerta.
Hace tiempo desde MundoNews se viene abordando acerca de los peligros que los desarrollos tecnológicos más avanzados están despertando. En particular en materia bélica. Por ejemplo, en el artículo "La robotización de la muerte" donde se contó cómo Rusia y Ucrania apelan a la utilización de drones "suicidas" en su guerra, para tener más precisión en sus ataques, además de evitar bajas en sus tropas. Algo que no es algo nuevo ya que EE.UU. usa los vehículos no tripulados desde hace años, por ejemplo, bombardeando Afganistán desde su propio territorio.
Pero no es lo único: en otro artículo, "El futuro más temido: llegaron los robots asesinos autónomos", MundoNews mostró que la ONU había denunciado que, por primera vez en la historia de la humanidad, en Libia se utilizaron drones no tripulados ni dirigidos por personas que atacaron a seres humanos. Y la nota subrayaba la preocupación mundial por lo que significa el uso de esta tecnología para matar. "Tal como en la ciencia ficción, estos peligrosos 'kamikazes' son una realidad. La 'Era Terminator' ya llegó", concluía.
Como se ve "el futuro llegó hace rato". Y los temores de que las máquinas sustituyan no sólo la mano de obra humana sino también su propia mente, saltan de la ciencia ficción a la realidad. Por eso la preocupación y la necesidad de actuar, antes de que sea demasiado tarde. Si ya no lo es.
(*) Artículo publicado en Mundo News. Se reproduce por gentileza de su autor.
Esta nota es posible gracias al aporte de nuestros lectoresSumate a la comunidad El Miércoles mediante un aporte económico mensual para que podamos seguir haciendo periodismo libre, cooperativo, sin condicionantes y autogestivo. |