A partir de que se conoció este miércoles una carta que firmaron miles académicos y CEOs tech como el dueño de Twitter y Tesla, Elon Musk, pidiendo una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) por los "grandes riesgos para la humanidad" que representan estas plataformas, expertos en la temática aseguraron que debe trabajarse en "regulaciones a nivel internacional" sobre estas tecnologías y "ponerlas al servicio de las personas".
En la carta publicada en el sitio futureoflife.org, Musk; el confundador de Apple, Steve Wozniak, y el historiador Yuval Noah Harari, entre otras cientos de personalidades, advirtieron que "los sistemas de IA pueden plantear riesgos profundos para la sociedad y la humanidad y podrían representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo".
Los expertos criticaron que "en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable".
Siri y ChatGPT al poder: los cambios culturales y económicos que impone la revolución de la IA
La polémica se generó a partir del reciente lanzamiento del programa GPT-4 de la empresa estadounidense OpenAI, a solo cinco meses de la versión que se abrió al público y que generó que millones de usuarios y usuarias se vuelquen a utilizar esta tecnología gracias a la capacidad de realizar múltiples tareas como ensayos académicos o piezas musicales.
Con la nueva versión, además de mejorar la interacción gracias a la capacidad de generar textos basados en un lenguaje autorregresivo que utiliza el machine learning, se incorporó el trabajo a partir de imágenes y sonidos y la generación de videos.
A partir de las dificultades que estas plataformas agregaron a distinguir entre lo real y lo artificial, los expertos congregados en futureoflife.org alertaron por una "dramática perturbación económica y política (especialmente para la democracia) que causará la IA".
Por su parte, el director de Open AI, Sam Altman, reconoció tener "un poco de miedo" de que su creación se utilice para "desinformación a gran escala o ciberataques". "La empresa necesita tiempo para adaptarse", declaró Altman recientemente a ABCNews.
"Se están lanzando productos muy potentes primero y después se preguntan por las consecuencias. La evaluación de los riesgos debe hacerse desde el momento de la concepción", dijo a Télam Fernando Schapachnik, director ejecutivo de la Fundación Sadosky, y aseguró que "es hora de discutir la regulación de estas tecnologías".
Esta semana, el CEO y Fundador de Mercado Libre, Marcos Galperín, se quejó en su cuenta de Twitter por los errores en las respuestas de un chatbot.
"Según ChatGPT 4, trabajé en Boston Consulting Group, fui director de Aerolíneas Argentinas y Globant es una empresa de tecnología brasileña. Cuando le comenté que estos eran todo errores, dijo que fui director del Banco Comafi (también equivocado)", escribió Galperín y advirtió que "cuando le consultamos por temas que no somos expertos y que son importantes, como temas de salud, esta alucinaciones pueden ser muy peligrosas".
Esta última semana también se viralizó una foto del papa Francisco con una campera acolchada de color blanco, que fue reproducida por cientos de usuarios en las redes sociales por lo extravagante del atuendo, sin embargo luego se supo que la imagen había sido creada por un estadounidense en tono humorístico con el programa de IA Midjourney.
A partir de las implicancias que tienen los programas de IA sobre la sociedad, más de 100 expertos se congregaron a principios de marzo en Montevideo, Uruguay, en el Encuentro Latinoamericano sobre Inteligencia Artificial Khipu 2023, donde sostuvieron que estas tecnologías "deben ser puestas al servicio de las personas".
Según manifestaron los especialistas en una declaración conjunta, las IA deben "mejorar la calidad de vida, las condiciones laborales, económicas, de salud y de bienestar general" y alertaron por el impacto "ineludible" de estas tecnologías sobre los empleos. "Es claro el impacto en el trabajo, que van a desplazar la labor humana es insoslayable, y eso va a repercutir en mayor desigualdad. La tecnología tiene que ser valiosa para toda la sociedad, si solo enriquece a un puñado no sirve", aseguró Schapachnik.
"Estas plataformas pueden generar un contrato de alquiler, una respuesta de call center, una nota periodística o un texto de venta, y lo realizan bien. Esto pone en riesgo el empleo humano, no podemos ser ingenuos", reconoció el director ejecutivo de la Fundación Sadosky y llamó a "discutir la falsa dicotomía entre innovación y regulación, hay que pensar en la regulación de estas tecnologías".
"El mercado digital no está acostumbrado a las regulaciones pero el potencial de cambio y daño de las IA está fuera de cualquier discusión, entonces hay que trabajar este tema a nivel de los organismos internacionales y además los países deberían avanzar en sus marcos normativos", aseveró.
Por su parte, Laura Alonso Alemany, profesora de Ciencias de la Computación en la Universidad Nacional de Córdoba y miembro de la Fundación Vía Libre, explicó a Télam que los programas de IA "solo muestran la factibilidad de automatizar tareas muy mecánicas, pero estamos viviendo una publicidad engañosa, cuidado que se pueden equivocar".
"Es importante que los usuarios no se dejen amedrentar por la complejidad tecnológica. No son inteligencias competitivas con los humanos, no razonan. Debemos ser un poco críticos, no caer en estas narrativas tan entusiastas que sólo quieren vender", advirtió Alonso Alemany y reconoció que "es urgente la regulación".
Fuente: Télam