La IA es tan peligrosa o más que una guerra nuclear o una pandemia mundial. Así lo afirma la última advertencia del Centro para la Seguridad de la IA (CAIS). La declaración está respaldada por los principales miembros de la industria de la IA, entre ellos Sam Altman, responsable de OpenAI, la empresa que ha creado ChatGPT.
La advertencia es una de las muchas que se han lanzado en los últimos meses. Algunos de los creadores pioneros de esta tecnología han afirmado que nos precipitamos hacia la destrucción de la humanidad mientras que otros afirman que necesitamos urgentemente normas que la regulen.
Algunas de estas declaraciones han provocado que la gente no sepa qué pensar de unas afirmaciones cada vez más exageradas.
David Krueger, experto en IA y profesor adjunto de la Universidad de Cambridge, afirma que, aunque la gente quiera escenarios concretos en lo que respecta al riesgo existencial de la IA, sigue siendo difícil señalarlos con algún grado de certeza.
"No estoy preocupado porque exista una amenaza inminente en el sentido de que pueda ver exactamente cuál es la amenaza. Pero creo que no tenemos mucho tiempo para prepararnos para posibles amenazas venideras", explica a Business Insider.
Teniendo esto en cuenta, estos son algunos de los potenciales problemas que preocupan a los expertos.
La toma del poder por la IA
Uno de los riesgos más citados es que la IA escape al control de su creador.
La inteligencia artificial general (AGI, por sus siglas en inglés) se refiere a la IA que es tan inteligente o más que los humanos en una amplia gama de tareas. Los sistemas de IA actuales no son sintientes, pero se crean para parecerse a los humanos. ChatGPT, por ejemplo, está diseñado para que los usuarios sientan que chatean con otra persona, explica Janis Wong, del Instituto Alan Turing.
Los expertos están divididos sobre la definición exacta de AGI, pero en general coinciden en que la tecnología potencial presenta peligros para la humanidad que deben ser investigados y regulados.
Krueger sostiene que el ejemplo más evidente de estos peligros es la competencia militar entre naciones. "En la competición militar con armas autónomas —sistemas que por diseño tienen la capacidad de afectar al mundo físico y causar daño— parece obvio cómo estos sistemas podrían acabar matando a mucha gente", razona.
"Un escenario de guerra total impulsado por la IA en un futuro en el que tengamos sistemas avanzados que sean más inteligentes que las personas, creo que sería muy probable que los sistemas se descontrolaran y podrían acabar matando a todo el mundo como resultado", sentencia.
El precio que pagaremos por nuestro futuro basado en la inteligencia artificial: más soledad
Las personas están en una epidemia de soledad y los chatbots de IA como ChatGPT podrían empeorarla aún más.
La IA causará desempleo masivo
Cada vez hay más consenso en que la IA amenaza algunos puestos de trabajo.
Abhishek Gupta, fundador del Instituto de Ética de la IA de Montreal, afirma que la perspectiva de que la IA provoque la pérdida de puestos de trabajo es la amenaza existencial más "realista, inmediata y quizá acuciante".
"Tenemos que analizar la carencia de sentido que sentiría la gente ante la pérdida masiva de puestos de trabajo", explica a Business Insider. "La parte existencial del asunto es qué va a hacer la gente y de dónde va a conseguir su razón de ser".
"Eso no quiere decir que el trabajo lo sea todo, pero es una parte importante de nuestras vidas", recuerda.
Los CEO están empezando a ser francos sobre sus planes para aprovechar la IA. El CEO de IBM, Arvind Krishna, por ejemplo, anunció recientemente que la compañía ralentizaría la contratación para puestos que podrían ser reemplazados con IA.
"Hace cuatro o cinco años, nadie habría dicho algo como esa declaración y ser tomado en serio", subraya Gupta sobre la postura de IBM.
Sesgos de la IA
Si los sistemas de IA se utilizan para ayudar a tomar decisiones sociales en general, el sesgo sistemático puede convertirse en un grave riesgo, según explicaron los expertos a Business Insider.
Ya ha habido varios ejemplos de sesgo en sistemas de IA generativa, incluidas las primeras versiones de ChatGPT. Puedes leer aquí algunas de las impactantes respuestas del chatbot. OpenAI ha añadido más controles para ayudar a ChatGPT a eludir las respuestas problemáticas de los usuarios que preguntan al sistema por contenidos ofensivos.
Los modelos generativos de imágenes de IA pueden producir estereotipos dañinos, según las pruebas realizadas por Business Insider a principios de este año.
Según Gupta, en caso de existir sesgos no detectados en sistemas de IA que se utilizan para tomar decisiones en el mundo real, por ejemplo la aprobación de prestaciones sociales, eso podría tener graves consecuencias.
Según Wong, los datos de entrenamiento suelen basarse predominantemente en el inglés, y la financiación para entrenar otros modelos de IA con otros idiomas es limitada. "Así que hay mucha gente que se verá excluida o ciertas lenguas se entrenarán peor que otras", señala.
Actualidad Laboral / Con información de Business Insider