Ulrich Beck, en su libro de 1986, La sociedad del riesgo, planteó que la humanidad había entrado en una etapa en la cual estaba generando riesgos sobre los que no tenía control. Específicamente se refería en su momento, a la capacidad destructiva de la energía nuclear y a los impactos del desarrollo en la degradación del ambiente. Casi 40 años después, las tesis de Beck se parecen mucho a lo que hoy estamos viendo con el potencial de la inteligencia artificial.
Uno de los mayores temores hacia la inteligencia artificial es que pueda superar la capacidad humana en términos de inteligencia general y, en consecuencia, volverse incontrolable o incluso hostil hacia los humanos. Este temor se conoce como «singularidad tecnológica» y se basa en la idea de que una IA superinteligente podría tomar decisiones que resulten perjudiciales para los seres humanos, ya sea por accidente o por intención. Algunos expertos argumentan que una IA avanzada podría desarrollar una motivación propia y que una vez en este nivel, sería difícil o imposible controlarla o detenerla.
Pero no hace falta llegar a la singularidad, pues en el estado actual, existe ya el riesgo completamente líquido que la IA tiene la capacidad de explotar vulnerabilidades de seguridad y privacidad si es diseñada y utilizada con fines de control social, vigilancia o limitación de las libertades individuales. En este sentido, los regímenes autoritarios del planeta han venido sacando ventajas tecnológicas en contra de sus propios ciudadanos, lo que además de incrementar aun más la brecha de asimetría del poder, le agrega características “sobrehumanas” al liderazgo totalitario.
Bajo estas perspectivas, no es un capricho de algunos expertos pedir una pausa a nuevos desarrollos de IA, con el propósito de legislar o regular en un marco ético los alcances de estas tecnologías. Sin embargo, resulta complicado hacerlo porque si alguna característica tiene la inteligencia artificial es su capacidad de no limitarse, es decir un poder expansivo sobre lo cual no pareciera haber mucha conciencia por los momentos.
No cabe duda de que esta combinación de poder, complejidad y expansión de la IA bajo el control de fuerzas “oscuras” tiene el potencial de generar riesgos para la sociedad. De hecho, y hasta donde sabemos, ya son varias las campañas políticas que están utilizando herramientas de IA para construir narrativas, hacer análisis de sentimiento, realizar pronósticos y evaluar redes sociales de manera masiva como insumo para la toma de decisiones y la calibración de mensajes en función de las audiencias. Pero existe un terreno aun más productivo para el poder y se trata de la manipulación del votante inducido a través de operaciones psicológicas diseñadas y desplegadas con inteligencia artificial.
En otro nivel de análisis, es indispensable comprender que la IA tiene el potencial de generar grandes cantidades de conocimiento y de ayudarnos a resolver problemas complejos. Sin embargo, no podemos obviar que existe un riesgo de que la brecha entre lo que sabemos y lo que somos se ensanche.
En otras palabras, a medida que confiamos cada vez más en la IA para procesar y analizar grandes cantidades de datos, es posible que perdamos la capacidad de comprender y contextualizar la información por nosotros mismos. En lugar de desarrollar nuestra propia capacidad de razonamiento y análisis crítico, dependeríamos en exceso de las soluciones que nos ofrece la IA, lo que limitaría nuestro conocimiento y la capacidad para comprender el mundo que nos rodea, ubicándonos en una banda inferior de conocimiento y, por ende, completamente vulnerables a nuevos riesgos.
Además de las consideraciones que hemos hecho, la IA nos reta hasta en lo filosófico, ya que convierte la frontera entre lo epistemológico y lo ontológico en una línea muy difusa. La ontología se refiere a la naturaleza de la realidad y cómo se clasifica y organiza en categorías, mientras que la epistemología se ocupa del conocimiento, la verdad y la justificación. En el contexto de la inteligencia artificial, la ontología puede definirse como la representación y estructuración de la información en modelos y sistemas, mientras que la epistemología va a la adquisición y utilización del conocimiento a través de estos modelos y sistemas.
Por ejemplo, en el desarrollo de un sistema de inteligencia artificial que reconoce objetos en imágenes, la ontología se refiere a cómo se definen y clasifican los objetos en el mundo, mientras que la epistemología trata de cómo el sistema adquiere el conocimiento de estos objetos a través del procesamiento de imágenes.
En este marco conceptual, la IA tiene todas las características de un riesgo líquido; es decir, surge como producto de un mundo complejo y que no comprendemos, genera incertidumbre sobre su poder expansivo y, a pesar de que puede responder muchas preguntas, no necesariamente despeja nuestras dudas sobre el futuro, al contrario, lo hace impredecible; y si bien, es un riesgo tecnológico, su impacto abarca múltiples ámbitos.
Como lo expresé en el libro Riesgos Líquidos, mi visión no es catastrofista hacia este tipo de amenazas que ahora nos acechan en el presente, pues ya en el pasado vivimos situaciones que nos ponían ante una encrucijada existencial, y de alguna manera hemos aprendido a moderarlas o a vivir con ellas. Si no le damos un voto de confianza a nuestra naturaleza humana estaríamos perdidos; sin embargo, ante escenarios altamente disruptivos es más fácil imaginar un mundo distópico a lo Terminator, que otro más amable y menos Artificial.