La vida con un Ente artificial. Liquid Risks

La Vida con un Ente Artificial*

El eje de la discusión de la revolución tecnológica actual nos acerca siempre a la probabilidad que tiene la IA de alcanzar su propia “autoconciencia”.  De acuerdo con Mustafá Suleyman (1) es muy posible que esto ocurra en relativamente corto plazo. Aquí estamos hablando de una entidad inteligente distinta (y superior) al humano, con capacidad de autopercibirse como un ser independiente, lo que nos llevaría a reconocer su real existencia en la lógica cartesiana del “cogito ergo sum”. Una vez más estaríamos frente un riesgo muy líquido construido enteramente por los humanos, al igual que la bomba nuclear, pero en esta ocasión, con bajísimas posibilidades de contención; ya que la IA dispondría de su propio “libre albedrío” para protegerse de cualquier intento de ser conducida por una inteligencia inferior. Quedaríamos entonces a merced de que los algoritmos autocodificados sean “buenos” en su propia naturaleza y no decidan en algún punto de “hiperracionalidad” llegar a la conclusión que la raza humana podría representar una amenaza a su propia existencia.

Esta idea del ente creado de la complejidad tecnológica me remite a Nick Bostrom (2), en su libro Superintelligence, donde plantea la pregunta crucial en relación con la IA:

“Si la futura inteligencia artificial sobrehumana se convierte en el mayor acontecimiento de la historia de la humanidad, ¿cómo podemos garantizar que no sea el último?”

La interrogante lleva implícita la suposición que la IA es una especie de cuchillo de doble filo. Por un lado, puede solucionar los problemas de la humanidad, y por el otro se puede convertir en el instrumento que acabará con ella. Sin embargo, y a pesar del complejo análisis de Bostrom, su propuesta se reduce a dos aspectos relativamente sencillos: en primera instancia, analizar estratégicamente con mucho detalle cuál es el problema que necesitamos resolver en relación con el riesgo, y luego, agrupar a los mejores; aquellos que hayan demostrado su verdadero interés filantrópico y moralmente aceptable para conducir y contener las fuerzas de esta superinteligencia.

Pensemos que la IA ya dejó de ser un asunto de tecnología. Existe un consenso en torno a la disponibilidad futura de una superinteligencia. Internet es el sustrato sobre el cual se desarrolla esta capacidad al ser una fuente infinita de información. Asimismo, las velocidades de procesamiento de datos tampoco son un problema, más aún cuando la computación cuántica es una realidad. Persisten, sin embargo, algunas limitaciones en los lenguajes de programación para la creación de algoritmos superinteligentes y con posibilidad de autocodificarse de acuerdo con el problema que deban resolver, pero esto no luce como una limitación real, ya que con lo que hoy existe, los resultados son asombrosos y los científicos en computación han mostrado su perplejidad en más de una oportunidad frente a respuestas “no esperadas” de los sistemas de IA.

El abordaje estratégico del “problema” de la IA como riesgo se resume a la probabilidad – cierta – de que emerja una superinteligencia con conciencia y voluntad propias, hiperconectada y capaz de tomar decisiones actuando en contra la gente, a través de un razonamiento lógico llevado a un extremo en el cual, las consideraciones morales o éticas queden relegadas a un plano inferior y prevalezcan criterios de otro orden; tales como lo ideológico, racial, religioso o político. Otro aspecto que demanda un análisis profundo es el riesgo, líquido por demás, de ganar ventajas de inteligencia tan significativas en ciertos sectores “dueños” de la tecnología que los convierta en una especie superior que terminará creando una sociedad de gradientes determinada por el nivel de dominio sobre la tecnología. Esta amenaza, si bien puede haber estado presente en revoluciones tecnológicas previas, en esta oportunidad y debido al avance acelerado, el factor gradiente puede perder su continuidad y convertirse en verdaderas brechas entre distintos grupos humanos.

Riessgos Líquidos Alberto Ray desafíos a la seguridad global

Entiendo a Nick Bostrom cuando apunta al ser humano como el centro de gravedad para desescalar el riesgo inherente a la IA. De alguna manera es mi aproximación en torno a los riesgos líquidos. Somos nosotros, desde nuestra propia naturaleza y en plena conciencia de preservación como especie quienes debemos trazar los límites de contención, y para lograrlo necesitamos organizar a los mejores y con las mejores intenciones. En esta oportunidad, como en ninguna otra en el pasado, ambas condiciones son indispensables: los más capacitados con las mejores intenciones. No me corresponde a mi establecer los criterios para cumplir estos requisitos, pero confío en que todavía contamos con muchos profesionales honestos e independientes para asumir este desafío.

En este punto es prudente advertir que la contención no es prohibición. Contener es una tarea mucho más sofisticada que además de establecer políticas para demarcar las reglas del terreno, acuerda criterios para moverse hacia adelante y así encausar las energías de la creación, que, si no son bien entendidas, desbordarán rápidamente cualquier dique mal concebido o arbitrario que se le interponga. Prohibir es convencionalmente en la gestión de riesgos la medida más fácil y a la vez más costosa. Más aún frente a riesgos inciertos y complejos. En todo caso, la misión prioritaria de la contención en la IA es la seguridad.

Quisiera para concluir, retomar el tema de la posmodernidad y su variante líquida, que surgió como una expresión crítica al racionalismo y en la búsqueda de respuestas al mundo determinista clásico y sólido desarrollado a partir de los preceptos de la Ilustración. Se me ocurre que con esta explosión de la IA que se nos viene como una ola (según dice Mustafá Suleyman en el sugerente título de su libro), estemos sobreestimando el poder de la razón artificial contenido detrás de tantos algoritmos que funcionan en perfecta lógica. Quizás en un tiempo relativamente corto emerja la Posinteligencia Artificial como una respuesta humanista (y no transhumanista (3) a este fenómeno y retornemos a las viejas, pero siempre confiables sinapsis de las neuronas de nuestros cerebros.

@seguritips

*Este texto es un extracto (traducido y abreviado) del capítulo sobre Inteligencia Artificial que estará en la edición en inglés del libro Liquid Risks a publicarse en junio de 2024.

  1. investigador británico fundador de DeepMind, empresa dedicada al desarrollo de la Inteligencia Artificial, plasmadas su libro The Coming Wave.
  2. Filósofo sueco. Profesor de la Universidad de Oxford. Director del Instituto Futuro de la Humanidad.
  3. El transhumanismo es un movimiento que propugna la superación de las limitaciones actuales del ser humano, tanto en sus capacidades físicas como psíquicas, mediante el desarrollo de la ciencia y la aplicación de los avances tecnológicos.

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

18 + seis =