Si algo tenemos que reconocer, ya casi transcurrido el primer cuarto del siglo XXI, es que la Inteligencia Artificial dejó de ser un asunto de la ciencia ficción y está entrando con mucha fuerza en múltiples dimensiones de la actividad humana, desde la reserva de boletos aéreos hasta lo que vemos y leemos en las redes sociales. En medio de esta nueva revolución de la tecnología, que luce aun mayor que el salto digital iniciado hace 30 años, la seguridad tiene mucho que ganar, pero si no abordamos el tema con responsabilidad, también tendrá mucho que arriesgar.
Desde hace un poco más de una década, los sistemas digitales de video vigilancia han venido perfeccionándose en una función conocida como Analítica de Video. Se trata de un software de IA precargado en las plataformas de televigilancia que permite identificar a través de Machine Learning múltiples patrones conductuales de amenazas y así detectar preventivamente potenciales ataques, robos y hasta suicidios, dependiendo de cada situación y dónde se encuentren instaladas las cámaras. A manera de ejemplo sencillo, estos sistemas tienen la capacidad de identificar un maletín dejado intencionalmente o por descuido en una estación de metro y generar una alarma, o predecir si algún usuario parado en el andén tiene intención de lanzarse a las vías del tren.
Es evidente el poder de estos sistemas que, sin la observación constante de operadores humanos, pueden tomar decisiones y activar equipos de respuesta para neutralizar o contener tales amenazas. En la actualidad, no sería posible gestionar la seguridad con indicadores de alta eficiencia en sistemas masivos de transporte o infraestructuras críticas, si no existieran estas poderosas herramientas tecnológicas.
Pero hay un reto superior para la seguridad cuando se trata del uso de la IA, y es la confianza que existe en las decisiones tomadas por una máquina cuando las consecuencias implican vidas y la protección de los ciudadanos. Aún estamos en fases tempranas de la IA, sin embargo, el poder que ya tiene es asombroso y algunos futurólogos que apuestan en corto tiempo a la necesidad de transferir a estos sistemas la toma de decisiones en escenarios complejos, ya que la mente humana ya no estaría en capacidad de analizar la multidimensionalidad de los contextos en los que el mundo globalizado se ha metido en los últimos años.
Recientemente leí un reporte sobre la confianza que los analistas de Inteligencia tienen en las herramientas de IA para realizar pronósticos en contextos complejos o de alto riesgo para la seguridad de los Estados. Los hallazgos son muy interesantes y aquí comparto tres aspectos que me parecieron muy relevantes. De todas maneras, en este enlace pueden descargar el reporte realizado por el Turing Institute del Reino Unido y que es bastante más extenso. (Human-Machine Teaming in Intelligence Analysis)
- El Machine Learning brinda sus mejores resultados en el descubrimiento, caracterización y selección de información a partir de grandes cantidades de datos. En la primera etapa del proceso de Inteligencia vinculada con la recolección de datos en plazos cortos y ante objetivos urgentes, la IA es una herramienta clave, aunque el proceso debe ser conducido por el analista y no dejarlo exclusivamente a los criterios programados en los algoritmos de búsqueda y selección.
- La forma en la que analista trata los resultados obtenidos a partir del Machine Learning debe estar altamente vinculada a la especificidad del contexto analizado. Hasta ahora, la confiabilidad del procesamiento y primer análisis de la data depende directamente del analista, sin embargo, en función del contexto, la urgencia, la sensibilidad y el caso, el proceso puede ser más o menos autónomo. Existe aun reservas en relación con el punto hasta dónde dejar que la Inteligencia Artificial llegue a conclusiones y tome decisiones.
- Un tercer aspecto, quizás un tanto técnico pero crucial es el entendimiento del porqué la IA toma ciertas decisiones o asume algunas premisas. Este punto tiene que ver con la programación de los sistemas y los algoritmos que se utiliza. Un sistema de IA como BERT dedicado al procesamiento natural del lenguaje tiene 110 millones de líneas de programación. Es evidente que identificar cual instrucción particular se activó en determinado contexto puede resultar en extremo complicado. Hoy ya se habla de una IA transparente, que facilite la comprensión de sus propios procesos para tomar decisiones. Sin embargo, esto no parece muy probable, pues los códigos y la manera en que se programan los sistemas son parte del Know How o fórmula secreta de las organizaciones que hoy lideran este campo.
La IA y el Machine Learning están en el flanco de ascenso tecnológico, y si entendemos la dinámica acelerada de los cambios, todo apunta a que en menos de dos años tendremos una gama amplia de sistemas en plena operación. Bajo esta perspectiva, la seguridad y los procesos de Inteligencia deben con prontitud adoptar algunos lineamientos en torno a esta inminente transición. Una opción muy interesante es la que se conoce como HMT (Human Machine Team). Se concibe como un equipo altamente integrado de procesos entre humanos y máquinas, con capacidad de ajustes en la autonomía de la IA y el nivel de intervención de los analistas en función del contexto, el objetivo del análisis, la cantidad de data a procesar y la urgencia de los resultados.
De alguna manera, quienes trabajamos en seguridad hemos venido construyendo HMTs desde hace algún tiempo, pero pareciera que ahora no tendremos otra opción que incorporar máquinas en nuestros departamentos y hacerlas parte integral de los equipos. Me pregunto cómo las gerencias de Recursos Humanos harán frente a este nuevo desafío.
Esta es una excelente herramienta, la cual luego de instalar y comenzar a configurar, bauticé con el nombre de Plan Piloto «Ojo de Dios»
Actualmente sigue dando pasos de Titán en pro de la seguridad, poniendo de rodillas y contra la pared a la delincuencia organizada.
La recomiendo ampliamente.