- El auge de la IA ha despertado entusiasmo por la tecnología y preocupación por sus riesgos
Clase Turista
A medida que evoluciona la tecnología de IA, las industrias de todo el mundo están intensificando su exploración. En el reporte Worldwide Artificial Intelligence Spending Guide IDC, pronostica que el gasto global en sistemas centrados en IA, alcanzará los 154 mil millones de dólares en 2023, un aumento de casi 27 % con respecto a 2022. Por otra parte, los datos del Índice de IA 2023 de la Universidad de Stanford muestran que, en 2022 se aprobaron 37 proyectos de ley relacionados con la IA en todo el mundo, y muchos más están en desarrollo.
La tecnología de inteligencia artificial, o más exactamente sus subconjuntos de aprendizaje automático (ML) y aprendizaje profundo (DL), pueden transformar la industria de la seguridad física. Sin embargo, si no entendemos su potencial, estas tecnologías pueden no cumplir con expectativas poco realistas o generar miedo e incertidumbre innecesarios. Este breve manual explica cómo se utilizan subconjuntos de IA en la tecnología de seguridad física, los casos de uso, los riesgos y las responsabilidades, para ayudar a los profesionales de la seguridad a evaluar la idoneidad de las tecnologías basadas en IA.
¿Qué es la IA en un contexto de seguridad física?
En la comunidad de investigación la inteligencia artificial (IA) se refiere a él; como un cerebro artificial completamente funcional que es consciente de sí mismo, inteligente y que puede aprender, razonar y comprender. Este concepto no existe, lo que sí es un hecho, es que la IA es tecnología basada en subconjuntos de tecnología, que se desarrollan para “aprender” y utilizar conjuntos de datos que permiten a las computadoras realizar tareas que normalmente requieren inteligencia humana.
El aprendizaje automático (ML) y el aprendizaje profundo (DL), son los subconjuntos de IA que se utilizan normalmente en los sistemas de seguridad física. Estos algoritmos utilizan datos aprendidos para detectar y clasificar objetos con precisión.
Cuando se trabaja con datos recopilados por dispositivos de seguridad físicos, como cámaras, puertas u otros sensores, el aprendizaje automático utiliza técnicas estadísticas para resolver problemas, hacer predicciones o mejorar la eficiencia de tareas específicas. El aprendizaje profundo analiza la relación entre entradas y salidas para obtener nuevos conocimientos, reconocer objetos, vehículos y seres humanos, o enviar una alerta cuando se traspasa una barrera; estos son ejemplos de lo que esta tecnología puede hacer en un contexto de seguridad física.
Las máquinas son excepcionalmente buenas para tareas repetitivas y para analizar grandes conjuntos de datos (como vídeos). Aquí es donde el estado actual de la IA puede generar mayores beneficios. El mejor uso de la máquina y del aprendizaje profundo, son herramientas para analizar grandes cantidades de datos y encontrar patrones y tendencias que son difíciles de identificar para los humanos; donde la tecnología también puede ayudar a las personas a hacer predicciones y/o sacar conclusiones.
Por otra parte, la tecnología de seguridad física no suele incorporar el subconjunto de IA llamado modelos de lenguaje grande (LLM), este es el modelo utilizado por Chat GPT y otras IA generativas, está diseñado para satisfacer al usuario como primera prioridad, por lo que las respuestas que proporciona no son necesariamente precisas o veraces.
Esto es peligroso en un contexto de seguridad, antes de poder aplicarse en entornos de seguridad, la tecnología LLM primero debe proporcionar resultados confiables. Hoy en día, Chat GPT y herramientas similares están todas en línea y cada mensaje de texto se utiliza para entrenar la siguiente versión. Los casos de uso de seguridad deberían adoptar enfoques en los que los modelos se entrenen fuera de línea, en las instalaciones, en un conjunto de datos preciso y contenido. Entonces, si bien esta tecnología avanza rápidamente, todavía queda mucho trabajo por hacer para que se utilice de manera amplia y segura en aplicaciones de seguridad física.
Casos de uso de seguridad física para la IA
La IA se utiliza para ayudar a los equipos de seguridad a hacer lo que ya hacen, sólo que más rápido y con mayor precisión, dentro de grandes conjuntos de datos. Algunos ejemplos de esto son:
- “Revisar/Observar” cientos de horas de video para encontrar un auto rojo para que un operador de seguridad pueda concentrarse en otras tareas.
- Automatizar el conteo de personas en comercios minoristas, aeropuertos y empresas, para gestionar la ocupación, monitorear filas y alertar al personal para que se dirija con el número de elementos necesario. Los negocios minoristas están utilizando los datos para mejorar las conversiones, los estadios para controlar las multitudes y el tránsito para comprender y abordar las horas pico de viaje.
- Mantener el flujo de tráfico en estadios, hospitales, grandes recintos y áreas de la ciudad, para detectar atascos, alertar al personal sobre problemas, redirigir automáticamente, cambiar señales y más.
- Reconocimiento de matrículas para ayudar en las investigaciones, permitir el pago de estacionamiento y más.
- Detección de objetos: las instalaciones de infraestructura crítica utilizan esta tecnología para asegurar perímetros, las instalaciones penitenciarias para detectar mercancías que se contrabandean y los aeropuertos para identificar equipaje abandonado o amenazas de bomba.
- Integrarse con otras fuentes de datos, como sistemas de equipaje de aeropuertos, sistemas de puntos de venta minoristas, sistemas de edificios inteligentes, etc., para analizar, predecir y responder a una variedad de situaciones específicas del negocio.
La seguridad física es uno de los ámbitos de más rápido crecimiento para la aplicación de tecnología de IA; IDC predice que los sistemas de prevención e inteligencia de amenazas y el análisis e investigación de fraudes serán dos áreas que verán la mayor inversión en IA este año.
IA que rompe mitos para establecer expectativas precisas
Estos son algunos de los mayores conceptos erróneos sobre la IA en la seguridad física y cuál es realmente la realidad:
MITO 1: La IA puede reemplazar al personal de seguridad humano.
Lo que es realmente posible es que la tecnología de inteligencia artificial puede automatizar tareas repetitivas, permitiendo que el personal de seguridad se concentre en tareas de actividades más complejas y estratégicas. Sin embargo, el juicio humano, la intuición y las habilidades para tomar decisiones seguirán siendo cruciales en la mayoría de los escenarios de seguridad. La IA puede ayudar a aumentar las capacidades humanas y mejorar la eficiencia, pero requiere supervisión, mantenimiento e interpretación de los resultados (factor humano).
MITO 2: Los sistemas de vigilancia impulsados por IA son muy precisos y fiables.
Lo que es realmente posible es que los sistemas de IA cometan errores; se entrenan en función de datos y patrones históricos, y su precisión depende en gran medida de la calidad y diversidad de los datos de entrenamiento. Los sesgos y las limitaciones de los datos pueden dar lugar a resultados sesgados o incorrectos. Además, los sistemas de IA pueden ser vulnerables a ataques en los que actores malintencionados que manipulan intencionalmente las entradas del sistema, para engañar o interrumpir su funcionamiento.
MITO 3: La IA puede predecir incidentes de seguridad.
Lo que es realmente posible es que la IA puede analizar grandes cantidades de datos e identificar patrones que los humanos podrían pasar por alto, pero no es capaz de predecir incidentes de seguridad. Los sistemas de inteligencia artificial se basan en datos históricos y patrones conocidos y pueden tener dificultades para detectar amenazas nuevas o en evolución; además, los incidentes de seguridad pueden involucrar factores sociales, culturales y de comportamiento complejos que pueden resultar difíciles de comprender y abordar por completo para los algoritmos de IA.
MITO 4: La tecnología de IA es inherentemente segura.
Lo que es realmente posible es que, si bien la IA se puede utilizar para mejorar las medidas de seguridad, la tecnología en sí no es inmune a los riesgos de seguridad. Los sistemas de IA pueden ser vulnerables a ataques, como el envenenamiento de datos, la evasión de modelos o el acceso no autorizado a información confidencial. Es fundamental implementar medidas de seguridad sólidas para proteger los sistemas de inteligencia artificial y los datos de los que dependen.
Adoptar un enfoque responsable respecto de la IA
Cualquier fabricante que utilice IA en su oferta, tiene la responsabilidad de garantizar que la tecnología se desarrolle e implemente de manera responsable y ética. Soluciones como las de Genetec Inc., proveedor líder de tecnología de soluciones unificadas de seguridad, seguridad pública, operaciones e inteligencia de negocios, adopta todos estos principios al momento de crear, mejorar y mantener modelos de IA, como pueden ser:
Lograr un equilibrio
Como cualquier tecnología nueva, reconocer los riesgos de la IA, no elimina sus beneficios potenciales. Con una aplicación sensata y una supervisión adecuada, la IA puede aumentar la eficiencia y la seguridad y al mismo tiempo, minimiza el impacto negativo.
La IA ofrece importantes ventajas a la hora de automatizar tareas repetitivas que a menudo consumen una cantidad importante de tiempo humano. Al ahorrarles a los operadores innumerables horas dedicadas a buscar personas específicas en largas secuencias de vídeo, les permite redirigir sus esfuerzos para aportar valor añadido a sus otras responsabilidades y a otras áreas de la organización.
“Garantizar que esta tecnología se utilice de forma responsable es tarea de todos, la regulación puede ayudar a mantener controles y equilibrios en el camino hacia un mundo más conectado y habilitado para la IA”. comento, Guillermo Sandoval, Director Comercial para Genetec.