F5 Labs presentó el Índice Integral de Seguridad de Inteligencia Artificial (CASI), una nueva herramienta que evalúa el nivel de protección de modelos desarrollados por gigantes tecnológicos como OpenAI, Google, Meta, Anthropic y Mistral. El análisis, basado en escenarios reales de ataque, busca ofrecer una medición objetiva sobre qué tan vulnerables o resilientes son estas tecnologías frente a amenazas cibernéticas.
El ranking, que se actualiza de forma mensual y muestra a los 10 modelos mejor posicionados, incorpora pruebas como intentos de manipulación de instrucciones (prompt injection), extracción de datos sensibles y evasión de controles de seguridad. Además, introduce la Puntuación de Resistencia Agéntica (ARS), que mide el comportamiento de modelos autónomos conectados a APIs, evaluando riesgos como la ejecución de acciones sin autorización o la alteración de instrucciones originales.
Este enfoque no solo mide el rendimiento de la inteligencia artificial, sino su capacidad para operar bajo presión en entornos adversariales, un factor cada vez más relevante para empresas que integran estas soluciones en sus procesos críticos.
Con este índice, F5 Labs busca establecer un nuevo estándar en la industria, permitiendo a líderes tecnológicos tomar decisiones informadas al momento de elegir modelos de IA, considerando no solo su capacidad, sino también su nivel de seguridad ante amenazas emergentes.
