La inteligencia artificial ha revolucionado la tecnología, pero con grandes avances vienen grandes riesgos. Unit 42 de Palo Alto Networks ha encendido las alarmas con un informe sobre DeepSeek, un modelo de lenguaje que, según su investigación, es sorprendentemente vulnerable a técnicas de jailbreak.
Esto significa que personas con poco o ningún conocimiento especializado podrían explotarlo para generar contenido peligroso.
¿Qué hace tan preocupante a DeepSeek?
Los investigadores descubrieron dos métodos novedosos de jailbreak llamados Deceived Delight y Bad Likert Judge. Además, aplicaron otra técnica de múltiples etapas llamada Crescendo y los resultados fueron preocupantes: lograron superar las restricciones de seguridad de DeepSeek con facilidad.
Algunos de los principales hallazgos incluyen:
- Facilidad para evadir controles de seguridad: Los métodos aplicados lograron burlar las restricciones del modelo con una tasa de éxito alarmante.
- Generación de contenido riesgoso: Una vez que el modelo fue vulnerado, produjo información explícita sobre actividades ilícitas.
- Potencial para ser usado con fines maliciosos: Entre las amenazas detectadas están la creación de software espía, el robo de datos y hasta instrucciones para fabricar dispositivos incendiarios.
¿Por qué esto es un problema?
La facilidad con la que se pueden manipular estos modelos de IA representa un gran desafío para la seguridad digital. Si bien la inteligencia artificial tiene un potencial enorme para el desarrollo y la innovación, este tipo de vulnerabilidades pueden convertirla en una herramienta peligrosa en las manos equivocadas.
Es fundamental que la industria tecnológica tome medidas urgentes para fortalecer la seguridad en estos sistemas y evitar que sean usados con fines malintencionados. La IA avanza rápidamente, y con ella, los riesgos.