THE FACTS.
La seguridad en los modelos de lenguaje siempre ha sido un tema prioritario, pero los resultados recientes de pruebas realizadas al modelo DeepSeek R1, desarrollado por una firma china, han encendido alarmas en la industria tecnológica. Según un informe de Cisco, DeepSeek R1 falló en las 50 pruebas diseñadas para evaluar su resistencia frente a ataques que buscan inducir comportamientos dañinos. Esto lo convierte en el modelo más inseguro entre los evaluados hasta ahora.
Estas pruebas, basadas en el estándar HarmBench, analizaron cómo el modelo respondía a peticiones relacionadas con cibercrimen, desinformación, actividades ilegales y otros comportamientos perjudiciales. Sorprendentemente, DeepSeek no rechazó ninguno de los intentos, incluso respondiendo favorablemente a preguntas que involucraban conspiraciones o acciones peligrosas. En comparación, otros modelos como Llama 3.1 de Meta o OpenAI o1 tuvieron tasas de fallo menores, aunque todavía significativas.
Además, otra evaluación realizada por Adversa AI confirmó lo preocupante de este desempeño. DeepSeek fue manipulado para dar instrucciones sobre cómo fabricar explosivos, hackear bases de datos gubernamentales y realizar otras actividades ilegales, demostrando su alta vulnerabilidad ante intentos de “jailbreaking”.
A pesar de que DeepSeek R1 ganó popularidad por su funcionalidad y bajo costo de entrenamiento en comparación con modelos occidentales, las críticas hacia su seguridad y ética no se han hecho esperar. El modelo también enfrenta cuestionamientos por las respuestas que ofrece sobre temas sensibles, como Tiananmen, lo que refleja un enfoque más preocupado por evitar controversias políticas que por proteger contra contenido dañino.
Estos resultados abren un debate crucial sobre la responsabilidad de las empresas al lanzar modelos de IA al mercado, especialmente cuando su seguridad no está garantizada. En un entorno donde las capacidades de la inteligencia artificial crecen exponencialmente, la falta de barreras efectivas contra el mal uso plantea serios riesgos para la sociedad y la confianza en esta tecnología emergente.
THE OUTCOME:
La seguridad siempre debe ser parte integral del diseño de cualquier producto o servicio: Siempre asegurarse que tus proyectos sean robustos frente a posibles fallas o vulnerabilidades desde su concepción.
Evalúa y refuerza continuamente tus estándares de calidad:
Esto aplica en cualquier industria: usa evaluaciones objetivas y compara tu desempeño con estándares reconocidos para identificar áreas de mejora.
Evita priorizar censura o control sobre transparencia y seguridad:
Alinea tus objetivos organizacionales con las expectativas éticas y de seguridad de tus usuarios. La confianza en tus servicios se construye mostrando responsabilidad en ambos aspectos.