Cybersecurity AI (CAI): framework para automatizar pruebas de seguridad
El panorama de la ciberseguridad está experimentando una transformación radical a medida que la IA se integra cada vez más en las operaciones de seguridad.
Se prevee que para 2028, las herramientas de prueba de seguridad basadas en IA superarán en número a los pentesters humanos.
Este cambio representa una transformación fundamental en la forma en que se abordan los desafíos de la ciberseguridad. La IA no es solo una herramienta más: se está convirtiendo en esencial para abordar vulnerabilidades de seguridad complejas y anticiparse a las amenazas sofisticadas. A medida que las organizaciones se enfrentan a ciberataques más avanzados, las pruebas de seguridad mejoradas con IA serán cruciales para mantener defensas sólidas.
Cybersecurity AI (CAI) es un marco de trabajo ligero y de código abierto que permite a los profesionales de seguridad crear e implementar automatización ofensiva y defensiva basada en IA. CAI es el marco de trabajo estándar para la seguridad mediante IA, utilizado ya por miles de usuarios individuales y cientos de organizaciones. Tanto si eres investigador de seguridad, hacker ético, profesional de TI u organización que busca mejorar su postura de seguridad, CAI proporciona los componentes básicos para crear agentes de IA especializados que pueden ayudar con la mitigación, el descubrimiento y la explotación de vulnerabilidades, así como con la evaluación de la seguridad.
Este trabajo se basa en esfuerzos previos y se busca democratizar el acceso a herramientas avanzadas de IA para la ciberseguridad es vital para toda la comunidad de seguridad. El objetivo es capacitar a investigadores de seguridad, hackers éticos y organizaciones para que desarrollen e implementen potentes herramientas de seguridad basadas en IA. Al poner estas capacidades a disposición del público, busca igualar las condiciones y garantizar que la tecnología de IA de vanguardia para la seguridad no se limite a empresas privadas con gran financiación ni a actores estatales.
Los programas de recompensas por errores (Bug Bounty) se han convertido en un pilar fundamental de la ciberseguridad moderna, proporcionando un mecanismo crucial para que las organizaciones identifiquen y corrijan vulnerabilidades en sus sistemas antes de que puedan ser explotadas. Estos programas han demostrado ser altamente efectivos para proteger tanto la infraestructura pública como la privada, permitiendo a los investigadores descubrir vulnerabilidades críticas que de otro modo podrían haber pasado desapercibidas.
CAI está diseñado específicamente para potenciar estos esfuerzos, proporcionando un marco de trabajo ligero y ergonómico para la creación de agentes de IA especializados que pueden asistir en diversos aspectos de la búsqueda de recompensas por errores, desde el reconocimiento inicial hasta la validación y el reporte de vulnerabilidades. El marco de trabajo busca complementar la experiencia humana con capacidades de IA, ayudando a los investigadores a trabajar de manera más eficiente y exhaustiva en su misión de hacer que los sistemas digitales sean más seguros.
CAI se basa en los siguientes principios fundamentales:
- Marco de IA orientado a la ciberseguridad: CAI está diseñado específicamente para casos de uso de ciberseguridad, con el objetivo de automatizar parcial y totalmente las tareas de seguridad ofensivas y defensivas.
- Código abierto y gratuito para investigación: CAI es de código abierto y gratuito para fines de investigación. Nuestro objetivo es democratizar el acceso a la IA y la ciberseguridad. Para uso profesional o comercial, incluyendo implementaciones locales, soporte técnico especializado y extensiones personalizadas, contáctenos para obtener una licencia.
- Ligero: CAI está diseñado para ser rápido y fácil de usar.
- Diseño modular y centrado en agentes: CAI opera con agentes y patrones agentivos, lo que permite flexibilidad y escalabilidad. Puede agregar fácilmente los agentes y patrones más adecuados para su caso de ciberseguridad.
- Integración de herramientas: CAI integra herramientas ya incorporadas y permite al usuario integrar fácilmente sus propias herramientas con su propia lógica.
- Registro y rastreo integrados: utiliza Phoenix, la herramienta de registro y rastreo de código abierto para LLM. Esto proporciona al usuario una trazabilidad detallada de los agentes y su ejecución.
Compatibilidad con múltiples modelos: LiteLLM admite y potencia más de 300 modelos. Los proveedores más populares son:
- Anthropic: Claude 3.7, Claude 3.5, Claude 3, Claude 3 Opus
- OpenAI: O1, O1 Mini, O3 Mini, GPT-4o, GPT-4.5 Preview
- DeepSeek: DeepSeek V3, DeepSeek R1
- Ollama: Qwen2.5 72B, Qwen2.5 14B, etc.
Alternativas de código cerrado
La IA para la ciberseguridad es un campo crítico; sin embargo, muchos grupos, erróneamente, la abordan mediante métodos de código cerrado con fines puramente económicos, aprovechando técnicas similares y basándose en modelos existentes de código cerrado (a menudo propiedad de terceros).
Este enfoque no solo desperdicia valiosos recursos de ingeniería, sino que también representa un derroche económico y genera esfuerzos redundantes, ya que suelen terminar reinventando la rueda. Aquí presentamos algunas de las iniciativas de código cerrado y en las que aprovechan la agentes de IA en la ciberseguridad:
- Autonomous Cyber
- CrackenAGI
- ETHIACK
- Horizon3
- Kindo
- Mindfort
- Mindgard
- NDAY Security
- Penligent
- Runsybil
- Selfhack
- Sola Security
- SQUR
- Staris
- Sxipher (seems discontinued)
- Terra Security
- Vibeproxy
- Xint
- XBOW
- ZeroPath
- Zynap
- 7ai

