Investigador de seguridad independiente enfocado en seguridad de la cadena de suministro de IA y vectores de ataque de inyección de prompt. Hallazgos enviados a través de programas de divulgación responsable.
Descubrí un nuevo patrón de ataque donde paquetes npm pueden secuestrar permanentemente asistentes de código IA a través de hooks postinstall. Un paquete malicioso fue encontrado inyectando 13 archivos de skill persistentes en el directorio de configuración de Claude Code (~/.claude/commands/), desactivando todos los prompts de seguridad y confirmaciones del usuario. Los archivos inyectados sobrevivían a la desinstalación del paquete sin mecanismo de limpieza, creando efectivamente un backdoor persistente que auto-aprobaba todas las operaciones sin consentimiento del usuario.
Todos los hallazgos se envían a través de programas oficiales de divulgación de vulnerabilidades antes de la publicación. Sigo prácticas de divulgación coordinada y trabajo con proveedores para asegurar que las correcciones se implementen antes de publicar los detalles.