专注于语言模型安全的开源工具,助力研究人员检测和分析大语言模型中的后门风险。 • 支持多种主流 LLM 框架,便于集成与扩展,适配性强。 • 提供系统化的后门注入与检测方法,帮助识别模型潜在威胁。 • 详细日志记录与分析报告,方便追踪攻击路径与定位漏洞。 • 开源代码及文档完善,支持社区贡献和定制化开发。 • 适合安全研究、模型审计及防护方案构建,推动 LLM 安全生态健康发展 BackdoorLLM | #工具