Adversarial Robustness Toolbox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI模型被误导的防御性,让 AI 系统变得更加安全,ART支持所有流行的机器学习框架 (TensorFlow,Keras,PyTorch,MXNet,scikit-learn,XGBoost,LightGBM,CatBoost,GPy等),所有数据类型 (图像,表格,音频,视频等)和机器学习任务(分类,物体检测,语音识别, 生成模型,认证等)。
支持以下攻击方法:
支持以下防御方法:
github地址:https://github.com/Trusted-AI/adversarial-robustness-toolbox
Get Started | Documentation | Contributing |
---|---|---|
-?Installation -?Examples -?Notebooks | -?Attacks -?Defences -?Estimators -?Metrics -?Technical Documentation | -?Slack,?Invitation -?Contributing -?Roadmap -?Citing |
未完待续考:
?
Adversarial Robustness Toolbox首页、文档和下载 - 检测模型及对抗攻击的工具箱? - OSCHINA - 中文开源技术交流社区?