ART-Adversarial Robustness Toolbox检测AI模型及对抗攻击的工具

发布时间:2024年01月14日

Adversarial Robustness Toolbox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI模型被误导的防御性,让 AI 系统变得更加安全,ART支持所有流行的机器学习框架 (TensorFlow,Keras,PyTorch,MXNet,scikit-learn,XGBoost,LightGBM,CatBoost,GPy等),所有数据类型 (图像,表格,音频,视频等)和机器学习任务(分类,物体检测,语音识别, 生成模型,认证等)。

支持以下攻击方法:

  • Deep Fool
  • Fast Gradient Method
  • Jacobian Saliency Map
  • Universal Perturbation
  • Virtual Adversarial Method
  • C&W Attack
  • NewtonFool

支持以下防御方法:

  • Feature squeezing
  • Spatial smoothing
  • Label smoothing
  • Adversarial training
  • Virtual adversarial training

github地址:https://github.com/Trusted-AI/adversarial-robustness-toolbox

Get StartedDocumentationContributing
-?Installation
-?Examples
-?Notebooks
-?Attacks
-?Defences
-?Estimators
-?Metrics
-?Technical Documentation
-?Slack,?Invitation
-?Contributing
-?Roadmap
-?Citing

未完待续考:

?

国内外交通标志数据集 - 知乎

Adversarial Robustness Toolbox首页、文档和下载 - 检测模型及对抗攻击的工具箱? - OSCHINA - 中文开源技术交流社区?

文章来源:https://blog.csdn.net/qq_19446965/article/details/135582544
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。