<bdo id="2b3yk"><code id="2b3yk"></code></bdo>

  • <output id="2b3yk"><sup id="2b3yk"></sup></output>
    <output id="2b3yk"><ruby id="2b3yk"></ruby></output>
  • <code id="2b3yk"><delect id="2b3yk"></delect></code>

  • AI模型安全經典論文下載

    AI模型安全經典論文下載

    AI模型的安全主要包括以下幾個方面。

    偷取模型

    image.png

    數據投毒

    image.png

    欺騙模型

    其中欺騙模型又稱為對抗樣本的攻擊成本更低,影響更直接,成為AI模型安全研究重點。 
    經典的對抗樣本案例之一就是欺騙圖像分類模型,在圖像上增加肉眼難以識別的修改,就可以讓模型搞不清是否帶了耳環,把女人識別為男人。

    image.png

    另外一個經典的對抗樣本案例就是欺騙物體識別,而且這個攻擊是可以在物理世界上生效的,只要在Stop的牌子上貼上靜心設計的貼紙,就可以讓物理識別時效,無法捕捉到Stop的指示牌。

    image.png

    經典論文

    對抗樣本是不是很有趣?如果想深刻了解這些攻擊原理,我們收集了這個領域的經典論文,并且在我們的github上傳了白盒攻擊的論文。后繼我們還將繼續在github上傳黑盒攻擊、物理攻擊以及對應的防御方法的論文。我們的github地址為:

    https://github.com/baidu/AdvBox

    我們在github上開源了AdvBox,一個實現對抗樣本白盒、黑盒算法的工具箱,如果想快速實踐對抗樣本的實驗,可以clone我們項目,上面有詳細案例,歡迎star和fork。

    git clone https://github.com/baidu/AdvBox.git

    白盒攻擊

    image.png

    黑盒攻擊

    image.png

    防御方法

    image.png

    2

    取消
    Loading...
    css.php 宁夏卫视在线直播观看