Home >

news ヘルプ

論文・著書情報


タイトル
和文:敵対的学習とノイズ付加を用いた深層学習の頑健性の向上 
英文: 
著者
和文: 中村 歩, 宇都 有昭, 篠田 浩一.  
英文: Ayumu Nakamura, Kuniaki Uto, Koichi Shinoda.  
言語 Japanese 
掲載誌/書名
和文:第27回 画像センシングシンポジウム 
英文: 
巻, 号, ページ        
出版年月 2021年6月 
出版者
和文:画像センシング技術研究会 
英文: 
会議名称
和文:第27回 画像センシングシンポジウム 
英文: 
開催地
和文:オンライン開催 
英文: 
ファイル
公式リンク https://confit.atlas.jp/guide/event/ssii2021/top
 
アブストラクト 深層学習を用いて訓練したモデルは画像認識などの領域で高い性能が得られる。 しかし、そのようなモデルに対して攻撃者が意図的に誤認識を引き起こすことができる 脆弱性が存在することが判明している。 その脆弱性を利用してモデルを誤認識させ、被害をもたらす攻撃を敵対的攻撃と呼ぶ。 敵対的攻撃は深層学習モデルが実社会に応用される際に大きな脅威となり得るため、 敵対的攻撃に対して耐性のある深層学習手法の開発は重要な研究課題である。 敵対的攻撃は深層学習モデルの誤差逆伝搬を用いて 損失が大きくなるように入力を摂動させることで実行する。 敵対的攻撃に対する耐性を向上させる手法はいくつか提案されているが、 最も頑健なものは学習時にモデルに対して敵対的攻撃を行い 正しい出力が得られるように矯正する手法である。 この手法を敵対的学習と呼ぶ。 敵対的学習は大きく精度を落とす強力な敵対的攻撃手法を用いれば 頑健なモデルを学習できるが、 強力な敵対的攻撃手法は誤差逆伝搬を複数回計算するため大きい計算量が必要となる。 そのため敵対的学習に必要な計算量も多くなるという欠点が存在する。 もう一つの頑健性を向上させる手法として 学習時の入力にランダムノイズを加えることで 敵対的攻撃に対してある程度頑健なモデルが学習できる。 ランダムノイズの計算は少ない計算量で済むため この手法は敵対的学習と比べると必要な計算量が少ないという利点があるが、 敵対的学習ほど高い頑健性が得られないという欠点が存在する。 このように敵対的攻撃に対して頑健なモデルを学習する手法には 得られる頑健性と必要な計算量のトレードオフが存在する。 本研究では少ない計算量で敵対的攻撃に対して頑健なモデルを学習するため、 一度のみ誤差逆伝搬してその勾配の方向が出やすくなるように 重みをつけたランダムノイズを学習時の入力に加える手法を提案する。 この手法を敵対的勾配付きノイズ付与と呼ぶ。 この手法は誤差逆伝搬の回数を一度のみにすることで 敵対的学習と比べて少ない計算量で頑健な深層学習モデルを学習できる。 第2章では敵対的攻撃手法や敵対的攻撃に対する防御手法の詳細について述べる。 第3章では提案手法の概要とアルゴリズムについて述べる。 第4章では実験の詳細を記述し、 第5章ではその実験結果を示して考察する。 第6章では本研究を総括する。

©2007 Tokyo Institute of Technology All rights reserved.