講演名 2024-03-22
AIモデルの説明可能性LIMEとShapley値からの属性推定リスクの評価
當麻 僚太郎(明大), 菊池 浩明(明大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 機械学習モデルの公平性や学習の透明性を保証し,ユーザに納得感を与えるために機械学習モデルの出力を説明する説明可能性技術が注目されている.Amazon Web ServicesやGoogle Cloud Platform,Microsoft Azureなどの主要なサービスの多くはMachine Learning as a Service(以下,MLaaS)と呼ばれるプラットフォーム上で提供されており,モデルの出力を説明するための手法をいくつか提供している.しかし,2022年にLuoらがShapley値による説明からモデルへのプライベートな入力を推論出来ることを示した.ただし,Shapley値以外の説明手法について同様の属性推定リスクが存在するかは明らかでない.そこで,Shapley値と同じ局所的な説明手法であるLIMEに対して属性推論攻撃を行い,Shapley値とLIMEの属性推定リスクの違いについて評価する.
抄録(英) Explainability has gained attention to ensure fairness and transparency in machine learning models, providing users with a sense of understanding. Many services such as Amazon Web Services, Google Cloud Platform, and Microsoft Azure running Machine Learning as a Service (MLaaS) platforms, which provide several methods to explain model. However, in 2022, Luo et al. demonstrated that Shapley value-based explanations could lead to inference of private attribute, posing privacy risks of information leakage from models. Nevertheless, it remains unclear whether the attribute inference risk on the alternative explainability exist or not. Therefore, this study evaluates the attribute inference risk on LIME and compare the vulnerability with the explanability Shapley values.
キーワード(和) LIME / Shapley値 / XAI / 説明可能性 / 機械学習 / 属性推定
キーワード(英) LIME / Shapley values / XAI / Explainability / Machine Learning / Feature Inference
資料番号 ICSS2023-88
発行日 2024-03-14 (ICSS)

研究会情報
研究会 ICSS / IPSJ-SPT
開催期間 2024/3/21(から2日開催)
開催地(和) 沖縄科学技術大学院大学(OIST) OISTカンファレンスセンター
開催地(英) OIST
テーマ(和) セキュリティ、トラスト、一般
テーマ(英) Security, Trust, etc.
委員長氏名(和) 井上 大介(NICT)
委員長氏名(英) Daisuke Inoue(NICT)
副委員長氏名(和) 山田 明(神戸大) / 山内 利宏(岡山大)
副委員長氏名(英) Akira Yamada(Kobe Univ.) / Toshihiro Yamauchi(Okayama Univ.)
幹事氏名(和) 木藤 圭亮(三菱電機) / 菅原 健(電通大)
幹事氏名(英) Keisuke Kito(Mitsubishi Electric) / Takeshi Sugawara(Univ. of Electro-Comm.)
幹事補佐氏名(和) 鐘本 楊(NTT) / 佐藤 将也(岡山県立大)
幹事補佐氏名(英) Yo Kanemoto(NTT) / Masaya Sato(Okayama Prefectural Univ.)

講演論文情報詳細
申込み研究会 Technical Committee on Information and Communication System Security / Special Interest Group on Security Psychology and Trust
本文の言語 JPN
タイトル(和) AIモデルの説明可能性LIMEとShapley値からの属性推定リスクの評価
サブタイトル(和)
タイトル(英) Evaluation of Feature Inference Risk from Explainable AI metrics LIME and Shapley Values
サブタイトル(和)
キーワード(1)(和/英) LIME / LIME
キーワード(2)(和/英) Shapley値 / Shapley values
キーワード(3)(和/英) XAI / XAI
キーワード(4)(和/英) 説明可能性 / Explainability
キーワード(5)(和/英) 機械学習 / Machine Learning
キーワード(6)(和/英) 属性推定 / Feature Inference
第 1 著者 氏名(和/英) 當麻 僚太郎 / Ryotaro Toma
第 1 著者 所属(和/英) 明治大学(略称:明大)
Meiji University(略称:Meiji Univ.)
第 2 著者 氏名(和/英) 菊池 浩明 / Hiroaki Kikuchi
第 2 著者 所属(和/英) 明治大学(略称:明大)
Meiji University(略称:Meiji Univ.)
発表年月日 2024-03-22
資料番号 ICSS2023-88
巻番号(vol) vol.123
号番号(no) ICSS-448
ページ範囲 pp.137-144(ICSS),
ページ数 8
発行日 2024-03-14 (ICSS)