講演抄録/キーワード |
講演名 |
2017-10-13 13:10
[チュートリアル講演]深層学習の判断根拠を理解するための研究とその意義 ○久保隆宏(TIS) PRMU2017-92 |
抄録 |
(和) |
深層学習は画像をはじめとした分野で多くの実績を残しており,その応用範囲はますます広がっている.一方で,深層学習は学習されたモデルが何を根拠に判断を行っているのかを,人が理解することが難しいという問題も抱えている.この点は人と協調して業務を行うという観点,また高度な自動運転車のように完全な信託を受けてタスクを遂行するケースで,安全に対する説明責任を担保するという観点で大きな問題がある.そのため,本発表では深層学習の判断根拠を明らかにすることを試みた近年の研究について紹介する.また,その説明手法を技術的な課題,また社会的な課題の解決に役立てた活用例についても取り上げる . |
(英) |
Deep learning leaves many achievements in fields such as images, and the scope of its application is expanding more and more. On the other hand, deep learning has a problem that it is difficult for people to understand what the learned model makes judgments based on what. This point is a problem from the viewpoint of doing business in cooperation with people and also ensuring the safety when executing the task by receiving a complete trust like a highly automated driving car. Therefore, in this presentation, we will introduce the recent studies that tried to clarify the grounds for deep learning decision. In addition, show the examples of its application. |
キーワード |
(和) |
深層学習 / 可視化手法 / モデル分析 / / / / / |
(英) |
Deep Neural Network / DNN / Visualization / Model Validation / / / / |
文献情報 |
信学技報, vol. 117, no. 238, PRMU2017-92, pp. 167-168, 2017年10月. |
資料番号 |
PRMU2017-92 |
発行日 |
2017-10-05 (PRMU) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
PRMU2017-92 |