お知らせ 研究会の開催と会場に参加される皆様へのお願い(2021年10月開催~)
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2021-03-17 13:45
ペア入力を用いた敵対的学習による医用画像スタイル変換
藤岡和暉神戸大)・松原 崇阪大)・上原邦昭阪学院大MI2020-96
抄録 (和) 人工知能による医用画像診断は,学習に大量のデータが必要である.しかし,そうしたデータの準備には莫大なコストと手間がかかる.近年深層学習による画像変換の手法で,2つのドメインの分布間の変換の学習を目的とし,目覚ましい結果を示しているCycleGANが提案された.これにより,1つのドメインの画像から,別のドメインと同様のコントラスト特徴を有する画像を生成することが可能であるため,学習に必要なデータ不足を補うことができる.しかし,CycleGANによる画像変換は,変換前後における整合性の維持が難しい.この問題を解決するために,本研究ではCycleGANを改良した.具体的には,CycleGANでは変換後の画像1枚のみで識別するところを,本研究では変換前後の画像をペアにして識別することで,整合性の維持を図る.また,CycleGANと提案手法を比較するために,画質評価指標で定量的に評価し,提案手法が有効であることを示した. 
(英) Medical image diagnosis by artificial intelligence requires a large amount of data for learning. However, preparing such data requires enormous cost and time. Image-to-image translation methods based on deep learning intend to learn the joint distribution of the two domains and find transformations between them. Especially, CycleGAN which is the Generative Adversarial Networks(GANs)-based method has shown convincing results. As a result, it is possible to generate an image having the same contrast characteristics as that of another modality from an image of one modality, so that it is possible to generate artificial data required for learning. However, it is difficult to maintain consistency before and after conversion of image modality by CycleGAN. To address this problem, we improve CycleGAN in our study. Our proposed method generates visually reasonable images. In addition, in order to compare our proposed method with CycleGAN, we quantitatively evaluated it using the image quality evaluation index and showed that our proposed method is effective.
キーワード (和) 深層学習 / 敵対的生成ネットワーク / 画像変換 / / / / /  
(英) Deep Learning / Generative Adversarial Networks / Image-to-Image Translation / / / / /  
文献情報 信学技報, vol. 120, no. 431, MI2020-96, pp. 212-217, 2021年3月.
資料番号 MI2020-96 
発行日 2021-03-08 (MI) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード MI2020-96

研究会情報
研究会 MI  
開催期間 2021-03-15 - 2021-03-17 
開催地(和) オンライン開催 
開催地(英) Online 
テーマ(和) 医用画像一般(メディカルイメージング連合フォーラム) 
テーマ(英) Medical Imaging 
講演論文情報の詳細
申込み研究会 MI 
会議コード 2021-03-MI 
本文の言語 日本語 
タイトル(和) ペア入力を用いた敵対的学習による医用画像スタイル変換 
サブタイトル(和)  
タイトル(英) Medical Image Style Translation by Adversarial Training with Paired Inputs 
サブタイトル(英)  
キーワード(1)(和/英) 深層学習 / Deep Learning  
キーワード(2)(和/英) 敵対的生成ネットワーク / Generative Adversarial Networks  
キーワード(3)(和/英) 画像変換 / Image-to-Image Translation  
キーワード(4)(和/英) /  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 藤岡 和暉 / Kazuki Fujioka / フジオカ カズキ
第1著者 所属(和/英) 神戸大学 (略称: 神戸大)
Kobe University (略称: Kobe Univ.)
第2著者 氏名(和/英/ヨミ) 松原 崇 / Takashi Matsubara / マツバラ タカシ
第2著者 所属(和/英) 大阪大学 (略称: 阪大)
Osaka University (略称: Osaka Univ.)
第3著者 氏名(和/英/ヨミ) 上原 邦昭 / Kuniaki Uehara / ウエハラ クニアキ
第3著者 所属(和/英) 大阪学院大学 (略称: 阪学院大)
Osaka Gakuin University (略称: Osaka Gakuin Univ.)
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者
発表日時 2021-03-17 13:45:00 
発表時間 15 
申込先研究会 MI 
資料番号 IEICE-MI2020-96 
巻番号(vol) IEICE-120 
号番号(no) no.431 
ページ範囲 pp.212-217 
ページ数 IEICE-6 
発行日 IEICE-MI-2021-03-08 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会