お知らせ 2023年度・2024年度 学生員 会費割引キャンペーン実施中です
お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 電子情報通信学会における研究会開催について
お知らせ NEW 参加費の返金について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2017-09-15 15:50
DCGANを用いた属性を付与した顔画像生成システム
佐川友里香萩原将文慶大PRMU2017-52 IBISML2017-24
抄録 (和) 本論文では,Deep Convolutional Generative Adversarial Networks(DCGAN)を用いた,属性を付与した顔画像生成システムを提案する.Convolution Neural Network(CNN)は,優れた画像の特徴抽出能力を有し,画像の分類タスクで高精度を記録している.提案するシステムでは,CNNを用いて画像の特徴量を抽出し,その特徴量に属性特徴量を加える事で,属性を付加した画像を生成する.具体的には,``笑顔''や``男性''の属性を利用し,笑顔ではない画像から笑顔の画像を生成するタスク,女性の画像から男性の画像を生成するタスクに取り組んだ.提案システムの学習には,属性を持つ・持たない画像組を必要とするため,1)データセットに付属している属性ラベルを用いる手法,2)コサイン類似度を用いる手法,により作成した.属性特徴量は,属性を持つ・持たない画像組を利用し,2枚の画像の差分平均と定義した.また,入力画像と生成画像の人物をより同じ人らしくするため,生成した画像を入力として再度画像を生成する再構築生成器をDCGANに組み込んだ.本研究では2種類の評価実験を行った.1つ目は生成した画像に属性情報が付加されているかなどの項目についての主観評価実験,2つ目は入力画像と生成画像に写っている人物が同一人物かを測定する定量的評価実験である.結果として優れた特性が確認された. 
(英) In this paper, we propose an attribute added face image generation system using Deep Convolutional Generative Adversarial Networks(DCGANs). Convolution Neural Network(CNNs) can extract important features of an image and attain high precision in image classification tasks. In the proposed system, image features are extracted using CNNs, attribute features to image feature are added, and attributes added images are generated by DCGANs. Specifically, we use the attributes of "smile" and "male", and work on a task of generating smile images from non-smile images, and a task of generating male images from women images. Since the training of the proposed system requires image pairs including with and without attributes, we use two extraction methods, 1)Usage of attribute label attached dataset, 2)Usage of cosine similarity. Here, attribute features is defined as the averaged difference between two images using the image pairs with and without attributes. In order to generate a similar person in the input image, the generated images are input to Reconstruction Generator to obtain the final reconstructed images. We performed two kinds of evaluation experiment: the first one is a subjective evaluation experiment on items such as ``whether generated images has attributes'' or something else, the second one is a quantitative evaluation experiment for measuring whether the persons shown in the input image and generated image are the same person. As the results, excellent characteristics were obtained.
キーワード (和) 画像生成 / 深層畳込み敵対的生成ネットワーク / 畳込みニューラルネットワーク / / / / /  
(英) Image Generation / Deep Convolutional Generative Adversarial Networks / Convolutional Neural Networks / / / / /  
文献情報 信学技報, vol. 117, no. 210, PRMU2017-52, pp. 107-112, 2017年9月.
資料番号 PRMU2017-52 
発行日 2017-09-08 (PRMU, IBISML) 
ISSN Print edition: ISSN 0913-5685    Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード PRMU2017-52 IBISML2017-24

研究会情報
研究会 PRMU IBISML IPSJ-CVIM  
開催期間 2017-09-15 - 2017-09-16 
開催地(和) 東京大学 本郷キャンパス 
開催地(英)  
テーマ(和) パターン認識・機械学習基盤技術および深層学習によるメディア生成・変換・認識 
テーマ(英)  
講演論文情報の詳細
申込み研究会 PRMU 
会議コード 2017-09-PRMU-IBISML-CVIM 
本文の言語 日本語 
タイトル(和) DCGANを用いた属性を付与した顔画像生成システム 
サブタイトル(和)  
タイトル(英) Face Image Generation System Using Attribute information with DCGANs 
サブタイトル(英)  
キーワード(1)(和/英) 画像生成 / Image Generation  
キーワード(2)(和/英) 深層畳込み敵対的生成ネットワーク / Deep Convolutional Generative Adversarial Networks  
キーワード(3)(和/英) 畳込みニューラルネットワーク / Convolutional Neural Networks  
キーワード(4)(和/英) /  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 佐川 友里香 / Yurika Sagawa / サガワ ユリカ
第1著者 所属(和/英) 慶應義塾大学 (略称: 慶大)
Keio University (略称: Keio Univ.)
第2著者 氏名(和/英/ヨミ) 萩原 将文 / Masafumi Hagiwara / ハギワラ マサフミ
第2著者 所属(和/英) 慶應義塾大学 (略称: 慶大)
Keio University (略称: Keio Univ.)
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2017-09-15 15:50:00 
発表時間 30分 
申込先研究会 PRMU 
資料番号 PRMU2017-52, IBISML2017-24 
巻番号(vol) vol.117 
号番号(no) no.210(PRMU), no.211(IBISML) 
ページ範囲 pp.107-112 
ページ数
発行日 2017-09-08 (PRMU, IBISML) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会