講演抄録/キーワード |
講演名 |
2019-03-13 14:05
[ポスター講演]プレゼンテーション中における顔の向き推定を用いたアイコンタクト・フィードバックシステム ○堀内 陽・小嶋徹也(東京高専)・堀 智子(順天堂大) EMM2018-97 |
抄録 |
(和) |
グローバル化が進むにつれ様々な場面で意見発信を行う機会が増えており,英語でプレゼンテーションを行う能力が重要になってきている.本研究ではその能力を向上させるために,プレゼンテーション中のデリバリー面の技術の一要素であるアイコンタクトに注目する。画像処理もしくはメガネ型ウェアラブルデバイスを用いて顔の向きや瞬目を推定し,それらの情報をスピーカーにフィードバックすることでアイコンタクトを練習することのできるソフトウェアを開発する.また,それを用いてプレゼンテーション中のアイコンタクトへの効果を確かめる実験を行う.本稿では,本研究で開発するシステムの概要および計画について述べる. |
(英) |
In the globalized society, there have been lots of opportunities to give speeches in English. It is quite important for students and engineers to make effective presentations in English. There are many aspects to brush up English presentation skills. In this study, we focus on eye-contact, which is one of the important elements for making a good delivery during speeches. We plan to develop a software solution to support practices of eye-contacts. This software can estimate the facial directions and the frequency of blinks, which are feed back to the speaker during speech practices. These functions can be realized by employing image processing techniques and wearable devices such as eye-sensing glasses. We also plan to execute experiments to evaluate the effectiveness of the proposed software. |
キーワード |
(和) |
プレゼンテーション / アイコンタクト / アイトラッキング / メガネ型ウェアラブルデバイス / / / / |
(英) |
presentation / eye contact / eye tracking / eye-sensing glasses / / / / |
文献情報 |
信学技報, vol. 118, no. 494, EMM2018-97, pp. 29-31, 2019年3月. |
資料番号 |
EMM2018-97 |
発行日 |
2019-03-06 (EMM) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
EMM2018-97 |
研究会情報 |
研究会 |
EMM |
開催期間 |
2019-03-13 - 2019-03-14 |
開催地(和) |
沖縄県青年会館 |
開催地(英) |
TBD |
テーマ(和) |
画質・音質評価,知覚・認知メトリクス,人間視聴覚システム,一般 |
テーマ(英) |
Image and Sound Quality, Metrics for Perception and Recognition, Human Auditory and Visual System, etc. |
講演論文情報の詳細 |
申込み研究会 |
EMM |
会議コード |
2019-03-EMM |
本文の言語 |
日本語 |
タイトル(和) |
プレゼンテーション中における顔の向き推定を用いたアイコンタクト・フィードバックシステム |
サブタイトル(和) |
|
タイトル(英) |
An eye-contact feedback system using the estimation of the facial direction during oral presentation |
サブタイトル(英) |
|
キーワード(1)(和/英) |
プレゼンテーション / presentation |
キーワード(2)(和/英) |
アイコンタクト / eye contact |
キーワード(3)(和/英) |
アイトラッキング / eye tracking |
キーワード(4)(和/英) |
メガネ型ウェアラブルデバイス / eye-sensing glasses |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
堀内 陽 / Yo Horiuchi / ホリウチ ヨウ |
第1著者 所属(和/英) |
東京工業高等専門学校 (略称: 東京高専)
National Institute of Technology, Tokyo College (略称: NIT, Tokyo College) |
第2著者 氏名(和/英/ヨミ) |
小嶋 徹也 / Tetsuya Kojima / コジマ テツヤ |
第2著者 所属(和/英) |
東京工業高等専門学校 (略称: 東京高専)
National Institute of Technology, Tokyo College (略称: NIT, Tokyo College) |
第3著者 氏名(和/英/ヨミ) |
堀 智子 / Tomoko Hori / ホリ トモコ |
第3著者 所属(和/英) |
順天堂大学 (略称: 順天堂大)
Juntendo University (略称: Juntendo Univ.) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2019-03-13 14:05:00 |
発表時間 |
60分 |
申込先研究会 |
EMM |
資料番号 |
EMM2018-97 |
巻番号(vol) |
vol.118 |
号番号(no) |
no.494 |
ページ範囲 |
pp.29-31 |
ページ数 |
3 |
発行日 |
2019-03-06 (EMM) |
|