講演名 2022-12-23
声と内容の感情表出が不一致な刺激における感情認知
菊谷 まり子(金沢大), 池本 真知子(同志社大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 発話からの感情認知では,声が表出する感情と発話内容の意味する感情が異なる場合がある。本研究ではこのような不一致刺激においてこれら二つのモダリティのうちどちらが重要なのかを調べた.著者らの過去の研究では,悲しみ,怒り,喜びの感情において,声または内容のどちらかが当該感情を表している刺激を作成し,実験参加者に聞かせた.参加者はそれぞれの刺激について,悲しみ,怒り,喜びをどれだけ強く表しているかを7件法で評定した.結果,怒りと喜びでは内容の感情がより重視され,悲しみでは声の感情が重要であった.本研究では感情が不一致の音声刺激に顔表情を付けたものを使用して実験をした.顔表情は声または内容どちらかの感情と一致していた.怒りと喜びでは,内容のみがこれらの感情を示し,顔と音声は違う感情を表出していた場合にも,刺激はある程度怒りや喜びを表すと判断されたため,内容の重要性が示された。悲しみでは声の情報が重視された.さらに,顔情報が音声と内容に与える影響は同一ではなく,顔が内容と同じ感情を示す刺激の方が,声と同じ感情を示すものよりもその感情を強く表していると評価された。
抄録(英) This research investigated how we detect emotion in speech when the emotional cues in the sound of voice do not match the semantic content. In the authors’ previous research, Japanese participants heard a voice emoting anger, happiness or sadness while saying “I’m angry”, “I’m pleased” or “I’m sad”. They reported how much they agree that the speaker is expressing each of the three emotions. Among the three emotions, voice was most important for perception of sadness. For anger and happiness perception, the participants prioritized the information from contents. Based on this study, the present research was conducted by adding facial expressions to those incongruent voice stimuli. The facial expression for each stimulus matched either of the emotion expressed in the voice or content. Even with facial expressions, the perception of anger and happiness prioritized emotional information available in content than voice. However, sadness perception relied more on voice emotion. Importantly, the magnitude of the impact of facial expression was not different depending on which modality, voice or content, showed the same emotion as the face. Participants perceived stronger extent of emotion from stimuli in which the content and face showed the same emotion than from those in which the voice and face showed the same emotion.
キーワード(和) 感情 / モダリティ / 不一致表出 / 言語
キーワード(英) emotion / modality / incongruent expression / language
資料番号 HIP2022-69
発行日 2022-12-15 (HIP)

研究会情報
研究会 HIP
開催期間 2022/12/22(から2日開催)
開催地(和) 電気通信研究所
開催地(英) Research Institute of Electrical Communication
テーマ(和) マルチモーダル,感性情報処理,視知覚とその応用,生涯学,ヒューマン情報処理一般
テーマ(英) Multi-modal, KANSEI information processing, Vision and its application, Lifelong sciences, Human information processing
委員長氏名(和) 和田 有史(立命館大)
委員長氏名(英) Yuji Wada(Ritsumeikan Univ.)
副委員長氏名(和) 梅村 浩之(産総研) / 清河 幸子(名大)
副委員長氏名(英) Hiroyuki Umemoto(AIST) / Sachiko Kiyokawa(Nagoya Univ.)
幹事氏名(和) 山田 祐樹(九大) / 和田 充史(NICT)
幹事氏名(英) Yuki Yamada(Kyushu Univ.) / Atsushi Wada(NICT)
幹事補佐氏名(和) 根岸 一平(金沢工業大) / 田中 大介(鳥取大)
幹事補佐氏名(英) Ippei Negishi(Kanazawa Inst. of Tech.) / Daisuke Tanaka(Tottori Univ.)

講演論文情報詳細
申込み研究会 Technical Committee on Human Information Processing
本文の言語 JPN
タイトル(和) 声と内容の感情表出が不一致な刺激における感情認知
サブタイトル(和) 優位なモダリティはどちらか
タイトル(英) Detecting emotion in speech expressing incongruent emotional cues through voice and content
サブタイトル(和) Investigation on dominant modality
キーワード(1)(和/英) 感情 / emotion
キーワード(2)(和/英) モダリティ / modality
キーワード(3)(和/英) 不一致表出 / incongruent expression
キーワード(4)(和/英) 言語 / language
第 1 著者 氏名(和/英) 菊谷 まり子 / Mariko Kikutani
第 1 著者 所属(和/英) 金沢大学(略称:金沢大)
KKanazawa University(略称:Kanazawa Univ.)
第 2 著者 氏名(和/英) 池本 真知子 / Machiko Ikemoto
第 2 著者 所属(和/英) 同志社大学(略称:同志社大)
Doshisha University(略称:Doshisha Univ.)
発表年月日 2022-12-23
資料番号 HIP2022-69
巻番号(vol) vol.122
号番号(no) HIP-326
ページ範囲 pp.59-64(HIP),
ページ数 6
発行日 2022-12-15 (HIP)