顔の3次元データと筋構造に基づく表情認識



近年,映画やゲームなどの CG 作成において,モーションキャプチャが使用され る機会が急速に増えてきている.中でも,人間の顔をリアルに再現するために, フェイストラッキングを行う機会も増えてきている. 「顔」は人間にとって非情に身近な存在であると共に, 顔の持ち主である一人一人の人間における個人的な情報, コミュニケーションに係わる情報を始めとした,言 語的手段では表現しにくいようなさまざまな情報を担っている. このような,人間が表出した表情の分析し,蓄積することによって,「表情データベース」として, 対面コミュニケーション場面における円滑な意思疎通のために 役立てることができる. このような背景から,本研究では,モーションキャプチャシステムにより獲得した 顔データを用いて,「表情データベース」構築のため, 表情を記述するためのルールを抽出する手法を提案する. しかしながら,モーションデータは生産性が低いため,少ないデータ群から効率よ くルールを抽出する必要がある.そこで,5 つの状態を持つメンバシップ関数を用い データロスを削減し,効率よくルールを抽出している. また,モーションキャプチャシステムから得られる顔データは, 3 次元時系列データであるため,そのまま扱うと計算量が膨大になる. しかしながら,顔の各部分はそれぞれ独立に動いているのではなく,表情筋と呼ば れる筋構造の制約がある.そこで,主成分分析を用い,顔データから表情筋の伸縮 を表す伸縮係数に変換することによって,次元を落としている. 最後に,このようにして発見された表情ルールを用いて表情認識の実験を行った.