作成者 |
|
|
本文言語 |
|
出版者 |
|
|
発行日 |
|
収録物名 |
|
巻 |
|
号 |
|
開始ページ |
|
終了ページ |
|
出版タイプ |
|
アクセス権 |
|
関連DOI |
|
|
関連URI |
|
|
関連情報 |
|
|
概要 |
本研究は画像認識からの少数動作入力をもとにアバターの動作制御を行うシステムの開発を目指している.本システムではユーザの動作入力および仮想空間の状況に応じて詳細な動作を自動的に駆動することが可能である.上半身の動作を仮想空間上に提示するアプリケーションを想定し, 少数の動作入力からどの程度の自然な動作が提示できるかを検証する. This paper describes an real-time int...eraction system which enables 3D direct manipulation. Our purpose is to do seamless mapping of human action in the real world into virtual environments. With the aim of making computing systems suited for users, we have developed a vision based 3D direct manipulation interface as smart pointing devices. Our system realizes human motion analysis by 3D blob tracking, and human figure motion synthesis to generate realistic motion from a limit number of blobs. For the sake of realization of smart interaction, we assume that virtual objects in virtual environments can afford human figure action, that is, the virtual environments provide action information for a human figure model, or an avatar. Extending the affordance based approach, this system can employ scene constraints in the virtual environments in order to generate more realistic motion. We have evaluated the performance of virtual object manipulation by changing view angles and the target positions.続きを見る
|