WEKO3
アイテム
A Method of Recognizing Body Movements Based on a Self-viewpoint Video
http://hdl.handle.net/10228/0002001186
http://hdl.handle.net/10228/0002001186265717b4-9594-4e2f-ae32-7f5e9a39007f
| 名前 / ファイル | ライセンス | アクション |
|---|---|---|
|
|
|
| アイテムタイプ | 共通アイテムタイプ(1) | |||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 公開日 | 2025-01-30 | |||||||||||||
| タイトル | ||||||||||||||
| タイトル | A Method of Recognizing Body Movements Based on a Self-viewpoint Video | |||||||||||||
| 言語 | en | |||||||||||||
| 著者 |
Moribe, Iichirou
× Moribe, Iichirou
× 丹上, 結乃純
WEKO
399
|
|||||||||||||
| 著作権関連情報 | ||||||||||||||
| 権利情報 | Copyright (c) The authors. | |||||||||||||
| 著作権関連情報 | ||||||||||||||
| 権利情報Resource | https://creativecommons.org/licenses/by-nc/4.0/ | |||||||||||||
| 権利情報 | This article is distributed under the terms of the Creative Commons Attribution License 4.0, which permits non-commercial use, distribution and reproduction in any medium, provided the original work is properly cited. See for details: https://creativecommons.org/licenses/by-nc/4.0/ | |||||||||||||
| 抄録 | ||||||||||||||
| 内容記述タイプ | Abstract | |||||||||||||
| 内容記述 | The most critical human sensory function resides in vision. This paper focuses on utilizing visual information, specifically self-perspective footage, to identify individual movements. Existing researchesrequire third-party filming to recognize human body movements and states. The proposed method, on the other hand, simply attaches a camera to the human head and enables the recognition of the subject's actions. Consequently, it becomes easier to monitor daily movements of a human and gather his/her data on body kinetics. This approach would be beneficial in scenarios involving individuals engaging in risky behavior or, during a certain emergency, providing valuable assistance. | |||||||||||||
| 言語 | en | |||||||||||||
| 備考 | ||||||||||||||
| 内容記述タイプ | Other | |||||||||||||
| 内容記述 | The 2024 International Conference on Artificial Life and Robotics (ICAROB 2024), February 22-25, 2024, on line, Oita, Japan | |||||||||||||
| 言語 | en | |||||||||||||
| 書誌情報 |
en : Proceedings of International Conference on Artificial Life & Robotics (ICAROB2024) p. GS3-2, 発行日 2024-02 |
|||||||||||||
| 出版社 | ||||||||||||||
| 出版者 | ALife Robotics | |||||||||||||
| キーワード | ||||||||||||||
| 主題Scheme | Other | |||||||||||||
| 主題 | My VISION | |||||||||||||
| キーワード | ||||||||||||||
| 主題Scheme | Other | |||||||||||||
| 主題 | Posture estimation | |||||||||||||
| キーワード | ||||||||||||||
| 主題Scheme | Other | |||||||||||||
| 主題 | Optical flow | |||||||||||||
| キーワード | ||||||||||||||
| 主題Scheme | Other | |||||||||||||
| 主題 | HSV conversion | |||||||||||||
| 言語 | ||||||||||||||
| 言語 | eng | |||||||||||||
| 資源タイプ | ||||||||||||||
| 資源タイプ識別子 | http://purl.org/coar/resource_type/c_5794 | |||||||||||||
| 資源タイプ | conference paper | |||||||||||||
| 出版タイプ | ||||||||||||||
| 出版タイプ | VoR | |||||||||||||
| 出版タイプResource | http://purl.org/coar/version/c_970fb48d4fbd8a85 | |||||||||||||
| DOI | ||||||||||||||
| 識別子タイプ | DOI | |||||||||||||
| 関連識別子 | https://doi.org/10.5954/ICAROB.2024.GS3-2 | |||||||||||||
| ISBN | ||||||||||||||
| 識別子タイプ | DOI | |||||||||||||
| 関連識別子 | 978-4-9913337-0-5 | |||||||||||||
| 会議記述 | ||||||||||||||
| 会議名 | The 2024 International Conference on Artificial Life and Robotics (ICAROB 2024) | |||||||||||||
| 言語 | en | |||||||||||||
| 開始年 | 2024 | |||||||||||||
| 開始月 | 02 | |||||||||||||
| 開始日 | 22 | |||||||||||||
| 終了年 | 2024 | |||||||||||||
| 終了月 | 02 | |||||||||||||
| 終了日 | 25 | |||||||||||||
| 開催国 | JPN | |||||||||||||
| 査読の有無 | ||||||||||||||
| 値 | yes | |||||||||||||
| 研究者情報 | ||||||||||||||
| URL | https://hyokadb02.jimu.kyutech.ac.jp/html/35_ja.html | |||||||||||||
| 論文ID(連携) | ||||||||||||||
| 値 | 10443671 | |||||||||||||
| 連携ID | ||||||||||||||
| 値 | 12551 | |||||||||||||