デジタル人材の育成
公開日:2024年5月29日
視覚や聴覚情報に比べて,触覚情報におけるAI技術の応用は十分に進んでいない。その原因として,触覚情報が持つ特性に適したAIモデルが存在しないということがある。本プロジェクトでは,視覚や聴覚情報のように触覚データを自由に利用可能とするAIモジュールの開発を目指す。利用するモデルとして,リザバーコンピューティングモデルを提案する。リザバーコンピューティングモデルが持つ,構造の簡便さ,学習や処理方法の簡潔さなどが触覚情報処理に適するからである。また,リザバーコンピューティングモデルにて触覚情報を圧縮し,扱いやすい形式にすることで様々なタスクにも柔軟に対応できるモデルが構築できると考える。本プロジェクトでは紙の種類に応じ,1枚だけめくり上げる動作の制御というタスクを通じて実証する。将来的には,リザバーコンピューティングモデルをハードウェア実装した上で,様々な産業現場などに触覚情報を組み込みたい。
触覚情報の処理能力を向上させるために、リザバーコンピューティングに基づいた新しいAIモジュールを開発することを目指しています。これにより、高度な触覚フィードバックを実現し、機械やロボットが人間のように繊細な作業を行えるようにすることが目標です。本プロジェクトでは、MEMS触覚センサからのデータを利用して、触覚情報を処理するためのリザバーコンピューティングモデルを開発します。このモデルは、触覚データの時系列依存性をモデリングし、リアルタイムでのデータ処理を効率的に行うことができます。成功すれば、この技術は産業用ロボット、医療機器、日常生活支援ツールなど、様々な分野での応用が期待されます。特に、繊細な物体の取り扱いや質感の識別が必要な作業において、人間に近い感覚をロボットが実現できるようになることで、作業の自動化と精度向上が見込まれます。
2024年5月29日
2024年度採択プロジェクト概要(坪倉・武貞PJ)を掲載しました。