
具現化複合ロボット システム設計実習プラットフォーム RAI-M4
全方向シャーシ、5軸ロボットアーム、デプスカメラ、LiDAR、音声対話を統合したワンストップのエンボディドAIトレーニングプラットフォーム。Qwenなどの主流の大規模モデルに適合。3つのビジョンソリューション、2つのSLAMナビゲーションソリューション、ROS 2を内蔵。エンボディドエージェント、ビジョン、ナビゲーション、ロボットオペレーティングシステムに関する包括的なコースを備え、専門的な総合トレーニングに適しています。
対象/シナリオ
移動ロボット運動制御、大規模モデルデプロイ、ロボット工学、機械ビジョン、ROS、移動ロボットのナビゲーションと定位などの科目実習
主な特長
- 全方向移動シャーシ + 四軸アームによる複合ロボット形態
- 通義千問 + DeepSeek など大規模モデルの深度連携
- 移動ロボットと大モデル活用を両立する体系的カリキュラム
製品特徴
AI 大規模モデルの深度連携
ASR に通義千問、LLM に DeepSeek を組み合わせて自然言語タスク計画を実現。ビジョン検知では通義千問のマルチモーダル能力で追加学習なしに幅広い対象を識別できます。
移動+操作の複合プラットフォーム
麦克納姆全方向シャーシと直列四軸アームを組み合わせ、狭い空間でも移動と操作を同時に実行可能。タスク計画と感知判断を連携させ、汎用的な作業タスクを実現します。
体系化された実験モジュール設計
機械ビジョン、大規模モデル活用、ロボット工学、移動ロボットナビゲーションなどのモジュールを授業要件に応じて選択し、段階的な専門学習をサポートします。
実習シナリオ
多視点の画像で RAI-M4 のシャーシ、アーム、センシングモジュール配置を把握し、授業でのセットアップやシナリオ設計を容易にします。
多角度ギャラリー
構成
センサ構成
移動とインタラクションに必要なセンサー群を標準搭載し、定位・ナビゲーション・可視化を一体的に実現します。
- 高解像度カメラ(オプションで深度カメラを追加可能)
- 360° LiDAR(測距 0.12〜8m)
- IMU/ジャイロセンサー(姿勢推定・オドメトリ補正)
- 呼吸ライトなどインタラクション用インジケータ
- 拡張ポート:タッチディスプレイや追加センサーに対応
コントローラ構成
上位・下位のデュアルコントローラ構成。上位機が計画・認識・ナビゲーション・運動学を担当し、下位機がモータ PID、アーム駆動、インタラクション I/O、および上位機との通信を受け持ちます。
ソフトウェア構成
Ubuntu + ROS2、MoveIt、YOLO 推論環境、通義千問/DeepSeek API サンプルをプリインストールし、移動ロボット × 大規模モデルの実験をすぐに開始できます。
Python/C++、ROS2、MoveIt、OpenCV、YOLO、通義千問 SDK、DeepSeek API など主要フレームワークに対応し、教育・研究の双方を拡張しやすい環境です。
実験項目
機械ビジョンから大規模モデル応用、ロボット本体制御、ROS 操作、移動ナビゲーションまで幅広いテーマをカバーし、授業計画に合わせて柔軟に組み合わせ可能です。
機械ビジョンモジュール
クラシックな画像処理から深層学習、マルチモーダル認識まで体系的に学びます。
- OpenCV ビジョン:HSV 色認識/形状認識/QR コード認識/バーコード認識/カラーリング検出(統合+フィルタ)
- AI ビジョン ― YOLO:YOLO デプロイ;データセットアノテーション;モデル学習とデプロイ;ワークピースデータ収集と検査;顔検出;顔追跡
- AI ビジョン ― 通義千問マルチモーダル:通義千問マルチモーダル API デプロイ;対象検出とマーキング
大規模モデル活用モジュール
音声対話・マルチモーダル認識・ロボットタスクを大モデルで一貫体験します。
- 音声対話インタラクション:通義千問による ASR デプロイ;DeepSeek による LLM 意味理解;火山引擎による TTS デプロイ;フル音声対話;音声対話計算機;音声対話音楽再生
- マルチモーダルビジョン検出:通義千問マルチモーダル API デプロイ;対象検出とマーキング
- ロボット応用連携:MCP を用いた把持タスク計画;MCP を用いたナビゲーションタスク計画
ロボット本体制御モジュール
底盤とアームの運動学および制御アルゴリズムを実践します。
- 底盤制御:エンコーダモータ PID;メカナム運動学制御;ジャイロ補正付きオドメトリ制御
- アーム制御:サーボ位置制御;アーム運動学制御;補間軌跡制御
ROS 操作モジュール
ROS のトピック/サービス/パラメータ、MoveIt を用いた経路計画を学びます。
- ROS 基礎操作:トピック/サービス/パラメータで turtlesim を制御;turtlesim を追加生成;パッケージを移植しキーボード操作を実装
- MoveIt アーム計画:アーム URDF 設定;MoveIt で運動学モデルを構築;Rviz でアームのモーションプランニング
移動ロボット ナビゲーション&定位モジュール
インターフェース設定から建図・ナビゲーションまで一連のプロセスを習得します。
- システムインターフェース構成:キーボードで底盤を制御;キーボードでアームを制御;LiDAR データ取得
- マッピングフロー:建図プロジェクト構成;launch ファイル作成;新規地図の構築
- ナビゲーションフロー:Navigation プロジェクト設定;ロボットの衝突境界パラメータ設定;ポイントナビゲーション;自律障害物回避;マルチゴールナビゲーション
ナレッジベース
この製品に関する詳細な技術ドキュメント、チュートリアル、よくある質問をご覧ください。
重要な質問
Q3:大規模言語モデル統合に対応する製品はどれで、何ができますか?具現化複合ロボット システム設計実習プラットフォーム RAI-M4具現化知能タスク計画実習プラットフォーム RAI-P4具現化ビジョン認識・意思決定 実習プラットフォーム RAI-Q2
回答:大規模モデル連携アプリケーションに対応する製品は 3 種類あります。
RAI-P4:通義千問、DeepSeek、火山引擎を統合。ASR(通義千問)、LLM(DeepSeek)、TTS(火山引擎)、Function-call(音声対話型計算機、音楽再生、ジンバル / ロボットアームのタスクプランニングなど)を実現でき、YOLO・顔追跡・ロボットアーム制御との統合アプリケーションにも対応します。
RAI-M4:DeepSeek(LLM)と通義千問(ASR + マルチモーダル)に対応。自然言語をロボットタスクフローへ変換する機能(音声指令によるシャーシ / ロボットアーム制御)や、マルチモーダル物体検出(通義千問)を実現し、メカナムシャーシと4軸ロボットアームを組み合わせた汎用操作が可能です。

