具現化複合ロボット システム設計実習プラットフォーム RAI-M4

具現化複合ロボット システム設計実習プラットフォーム RAI-M4

RAI-M4

全方向シャーシ、5軸ロボットアーム、デプスカメラ、LiDAR、音声対話を統合したワンストップのエンボディドAIトレーニングプラットフォーム。Qwenなどの主流の大規模モデルに適合。3つのビジョンソリューション、2つのSLAMナビゲーションソリューション、ROS 2を内蔵。エンボディドエージェント、ビジョン、ナビゲーション、ロボットオペレーティングシステムに関する包括的なコースを備え、専門的な総合トレーニングに適しています。

対象/シナリオ

移動ロボット運動制御、大規模モデルデプロイ、ロボット工学、機械ビジョン、ROS、移動ロボットのナビゲーションと定位などの科目実習

主な特長

  • 全方向移動シャーシ + 四軸アームによる複合ロボット形態
  • 通義千問 + DeepSeek など大規模モデルの深度連携
  • 移動ロボットと大モデル活用を両立する体系的カリキュラム

製品特徴

AI 大規模モデルの深度連携

ASR に通義千問、LLM に DeepSeek を組み合わせて自然言語タスク計画を実現。ビジョン検知では通義千問のマルチモーダル能力で追加学習なしに幅広い対象を識別できます。

移動+操作の複合プラットフォーム

麦克納姆全方向シャーシと直列四軸アームを組み合わせ、狭い空間でも移動と操作を同時に実行可能。タスク計画と感知判断を連携させ、汎用的な作業タスクを実現します。

体系化された実験モジュール設計

機械ビジョン、大規模モデル活用、ロボット工学、移動ロボットナビゲーションなどのモジュールを授業要件に応じて選択し、段階的な専門学習をサポートします。

実習シナリオ

多視点の画像で RAI-M4 のシャーシ、アーム、センシングモジュール配置を把握し、授業でのセットアップやシナリオ設計を容易にします。

多角度ギャラリー

構成

センサ構成

移動とインタラクションに必要なセンサー群を標準搭載し、定位・ナビゲーション・可視化を一体的に実現します。

  • 高解像度カメラ(オプションで深度カメラを追加可能)
  • 360° LiDAR(測距 0.12〜8m)
  • IMU/ジャイロセンサー(姿勢推定・オドメトリ補正)
  • 呼吸ライトなどインタラクション用インジケータ
  • 拡張ポート:タッチディスプレイや追加センサーに対応

コントローラ構成

上位・下位のデュアルコントローラ構成。上位機が計画・認識・ナビゲーション・運動学を担当し、下位機がモータ PID、アーム駆動、インタラクション I/O、および上位機との通信を受け持ちます。

ソフトウェア構成

Ubuntu + ROS2、MoveIt、YOLO 推論環境、通義千問/DeepSeek API サンプルをプリインストールし、移動ロボット × 大規模モデルの実験をすぐに開始できます。

Python/C++、ROS2、MoveIt、OpenCV、YOLO、通義千問 SDK、DeepSeek API など主要フレームワークに対応し、教育・研究の双方を拡張しやすい環境です。

実験項目

機械ビジョンから大規模モデル応用、ロボット本体制御、ROS 操作、移動ナビゲーションまで幅広いテーマをカバーし、授業計画に合わせて柔軟に組み合わせ可能です。

機械ビジョンモジュール

クラシックな画像処理から深層学習、マルチモーダル認識まで体系的に学びます。

  • OpenCV ビジョンHSV 色認識/形状認識/QR コード認識/バーコード認識/カラーリング検出(統合+フィルタ)
  • AI ビジョン ― YOLOYOLO デプロイ;データセットアノテーション;モデル学習とデプロイ;ワークピースデータ収集と検査;顔検出;顔追跡
  • AI ビジョン ― 通義千問マルチモーダル通義千問マルチモーダル API デプロイ;対象検出とマーキング

大規模モデル活用モジュール

音声対話・マルチモーダル認識・ロボットタスクを大モデルで一貫体験します。

  • 音声対話インタラクション通義千問による ASR デプロイ;DeepSeek による LLM 意味理解;火山引擎による TTS デプロイ;フル音声対話;音声対話計算機;音声対話音楽再生
  • マルチモーダルビジョン検出通義千問マルチモーダル API デプロイ;対象検出とマーキング
  • ロボット応用連携MCP を用いた把持タスク計画;MCP を用いたナビゲーションタスク計画

ロボット本体制御モジュール

底盤とアームの運動学および制御アルゴリズムを実践します。

  • 底盤制御エンコーダモータ PID;メカナム運動学制御;ジャイロ補正付きオドメトリ制御
  • アーム制御サーボ位置制御;アーム運動学制御;補間軌跡制御

ROS 操作モジュール

ROS のトピック/サービス/パラメータ、MoveIt を用いた経路計画を学びます。

  • ROS 基礎操作トピック/サービス/パラメータで turtlesim を制御;turtlesim を追加生成;パッケージを移植しキーボード操作を実装
  • MoveIt アーム計画アーム URDF 設定;MoveIt で運動学モデルを構築;Rviz でアームのモーションプランニング

移動ロボット ナビゲーション&定位モジュール

インターフェース設定から建図・ナビゲーションまで一連のプロセスを習得します。

  • システムインターフェース構成キーボードで底盤を制御;キーボードでアームを制御;LiDAR データ取得
  • マッピングフロー建図プロジェクト構成;launch ファイル作成;新規地図の構築
  • ナビゲーションフローNavigation プロジェクト設定;ロボットの衝突境界パラメータ設定;ポイントナビゲーション;自律障害物回避;マルチゴールナビゲーション

ナレッジベース

この製品に関する詳細な技術ドキュメント、チュートリアル、よくある質問をご覧ください。

表示する

重要な質問

Q3:大規模言語モデル統合に対応する製品はどれで、何ができますか?
具現化複合ロボット システム設計実習プラットフォーム RAI-M4具現化知能タスク計画実習プラットフォーム RAI-P4具現化ビジョン認識・意思決定 実習プラットフォーム RAI-Q2

回答:大規模モデル連携アプリケーションに対応する製品は 3 種類あります。

RAI-P4:通義千問、DeepSeek、火山引擎を統合。ASR(通義千問)、LLM(DeepSeek)、TTS(火山引擎)、Function-call(音声対話型計算機、音楽再生、ジンバル / ロボットアームのタスクプランニングなど)を実現でき、YOLO・顔追跡・ロボットアーム制御との統合アプリケーションにも対応します。

RAI-M4:DeepSeek(LLM)と通義千問(ASR + マルチモーダル)に対応。自然言語をロボットタスクフローへ変換する機能(音声指令によるシャーシ / ロボットアーム制御)や、マルチモーダル物体検出(通義千問)を実現し、メカナムシャーシと4軸ロボットアームを組み合わせた汎用操作が可能です。