🎮 GDC 2026 オープンベータ — Proの全機能が2026年6月30日まで無料 | 今すぐ試す →
XRプラットフォーム

完全なXR開発プラットフォーム

ハンドトラッキング、アイトラッキング、ハプティクス、複合現実、空間アンカー。OpenXR 1.1で全主要ヘッドセットに対応。

Meta Quest 3 Apple Vision Pro PSVR 2 Pico 4 Windows Mixed Reality
ハンド

ハンドトラッキング

片手あたり26関節のフルスケルトントラッキングをサブミリメートル精度で実現。コントローラーなしで自然なインタラクションを構築できます。

  • 指の曲げ・開きデータを含む26関節スケルトン
  • ジェスチャー認識:ピンチ、グラブ、ポイント、サムズアップ、カスタム
  • 距離と強度値によるピンチインタラクション
  • 関節角度しきい値によるカスタムジェスチャー定義
  • リアルタイムオクルージョン対応のハンドメッシュ表示
主なメリット: 自然に感じられるコントローラー不要のインタラクション。ユーザーは自分の手でアプリを操作できます。
// Get hand joint positions raku_xr_hand_get_joint(hand, RAKU_HAND_INDEX_TIP, &pos, &rot); // Detect pinch gesture float strength = raku_xr_hand_pinch_strength(hand); if (strength > 0.8f) { raku_xr_hand_get_pinch_point(hand, &point); grab_object_at(point); } // Register custom gesture raku_xr_gesture_define("fist", joints, angles, 26); raku_xr_gesture_on_recognized("fist", on_fist_cb); // Enable hand mesh rendering raku_xr_hand_mesh_set_visible(hand, true); raku_xr_hand_mesh_set_material(hand, ghost_mat);
アイ

アイトラッキング

精密ターゲティング、注視アクティベーション、分析機能を備えた視線駆動インタラクション。フォービエイテッドデータでレンダリングを最適化。

  • 視線ベースのインタラクション:UI要素を見て選択
  • 設定可能なタイマーとビジュアルフィードバックによる注視アクティベーション
  • UXリサーチとレベルデザインのためのヒートマップ分析
  • 視線方向によるフォービエイテッドレンダリング最適化
  • アイ+ハンドのマルチモーダル入力
主なメリット: より速く、より直感的なUIナビゲーション。フォービエイテッドレンダリングにより最大3倍のGPUヘッドルームを確保。
// Get gaze ray in world space raku_xr_eye_get_gaze_ray(&origin, &direction); // Dwell-based activation raku_xr_eye_dwell_set_threshold(0.8f); // seconds raku_xr_eye_dwell_on_activate(button_id, on_click); // Record heatmap data raku_xr_eye_heatmap_start("level_03"); // ... gameplay ... raku_xr_eye_heatmap_export("heatmap.png"); // Enable foveated rendering raku_xr_foveation_set_mode(RAKU_FOVEATE_DYNAMIC); raku_xr_foveation_set_strength(0.7f);
ハプティクス

ハプティクス

コントローラーとハンド全体にわたるリッチな触覚フィードバック。単純な振動からテクスチャシミュレーション、アダプティブトリガーまで。

  • 振幅、周波数、持続時間によるコントローラー振動
  • コントローラー不要の触覚フィードバック用ハンドハプティクス
  • 抵抗カーブ付きアダプティブトリガー(PSVR 2)
  • 周波数変調パターンによるテクスチャシミュレーション
  • プリセットパターン:クリック、バズ、ハートビート、爆発、雨
主なメリット: 触覚による没入感。プレイヤーは見なくても表面、衝撃、環境の手がかりを感じ取れます。
// Simple controller vibration raku_xr_haptic_pulse(hand, 0.8f, 200.0f, 0.1f); // amplitude freq(Hz) duration(s) // Play preset pattern raku_xr_haptic_play_preset(hand, RAKU_HAPTIC_EXPLOSION); // Adaptive trigger resistance (PSVR 2) raku_xr_haptic_trigger_set_resistance( controller, 0.3f, 0.9f // start, end position ); // Texture simulation raku_xr_haptic_texture_set(hand, "rough_stone"); raku_xr_haptic_texture_intensity(hand, 0.6f);
MR

複合現実

バーチャルコンテンツと現実世界を融合。パススルー、シーン理解、平面検出、ポータルカットアウト。

  • パススルーモード:フル、セレクティブ、ブレンドアルファ
  • セマンティックラベリングによるシーン理解(床、壁、テーブル)
  • 水平面・垂直面の平面検出
  • ルームスキャンと3Dメッシュ再構築
  • カットアウトポータル:実際の壁にバーチャル世界への窓を開く
主なメリット: あなたの部屋に存在するゲーム。実際のテーブルにバーチャルオブジェクトを置き、実際の壁にポータルを開けます。
// Enable passthrough raku_xr_passthrough_set_mode(RAKU_PT_BLENDED); raku_xr_passthrough_set_opacity(0.85f); // Detect planes int count = raku_xr_scene_get_planes(planes, 64); for (int i = 0; i < count; i++) { if (planes[i].label == RAKU_PLANE_TABLE) spawn_chess_board(planes[i].transform); } // Create portal cutout on a wall raku_xr_portal_create(wall_plane, 1.5f, 2.0f); raku_xr_portal_set_scene(portal, fantasy_scene); // Full room scan raku_xr_scene_scan_room(on_scan_complete);
アンカー

空間アンカー

永続的なワールドロックコンテンツ。配置したオブジェクトは、セッションをまたいでも、ユーザーをまたいでもその場に残ります。

  • ローカル永続化:アプリ再起動後もアンカーが存続
  • デバイス間同期対応のクラウドアンカー
  • アンカー解決による共有マルチユーザーセッション
  • アンカー管理:作成、更新、削除、列挙
  • 空間再入時の自動再ローカライズ
主なメリット: 永続的な複合現実。コーヒーテーブルのチェスゲームが明日もそこにあります。
// Create a spatial anchor RakuAnchor anchor = raku_xr_anchor_create(position, rotation); raku_xr_anchor_persist(anchor); // survives restart // Share anchor to cloud for multi-user raku_xr_anchor_share(anchor, "session_42"); // Resolve shared anchor on another device raku_xr_anchor_resolve("session_42", on_resolved); // Enumerate saved anchors int n = raku_xr_anchor_get_all(anchors, 128); for (int i = 0; i < n; i++) restore_object(anchors[i]); // Delete an anchor raku_xr_anchor_destroy(anchor);

関連チュートリアル

XR体験の構築を始めるための実践ガイド。

XR開発入門

ハンドトラッキング、アイトラッキング、ハプティクスフィードバック、パススルーモードを使った最初のXRプロジェクトをセットアップ。ハンドトラッキングインタラクションの完全なウォークスルーを含みます。

チュートリアルを始める →

複合現実体験の構築

シーン理解、サーフェス配置、パススルーポータル、空間アンカー、クラウドアンカー。完全な例:実際のデスク上のバーチャルペット。

チュートリアルを始める →

1つのAPI。すべてのヘッドセット。

OpenXR 1.1をベースに、Rakuはプラットフォームの違いを抽象化し、XRコードをどこでも実行可能にします。一度書けば、すべての主要ヘッドセットにデプロイ。

Meta Quest 2 / 3 / Pro Apple Vision Pro PlayStation VR 2 Pico 4 / Neo Windows Mixed Reality Valve Index HTC Vive XR Elite

自動機能検出

ランタイムが起動時にデバイスの機能を照会。ハンドトラッキング、アイトラッキング、パススルーは非対応ハードウェアで適切にフォールバックします。

統合入力抽象化

1つの入力システムがコントローラー、ハンド、アイ、ボイスをすべてのプラットフォームで処理。プラットフォーム固有のコードパスは不要です。

デバイスごとのパフォーマンスチューニング

各ヘッドセットの性能に合わせた自動フォービエイテッドレンダリング、解像度スケーリング、リフレッシュレート選択。

SDKを探索 Spatialエンジン AIシステム