月別アーカイブ: 2024年11月

VRリモコンでのSceneの切り替え方

卒論 横須賀20241129発表

Quest2または、Quest3(ここではQuest2ということにしますが手順は同じです)のAボタンやBボタンでUnityのSceneを切り替える方法をわかりやすく説明します。以下の手順で進めてみてください。


1. 必要なパッケージをインストールする

Oculus Quest 2でボタン操作を認識するには、UnityにOculus IntegrationやXR Interaction Toolkitが必要です。

手順

  1. Unity Hubでプロジェクトを作成
    ・テンプレートを「3D」か「URP」に設定してください。
  2. Oculus Integrationをインポート
    ・UnityのAsset Storeで「Oculus Integration」を検索し、インポートします。
  3. XR Interaction Toolkitをインポート
    ・Unity Package Managerを開き、「XR Interaction Toolkit」をインポートします。 ・プロジェクト設定で「XR Plugin Management」を有効化し、Oculusを選択します。

XR Interaction ToolkitはUnityの公式パッケージで、Unity Package Managerから簡単にインストールできます。以下の手順で確認してください。

Unity Package Managerを開く

  1. Unityの上部メニューから**「Window > Package Manager」**をクリックします。

パッケージを表示する設定を変更

  1. 左上のプルダウンメニューで**「Unity Registry」**を選択します。
    • デフォルトでは「In Project」になっているため、Unityが提供しているすべてのパッケージを表示するための変更です。

「XR Interaction Toolkit」を検索

  1. 検索バーに**「XR Interaction Toolkit」**と入力します。
  2. パッケージがリストに表示されます。

インストールする

  1. 「XR Interaction Toolkit」を選択し、右下の**「Install」**ボタンをクリックします。

サポートライブラリのインストー

インストール中に「Input Systemを使用するかどうか」のポップアップが出た場合は、**「Yes」**を選んでプロジェクトを再起動してください。

これで「XR Interaction Toolkit」がインストールされ、Oculus Quest 2の操作やインタラクション機能が利用できるようになります。


2. Oculusのボタン入力を取得する準備をする

Oculusのボタン入力は、UnityのOVRinputクラスを使って取得します。

手順

  1. Oculus Interaction Prefabをシーンに配置する
    ・OVRCameraRig をシーンにドラッグ&ドロップします。
  2. スクリプトを作成する
    次のスクリプトを作成してScene切り替えの処理を実装します。

3. スクリプトを実装する

以下の手順でスクリプトを設定してください。

  1. スクリプトを作成する UnityのAssetsフォルダで右クリックして「Create > C# Script」を選択し、スクリプト名を「SceneSwitcher」にします。
  2. コードを記述する 次のコードをスクリプトに貼り付けます。

using UnityEngine;
using UnityEngine.SceneManagement; // シーン管理用
public class SceneSwitcher : MonoBehaviour
{
void Update()
{
// AボタンでScene1に切り替え
if (OVRInput.GetDown(OVRInput.Button.One))
{
SceneManager.LoadScene(“Scene1”);
}
// BボタンでScene2に切り替え if (OVRInput.GetDown(OVRInput.Button.Two)) { SceneManager.LoadScene(“Scene2”); } } }

  1. スクリプトを適用する 作成したスクリプトを任意のオブジェクト(例えばOVRCameraRig)にドラッグ&ドロップしてアタッチします。

    4. Sceneを準備する
    Unityで切り替えたいシーンを作成し、それぞれ名前を「Scene1」「Scene2」とします。
    Unityの「File > Build Settings」を開く。
    「Scenes In Build」に切り替えたいシーンを追加します。Scene1を先に追加し、次にScene2を追加します。

    5. ビルドしてQuest 2でテスト
    「File > Build Settings」からプラットフォームを「Android」に変更し、Quest 2に適したビルド設定を行います。
    ビルドしてQuest 2にインストール。
    実機でAボタンとBボタンを押してSceneが切り替わるか確認します。

    これで、Quest 2のAボタンやBボタンを使ってシーンを切り替える仕組みが完成です。

以下はXR Interaction Toolkitをインストールした際にでる忠告とその説明。

このメッセージは、XR Interaction Toolkitをインストールまたはアップデートした際に出る通知です。この通知は、古いプロジェクトや設定が新しいInteraction Layer Maskに適合するように変更されることを伝えています。このような表示が出た場合、以前からこのプロジェクトを使っていてXR Interaction Toolkitをアップデートした場合は、「I Made a Backup, Go Ahead!」を選んで設定を更新してください。これに当てはまらない場合は「No Thanks」で大丈夫です。

このメッセージは、Spatializer Pluginのアップグレードが完了したため、Unityエディターを再起動して更新を反映させる必要があることを示しています。

作業中の内容を保存している場合:
Restart」をクリックしてUnityエディターを再起動してください。

作業中の内容をまだ保存していない場合:
Not Now」を選んでプロジェクトを保存してから、手動でUnityエディターを再起動してください。

おしまい

修論進捗_241126

1. AIアドバイザーの印象評定結果_N=10(男性=6名,女性=4名)
 前回,AIアドバイザーに対する特性推論を行ったが,どの因子を持って評定値が高かったか解釈が困難だったため,親和性因子を含めた林(1978)の印象評定尺度をもとに,再度調査を行った。

・林(1978):印象評定尺度
 世田谷女子が,親和性・力動性の尺度得点が最も高かった。また,独自項目として,サポートされたいAIは?という質問においても,やはり世田谷女子が高く,「共感してくれる,親しみやすい,言葉遣いが丁寧」という理由が挙げられた。

・特性推論:アメリカ大学生に行った調査では,外向性が高い人は内向性の高い人と比べ,近づきやすく幸福感を感じやすいと報告されている(大石)。日本とドイツは,文化差(幼少期の人との関り)からあまり変わらないと言われている。

2. 投稿論文1のコメント修正
 査読者のコメントを基に論文を修正いたしました。修正後の文章の確認をよろしくお願いいたします。

修論進捗_241120

1. AIアドバイザーの印象評定の結果
 橋本・古谷(2019)のBig5特性推論を用いて,7名(男性4, 女性3名)を対象に行った。結果として,「1位:世田谷女子,2位:アラスカ女子」の順で評価された。AIに質問した内容と,結果のグラフは下記の通りです。実験刺激の動画は,こちらです。

AIアドバイザーに質問した内容
1. 「食べ過ぎを防ぐにはどうすればいいか?」
2. 「屋内でできる効果的な運動は?」
3. 「睡眠の質を改善するためにできることは?」

2. 食事の評価方法
 食事が改善されたかについての評価は,健康長寿医療センターの食事バランスチェックシート,もしくは内海他(2015)の食行動尺度を使用する。26点以上で栄養バランスが保たれている可能性が高いとされる。また,phpの食事画像の送信画面に,「食事日記(食べたものや感想をメモ,満足感・満腹感)」,「食行動の改善を評価(野菜を意識している,外食を控える」の項目を追加する。

・チェックシート

・内海他(2015)の食行動尺度:食事バランス,食行動のアセスメントが行える

3. BF投稿論文2
・お時間のある際に、BF論文の修正をお願いいたします。

=====================================================

先生からのコメント
・AIからのアドバイスが渋い。知識は十分なため,強調してほしいとこを絞る
・FBが多すぎるため,まずは睡眠と運動に絞る。次の研究で食事を取り入れる
・FitbitMaxが偶に落ちてデータが取れていない日がある。プログラムから取得できていない日があれば,後からまとめて取得できるようにする処理を加える
・睡眠の主観評定を取り入れる(小川さんの卒論・先生のFitbit研究を参照)
・実験スケジュールが長くて脱落者が出るため,2週間ペースで行い,フォローアップ期間を設けるのが理想。
・予備実験の準備に移る。取り合えず,WindowsPCに直接Buildして行ってもらう
・予備調査では,性格5因子だと結局何がいいのかわからないため,親しみ・力強さ・~の3因子の印象評定の尺度を使用する。

22HP211大内 卒論進捗

11月14日(木)

 同じVRMアバターを2人使用するため、判別できるように片方の色を変更しました。   初音ミクのテクスチャーをGIMP内にて色彩変更を行いました。完成したのが下にある画像のものです。左が変更前で右が変更後です。雪ミクのような色合いになるように調整してみました。

上記の載っている画像(左が髪のテクスチャー、右が服や目のテクスチャー)が変更後に使用した画像です。

次にTimelineにてアバターの動きと音源を合わせてみました。

僅かなズレはありますが、細かい調節は後日行います。

次はライブの時間を昼にするか夜にするか決め、空の調節をします。

AIアドバイザーの印象評定

男性アドバイザー

女性アドバイザー

Formsのリンク
1. Big5
・編集者:リンク
・回答者:リンク

2. 対人印象評定
・調査者用:リンク
・回答者用:リンク

使用尺度
橋本・古谷(2019):和田(2019)のBig Five尺度から20項目抽出したもの

 修論の健康アドバイザーの印象評定を行う上で,実際に参加者がアドバイザーと1~3分ほど会話して印象評定を行うのが理想である。しかし,操作性,音声サーバー,データ数(50~100名)を考慮すると厳しいため,調査者とAI会話している動画を視聴し,AIアドバイザーの印象評定を行うことにした。

相談内容
・「ダイエットをしたいと思っているのですが、どうしてもご飯を食べすぎてしまいます。食べ過ぎを防ぐにはどうすればいいですか?」
・「屋内でできる運動を探しているのですが、どのような運動が効果的か?」
・「最近なかなか眠れません。睡眠の質を改善するためにできることは?」

使用尺度
橋本・古谷(2019):和田(2019)のBig Five尺度から20項目抽出したもの
・自身の特性を測るのではなく,特定の人物の特性を推論する

修論進捗_241113

1. 内受容感覚の測定法
 心拍数や質問紙以外に,皮膚温や,呼吸負荷の変化の知覚 (Harver et al., 1993),自己の血糖値 (Cox et al., 1985)血圧 (Pennebaker & Watson, 1988)による推定が行われている。

皮膚温による内受容感覚の測定(Laura et al.,2021; Laura&Henrik,2023
・Thermal Matching Task:参加者が以前に感じた温度を記憶し,それの再現性を評価する。前腕と手掌で温度感受性が異なることが報告されている。
・温度感覚が皮膚を通してどのように生体の内部状態に関する情報を伝えるか議論されている。皮膚温の感知は脳の島皮質などで処理され、これにより外界の温度と体内の温度のバランスを取るための行動が引き出される。

2. 修論のプレゼン準備
・M1の発表日:1月の下旬

3. AIアドバイザーの印象評定(予備調査?)

①人間

②人間以外(動物,カウンセリングロボット(中川,2023))

質問
・アドバイザーは,1人にするか,複数(2名)にして選択自由にするか
・予備調査を行う場合,キャラを作成するか,AssetStoreから何体か見繕うか

4. 全体の研究計画
・研究1:AIアドバイザーの印象評定
・研究2:AIの有無が自己最適化を促進させるか検討
・研究3:AIアドバイザーを入れて,この先10年を見据えた研究

研究3に取り入れる要素
①モチベーションの向上:アバター育成システムを設けて,デイリーミッションをクリアするとキャラクターの選択数やスキンが増える。
②毎朝5段階の主観評定を行い,さらにカメラから表情を計測し,健康管理を行う
③トレーニングコーチ:内カメラ, Fitbit, GPS, 自動音声を用いて,運動強度やフォームの修正をリアルタイムで行い,パフォーマンス向上を狙う
④スマホアプリと連動:アラームと連動し,睡眠時間HRVを基に任意で設定
⑤食事・運動:飲食店・スーパーまでのルートと,カロリー表示・食材の提案

=========================================================

ゼミ内でのメモ

1. 内受容感覚の測定法-皮膚温
・本研究では質問紙から内受容感覚の測定を行ったが、先行研究では質問紙による主観評価と、皮膚温などの客観指標では別のものを測っており問題視されている。
・だからといって、皮膚温を制御対象としているにも関わらず、心拍数で内受容感覚を測定するのもおかしな話。そのため、皮膚温による内受容感覚の測定を行う必要があるのではないか。

→展望として、皮膚温の内受容感覚の測定を行う、Thermal Matching Taskでこの問題を改善できるのでは?
→上記の相関表みても,心拍カウントと体温の内受容感覚の測定に有意な相関はみられていない。つまり,皮膚温は皮膚温の内受容感覚の測定がいいてことじゃない?あ

2. 印象評定
・背景と質問内容は同じにする
・AIアドバイザー4人×3質問で構成する
・使用尺度は,情報処理基礎演習で使用した対人印象評定(3因子)か,卒業生の木下さんが使用したBig5にするか。Big5は,特定の人物の印象評定もある(いつもと逆)。

*Big5の調短縮版で,TIPI-jがあるが相手の印象に使えるかは別のため,やはり橋本・古谷(2019)を使用する
*パンダのアセットは,UDPだから無理

Autodesk Tinkercadの操作方法

 操作方法を説明している動画を添付します。基本操作からちょっとこった操作まで,5分程度の動画で紹介されており,初心者におすすめです。Tinkercadは,こちらのサイトをクリック。

1. 基本操作とツール紹介
 Scribbleが描いた絵や文字を立体形状にしてくれる優れもののようだ。文字の生成もタイピングから作成できるため,ネームプレートの作成も楽々。物体の複製には,ctrl+c/vのショートカットから行えるようだ。

2. 保存方法
 Metasequoiaと同様に,(1)モデリングデータの保存と,(2)スライサーに出力用のデータ保存の2つに分かれる。(1)は自動保存で,(2)は右上のエクスポートから行う。

*モデリングデータは,都度モデリングデータに名前つけないと,一つのプロジェクト内に蓄積されていく気がする。

3. 物体の結合と切り抜き
 ブーリアンの処理は,Shiftキーからすべてのオブジェクトを選択して「グループ化」を選択するだけ。面も崩れることがないし,めちゃくちゃ簡単だな。

・結合:オブジェクトをすべて選択して,グループ化
・差:くり抜くオブジェクトのみを「穴」にして,(全て選択して)グループ化

4. 河童おじさんを作る
 これは,一から作るのではなく,完成した小道具を徐々に付け足すだけらしい。自分の中で一番衝撃があった。本当に楽だわ。

5. QRコードの生成
 こちらも,QRコードのオブジェクトが既にあるため作る必要がない。また,QRコードを読み取ったアクションとして,httpsのリンクや,文字の表示ができる。

3Dプリンターでとってもいい取っ手作り

今回は段ボールと3Dプリンターで作成した部品を使用して、乱雑に放置されたマウスとコントローラとMetaQuest3を収納する箱を作成しました。

 

まず、通販などで届いた商品の段ボールを既定のサイズにカットして、つなぎ目をテープで止めて、箱を作成します。その箱をそのまま使うのでもいいのですが、箱の耐久性を上げるために、箱の角の補強と箱の取っ手の二役をこなせる、「とってもいい取っ手」をTinkercadで作成しました。3Dモデルは上記の写真の通りです。こだわった点は、取っ手の部分を滑らかな半円にして触った時に痛くないように配慮したところです。

実際に印刷して箱に取り付けたものがこちらです。

箱と取っ手の接着は、箱に穴を開け取っ手の方に空いた穴と別に印刷したボルトとナットを使用し、ねじ止めした。ボルトとナットはthingiverseからダウンロードしたものを使用した。