「Unity」カテゴリーアーカイブ

22HP211大内 卒論進捗

11月14日(木)

 同じVRMアバターを2人使用するため、判別できるように片方の色を変更しました。   初音ミクのテクスチャーをGIMP内にて色彩変更を行いました。完成したのが下にある画像のものです。左が変更前で右が変更後です。雪ミクのような色合いになるように調整してみました。

上記の載っている画像(左が髪のテクスチャー、右が服や目のテクスチャー)が変更後に使用した画像です。

次にTimelineにてアバターの動きと音源を合わせてみました。

僅かなズレはありますが、細かい調節は後日行います。

次はライブの時間を昼にするか夜にするか決め、空の調節をします。

FacePoseCap_データ取得

はじめに
 ここ最近,時間がなくブログ内にメモ書きが散らばっており,FPCもその一つである。 Fitbit研究を終えたら,こちらの研究に取り掛かるため,ゴールデンウィークを利用してデータの取得方法をまとめる。卒論生にも解説できるようにする。

準備するもの
・機材:「MSI01(PC),iPad,iPadスタンド(板),AnkerWebカメラ」
・ソフト類:「Unity2021.3.11f1,カメラ,OBS,Processing3.5.4」
・保存場所:「デスクトップ→個人フォルダ→SUGAWARA」

フォルダ内
・FPCapDualOffline240302:Processing, date内にProcessingの出力ファイル
・検出結果:?
・SimpleFaceCap:Unityで実行すると得られるデータ(CH1_~~.csv)

計測手順(正しいか微妙)
1. 機材周辺を整えたら,iPad前に参加者を座らせる(iPad画面は注視点で隠す)
2. OBSとUnityを実行し,計測スタート(ほぼ同時に実行で,OBSが最初)。
3. 実験スケジュールに基づき,計測を終えたらOBSとUnityを実行停止する
4. 「SUGAWARA→Simple~-ショトカ→CH1_実験日.csv」をデスクトップに出す
5. OBSから出力したmp4形式の動画フォルダ名をCH1と同じ日付に変更する
6. csv, mp4データをFPCap~のdateフォルダに,ドラック&ドロップ
7. Processing(FPcap~.pde)を立ち上げ,「15行目にmp4; 16,17行目にcsv」を入力
8. 上書きした後,Processingを実行する(1回目はエラーのため,2回実行する)
9. 実行画面に移行したら,(上)動画を基に(下)波形の時刻を合わせる
    (同じ秒数でもいくつかあるため,1秒であれば1秒に切り替わった瞬間に揃える)

ここからが怪しい
10. 時刻を合わせたら,F10,11からデータを出力する
11. 出力後,「FPCap~→dateフォルダ→~.B/~.R」が出力される
12. これらを展開し,折れ線グラフから解釈を行う。以上。

Processing画面でのコマンド
・Ctrl+Shift+←/→:下半分の時刻合わせ
・←/→:動画を10秒スキップ
・Ctrl+←/→:動画の最初/最後に移動
・Shift+←/→:動画をミリ単位(細かく)で移動
・space:一時停止
・F9:波形種類の変更(Smile, Browdown, Blink, Pitch, Yaw, Roll)
・F10:対象の変更(R:上半分の赤丸/青丸,B:(赤青)両方)
・F11:csv出力
・F12:動画の再生速度の変更

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

波形と動画を合わせる際,
・波形:合わせに行く
・動画:合わせてもらう

みたいな解釈だから,OBSを先に実行した方がいいかもしれない。

仮想殺人場面における目撃証言の信憑性について検討

はじめに
去年の前期に受講した司法犯罪心理学で、「授業で扱った内容に触れて、独自の研究を行って下さい。方法は何でもよい」とレポート課題を出された。ん?何でもいいっt…つまり自分の土俵に持ち込んでいいってことですよね。じゃあ文献調べて書くのも面白みがないから、Unity, Mixamo使って目撃証言の実験でもやるか!と思い立った次第。期限が近くて、結構雑な実験計画と結果だった。

ほんで、さっそく実験刺激の作成に取り掛かり、キャラ10分, ステージ5分程度で作成。キャラ作成に服装とか考えないといけないから、割と面倒くさかった記憶が。先行研究のステージ暗めにしたのがシリアスにするためだったか?

改めて読み返すとページ指定があってだが、文章がめちゃくちゃ。要は目撃証言の信頼性が、検査官の質問の仕方や証言が曖昧過ぎて、冤罪になる事例が多い。前者に関しては惜しくも断念したが、この研究では後者に焦点を充てて、直後・遅延再生(1時間後)群に分けて聞き取り調査を行った。刺激提示の流れとしては、女性の悲鳴が聞こえて、正面から犯人が逃走しながら、参加者とすれ違う。これを8試行数秒間隔で呈示して、最後に呈示したうち1人について、外見的特徴を答えてもらった。

結果
・画面が見えにくい→画質/ライトの角度の問題
・大まかに捉えてはいる→服の色や袖の長さ
・細かいところまでは覚えていない/画質が悪く見えていない
・直後再生群の方が誤答数が少ない

→質問の仕方もあるが、かなり大雑把な回答だった。これで誤答数がどうと言われても正直微妙な気がする。ほんで、回答するキャラも統一せにゃならんでしょうに、バラバラにした時点で問題のある研究すねぇ。

考察・展望
1. 実験刺激
・ステージ:路地にして、よりリアルにするかな
・犯人:統一っすね
・画質等:VRで呈示
・参加者:時間的にMain Cameraを固定にしたが、いっそのこと歩かせて場面に

2. 実験計画
・群ではなく条件でもいいかも→後から証言の撤廃もあるだろうし
・群分け:今回は遅延再生群を1時間後としたが、実際に警察官が通報を受けてからどれくらいで到着するかを検索して、より現実的に再現したいな。
・生理指標:場面遭遇時・すれ違い時のHRを測定, ST・SCで緊張度合い
・心理指標:一般感情尺度とか, VASでどれくらい証言に自信あるか
・スケジュール:「安静→刺激提示→安静」かな。刺激提示に関しては、どうだろう。仮に8試行呈示すると、現実場面では一回だしなぁ。ダミーは入れるべきか?わからんな。

この辺を含めて先行研究なり、データを揃えないと話にならねえや。あくまで個人の見解で止まるだろうし。それじゃあ意味がないや。でもそうだな。二段階で実験やるのも面白うなんだよな。それこそ、刺激提示して「群1:服装は?衝撃度合は?」「群2:明るい目の色だった?ガツンと突っ込んでた?」とか。あーなんか面白そう。え、でもこれやってそうなんだよな。どうなんだろ。Unityとは別でやってそうじゃん。やってなかったらやるわ。こんなん。面白うそうじゃんかよ。

ただ、手っ取り早いが、これは請野さんの卒論のように、匂い採取の段階で問題が起きて…っていう落ちになるのだろうか。あーこればっかりは、調べるか、やらないとわからないもんだな。仮にやってたら、先行研究の問題点を踏まえてか、再現実験になりそうだな。なんか再現実験だけはやりたくないんだよな。新しいことしたいし、発展させる方が好きだしな。やる意義を感じないんだよな。まあそれはどうでもいいけども。

Unity 映像作成3

【作成方法】

使用するAsset, Pluginは前回のブログ「Unity 映像作成2」で紹介した通り。おそらく計3つインストールしておけば動くはず。

作成動画の尺としては16分程度だが、Assetのインポート含めて20分程度で簡単な映像が作成できるため、ぜひお試しください。動画1の序盤が参考になるだけなので、残りは公式の動画を見た方が早いかも。

また、Unityで映像作成をするメリットは以下の通り(Unity Japan)

要は利便性が高く、試行錯誤ができますよってことだと思う。そこまで、真剣に考えていないから正直…ってとこだけど。右画像のように具体的な構想があれば、あとはAsset組み合わせて作成できるからその手法の一環として、アニメーションにおいてなら有効なのかもしれない。

文京のPVに心理学科サイエンスコースがUnityで作成しました!! ってのもできる。いいように使われるだけで、まったくやる気は起きないが。

【High Definition RP】

HDRPに感動した。

あまりにもクオリティが高くなりすぎて、ことばが出そうで出ない。今まで見てきたものが嘘のようにもうすんごいの。パンダの質感もめっちゃいいし。ただ、ゲーミングPCでもステージ配置して数秒は若干重いけど、最初だけだったみたい。

HDRP使用時の最初はエラーが続出するけど、「Fix All→Create One」でShaderとかまとめて適応されるため、なんら問題なし。PCスペックを考えるとこのPluginはあまり推奨できない。重くて動かなくなるかも。

URPはそもそもShaderに色がつかず、透明になったため推奨できない。使うなら「UI→Unit→Detail」になり、テカテカしたいろになるため注意。

Unity 映像作成2

途中経過

【Asset, Plug in 一覧】

1, Asset
The Realtime Rascals

2. Plug in
・Cinematic Studio
・High Definition RP
 →高いグラフィックで作成できる
 →HDRP Wizardの方では「HDRP→Fix OLL→One~」でいける?  リンク

*プラグインに関しては、おそらく上2つがあれば動作するかと。
*開発環境は、「unity 2021.2 HDRP」が推奨されている。

Face Capture

スマホを介して自分の表情などをUnityで作成したキャラと連動させる。

注意点
・ファイアウォールの問題があり, アプリ使用中は一時的に無効化する。
・Assetダウンロードに選択間違えるとエラーが続出した。

作成動画

衝突事故シーンをwebGLにアップロード

【完成形】

衝突事故の刺激をUnityroomにアップロードした。リンクはこちら

1, WebGLにアップロード

【Build】

【WebGL】

2, Build時のエラー対応

Buildにエラーを吐かれて, このサイトサイトを参照に解決。

Project Settingエラー

インストール不足

後はBuild時にエラーをはかれたAssetの削除をしたくらい。

今回はOcculusのVoiceが悪さをしていたらしい。

怯えているキャラを轢く

【Puppet Master】

Puppet Master「Joint and Muscle Setting」を試した。設定によって、四肢の有無や肉塊など設定を施せる。ホラーの刺激作成に良さげ。

【怯え】

Mixamo「Terrified

先生がMixamoになくて止む無く作成したっていうから焦ったけどなんとか見つかってよかった。グラセフで目星はついてたから絶対に入れようと思ってた。

作成後のVR鑑賞

作成済みのunityシーンの鑑賞方法・注意点を紹介していくお。

① VR設定済みのunityシーンを開く。USB3ケーブルをPCにつなぎ、VR起動

② PC内にある「oculus」を起動し、接続方法を「Link (ケーブル)」を選択。あとは「次へ」を連打すれば設定完了。

これで完成。

あら不思議、木を数本はやしただけでくそ重かったのに、

150本以上生やしても軽いなんて。

・注意点

① 接続がうまくいかないときは、VR, Oculusともに再起動する。

②「ノートパソコンが電源に接続されていません。」のときはPCを充電すればok.

③ ステージを変更した場合、Build settingを開いて、Run DeviceがOculus Quset2になっていることを確認してBuild And Run.

Run Deviceがoculusになっていないときは、その隣の「Refresh」で更新。それでもダメだったらたぶんケーブルが接続されていないのかもしれん。