ウィズコロナ・ユーザテストのセッテイングで工夫したこと

Pocket

先日、6,7月はインタビューを2件ほどやりました。新コロナ感染防止のため、クライアントは見学に来られず、オンライン会議ツールに映像、音声を流す形での実施となりました。1件はモニタさんもリモート。1件はモニタさんとモデレーターは同じ会場で、クライアントのみリモート、という感じです。特に後者では会場での感染防止策としていくつかルールがあり、それに対応するセッテイングに苦心したのでメモしておきます。

ウィズコロナの会場調査で、実施会場側から指示されたのは、

  1. 双方マスクの着用
  2. 飛沫感染防止の為、モニタさんと距離をとり、間にアクリル板を設置
  3. 定期的な換気

でした。これらの全てが音声収録に悪影響を与えるので、従来のセッテイングでは声が聞き取りづらいというセッションがありました(ほぼ大丈夫だったのですが、やや話し声が小さい方のセッションで見学者から複数回「なんとかしてくれ」と要望がチャットでとんできました)。

■バウンダリーマイクでは厳しかった

私がよくやる1on1のユーザテストやインタビュー調査では通常卓上にバウンダリーマイクを設置します。こんなやつですね。

「録ってます」感が希薄なのが長所です。これらは見た目では区別つきづらいですが、指向性が360度(無指向性)のものと、前方に指向性がついたもの(厳密には後方を集音を押さえたもの)があります。単純に広い方がいいというものでもなく、1on1で二人が並んでいるようなレイアウトならそれをカバーできるギリギリの狭い指向性をもっていた方が、後ろ側にあるノイズは押さえられて聞きやすくなります。

無指向性マイクの場合

 

指向性マイクの場合

 

ところが、ウィズコロナ・レイアウトの場合、二人の距離がソーシャルディスタンスで離れるので、

ウィズコロナ・レイアウトだとカバーできない

その分、感度の高い(=距離が稼げる)マイクにするか、ノイズ覚悟で二人のど真ん中に無指向性マイクを設置するか、といった感じ。

さらにもう一つ問題がありました。定期的な換気が義務づけられていた為、窓やドアを開けたりサーキュレーターを回したりで外来ノイズが増えたのです。つまり、声が遠い上にノイズが多いという二重苦でS/N比が下がってしまい、結果として録音&中継している音声が聞き取りづらくなってしまいました。

少なくとも手持ちの3万円クラスのバウンダリーマイクではあれこれ向きや位置を工夫しても、やや声の小さなモニタさんだと厳しかったです。より性能の良いマイクなら良かったのも知れませんが、それはそれでノイズも高感度で拾ってしまうので、結果的にハイパス/ローパス・フィルターをかけたり、今ならRTX VoiceKrispといったソフトウェアのノイズキャンセルフィルタを組み合わせる必要があるかも知れません。RTX Voiceは効果は高いですがNVidia製の最近めのグラフィックボードが必要なので持ち込みノートPCでは利用できませんでした。Krispはサブスクなのでまだ試してないのです。

■結局ワイヤレスマイクを投入

で、今回の業務では以前使って評判のよかったワイヤレスマイク、RODE Wireless GOを再投入しました。

ワイヤレスマイクシステム RODE Wireless GOがとても良かった

出し惜しみしたのには理由があって、ワイヤレスマイクの弱点、注意点として、

  • その場の電波状況に左右されるリスク
  • 電池切れを起こすリスク
  • モニタさんが身につけたまま帰ってしまうリスク
  • モニタさんとの接触機会を増やす=感染リスク

があります。Wireless GOはカタログスペック上、フル充電で7時間保つことになっていますが、一日で60〜90分×数セッション行うUT調査では合間に充電しないと不安な数字です。またセッションの合間合間にそういう気を配らないとならない些事が増えるのは望ましくありません。

また最悪、モニタさんの胸元につけたマイクをうっかり取り外し忘れて帰られてしまうと悲劇です。後日回収できたとしても当日のセッションでは使えなくなってしまいます。

またせっかく距離をおいたりアクリル板をはさんでいるのに、一時的とはいえ近づいたりマイク自身を互いがベタベタ触るのはウィズコロナとしては避けたいものです。

乾電池式のものを使うとか、しっかり気をつけるとか対処はありますが、バウンダリーで済むならそれに越したことがないというのが正直なところです。

ちなみに今回は少しでもリスクを低減する工夫として、「モニタさんを送り出す時に使うカードキーホルダーにWireless Go送信機をクリップでつけ、モニタさん直近の卓上に置く」という手を取りました。

それで充分に聞こえれば接触不要で持ち帰られる心配もあります。で、もし声がどうしても小さくて聞きづらい方がいらした時だけ、それを首にかけてもらいます。女性の服だと胸ポケットなど取り付けやすい場所がないことも多いので、その対策も兼ねています。最後に出口にお送りする時に必ず使うカードキーと一体化することで、持ち帰りも防げる、というワケです。またそれを机上ノイズ(タイプ&クリック音など)除けと、マイクの向きを調整しやすくする意味で、下にタオルやハンカチを敷くのもオススメです。今回は最後の方で投入したので、結局首にかけてもらうケースまでは発生しませんでしたが、とりあえず見学者からのクレームはなくなったので良しとします。なおモデレーターの声はバウンダリーで拾ってミックスしました。

取り回しや安定性ではバウンダリーが理想だけれど、距離をとったりノイズが増えがちなウィズコロナ・レイアウトだとワイヤレスマイクを一人一台装着するのが理想かなぁというところです。見学者側も慣れないリモート視聴で聞き疲れしやすいので、少しでも聞きやすい声で配信したいものです。

Wireless GOは同じ場所で2台使っても混信とかはなさそう(公式にOKとは書いてないけど結構使ってる人いて平気みたい)なので、もう一台追加購入してモデレーターとモニタに一台ずつつけられるようにしようかしら。そういえば最近ホワイトが出てますね。白黒一台ペアだと取り違えも置きにくくていいかも。

また、とりあえずWireless GOをハンドマイク型にするスティック型オプションも買ってみました。

これは本来インタビューワーが手持ちで相手の口元にマイクを向けるためのものですが、これを介することで一般的なマイクスタンドに取り付けが可能になるので、よりモニタさんの口モノに配置ができます。Wireless GOはパッと見でマイクだとわからないデザインなので、下手な自作スタンドで高さを出すよりは、見た目「マイク!」って感じの方がわかりやすいかなとか。まぁ本来はあんまりマイクを突きつけるような形にはしたくないんですが、、

■いきなりステーキ型マスク

ついでにマスクの

  • 聞こえにくさ、
  • 蒸れやすさ
  • 表情の伝わりにくさ

を考慮して、モデレーター用に口元のみのシールドを使用してみました。一般的な呼称がわかりませんが、私は「いきなりステーキマスク」と呼んでいます。いきなりステーキの店員さんがやってるヤツです。実際それでググるとちゃんと商品が見付かります(笑)。

笑顔の見えるマスク10個入り

笑顔の見えるマスク10個入り

Amazonの情報を掲載しています

ちなみにフルフェイスのシールドは手元のデバイスが反射で見辛くなることを考慮するとナシかなと思っています。会場のルールでは「マスクをせよ」ということになっているものの、マスクの定義は曖昧だったので一応現場担当者に了解をとりつけましたが、飛沫ブロック力としては通常の不織布マスクよりは劣るかも知れません。是非富岳さんにもこのタイプをシミュレーションしてほしいものです。

顎で支える仕組みで最初違和感がありましたがすぐ慣れました。それより紐が少し短くて耳の痛さが気になりました。次の実査では各種痛み軽減グッズを試してみようかと思います。

■そんなこんなで、、

ウィズコロナ対応セッティングのノウハウを少しずつ蓄積しつつ、どうにか実査を回しています。ご相談、ご提案はお気軽にお寄せ下さいませ。

簡単にマルチ映像配信ができるATEM Miniが来た、触った!

Pocket

■ATEM Miniがやってきた

テレワーク、テレカンファレンスの増加のせいか世界的に品薄で某店では2ヶ月、別の店では「納期未定」と言われたATEM Miniが楽天のあるショップで奇跡的に在庫有りになっており、別の店で予約済みだったにも関わらず速攻で注文してしまいました。

ATEM Mini | Blackmagic Design

ATEM Mini | Blackmagic Design

39,578円(08/06 23:31時点)
Amazonの情報を掲載しています

■どんな製品?

この機器については、以前の記事でも軽く触れましたが、

おさらいすると、

  • 複数の映像&音声ソース(HDMI入力x4)や音声ソース(アナログ3.5mmジャックx2)を自在に組み合わせた映像を作成
  • 1つのHDMI及び、USB出力に同時出力可能

な装置です。

つまり前回紹介したOBS Studioのようなことをハードで安定して簡単に行える装置ということになります。

OBS Studioでは(比較的性能が良い)ノートPCを使いますが、こちらはギリ3万円台で手に入ります。ただし録画、配信の機能はないので結局PCなり録画機器は必要になります。ただ合成処理をATEM Mini側でやることで、PC側の負荷は相当軽くなるわけです。個人的にはUSBカメラ扱いでZoom/Skype/Teams会議などに直接認識させられる点が強みだと思います。OBS Studioではそれができないので。まとめるとこんな感じでしょうか。

 録画Youtube Liveなど配信サービスZoom/Skypeなどテレビ会議サービスPC負荷
OBS Studio〇(直接配信)△(画面録画か外部プラグイン使用)
ATEM mini×(HDMI録画機器、USB録画ソフトが別途必要)〇(Webカメラとして認識)〇(Webカメラとして認識)

ただやはり大きなハードボタンでソースをポンポン切り替えられる簡便さ、気持ち良さは大きいかなと思いました。特に私のようにユーザテストなどでの利用を考えていて、セッション中にモデレーターが操作することを考えるとほぼノールックでボタン1つ押せば済むというのは強みだと思います。他方OBSのアドバンテージには複数ソースを複雑に合成したレイアウトをしかも複数作って切り替えられる点かと思います。ATEM Miniは1つの映像の全画面表示が基本で、1つだけ子画面が置けるという感じです。大抵のUTではそこまで複雑なレイアウトは求められないので、安定性と切り替え操作の手軽さを重視してATEM Miniを活用していく方針でいます。

・こんな場面に

  • ユーザテストで、スマホを録る書画カメラと被験者の表情を録るカメラなど、複数の映像を合成して見せる
  • 同じくユーザテストなどで、セッション中にカメラアングルを切り替える(タスク中とインタビュー中など)
  • オンラインセミナーなどでPowerPointプレゼンテーションの上に話者映像をかぶせる

■基本操作

左下の「1」〜「4」ボタンがそのままHDMI 1番から4番に対応しているボタンです。押せば切り替わります。それぞれの上に当該ソースからの音声のON/OFFと音量上下のボタンがあります。「1」と「2」の上だけ4つずつボタンが多いですがこれはHDMI 1,2とは関係なくてアナログ音声の1と2のON/OFF、音量の操作ボタンになります。「4」の右にSTILL(あらかじめ設定した静止画を表示)とBLACK(黒画面を表示)があります。たくさんボタンがあって難しそうですが配置がわかってしまえばなんてことはないです。

右側で目立つのは「CUT」「AUTO」「FTB」です。CUTとAUTOは排他(どちらか選択)操作で、CUTは一瞬でパッと切り替わるモード。AUTOはトランジション効果(PowerPointでいうアニメーション)をつけて切り替えるモードです。「AUTO」の上の6つがトランジションのパターン、「CUT」の上がその持続時間(0.5秒、1秒、1.5秒、2秒)です。「FTB」はFade To Blackの略です。どんな映像を映していようと問答無用で徐々に映像が暗くなって消えます。いわゆるフェードアウトです。もう一度押とフェードインで復帰します。動画の最初と最後に使ったり、放送事故がおきた時に問答無用で押すボタンと憶えておきましょう(笑)。

真ん中ちょい右の6つのボタンはピクチャインピクチャ(PinP)関係です。ON/OFFとどのコーナーに映すかを選べます、原則として子画面に使う映像はHDMI 1番の映像固定です。ただし、ATEM MiniにはPC/Mac用の制御ソフト ATEM Software Controlが無料で提供されており、こちらから操作を行えばそれ以外の入力を子画面にしたり、大きさや位置なども細かく調整できます。ATEM Miniは本体のサイズやボタン数こそ絞られていますが、ソフト上の広い設定画面からなら更に多くの機能多くの機能が使える、という二段構えになっています。ボタンをあれこれ押してもできなそうでも、ソフトからならできる、ということもあるかも知れません。

最後の右上のKeyのON/OFFはそのソフトである程度の準備が必要ですが、例えばロゴなどの画像を映像に重ねたりといったことに使います。

とまぁこれで全てのボタンが一応説明できてしまいました。どうでしょう?パット見よりは「なんとか使えそう」な気がしてこないでしょうか?Blackmagic design社は放送映像業界では大手で、現場で素早くミスなく映像をコントロールするためのユーザビリティ・ノウハウが盛り込まれている感じがします。

■使ってみた

ちょうど動画を収録したい用事があって早速実践投入してみました。

アギレルゴコンサルティング株式会社の川口さんとコラボで、OBS Studio解説動画です。OBS Studioを操作する動画をATEM Miniで録りましたw。まだ設営途中の写真ですが、こんな感じでやりました。

奥のMacBook Pro 13’でOBS Studioを操作します。その画面をHDMIで出してATEM Miniへ。手前のSurface Goもパワポで目次などを出したりする用でHDMI出力をATEMへ。ATEMでスイッチ/合成した映像をUSBで左奥のDELLへ入力し、これまたOBS Studioで録画しました。

初めてでぶっつけ本番でしたがほぼ迷うことなく、また誤動作もなく機能してくれました。4つのソースボタンにはそれぞれなんの映像が来ているか横着せずに付箋などで書いて貼っておくのがミスを防ぐのに有用かなと思いました。また撮影に使った部屋は換気空調の音が非常に大きく、マイクやカメラのLC(ローカット)フィルタではほとんど消すことができず難儀しましたが、ATEM Mini側(要ATEM Software Control)で周波数別のカットを施すことでなんとか聞ける声で収録できました。単なるハイパス、ローパスで人の声より高い/低い周波数帯域をカットするだけでなく、人の声の帯域の中でもスポット的にある帯域を抑えころができ助かった感じです。ただこれらの音をイヤホンでモニタする音声モニタ出力(ヘッドフォン)端子があると良かったなとは思いました。

収録中のソース切り替えも大きなボタンでできるので、カメラ目線を外すのが一瞬で済みます。これがマウスやトラックパッドでOBS Studioのシーン一覧から選んでクリック、とかだとこうは行きません(ただOBSもシーン毎にキーボードショートカットをアサインできるので工夫次第なところはあります)。

■応用的な機能

他にも機能的にはこんなこともできます。

  • クロマキー合成でPinP時の話者の背景をくり抜く(ただしZoomなどにある画像高度な画像認識によるものではなく、グリーンバックなどを使う)
  • ロゴや透かし、画像などを重ねる
  • 音声の各トラックに各種イコライザーやフィルタをかけて聞きやすくする

など。これらは写真にあるハードパネルからではできず、別途専用ソフトを使って、USBまたはネットワー経由で制御する必要があります。ボタンとして見えてること以外にもできることが山盛りです。

クロマキー合成もちょっと試してみました。

Zoomなどは画像認識による背景マスク/合成ができますが、やはりたまに誤爆したり、境界が綺麗に抜けなかったりします。それに対し、こちらはグリーンバックを用意する必要があるものの、さすがに綺麗に抜け追従性も高いです(Zoomでもグリーンバック使用モードにするとさらに良いカンジにはなります)。壁一面のグリーンバックを用意するのは大変なので、私はハイバックチェアの背もたれのところにホームセンターで買ってきた緑色のボードをセットして顔の周りだけを緑背景になるようにしました(動画冒頭参照)。それ以外の部分は本機のマスク機能にて塗りつぶしてやればキー画面としては同じことです。カメラ映像をHDMIで入れてやるのがちと大変ですが(ウェブカメラとかではなくビデオカメラやデジカメが必要)、クオリティはアップすると思いますし、Zoom以外のテレカンツールでも使えます。

■新型ATEM Mini Pro発表

この記事を書いている間に、ATEM Mini に上位モデルのProが発表になってしまいました。価格が倍近くになるので単純に新型が良いというよりは選択肢が増えた感じですね。以下のような追加機能に魅力を感じる人はProを狙ってみてもいいんじゃないでしょうか。大きな違いは、

  1. 単体でYoutube Liveなどの配信サービスに映像送信ができるようになった
  2. USBストレージにH.264形式のMP4動画を録画できるようになった
  3. 6画面(4入力+最終出力画面+プレビュー)とレベルメーターを含むマルチビューが出力可能になった

といった辺り。4K非対応だったり映像スペックは同じ。

1.はYoutuberやゲーム配信する人にはよさげ。ユーザテストやテレカンに使う分にはあんまりという感じですね。同じようにHDMI入力信号をPCレスでYoutube Liveなどに配信するデバイスとしてはCerevoのLiveShellシリーズやLiveWedgeが有名です。機能的にはLiveWedgeが近いかもですね。価格帯も近いですが、USB出力も使えると思えばATEM Miniかなぁという気がします。

しかし2.の録画はかなり魅力的です。先の動画では結局さらにPCをつなげてOBS Studioで録画しています。だったらスイッチングもOBSでいいやんという話になりかねません。私もユーザーテスト記録用に当初、HDMIレコーダーを買う予定でしたが慌ててキャンセルしてProにするか思案中です。ただこれUSBを使うということはWebカメラ出力と同時に使えるのかどうかという懸念があります。単純にUSBハブをかませばいいという問題ではない気がしています。情報待ち。

3.については便利は便利ですが個人的には4画面(2×2)とかレイアウトにもう少し選択肢があったら嬉しかったなと思います。レベルメーターが視認できるのはいいですね。

ともあれProにしても無印にしてもATEM Miniはテストラボに設置していたような高価なスイッチャーの簡易版として非常にコンパクト、高コスパな良製品だと思います。新コロナ対策でユーザリサーチやインタビュー調査を遠隔中継しなければならないという方、是非ご相談くださいませ。

ユーザテスト中継でOBS Studioを活用する~ステップバイステップ解説

Pocket

前記事で新コロナリスクで出社できない場合などにユーザテスト(UT)の遠隔視聴環境を構築する機材についてまとめました。

その中で紹介したビデオミキサーツールOBS Studioについて具体的な画面例を交えて基本操作を解説します。

■OBS Studioとは

複数の映像ソースや音声ソースを簡単にミキシングして1つの映像として録画したり配信したりできるフリーソフトです。MacでもPCでもLinuxでさえも同じ操作で利用できるので非常に汎用性が高いです。

公式サイト写真

例えばUTだと、PC画面、顔表情カメラ、背面ビデオカメラなどをバックアップも含めて複数の機器で録画したりしますが、あるシーンを見返すのにファイルやメディアがバラけていると大変な手間になります。そこでテストラボにあるような専用機材でピクチャインピクチャ合成をしたものを録画したりしているんじゃないかと思います。あぁいう映像をPCソフトで簡単に作れるわけです。またPC上で評価対象であるソフトやサイトが出す音と、モニタやモデレーターの声とをミックスして記録に含めることもできます。

たいへん専門的なソフトのように聞こえますが、ゲーム配信などでも広く使われていて、基本がわかってしまえばまるでPowerPointで画像を並べるかのように自由に映像レイアウトを作ることができます。複数のレイアウト(シーン)を瞬時に切り替えることもできるので、例えばインタビューセクションとタスクセクションで異なるカメラからの映像を使う、みたいなことも楽勝です。是非活用してみてください。

■ダウンロードとインストール

先日Windows版のリリースが始まったVer 25系はグラフィカルなアイコンがついていっきにフレンドリーな雰囲気になった気がします。利用するなら最新版でいいと思います。以下、Windows版の25.0.1を使って解説します。

なお、複数の映像、音声ストリームを扱うので利用するPC/Macはそれなりの性能があった方が安定して稼働させられると思います。特にユーザテストの対象プロダクト自体も同じPC上で使ってもらいバックグラウンドでOBSを動作させる時は。できればGeForceなどの外部GPUがついた機種ですと、エンコードにハードウェア支援が使えるので軽い負荷で動作するはずです。

インストール自体は特に難しいことはないと思うので端折ります(笑)。

■基本画面と用語

起動するとこんな画面になると思います。

起動直後

まずポイントは左下の「シーン」と「ソース」です。耳慣れない言葉ではありませんがこの文脈ではなんのこっちゃです。とりあえず「シーン」は応用編なので後の節まで放置しておきます。

「ソース」は“入力”のことです。本ソフトは複数の映像や音声を合成できるわけですが、そのひとつひとつをソースと呼びます。例えば映像ソースとしては

  • PC自身の画面全体や特定のウインドウ
  • PCに内蔵のウェブカメラ
  • USBでつないだ外部カメラ

などがあり、音声ソースとしては、

  • PC自体が鳴らす音(効果音や音楽など)
  • マイク入力やライン入力から来る音

などがあるわけです。ここで使いたいソースを接続し、好きに並べたりしていくわけです。映像ソースを追加すると上のプレビューの中に表示されます。音声ソースは「音声ミキサー」枠にリストされます。

■映像ソースの追加

まず映像ソースを追加、配置してみましょう。典型的なUT場面を想定し、ブラウザのウインドウにウェブカメラの顔映像をピクチャインピクチャ(以下PinP)で並べてみます。

まず操作対象となるブラウザを起動しておきます。

次に「ソース」枠の下にある「+」アイコンをクリックします。ここにOBSが扱えるソース一覧が並んでいます。ここでは「ウインドウキャプチャ」を選びます。

ソース一覧

こんなダイアログが出るので「新規作成」ラジオボタンを選択し、自分でわかりやすい名前(ここでは「ブラウザ」とします)をつけ「OK」で保存します。

ソース作成

次のこの画面で、「ウインドウ」プルダウンメニューから目的のウインドウを指定します。今回はEdgeなのでmsedge.exeを選びました。現在開いているURLのタイトル属性も見えているのですぐ見付かるでしょう。他はとりあえずデフォルトのままで良いでしょう。

対象ウインドウ選択

ブーン!(Jobs風に)、これでプレビュー上にブラウザウインドウが配置されました。実際にブラウザを操作すると、このプレビューにも同じものがリアルタイムに映っているはずです。まさにパワポのようにこのプレビューをドラッグ移動したり、赤い枠を操作してサイズを変えたりできます。

ちなみに録画/配信されるプレビューのキャンバスサイズを確認/変更するには、右下にある「設定」ボタンを開き、「映像」タブを開きます。そこで「基本(キャンバス)解像度」と「出力(スケーリング)解像度」を変更します。前者は入力ソースに応じたサイズを確保します。基本的に両者は同じの方が録画/配信される映像は綺麗ですが、負荷が高い場合や録画を小さくしたい場合は出力解像度を落としてみても良いでしょう。

もうひとつ、最初空だった「ソース」枠に「ブラウザ」が追加されているのもチェックしてください。追加したソースはここにリストされていきます。選択して「ー」アイコンで削除したり、上下矢印で重なり順を変更したり、歯車アイコンで設定画面を開いたりと操作できます。

ウインドウキャプチャソース追加後続いてウェブカメラの映像を追加してみましょう。また「ソース」枠の「+」からでもいいですし、プレビューの黒い余白部分を右クリックし「追加」を選んでも同じメニューが開きます。カメラ映像を取り込む場合は「映像キャプチャデバイス」を選びます。また「新規作成」のまま「ウェブカメラ」などと名前を付けてOKでソースを作成します。

さきほどと同様に「デバイス」欄でソースに使いたいカメラを選択します。普通は1つかも知れませんし、前回紹介したような書画カメラやHDMIキャプチャーデバイスを接続してあればリストに出てくるはずです。

AVerMedia UVCキャプチャーデバイス BU110 DV456

AVerMedia UVCキャプチャーデバイス BU110 DV456

14,960円(08/06 23:31時点)
Amazonの情報を掲載しています
IPEVO V4K 超高解像度USB書画カメラ〔台湾製〕

IPEVO V4K 超高解像度USB書画カメラ〔台湾製〕

14,900円(08/06 23:31時点)
Amazonの情報を掲載しています

とりあえずウェブカメラを選びました(部屋が散らかっているので背景マスクソフトを経由しています。リアルでこのサイズの猫がいるわけではありません)。その他のパラメーターは今回もデフォルトで大丈夫でしょう。もしカメラが4Kとか無駄に高画質な場合は「解像度/FPSタイプ」を「カスタム」にしてその下で低めの解像度に固定してもいいかも知れません。

映像キャプチャデバイス選択/設定

はいドン!。わかりにくいですが、先ほどのブラウザに重なるようにカメラ映像が出ました。いい感じに配置をレイアウトしましょう。ちなみに普通に赤い枠をドラッグしただけでは縦横比が固定されたズームしかできません。このカメラ映像のように左右に無駄な余白がある場合は、Altキー(MacだとOptionキーかな?)を押しながらドラッグすれば変形が可能です。これやや裏技チックなので憶えておきましょう。

カメラ映像追加直後

ということで顔映像の余計な部分を削ってブラウザに重ならないように並べてみた感じがこちらです。映像は一旦これでよしとしましょう。

レイアウト後

■音声ソースの追加

続いて音声ソースの設定です。最初から「デスクトップ音声」と「マイク」があったところに(さっき映像キャプチャーデバイスを足した時に)「ウェブカメラ」が追加されています。

とりあえず声を出してみてレベルメーター(赤黄緑のゲージ)が動くか見てみましょう。通常、OS側でもいずれかの入力ソースが選ばれているので、場合によっては「ウェブカメラ」と「マイク」が一緒に動くかも知れません。OSが標準入力としているソースが「マイク」に入っています。それ以外の音声ソースを改めて取り込みたい場合は、やはりソース枠の「+」などから「音声入力キャプチャ」ソースを追加します。また名前をつけ、次の画面で当該マイクデバイスを選択します。

音声キャプチャデバイス追加

「USBマイク」という名前で追加してみました。するとそのマイクが拾っている音に応じてレベルメーターがピコピコ動き出します。

音声ミキサー部分

ここで各ソース毎にできることが2つあります。

 

  • 不要なソースのスピーカーアイコンをクリックしてミュート(赤に×印)
  • レベルスライダーを動かして音量を適正化

複数のマイクから音が重なって入るとエコーのようになって聞きづらいのでもっとも聞こえの良いマイク以外はミュートするかソースから削除しておきます。

また適正音量の考え方ですが、まずなにもしゃべってない状態で写真のように黄色や赤に届くようだと大きくノイズが入っているということなのでレベルを下げます(スライダーを左に)。また声を出した時に赤ゾーンに行ってしまうようだと音割れのリスクが高いのでこれも下げます。そうならない範囲でなるべく大きくしておくのが良いでしょう。普通の声で緑の右寄り、やや大きい声で黄色に入っちゃうかな、くらい。ドっとウケたり咳をしたりといった音は別に割れても困らないのでそこだけ赤に入るくらいなら大丈夫です。

またしゃべっててもしゃべってなくても緑が結構大きく動いていてあまり差が出ないような場合はそもそもマイクの集音状態がよろしくありません。

  • エアコンなど外部ノイズを遮断したりマイクから離す
  • 指向性のあるマイクを使う
  • ローカットフィルタやノイズキャンセル機能がある場合はオンにしてみる

などしてみましょう。またキーボードの打鍵音など卓上のノイズが大きく入ってしまう場合は、マイクの下にハンカチなどを敷いてみると改善することがあります。

ともあれ理想として、しゃべってない時は緑がほぼ動かず、しゃべると大きく動くが、それでも赤は超えない、状態を目指してみると良いでしょう。

効果音やBGMがなる製品のUTの時など、PC自体から出る音もあわせて録りたい場合は「デスクトップ音声」の方も同様に音量調整をします。

■録画と配信

さてこれで2つの映像ソースと2つの音声ソースをいい感じにミックスできました。これを録画または配信したいわけです。

・録画

「設定」から「出力」タブを開きます。

録画設定画面

下側の「録画」ゾーンから、

  • 録画ファイルのパス(=保存先フォルダ)
  • 録画品質
  • 録画フォーマット(mp4が良いでしょう)
  • エンコーダ

などを設定します。「エンコーダ」はそのPCが対応していれば「ハードウェア」が選べるので積極的に選びましょう。その方がCPU負荷が下がります。

設定が終了したら元の画面から「録画開始」をクリックすれば録画が始まります。ウインドウを最小化しても大丈夫です。ツールバーのアイコンにも赤丸が点灯します。ここを右クリックして録画停止することもできます。

ツールバーアイコン

・配信

配信設定は上記画面の上側で画質設定を行い、また「配信」タブで配信先の設定を行うのですが、そもそもここでいう配信はYoutube LiveやFacebook Liveといった不特定多数向け配信サービスへの送信を意味します。たぶんですがあまりUT文脈で使うことはないんじゃないかと思います(一応Youtube Liveとかではプライベートな配信も可能ではあります)。

どちらかというと前の記事にも書いた通り、ZoomとかTeamsのようなビデオ会議ソフトを使うんじゃないでしょうか。残念ながらこれらに対してOBSから直接送信する機能はありません。やるとしたらこのOBS Studio自体のウインドウをビデオ会議ソフトの画面共有機能を使って共有する形になると思います。この場合、難点としては、

  • デスクトップを二重にキャプチャすると負荷も多重にかかる
  • モニタさんにOBSのウインドウが見えないように最小化した場合、ビデオ会議ソフトによってはキャプチャできない可能性もある

などがあるでしょう。この場合はOBS Studioを動かすPCとタスクに使うPCは別に用意する方が賢明かも知れません。

あるいはこのOBS Studioに近いことを専用ハードで行うATEM Miniのような機材を使うのが良いでしょう。こちらはまた別途紹介記事を書きたいと思います。

ATEM Mini | Blackmagic Design

ATEM Mini | Blackmagic Design

39,578円(08/06 23:31時点)
Amazonの情報を掲載しています

■[応用編] シーンの活用

応用操作として「シーン」について触れておきます。

さきほどソースを組み合わせてレイアウトや音声ミキシング設定を作りましたが、「シーン」はその上位の括りになります。シーンの下に各種ソース、レイアウト、ミキシング設定が含まれますので、シーンを複数セット作って置けば、それを選ぶだけで瞬時に設定を切り替えられるワケです。

具体的には現在画面左下の「シーン」枠に「シーン」という項目が1つあると思います。ここでソース同様「+」をクリックして適当な名前をつけて保存します。

シーン追加ダイアログ

これでリストに「シーン」と「シーン2」が並んだと思います。そして「シーン2」を選ぶと、ソース枠は空のはずです。ここにまた最初からソースを追加していき全く別個のシーンを作成します。もしくは既存のシーンを右クリックして「複製」しカスタマイズしていくこともできます。

こうして複数のシーンができたらリストからクリックするだけで切り替えることができます。右側の「シーントランジション」を選ぶとオシャレ切り替えができます。

■こんな時は?

・PCの負荷を把握したい

「表示」メニューから「統計」を選ぶと各種数値が見られるウインドウが開きます。CPU使用率が大きかったりFPS(コマ数)が低すぎたりしそうなら解像度を落としたりソースを減らすなどの配慮が必要かも知れません。

・映像を180°回転したい

映像を右クリックして「変換」からできます。USBカメラを卓上三脚で逆さまに取り付けた時などに使えそうです。

・スマートフォンの画面を映したい

上に上げたようなUSBタイプの書画カメラを使うのがオススメです。iOSやAndroidの画面共有映像をPCで受けるソフトを使い、それをウインドウキャプチャする手もありますが、UTでは使用者の指の動きも見えた方が往々にして有益です。

設備投資を抑えたい場合は、USBカメラを三脚などに取り付けてスマホの真上に固定する手もあります。その場合、上記の180°回転が役に立つでしょう。

・静止画やテキストを入れたい

ソースに「画像」や「テキスト(GDI+)」があります。

・「ブラウザ」ソースって何?WebのUTではこっちを使うの?

割と最近追加された機能で、特定のURLを表示するソースみたいです。ユーザが操作するブラウザウインドウというより、配信者がコメントウインドウとか自動で更新されるようなURLを常時表示するようなもののようです。ユーザテストでブラウザを使う場合は「ブラウザ」ではなく「ウインドウキャプチャ」ソースを使っておけば良さそうです。

・「スタジオモード」って?

本番中継でうっかりミスしないように、シーン切り替えのプレビューが見られるモードです。切り替えると左右にプレビューが出ます。右が実際に配信中の映像、左がプレビューです。真ん中の「トランジション」をクリックすると配信映像に反映されます。まぁUTでは使わなくて大丈夫でしょう。

・音が小さいです…

まずはマイクを話者に近づけるのが第一です。

それが難しい場合、音量を上げますが、ノイズも一緒に大きくなってしまいます。音量を一杯に上げても小さい場合は、音声ソースの歯車アイコンから「フィルタ」を選び、「ゲイン」というフィルターを追加します。これで音量スライダー全開よりもさらに音を大きくできます。ただし音質の劣化もあるので使わないに越したことはないでしょう。

・声が聞きづらいです…

物理的に良いマイクを買うのが早道です。PCに内蔵されてるマイクはだいたい役立たずです。MacBookは比較的マトモなマイクが載っていますが、それとても基本的には真正面に一人が座って話す声に最適化されています。PC向けWebサイトのテストなどで、そのPC自身を使う人の声ならまだいいですが、モデレーターの声は遠くなるかも知れません。スマホなどPC外のものを使用している時の声は外部マイク必須です。

前項で触れたフィルターの中に「ノイズ抑制」などもあるので試してみる価値はあるかも知れません。こちらのリンクも参考になるかもです。

・OBS Studio向けにどんなPCを買えば良いですか?

まずハードウェアエンコードができる独立GPU(GeForceとかRadeonとか)がついているものが良いでしょう。一般にはゲーミングPCなどが強力なGPUを搭載していることが多いです。MacBookでいうとAirや13インチProよりも15/16インチ。これがあるとCPU負荷を大幅に下げて録画/配信できます。

独立GPUが使えない場合、並行処理が得意=コア数が多いCore i7などのCPUを搭載しているものが良いです。同じCore iシリーズでも最近のものほど内蔵GPUもそれなりに強化されてきています。

また薄いPCなどは冷却機能が弱く、負荷が高まるとファンがブォォォっと唸りをあげがちです。ノートPCでもあまりモバイル性重視のものは向かないかも知れません。

・Windows10のゲーム録画機能とオフにする

公式サイトによるとWindows10 1809以降に搭載されたゲーム録画機能がOBS Studioとコンフリクトして問題を起こす場合があるようです。その場合はこちらの説明(英語)を参考に機能を無効化してみると改善するかも知れません。

無観客ユーザテスト(リモート観察)の実施方法を検討してみる

Pocket

■要約

  • YouTubeなど不特定多数向け配信サービスよりZoomやSkypeなどビデオ会議サービスが無難安心安全
  • ビデオ会議サービスに内蔵Webカメラ以外の映像(ビデオカメラなど)を流すには、UVC(USV Video Class)という規格に変換するのが鍵
  • 忘れがち、軽視しがちなマイクもちゃんとしないと聞き取りにくいUTはサイアク

■無観客ユーザテストの必要性

2020年3月現在、新コロナウィルスの流行でリモートワークを推奨または強制している企業が増えており、ユーザテストも実施しづらくなっているのを感じます。ユーザテストは同時に大人数が集まるイベントではありませんが、同じ部屋に入れ替わり立ち替わり出入りして狭い部屋に一定時間過ごすのも確かなのでモデレーターがスプレッダーにならないよう気にしなければならないですし、見学者が集まる(大抵狭くて密閉されて換気が十分ではない)観察ルームも安全とは言い切れないかも知れません。

前記事ではテストルームでできる対策をまとめてみました。

今回は観察側でできる工夫、というか観察ルームに集まらないでUTを見学するための道具立てについて考察してみます。通常「リモートUT」というとUIScopeさんなんかが実施する「モニタが自宅で製品を触ってる様子を録画して提出する」スタイルをイメージしますが、今回扱うのは「モデレーター付きの会場調査で、見学者がリモートにいる」という形式を想定していますのでご留意くださいませ。流行の言い方をすれば「無観客UT」ですかね。新コロナが終息した後でも、これを機にリモートワークが推進されたり、グローバルな調査では海外など遠隔にいるスタッフが見学したりということもあり、今だけ必要とされるノウハウではないと思います。

■ネット中継に使用するサービス

動画をネット配信するというとYoutube LiveやTwich、ニコニコ動画のような配信サービスが思い浮かびます。実際利用可能ですし、PCレスで映像をそれらのサービスに送出できるLiveShellのような単体ハードウェアも数多くあります。サービス側で録画までしてくれたりして便利でしかも無料です。しかしこれらは本来不特定多数にブロードキャストするためのサービスで、関係スタッフだけに中継するのには馴染みにくいと思います。サービスによっては配信にパスワードなどの認証をかけられるものもありますが、やはり開発中製品のユーザテストの様子を「Youtubeで流します!」とかいったら色々と不安がられることでしょう。サービス提供側としても意図した利用方法ではなくもしかすると利用規約的にも微妙なところかも知れません。

また自前でRTMPサーバーを準備して、というのもオンプレミス、クラウド共にハードルが高いのでここでは触れません。

そこで登場するのがZoom、Skype、Skype for Business、Teams、Chatworkといったビデオ会議サービスです。これらはカメラ映像、音声、そして画面共有などができるので機能要件を満たします(基本的に双方向会話のためのものなので、観察サイト側のマイクやカメラをミュートしておくなどの配慮は必要ですが)。テキストチャット機能も並行して利用できるので、見学者間で意見交換したりモデレーターに追加質問を依頼したりといったことにも使えます。またZoomなど録画機能が使えるものもあります。そして何より大事なのは多くの企業が既にこれらのサービスを利用しているということです。設定も済んでおり操作に慣れていてすぐに使えるというのもありますし、ルール的にも新たに別のサービスを業務で利用したいと申請するよりは許可が下りやすいのではないでしょうか。

逆にいずれも使っていない組織の場合、新コロナでテレワーク支援のため各社とも期間限定で無料ライセンスを発行している今こそお試しのチャンスだと思います(通常時から無料のものもありますが同時接続数や時間に制限がついたりします)。

■ビデオ会議に外部映像を流す方法

ここでノウハウと機材が必要になるのが、そこにどんな映像を流すかです。PC用のビデオ会議クライアントソフトではPCが認識している映像&音声デバイスがソースとして選択できます。通常のビデオ会議では内蔵またはUSB接続のWebカメラやマイクを使い話者の顔を映しますが、UTにおいてはそれでは足りないこともあります。スマホを操作する手元を映したいということもあるでしょうし、さらに手元と表情と両方流して欲しいと言われるかも知れません。ここら辺の要求に応えるにはやや特殊な機材が必要になってきます。以降なるべく安価で入手性のよい機材を使って実現する方法を紹介したいと思います。

・PCの操作画面を流す

これは割と簡単です。ビデオ会議クライアントにはたいてい画面共有機能が搭載されているからです。モニタさんが操作するPCそのものでビデオ会議に接続し、全画面または対象ソフト(ブラウザ)ウインドウを共有するだけです。中には「画面共有中」みたいな小さな表示が出てちょっとだけ気になる場合もあるかも知れません。その場合はモニタさんにひと言「遠隔から見学する人のために共有しています」とか伝えておくといいかも知れません。

・表情を流す(PinP)

これもビデオ会議ツール自体の標準機能で対応可能でしょう。これも画面共有以上にモニタさんに同意をとりつけておくことが大事だと思います。

・スマホの操作画面を流す

これにはいくつか方法がありますが、最近のスマホにはAirPlay(iOS)はGoogle Cast(Android)といった画面共有機能があります。これをPCで受けるReflectorのようなソフトを使い、PC画面上に映し出し、それを上記の画面共有機能で送信します。スマホ->PC、PC->テレビ会議サービスと2段階の共有になりスマートではありませんが、特別な装置が不要で実現できます。またiOS -> Macなら有線になってしまいますがLightning->USBケーブルで追加ソフトなしに画面共有できます。

難点は操作する指が見えないことです。PCならマウスカーソルが見えればそこそこユーザの意図や迷いが把握できますが、スマホだとホバー状態もわからずいきなり画面遷移が起きたりして一瞬なにが起きたかわからなくなります。ボタンにactiveトランジションがあればまだ良いですが、そうだとしても「そもそもボタンですらないところを間違えてタップした」といった現象は画面共有では観察することができません

その意味で機材事情が許すのであれば以下のカメラを用いる方法をオススメします。

・外部カメラを使う(手元編)

問題はここからです。スマホを操作している様子を映すなど。ノートPCの内蔵カメラは向き、画角ともどうしようもないのでUSB接続の(三脚穴のある)ウェブカメラを使って、三脚などに固定するのがお手軽でしょう。ただし三脚穴は大抵底面にあるので普通にとりつけると逆さまになってしまうので注意が必要です。ドライバーや社外ユーティリティで180°回転機能するか、物理的な取り付け方法を思案する必要があります。

2020.03.30追記:Webカメラの焦点距離について

カメラ(レンズ)には最短撮影距離というものがあります。それ以上近寄るとピントが合わないという限界距離です。ウェブカメラを書画カメラ的に使う場合、想定用途よりも近距離で映すことになるので、場合によってはこれが問題になる場合があります。ただウェブカメラの仕様表にはあまりこのスペックが明記されていないので試してみないとなんともなところです。一般にオートフォーカスがついている位の製品なら大丈夫なイメージですが、パンフォーカスの安い製品だとその限りではないかも知れません。まずはお手持ちのウェブカメラがある場合は10-15cm位の距離にスマホをかざしてみてピントがあるかどうか試してみると良いと思います。

大丈夫そうなカメラが見付かれば、例えばこういうスマホ用ホルダーで挟み込むとか、

このアダプターを三脚側のネジにつけ、反対側の平面を両面テープかなにかでウェブカメラに貼り付けるとかですかね。

ETSUMI 止めネジ メスメス E-6602

ETSUMI 止めネジ メスメス E-6602

764円(08/06 17:43時点)
Amazonの情報を掲載しています

またはウェブカメラではなくスマホにテレビ会議クライアントを入れて固定するのも良いでしょう。ちょうどマイクがモニタさんの方を向いていいかも知れません。ただし充電切れには注意です。

ちなみに私はこれを購入してみました。メインシャフトが2段になっていて角度調整の自由度が高い分、他の商品よりよさそうなのですが、執筆時点でAmazonでは入手不可になっています。後々在庫が復活した時のためにリンクを置いておきます。よしみカメラさん、是非再生産を!こちらは別記事にて詳細レビューをする予定です。

料理撮影スタンド キッチンくん よしみカメラ

料理撮影スタンド キッチンくん よしみカメラ

5,478円(08/07 13:01時点)
Amazonの情報を掲載しています

もうちょっと予算がかけられる場合は、こちらのUSB書画カメラもオススメです。PCからはウェブカメラとして認識されるので各種ビデオ会議ツールでも問題なく顔映像のかわりに映像ソースとして使うことができます。数多くの実査で利用していますが専用ソフトの出来もよくとても重宝しています。モバイル系プロダクトやデジカメなど小型ハード製品のUTをするならマストバイです。ただし内蔵マイクはあまりイケてないので後述のような外部マイクを用意することを強くオススメします。

IPEVO V4K 超高解像度USB書画カメラ〔台湾製〕

IPEVO V4K 超高解像度USB書画カメラ〔台湾製〕

14,900円(08/06 23:31時点)
Amazonの情報を掲載しています

・外部カメラを使う(”引き映像”編)

例えばモニタさんとモデレーターの対話の様子を映したり、より大きなデバイス(プリンターとか)のUTやOOBE(Out of Box Experience)のテストでテーブル全体を映したいといった場合にはより広角の映像が必要になります。最近では会議室で複数の参加者を映すために広角寄りのウェブカメラもありますがせいぜい画角90°というところです。またUTだと随時ズームで手元に寄ったりと光学ズーム性能も要求されるので、ここはやはりビデオカメラが使いやすいでしょう。問題は多くのビデオカメラはHDMI出力しかないことです。例えPCにHDMI端子があってもこれも出力専用。つないでもカメラの映像を取り込むことはできません。

そこで必要になるのがこうしたHDMI->USBキャプチャーデバイスです。

AVerMedia UVCキャプチャーデバイス BU110 DV456

AVerMedia UVCキャプチャーデバイス BU110 DV456

14,960円(08/06 23:31時点)
Amazonの情報を掲載しています

HDMI信号(映像&音声)をUSBウェブカメラ互換(USB Video Class)でPCに認識させる変換してくれます。これ自身の電源はUSBからとるので、PCのUSBポートとビデオカメラのHDMIポートそれぞれに1本ずつケーブルをつなぐだけのシンプル構成。PC側のケーブルは付属しているのであとは必要に応じた長さのHDMIケーブルを用意すればすぐ使えます。USB Video Class規格なのでドライバーソフト等のインストール不要でWIndowsでもMacでも使えるので、勝手にソフトを入れられない会社PCにもフレンドリーです。

PCから映像デバイスとして認識されてしまえば、ZoomでもSkypeでもTeamsでも使い放題というワケです。

・映像を合成する(ハードウェア編)

似たようなHDMI -> USBカメラ変換機能を持ち、もうちょっとだけ凝ったことができる機器も紹介しておきます。私も最近知ったばかりで、しかも品薄でまだ入手できてないのですがBlackmagic Designという海外で実績のある映像機器メーカーのATEM Miniという製品です。HDMI入力が4系統とマイク入力が2系統あり、これをスイッチ操作で瞬時に切り替えたり、ピクチャインピクチャで合成したりできます。なので複数のカメラ映像や(HDMIで入力した)PCの画面を切り替えながら送信したり、操作画面の片隅に表情カメラの映像を重ねたりといったことが簡単にできます。それが3万円代とBU110にプラスαのお値段で買えるというのはかなりコスパ高いと思います。既に注文済みなので手に入り次第改めてレビューをしたいと思います。

ATEM Mini | Blackmagic Design

ATEM Mini | Blackmagic Design

39,578円(08/06 23:31時点)
Amazonの情報を掲載しています

・映像を合成する(ソフトウェア編)

上記ATEM Miniのような映像合成や音声ミキシングを行うソフトウェアも存在します。しかもフリーソフトです!多少の設定手順とPCの処理能力が試されますが、試す価値はありだと思います。

OBS Studio

MacでもWindowsでもLinuxでも使えます。録画機能や配信機能もついており、ゲーム実況などでよく利用されているのでググれば解説ブログや動画もたくさん見付かります。当ブログでも近日中にUT向けセッテイングを解説しようと思っています。

■良いマイクを使おう!

ここまで映像の処理について解説してきましたが、見過ごしがちなのが音声です。このブログでも著書でも繰り返し啓蒙していますが、音声が聞き取りやすく収録できてないと観察する人、記録する人、「もっと大きな声でしゃべらせろ」と言わされるモデレーター、言われるモニタさん、全ての人に無駄なストレスがかかります。「アー、アー、テストテスト!」なんて試した限りでは一応聞こえてるなという気がしても、長時間だと聞き疲れしてしまったり、ちょっと声の小さな人やマスクをした人が来たらアウトかも知れません。マイクはケチったら絶対ダメ。内蔵マイクは真正面に一人の人が座ってしゃべることを想定したものなのでUTという利用場面には馴染みませんし、そもそも品質がショボいことが多いです。

ビデオ会議クライアントでは映像ソースと同様、音声ソースもOSが認識している入力デバイスから自由に選ぶことができます。必ずしも映像ソースと同じデバイスから取る必要もありません。なのでUSBタイプの外付けマイクをつなぐのがお手軽でオススメです。

例えばUTラボによくあるバウンダリーマイクのUSB版としてはコレとかいいと思います。

MXL USBバウンダリマイクロフォン AC-404

MXL USBバウンダリマイクロフォン AC-404

10,450円(08/06 17:43時点)
Amazonの情報を掲載しています

 

とまぁ渾身の機材漫談を書き殴ってみたらアフェリエイトリンクだらけになってしまいましたが、具体的な製品例もあった方がよかろうと。ご参考になったら是非こちらのリンクからお買い求めください(笑)。また、これらの機材とノウハウ込みでユーザーテスト実施をお手伝いいたしますので、この困難な事態にメゲずに評価をまわしていきましょう。機材選定、セッテイングのお手伝いのみのご相談もお気軽に。

ユーザテスト/インタビュー調査における感染対策を考える

Pocket

2020年2月現在、新型コロナウィルスCOVID-19が話題になり、各種イベント会合が中止や延期になっています。多数の人が入れ替わり来てはモデレーターと近くで話したり評価対象デバイスに触れたりするユーザテストも感染リスクと無縁とは言えません。可能であれば延期なども視野に入れられれば良いのですが、期末のこの時期、クライアントとの契約や様々な都合もあって実施に踏み切るしかないこともあるでしょう。そんな中でもできる対策や注意点をまとめてみました。

■デバイスの消毒

一般に脂質であるエンベロープ(外膜)をもったウィルスはアルコールに弱いとされます。インフルエンザウィルスやコロナウィルスも含まれます。COVID-19もコロナウィルスの一種なので同様に考えてよいだろうとされています。ユーザテストで使う評価対象物や機材もアルコールで定期的に消毒することは有効でしょう。ただし若干注意が必要だと思います。

1つはアルコールの濃度。アルコールは水分とのバランスで効果が異なるので目的別に様々な濃度のものが売られています。医療用、消毒用とされるものは70%くらいのものが多い様です。ウィルスのエンベロープを破壊するという点においては100%が最も良いものの、一般的な殺菌消毒作用としては少し水分がある(60~90%)位の方が良いらしく。いわゆる消毒用エタノールですね。酒税回避のために添加物が加えられてるものもあるようですが基本的には効果はかわりないぽいです。

逆にアルコール濃度が50%以下のようなものだと消毒効果もほとんど期待できなくなります。強すぎると手荒れの原因にもなるので、手指用のウェットティッシュはかなりアルコール濃度は低いものが多い様です。「除菌」とか書いてあるヤツです。つまり菌を殺すことはできないが、清拭によってそこから菌を取り除くことはできよう、というものです。「殺菌」効果は医薬品でないと謳えないので日用品グレードのものは「除菌」という表記になっているようです。

じゃぁ濃度が60%以上だったり「殺菌」って書いてあるヤツを選べばいいかというとデメリットもあります。手指とデバイスへのダメージです。高濃度のアルコールは液晶画面などのコーティングや塗装を劣化させます。その場ですぐに目に見えてボロボロ剥がれてくるみたいなものではないので気付きにくいですが、長期的にはダメージが蓄積されていきます。自社資産に限らずクライアントやレンタル会社から借りている場合もある評価機や高価な収録機材を傷めるわけにはいきません。また1セッションかぎりのモニタさんはともかく、モデレーターが毎セッション高濃度のアルコールで手を消毒していたら手荒れなども起きます。

2020.3.10追記: Appleがウチの製品はアルコールウェットシートで拭いてもOKという記載を説明ページに追加したそうです(スプレーや浸したりはNG)。

そんな諸々を加味すると、以下のような使い分けが理想なのかなという気がしています。

  • 来客向けにはその場で手軽に消毒できる消毒用アルコールスプレー
  • モデレーターなどスタッフは薬用ソープで頻繁に手洗い
  • 消毒液中の水分がデバイスに悪影響を与える可能性があるのでスプレーは避け、シートタイプのもので端子部分などを避けて清拭
  • スマホの画面やアルコールに弱そうな塗装部分は「液晶用」などと書かれた精製水(ノンアルコール)のウェットシートで毎セッション拭き取り
  • その他のマウス、ペン、朱肉ケース、テーブル、ドアノブなどモニタさんが触れる可能性のある箇所はアルコール消毒シートまたは除菌シートで定期的に拭き取り

精製水ではウィルスを殺せないのではないか?と思われるかも知れないですが、油脂である指紋を拭き取っておくだけでもウィルスの付着率を下げられるので効果はあるようです。あるいは(傷んでも消耗品と割り切れる)液晶保護フィルムやカバーをつけるなりした上で思い切りアルコールで消毒するという手もありますね。

私が液晶用に使っているのはコレ。ノンアルタイプです。インフルの時期以外でも、前の人の指紋がべったりついているスマホとかモニタさんも触りたくないと思うので通年できっちり活用したいものです。

アルコールシートの殺菌タイプ(70%前後クラス)か除菌タイプ(50%以下クラス)かは一長一短だし、そもそも今は入手困難なので好きに選べないこともあるかと思います。ただエンベロープ破壊によるウィルスの無効化には15秒くらいかかるとされているので、殺菌タイプを使うなら少し時間を置いてから拭き取るのがいいみたいです。除菌タイプは文字通りその場から拭い去るイメージで指紋などをしっかり拭き取り、拭ったウィルスはしばらくは生きてる可能性があるのでシートの再利用厳禁(同じ面で何か所も拭かない)、という運用がよいのではないかと思います。

■マスクによる聞き取りづらさを補う

マスクによる予防効果は現実的にはさほど見込めないと言われていますが、心理的安全のためマスクをしていらっしゃる方は多くいます。それを「聞き取りにくいから外してください」とは言えません。すぐ隣にいるモデレーターはまだいいのですが、マイクを通して聞く観察室サイドの人はかなり影響を受けます。特に元々がボソボソ話す方だと相乗効果で何をいっているのか聞き取りづらくなります。聞こえたとしてもかなり集中力を要するので終日セッションを続けていると疲労が溜まってしまいます。

これはもう以前からことある毎に言ってますがマイクに投資をするしかないと思います。PCやスマホ、ビデオカメラの内蔵マイクで済ませるのではなく、きちんと外付けのマイクをモニタさんの声をしっかり拾える直近に配置することです。卓上に置くバウンダリーマイクや、ラベリアマイク(タイピンマイク)を活用しましょう。ラベリアマイクはケーブルの取り回しが煩わしいですが、先日このブログでも紹介したようなワイヤレスタイプのものも比較的安価に手に入るようになってきています。

■モデレーターの喉をケアする

この時期、ただでさえ喉を酷使するモデレーターはインフルや風邪でなくても喉を痛めがち、咳こみがちです。モニタさんにいらぬ不安を抱かせないよう、しっかり喉を潤したり、セッションの合間にのど飴を舐めるなどしてケアしましょう。

浅田飴の公式サイトによると、のど飴には3つのクラスがあります。医薬品、医薬部外品、食品です。医薬品は具体的な症状の緩和を目的としたもの、医薬部外品は効果は低いが販路が広いので入手性が良い、食品はなんかスーッとするだけ(笑)。

最近のお気に入りはこれ。私はのど飴のど飴したスーっとしたのが苦手ですが、このシリーズはフルーツ香料が効いていて舐めやすいです。医薬部外品なのでコンビニで買えます。用意を忘れた時でも調達が楽なのが良いです。

マスクは悩ましいですね。感染症状がある場合は論外(帰れ!)として、単に咳が出るという場合はするべきでしょう。「熱とかはないんですが季節柄(またはしゃべりすぎで)咳き込みがちなのでマスクをさせていただきます」などとひと言あると良いかも知れません。咳き込みがない時は個人的にはしないでおきたいなと思います。このご時世で「失礼だ」と怒り出す人はそうそういないとは思いますが、やはり普通に話しづらい、聞き取りづらいというのは会話主体の場ではデメリットかなと。

呼ばれて行くモデレーターの立場としては、テストルームは加湿器、空気清浄機をしっかり稼働させて空気の質を保ってほしいと思いますが、テストルームや会議室はたいていのUTやインタビューには広すぎて生半可な性能の製品では追いつかないというのが現実ですね。乾燥した空気は感染も加速させるので可能ならば気にしてみてほしいと思います。

■高齢者を除外する?

COVID-19は若くて体力がある健常な人には風邪程度の症状だと言われています(そもそもコロナってもともと風邪(普通感冒)の原因ウィルスで2番目に多いとされるウィルスなんだそうでCOVID-19はその亜種なわけですね)。一方でもともと基礎疾患がある人や高齢者など体力、抵抗力が弱い人の重症化リスクが高い肺炎を併発しやすい傾向があると言われています。

UTでは幅広い層の人のデータを揃えるために年齢配分を意識することが少なくありませんが、不要不急の案件であればシニア層を省く、という検討をしてみても良いのかも知れません。

■ドタキャン率が上がる可能性を折り込む

日々状況は変化し、どちらかというと警戒度が増していく現在、アポイント時点では参加の意思を示していたモニタさんが、前日や当日になって「やっぱり不安だから止めます」と言い出す可能性は上がっていると思います。会社などから急に指示が出ることもあるでしょうし無理強いはできません。最悪、実際になんらか罹患して来られなくなるということも。

ドタキャンリスク自体は平時からそれなりにあるものですが、特に今の時期はその見込みを高く見積もっておく必要があると思います。どうしても一定数のデータが必要な案件であれば予備候補をしっかり探しておく必要がありますし、受託であればクライアントとももしもの場合の妥協点を議論しておくことも重要でしょう。

 

以上、できるだけググって裏付けをとった中で、現実的な落とし所を経験を元に書いてみたつもりです。誤解や不足、別案があればお気軽にご指摘ください。是非みなさんのノウハウを共有して乗り切りましょう。

次記事ではユーザテストの観察ルーム側でできそうな対策について論じてみました。よろしければご覧くださいませ。

 

2020.3.23追記:

物品に付着したウィルスの寿命に関して、ここ数日「プラスチックやステンレスで72時間生存!」みたいな記事が話題になっていますが、それに対する冷静なツッコミ記事を見かけましたので要点を訳してみます。

「When the scientists placed virus-laden droplets on plastic, they found that half of the virus was gone after about seven hours. Half of what remained was gone after another seven hours, and so on. By the end of Day Two, there was less than 1/100 of the original amount, and after three days the remnants were barely detectable.」(意訳:プラスチックに付着させて、7時間で半分。次の7時間でまた半分。2日目の終わりには1/100以下。3日目にはほぼ検出不能。)
ということなので、これを「72時間生存する!」と言い切っちゃうのはかなりミスリーディングな気がします。ウィルスは一定数が体内に入らないと感染は起こせないらしいので、残留ウィルスが半分になったとすると、感染する実効力はそれ以下に落ちるという指摘も(Twitterで)見ました。
「For stainless steel, the half-life for the virus was five or six hours, and for cardboard it was even shorter: less than four hours.」(ステンレスなら”半減期”は5,6時間。段ボールは4時間以下。)
プラスチックよりステンレスの方が半減期が短いというのは意外ですね。ステンレスの方が指紋がつきやすく、そこに付着する率は高そうです。まぁ実験は指紋とか考慮しなかったかも知れませんし、付着しやすさと生存率は関係ないのかもです。
「Still, it can’t hurt to wash your hands after taking groceries out of the bag, opening a newly delivered envelope, or retrieving the newspaper. Soap and water does the job.(意訳:それでもまぁ買い物袋から品物を出したり、届いた封筒を開封したり、新聞を回収した時には手洗いをした方がいい。石鹸と水でOK。)」
半減期(半分に減るまでのスピード)がそうである、ということで、結局のところ感染リスクは最初にどんだけウィルスがいるかということと不可分、とう至極もっともな指摘で記事は締めくくられています。
そう、普段の予防策としては手指については別に石鹸の手洗いでいいんですよね。ただアルコール消毒ジェルは水がなくても使えるのでユーザーテストの会場とか施設入り口に置くには便利。またスプレーやウェットシートなども機器や机椅子、ドアノブの除菌に便利なので、会場調査にはどちらも手に入るなら用意しておきたいところ。70%濃度に満たない、より濃度の低い除菌レベルの製品でも無意味ではないということでしょうか。

ワイヤレスマイクシステム RODE Wireless GOがとても良かった

Pocket

UTのお悩みとして音声の記録や中継の問題があります。ビデオカメラや書画カメラの内蔵マイクでも一応は録れるのですが、これは品質としてはだいぶ損をしていると言わざるをえません。なんか注意して聞いていれば言っていることはわかる、というレベルと、対面会話のようにそこに意識をしなくても聞き取れる、という状態では疲労が違います。また今の季節や、昨今のように感染症が話題になってる時ですとモニタさんもマスクをして来ていたりして、「聞き取りづらいので外してください」とも言いづらく、なんとなくモゴモゴした聞こえ方になり、さらにしんどくなります。機材で解決できる問題は積極的に取り組んでいきたいものです。

今回試して良かったのはこちらのマイク。

同じような箱が2つありますが片方がマイク付き送信機、もう片方が受信機です。受信機のマイク出力をビデオカメラなどの外部マイク入力端子につないでやれば長々と細くて切れやすくてノイズが載りやすいケーブルを引き回さずに済みます。また隣室であれば壁をこえて観察ブースへコードレスで音声を伝送することもできます。au Payの20%還元キャンペーンでとりあえず買っておいたんですが、今回の実査で書き起こし担当の方がモニタさんの声が聞き取りづらく、リアルタイムの書き起こしができないという相談があったので急遽実践投入してみました。

その現場ではとりあえず映像伝送系に関してはリサーチルームの設備で一応まかなっていたので、それとはまったく独立に書き起こし担当者さん専用に追加の音声伝送経路を作った感じです。本製品の受信機の出力端子は(3段階に調整はできますが)マイクレベルです。TRS端子(ミニプラグ)ですがイヤホンをさしても音は出ません(聞き取れない位小さい)。本来はビデオカメラのマイク端子にいれ、ビデオカメラ内で増幅して録画したりモニタ用ヘッドフォン端子で聞くというものです。ただし今回は音声のみ聞ければいいので手持ちのICレコーダーを使用しました。外部マイク端子に本製品を接続し(便利なショートケーブルが付属しています)、ICレコーダーのイヤホン端子に適当なイヤホン/ヘッドフォンをつないで聞きます。結果として非常に聞きやすくなったと好評をいただきました。同じ室内でモニタさんから見て後方に席をおいて記録をとっていたのですが、遅延も全く気にならず片耳で直接音、片耳(イヤホン)で本機経由の音を聴いても違和感はほとんどなかったです。

今回の構成

理想を言えば受信機に直接イヤホンをさして聞ければなお良かったかもですが、想定している使い方ではないのでまぁそれは仕方なしです。ICレコーダーもビデオマイクも外部マイク端子付きのものを選んでおきましょう、ということです。

■詳細レビュー

まず類似製品としてSONYが発売しているECM-W1MとAW4があります。

ソニー SONY ワイヤレスマイクロホン ECM-AW4 C

ソニー SONY ワイヤレスマイクロホン ECM-AW4 C

19,818円(08/07 06:24時点)
Amazonの情報を掲載しています
ソニー SONY ワイヤレスマイクロホン ECM-W1M C

ソニー SONY ワイヤレスマイクロホン ECM-W1M C

17,748円(08/07 06:31時点)
Amazonの情報を掲載しています

W1MはSONYの対応ビデオカメラ専用品になりますが、受信機側に電源が要らない(ビデオカメラ本体から給電)のがメリットです。ケーブルも不要でスッキリ。

W1MをHnadycam CX670に装着

AW4は今回紹介のWireless GOと同じでビデオカメラやICレコーダーの外部マイク入力に接続するタイプでSONYのアクティブシューがついていないビデオカメラや他社製品にも使えます。つまりAW4とWireless GOはガチ競合製品ということになります。この2者で比較した時のWireless GOの特徴は、

  • 受信機側にレベルメーターとバッテリー&電波強度ゲージがある
  • 受信レベルを3段階で調整できる
  • 乾電池式ではなくUSB-C充電式である
  • ちょっと高い

といった点になります。3番目はメリットでもありデメリットでもあります。長丁場の時や、本番直前に電池切れが発覚した時に、乾電池ならさっと入れ替えできます。ただ予防的に電池をマメに新品に交換したりするともったいない気もします。Wireless GOは仕様上7時間保つのでセッションの合間にこまめに充電しておけばまぁ大丈夫かなという感じです。最悪充電しながらの使用もできるでしょう。むしろバッテリーゲージ(受信機側のディスプレイに送信機、受信機双方の電池残量が表示されます)があることで電池切れトラブルを防ぎやすいのかなと。

レベルメーターも音量が振り切って音割れさせてないかを目視確認できるのは有り難いです。受信レベルの3段階も結構差があって、手軽に調整できて良かったです(1ボタンで3段階サイクリック動作)。電波強度も可視化されているのは安心感があります。外部マイク端子があるようなビデオカメラなら液晶画面にレベルメーター表示できたりもしますが、やはりカラーでクリップ(飽和)しそうな時は赤くなってくれた方がリスクに気付きやすいと思います。

今回は送信機側の内蔵マイクを使用しました。クリップがついているので適当なところに固定も手軽にできます。モニタさんの襟元や胸ポケットにつけてもらっても良いでしょう。またこれ自体に外部マイク端子があるので、ラペリアマイク(ピンマイク)を使用して、送信機本体はベルトなどにつける使い方もできます(これはSONY組も可能)。

このクリップが秀逸なのはビデオカメラなどのシューに取り付けもできる点です。AW4のクリップはビデオカメラのハンドストラップなどに止める想定ですが、それよりも幾分スマートで位置的にも邪魔にならない感じです。ユーザビリティ屋としてはこういう細かいアイデアでテンション爆上げです。これが購入の決め手になったと言えるレベル。

HXR-NX80 + W1M
HXR-NX80 + Wireless GO
VX992M + Wireless GO

ちなみにCX670のシューは奥に沈んでいてWireless GOは取り付け不可能でした。

電波の安定度についてはまだ1現場で使ったのみなので不明。ただ干渉しやすい2.4GHz帯を使いつつも途切れにくい工夫はあれている模様です。同室内で使う分にはまず大丈夫じゃないかと。部屋をまたいだ使用については追々試してみようと思います。

バッテリーは実感としてはスペック通りの7時間は保たないだろうという印象。ギリギリまで試せば使えるのかもですが、4時間ほども使えばバッテリーゲージがレッドになる感じです。

欲を言えばバッテリー切れが近い時にビープ音などで警告してくれるといいなと思います。SONYのでも何度か失敗したことがありますが、サイレントに電池切れして音声が途切れるので記録としては被害甚大です。収録機材としてノイズを出すのは問題かも知れませんが、音が録れてない方が致命的だと思うので、なにかしら通知手段をもっていてほしいです(電池切れギリギリまで使ってないのでっもしかしたら鳴るという可能性も残っていますが、まぁ説明書にもなにも書いてないしないんじゃないかなと)。

ともあれ高品質かつ汎用性の高い良機材だと思います。執筆時点でAW4より7,8千円高いですが、ディスプレイによる各種ステータス表示にはそれだけの価値があると思います。

 

 

 

UTに向きそうなビデオカメラ2020

Pocket

私は産業技術大学院大学(AIIT)の社会人向けコース「人間中心デザイン」で毎年ユーザビリティ演習の講師をしていて、7チームくらいが同時進行で模擬ユーザテストを行います。その際、記録機材など大学で用意しきれないものを私物から貸し出ししていて、ビデオカメラもそのひとつです。最近はスマホやPC画面を直接録画するケースも増えていますが、バックアップの意味も含めてビデオカメラでの撮影もまだまだ欠かせません。昨年も割とビデオカメラで録りたいというチームが多くて少しタマ不足でした。AVCHD録画モデルなら余裕あったんですが、さすがに今時それでは取り回しが悪い。セミナーなので撮ったその日にデータを持ち帰りたいし、シンプルに1セッション1ファイルでPCで簡単に再生できるMP4形式で録れるものを貸してあげたい(AVCHDは2GB毎にファイルが分割される)。

ということでもう一台くらい安いのでいいから増やそうと機種選定。結局「どうせ買うなら」病でそこそこいいやつを買ってしましました。

■2020年にUT向けビデオカメラを買うならどんなのがいい?

まずはユーザテスト記録に向いた仕様を改めて2020年の機能トレンドを元に整理してみます。

・スマホじゃダメなん?

スマホでもフルHDはもとより4Kで録れる時代ですもんね。ただUTでいうと操作している手元や画面をズームアップして撮りたいことも多いと思うので光学ズームで解像度を落とさずにクローズアップできるビデオカメラはやはりメリットがあると思います。

あとはマイク。どうしても話者の背後から録ることが多いUTでは声をクリアに録るのが難しく理想的には外付けマイクを使うことが望ましいです。スマホで使える外部マイクも登場増えて来てはいますが選択肢という観点ではビデオカメラ圧勝です(ただしビデオカメラも外部マイク入力を装備している必要があります)。

そしてストレージ容量と安定性。1時間以上安定して録れるという意味でも専用機は安心です。スマホは着信があったり通知が出たりしても録画が止まらないかとか不安があります。基本的にはスマホやデジカメは短時間のスナップショット的な動画を撮るものだと思います。UTのように60〜90分回し続ける前提の設計では熱暴走やそれを防ぐための安全装置による録画停止のリスクが否めません。またSDカードスロットがないiPhoneやPixelなどの機種では容量面の不安もあります。「あ、足りない!」ってなった時にすぐに予備SDカードを刺し替えられるものが良いでしょう。

・フルHDか4Kか?記録容量とも兼ね合い

予算に余裕があるなら大は小を兼ねる的な意味で4Kモデルを買ってもいいとは思いますがマストではないと思います。解像度に余裕があると、遠くから撮っても後で拡大して画面内容などを見られる可能性があるので保険としてはアリ。ただその分データも大きくなるので録画ファイルを後でPCにコピーして見ようとか部内でシェアしよう、とかいった時に不便を感じるかも知れません。

手元(評価対象物)を撮るのか、全景を撮るのかにもよりますが、実質的には720p(1280×720)くらいで事足りるし、ファイルサイズも小さいのでむしろこうした低めの解像度(それでもDVDよりは上)設定をもっていることも重要だと思います。

例えばPanasonicのVX992Mという機種の仕様で比較してみます。この機種は内蔵メモリが64GBあります。4KのMP4で録画した場合、ビットレートは72Mbpsにもなり録画可能時間は約1時間50分。UTでいえば1セッションしか録れないことになります。セッションの合間に64GBものデータを吸い出して内蔵メモリを空けるのも現実的ではありません。これがフルHDになっても28〜50Mbpsで3〜5時間。1日分も録れないでしょう。しかし720pまで落とすと9Mbpsまで減り、約16時間50分となります。一気に2,3日分となります。数名〜10名程度の実査なら丸々録画できます。コピーも早いし低スペックのPCでも楽々再生できるので現実的には良いバランスの画質設定だと思います。この画質設定で単独で録れるものを選ぶと良いでしょう。「単独で」というのは、SONY製カメラの場合、4KやフルHDをメインで撮りつつ、サブで720pを撮るような仕様になっている為です。メインを残すようにしつつ、その場でサっとSNSにシェアしたり編集用仮ファイルとしてサブという意味合いです。これだと高画質と低画質の2本を同時に残るのでむしろストレージを圧迫します。セッション毎に高画質の方を消せばいいんですが、これを忘れたりうっかり低画質の方を消してしまったりとトラブルの種にもなりかねません。SONYさんには是非720p単独モードを実装してほしいです。

なお内蔵64GBでの試算を引用しましたが、最近では128GBや256GBのSDカードも比較的手頃な値段で入手できるようになってきていますので、少し追加投資しておけば2〜4倍は録れるということになるので、解像度を優先するならばそれもアリでしょう(ただし256GBはまだ出てから日が浅くメーカー公式にはサポートリストに載ってなかったりもするので事前確認は必要です)。

・マイク入力

UTは操作の様子を映した映像はもちろん対話内容を重要で、それがしっかり聞き取れる音声収録も軽視できません。上述の通り、背後から撮影した時にもしっかり参加者の声を拾うため、卓上にバウンダリーマイクを置くなどしてそれをビデオカメラのマイク入力端子に接続するのが理想的です。2,3万円くらいのエントリーモデルではマイク入力端子自体がついていないことがほとんどなので注意が必要です。だいたい5万円くらいのミドルグレード以上ならついています。

・ネットワーク機能

最近のモデルはWi-Fiを内蔵していて、スマホアプリから遠隔操作できたりスルー画(レンズが捉えているリアルタイムの映像)を視聴できたり、多人数で視聴できる配信サーバーに接続できたりします。

UTでは別室で観察役が観察や記録を行ったりするのにリアルタイムの映像や音声を中継することが多いですが、こうした機能があれば長いケーブルを取り回すことなく別室に中継ができるので便利です。またスマホアプリ側から録画/停止操作もできるので役割分担に幅をもたせられ、万一モデレーターが録画をスタートし忘れてても観察室側から開始できたりもします。ただしSONYなどは音が飛ばせなかったりするので事前の仕様を確認する必要があります(カタログにはそこまで書いてないことが多い)。

配信については少し前までUStreamが元気だったため、多くのメーカーはそちらに対応していることが多いですが、いまはIBM傘下になり2018年に無料プランが廃止されたので、有料契約(月$99で5クライアント〜)が必須になっており、ちょっと使いづらいです。ただ無料サービスと違ってしっかりパスワード制限もかけられるので、秘匿性の高いUTなどではむしろアリなのかも知れません。

・あんまり重視しなくて良い要素

UTで使う分にはあまり気にしなくて良い要素としては、

  • バッテリーのスタミナ(基本ACアダプタ給電)
  • ビューファインダーの有無
  • 光学ズーム倍率
  • センサーサイズ

などがあるかなと思います。

■で、今回買ったのはコレ!

さて前置きが長くなりましたが、現時点で私的チョイスはこちら。

ビデオカメラの写真

PanasonicのVX992Mです。ずっとSONYを買ってきたので充電器やバッテリーの使い回しを考えると揃える方が楽だったんですが、上述の

  • スマホアプリで音が聞けない
  • 720p単独録画モードがない

が不満だったのと、たまには違うメーカーのカメラも触っておいた方がUI知識の幅が広がるかなというところで決めました。

特徴としては、

  • スマホビューワーで音も出る(SONYは映像のみ)
  • 720p単独録画モードがある

というSONY機にはない要求仕様を満たしているのに加え、

  • スマホカメラの映像を子画面としてWi-FiでとばしPinP録画ができる(3台のスマホをつなぎ、うち2画面を子画面として合成できる)
  • 4Kなのに軽い(SONYのAX45/65が500g超だけどこれは300g台。バッテリー別で)

などがありました。UTでは手元映像と全体俯瞰映像を合成機でPinP録画することも多いので、それをよりシンプルな機材(カメラとスマホのみ)で録れるのは面白いなと。

SONYの同グレード機と横並びな部分としては、

  • もちろんマイク入力あり
  • USB 5V充電もOK(ただし充電専用プラグより遅い?)
  • USBでPCにマウントしてデータ吸い出しもOK
  • Ustream改めICM Cloud Videoストリーミング配信(有料)

など。SONYに対し劣っている部分としては、SONYの中級機以上にはマルチインターフェイスシューという専用外部マイクなどを装着できるインターフェイスが備わっており、Bluetoothワイヤレスマイクなどユニークな周辺機器があります。これに相当するものがありません。ただし買ってから知ったんですが、背後に差し込むシューマウントが付属しており、一般的なガイマイクなどであればここに固定することもできます。

ビデオカメラ背面側の写真

シューアダプター装着状態の写真

■実機レビュー

4K AIRを名乗るだけあって4K機としてはコンパクトで手のひらの収まりも良いです。SONYのAXシリーズは運動会、学芸会などのハレの日に気合い入れてもってくという感じですが、本機であればもう少し気軽に普段使いできそう。ミラーレスとコンデジくらいの感覚です(コンデジ並に小さいという意味ではなく、気持ち的なニュアンスです)。

充電プラグは丸型でその先はUSB 5V/1.8Aの充電器です。完全に専用品のSONYよりは汎用性が高くていいですね。ただしどちらも充電ポートとは別にある通信用MicroUSB端子から5V充電することもできます(おそらく充電速度は遅め)。

ところでSONYのCX670はハンドストラップ部分にUSB Aコネクタのついたショートケーブルを内蔵していて、単体でPCに接続して録画ファイルを吸い出せるのがとても重宝していましたが、最近ではPCがUSB-Cになってきていて結局変換アダプタやハブが必要になりがち。その意味では内蔵ケーブルを止めてUSBジャックのみにするのは正解なのかも知れません(自分のPCに合うケーブルを持ち歩く)。ただせっかくUSB-Cコネクタも小さいのでCケーブル直出しな機種も残ってくれると嬉しいなと思います。AndroidやiPadに直結できたりすると便利かなと。

で992Mに戻ります。スマホカメラ映像とのPinP(ワイプ撮り)ですが、スマホを横にして撮った場合、子画面は16:9になります。しかしスマホを縦持ちにすると9:16にはならず正方形映像に。UTでスマホ画面などを子画面とする場合、縦長の9:16になるといいなと思ったんですが、まぁより重要な操作画面を子画面にすることもないからいいかな?どうせならもう少しレイアウトに選択肢があると良かったかも知れません。また4Kでは本機能は使用不可です。せっかくの解像度の使い道としてPinPは有用なのですが、さすがにまだ処理性能的に厳しいのでしょう。4Kでもリアルタイム合成できるようになった頃、「ワイプ撮り誰も使ってないから廃止でよくね?」とならないよう、微力ながら推し続けていきたいと思います。

以下、ワイプ撮りを使った様子を動画にしてみました。

また合成前の(カメラ側の)元映像も別保存できますが、その場合形式がAVCHDになってしまうようなので多分使わないかなと思います。

UI的にはSONYが長かったので違和感がなくはないですがおおむね良くまとまっていると思います。iA(インテリジェントオート)に露出と色合いのみマニュアル調整できるiA+なんかもツボをついていると思います。できれば色合いではなく色温度で調整したかったですが。ピントがあってる箇所を強調表示したり、拡大して確認できるモードなど、必要なものを一通り揃っています。露出オーバーの部分をゼブラ表示するのだけはナサゲ。

また本機にはベビーモニター(赤ちゃんが泣いたら通知する機能あり)や外出先からの見守りカメラといったモードもあります。なるほど「ビデオカメラって運動会、学芸会、旅行など年数回のハレの日にしか使わないから買うのもったいないね」って人向けなんでしょう。普段はこんな使い道ありますよと。ただ見守りモードを試してみたところアプリ側でエラーになりつながりませんでした。もしかしてUPnPとかポート開放とかが必要なのかな?そこらへんUI的にはなにも表示されず、カメラ側ではWi-Fiにはつながっているぽいというフィードバックのみ。ちょっと原因究明ができないまま保留となっています。

 

年始のお年玉気分で衝動買いしたので、まだ実践投入はしてないですが、とりあえず映像(と音声)を観察室にとばす要件の案件が発生したら早速使ってみたいと思います。是非ご用命くださいませ。

安くなった「グランツーリスモsports」で疑似走行映像を作れるか?

Pocket

MicrosoftのカーシミュレーターAirSimを使ってカーナビ等のユーザテストで使う走行映像を作れるか?という検証記事を出したまさにその日、PlayStation4のリアルカーレースゲーム「グランツーリスモsports」がなんと1,990円に値下げされていました。

【PS4】グランツーリスモSPORT PlayStation Hits

【PS4】グランツーリスモSPORT PlayStation Hits

1,674円(08/06 21:59時点)
Amazonの情報を掲載しています

PlayStation 4 ジェット・ブラック 500GB (CUH-2200AB01)

PlayStation 4 ジェット・ブラック 500GB (CUH-2200AB01)

40,640円(08/07 13:01時点)
Amazonの情報を掲載しています

PSVR対応が気になりつつも他のVRレースゲームで寝込むほどのVR酔いを体験した私はいまいち手が出せずにいましたが、この値段ならばと早速買ってきて、走行動画生成に使えるか検証してみました。現在のレースゲームは16年前に(個人的に)策定した要求仕様を満たせるのか!?

当時の記事はステコンをつないで被験者自身にリアルタイムに操縦してもらう前提。今直近ではとりあえず動画としてそれらしいものが撮れればいいかなくらいの違いはありますが、とりあえず以前の項目に照らしてチェックしてみます。

・BGMをオフにできる?

可能。

・画面上のステータス表示をオフにできる?

可能。さらにスゴイのはリプレイモード時点でUI表示ON/OFFや視点制御が変更できる点。つまりまずは走りやすい第三者視点モードやUI表示ありで走行し、いい記録が撮れたと思ったらリプレイモードに行き、UI表示OFF、運転視点に切り替えて動画を流す、ということができちゃいます。

・GAME OVERにならない?

タイムアタックモードにすればOK。他の車も走らせたい場合もカスタムレースで周回数を多めにしておけば大丈夫でしょう。

・ライバル車両がいない状態で走れる?

タイムアタックモードで可能。

・ステアリング&ペダル・コントローラーに対応?

対応。

・景観が市街地など一般道?

日本の首都高速を模したコースがあります。レベル7で開放なので1,2時間ほど頑張ってプレイする必要があります(笑)。コースがループなので、うまくつなげば自然なループ動画が撮りやすそう。

残念ながら日本の一般道を模したコースはありません

・ドライバー・ビューで表示できる?

もちろん可能。運転席が映り込むもの、ボンネットがけ見えるもの、何も見えないものなどがあります。

 

ということで高速道に限っていえばかなり理想的なシミュレーターとなりそうでs。AirSIMと違って他の車のブレーキランプなどもきっちり点灯しますし、日本の公道で見かける車種も多く収録されています。さらに晴天、雨天や昼/夜間も選択可能。

ただしAI車達はあくまでレースとして走行するので、無闇やたらと車線変更をしたりします(首都高なので反対車線はなく基本二車線道路)。またこちらはリアルに80km/hくらいで走行すると後ろからビュンビュン抜いてく感じになります。AIカーの上限速度も設定できれば文句なしなんですが。動画としては、こちらもそれなりに高速で走って動画にした後、遅回しで再生するという手もありそうですがまだ試していません。その場合、こちらも接触せずに綺麗なライン取りで走れる腕前が必要になります。ステリングコントローラーが欲しくなりますね…

あとヨサゲなのはリプレイモードで好きな車両のカメラを選択できる点。上手いAIカーの視点ならばそつなく走ってくれる動画が簡単に得られます。ただしトップ車両だと他の車両との絡みがほとんど映りませんw。

とまぁ完璧ではないですが、「高速道路を走っていて、たまに横から車が来て抜いてったり割り込んできたりする(ブレーキランプも点灯)」みたいな動画くらいなら割となんとかなりそうです。しかもかなりリアル。ナンバープレートがついてない(車名プレート)くらいかな。

あとは二人プレイで上手く連携すればもう少し割り込みなどを意図したタイミングで発生させられるかもは知れません。

ゲーム映像を目的外に利用することは権利侵害になる恐れがあります。配布や納品などの際には利用許諾などを確認願います。

 

車載機器UTのための走行映像をMicrosoftのAirSimで作れるか?

Pocket

室内でカーナビなどのユーザーテストをする際、前方に走行映像を流したいことがあります。走行中の操作タスクをする際、少しでも被験者の意識を前方に向けて、あくまでサブタスクとしてナビ操作をさせたいわけです。その為、車載カメラで想定シチュエーションにあわせた映像を撮りにロケに行ったりもします。例えば「狭い道路でいつ脇道から人や自転車が飛び出してくるかわからない」映像とか「高速道路を巡行していて前方に渋滞が見えてくる」映像とかです。これがなかなか大変。
理想を言えばきちんとしたシミュレーターを使って、タスクの進行にあわせて飛び出しや渋滞が発生した映像を呈示できるのが望ましいですが、多くの案件ではそこまでの準備は適わないことが多いです。時にはカーレースゲームを使ったりしたこともあり、使いやすい要求仕様をまとめてみたこともあります。なんとまぁPlayStation2とかの時代の記事…。

そして昨今ではコンピューターパワーも飛躍的に高まり、また自動運転研究のためのシミュレーター環境などが無償または安価に利用可能になってきました。そこで今回はMicrosoftがクルマやドローンの自動運転研究のために無償公開したAirSimというオープンソースのシミュレーターを試してみました(日本では同名の格安SIMサービスがあって非常にググラビリティが低いです…)。

結論からいうと今一歩でした…(終わり)

以下、興味のある方向け。

■Microsoft AirSimとは?

Microsoftが自動車またはドローンの自動運転研究の為のシミュレーションを仮想世界で好きなだけ行うために開発、公開しているプラットフォームです。ゲームエンジンのUnreal Engineをベースにしているようですが、最近Unityでも使えるようになったようです。ただWindowsで既成のマップワールドを利用する分にはUnity環境込みのバイナリパッケージが公開されているので、.ダウンロード&解凍してexeファイルを実行するだけで利用可能です。標準ではキーボードで簡単な操作ができたり、Pythonスクリプトで制御したりできます。昼夜や天候なども簡単に変えられます。

■やりたかったこと

私もUnreal Engineの知識ゼロの状態で、とりあえずこの吊しのマップデータを使って、

  • フォトリアルな走行風景
  • 前走車の急停止や側方からの割り込みなどあらかじめ既定したタイミングでイベントを発生させた映像を動画ファイルに保存できる
  • またはキーボード操作などで任意のタイミングでそれらのイベントを発生させられる

などができたらいいなという期待がありました。

■残念だったところ

Unreal Engineに精通しており自分でマップやオブジェクトを作成できればまた違うのでしょうけど、とりあえず吊しのデータを使い、標準のAPIドキュメントを眺めた限りでは以下の点で要求を満たすことができませんでした。

・市街地、道路のマップがアメリカで、走行車線も右側通行

グローバルな案件ではアリかもですが、私の請ける範囲ではちょっと使いにくい。特に市街地マップは信号や標識も違うし、モブのクルマが反対車線を走ってるのが厳しいです。郊外で高速道路想定であればまだ許容範囲かも知れません。

・カメラアングルの自由度が低い

FOV(ドライバー目線)はありますがハンドルを含む運転席のパーツを消せないので、UTで用意する治具とバッテイングする場合があります。

また第三者視点で選べるプリセットはやや上空から見下ろすアングルのみで、真後ろ視点が選べません。自動で真後ろ視点で追尾できると便利なんですが。

ただしマニュアルカメラモードにすることで好きなアングルに変更できます。ただし一度マニュアルモードにするとキーボード制御はそれ専用になってしまうので、別途車両を操作するコントローラーが必要です。とりあえずXBox Oneコントローラーは使えました(有線)。ステアリングコントローラーもLogicoolのG902などが使えるぽいです。

つまり、これらの外部コントローラーで操作して、その背後視点のカメラ(または運転席)から見た映像を得ることはできるので、あとは画面録画ソフトを使って録画すれば動画ファイルは得られることになります。

しかし!

・クルマオブジェクトが無人でブレーキランプが点灯しない

標準ライブラリのクルマが無人なんですw。最初から自動運転制御前提ですかねw。ちょっとこれもリアリティに欠けます。ダミーでいいので載せておいて欲しかった。

またさらに痛い点として、ブレーキ制御をしてもランプが光りません。例えば前走車が急ブレーキを踏んだ!というプレッシャーを与えることができません。

・期待したほどフォトリアルな映像品質ではなかった…

各記事の写真をみた限りでは結構綺麗そうだったんですが、少なくともウチのGeForce GTX 1080では「スゲー!」ってほどの感じではないです。画質もそうですが例えばぶつかった時にびよーんと車体が撥ねたりする時の挙動がすごくゲームちっくです。まぁ指定ルートを事故らずに走行している分にはいいのかも知れません。できれば車両のモデリングデータだけ実在の車種に近いもの、ナンバープレートがついていて、ブレーキランプがつくものに差し替えられればなぁと思います。マップも同様。ここら辺、UEやUnityを勉強するとか、有料であれモデリングデータを買ってきたりすればどうにかなるのかも知れません。

動画サンプルはこちら。

■使用方法メモ

・とりあえずAirSimを起動してみる

WindowsならUnreal Engine込みでビルドされたバイナリをダウンロードするだけ。GitHubのReleaseページでWindowsの最新版(執筆時点で1.2.2)の「Assets」リンクを展開すればマップ毎のビルド一覧が出てきます。サイズの大きなCityEnviron.zipだけは001と002に分かれています。同じフォルダに置いて7-zipで解凍すれば勝手に両方つなげて展開してくれます。でてきたフォルダを開くとUnreal Engineのアイコンがついた.exeファイルが1つあるのでダブルクリックすれば起動します。

「Choose Vehicle」というダイアログが出るので、クルマなら「はい」、ドローンなら「いいえ」を選びます。

F1で操作ガイド、F10で気象コントローラーです。標準ではカーソルキーで車両が走り、BSで初期状態に戻ります。「F」「B」「\」「/」でカメラ視点が変わります。「M」がマニュアルでこの状態だとカーソル上下やPage Up/Downなどで好きな視点にできますが、逆にカーソルで運転できなくなります。他のカメラモードにするとカメラ視点はリセットされてしまい、マニュアルカメラ視点で運転するには別途コントローラーが必要です。

・コントローラーを使う

Xbox OneコントローラーをUSBで接続しておけばとりあえずは使えます。RTがアクセル、LTがブレーキ、左スティックがステアリングで、ともにアナログ制御です。画面左上のリアルタイムでパラメーターが表示されます。

ただしこの状態だとバックができません。そこで初期設定を少しいじりました。

・初期設定を変更する

初期設定ファイルはユーザの「ドキュメント」フォルダに「AirSim」フォルダが作成されてsettings.jsonというテキストファイルができています。これをテキストエディタで開くと、

などとなっており、これを書き換えて.exeを再起動すると反映されます。ちなみに.exeの終了はメニューがないので、私はAlt+F4でやっています。

とりあえずこんな感じに変更。記法はJsonなのでカンマや{}の位置に注意。

"SimMode": "Car", があると、起動の度にカメラかドローンかを聞かれなくなります。 "Vehicles": {} で1台目のクルマを指定し、 "RemoteControlID": 0 でWindowsが認識している最初のコントローラーを使うことを明示します。なぜかこれを明示すると、左スティックの下でバックができるようになりました。上とAボタンでもアクセル全開(1)が入るようになります。ただし注意点として.exeファイルを起動する時点ではコントローラーのケーブルを抜いておかないと起動後におかしな挙動をするようです。再起動の度に毎回ケーブルを抜き差しするのがちと面倒になります。初期状態ならそうはならないので、バックが使えることとトレードオフのようです。
"X": -4, "Y": 0, "Z": -2, "Yaw": 0, "Roll":0, "Pitch":0, は初期出現位置と向きです。Yawをかえると向きがかわります。RollやPitchは平らな地面の上に置くクルマではいじる必要はないでしょう(ドローン向け)。Vehiclesの下に複数のクルマ設定を書けば出現する数を増やすことができます(同じRC設定をしてしまうと両方が動きます)。

これでとりあえずマニュアルカメラ視点をとりつつコントローラーで快適に操作できると思います。

・Pythonから制御する

さて目玉であるプログラム制御についても軽く触れておきます。Python詳しくないのですが一応動くところまで。

まずPython環境がない場合はAirSim公式推奨のAnacondaというツールを使ってインストールします。配布サイトからWindowsを選び、Python 3.7の64bit版インストーラを落として実行します。またPythonスクリプト自体は好きなテキストエディタで書き、コマンドプロンプトからpython3コマンドで実行すればいいのですが、デバッグ効率などを考えるとMicrosoft Visual Studio Code(以下VS Code)を使用するのがお勧めです。あわせてインストールしておきます。UI日本語化の方法は適当にググってください。

Anacondaをセットアップすると、スタートメニューから関連ツールが選べるようになります。まず「Anaconda Prompt (Anaconda3)」を開き、必要な追加ライブラリをインストールします(最初の1回のみ)。

次に「Anaconda Navigator(Anaconda 3)」を起動します。ここからVS Codeを「LAUNCH」します。(直接VS Codeを起動するとコマンドパスの関係で動かない場合がある)

開いたVS Codeで新規ドキュメントを開き、以下のコードをコピペします。

8行目まではおまじない。10行目でステアリングを軽く右に切ります(負の数が左、最大は1)。11行目は以下を3回繰り返すという意味です。Pythonではインデントの範囲がブロックとみなされるので、それ以下が繰り返しの範疇ということになります(明示的に閉じ括弧がありません)。11,12行目でアクセルを全開(1)にして14行目で1秒待ち。15-17行目でアクセルを戻してブレーキをベタ踏み(1)。18行目でまた1秒待ち。つまり、微妙に右に曲がりつつ、チョイ前進を3回繰り返す感じです。AirSimはカーシミュレーターなので、オブジェクトとして位置を指定するのは初期設定ファイル側で最初のみ。あとはクルマの制御機構であるステアリング、アクセル、ブレーキを操作するというところがミソですね。

さてこのコードを拡張子を.pyにして適当な場所に保存すると、ウインドウがPythonモードになります。コードが着色され、右下のステータスバーが「プレーンテキスト」から「Python」に変わっていることを確認してください。

この状態でおもむろにF5キーを押します。すると下に「ターミナル」が出現し文字がパラパラと流れ、AirSim側でクルマが動けば成功です。VS Code側にはこんなツールバーが出現します。「□」で実行を停止。再度F5をすれば最初から実行されます。

またAirSim側でバックスペースを押せば初期状態に戻るので、コードをちょいいじっては実行するという作業をする時はこのVS Codeとの組み合わせが楽だと思います。また例えば「car_control.」まで打てばthrottle、brakes、steeringなどが推測候補として表示されるのでコーディング効率も良いです。

ただそれを見る限りでは、このAPIでは基本的なクルマの挙動しか制御できず、例えばブレーキランプやウインカーを点灯するとかそういうレベルまでは対応してないぽいです。そこは自前でそういうモデルデータを用意してAPIを拡張してやる必要があるということでしょう。その辺り、業務ニーズはあるのですが、私も3Dモデリング周りは全くの素人なので一朝一夕ではできそうにありません。願わくはこれを見たどなたかが刺激を受けて取り組んでくれたり、一緒にやろうと言ってくれればなと思います(笑)。

というところまでで今回の自由研究は一旦切り。覚え書きまで。

ユーザテスト/インタビューのためのApple Watch Series5

Pocket

Apple Watch Series5が出ましたね。ついに常時点灯に対応しました。もう時計を覗き見るジェスチャーをしなくても表示が見られるようになったのです!

ユーザテストのモデレーターやインタビューのインタビュワーをする時、あまり時計をチラ見して相手に時間経過を意識させたくありません。そう考えると明示的に時計を見るジェスチャーをしないと文字盤が見られない今までのApple Watchはやや使いづらいツールでした。一方で、各種メッセンジャーでメッセージを受信できるようにしておけば、観察室からの追加質問などの伝達事項を簡単にチェックできたりして重宝もします。

今回私もSeries 3から5に買い換えたので、モデレーター/インタビュワー目線でどう活用できそうかチェックしてみたいと思います。

■Series 5の常時点灯(Always On)とは?

Apple Watch Series 5の常時点灯は単純に画面が消灯しなくなったというものではありません。それをするとバッテリーの消費がエラいことになるからです。ではどういうことかというと、画面が暗くなり、更新頻度が1分おきになる省電力モードになる、という形で実現しているのです。もちろん今までの時計を覗くジェスチャーをしたり画面をタッチすることで明るさが復帰し、更新頻度もフルサイクルになります。そしてまたしばらくすると省電力モードになる、という繰り返しです。

例えば時計に秒針があったとしても画面を書き換えが1分おきでは意味がないので、省電力モードでは秒針が消えるなど、画面のデザインも簡略化されます。

■セッションの経過時間/残時間を把握したい

モデレーターが気になるのはやはり時間管理です。60分だったり90分だったりするセッション時間のうち、現在どれだけ経過したか、あと何分使えるか、ということは常に意識するべき点です。セッション開始が00分とか30分など切りの良い時に始まればよいのですが、例えば60分+休憩10分で進めていくと9時スタートの次は10時10分スタート、11時20分スタート、といったようにズレていきます。さらに相手が遅刻してきたりもしてカオスなことに。壁の時計で時刻が見えるだけだと直観的な時間管理は難しいのです(時計算が得意な人は平気なのかも知れませんが…)。

というわけで、ここでは(カウントダウン)タイマーに着目してみたいと思います。Apple Watchには当然タイマーアプリも搭載されているので、それを使えばいいかと思いましたが、なんと個別のアプリ画面は省電力モードに落ちるとぼかしがかかりその上に大きく時計だけが表示された状態になってしまうことが判明。つまるところ、ホーム画面というかウォッチフェイスの状態でタイマーの進行状況を見るしか無いということになります。秒レベルの精度は必要ないので省電力モードの1分更新でもOKです。

そんな観点で標準搭載のフェイスデザインとタイマーのコンプリケーション(フェイスに配置できる小さな情報窓)の組み合わせをあれこれ試して、一番ヨサゲなのは「インフォグラフモジュラー」フェイスで中コンプリケーションにタイマーを割り当てた状態である、という結論に至りました(写真)。

タイマーの残時間とだんだん縮んでいくバーグラフを表示してくれます(目の調整力が落ちてきてるので、あまり小さいコンプリケーションだと文字が読めない…)。「1時間」というのが設定した時間、つまりセッションの長さです。その下に「残り:59:44」のような形でカウントダウンが進みます。ただし省電力モードになると1分更新になり秒表示はナンセンスになるので、「残り:59分」のような表記に変わります。普通に時刻も見られる点も良い。時刻よりカウントダウンをもっと大きく見られた方が嬉しいですが。なお「インフォグラムモジュラー」はSeries 4と5専用だったかも知れません。Series 3以前では「モジュラー」か「モジュラーコンパクト」で代用できるんじゃないかと思います。

次点は「Siri」フェイス。残時間の表示はダントツにデカいです。時刻と同等。

ただし各モジュール毎の通知カードがどんどん入れ替わってしまうので、常時ここにタイマーがいることが保証されません。例えば時間の近づいたスケジュールが来るとそちらが上にきて、タイマーが下に降りていってしまうということです。もしかするとカウント中は優先順位が上がって常に一番上に居続けてくれるかもですが。もしくはモデレーション専用にしてタイマー以外のカードを全て非表示にしてしまう手もありますが。もしタイマー発動中は常時この位置に居続けてくれるならこちらばベストかも知れません。あとは数字でみたいかバーグラフで見たいかお好み次第ですかね。なお「Siri」フェイスはSeries 4より前のモデルでも利用できます。

「Siri」フェイスで表示情報を減らすには?

これめっちゃわかりづらいですが、iPhoneのWatchアプリで、「マイウォッチ」タブから「時計」を選び、一番下の「Siri文字盤データソース」です。極端な話ここで「タイマー」以外全部オフにすれば他のカードに邪魔されることはなくなるでしょうw。

いずれの場合も、カウントアップ時にアラーム音が鳴らないようミュートにしておく必要があります。その場合、時間がくるとバイブレーションで知らせてくれます。またメッセージが届いた場合でも同様にブルッと震えるので、相手に知られずに通知を受けることができます。これは一般的な腕時計では適わないスマートウォッチならではのメリットでしょう。

セット方法は上記のタイマー表示部分をタップするなどしてアプリに移動します。写真の1時間、2時間のショートカットの他に、1分、3分、5分、10分、15分、30分のボタンが並んでいます。写真は一番下にスクロールした状態で、「カスタム」を指定すれば75分とか90分といった好きな時間をセットできます。カスタムは最後にセットした時間を憶えてるぽいので、1タップだけ増えますがまぁ問題なさそう。

■自作アプリの夢も広がる

最近のwatchOSではアプリとしての自由度も上がってきてますので、

  • 一定時間毎に知らせる
  • タスク達成時間などを記録するラップ機能

などを搭載したUT専用アプリを作るのも面白いかも知れません。残念ながら省電力モードになってしまうと表示読めなくなってしまいますが、、この辺りはSDKの仕様や省電力設定をまた調べてみようと思います。