動画眼3のVer 2.12.1を公開しました

Pocket

GitHubのリリースはこちらです。

https://github.com/do-gugan/do-gagan_electron/releases/tag/2.12.1

今回はバグ修正以外にいくつか機能改善や変更も含んでいます。

再生ステータス表示

まず再生中にスキップや速度変更、一時停止、画面キャプチャをした際に映像フレームの右上にステータス表示(アイコン、文字)を表示するようにしました。キーボードショートカットで不意に速度がかわったりしてると気付きにくいので。右上というのがこだわり。昨今の動画サイトやアプリは一時停止とかスキップボタンをデカデカをコンテンツのど真ん中に出すのがデ・ファクトになっていて異を唱えたかった。普通に考えて邪魔でしょと。小さい画面でタッチ操作するスマホはまだわからなくもないけれど、画面全体の輝度を落とすのもいらない。一時停止って視聴を止めるってだけでなく映像をしっかり確認したい、って場面もあると思うんですよね。そういう時に邪魔をするUIはいらない。一時停止してまっせ、ということだけが伝われば良い。てなことでスタータス表示は右上に控えめに。ブラックアウトももちろんなし。技術がないとか面倒だったとかじゃないんだからねっ!

キーボードショートカットの変更

次に大きな変更としては、前後ジャンプのショートカットキー割り付けを変更しました。従来のCtrl + W/Qに慣れてらっしゃる方がいらしたら申し訳ないですが、まぁたぶん世間の誰も使ってないから大丈夫だろうと…

変更意図はこちらの図をみるとわかっていただけるかと思います。

こちらが変更前。

そして下が変更後です。

もともと動画眼3でCtrl + WとQがペアで前後だったところにEを追加。更に下段に速度制御系をいれて、ほぼ同じ動作をするCtrl + EとCtrl + Sがズレてるのがわかりにくいなとなりました。

ちなみに速度制御系はPremiere Proなどで一般的なJ/K/Lキーでも行えます。ただモディファイアキー無しは文字入力中などには使えないので、別途Ctrlを使い、左手一本で扱い易い位置としてCtrl + A/S/Dをもってきたという経緯です。ただここはもともとWindowsでは全選択や上書き保存に使われてたりするので悩みましたが、本ツールにおいての操作性を優先してみました。上書き保存はShift +Ctrl + Sとちと面倒になってますが、定期自動保存もあるしな、と。

あとCtrl + Q/EはShiftを押しながらだとn倍ジャンプするんですが(何倍かは設定画面で指定)、macOS + ATOKではShift + Ctrl + Eで単語登録ウインドウが開いてしまうようです。自分は必要ないのでATOK側でアサインを変更しようと思います。

このように特定環境や習慣とバッテイングするのも問題なので、将来的には有効無効を切り替えたりカスタマイズできるようにしたいなとは思いますが、まぁ現状自分以外に利用者いなさそうだし優先度低め。

動画眼Liteの方も近日中に新アサインに更新予定です。

ログ・インポート時のダイアログの挙動変更

動画眼上で作成した.dggn.txt形式ファイル以外のデータで読み込めるのは、csv、srt、そして旧動画眼形式の.txtですが、インポートするファイルを指定するダイアログで拡張子による絞り込みのプルダウンメニューがありました。自分は最近Whisperで生成したsrt形式を使うことが多く、毎回プルダウンの一番下を選ぶのが面倒になってきました。最後に使った形式を記憶しておいてデフォルトでそれが選択された状態にできないかと思ったんですが、APIの仕様上、HTMLのselectタグのselectedのような指定はできなそうで、順序を一番上に持ってくるしかないとのこと。プルダウンの順番がコロコロかわるのもなんだなということで、デフォルト(一番目の選択肢)は.txt、.csv、.srtがすべて選べる状態にしました。フォルダ内にファイルが多すぎる時だけプルダウンで絞り込んでね、という形。macOSの場合、この拡張子セレクタはボタンを1つ押さないと出現しなくてさらに手間だし気付かれないこともあると思うので、その意味でも良い変更なんじゃないかと。

まだまだ改善中ですがよろしかったらお試しください。

Blackmagic Design UltraVideo Recorder 3G導入とHDMIキャプチャの遅延検証

Pocket

最近、UTではリモート見学者向けに中継をすることがほとんどです。その際、Webカメラやビデオカメラの映像をそのままZoomなどのWeb会議ツールにカメラ入力として流すのではなく、一旦OBS Studioに入れて、PinP合成などをした映像をウインドウプロジェクタで別ウインドウに映し、それをWeb会議ツールの画面共有で流すことが多いです。カメラ入力は多くの場合、参加者の顔を写すことを主目的としている為、あまり解像度が出ないことが多いのです。一方画面共有は解像度が高く出せるかわりにフレームレートが落とされることが多いようです。一長一短で悩ましいところですが、Web会議ツールによって録画のレイアウトも違ってくるので、ケースバイケースで対応します。あえてPinPにせず、画面共有で操作手元映像を、カメラ入力で参加者の表情を送ることも多いです。その際に気になるのが手元映像と顔映像の時間的なズレです。基本的にほぼ遅延がないと思われるマイク音声とのズレも問題になることがあります。基本的に画面共有が一番遅れがちでヒドい時には1秒近くズレることも。OBS StudioやWeb会議プラットフォーム、ネットワークなど様々な要因が絡むので切り分けが難しいのですが、まずは入り口としてHDMIキャプチャユニットによる違いがあるのか調べてみました。

■普段使っているHDMIキャプチャ機材たち

AverMedia BU110

AVerMedia UVCキャプチャーデバイス BU110 DV456

AVerMedia UVCキャプチャーデバイス BU110 DV456

16,500円(02/27 22:49時点)
Amazonの情報を掲載しています

2018年に初めて買ったUSBタイプのHDMIキャプチャです。当時はこういう電源不要のボックス型はとてもレアでした。UBS3.0接続。フルHDまでの対応。

Elgato CamLink 4K

OBS Studioであれこで合成することが増えてBU110だけでは足りなくなってきて買い足したもので、4Kまで対応しています。UBS3.0接続。

Blackmagic Design ATEM Mini Extreme ISO

HDMI 8入力で各種合成も単独でできてしますビデオミキサー/スイッチャーです。USB端子でUVCデバイスとして認識されるので、上記機器やWebカメラのように使うこともできるので比較対象に挙げます。またこれを使っていた時に遅延が気になると言われ実際に調べると遅延が大きいという指摘もあったりで、実際にどうなのか気になるところです。ストレージ用も兼ねたUSBポートはUSB3.1 gen 2ですが、UVCモードで活用されているかは不明です。

OBSBot Tiny 4K

HDMIキャプチャではなくWebカメラの部類ですが、顔映像を撮るのによく使うのでベンチマークとして参加です。接続はUSB2.0なので不利が予想されます。まもなく新型のTiny2が届く予定ですが、そちらはUSB3.1で非圧縮転送対応だそうで楽しみです。

[最近購入] ClassicPro CHD312

ClassicProは映像音響機材ショップのサウンロハウスのプライベートブランドです。電池やマイクスタンドなど幅広く扱っている中で最近HDMIキャプチャ製品までラインナップするようになりました。CHD312はHDMIパススルーがついていて、キャプチャと同時にモニタやプロジェクターに映せるのが1つほしくて最近購入しました。HDMIパススルー付きはキャプチャしつつ遅延のない画面でゲームをしたいゲーミングカテゴリの製品に多く、やや高価なものが多いんですがこちらはその中では割とお手頃価格で、USB3.0。入力とパススルーは4K対応ですが、キャプチャできる映像はフルHDになります。

1回実務で使いましたが、ちょっとだけ不安定な気もしています。一度だけ映像が途切れて触ったら結構熱くなってたので、そこからファンで風を当てながら使用して無問題でした。継続評価中。

[新規購入] Blackmagic UltraStudio Recorder 3G

今回の比較のために色々レビューを調べて遅延が少なそうなもの、業務用として信頼度が高そうなものとして新規購入してみました。インターフェイスはThunderbolt 3です。形状はUSB-Cですが、規格上の伝送速度は桁違いに速いはずなので期待。

BMD UltraStudio Recorder 3G (写真中央)

ガチ映像業界でしか使わないSDI入力が備わっており、HDMIしか使わない自分にとっては無駄にお高いイメージがあって手を出していなかったですが、今回冷静にスペックを調べてみると、写真右のBU110とさほど変わらないんじゃね?ということに気付いて特攻してみました。やや厚みがありますが頑強な感じが業務用という感じがしてアガります。

■遅延比較方法

iPhoneで1/100秒まで表示する時計アプリ「原子時計(AtomicClock)」をカメラ(FX30)で映し、HDMI経由でOBS Studioに表示された画面と見比べて1/100秒(0.01秒)単位でズレを調べました。フレームによって0.02秒ほど揺らぎがある機種もありましたが、最悪ケースとして最大値を計測レコードとしました。

解像度などはデフォルト状態。

UltraStudio Recorder 3GはOBSにソースとして入力する際、通常の「映像出力デバイス」から選択する方法と別に、「Blackmagicデバイス」というソースクラス経由で取りこめますので、別個に計測しています。

計測PCはMacBook Pro 2021 (M1 Max)で、USB AポートのCamLink 4Kだけハブを経由。あとはUSB-C to Cケーブルで本体直結です。

■検証結果

ブランド機種ドライバ遅延秒数
Blackmagic DesignUltraStudio Recorder 3GUVC0.08-0.12秒
ClassicProCHD312UVC0.08-0.12秒
ElgatoCamLink 4KUVC0.12秒
OBSBotTiny 4KUVC0.12秒
Blackmagic DesignUltraStudio Recorder 3GBlackmagicデバイス0.11-0.13秒
AverMediaBU110UVC0.16秒
Blackmagic DesignATEM Mini Extreme ISOUVC0.20秒

思ったほど差がない結果となりました。6機種中4機種は同じ0.12秒の遅延となりました。UltraStudi Recorder 3G(UVC)は速い時は0.08秒と最少誤差を叩き出してくれたんですが、今回のルールでは最長誤差で採ることにしたので同率となりました。専用ドライバよりUVC(「映像キャプチャデバイス」)経由の方が速いのも意外でした。

0.12秒というのがOBS StudioやUVCドライバを使う上での限界値ということなのかも知れません。USB2.0のTiny 4Kでも実現できていることに驚きです。

そして思ったほどの差ではなかったものの、やはりATEM Mini Extreme ISOが一番遅延が大きいという結果になりました。一番高額な機材ですが、やはり内部的な処理が複雑なせいもあるかも知れません。ATEM Mini内で合成を完結させる(つまり各映像と音声の同期が取れている)分には、問題ないですが、OBS StudioやWeb会議ツール側で他のソースと混在して使うのには向かないかも知れません。

今回UltraStudio Recorder 3Gを導入したことで、古株のBU110は予備役に移行してもいいのかなと思いました。4Kが必要な時はCamLink 4K。地味にコンパクトだし4Kにも対応できると思うと非常にコスパも良い機種だと再認識しました。やや高い部類ですがこれから業務用に1つ買うという方にはオススメできる機種だと思います。>CamLink 4K

全体にこれだけ差が出ないと逆に1,000円クラスの安い中華キャプチャを買って計測してみたくなりますねw。近日、OBSBot2も含めて追加検証してみたいと思います。

■まとめ

Web会議プラットフォームに中継する際、カメラや音声に対する画面共有の遅延を最低限にしたくてHDMIキャプチャーで差が付くか検証してみました。結果としてはそれほど致命的な差はつかなくて、機材面の問題というよりはWeb会議ツール側やネットワーク状況によるものが大きいのかもという考察になりました。

全ソースが揃ってさえいれば、絶対的な遅延はあまり問題ではないので、最終的にはOBS上でディレイをかけるなどすればいいんですが、問題はカメラだけWeb会議のカメラ入力に入れざるを得ないケースなんですよねー。例えば某M社のオンラインインタビューシステム使う案件とか本当に苦労が多いです…

OBS Studioで黒画面を一瞬出し自動で戻す

Pocket

次期動画眼での機能追加について書いたばかりですが、またひとつ思いつきました。

動画眼はUT(ユーザテスト)やインタビュー録画にチャプターを打って分析を効率化するというツールですが、後で見返す時ではなく、その実査中(録画中)にどうやって誰が手軽にチャプターを打つかというのも大きな課題です。そのひとつにWebアプリと時計を同期してポチポチしていく動画眼マーカーがありますが、今回全く別の方法を思いついて実験を始めました。

それは「動画の真っ黒なフレームを検出してチャプターにする」というアプローチです。例えばATEM MiniですとFTB(Fade To Black)ボタンがあります。1回押すとフェードアウトで画面が真っ暗になり、もう一度押すと解除されてフェードインで元の映像に戻ります。モデレーターなり録画オペレーターがタスクの切れ目などでこれを押しすぐ解除することで、録画/配信される映像が一瞬暗くなります。これを動画眼側で検知することでチャプターに自動変換できるのでは、と考え実証コードを書きました。どれくらいの黒を閾値とするかなどチューニングは必要ですが基本的に動いてる感じです。

■OBS Studioで黒フレームを作る

UT/インタビューの収録でATEM Miniを使っているモノ好きはそう多くはないので、OBS Studioを使った場合も検討してみます。単に画面を真っ黒にするだけなら何もないシーンを作ってそれに切り替えるだけです。ホットキーを設定しておけばキー操作1つで実現可能です。ただそこから戻すのにもう1操作必要になります。空シーンに切り替える->1秒待つ->元のシーンに切り替える、という手間が生じるのは不便です。戻し忘れたらコトです。これを1操作で自動化するのが本記事のテーマです。

真っ黒いシーンを作る

シーン一覧の「+」ボタンで新規シーンを作ります。名前をBlackとかBlankとかわかりやすいものにしておきます。中身(ソース)は空っぽのままでOKです。

ホットキー(キーボードショートカット)を割り当てるには「設定」画面から「ホットキー」を選び、作成したシーンに対する「シーン切り替え」の欄に希望のキー操作をセットします。

ちなみにOBS StudioのホットキーはOBSがバックグラウンドにいても反応します。録画中、同じPCでメモ取りなども兼ねる場合、CommadやCtrlキーなどの組み合わせにするとか、ファンクションキーなど間違って押さないキーアサインにしておきましょう。ここでは録画中他の操作はしない想定で「B」キーを割り当てます。

なおOBS Studioではシーンをかえると音声セッテイングも独立になるので、そのままだと音がなにも鳴らない状態になってしまうのでご注意ください。音声系ソースを元シーンからコピーするとか、このシーン自体を新規で作らず、「元シーンを複製して映像系ソースを消す」などして作った方が良いかも知れません。シーンを作り分けるか、特定ソースのON/OFFを制御するかどちらが楽かはケースバイケースだと思います。

プラグイン「Advanced Scene Switcher」をインストール

OBS Studio単体では実現できなそうなのでプラグインの力を借ります。Advanced Scene Switcherを使います。最新版はOBS Studio 28〜対応です。OBS Studioは27までと28以降でプラグインの規格が変更され互換性がありません。Advanced Scene Switcherの最新版を使う場合はOBSも28以降にしてください。どうしてもまだOSBを28以降にできない人はプラグイン側の旧バージョンを探してみてください。今回はOBS Studio 29.0.2にAdvanced Scene Switcher 1.20.5を使用しています。

またMac版だとOBS、プラグインともにAppleシリコン(M1/2)版とIntel版が分かれています。お使いのOBS Studioにあわせてプラグインをダウンロードしてください。GitHubのダウンロードページにはmacos用だけでもx86(Intel用)、arm64(Appleシリコン用)、Universal(両用)があります。.pkgはインストーラー版でしかるべきフォルダに自動でインストールしてくれますが、セキュリティチェックが厳しい端末だとかえって手間かも知れません。そういう場合は.zipを落として自分でプラグインフォルダにD&Dで入れると良いでしょう。

自分(M1 Max機)はOBSをAppleシリコン版にするのを忘れていて、プラグインだけAppleシリコン用を入れてメニューに出現しないなと思って悩みました。

インストールに成功すると、OBS Studioの「ツール」メニューに「Advanced Scene Switcher」が出現します。

「自動シーンスイッチャー」というのが標準であって紛らわしいですが別モノです。

Advanced Scene Switcher設定 〜マクロ設定(Macroタブ)

「ツール」メニューから「Advanced Scene Switcher」を開き、「Macro」タブに移動します。

ここで、「Blackシーンに切り替えられたら1秒後に元のシーンに戻す」というマクロを作成していきます。いきなり完成形がこちら。

まず①のブロックで「+」から空の新規マクロを作成し、名前を決めます。ここでは「Blank and Back」としましたがなんでも良いです。

次に②のブロックでマクロ処理が発動する条件を定義します。ちょっと手順がややこしいですが、まず「If(もし)」「Scene(シーンが)」を選びます。すると下段に「Current scene is(現在のシーンが)」が選ばれて「–select scene–(シーンを選択)」が選択可能になるので、「–select scene–」を真っ黒シーンである「Black」にします。これで「シーンがBlackになった時」という発動条件が定義されました。更に冗談で時計マークが「No duration modifier(遅延指定なし)」にかわると思いますのでこれを「For at least(少なくとも)」に変更し「1.00」「seconds(秒)」にします。これで、「シーンがBlackになって最低1秒経過したら」という意味になります。

最後に③のブロックで「その時何が起きるか」を設定します。まず上段で「Switch scene(シーンを切り替える)」を選びます。すると下段に3つのセレクターが出るので、それぞれ「Previous Scene(前のシーン)」「Current Transition(今のトランジション)」「0.20」などとします。「Previous Scene」はBlackシーンにする前に選択されていたシーンを覚えておいてその状態に戻してくれます。もちろん特定のシーンを選べばそちらに移ってくれます。そこは好き好きで。2番目は切り替わり時の効果に関するもので「カット」ならスパっと瞬時に切り替わります。「フェード」ならふわんと切り替わります。「Current Transition」は普段スタジオモードでデフォルトで使っているものが自動で選ばれるんだろうと思います。3番目の秒数はフェードする場合にかける時間です。カットだと突然映像が途切れた様にも見えるので、ごく短めのフェードくらいがいいんじゃないでしょうか。

これで「Blackシーンが選ばれたら1秒後に元に戻す」という動作のマクロ「Blank and Backが完成しました。

Advanced Scene Switcher設定 〜一般設定(Generalタブ)

最後に忘れてならないのがAdvanced Scene Switcherプラグイン自体の動作をオンにするという操作です。このプラグインは動作条件に当てはまる状態にあるかどうかを常に監視するために多少なりとも負荷がかかります。ので必要な時だけオンにする方が良いんじゃないかと思います。

タブを「General」にします。

赤枠の「Start」をクリックすれば起動します。すぐ上の「Inactive」が「Active」になっていれば起動中ということです。その下の項目で起動の自動制御ができます。

On startup of OBS: OBSの起動時

Automaticaly start the scene swither when: 録画や配信を開始した時

また先のホットキー設定画面でON、OFF、ON/OFF切り替えのショートカットを割り当てて手動操作することもできます。

個人的には録画や配信を開始した時に一緒にスタートするようにしておくのが無難な気がします。

■まとめ

ということで、かなりニッチなニーズだと思いますが、OBS Studioで「画面を一瞬真っ黒にして戻す」を1操作で実行する設定を解説しました。

動画眼で自動認識するのに、画面全体が真っ黒になるのをキーにするか、いやそれだと見ている人がびっくりしちゃうので、例えば画面の片隅だけちょこっと黒くなるのを探させるか、なども思案中ですが、仮に「画面の片隅だけ黒い」状態を作ろうと思えばそういうシーンを作るだけなので応用は効くかなと思います。ただ元々複数シーンを使い分ける実査の場合、それぞれのシーンに対して隅が黒いバージョンを用意するのは管理上、手間が大きいかなと思っていて、とりあえずは画面全体を黒いことを条件にする形で実装を進めていく可能性が大です。ATEM MiniでもFTBを使う方が簡単ですし。

ATEM Miniで自動復帰をするにはマクロを使えば良さそうですが、ハード的にマクロキーがあるのはExtremeシリーズだけなのが悩ましいかもですね。

動画眼の次期アップデートについて

Pocket

今月中にリリースを目論んでいる動画眼3の新機能について解説します。

動画眼は動画ファイルに対して頭出し用のチャプターを打ってUTやインタビューの見返しを楽にするツールです。チャプター情報はシンプルなフォーマットのテキストデータで生成するのですが、これを別のツール、別の時間で作っても良いぞということで、UT/インタビューの実査中にリアルタイムでチャプター打ちするツールが動画眼マーカーです。

チャプター情報をもつ.dggn.txtファイルは動画の先頭を0分0秒基点としてそこからの経過秒数で管理されています。中身をテキストエディタで見ると、

のようなタブ区切り形式で、1項目がチャプターの位置を示す秒数、2項目がメモ、3項目は話者を示す1桁の数値となります。

さて、これを動画眼マーカーでリアルタイムに作るには、動画の録画開始(0秒点)と同期してタイマーをスタートさせる必要がありました。これが慌ただしい実査現場では負担になってしまったり、うっかりブラウザを終了させてしまったり、録画システム(OBS Studioやクラウド会議ツールの録画機能)側が止まってカウンターがリセットされたりといったトラブルにも弱いということがあります。

そこで新バージョンでは「動画眼マーカー側では一旦時刻をベースにしたタイムスタンプでデータを作り、動画眼3に読み込む時点でその動画の録画スタート時刻を引き算して同期する」というアプローチを取り入れてみました。

例えばセッションが朝10時に開始されたとすると、

みたいなログになります。PCの内部時計を参照するので記録開始時に特別な操作は不要になります。

そして事後に動画眼3で動画ファイルとこのログファイルを読み込んだ時に、動画の正確な録画開始時刻(ここでは10時00分00秒とします)を引き算して、

とする仕掛けです。セッションの開始時間は予定より早まったり遅れたりしがちですし、必ずしもそのタイミングで録画開始するとは限りません。必要なのはあくまで録画をスタートした時刻です。その正確な録画開始時刻を機械的に知る方法は3つくらいあるかなと考えています。

  1. 動画ファイルの生成時刻
  2. 動画ファイルのファイル名
  3. 動画内にタイムスタンプを合成しておく

1.はmacOSでもWindowsでもファイルのメタ情報として自動的に記録されます。2.は録画に使うツールによりますが例えばOBS Studioなら標準設定でファイル名に月日時分秒が入るようになっています。これら2つは特に意識しなくても取得できる可能性が高いので次期動画眼3もこれらを反映させるボタンを実装しています。3.については少し準備が必要ですが、これまたOBS Studioでいえば、こちらの記事を参考にしていただくなどして動画の片隅に時刻を入れておき、あとで先頭フレームに映る時分秒を読み取って同期ダイアログに打ち込んでいただく形が考えられます。

単純に映像に時計を映しこんで置くだけでもいいかも知れません。

いずれにせよ、録画側(映し込む時計を含む)と動画眼マーカーを使うPCとで時計が一致していることが望ましいので、PCのNTP(時刻合わせ)サーバーをしっかり設定しておく、電波時計を使うなど時計合わせは気を遣うに越したことはないしょう。

というわけで、

  • 動画眼マーカーで時刻ベースのログを出力できるようにする
  • 時刻入りログを動画眼3で開いた時に、動画ファイルのメタデータなどを使って換算補正する

と両ツールの同時アップデートにて対応する計画です。

一応実装は完了していて動作チェックしている段階なので、3月中に出せればと思っています。

■その他の機能追加、バグフィクス

同時に長らく対応できずにいたバグ修正や機能追加も色々しています。

  • Premiere Proで書き出したcsv形式のマーカーのインポートに対応
  • 100分を越えるタイムコードが正しく表示できなかったのを修正
  • Premiere Proの書き起こしデータの新フォーマットに対応

是非お試しいただければと思います。

動画眼マーカーのスマホ最適化(v1.2)

Pocket

動画眼用のインデックス打ちを実査セッション中にリアルタイムで行うWebアプリ、動画眼マーカーを更新しました。

■V1.2の更新内容

スマホ用のシェアボタンを設置

これまでPCブラウザなら動画眼で直接読み込める.dggn.txtファイルに保存できましたが、スマホではそれができずやむを得ずコピーボタンでクリップボードの格納になっていました。別途なにがしかのアプリにペーストして保存や送信をする必要がありました。それがシェア(共有)ボタンになったことで、スマホにインストールしてある任意のメッセンジャーアプリ(SlackやLINE、Messengerなど)で送信できるようになり、ちょっぴり楽になると思います。私の周りの現場でも関係者Slackがあることが多く、セッション後すぐにSlackにアップできたら重宝しそうです。

iOS15 Safari向け最適化

iPhoneのEdgeでばかり検証していましたが、Safariだと要素が画面に収まらずスクロールが必要になっていたのを最適化しました。iOS15以降のSafariはアドレスバーが下側になり太さが動的にかわるので新しい調整が必要だったようです(height: 100dvhという新しい単位を使うといいらしい)。

またフォントや文字サイズをいじって視認性を向上させました。

再読込時の最新CSS適用

いわゆるキャッシュバスターを仕込み、常に最新のCSS(レイアウト設定)が読み込まれるようにしました。これはどちらかというと自分のように開発作業で繰り返し読み込む時くらいしか影響しないかもですが一応。

■動画眼マーカーのURLルール

動画眼マーカーはWebアプリなのでURLで簡単にバージョン切り替えができるようにしておきます。もし最新バージョンで不具合があれば以下のルールで古いバージョンをご利用ください。

/marker/に続けてバージョンナンバーを入れれば当該バージョン、なにも指定しなければ最新版、というルールです。

■今後のアップデート予定

本ツールのキモとなるタイムスタンプ同期をテコ入れしようと思っています。現在の手動同期(「せぇの」で合わせ)に加え、OBS StudioやATEM MINIなどのAPIからタイムコードを取得して同期する実装を考えていたんですが、もう少しシンプルに、時刻を使った方法にしてみようかなと。マーカー上では、「現在時刻 メモ 話者コード」のような形式で記録します。

録画ファイル側でどうやって正確な時刻を取得するかですが、

  • ファイルの生成時刻
  • ファイル名
  • 手動入力

辺りから選べるようにしようと思います。例えばOBS Studioの場合、デフォルトではファイル名に時分秒が入るのでそれを自動識別するようにします。(クラッシュ時のデータ保存のため)mkvで録って後からmp4に再多重化する運用の場合、mp4のファイル生成時刻は再多重化時点のものになってしまいます。運用によってファイル名かファイル生成時刻のどちらかを保全するようにします。あるいはOBSであればタイムスタンプを映像に合成しておくのも良いでしょう。これで再生開始時刻を見て手打ちできるようにしておきます。

言葉でみるとちょっと手間にも思えますが、できるだけ動画眼3側で自動化を試みるので、実査開始時に同期を気にする必要がなるメリットの方が多きかなと現時点ではイメージしています。もちろん従来の方法も残すようにします。

OBS StudioやATEM MINIの同期は同一PCや同一ネットワークで使う場合には確実、便利そうですが、自分の関わる現場だとリモートで見学している人がマーカー入力をする場合が圧倒的に多いのであまり活躍の場がないのが実情でちょっと優先順位を落とそうと思います。

リアルタイムクロックを使う場合、各PCの時計がきっちりあっていることが必須ですが、今時インターネットにつながっていればデフォルトでMicrosoftやAppleのNTPサーバーが使われてるでしょうし問題ないかなと。またリモートの場合、タイムラグが気になりますがたぶん多くの実務ではYoutube Liveなどの配信プラットフォームよりもラグが出にくいZoomやTeams、Meetといったオンライン会議サービスを使うことが多いと思うので、そう何秒もズレることは考えにくいかなと思っています。一応動画眼3インポート時にオフセット秒数を指定できるようにしてもいいかなと思っています。

なんとか夏休みの宿題ということで着手したいと思ってますが、動画眼マーカーと動画眼3の両方を更新しないとなので、ちょっとお待たせするかも知れません。

HCDライブラリ 7巻「人間中心設計における評価」が発売されます!

Pocket

近代科学社よりHCDライブラリシリーズの7巻として「人間中心設計における評価」が2019年4月25日に発売されます。ギリ平成に間に合いました(笑)。

人間中心設計における評価 (HCDライブラリー)

人間中心設計における評価 (HCDライブラリー)

黒須 正明, 樽本 徹也, 奥泉 直子, 古田 一義, 佐藤 純
3,960円(02/27 20:16時点)
Amazonの情報を掲載しています

著者は黒須先生、樽本徹也さん、奥泉直子さん、佐藤純さん、そして私となります。奥泉さんと私は以前マイナビから出させていただいた「マーケティング/商品企画のための ユーザーインタビューの教科書」に引き続き、「なるべくすぐ現場で使えるノウハウ伝授」を念頭に日々現場で使っているテクニックや注意点などを盛れる限り盛ったつもりです。加えて「やっぱ実例がないとイメージしにくいよね」ってことで、今回はなんと有志の方に模擬ユーザテストを行っていただき、その過程と作成した資料(スクリーニングアンケート、進行シート、報告書など)を掲載するというトライアルをしてみました(有志の皆さん、そしてプロダクトをご提供いただいたDMM様、この場を借りてお礼申しあげます)。解説を読んだあとに実際の事例をみて、「あー、実際のUTってこんな感じなのかー」とか「これなら自分達でもできそう!」って感じてもらえるといいなと思います(とはいってもUTに絶対の正解はありませんので、その時々のリサーチゴールにあわせて色々なスタイルにトライしてくださいませ)。

もちろん実践寄りの事例としてだけでなく、樽本さんがあちこちにインタビューしてまとめてくれた内外のユーザビリティ評価の歴史や黒須先生によるさまざまな評価手法の紹介や評価の意義(上司を説得するのに大切ですね!)、そして佐藤さんのアクセシビリティ方面のまとめなど、実践テキスト以外の情報もバランス良く盛り込まれている一冊に仕上がったかと思います(主に他の著者陣の皆さんのおかげで)。是非手に取っていただけたらと思います。

↓こちらは前著になります。

マーケティング/商品企画のための ユーザーインタビューの教科書 (プレミアムブックス版)

マーケティング/商品企画のための ユーザーインタビューの教科書 (プレミアムブックス版)

奥泉 直子, 山崎 真湖人, 三澤 直加, 古田 一義, 伊藤 英明
Amazonの情報を掲載しています

憧れのアイトラッカーが2.5万円で!steelsseries SENTRY GAMING EYE TRACKERレビュー

Pocket


■長い前振り〜アイトラッカーとは?(読み飛ばし可)

ユーザビリティ業界やWeb界隈にいれば、アイトラッカー/アイマークレコーダーについて一度は耳にしたことがあると思います。文字通り視線をセンシングしてモニタのどこを見ているかを判別するデバイスです。心理学レベルでいえば、視線が向いていることと“見て”いることとはまた別なんですが、まぁそれでも「ここのボタンは一瞬たりとも視線が向いてないな」的なことはユーザーテストで調べられるので、UI評価手法として一定の認知度はあります。ただあんまり一般的でない理由として装置がお高い、というのがありました。老舗Tobiiの製品なんかはシステム一式でン百万するんですよね。そのくせソフトが専門的でちょっと難しかったり、なにより出てくるデータの扱いが難しい。視線の座標ログが生で出てきてもHuman Readableではないので、ヒートマップと言われる画面写真に視線対流位置を可視化した映像を出力してくれたりはするんですが、じゃぁそれをどう扱ったらいいか悩ましい。先に書いたように「ここのボタンは一瞬たりとも視線が向いてないな」は見ていて言えるんだけれども、じゃぁ何秒滞留してればいいんだとかあまり根拠のある定量化が難しい。専門でやってる方に言わせればなにかしらの指標があるかも知れませんが、個人的には冒頭に書いたように究極的には身体レベルの視線と認知レベルの注意の相関ってそんなには高くないと思うので、やっぱり「ふーん」位の納得感しか得られないんじゃないかと。そして、この「ふーん」という微妙な納得感にン百万とかなかなか出せないのが実情でした。また、ユーザ毎にキャリブレーションという初期設定作業が必要で、貴重なセッション時間が数分消費されるというデメリットもあります。

σ(^^)も長いユーザビリティ屋人生の中で、アイトラッカーを使った評価は2,3度しか経験がありません。クライアントが持ち込んだ機材を使ってデータはとったけど、あとはクライアントが持ち帰ってゴニョゴニョした、とか、それこそ「ふーん」で終わったもののみです。

ただじゃぁ被験者に「ここのボタン見てました?」って聞くのもビミョーで、見てなかったけど見たって言っちゃったりその逆もあったりと精度に限界があります。これは被験者が故意にウソをつくってことではなく、ヒトの記憶の精度の限界というか、人間はそういうことを正確に思い出して言葉にすることがそもそもあんまり得意じゃないということが心理学的にわかっています。「一昨日のお昼ご飯のメニューを思い出すまでの過程をあまさず説明してください」と言われても難しいですよね。無意識でやってることを言葉で説明するのは大変だし、仮にできてるつもりでも結構あやふやで不正確である、ということを示す心理学研究はたくさんあります。

あとはまぁ、「見てたか否か」のクローズドな再認課題ではなく、「ここになにがあったか」をオープンな再生課題として聞くという手もあります。以前、事後アスキングで肝心な部分にボカしを入れた画面写真を見せて、なにがあったか/なんて書いてあったか、を問うという手法を考案したことがありました。アイトラッカーよりもう少し認知レベルに踏み込んで、理解や記憶も込みで測定できる点が優れていると思います。

poormanseyemark

ただいつ聞くのかが悩ましいですね。一度聞いたら次から「あ、そういうこと後でテストされるのね。次から意識して憶えとこう」と警戒されてしまうかも知れません。

さてまぁ色々なやり方にそれぞれ一長一短あるわけですが、ともかくアイトラッカーは長年コスパが大きな障壁でした。そこに颯爽と登場したのが今回ご紹介するSteelSeries社のSENTRY GAMING EYE TRACKERというわけです。

■製品概要

サムネイル写真みてもなんだこりゃって感じですが、ありもののモニター下部に貼り付けて使うUSB接続のアイトラッカーデバイスです。SteelSeriesは知る人ぞ知るゲーミングデバイスの海外ブランドです。ガチゲーマー/eスポーツ向けのマウスとかマウスパッドとかマニアックな製品を作っています。そこが入力デバイスの1つとして発売したのが本製品です。ゲーム用品と聞くとオモチャ的な響きがありますが、競技ゲームはミリ秒のレスポンスを競う世界で、マウスにCPU搭載してたり、摩擦抵抗を究極まで減らしたマウスパッドとか、BUFFAL○やサンワ○プライとは次元が違うもの作りをしている界隈です。そんなブランドが出した製品なので、なんとセンシングエンジンやドライバーはあの老舗Tobiiが担当しています。というかたぶんTobii自身が開発社向けに販売していたTobii EyeX ControllerのOEM品にゲーム用ソフトをバンドルしたものでしょう。EyeXはGoogle Glassなどと同じ開発者向けという位置づけでついぞ一般向け販売はされていなかったと記憶しています。その同等品がいつのまにやら日本のAmazonでも気軽に買えるようになっていた、ということで、これはレビューせねばと脊椎反射的に購入してしまいました。

原理的にはKinnectとほぼ同じです。アレの焦点距離が短くなった感じでしょうか。ハードウェアとしてはWindows向けで、USB3.0とCore i5程度の処理性能が必要とされています。逆にいうとそれを満たしていればノートPCでもOKということですね。対応モニタサイズは27インチまでとされています。

ただしソフトウェアは基本ゲーマー向けのもので、即ユーザテストに使えるヒートマップツールが付属しているわけではないので注意が必要です。標準のTobiiドライバーで視線位置を画面上に表示はできますが、それだとユーザテストでは被験者自身にも見えてしまい違和感ありまくりです。こっそり録画または配信する画面にだけ合成するには適切なソフトと組み合わせる必要があります。その辺りは後述。

現在Amazon.co.jpの価格は2.5万円ほど。本家公式では€139.99に値下がりしているようなので、海外取引を厭わない人は個人輸入も有りかも知れません。

■ハード周り

背面はこんな感じ↓。中央の膨らんだ部分が斜めになっていて、この面でモニタ下部につきます。つまりレンズが顔を見上げる形になるわけです。実は最初なかなかσ(^^)の目を拾ってくれなかったんですが、モニタがデスクに垂直になっててカメラが顔を向いていませんでした。視線に対して液晶画面が垂直になるくらいにすると、このセンサーも顔の辺りを見てくれるようになるイメージです。

dsc01077

左右の濃い色の部分がマグネットで、付属の金属プレートをモニタ側に貼り付けておけば、簡単につけはずしができます。スリムとはいえ、更にスリムな最近のノートPCの狭額縁液晶では表示部分にかってしまうのは否めません。小さいスタンド穴らしきものが2つありますが規格は不明です。

こちら↓がその金属プレート。裏面に粘着テープ付き。2枚付属。あちこちで使うにはちと心許ないです。まぁいざとなれば両面テープとかでも問題ないと思います。

dsc01079

端子はなんとminiUSB↓(PSPとかPS3コントローラーで使うヤツ)。最近あまり手元にないことが多いですね。できればmicroUSB(AndroidやPS4コントローラーで使うヤツ)にしてほしかった。というかminiUSBでUSB3.0なケーブルなんて存在するんですかね。とりあえず付属ケーブルはかなり長い上に太くて曲がりにくくて扱いづらいです。そして市販品では2本ほど試した限りでは認識しませんでした。付属ケーブルはたぶん無理矢理USB3.0で認識するようカスタマイズされてるのかも知れません。

dsc01075

そして装着した状態ドン↓。机汚いってツッコミは無しで…

dsc01073

27インチまでとのことでしたが34インチ超ワイドでも一応キャリブレーションできました。ただし湾曲モニタなのでマグネット板のくっつきがいまいち。お手持ちのモニタの額縁下部の平滑さをチェックしておくと良いでしょう。たいていロゴバッチがついてるところです。このモニタも結構額縁細いのでちょっとはみ出してる(画面に食い込んでる)感あります。やはり前述のネジ穴を使ったスタンドなど欲しいところです。

ちなみにWindows10に搭載された生体認証基盤のWindows Helloに対応しており、普段は顔認証カメラとしても利用可能です。Windows Helloの顔認証は顔写真で不正アクセスされないよう、立体物としてデプス計測が行えるカメラが必須なので、普通のWebカメラではダメなんですよね。Windows10が出て1年余、ようやく試すことができました。

■とりあえずのサンプル動画

てことでとりあえずそれっぽい動画を作って見ました。先に書いた通り、録画や配信機能があるソフトが付属されていません。もちろんデータ解析なんかもできません。しかしフリーソフトでもとりあえずこんなことはできますよ、っていうサンプルとして、今回はOpen Broadcaster Software(以下OBS)Classicを使ってみました。詳しい手順やオススメ設定などはもう少し検証してから別途記事にしたいと思います。

OBSはこれまたゲーム配信用のビデオミキサー的なフリーソフトで、こいつからみると本機のドライバーが吐き出すマーカーが透明レイヤーとしてインポートできます。これを画面キャプチャと重ねて配信したり録画したりするわけです。配信はTwitchやYouTube Liveなどに送信したり、自前のRTSPサーバーを用意して使うこともできます。録画はmp4やflvなど配信でよく使う系のフォーマットが選べます。エンコーダーはソフトエンコーダーのx264に加え、Nvidia NVEncやIntel QSVのようなハードエンコダーが使えます。なので、最近めのGeForceやIntel Core系CPUを使っていればCPU性能が劣るノートPCなどでも比較的負荷を抑えて動かすことができるでしょう。フリーなのにスゴい!

お待ちかねの動画がこちら。自分で少しの間適当にWebをブラウジングしたものです。設定間違えてflvで録画したせいか画質がイマイチですが、ボリュームなどのUI部品を操作している時はちゃんとそこを見ていることになってたり、精度はまずまずじゃないでしょうか?一度画面外にバヒューンと飛び出していくのは、そこにある操作パネルを見てしまったからです。それ以外はちゃんと追えてる気がします。ほとんどしゃべってませんが、Windowsが出力する動画再生音と、マイクの音がミックスして録画できています(これって普通の画面録画ソフトでやろうとすると結構面倒くさかったりするんですよね)。

もちろんこれは操作者の画面には表示されていません。録画を開くと入ってるという感じなので、ユーザーテストの被験者にも見えてしまうなんてことはないです。

とりあえず、標準モノで完結はできないものの、追加費用なしでこんな映像は撮れますよ、というデモでした。OBSには最近ゼロから新規で開発されているOBS Studioというバージョンもあったりなので、そこら辺を追々検証していきたいと思います。また今回はCore i7/GeForce GTX1080級のデスクトップ機で試しましたが、より非力なノートPCでも動かしてみたいと思います。乞うご期待。

[宣伝] iOSアプリ「独りブレスト!発想会議」リリースされました

Pocket


3月からプログラミングを担当していたU’eyes Design製のiOS(iPhone)アプリ「独りブレスト!発想会議」がリリースされました。5月の某研究会でβ版を初お披露目した時に「(Apple絡みだけに)泳げる頃までには(ってこのネタわかるのオサーン)」なんて言ってましたがなんとか実現して良かったです。

ちなみに審査にかかった時間ですが、Appleからのメール着信時刻で言うと、

  • 11/06/20 17:05  Waiting for Review (審査待ち)
  • 11/06/22 22:05  In Review (審査中)
  • 11/06/23 12:44  Processing for App Store (AppStore向けに処理中)
  • 11/06/23 12:51  Ready for Sale (販売準備完了)

という感じで、三日程で通ってしまいました。しかも一発合格。初めてにしては上出来じゃないすか?

AppStoreの審査は、例えばテーブルビュ-(リスト画面)で下位階層に遷移してから上位階層に戻った時に、最初のフォーカスがじわっと消える効果が入ってないとリジェクトされる、とか細かいガイドライン準拠もチェックされると聞いていたので、あれこれ気をつけつつもかなり不安だったんですが、ホント一安心です。

■アプリ紹介

せっかくなので公開したアプリの紹介も。

端的にいうと、商品企画などで新商品、新サービスの企画アイデアを生み出す為の支援ツールで、新しい発想を採り入れたいテーマ(下の写真の例では「扇風機」)を設定すると、1枚目の写真のように発想のトリガとなるキーワードが付箋紙として表示されます(写真1枚目)。このキーワードが全部で117種類あって、スワイプで次々めくったり、下部の「101」と出ている吹き出しをドラッグして好きなものを出したり、あるいは左下のシャッフルボタンでランダムに表示したりできます。

テーマに対して何か閃きをくれそうなキーワードに出会ったらタップして赤丸をつけます(写真2枚目)。「“自然の美しさを持つ”扇風機ねぇ…そうか!例えば花びら型とか?」なんて閃いたらミニ付箋にメモを書き込んでおくこともできます。

このアプリでは赤丸をつけることを「クリップ」と呼んでいて、トップ画面から「クリップリスト」を開いてテーマを選択すると赤丸をつけた付箋とそのメモ内容を一覧したり、メモの編集を行ったりすることもできます(写真3枚目)。またこのデータはExcel等で読み込みやすいCSV(カンマ区切りテキスト)形式にして、メールで送信したり、iTunesから取り出したりできます。CSV形式でクリップボードにコピーすることもできるので、Evernote等に貼り付けても良し、です。

 

mzl.eirkhwti.320x480-75mzl.qqnnybor.320x480-75mzl.gmguttdg.320x480-75

 

で、ここで使われている117の発想刺激ワードというのが、単に思いつきで書き殴ったものではなく、U’eyes Designのリサーチに基づいたものであることがこのアプリの価値となっています。簡単にいうと、「あなたが最近感動したものは?」というアンケート調査をして、その回答(感動シチュエーション)を分析して抽出された、いわば感動エッセンスとでも言うべきワード集なんです。これをU’eyes DesignではXB法(クロスビーと発音)としてチームで発想会議をする手法として導入しセミナー等を行ってきました。これをスマートフォン向けアプリとしてスピンアウトし、一人でも実践できるようにしたのがこの「独りブレスト!発想会議」というワケです。「独りなのにブレスト?会議?」というツッコミ待ちのネーミングが秀逸ですよね(σ(^^)の発案ではないので自画自賛ではない)。

商品企画に携わっていない人でも、家族や友人へのプレゼント選びのような「感動」させたい発想の支援に幅広く利用できると思います。お値段230円!プライベートでもご利用いただきやすいお手頃価格となっております。是非お試しあれ!

2011.07.14追記:

2011.07.12頃、ついにビジネス有料ランキングで1位を獲りました!ありがとうございます。

あとYouTubeに解説動画がアップされました。動いている様子をご覧いただけます!

 

独りブレスト!発想会議 - U'eyes Design Inc.

動画眼Note 0.9d

Pocket



動画眼Note
 またまた動画眼Noteを更新しました。いくつかの機能アップ、ユーザビリティ改善を施し、それに合わせて操作フローを変更した0.9cと、稀にタイムコードがマイナス値になってしまうバグを修正した0.9dです。
 詳細の更新履歴は上記リンクからどうぞ。

PukiWikiにフロントエンドが登場?

Pocket



Wikiの今後はCGIからホスティングへ、WYSIWYGの編集も可能に?
 以前、「WikiにGUIフロントエンドがあったら」というエントリを書きましたが、どうやら愛用のPukiWikiでJavaによるWYSIWYGエディタと専用ブラウザの開発が進行しているようですね。これはウレシイですね。