G-Tune、Oculus RiftやHTC Viveが動くVR Ready PCを発売。デスクトップとノートの3機種 | MoguraVR

マウスコンピューターは、ゲーミングブランド「G-Tune」より、VR向けゲーミングパソコン「OcuFes監修PC」を発売することを発表しました。 オキュフェス監修のVRイベント展示も考慮されたPC 今回発表されたのは、デスクトップPC「LITTLEGEAR LITTLEGEAR LITTLEGEAR シリーズ」とノートPC「NEXTGEAR NEXTGEAR NEXTGEAR-NOTE i71000 シリーズ」の2つ。価格は、デスクトップの「LITTLEGEAR シリーズ」が114,000円(税別)から、ノートPCの「NEXTGEAR NEXTGEAR-NOTEi71000 シリーズ」が284,800円(税別)となります。 上記の2つのPCは、これまでに多くのVR体験会・展示会を開催してきたVR開発者団体「NPO法人オキュフェス」が監修して開発された製品です。持ち運びや設置に適したサイズやUSB3.0ポートを4つ確保するなど、イベント展示での活用や今後のVRコントローラーの対応などが考慮された仕様も特徴です。 もちろん、Oculus RiftやHTC ViveなどのVRヘッドマウントディスプレイの推奨動作スペックを満たしており、「VR向けにどのようなPCを導入すれば良いのかが分からない」といった初心者の方にもお勧めできるシリーズとなっています。 ・スペック・価格の概要 LITTLEGEAR i310GA3-VR LITTLEGEAR i310PA4-VRF NEXTGEARNOTE i71000BA2-VRF CPU インテル® Core™ i5-6600プロセッサー インテル® Core™ i7-6700プロセッサー インテル® Core™ i7-6700プロセッサー グラフィックス GeForce® GTX™ 970(4GB) GeForce® GTX™ 980(4GB) GeForce® GTX™ 980(8GB) メモリ 8GB DDR3L PC3-12800 16GB DDR3L PC3-12800デュアルチャネル 16GB DDR4 PC4-17000デュアルチャネル 価格 114,800円(税別) 159,800円(税別) 284,800円(税別)

Source: G-Tune、Oculus RiftやHTC Viveが動くVR Ready PCを発売。デスクトップとノートの3機種 | MoguraVR

WorldVisによる50m×50mのトラッキングシステム、UnityとUE4に対応して発売 | MoguraVR

アメリカの企業WorkdVisは2016年6月に、同社の開発する倉庫スケールのトラッキングシステム(PPTシステム)を、UnityとUnreal Engine4に対応させてリリースすることを発表しました。これらのゲームエンジンにで開発できるVRデバイスでPPTシステムを使えば、50m×50m程度の範囲での広範囲なトラッキングが可能となります。価格は1万5千ドルからです。 https://www.youtube.com/watch?v=U_Jwk1698pQ Precision Position Tracking(PPT)システム WorldVisは1990年代からVR技術の研究・開発を行ってきた会社です。PPTシステムは、彼らが長年開発をしてきたシステムで、以下のような特徴があります。 ・50m×50mという倉庫規模のトラッキング範囲 ・最大10人(個)同時にトラッキング可能 ・毎秒240回の位置測定を行うカメラで、数ミリメートル単位の正確なトラッキング ・軽くてどこにでもつかられる位置センサー(写真内の白い球体) ・軽くて使いやすい、専用のハンドトラッキングコントローラー 今回の発表はこのPPTシステムを、Unity 5とUnreal Engine 4上で使用できるようにするというもの。UnityやUnreal Engineは、VRコンテンツの開発において頻繁に用いられるゲームエンジンです。 PPTシステムはこの発表を持って、1万5千ドル(およそ150万円)から販売を開始。カメラやセンサーの数に応じて価格は変わるとのこと。UnityとUnreal Engineへの対応は、来月6月末までにリリース予定です。(WorldVis公式サイト内PPTのページ) https://vimeo.com/136629360 (PPTを用いて、広い部屋を歩き回っている) より広範囲を精確に動きまわることを可能にするVR向けのシステムはOptitrakや無限回廊など様々なものが登場しています。その範囲と正確さ、価格がデバイスによりかなり異なるため、それぞれしっかりと見極めたいところです。 (参考) WorldViz Brings “Warehouse-Scale” Motion Tracking to an Array of VR Headsets via New Unreal

Source: WorldVisによる50m×50mのトラッキングシステム、UnityとUE4に対応して発売 | MoguraVR

Lightface

「Lightface(ライトフェイス)」は光のカンバスです。クリエイターが創造力を自由に遊ばせ、美しさを追求できます。縁がなく、11ミリの薄さ。自然光に近い光です。発光面にはムラがありません。

Source: Lightface

Facebook、VR音響技術開発を行う「Two Big Ears」を買収し、3Dオーディオツールを無料で提供 | MoguraVR

今月23日、Facebook社はVR音響技術の開発を行う英企業「Two Big Ears」を買収し、VRコンテンツ用の空間オーディオ設計ツール「Facebook 360 Spatial Workstation」を無料で提供することを明らかにしました。 Facebook360 – Official page: https://facebook360.fb.com/spatial-workstation/ Facebook 360 Spatial Workstation Two Big EarsはVRコンテンツ用の空間オーディオを設計するためのソフトウェア「3Dception Spatial Workstation」を開発する企業です。今回、同社とFacebookのOculusチームが統合されたことにより「Facebook 360 Spatial Workstation」へとブランド名が変更され、無償で提供されることになりました。 Facebook 360 Spatial Workstationには360度オーディオのためのエンコーダ、レンダリングエンジンおよびオーサリングツールなどが含まれています。そのためVRに対応するゲームや映画において、ユーザー自身の位置情報に基づきコンテンツ内の環境音や効果音をリアルタイムで適合させることで、より没入感のあるオーディオ体験を実現します。 なお、Two Big Earsの開発するゲーム向けのリアルタイム・3Dオーディオ環境モデリングエンジン「3Dception for Games」は提供が終了し、Proを利用するユーザーのサポートは12ヶ月間継続します。今後はTwo Big Earsのもつ技術をOculusの提供するAudio SDKに統合させていくとのこと。 最高のVR音響技術体験の実現を目指す この技術に携わるチームは、「私たちのミッションは全てのデバイスとプラットフォームにおいて、クリエイター達が世界中の人々に最高のVRオーディオ体験を提供するための支援を行うことだ」と述べており、360度音響技術への関心の高さが伺えます。 ちなみに、同ソフトウェアは公式ホームページより無料でダウンロードすることができます。現在はMacのOSX 10.7以降に対応しており、近い将来にWindows向けのサポートも開始する予定のようです。

Source: Facebook、VR音響技術開発を行う「Two Big Ears」を買収し、3Dオーディオツールを無料で提供 | MoguraVR

日本人が開発!まるで“浮いているような”透明ディスプレイが目を引くスピーカー | Techable(テッカブル)

“禅”とテクノロジーとの出会いを謳う、「Gravity」というBluetoothスピーカーは、目を引くスマートなデザインでとってもオシャレ。透明のディスプレイ部分によって、本体が中空に浮いているように見える。 左右非対称

Source: 日本人が開発!まるで“浮いているような”透明ディスプレイが目を引くスピーカー | Techable(テッカブル)

LGエレクトロニクス、近距離から60~100インチのフルHD映像を投影できる超単焦点プロジェクター「PF1000UG」を発売|ビデオSALON.Web

映像制作のための情報マガジン

Source: LGエレクトロニクス、近距離から60~100インチのフルHD映像を投影できる超単焦点プロジェクター「PF1000UG」を発売|ビデオSALON.Web

歴史的舞台作品の『照明』をVRで再現、鍵を握るのは『パックマン』?

歴史的舞台作品の『照明』をVRで再現、鍵を握るのは『パックマン』?

http://sign.jp/dae949ed

歴史的な舞台作品の『照明』を復刻するプロジェクトが始まった。一時のもので終わる舞台作品の照明デザインをいかに保存するか。また、過去の作品の照明デザインを、3DやVRなどの最新技術によっていかに再現するか……。その長い模索 […]

via sign http://sign.jp

April 27, 2016 at 03:47PM

GPUでボロノイ図を描画する : WebGLを用いてスムーズに描画できる高速アルゴリズム

GPUでボロノイ図を描画する : WebGLを用いてスムーズに描画できる高速アルゴリズム

http://postd.cc/voronoi-diagrams/

注:このページのデモはWebGL機能を使っているためモバイル機器では機能しないことがあります。きちんと表示させるためにはデスクトップコンピュータ上で記事を読むことをお勧めします。


ボロノイ図とはなんでしょうか。下記のデモを見ていただければお分かりになると思います。左のキャンバスをクリックすると、色付きの「母点」が植え付けられます。右のキャンバスでは、各ピクセルが一番近い点の色に着色されます。ドラッグすればより多くの点を配置できます。

デモ#2:左のキャンバスには動いている点が複数あります。右のキャンバスには対応するボロノイ図が表示されています。どちらのキャンバスでも構いませんから、マウスオーバして黄色い点を動かしてみてください。水の中を泳いでいる黄色い魚をイメージしました。

もう1つ面白いデモを用意しました。左のキャンバスには、写真の上に放射状のパターンで母点を重ねています。各母点は下層にある画像のピクセルの色が反映されています。円をドラッグすると母点が動き、四角をドラッグすると回転できます。(編注:本記事上では動作しないため、元記事で動作をお試しください)

photo

どのように機能するのか?

ボロノイ図の演算にはいくつか有名なアルゴリズムがあります。上記のデモを構築するのに用いた手法について説明します(コードはここです)。この手法は『GPUとアプリケーションを用いたJump Floodingによるボロノイ図と距離変換』という論文に基づいています。これをJFAと呼びましょう。Jump Floodingアルゴリズムの短縮形です。

JFAへの入力となるのは(上記のデモのような)空白の背景と色の付いたいくつかの母点です。ステップ長をkとして、画像上での反復処理を循環します。毎回、各ピクセル(i, j)を反復処理し、周囲8ピクセルを調べます。調査する8ピクセルは直接の近接ではなく、その回のステップ長によります。kというステップ長なら、下記の図表に表されたようなパターンで近くのピクセルを探します。

ステップ長が1なら、すぐ隣の近接を探します。ステップ長が10なら、四方向とその間の方向の10ピクセルを探します。

各ピクセルは、それまでに見つけた一番近い母点の色だけでなく位置を覚えています。ピクセルを処理する時、そのピクセルが覚えている母点(もしあれば)の位置と、訪問した各ピクセルとを比べます。より近い母点を見つけた場合、代わりにそちらを覚えます。

ピクセルは、母点に到達しなくても母点のことを知ることが可能です。ただ、その母点に到達した別のピクセルに到達すればいいのです。または、そこに到達したピクセルに到達したピクセルに到達する、などでも大丈夫です。

最初の回のJFAはステップ長がN/2で、Nはグリッドのサイズです。次のステップ長はN/4、更にその次はN/8、などと、N/kが1になるまで続きます。全部でlog(N)回行います。次のインタラクティブなデモでは、各回でグリッドに沿ってJFAが移動するパターンを見ることができます。各ステップでは、処理中のグリッドセルと、母点を探して到達したそれの周りの8つのセルを表示しています。スライダを使って回数を変えてみてください。

要約すると、JFAは次のように機能します。グリッドログ内の全てのピクセルをN回通るとします。最初、現時点のピクセルから8ピクセル「近接」、約N/2ピクセル離れた母点を探します。次の回では、N/4ピクセル離れた近接の母点を探すといったように続きます。各ピクセルはそれまでで一番近くにある母点を保持し、アルゴリズムの過程で情報はグリッド内の他のセルへと伝えられます。

場合によっては、JFAに入力した母点セットを与えると微妙に誤った結果を生成することがあります。しかしここでは、これについて深入りはしません(論文のセクション5と6でこれについて説明しています)。これに触れた理由はアルゴリズムが正しくないことが分かっても気を悪くしないためです。アルゴリズムは正しいとは限りません。しかし、多くの場合は、このページのデモのように正しく動きます。

毎回終了した時のJFAグリッドがどうのようになるか見るのはとても面白いと思います。次のデモはこのページの一番上のデモと同じですが、JFAの回数の最大値を設定できるスライダがあります。例えば、5に設定すると、JFAの演算は5回で終了し、結果を2つ目のキャンバスで表示します。母点をいくつか追加してスライダを0からゆっくりと上げてみてJFAがどうなるか確認してください。個人的には、ボロノイ図に近づいている最後の2回の工程を見るのが面白いと感じています。

距離場

JFAはピクセルごとに次のことを教えてくれます。一番近い母点の色(上のボロノイ図のために使ったように)と一番近い母点の場所です。一番近い母点の場所をどのように教えてくれるのかデモするため、上で使った「魚」のデモと同じものをベースに、母点の近さに応じてピクセルに色を付けていきます。色の薄いピクセルが母点に一番近く、色の濃いピクセルは遠いことを示します。

これを使って2DのドロップシャドウをGPUでレンダリングするアイデアをくれたのはEvan Wallaceでした。CSSでドロップシャドウをレンダリングする難しい点は、’spread'(広がり)という値があるからです。これが大きいほど影がフェードアウトするまで時間がかかります。つまり、形状をぼかして影を落とすことではドロップシャドウを実装することができないのです。

では、どのようにすればいいのか。影を落としたい形をレンダリングし(次の例では「Voronoi(ボロノイ)」というテキストを使っています)、レンダリングされた各ピクセルがJFAの母点として扱われます。そしてJFAを実行すると、画像内のピクセルから図形の中のピクセルまでの距離が出ます。これが広がりを持つドロップシャドウをレンダリングするのに必要なのです。図形に近いピクセルは影になり、遠いピクセルは影になりません。

上のテキストをキャンバス上でドラッグするとドロップシャドウを動かすことができます。また、スライダを使えば影の広がりやぼかしを変えることができます。

では、一体GPUはどこにあるのか?

JFAは母点の数が増えても遅くなることなく、「一定の速度」で実行されます。しかし、速い理由の説明にはなっていません。JFAを512×512ピクセルの画像で実行する(例えば、隣に母点があるか確認をする)とそれぞれのピクセルを200万回以上処理します。しかし、これをただJavaScriptで実装しても、インタラクティブなデモの毎フレームで実行される計算が遅すぎてしまいます。

JFAが効率的になる理由は、GPUでの実行に実によく適しているからです。200万もの計算は並行して実行されます。まだWebGLを使い始めたばかりなので、機能を深く理解しているとは言えません。さらに勉強して補足の記事を書くかもしれません。それまで、気になる人は、このChris Wellonsの記事を参考にするといいでしょう。GPUでJohn Horton Conway考案のライフゲームを作成する方法を読みやすく詳細に説明しています。同じような問題を取り上げていますので、この記事が理解できれば、なぜJFAが速いのかも理解できるはずです。

記事をここまで読んでくれてありがとうございます。お礼にデモを追加しました。1つ目のキャンバスは点のグリッドを2つ表示しています。グリッドの1つは右下へと移動しています。2つ目のキャンバスは対応するボロノイ図を表示しています。どちらのキャンバスもキャンバス上でドラッグするとグリッドの動きを制御できます。

グラフック処理を考えるのが好きな人へ。Figmaでは、グラフィックデザイン用の協調ツールの作成に参加してくれるクリエイティブな人材を募集しています。

via POSTD http://postd.cc

April 28, 2016 at 12:36PM

京都・岡崎で音楽フェス開催へ 天体データとオーケストラのコラボも

京都・岡崎で音楽フェス開催へ 天体データとオーケストラのコラボも

http://ift.tt/1TRw6qj

ロームシアター京都(京都市左京区岡崎最勝寺町)で4月21日、複合イベント「OKAZAKILOOPS」の制作発表が行われた。

via 烏丸経済新聞 http://karasuma.keizai.biz/

May 10, 2016 at 06:06PM