iOS11のARkitでデモアプリ作成

【デモ動画】

実際に私も使ってみましたが、結構これ使えますね!リアルなモデリングデータの方がよりリアルなイメージが沸くとは思いますが、UNTYのフリーアセットのシンプルなデータでも結構使えると思います。実用ベースでインテリアの配置を考えたい人には、これで十分ではないかと思います。UIは突貫で作ったので改善する予定です。

AR(拡張現実)と思ってましたが、これはまさに現実空間と非現実モデリングデータを組み合わせる複合現実MR(Mixed Realty)なのではないかなあと思いました。スマホによってこのようなアプリは、身近で簡単、手軽に当たり前のツールになってくると思いました。

ARkitをクライアントに説明しないといけないので自分でも調べてみました。

①ポジショントラッキング

現実空間(3D空間)で、カメラとセンサ情報を元にiOS端末の位置と向きを取得。
②平面検出

カメラにより、机や床などの平面を3D空間上の平面を取得。垂直面は取得できない。複数の平面を認識し、同一平面と推定されるものは自動的に結合。

 

③ポイントクラウド(3次元の点座標情報)取得

現実空間内に存在する物体について、点単位で3D空間上の座標を取得。
カメラで取得するのでノイズが混じり、精度はGoogle Tango等の深度センサ計測に決定的に及ばない。

④周囲の明るさ推定

これもカメラを使い、周囲の明るさを数値として取得。

⑤その他

3D空間と現実空間のスケールが一致しているので、床との距離や机の長さを測定。

ARKitが使っているカメラの画像をテクスチャとして利用可能。

なるほど、なるほど

appleのWWDC2017のARkitの紹介動画
https://developer.apple.com/videos/play/wwdc2017/602/

アイデア次第でいろんなことができそうですね。
(まだ思いつかないけど。。。)

今回このアプリができて思ったこと
・意外とうちのエンジニアは簡単にこれができちゃう。リアルな映像関連の方が日本とベトナムでの意思疎通が楽かも(ベトナムオフショア開発にあっている)。

・3Dモデリングのニーズはさらに高まるので、ONETECHもそこを強化しよう。

・人間の目に映っているものや脳に焼き付いている映像は、深度センサとカメラと3Dモデルの組み合わせでバーチャルで再現できてしまう。スマホでそれがすでにコモディティ化した。

・今までできないと思っていた未知な領域なので先入観が邪魔をしてなかなか面白いアイデアが出てこないけど、何か新しいアイデアを創造したい。そのためには、どんどん新しいことにチャレンジをする。創造→経験(刺激)→組み合わせ→創造という高速サイクルを作っていきたい。

なんてことを考えていたら、早速昨日、ベトナムサイドからこんなアプリを作りたいという企画書が送られてきました!(嬉)
ゴーサインだしたけど、多分すでに着手してるんだろうな。その勢い(パッションとスピード)が大事!!

蛇足ですが、HTC VIVEでVR脱出ゲームも作ってます!
https://www.youtube.com/watch?v=UuyW6MzUMy8

ベトナムオフショア開発 VR/AR/MR 開発ぜひご相談ください。
https://onetech.jp