cockscomblog?

cockscomb on hatena blog

Apple Vision Pro所感

Apple Vision Proの発表を見ての感想です。

空間コンピュータ

予想通り、ハードウェア面でもソフトウェア面でも圧倒的な完成度の製品を出してきた、という印象だ。ディスプレイからオーディオ、センサーに至るまで、可能な限りが詰め込まれている。新たなカテゴリをプラットフォームとして切り拓く、硬い意志が感じられる。

製品に「Pro」と名付けつつも、同種の製品カテゴリではかなりコンシューマ向けに寄せられてもいる。映画とか、ゲームとか。この辺りはMacintoshを生み出したAppleらしいところでもある。とはいえ価格帯からは「Pro」カテゴリになるし、将来的により廉価なモデルを発売する余地を確保しているのだろう。

Appleは本日、デジタルコンテンツを現実の世界とシームレスに融合しながら、実世界や周囲の人とのつながりを保つことができる革新的な空間コンピュータ、Apple Vision Proを発表しました。

visionOSは、思っていたよりもずっとコンピューティングにフォーカスされていた印象がある。Apple自身も空間コンピューティングと表現しているが、道具として屋内で普通に使うものとして設計されていて、奇を衒ったところがない。極めてインドア的な、普段からコンピュータを四六時中使っているようなオフィスワーカー向けの製品のように感じられ、つまりこれはMacintoshなんだな、と理解した。

Apple Silicon

Apple Siliconもしっかりと活かされている。性能と効率のバランス、そして既存のアプリとの互換性を考えれば、M2チップが採用されたのは理解しやすい。空間コンピューティングで複数のアプリを同時に実行するには、最低限の性能かもしれない。できればM3を期待したかったところだが、コストや量産する上でのトレードオフがあるのだろう。

M2チップは単体で機能するための比類ないパフォーマンスを提供し、新たに開発されたR1チップは、12のカメラ、5つのセンサー、6つのマイクロフォンからの入力を処理し、コンテンツがユーザーの目の前に現れるような感覚を生み出します。

白眉はR1チップで、空間上にリアリティのあるユーザーインターフェースを描画するための専用チップになっている。R1に多くの処理を肩代わりさせられることで、M2はその性能のほとんどをコンピューティングに使えるのだろう。プレスリリースには次のように記載されていて、これは要するにフレームレートが90fpsということか。

R1は瞬きの8倍高速な12ミリ秒で新しいイメージをディスプレイにデータストリームとして伝送します。

VR的な感覚では、片目あたり4K以上とされる解像度だと、グラフィクスを処理するのに非常に大きな性能が必要に感じられる。しかし実際には、Apple Vision Proの空間コンピューティングでは、単にウインドウを描画する程度の性能でいいはずだ。このウインドウの描画を行うのがM2チップなんだろう。R1チップは描画されたウインドウを空間上にプロジェクションして、カメラの入力と合成する。こちらは片目あたり4Kのグラフィクスを扱うことになる。

ディスプレイ

micro-OLEDで2,300万ピクセルということで、例えば4,150×2,750ピクセルくらいのディスプレイが2枚くらいだろうか。

Appleシリコンのチップにもとづいて開発された画期的な超高解像度ディスプレイシステムを備えたApple Vision Proは、micro-OLEDテクノロジーにより、広色域とハイダイナミックレンジを備えた切手サイズの2つのディスプレイに、合計2,300万ものピクセルを詰め込んでいます。

これが実際にどれくらいきれいに見えるのかは、視野角と関係するから、この情報だけではわからない。例えばPS VR2の水平視野角は110度で、これと同じくらいだとすれば、角画素密度(ピクセル/度)はおおよそ38になり、PS VR2の2倍になる。これくらいの角画素密度があるとよほど小さな文字でなければ普通に読めると思う。

オーディオ

WWDC20で、iOS 14からAirPods Proなどで空間オーディオをサポートすることが発表された。それから3年、空間オーディオが利用できるハードウェアもソフトウェアも増え、そして今回Apple Vision Proでも空間オーディオが大きく取り上げられている。

Apple Vision Proでの体験の中核となるのは、サウンドがユーザーを取り巻く環境から聞こえるような感覚を生み出し、その空間に合わせてサウンドを調整する、先進的な空間オーディオシステムです。

Apple Vision Proの開発期間を考えれば、空間オーディオはそもそもApple Visionプラットフォームの副産物である可能性も考えられる。

空間コンピューティングというものを考えたときに、音がどこから聞こえるかは空間を認識する重要な手掛かりになる。

API

visionOSのアプリは、iOSやiPadOS向けのアプリがほとんどそのまま動くほか、UIKitやSwiftUIで開発できるようだ。UIKitが異なるフォームファクタのOSに使われるのはこれが初めてではなく、例えばtvOSでも利用されている。

SwiftUIはもともとAppleのプラットフォーム間でクロスプラットフォーム指向であり、visionOS向けアプリ開発に推奨されることに驚きはない。開発者にとっても扱いやすい。

総じて、visionOS向けのアプリ開発iOSアプリの開発と同じくらいには容易そうだ。既存のアプリも含めて、ローンチ時から多くのアプリが提供されるだろう。新規のプラットフォームで最初からiOSのエコシステムに相乗りできるのは恩恵が大きそうだ。特に昨今のiPadOSは、プロ向けのアプリを推進してきたところがあって、空間コンピューティングとは相性がよさそうだ。

ゲーミング

Apple Vision Proは、明確にVRのゲームプラットフォームではなさそうだ。ハンドコントローラがなく、ジェスチャのみでVRのゲームを遊ぶのはまだ難しいだろう。そもそもデモに登場したゲームは、PlayStationのコントローラを持って遊んでいる。


いったんこれくらいです。