自動ニュース作成G
なぜグーグル「Pixel」はカメラが横並びなのか
https://ascii.jp/elem/000/004/240/4240854/
2024-12-16 12:48:22
>「それぞれでカメラの配置を換えるとAIの処理が追いつかなくなってしまう」
間違ってないと思うけど、なんで?という疑問が生まれると思う。実際はこの5年前の記事『Google最新スマホ「Pixel 4」の画像処理技術とは』◇でgoogleのエンジニアが解説してるけど、広角と超広角の2つのカメラを同時に使って中央部の解像度を改善したりボケ処理の為の被写界深度情報を取得してる為やな。この記事には他にも手振れを逆に利用して色解像度を上げたり、長時間露光では高速に連写してそれらを明度合成することでブレを防ぎつつダイナミックレンジを改善するといった処理が解説されてる。ちなみに手振れ防止機構でセンサーをずらして解像度を上げる手法は、かなり昔にミノルタ(ビクターも?)がコンデジでやってたような。
・スマホのカメラ性能は確かにPixel4の頃に一馬身抜けたんだよな。素人が一眼使うよりずっと映える絵が撮れるようになった。夜景のHDRが綺麗すぎて一眼手放したわ。・カメラ複数用意してるってんなら、立体映像とか撮れるの?・ステレオで立体視映像を作ってるわけじゃないだろうけど、レンズの差から内部的に立体的な復元(奥行き情報の生成)はしてると思う。・単独でスレ立てるほどではないのでここに貼っておく『ヘラルボニー、Google Pixelと初めてのコラボレーション。京都町家で感性を解き放つ一棟貸し施設「Google Pixel: Home of Design」体験の予約開始』https://prtimes.jp/main/html/rd/p/000000340.000039365.html