-
- 874
- 2019/11/13(水) 01:43:56.62
-
スマホはAIとクラウドデータ、GPS、コンパスがあるからな。
例えば君が初めて行ったラーメン屋を夜間に店舗正面から写真を撮ったとする。
少し光量が足らなくて、ノイズが乗ってお世辞にもうまく撮れたとは言えない写真だったとする。
だがスマホで撮っているので、どの場所からどっち方面に向かって、どのレンズを使って撮ったかはスマホは瞬時に判断する。
もちろんISOやシャッタースピードも分かる。
もちろん被写体と構図も。
そして恐ろしいスピードでgoogleサーバーから膨大な写真ファイルを検索する。
もちろんgoogleマップやストリートビューからも。
すでにリアルタイムGPSで位置と方向は把握しているので検索には時間がかからない。
高速で膨大なラーメン屋の画像ファイルで補正をかけて恐ろしい程綺麗な写真がスマホに表示される。
もはやそれは「自分が撮った」のかどうかは分からないが。
このページを共有する
おすすめワード