facebook twitter hatena line google mixi email
★お気に入り追加


■ このスレッドは過去ログ倉庫に格納されています

  • 874
  •  
  • 2019/11/13(水) 01:43:56.62
スマホはAIとクラウドデータ、GPS、コンパスがあるからな。

例えば君が初めて行ったラーメン屋を夜間に店舗正面から写真を撮ったとする。
少し光量が足らなくて、ノイズが乗ってお世辞にもうまく撮れたとは言えない写真だったとする。

だがスマホで撮っているので、どの場所からどっち方面に向かって、どのレンズを使って撮ったかはスマホは瞬時に判断する。
もちろんISOやシャッタースピードも分かる。
もちろん被写体と構図も。

そして恐ろしいスピードでgoogleサーバーから膨大な写真ファイルを検索する。
もちろんgoogleマップやストリートビューからも。
すでにリアルタイムGPSで位置と方向は把握しているので検索には時間がかからない。
高速で膨大なラーメン屋の画像ファイルで補正をかけて恐ろしい程綺麗な写真がスマホに表示される。

もはやそれは「自分が撮った」のかどうかは分からないが。

ここまで見た

★お気に入り追加

このページを共有する
facebook twitter hatena line google mixi email
おすすめワード