- New York Times Magazine誌が毎年発行している音楽特集号には、スマートフォンのカメラで読み手が見ることができるインタラクティブ機能を備えた印刷広告が掲載される予定だ。発表によると、これらの機能にアクセスするには、同社アプリの画像認識ツール 「Googleレンズ」 を使用する必要があるという。
- Googleレンズとの統合により、読者は音楽関連の記事に付随する動画やアニメーションを見ることができる。毎年恒例の「現在重要な25曲」機能にも、それぞれの曲の関連性を説明するエッセイが掲載されているが、今年はGoogleレンズを使ってプレイリストの曲を聴くことができる。
- 読者はまた、Googleレンズを使って記事をデジタル的に保存したり共有したりすることができ、デザイナーがどのようにしてビデオシリーズの一部として雑誌の複数の表紙を作ったかを知ることができる。発表によると、同誌の音楽版は3月15日に発売される。
The New York Times Magazineは、Googleレンズを通じてアクティベートできるデジタルコンテンツで、音楽の問題を抱える読者により没入感のある体験を提供することを目指している。デジタルコンテンツを持つ広告主にとって、これは消費者を引き込む機会であり、読者が広告に反応するかを測定する機会でもある。雑誌とそのスポンサーは、その情報を利用して読者にアピールし、顧客にするための今後の取り組みを磨くことができる。
Googleにとって、同誌の音楽特集号は、同社の画像認識技術がいかにスマートフォン時代の検索機能を拡張し、テキストベースのコンテンツをインデックス化するというコアコンピタンスを超えたものになったかを示すチャンスである。
Google レンズは、検索大手Googleの最も重要なブレークスルー技術の1つとして3年前に初めて発表されたもので、モバイルOS 「Android」 と、Apple製デバイス向けの同社アプリのいくつかに統合されている。
レンズは何百万もの物体や画像を識別できるだけでなく、QRコードをスキャンしたり、言語を翻訳したり、テキストをコピーして保存したりすることもできる。Googleは2015年、Googleレンズにショッピング機能を追加し、 「Google Maps」 ナビゲーションアプリにこの技術を統合して、ユーザーがレストランのメニューをスキャンしたときに人気の料理をハイライト表示するなどの機能を追加した。
※アイキャッチは、2020年3月13日付 New York Timesより抜粋
【参考】
- New York Times Magazine brings ads, music content to life with Google Lens
- The New York Times, Exploring Visual Search, Introduces New Immersive Way to Experience The New York Times Magazine