Google I/O 2018 Keynote
yahooさんのLODGEで上映会があったので、生中継で観ました!
夜中過ぎて観れていない人もいると思うので、少しだけ共有。
何人も話していましたが、共通して特に印象的だったのが、全員AIという単語を使っていたこと。
去年「モバイルファースト」から「AIファースト」になって、どういうこと?って感じだったけど、Googleが本気でAIファーストに取り組んでるというのがヒシヒシと伝わってきました。新しいAIの技術によって、世界中のいろんな人にインパクトを与えていくことに、ワクワク感も感じました。
・ヘルスケア
ヘルスケアの分野が、最もAIを使った解決を促しているというお話で、人間は表面的なことしか見れないのに対して、AIは年齢、性別、タバコ、BMIなどを認識して患者を観ているというのが、革命でした。
・音声認識
2人の声を認識して、別の声として認識している。この精度もすごかったです。
Gmailで文字を打つ中、勝手にAIが予想して文面を作ってくれる。例えば、「いつも」だけ打てば、「いつもお世話になっております。」みたいに学習してくれ、自分専用にカスタマイズできるっぽい。すごい。
・カメラ
人を認識するだけでなく、明るさを自動調節してくれて、机の上の書類を書類の部分だけPDF化してくれたり。簡単にバックグラウンドを白黒にできるし。白黒写真に色をつけてくれる。つかってみたい。
・音声認識
30言語、80カ国に対応。hey google 〇〇に対する質問も、即答してくれる。ナチュラルな発音に(英語は6種類の声?)1つの文脈に2つの質問があった場合、2つの質問に答えてくれる。子供の雑談にも、しっかり付き合ってくれる。感情も認識してる!?
・音声とデバイスの融合
「レシピ見せて」と言えば、デバイスで料理動画が流れたり、「温度を調整して」と言えば、温度調節の画面になる。アマゾンみたいに買い物ができたり、運転しながらGoogle Mapを操作できる。
自分にとってのトップ5のニュースをAIが認識して出してくれる。リアルタイムで全ての情報を見ることができたり(twitter, poltico, CNNなど)、タイムラインも見ることができる(昨日、一ヶ月前、半年前、、、)。全員が同じ信頼できる情報を見ることができるって、素敵。
・アンドロイドの携帯
以上がモーニングセッションで個人的にすご!って思ったところ。