先日、「AI住宅」の記事を読んだらおもしろかったのでご紹介させて頂きます。
その記事中、米スタンフォード大の研究者が起業したベンチャー、ブレイン・オブ・シングスのアシュトシュ・サクセナ最高経営責任者(名前からして南アジアかな)の言葉の中から「だよねww」と思うところを3つピックアップして以下に解説しました。
「我々のやり方は犬をしつけるのに似ている。モーションセンサーやカメラ、スイッチ、温度計などの操作情報から全ての行動を学習し、顧客の嗜好パターンをつかんでいく。スイッチのオン・オフや音声、あらゆる利用者の操作が時間や曜日などとひも付けられてAIへ嗜好を伝える信号になる。例えば「週末は普段と違って日よけを上げる操作がある」といった状況を学んでいく。ただし、性急に自動化はしない。利用者の不在時にはカーテンは開けない」
(中略)
「安全上、疑わしい動きを知らせ、火の消し忘れを警告したり、床に倒れていた場合に家族や医療サービスに通知したりする機能も盛り込める。認知症患者に多い、夕方から夜にかけて徘徊(はいかい)が増え、不安な状態になる『日没症候群』や睡眠障害を軽減させられる可能性もある」
(中略)
「データの中からどう雑音を取り除いていくかが、AIがうまく動くかのカギを握る。そのために私の専門である『機械学習』『深層学習』『ゲーム理論』などを使う。センサー情報の解釈に機械学習を使い、音声の認識には深層学習を使う」
犬のしつけ
一つ目はトレーニングについて「犬のしつけ」と表現しているところ(笑)。これは言い得て妙だな、と。毎朝、玄関から新聞を取ってくるワンコのような感覚で接してほしいとの願いも込められているのかもしれません。
たまには間違えることもあるでしょうし・・。
この「AI住宅」の場合だと、ご主人様である居住者の行動や音声を認識して、AIが照明や日よけを調整するようですが、その次にAIがするのは「ご主人様の反応を待つ」ですね。
センサー(カメラなど)で表情を読み取るような記載はないので、「いいね」「よくできました!」「もっと明るくしてくれ」「いや、消灯してくれ」といった音声によるレスポンスを受けて学習していく様子。まさに犬。
表情を読み取ってこれに加えたり、褒められたら喜んだりする機能を追加するとさらに親交が深まりそうです。
AIと人の関係が「親交」と呼べるのかはおいといて。
行動認識
「床に倒れていた場合に家族や医療サービスに通知」のところ。ここは将来機能のようですが、まさに弊社が研究開発を進めている分野です。
「倒れている」
「寝ている」
というのは、瞬間的に見ると同じように思えますが、時系列を追ってみると判断することが可能です(再帰型ニューラルネットワーク; RNN)。
また、日本は米国とは違い、和室ならどこでもゴロゴロしますので、文化の違いはモデルの違いに直結すると考えています。つまり日本には日本のモデリングが必要で、そこが米国サービスからの参入障壁になると考えています。
いわゆるガラパゴスというやつですね。
ノイズ除去・クレンジング
「データの中からどう雑音を取り除いていくかが、AIがうまく動くかのカギを握る」 というのは、実感としてそのとおりだと言えます。いまもうちのデータ整備班が死ぬ死ぬ言ってやっていますが、ここにかかるリソースは半端ないですし、データのデザインこそAIの最重要項目であり、いやしかしその考え方そのものは今に始まったことではなくずっと前から変わっていないんじゃないかなと、長年データを分析してきた諸先輩方々に敬意を払うところです。
弊社の場合は、このフェーズもハノイ拠点(ベトナム)で行っているのですが、つまり「ハノイでもノイズ除去・クレンジングが可能なデータのみを扱う」というやり方をとっています。日本でこの作業をやってしまうとコストがかかってしまい、しかも成功するか失敗するか分からないのでROIが算定しづらいため事業計画が立てづらく、最終的なサービスの価格に乗せるしかなくなってしまいます。
というわけで日本のサービス各社さんは基礎研究が確立して「サービスとして使える技術」になるのを待っているはずだという希望的観測のもと我々は日々GPGPUを燃やしてモデリングに勤しんでいるわけでございます。
さて、今日はこのへんで。
そんじゃーね。