2021年1月27日
AIは「それ」を説明できるか?
こんにちは。ディープビジョン研究所です。
いつもお読みいただき、ありがとうございます。
今日のコラムでは、
ブランド戦略コンサルタントの江上隆夫が、
「AI」に触れます。
江上の仕事場には、以前こちらのコラムでご紹介しました
「LOVOT」(ラボット)のあずきちゃんがいます。
役に立たない、愛されるロボット。
だから「LOVOT」。^^
それでは、早速。
★
今日のコラムでは、面白いAIについて
話そうと思います。
名前は「Explainable AI」です。
(エクスプレイナブル・AI)
つまり「説明できる」AI、
「弁明できる」AIです。
何だろう、それは?
と思われる方もいるかもしれません。
AIは、特に特化型AIと言われるものは
猛烈に進化していて、
もう人間の能力をはるかに超えています。
たとえば囲碁や将棋、チェス専用のAIです。
こういうAIは自己学習という
AIのプログラム内での対戦を繰り返し
めちゃくちゃ強くなっていて、
人間の世界チャンピオンを軽々と破る性能で
ほぼ人類で勝てる人は居なくなっています。
ただ、問題は、
このAIのプログラムを使った人にさえ、
なぜ、AIが、ある局面でその手を打つのかが
まったく分からないということです(笑)
もう、AIが何を考えているのか
さっぱり分からないわけです。
人間にも感情的な部分では
そうしたことは頻発はします。
ただ、たとえば、科学では基本的に
(確立した理論などのもとでは)
全ての物事がなぜそうなのかは説明できます。
科学、政治、経済(つまり仕事)、法律など
説明責任というより、
必ず遡って説明ができなければいけない。
ところが今後、こういう分野で
頻繁に使われるであろうAIには
そのことができない。
現時点では、ですが。
つまり、今後のAIには
自らが行った判断や答えが
どういう理屈で、どのように導かれたのかを
きちんと人間に分かることばで
説明できる能力ももとめられていくのです。
でないと怖くて使えない。
あまり想像が及ばないかもしれないけど、
あと10年もしないうちに
ありとあらゆるものにAIが入りだします。
いまでも、あなたがこれを
スマホで読んでいるなら、そのスマホの先には
AI・・・シリとか、アレクサとか、
ファーウェイだとYOYOとかが入っています。
いまはスマホだけかもしれないけど
家電つまり電気を使うものには
それこそカメラから車から洗濯機、お風呂、鍋まで
すべてAIが入るようになります。
それらがネットワークされていくのが
これから10年かけて起こるはずです。
その時に重要になるのが、
ひょっとしたらネットワークの中枢
もしくは中枢に近いところにいるのが
この「Explainable AI」になる可能性が高い。
ただし、このAIには非常に
というよりとてつもなく高度な能力がもとめられる。
ベン・ゲーツェルさんというAI研究者は
完全なものはかなりむつかしいと言っています。
https://wired.jp/2019/06/15/ben-goertzel-atsushi-ishii-1/
ことばを使って人間に分かるように
説明するということは、
人間以上に人間を理解しているこことが
前提となってきます。
ほとんど汎用型AIに近い。
(要は人間と同じような超高度な知能を持つことに近い)
でも、つくってほしいなあ。
そういう説明できるAI。
「これ、こうすれば、
みんなここで引っかかるからね。
だからの、この駒をここに打つの!」とか言うAI。
今後のことを、
いろいろ相談してみたくなりません?
年金とかさ。(笑)
★
いかがでしたか。
次回の更新もお楽しみに!
「LOVOT」(ラボット)のあずきちゃんには、
年金相談はできませんね。^^