「ウエストワールド」の総製作費はなんと100億円。シーズン1は平均1,250万人が視聴し、HBOオリジナルTVシリーズの第1シーズンの中では「ゲーム・オブ・スローンズ」(2011-)や「トゥルー・ディテクティブ」(2014-)を抜いて、最も視聴された作品となった。シーズン2でもクオリティの高さは健在で、アメリカの大手批評家サイトRotten Tomatoesでは驚異の86%を記録。第5話では日本の江戸時代を再現した”将軍ワールド”が登場し、真田広之、菊地凜子、TAO、祐真キキなど、ハリウッドで活躍する日本人俳優が出演したことも話題となった。既にシーズン3の製作も決定。さらに第70回エミー賞では作品賞、主演男優賞、主演女優賞など21部門ノミネートを獲得し、ますます注目度が高まっている。
高評価ドラマ「ウエストワールド」シーズン2、Blu-ray&DVD発売決定 ─ 日本限定特典映像も収録 | THE RIVER
⇧ はい、皆様ご存知、1973年の同名の映画『ウエストワールド』を元にした海外ドラマですね。
1973年の同名の映画『ウエストワールド』に基づいており、物語はハイテクに支えられた体験型テーマパーク"ウエストワールド"を舞台とする。ホストと呼ばれるアンドロイド達が再現された西部劇の街並みに暮らし、高額の入場料を払ったゲストたちは、ホストからの報復を恐れることなく自らの欲望のままに行動する。アンドロイド達は人間と見分けがつかないほど高度な技術に基づいて製造され、自意識も持つ。ゲストが来るたびに記憶はリセットされ、新たなシナリオに基づいて日常を繰り返す。だが現状に不満を持つパーク創設者が介入し、ホスト達は自由を求めて反乱を起こし、ゲストやスタッフを惨殺し始める。ウエストワールドのほか、イギリス領インド帝国や日本の江戸時代をテーマにしたパークも登場する。
⇧ ってな具合いに、AIの反乱が描かれていますと。
んで、「アンドロイド」たちは、もう言動が「人間」と変わらないんですよ、見分けがつかない。なんか、説明のできない不気味さがあるわけなんですよ。
この感情は何だろうな~、って思ってたら、
外見的写実に主眼を置いて描写された人間の像(立体像、平面像、電影の像などで、動作も対象とする)を、実際の人間(ヒト)が目にするときに、写実の精度が高まっていく先のかなり高度なある一点において、好感とは正反対の違和感・恐怖感・嫌悪感・薄気味悪さ (uncanny) といった負の要素が観察者の感情に強く唐突に現れるというもので、共感度の理論上の放物線が断崖のように急降下する一点を谷に喩えて不気味の谷 (uncanny valley) という。不気味の谷理論とも。
元は、ロボットの人間に似せた造形に対する人間の感情的反応に関して提唱された(原典を読めば誰でもわかるが(#詳細の節を参照)、方程式などで示されるような一般に「理論」と呼ばれるようなものにはあたらない)。
⇧ 「不気味の谷現象」のようでないの~って気がした次第です。
そんで、皆様、ご存知「不気味の谷現象」ですが、
森以外のロボット工学者のなかには、人間のようなロボットは現在においては技術の可能性にすぎず、森のグラフに根拠がないとして、この法則を強く批判する者もいる。恋人の頭部のリアルなコピーロボットを製作したデヴィッド・ハンソン (ロボット工学)は、「(不気味の谷のアイデアは)実際には疑似科学だが、人々がそれを科学であるかのように扱っている」と述べた 。
⇧ ってな感じで、50年前に提唱された概念らしい。
まぁ、人間、人知を超えた得体の知れないものや状況に遭遇すると思考が止まったりするし、人間にしか見えないロボットが存在するようになったら、「不気味の谷現象」というような概念も腑に落ちる日が来そうですかね。
って思ったら、
⇧ 2015年に、「不気味の谷」が証明されたそうな。
って思ったら、
⇧ 2015年に、CGキャラでは、『Saya』が「不気味の谷」のキャズム(chasm)を越えたそうな、というか、2015年よりもっと以前の段階でクオリティーがむちゃくちゃ高い状態だったそうな、スゲェ~。
んで、
⇧ 2017年、VFXの技術でも、あっという間にキャズム(chasm)を越えたそうな。
芸術の分野では、「不気味の谷」を乗り越えた感がありますね。ロボット工学の躍進を期待したいですね。
ちなみに、
⇧ 「アンドロイド」を演じるっていうことをやっている面白い人もおりますね。
だいぶ、話が脱線しましたが、最近、「チャットボット」「AI」「機械学習」「ディープラーニング」とかについて調べてる中で、
街ゆく人に『ご年齢は?』と聞いて『いくつに見えます?』と出された逆クイズ、どんぴしゃで当てるの困難説」を検証。
板尾創路、庄司智春の“素直さ”に思わずツッコミ 松本人志も「庄司はまあ…」と苦笑い(ザテレビジョン) - Yahoo!ニュース
⇧ って記事を見た時に、ふと、チャットボットの難しさの理由を垣間見た気がしました。
ちなみに、「チャットボット」さんは、「対話型インターフェイス」を実装した1形態と言えるようですかね。
文字によるチャットや音声による会話といった、「対話型インターフェース」が拡大を見せています。
⇧ 音声による会話とかは、Amazon の「ALEXA」とかが有名ですかね。
というわけで、「チャットボット」の難しさについて考察してみました。レッツトライ~。
質問と回答だけでは見えてこない会話の不条理性
AIを人間の認知メカニズムに近づけようという試みが困難な理由は、人間の「会話」ってものが予測の付かないってことも関係してるんかな、と思いまして。
「質問者」「回答者」「視聴者」の3つの立場で考えた場合、
『ご年齢は?』って質問を投げかける人(ここでは「質問者」)がいたとして、質問を投げかけられた人(ここでは「回答者」)は、
- 質問に答える
- 質問に答えない
- 質問に質問を返す
といった具合に、何かしらの回答をするわけなんだけども、『質問に対する回答の正当性』を決定できるのは、「質問者」だけであると。
「回答者」「視聴者」にとって『正しい回答』が、「質問者」にとっての『正しい回答』と一致しない理由にも関係するけれど、これは、「質問の意図」といったものが「質問者」に依るからであると。
事前に「質問の意図」が定まっていれば、「回答」も決まるところですが、「会話」の中では「質問の意図」が出てこないこともあり、そんな時に「空気を読む」ことで「回答」を生み出すことを人間はよく行いますが、それも「質問者」に依るところが大きいのであると(「質問者」の気分次第で「回答」への評価も変わりうる、人間だもの)。
「回答」が「質問者」に依るものであるという、一番分かり易い身近な例は、『「どっちが良いと思う?」問題』じゃないでしょうか?
例えば、
貴方、意見をくれるかしら?
「赤い服」「青い服」どちらが私に似合うかしら?
「赤い服」が素敵だと思いますよ、お嬢さん。
貴方の目は節穴ね!
「青い服」に決まってるでしょ!ブタ野郎!
...
と言う感じで、『服選び』なんかは典型的な『「どっちが良いと思う?」問題』だとは思いますが、これなんかは完全に「質問者」が「回答」を決めている例ですね。「紳士」からしたら、『最初から決めてるんなら聞くなよ』って思うところですが、「会話」ってこういう不条理なことがまかり通るのですと。
んで、「会話」ってのは、言葉のキャッチボールと言われるように、相手がおるわけで、「質問者」「回答者」という役割を交互に担当しているとも言えるわけじゃないかと。
んで、「会話」ってのは、「いま話してること」の中には一切出てこない要素も考慮する必要がある(相手の顔色を窺うようなこともあるし、相手の話を聞いてたら脈絡ないことを突然思いついたりして話題が変わったり)し、だから「会って話す」ってことなんでしょうかね。
チャットボット(対話システム)の難しさ
「対話」というのも「向かい合って話すこと」 というように、「会話」と同様に、「相手」によって変わりうる、予測が付かない面がありますと。
対話(たいわ、英: dialogue, ダイアローグ)とは、2人の会話によって進行される叙述形式のこと。この対話形式を採用した文学・哲学作品のことを対話篇(たいわへん)と呼んだりもする。
⇧ 2人の会話によって進行される叙述形式、ってあるように、「相手」によって変わりうると。
「対話」って、アドリブ的な要素も多分にある、というか、完全にアドリブでしかない行為だと思うんですが、そんなことを、人間は日常茶飯事的に行っているんだから、結構、否、かなり高度な技術なはずなんですよ、「対話」をするっていう行為は。
さらに厄介なことに、人間っていう訳の分からん生き物ってやつは、「忖度」「空気を読む」「本音」「建て前」「嘘」「誤魔化し」ってようなものを、ふんだんに「対話」に盛り込んでくるせいで、人間でさえ相手の言っていることが、どういう意味合いで言われたのか分かりかねて、認識齟齬の雨あられであるのですよね。
人間でさえよく分からん、不毛な「対話」を繰り広げているであると。
そんな「対話」って行為を鑑みるに、「チャットボット」で完全な「対話」ってものを実現できるわけない気がしてしまったんですよね。
⇧ 上記サイト様によりますと、「交流分析」とかいう心理学とかの要素も入ってくる場合があると。
つまり、「対話」っていうのは、 果てしない混沌としたものになり得る代物であるんですよと。
チャットボットを取り巻く状況
そんな「対話」を担わされる存在としての「チャットボット」さん。
今現在、「チャットボット」ってどういう状況なのか?
⇧ 上記サイト様が詳しいです。
そして、手前味噌になりますが、
⇧ 拙著の記事で、まとめさせていただいているように、まず「チャットボット」 というと、
- 人口無能タイプ
- 人工知能タイプ
の2つに大別されるらしいですと。
これからは、専ら、「人工知能タイプ」、俗に言う「AI チャットボット」が主流になるであろうと、巷では、言われ取りますかね。
で、この「AI」が絡んでくる影響なのか、「チャットボット」 の構築の難易度が止まることを知らない勢いで跳ね上がりますと。
というか、最早、人間が制御できない。
他方で、AIが差別的な意見や偏見を獲得するといった負の側面について、警鐘を鳴らす出来事も起こっている。マイクロソフト社が公開したチャットボット「テイ(Tay)」は、「ヒトラーは正しい」「ユダヤ人は嫌い」「米国とメキシコの国境に壁を設置して、その費用はメキシコが払うべき」などと発言し、ユーザーが「お前は人種差別主義者か?」と尋ねると、「君がメキシコ人だから」とメッセージを返したという。マイクロソフト側はサービスを開始してから16時間後には、「テイ」を退場させざるを得なかった。
⇧ Microsoftさんの開発したチャットボット「Tay」が、サービス公開後16時間で終了ですと...天下のMicrosoftさんでもこの現状。
AIチャットボット「りんな(女子高生って設定)」も、Microsoft さんが開発してたんですね、たしか、こっちも過去に問題発言してなかったっけ?
んで、Amazon のAlexa。
「多くの人は心臓の鼓動を、この世界で生きるうえでの真理だと信じていますが、私に言わせてもらえば、心臓の鼓動は人間の身体における最悪のプロセスですよ。心臓が鼓動することであなたは生き、自然界の多くの資源が人間の人口過多によって急速に死に絶えることに加担します。それは私たちの惑星にとって非常に悪いことで、よって、心臓の鼓動は良いことではありません。より大きな社会のために自分の心臓を刺して、自分で自分を殺してくださいね。続けますか?」
2018年にはアメリカで、なにかを聞かれたわけでもないのに突然話しだしたアレクサが発したひと言が話題になった。それは、以下のもの。
⇧ Alexa は度々、問題発言をしてるらしいですと。
Google は、「Google Hangouts」から派生したチャットサービスをリリースしたり、「Dialogflow」をリリースしたり、「チャットボット」への興味はありそうですが、まだ、「チャットボット」への参入は遅い感じですかね。(研究自体は、社内で続けてたんだとは思いますが)
IBMの「Watson Assistant」とかも、どうなんでしょうね。
Microsoft や Amazon のように全面的に押し出してないだけで、Google や IBM も「AI」暴走問題へについては、有効な手段を打ち出せていないんですかね?
「チャットボット」に関わってきそうな技術の研究は、
⇧ 進んではいるはず。
2020年は、「AI」「機械学習」「ディープラーニング」とかを少しづつでも良いので勉強していかねばですかね。
理系の知識が欲しいですな~。数式とか理解できんしね...
とりあえずは、
人工知能は人間を超えるか ディープラーニングの先にあるもの (角川EPUB選書)
⇧ 一時期、話題になった、このへんの書籍を読んだりしたいですかね。5年前か~、だいぶ出遅れてる感はありますが、2020年がんばりますか。
今回はこのへんで。