人工知能におけるいくつかの方法

 この論文では人工知能を実現する方法をいくつかに分類して説明します。はじめに、人工知能を実現する方法として古典的な2つの方法を紹介します。紹介するのはは1960年代から 70年代に作られた有名な言語理解プログラムです。1990年代に企業で作られた有名な ロボットもこちらのカテゴリーに分類できます。

 第一は「感情移入型である。その代表としてワイゼンバウムの「ELIZA」があげられる。 「ELIZA」とは、人間がモニターに言葉を打ち込むと言葉を表示して反応するというカウンセリング・ マシーンである。実際の例の一部を引用してみよう。

女性:男ってみんな同じ。
ELIZA:どのように。
女性:男っていつもあれをしろ、これをしろってうるさくてしょうがないんですもの。
ELIZA:何か特別な例をあげてください。
女性:そうね。ボーイフレンドがここに来るようにって言ったの。
ELIZA:ボーイフレンドがあなたをここに来させた。
女性:彼は、私がいつでもふさぎこんでいるって言うんです。
ELIZA:ふさぎこんでいるとは、お気の毒に思います。
(「コンピュータ・パワー」より)
実はこのプログラムの仕組みはとても単純である。打ち込まれた言葉からキーワードを探し出して それに合わせた言葉を返すだけである。こんな単純な仕組みだが、実際にやってみた人の多くは それが本当にカウンセリングを行う機械であると思ったという。なぜ、そのようなことになったのだろうか。 実は、カウンセリングという設定の選択が重要である。カウンセリングといっても正確には ロジャース方式というやり方が選ばれている。ロジャース方式の特徴は、カウンセラーが患者に 支持をしてはいけないことである、患者が自ら解決法を見つけ出せるように、カウンセラーはよき聞き手となり うまく話を促がさなければならない。ロジャース方式では実際に話をするのは主に患者である。 だから、患者の話を促す程度のことを表示すれはそれで十分である。 ワイゼンバウムの言っていることをあげると、「みんな私を…」と入力されたら 「誰があなたを…なのですか」と返すというものがある。 このように、「ELIZA」で行われているのは「AならばB」という単純な反応だけである。 つまり、単純な反応でも大丈夫な状況の設定が選ばれているのである。 これだけのことでも本当に会話していると思わせるには十分だったのである。 ここで大切なことは、言葉を打ち込む人間の側がそれがカウンセリングであると思い込むことである。 そうであれば、カウンセリングにふさわしいことしか話さない(打ち込まない)からである。 カウンセリングで話されそうなことを想定してプログラムを組めばよいのである。 逆に言えば、予想外のことを話すとおかしな反応が返ってくることになる。 こうして実は、人間の側が入力を制御しているのである。 つまり、ここで働いているのは人間の感情移入能力であり、「ELIZA」はそれに頼っている。

  それではロボットにもこの分類を当てはめてみよう。 すると「感情移入型」の変形版が「AIBO」である。人間の側が「AIBO」を犬としてかわいがっている限り 「AIBO」はうまく反応を返してくれる。逆に、「AIBO」をいじめてもうまく反応が返ってこないので おもしろくない(こんなことを書いていいのだろうか)。もちろん「AIBO」は「ELIZA」と比べると ダントツに複雑性が高い。しかし、中で行っている基本処理は「ELIZA」の延長である。

 第二は「小世界型である。代表はウィノグラードの「SHRDLU」である。 「SHRDLU」ではコンピュータ上にいくつかの積み木から成る世界を設定している。「SHRDLU」は、 その設定上の世界における積み木の状況を知らせたり、その積み木を命令で動かしたりが可能である。 次の文章はその一例である。

人間:今持っている積み木より長い積み木を見つけて、それを箱に入れなさい。
SHRDLU:『それ』というのは、今持っている積み木より長い積み木を意味するのだと仮定します。
人間:よろしい
SHRDLU:(持っている積み木を置いて、より長い積み木をつかむ)
人間:箱には何が入っていますか。
SHRDLU:青い角錐体と青い箱です。
…(略)…
人間:なぜ赤い立方体を片付けたのですか。
SHRDLU:それより大きな緑の立方体上にのせるためです。
(「コンピュータ・パワー」より)
「赤い立方体の積み木はどこにあるか」と聞いたり、「黄色い円柱の積み木を取ってください」 と命令したりできる。すると、「青い立方体の積み木の上です」とか「取りました」と返事をする。もちろん、 積み木を動かした後もその場所を理解できる。また、新しい言葉の定義もできる。 その場合は、「SHRDLU」がすでに知っている言葉を使って定義すればよい。 「SHRDLU」の最大の特徴は「ELIZA」とは異なり入力された言葉も出力された言葉も(ある意味で) 理解していることである。 重要なことは、「SHRDLU」でははじめから論理的に扱いやすい世界を設定していることである。 逆に言うと、設定以外のことは一切受け付けない。ここが「ELIZA」との大きな違いである。 「ELIZA」では人間の側は、設定があるとはいえ、基本的に自由に言葉を選べる。 それに対して「SHRDLU」では入力可能な言葉ははじめからかなり限定されている(それでも結構多いが)。

  同じようにこちらの側に分類されるロボットをあえて上げると「二足歩行ロボット」がある。 ロボットは現実の世界に属するので「小世界型」とはいえないと思われる。 しかし、「小世界型」と似た特徴を持つ点で「擬似小世界型」であるといえる。 これはどういうことだろうか。擬似小世界とは、現実世界から切りとられた一部であるという意味である。 初期の「二足歩行ロボット」は平らな床しか歩けなかった。少しでもでこぼこがあると転んでしまう。 この段階ではこのロボットにとっては「擬似小世界」=「平らな床」でしかない。 だが、驚異的な改良によってでこぼこな床でも歩けるようになった。 するとこのロボットにとって「擬似小世界」=「平らな床」+「でこぼこな床」と世界が広がる。 あとは同様に「坂」を上ったり、「階段」を降りたりできれば、そのロボットの世界は広がる。 さらに、「歩く」だけでなく「走る」や「踊る」ができるようになれば、理解できる言葉が増えることと 同じようなこととして捉えることができる(行動は人間が命令しています)。 このように「二足歩行ロボット」でも複雑性が高くなっている ととらえることができる。ただし注意しておきたいが、それでも現実の複雑性そのものには 対処できない(実用性から考えると、用途を限るのが一番である。用途を限れば、用いられる環境も 限定されるので複雑性が低くなる)。

  これまで紹介したのは古典的な方法だが、ここからは1980年代以降におこなわれた 2つの方法を紹介する(ただし、わたしはどちらにも詳しくありません)。

 これまであげてきた人工知能の分類はすでにプログラムされたことしかできないものに限ってきた。 人工知能にはさらに「学習型」 もあり、代表は「コネクショニズム」である。 実際の仕組みはいろいろな数式が必要なので説明できないので、実際にできることを上げよう。 たとえば、英語の現在形を入力すると過去形を出すことができる。英語の活用は不規則なことが 多いので難しい。そこで「学習型」コンピュータに英語の現在形と過去形をおくつか入力する。 するとそのコンピュータは学習をしており、まだ入力していない単語でも過去形を推測して 出力する。その推測を正しいとか間違っているとかと示すと、それも学習してしまう。 「学習型」の面白いところは、間違った推測をしたするのだが、その間違い方が実際の 人間の子供の間違い方にそっくりなことである。 「コネクショニズム」のもうひとつの特徴は入力と出力に制限がないのでどんなことにでも 応用が利くことである。たとえば、空を飛ぶロボットに「コネクショニズム」を組み込むことができる。 つまり、羽の回転や機体の傾きなどを学習できるようにすれば、はじめはうまく飛べなくとも 試行錯誤するうちに飛べるようになってしまう。人間の側からは必要な情報をまったく 入れていないにもかかわらずである。このように「コネクショニズム」はロボットにも 組み込むことができる。さらにいえば、「コネクショニズム」は本当にどんなことにでも使えるので 暖房機器の温度調節などのようなに、家電製品に用いることも簡単にできる。 (ただし、実用レベルまで学習の必要がある上に、製品にした後には学習はできない)。

 さらにもうひとつあげられるのは「自律型」である。この分類ではこれまでのように コンピュータのモニター上ではなくまさにロボットが中心である。 「自律型」はこれまでの研究の反省から、実際の現実世界の中で働けるようにしたのである。 つまり、センサーなどを用いて現実世界において賢く働くロボットを作ることが目的である。 一見、「擬似小世界型」と似ているようだが重要な点が異なる。 これまでの分類の人工知能ではどれも人間の側からの情報の入力を必要とした。 「AIBO」でさえ人間からの接触か必要である(だから「AIBO」は「自律型」ではない)。 しかし、「自律型」ではある環境の中におけば、人間の側が何もしなくとも ロボットの側が勝手にさまざまな判断をして動き回るのである。 「自律型」の代表はサッカーをするロボットである。このロボットは サッカー場とボールさえあれば、ボールをゴールに入れるようにプログラムされている (敵側のロボットも一緒に入れるのと問題が複雑になるがここでは省略する)。 「自律型」で重要なことは、「二足歩行ロボット」とは異なり、現実の物に 影響をあたえ、その影響を受けた変化からさらに判断しなくてはならないことである。 ここも「擬似小世界型」との大きな違いである。 他にも、「自律型」と「学習型」とを組み合わせたロボットもある。 遺伝的アルゴリズムなどもあるが、これは人間の振る舞いとは無関係なので省略する。

 さてこれからの人工知能にとって考えなければならないことはなんだろうか。いくつか 考えられるが、まず「環境・状況」の問題について考えてみよう。 「感情移入型」といい「小世界型」といい「学習型」といい「自律型」といい どれも「環境の一貫性」に頼っている。環境からの刺激といい、環境からの反応といい、 そこに何かしらの論理がなければうまく働かない(やって来そうな刺激がわかる必要がある)。 たとえ「学習型」でも問題は同じである(反応が常にばらばらならば、学習するだけ無駄である)。 たとえ一貫性があると仮定としても 状況の変化には対応できない(授業、面接、雑談などの状況)。一貫性とは状況ごとに成り立つので、状況そのものを環境からの情報で 探らなければ成らない(これは循環論である)。(ところで、こうした問題を解決するひとつの 方法が状況的認知である。)また、この問題の延長に「他者」の問題もある。「他者」も「環境」 の一部である。他者の持つ論理(法則)との係わり合いが問題だが、こちらの持つ論理と他者の持つ論理と がどこまで一致し相違するのかが分からないはずなので難しい問題である。


引用文献
ジョセフ・ワイゼンバウム「コンピュータ・パワー」(サイマル出版)
 もし入手が可能ならば、読むことをお勧めします。「ELIZA」を作った本人による人工知能批判の古典。




〔目次〕