なぜ人工知能は笑わないのか 現実とはなにか7 

pikarrr2008-04-07


「フレーム問題」


人工知能には、1969年、ジョン・マッカーシーとパトリック・ヘイズによって示された「フレーム問題」がある。ダニエル・デネットによる以下のような物語が有名である。

昔、R1という名のロボットがいた。ある日、R1の開発者たちは予備バッテリーを別の部屋に隠して、その部屋に時限爆弾を仕掛け、まもなく爆発するようにセットした。R1は部屋をつきとめ、バッテリー回収作戦を立案した。部屋の中にはワゴンがあり、バッテリーはワゴンに載っている。R1は「引き出す」というアクションを実行すればよいと判断し、ワゴンを部屋の外に引き出すことに成功したが、そこで最初の悲劇が起こった。時限爆弾もワゴンの上に載っていたため、部屋の外に出たところで R1は爆破されてしまったのである。

開発者らは第2のロボットの開発にとりかかった。自分の動作が引き起こす結果 (副次的作用) を判断できるロボットを作ればいい。新しいロボットは R1D1 と名付けられた。 さっそくR1の場合と同じシチュエーションが設定され、R1D1はバッテリーの回収に取りかかった。「引き出す」 というアクションの実行に先立って、 R1D1 は副作用のチェックを開始する。ワゴンを引き出しても部屋の壁の色は変わらないだろう、ワゴンを引き出せば車輪が回転するだろう…、膨大な副次的作用の可能性を検討しているうちに時限爆弾が爆発した。

問題は、関係のあることと関係のないことをロボットが見分けられなかった点にある。そこで開発者たちは、目的に関係のないことを見分けられるロボットR2D1を開発した。だが今度も悲劇は起こった。R2D1が無関係なことを見分けて、それらを一つずつ「無視」し続けているあいだに爆弾が爆発した。


http://www.johf.com/logs/20070422b.html

「フレーム問題」が示すのは、有限の情報処理能力しかないロボットは、無限の可能性がある現実の前に解を収束できない、という当然の帰結である。しかし問題は人間の日常が同様な状況にあるにも関わらず、「フリーズ」せずに行為できているということだ。なぜ人間には「フレーム問題」は起こらないのか。




解釈と行為


「フレーム問題」を人へ適用するのは問題があると言われる。解釈してから行為するということが前提にされているからだ。チェスなどゲームのようにルールによって閉じた系では解釈の計算は有限であるが、現実のようにルールがなく、開いた系におけては解釈が無限後退に陥るのは当然である。

しかし人間は、解釈してから行為するわけではない。これはウィトゲンシュタイン言語ゲーム」論につながる。日常会話は規則を解釈し、行為するのではなく、「規則に従う」ということだ。子供が、外人が会話を習得するのは、理解してからではなく、状況に対応した使い方を覚えるのだ。

そしてウィトゲンシュタイン「規則に従う」「訓練」によって身につけるものであるという。スポーツ選手が繰り返し繰り返し練習するのは、その行為を体にたたき込み、反応を反射的に行えるようにするためだ。このような状況に合わせた行為を習得することで様々な状況に対して反応することができる。

しかしこれだけでは、「フレーム問題」は乗り越えられない。状況の可能性は無限にあり、すべてのパターンを訓練することは不可能である。




「作業」「仕事」「人として」


たとえば人工知能は使いものにならない。かわりにお前がやってくれ。」と言われたら、ボクは丁重にお断りするだろう。これは単なる「作業」である。爆弾で死ぬかもしれないのに、こんな「作業」をする必要がどこにあるのだろう。

では「仕事」だったらどうだろうか。「仕事」とは労力に対して報酬を得る行為である。しかしそれだけではなく、「仕事」には社会的に貢献するという前提がある。だから非社会的な行為は「仕事」ではない。ただなにをもって社会的/非社会的と言えるのかは難しい問題である。たとえば一日かけて5mの穴を掘る。次の日はそれを埋める。この繰り返しに対価が支払われたとして、この無意味な行為は「仕事」と言えるだろうか。

ボクが爆破処理を仕事とする「プロ」であれば、この「仕事」を引き受ける可能性は高いだろう。対価のためだけではなく、爆破処理を仕事にしているという「社会的な責任」があるからだ。それは「オレがやらねば誰がやる」というプロ意識だ。

さらにこの作業に家族や恋人などの身近な人の命がかかっているなら、爆破処理のプロでなくても行うかも知れない。あるいは見ず知らずの人でも、ボクしか救えないような状況にあれば、「人として」やるかもしれない。おぼれている人を命がけで救うというような利他行為は、このような「オレがやらねば誰がやる」という状況に生まれるといえるだろう。

このような「オレがやらねば誰がやる」というような能動的な行為も、「社会的な責任」というときには、暗黙の圧力として「せき立て」られている受動的な行為である。人は無限の可能性を計算する前に、間違っていても決定しなければならないという「せき立て」の状態にある。




人工知能はバイト感覚


なぜ人間には「フレーム問題」は起こらないのか、というが、これに近いことは人間でも起こっているのではないだろうか。たとえばコンビニのバイトは、人が入れ替わってもすぐに仕事ができるように、すべての「作業」がマニュアル化されている。バイトはそれにそって仕事をする。しかしマニュアル外のことが起こったらどうだろうか。たとえば店に寄付をしたいと100万円をもって知らない人がやってきたという意味不明な状況が起こると、バイトはどうしてよいか、あたふたし、「フリーズ」する。

この場合には、責任者として「店長」が呼ばれるだろう。店長はマニュアルがなく、間違っていたとしても判断しなければならないという「責任へのせき立て」がある。バイトよりも店長が優秀な人間ということではない。その場ではただの「バイト」であっても、彼も家に帰れば、家族や恋人との関係の中で「せき立て」られているだろう。

店長は「責任ある仕事」として仕事を行う。バイトは作業しかおこなわないが、家庭にもどれば「人として」責任をもち、生きている。しかし人工知能はどこにいっても「責任」をもたず、「せき立て」られることがない。人工知能がフリーズするのはしょせんバイト感覚でしか「作業」をしていないからだ。




「責任へのせき立て」の力学場


先の人工知能の爆弾処理の例は、「死」に関係することに特徴がある。そこでは、生存本能に対して、利他的な社会的な責任が浮上する。しかし一般的に「責任へのせき立て」はこれほど強く現れない。

たとえば歩いて人とぶつかりそうになり、それをアイコンタクトで交わす。あるいはもっと無意識にお互いにぶつかることなく振る舞う。「おはよう」と言われれば、「おはよう」と返す、このような些細なことこそが、「責任へのせき立て」である。人工知能はこのような些細な場面でも、無限の可能性の中でフリーズするだろう。

このような些細な「せき立て」は、ゴフマンの儀礼的無関心が特徴的である。儀礼的無関心が示すのは、なにか行為をしなくても、そこに黙って存在するだけで、「責任へのせき立て」にある、ということだ。たとえば「おはよう」と言われて、ただ黙っていると、「無視」という意味を発していることになり、かなりの不快感を与えてしまう。何もしないことさえも社会的には大きな意味を持ってしまう。

人は適応の無限後退(つまり思索)に立ち往生することもなく、互いの前提をある意味では無根拠に信じて−信じているかどうか、その必要があるかどうかさえ意識せずに−「社会的出会いの世界」に乗りだしていく。いい例が儀礼的無関心だろう。とりわけ匿名的な焦点のない集まりで、人は、周りの動作と外見に互いのラインを一瞥し、万事うまくいっていること、互いに前提が自分の前提とするに足りるものであることを確認しては、つぎの瞬間、自分のラインにもどる。悪意や敵意、恐怖や羞恥心がないこと、進行しつつある行為が表出/読解されるラインそのままであることが確認される。共在のなか、事実として互いに儀礼的無関心を運用しあっていることを相互に確認しあうだけで、それぞれの運用の実効性が安心されることになる。・・・人はただ他の人たちと居合わせるという事実にいて、それだけで既存のプラクティスを採用−運用する。いや、せざるをえない。その結果として、共在の秩序が行為の場面場面に形成され続けているのだ。

われわれの経験とは、われわれの経験している通りのものではない。人は、慣習的プラクティスの網のなかにいて、ここかしこでこれを作動させては自分の信念を証拠だてる経験を得、また眠りにもどる。ときたま起こるさまざまなフレイミングの誤作動や破綻は、場のリアリティを揺るがし、むしろそれぞれの場のリアリティのプラクティカルな構成を強化・確定する方向に働く。当面の経験を離脱しようとするにせよ、二次的適応や自己欺瞞に従事しようとするにせよ、あるいはフレイムを掃除/確認したり変容させようとしたりするにせよ、経験のなかにいる限り、人はフレイミングの循環を逃れることができない。


「ゴフマン世界の再構成」 <共在>の解剖学 安川一 (ISBN:4790704033

「責任へのせき立て」は繕い、維持するような「力学の場」としてたえず働いている。一人部屋にいるときにも、人の振る舞いに作用する。たとえばウィトゲンシュタイン哲学探究の中で示したのは、「数学」「貨幣」「痛み」言語ゲームであるということ、すなわち「責任へのせき立て」の力学場にあると言えるだろう。そしてアスペクト論で示したのは、「見る」ことも、「〜として見る」という「責任へのせき立て」による行為であるということだ。

「責任へのせき立て」とは他者への信頼である。他者がこのように振る舞うだろう、他者と共有されている基底があるだろう、他者とコミュニケーション可能だろう。だから自らもこのように振る舞わなければならないだろう。応答しなければならないだろう、という勝手な思いこみでしかない。しかしこのような信頼がなければ人は人工知能と同じようにフリーズしてしまうために、無意識の強制的な力としての「責任へとせき立て」へと身をゆだねるしかない。そしてこれが破られることは大きな不安を伴う。




人工知能お笑い番組「笑い声」に笑う


「お笑い」「責任へとせき立て」と大きく関係するだろう。「ボケ」という非日常によって、力学場が崩れる、緊張が走る。そのままでは空気が凍ってしまう。一瞬の「フリーズ」の次の瞬間に「笑い」によって場の修復が行われる。その修復への力としても「責任へのせき立て」が働いている。

テレビのコメディ番組では、おもしろい場面に人工的に「笑い声」が挿入される。これは人々に笑う場所を指示してあげる役割がある。ただタイミングを間違って、一人だけ笑うのは、空気が読めていない場違いである。だから「笑い」はみなが笑う同じタイミングで笑わなければならない。ここに(ラカン囚人のジレンマ的な)一瞬のフリーズがおこる。指示することでこの一瞬の緊張を緩和する。ジジェクはこれを人々のかわりに笑ってあげることで、人々を笑う責任から解放してあげる、といった。あるいは最近のテレビ番組の過剰なテロップも同様だろう。どのように解釈すればよいかを補う。それは難しいからではなく、「みんなの考え」を指し示すことで、人々をフリーズから解放し、「責任へのせき立て」の行き先を誘導してあげている。

人工知能はいくら社会的な情報をデータベースとしてインストールしても、「ボケ」られるとその意味をもとめて終わりない解釈によってフリーズするだろう。しかし「笑い声」が入れば、人工知能でもフリーズせずに笑うことができるだろう。

最近、「KY」などの言葉がはやり、「空気を読む」ということに敏感である、とされる。社会の価値が多様で、流動性が向上することで人々の中に「常識」としての共通の基盤がなくなりつつあり、その場その場で、基盤としての空気を確認することが求められるためだと言われる。

そして最近の「お笑いブーム」はこのような現象と対応しているかもしれない。みなで笑うことは、みなが「責任へのせき立て」の義務を果たしている。人工知能が陥る無限後退という「外傷的な現実(リアル)」は覆い隠され、「社会的現実(リアリティ)」が共有されているように振る舞われる。なぜ人間には「フレーム問題」は起こらないのか、ではなく、「フレーム問題」こそが人間の現実(リアリティ)の成立条件になっているということだ。仮に人間が「フレーム問題」を乗り越えて、完全な解を得られるようになれば(すなわち人工知能が可能になれば)、「現実(リアリティ)」はもはや必要でなくなるということだろう。

「現実(リアリティ)」とは、われわれが自分の欲望の<現実界(リアル)>を見ないですむように、空想が作り上げた目隠しなのである。(ラカン)」

イデオロギーに関してもまったく同じである。イデオロギーは、われわれが堪えがたい現実(リアリティ)から逃避するためにつくりあげられる夢のような幻想などではない。イデオロギーはその根底的な次元において、われわれの「現実(リアリティ)」そのものを支えるための、空想的構築物である。イデオロギーは、われわれの現実(リアル)の社会的諸関係を構造化し、それによって、ある耐えがたい、現実(リアル)の、あってはならない核(けっして象徴化されえない外傷的な社会的分離、として概念化されたもの)を覆い隠す「幻覚」なのである。イデオロギーの機能は、われわれの現実(リアリティ)からの逃避の場を提供することではなく、ある外傷的な現実(リアル)の核からの逃避として、社会的現実(リアリティ)そのものを提供することである。


イデオロギーの崇高な対象」 スラヴォイ ジジェク (ISBN:4309242332

*1