- 人工知能分野で議論されている代表的な問題について説明できる
- 汎用的な人工知能の実現可能性について、いくつかの例を取り上げて説明できる
1. 人工知能分野で議論されている代表的な問題について説明できる
- トイ・プロブレムは、現実世界の複雑な問題の本質を失わない程度に単純化したもの。AIの基本的能力評価や異なるアルゴリズムの性能比較に役立つが、現実世界の複雑な課題への適用の難しさも浮き彫りになった。第1次AIブームの時代に、これらの単純化された問題しか解けないことが明らかになり、AIの限界が認識された。
- フレーム問題は、AIが目的に関係あることだけを選り出すことの難しさを示す未解決の課題。人間は自然に処理できるこの問題を、AIが柔軟に対応できるようにすることが研究目標の一つとなっている。この問題は、AIの行動決定における重要性と複雑さを浮き彫りにしている。
- チューリングテストは、AIが人間レベルの知能を持っているかを判定する方法で、外から観察できる行動に基づいて判断する点が特徴的。AIの研究分野で知能の判定基準として参照されるだけでなく、具体的なソフトウェア開発の目標にもなっている。現在、会話ソフトウェアは大きく進歩しているが、完全にチューリングテストをパスするレベルには達していない。
トイ・プロブレム
トイ・プロブレムは、現実世界の複雑な問題を簡略化したものです。AI研究者たちは、直接扱うには複雑すぎる問題の本質を失わない程度に単純化し、取り組みやすくします。例えば、2つの部屋を移動する掃除ロボットの問題を考えてみます。現実世界では、ロボットは連続的に移動し、掃除の失敗や部屋が再び汚れる可能性もあります。しかし、トイ・プロブレムではこれらの要素を省略し、基本的な動作のみに焦点を当てます。トイ・プロブレムは、AIの基本的な能力を評価したり、異なるアルゴリズムの性能を比較したりするのに役立ちます。しかし、第1次AIブームの時代に、これらの単純化された問題しか解けないことが明らかになり、現実世界の複雑な課題への適用の難しさが浮き彫りになりました。
フレーム問題
フレーム問題は、1969年にジョン・マッカーシーとパトリック・ヘイズによって提起された、AIにおける未解決の重要な課題です。この問題は、「今しようとしていることに関係のあることだけを選り出すことが、実は非常に難しい」ということを示しています。哲学者のダニエル・デネットは、この問題を説明するために興味深い例を挙げています。洞窟の中に、ロボットを動かすバッテリーと時限爆弾が置かれた台車があるという設定です。ロボットにバッテリーを取ってくるよう命じると、以下のような問題が発生します。
- 単純に命令を実行するロボットは、爆弾も一緒に持ち出してしまい、爆発を引き起こします。
- 行動の結果を考慮するよう改良されたロボットは、あらゆる可能性を考え始め、時間切れで爆発してしまいます。
- 目的に関係ないことは考慮しないよう改良されたロボットは、何が関係あるかを判断しようとして永遠に考え続け、動作しなくなります。
この問題は、人間の日常生活でも起こりうるものです。何も考えずに行動して予期せぬ結果を招いたり、考えすぎて行動できなくなったりすることがあります。しかし、人間は通常、この問題を自然に処理できます。AIがこのような柔軟な対応をできるようにすることが、研究の目標の一つとなっています。
チューリングテスト
チューリングテストは、イギリスの数学者アラン・チューリングが提案した、AIが人間レベルの知能を持っているかどうかを判定する方法です。このテストでは、人間がコンピュータと会話をし、相手がコンピュータだと見抜けなければ、そのコンピュータには知能があるとみなします。
このテストは、AIの内部メカニズムではなく、外から観察できる行動に基づいて判断するという点で特徴的です。チューリングテストは、AIの研究分野で知能の判定基準として参照されるだけでなく、具体的なソフトウェア開発の目標にもなっています。1966年に開発された対話プログラム「イライザ(ELIZA)」は、精神科セラピストの役割を演じ、多くの人々を驚かせました。また、1991年からはチューリングテストに合格する会話ソフトウェアを目指す「ローブナーコンテスト」が毎年開催されています。現在、会話ソフトウェアは大きく進歩していますが、完全にチューリングテストをパスするレベルには達していません。AIの進歩とともに、このテストの妥当性や限界についても議論が続いています。
強いAIと弱いAI
「強いAI」と「弱いAI」という概念は、1980年にアメリカの哲学者ジョン・サールが提唱しました。これらの概念は、AIの本質と可能性に関する重要な議論を引き起こしました。
- 強いAI:コンピュータは人間と同じ意味で心を持ち、本物の知能や意識を持つことができるという考え方です。
- 弱いAI:コンピュータは人間の心を完全に再現する必要はなく、人間の知的活動と同様の問題解決ができる便利な道具であればよいという立場です。
サールは「中国語の部屋」という思考実験を通じて、弱いAIは実現可能だが、強いAIは実現不可能だと主張しました。この実験では、中国語を理解しない人が完璧なマニュアルを使って中国語の質問に答える様子を描いています。
外部からは中国語を理解しているように見えても、実際には理解していないという状況は、AIが言語を処理する方法と類似しているとサールは考えました。この議論は、AIが真の理解や意識を持てるかどうかという哲学的な問いを投げかけ、AI研究の方向性にも影響を与えています。
シンボルグラウンディング問題
シンボルグラウンディング問題(記号接地問題)は、1990年に認知科学者のスティーブン・ハルナッド(Stevan Harnad)によって提起された問題です。これは、記号(シンボル)とその意味する対象がどのように結びつくかという課題です。人間の場合、「シマ」や「ウマ」という言葉を聞くと、それぞれに対応する具体的なイメージや経験と結びつきます。そのため、初めて「シマウマ」を見ても、それが何であるかを理解できます。
一方、コンピュータにとって、「シマウマ」という文字列はただの記号の羅列にすぎず、その意味を理解することは困難です。コンピュータが「シマウマ」という記号と、実際のシマウマを結びつけることができないという問題がシンボルグラウンディング問題です。この問題は、AIが真の意味での理解や知能を持つためには、単なる記号処理を超えて、世界と直接的に結びついた意味を獲得する必要があることを示唆しています。
身体性
AIの研究において、「身体性」という考え方が注目されています。これは、知能が成立するためには身体が不可欠であるという考え方です。人間は身体を通じて世界を認知し、その経験を基に概念を形成します。例えば、「コップ」という概念を本当の意味で理解するには、実際にコップに触れ、その冷たさを感じたり、落とすと割れるという経験をしたりする必要があります。
このように、外界と相互作用できる身体がないと、概念を適切に捉えることは難しいというのが身体性アプローチの考え方です。この視点は、AIの設計において、単に情報処理能力を高めるだけでなく、環境との相互作用や感覚運動経験の重要性を強調しています。
知識獲得のボトルネック
AIの分野で長年取り組まれてきた課題の一つに、知識獲得のボトルネックがあります。これは、AIシステムに必要な膨大な知識や常識をどのように効率的に与えるかという問題です。例えば、「りんごは赤い」という単純な事実を考えてみると、人間にとっては当たり前の知識ですが、AIにこの情報を理解させるには、「りんご」が何であるか、「赤い」とはどういう状態か、さらには例外(青りんごや黄色いりんごも存在する)なども教える必要があります。
このような常識や一般知識を、どのようにしてAIに効率よく獲得させるかが課題となっています。さらに、「りんごを食べる」という行為を理解させるには、りんごが食べ物であること、人間が食べることができること、どのように食べるのか(皮をむく場合もある)など、多くの関連知識が必要になります。このような知識を全てプログラムで記述したり、データベースに登録したりすることは、膨大な時間と労力がかかります。この問題は、言語処理タスクにおいても顕著です。例えば、「The city councilmen refused the demonstrators a permit because they feared violence.」という英文を正確に理解し翻訳するためには、文脈や一般常識が必要です。「they」が指すのは市議会議員なのか、デモ参加者なのかを判断するには、社会的な状況や人間の行動パターンについての知識が必要となります。このような曖昧性の解消は、人間には比較的容易ですが、AIにとっては非常に難しい課題です。
近年、機械学習や深層学習の発展により、大量のデータから自動的に知識を獲得する手法が進歩しています。例えば、大規模言語モデルは、インターネット上の膨大なテキストデータから学習することで、多様な知識を獲得しています。しかし、これらの手法にも課題があります。学習したデータに偏りがあると、不適切な知識や偏見を獲得してしまう可能性があります。また、データから学習した知識が本当に「理解」につながっているのか、それとも単なる統計的な相関に過ぎないのかという問題も議論されています。
2. 汎用的な人工知能の実現可能性について、いくつかの例を取り上げて説明できる
- 強いAIと弱いAIの区別、チューリングテスト、中国語の部屋の思考実験は、AIの知能と理解の本質を問う重要な概念である。
- シンボルグラウンディング問題と知識獲得のボトルネックは、AIが人間のような真の理解と柔軟な思考を獲得する上での主要な障壁となっている。
- 現状のAI技術には多くの課題が残されているが、将来的な汎用AI実現の可能性を踏まえ、社会への影響を考慮することが重要である。
強いAIと弱いAI
人工知能の実現可能性を考える際、「強いAI」と「弱いAI」という二つの概念が重要です。強いAIは、人間と同等の意識や心を持ち、あらゆる知的作業をこなせる人工知能を指します。一方、弱いAIは特定の作業に特化した道具としての人工知能です。現在実用化されている人工知能のほとんどは、弱いAIに分類されます。例えば、チェスや将棋のAI、画像認識AI、音声認識AIなどがこれに当たります。
| 観点 | 強いAI | 弱いAI |
|---|---|---|
| 定義 | 人間と同じ意味で心を持ち、本物の知能や意識を持つAI | 人間の心を再現する必要はなく、有用な道具として機能するAI |
| 心・意識の有無 | 持つ | 持たなくてよい |
| 目的 | 人間の知能に近い機能を人工的に実現 | 人間の知的活動と同様の問題解決ができればよい |
| サールの主張 (1980) | 実現不可能 | 実現可能 |
| 代表例 | (該当する実装例なし) | チェス・将棋AI、画像認識AI、音声認識AI |
チューリングテスト
人工知能が人間レベルの知能を持っているかを判定する方法の一つに、チューリングテストがあります。このテストでは、人間が機械と対話し、相手が人間か機械か区別できなければ、その機械は知能があるとみなします。ただし、チューリングテストに合格したとしても、それが本当の意味で知能を持っているかどうかについては、まだ議論の余地があります。
中国語の部屋
哲学者のジョン・サールが提唱した「中国語の部屋」という思考実験は、人工知能の本質的な理解について疑問を投げかけています。この実験では、中国語を理解しない人が、詳細な指示書に従って中国語の質問に答えることができる状況を想定します。外から見ると中国語を理解しているように見えますが、実際には理解していません。この思考実験は、人工知能が表面的には人間のように振る舞えても、本当の意味で理解しているとは限らないという問題を示しています。
シンボルグラウンディング問題
人工知能が言葉や記号の意味を真に理解できるかという「シンボルグラウンディング問題」も、汎用的な人工知能の実現に向けた課題の一つです。例えば、「シマウマ」という言葉を人工知能に教えても、実際のシマウマとの結びつきを理解させることは簡単ではありません。
知識獲得のボトルネック
人間が持つ膨大な一般常識を人工知能に教え込むことの難しさは、「知識獲得のボトルネック」と呼ばれています。例えば、「彼は望遠鏡で庭にいる女性を見た」という文を正確に理解するには、文脈や一般常識が必要です。このような知識を全て人工知能に教え込むのは、現実的には非常に困難な課題です。
汎用的な人工知能の実現には、まだ多くの課題があります。現在の人工知能技術は急速に進歩していますが、人間のような柔軟な思考や真の理解を持つAIの実現には、さらなる研究が必要です。ただし、技術の進歩は予測が難しく、将来的に汎用的な人工知能が実現する可能性はあります。そのため、AIの発展が社会に与える影響について、今から考えておくことが大切です。
キーワード解説
- シンギュラリティ
- AIが人類の知能を超える転換点(技術的特異点)とのことであり、それにより人間の生活に大きな変化が起こるという概念。シンギュラリティが起きると人工知能は自分自身よりも賢い人工知能を作れるようになり、その結果それ自身が無限に知能の高い存在を作り出せるようになるため、知的なシステムの技術開発速度が無限大になるので何が起きるか予想できないとされている。こうした脅威に対し、Googleは、イギリスのディープマインド・テクノロジーズ社を買収する際に、社内に人工知能に関する倫理委員会を作った。日本でも人工知能学会において、2014年に倫理委員会が設置された。なお、シンギュラリティに対する見解は人によって異なっている。
- シンボルグラウンディング問題
- 1990年に認知科学者のスティーブン・ハルナッド(Stevan Harnad)により議論された。記号(シンボル)とその対象がいかにして結び付くかという問題。人間のであれば「シマ(Stripe)」の意味も「ウマ(Horse)」の意味もよく分かっているので、本物のシマウマ(Zebra)を初めて見たとしても、「あれが話に聞いていたシマウマかもしれない」とすぐに認識することができる。しかし、コンピュータは「記号(文字)」の意味が分かっていないので、「シマ(Stripe)」と「ウマ(Horse)」から「シマウマ」と結び付けることができない。シンボルグラウンディング問題はまだ解決されておらず、人工知能の難問とされている。
- 身体性
- 知能が成立するためには身体が不可欠であるという考え。視覚や触覚などの外界と相互作用できる身体がないと、概念はとらえきれないというのが身体性というアプローチの考え。人間は身体を通して概念を獲得しているため、シンボルグラウンディング問題が起きない。
- ダートマス会議
- 人工知能という学術研究分野を確立した会議の通称である。1956年7月から8月にかけて開催された。
- トイ・プロブレム
- トイ・プロブレム(おもちゃの問題)とは、おもちゃのように簡単な問題という意味ではなくコンピュータで扱えるように本質を損なわない程度に問題を簡略化した問題のことで、トイ・プロブレムを用いることで問題の本質を理解したり現実世界の問題に取り組んだりする練習ができるようになる。コンピュータによる「推論」や「探索」の研究が進み、特定の問題に対して解を提示できるようになった。迷路や数学の定理の証明のような簡単な問題は解けても、現実の問題は解けないことが明らかになり、1970年代には人工知能研究は冬の時代を迎える。
- 知識獲得のボトルネック
- 知識のデータベースを構築するためには、専門家・ドキュメント・事例などから知識を獲得する必要がある。ドキュメントや事例から知識を獲得するためには自然言語処理や機械学習という技術を利用することで取得可能であるが、最大の知識源である人間の専門家の知識は暗黙的であるため獲得は難しい場合が多い。そこで専門家が持つ知識を上手にヒアリングするインタビューシステムなどの研究が行われた。知識を共有する方法や再利用する方法も問題になり、そうした問題を解決するために意味ネットワークやオントロジーなどの研究が活性化した。
- チューリングテスト
- イギリスの数学者アラン・チューリングが提唱した、別の場所にいる人間がコンピュータと会話をした場合に相手がコンピュータだと見抜けなければコンピュータには知能があるとするもの。1950年の論文の中でアラン・チューリングは50年以内に質問者が5問質問した後の判定でコンピュータを人間と誤認する確率は30%であると見積もった。1966年にジョセフ・ワイゼンバウム(Joseph Weizenbaum)によって開発されたイライザ(ELIZA)では、精神科セラピストの役割を演じるプログラムで、本物のセラピストと信じてしまう人も現れるほどの性能であった。1972年にケネス・コルビーが発表したパーリー(PARRY)も多くの判定者が誤解をする性能だった。イライザ(ELIZA)とパーリー(PARRY)は何度か会話を行ったことがあり、RFC439として最初の記録がある。1991年以降、チューリングテストに合格する会話ソフトウェアを目指すローブナーコンテストを毎年開催されているが、現在もまだチューリングテストにパスする会話ソフトウェアは現れていない。
- 中国語の部屋
- 英語しかわからない人を中国語の質問に答えることができる完璧なマニュアルがある部屋に閉じ込めて、その人がマニュアル通りに受け答えをすれば、実際には中国語を理解していないにも関わらず部屋の中の人が中国語を理解していると誤解してしまうという思考実験。
- 強いAIと弱いAI
- アメリカの哲学者ジョン・サールは1980年にAIを「強いAI」と「弱いAI」に区分する概念を発表した。強いAIは、適切にプログラムされたコンピュータが人間と同じように心を持つことを指し、人間の知能に近い機能を人工的に実現することが目指される。一方、弱いAIは、コンピュータが人間の心を持つ必要はなく、有用な道具としての機能を果たせば十分であり、特に人間の知能の一部に特化した機能の実現を指す。ジョン・サールは、表面的に人の思考を模倣する「弱いAI」の実現は可能だが、意識を持ち意味を理解するような「強いAI」は実現不可能だと主張している。その例として「中国語の部屋」という思考実験を行った。これは、英語しか理解できない人が中国語の質問に答えるための完璧なマニュアルを持っている部屋に閉じ込められ、その人がマニュアル通りに応答を行うことで、実際には中国語を理解していないにもかかわらず、中国語を理解していると誤解される可能性を示したもので、これが本当に知能といえるかについての議論がある。また、ブラックホールの研究で有名なスティーブン・ホーキングと共同研究を行った数学者ロジャー・ペンローズも、意識は脳内の微細な管で生じる量子効果が絡むため、現在のコンピュータでは「強いAI」は実現できないと主張している。
- 統計的機械翻訳
- 従来は文法構造や意味構造を分析して単語単位で訳を割り当ていた。現在の統計的自然言語処理では複数の単語をひとまとまりにした単位(句または文単位)で用意された膨大な量の対訳データをもとに、最も正解である確率が高いものを選択。
- フレーム問題
- 1969年にジョン・マッカーシーとパトリック・ヘイズが提唱。哲学者のダニエル・デネットは、洞窟から爆弾を運び出すことを命じられたロボットが考えすぎてフリーズしてしまう例を挙げた。有限の情報処理能力しかないため、今しようとしていることに関係のある情報だけを選択することが難しく、現実に起こりうる問題全てに対処することができないことを示すもの。ディープラーニングが登場した現在もまだ本質的な解決はされておらず、人工知能研究の中でも難問である。フレーム問題を打ち破ったAIを汎用AI、フレーム問題を打ち破っていないAIを特化型AIと呼ぶことがある。
- ルールベース機械翻訳
- 1970年代後半まで一般的に使われていた仕組。機械翻訳の手法としては最も歴史が長い手法だが、翻訳精度向上のために莫大な時間を要するため、まだまだ実用レベルではなかった。
- ローブナーコンテスト
- ローブナーコンテストとは、チームで優秀な会話ソフトウェアを開発し、その精度を競う大会。大会では、人間の審判員が2つのコンピュータ画面の前に座り、一方の画面はコンピュータが、もう一方は人間が表示を担当する。審判員は両方の画面に対して質問を入力して応答を得る。その応答に基づき、審判員はどちらが人間でどちらがコンピュータかを判定する。1991年以降、チューリングテストに合格する会話ソフトウェアを目指すローブナーコンテストが毎年開催されているが、現在に至ってもチューリングテストにパスする会話ソフトウェアは出現していない。
