本記事は、JDLA主催「G検定」の2024年11月試験対策資料です。新シラバスに準拠し、試験の重要ポイントを効率的に学習できるよう要点を簡潔にまとめています。シラバスの項目に沿って各章を構成し、重要なキーワードと概念を分かりやすく解説しています。初学者の方から復習を目的とする方まで、幅広くご活用いただけます。

なお、本資料は学習補助教材であり、合格を保証するものではありません。内容についてのご要望は、お問い合わせフォームからご連絡ください。

(最終更新日:2025年1月7日)

★このページの使い方
・187項目の要点ごとに3行のまとめと解説があります。
・各章ごとに重要キーワードをまとめています。

★検索の使い方
キーワードの検索にページ内検索機能をご活用ください(mac:command+F、windows:ctrl+F)
Macの場合は、キーボードの「command」キー(⌘)と「F」キーを同時に押します。Windowsの場合は、「Ctrl」キーと「F」キーを同時に押します。そうすると、画面の上部または下部に小さな検索ボックスが表示されます。そのボックスに見つけたい単語やフレーズを入力すると、その単語やフレーズが文書内でどこにあるかを示してくれます。そして、その単語やフレーズが画面上でハイライト表示されるので、簡単に見つけることができます。

試験対策

参考書籍


深層学習教科書 ディープラーニング G検定(ジェネラリスト)
公式テキスト 第3版– 2024/5/27

AI時代の必携試験、G検定の「公式テキスト」第3版!

詳細
徹底攻略ディープラーニングG検定ジェネラリスト問題集 第3版

G検定受験者必携問題集の改訂3版が登場!

詳細

YouTube解説動画

【G検定まとめ2024】講義編 第1回

YouTubeで見る
【G検定まとめ2024】問題編 第1回

YouTubeで見る

1. 人工知能の定義

試験項目
・人工知能とは何か、具体例を用いて説明できる
・人工知能のレベルを「単純な制御プログラム」「古典的な人工知能」「機械学習」「深層学習」の4つに分類し、それぞれがどのようなものか説明することができる
・AI効果を説明できる
・人工知能とロボットの違いを説明できる

キーワード
AI効果、エージェント、人工知能、機械学習、ディープラーニング 

1. 人工知能とは何か、具体例を用いて説明できる

  • 人工知能は人間のような知的処理能力を持つ機械やシステムを指す概念で、1956年のダートマス会議で用語が初めて使用された。
  • 「知性」や「知能」の定義が曖昧なため、人工知能の定義や要件については専門家の間でも意見が分かれている。
  • 人工知能の具体例には、お掃除ロボット、自動運転車、将棋・囲碁プログラムなどがあり、日常生活から高度な分野まで幅広く応用されている。

人工知能は、人間のような知的な処理能力を備えた機械やシステムを指す概念です。この用語は1956年にアメリカで開かれたダートマス会議で初めて使用され、それ以降、学術的な研究分野として認識されるようになりました。人工知能の定義は、専門家の間でも完全に一致しているわけではありません。その理由は、「知性」や「知能」自体の定義が明確でないことにあります。「人間と同じ知的な処理能力」の解釈が研究者によって異なるため、人工知能の具体的な要件についても様々な見解が存在します。例えば、感情や心、価値観、個性などが人工知能の実現に必要かどうかについては、意見が分かれています。人工知能の具体例を挙げると、私たちの日常生活に身近なものから高度なものまで、様々なものがあります。例えば、家庭用のお掃除ロボットは人工知能の一例です。このロボットは、部屋の形状や障害物の位置を把握し、効率的に掃除を行うことができます。また、自動運転車も人工知能技術を活用しています。これらの機器は、周囲の状況を認識し、その情報を基に適切な行動を選択する能力を持っています。さらに、ゲームの分野でも人工知能は活躍しています。将棋や囲碁のプログラムは、人間の棋士と対局し、時には勝利を収めることもあります。これらのプログラムは、膨大な対局データを学習し、状況に応じて最適な手を選択する能力を持っています。

2. 人工知能のレベルを「単純な制御プログラム」「古典的な人工知能」「機械学習」「深層学習」の4つに分類し、それぞれがどのようなものか説明することができる

  • 人工知能の進化は、単純な制御プログラムから始まり、古典的な人工知能、機械学習を経て、深層学習へと発展した。
  • この進化過程は、プログラムの柔軟性と学習能力の向上を示し、各段階で異なる特性と応用分野を持つ。
  • 現代では、特に深層学習が画像認識や自然言語処理などで人間を凌ぐ性能を発揮し、社会に大きな影響を与えている。

単純な制御プログラム
最も基本的なレベルが「単純な制御プログラム」です。これは私たちの日常生活でよく目にする家電製品などに組み込まれているものです。例えば、エアコンの温度調節や洗濯機の水量調整などがこれに当たります。これらのプログラムの特徴は、あらかじめ決められた単純な動作パターンに従って動くことです。つまり、プログラムに書かれた通りの動作しかできず、状況に応じて柔軟に対応することはできません。

古典的な人工知能
次のレベルは「古典的な人工知能」です。これは、人間が持つ知識やルールをコンピュータに教え込み、それに基づいて推論や判断を行うシステムです。例えば、制御ロボットや診断プログラムなどがこれに該当します。古典的な人工知能の特徴は、与えられた知識の範囲内であれば複雑な問題解決も可能だということです。ただし、新しい状況への対応には限界があります。プログラムに組み込まれていない状況に遭遇すると、適切な対応ができなくなってしまいます。

機械学習
第3のレベルは「機械学習」です。これは、データから自動的にパターンを見つけ出し、それを基に判断や予測を行う技術です。機械学習を用いたシステムの特徴は、大量のデータを学習することで、人間が明示的に教えなくても様々なタスクをこなすことができるようになる点です。機械学習は、データの中から規則性や関連性を見出し、それを基に新しい状況にも対応できるようになります。これにより、従来のプログラムでは難しかった柔軟な対応が可能になりました。

深層学習
最後のレベルは「深層学習」です。これは機械学習の一種で、人間の脳の神経回路を模した多層のニューラルネットワークを使用します。深層学習の特徴は、特に画像認識や自然言語処理などの分野で高い性能を発揮し、人間を超える精度で複雑なタスクを処理できる点です。大量のデータと強力な計算能力を用いて、非常に複雑なパターンを学習し、高度な判断や予測を行うことができます。

3. AI効果を説明できる

  • AI効果は、AIが新たな能力を獲得すると、その成果が「単なる自動化」と見なされ、真の知能とは考えられなくなる現象を指す。
  • この効果により、AIの進歩や貢献が過小評価される傾向がある。
  • チェスや将棋などのゲームで顕著に見られ、AIの研究開発者にとって重要な課題となっている。

AI効果は、人工知能(AI)の発展に伴って観察される現象です。この現象は、AIが新たな能力を身につけたり、これまで人間だけができると考えられていた作業を行えるようになったりした際に起こります。AI効果の具体的な例として、AIが新しい技術を実現し、その仕組みが明らかになった時に見られる人々の反応があります。多くの場合、人々はその成果を「ただの自動化」や「プログラミングの結果」としてとらえ、「本物の知能」とは考えなくなる傾向があります。つまり、AIの成果が理解されるにつれて、それが「知能」であるという認識が薄れていくのです。この現象の背景には、人間の知能に対する認識の変化があります。私たちは、人間にしかできないと思っていたことがAIによって実現されると、その能力をもはや特別なものとは見なさなくなります。その結果、AIの実際の進歩や成果が十分に評価されない状況が生じることがあります。AI効果は、チェスや将棋などのゲームの分野で特に顕著に見られました。かつては、これらの複雑なゲームで人間に勝つことは、高度な知能の証だと考えられていました。しかし、AIが一流のプレイヤを打ち負かすようになると、「それは単に膨大な計算を行っているだけだ」という見方が広まりました。この効果は、AIの研究開発に携わる人々にとって重要な課題となっています。AIの進歩を正確に評価し、その意義を社会に伝えるためには、AI効果を考慮に入れる必要があります。また、AIの能力が向上するにつれて、「知能」や「知性」の定義自体を見直す必要性も生じています。

4. 人工知能とロボットの違いを説明できる

  • 人工知能は思考や判断能力の実現を目指し、ロボットは物理的な動作や作業に焦点を当てている。
  • 両者は専門家により明確に区別され、将棋AIは純粋な思考プログラム、産業用ロボットは物理的作業を行う例として挙げられる。
  • ただし、自動運転車のように人工知能とロボット工学の融合が進み、境界線が曖昧になってきている分野も存在する。

人工知能とロボットは、どちらも先端技術の分野ですが、その目的や特徴には大きな違いがあります。人工知能は、主に「考える」という知的な処理能力の実現を目指しています。つまり、人間のような思考や判断ができるコンピュータシステムを作ることが主な目標です。例えば、将棋や囲碁のAIシステムは、物理的な形を持たずに、純粋に思考や戦略を生み出すプログラムとして機能します。一方、ロボットは物理的な形を持つ機械であり、主に動きや作業を行うことに重点が置かれています。例えば、工場で使われる産業用ロボットは、決められた作業を繰り返し行いますが、必ずしも高度な思考能力は必要としません。専門家の間では、人工知能とロボットの研究は明確に区別されています。人工知能の研究者は主に「考える」部分に注目しているのに対し、ロボットの研究者は体全体の動きや構造を研究しています。ただし、最近では人工知能とロボット工学の融合が進んでいます。例えば、自動運転車は、物理的な形を持つロボットの側面と、周囲の状況を認識し判断する人工知能の側面を併せ持っています。このように、両者の境界線があいまいになってきている分野もあります。人工知能とロボットの関係を簡単に例えると、ロボットの「腕」に当たる部分が人工知能だと考えることができます。つまり、人工知能はロボットの一部として機能し、より高度な判断や作業を可能にする「頭脳」のような役割を果たすことがあります。

キーワード

AI効果
AI効果は、人工知能技術によって新たな成果が生み出されると、その原理が解明された瞬間、人々が「それは単なる自動化であり、真の知能とは関係ない」と考える心理的な現象である。この効果は、AIの進歩に伴ってその本質的な価値を過小評価する傾向が生じることを示している。技術の成果が当たり前になることで、人々はその重要性を見過ごしやすくなり、その結果、AIのさらなる発展の可能性に対する認識が狭まることがある。この心理的な効果に注意し、AI技術の真価を正確に評価することが重要。

エージェント
エージェントは、プログラムやメカニズムの一種で、あらかじめ定義された目標を達成することを目的として設計されている。自律的に環境を認識し、その状況に応じて適切な行動を選択する能力を持っている。また、学習機能を備えたエージェントは、経験を通じて行動戦略を改善し、より効果的な結果を得ることができる。

人工知能
計算機による知的な情報処理システムの設計や実現に関する研究分野であり、コンピュータを使って学習・推論・認識・判断など人間と同じ知的な処理能力を持つシステム。「知性」や「知能」自体の定義がないため、人工知能の具体的な定義は専門家の間でも未だに無い。同じシステムであっても、それを人工知能だと主張する人と人工知能ではないと考える人がいる。「人間と同じ知的な処理能力を持つ機械(情報処理システム)」という表現をすれば、「人間と同じ知的な処理能力」という部分の解釈が人によって異なる可能性がある。AIの始まりはエニアック登場の10年後に1956年ダートマス会議で初めて提唱されたことによる。アーサー・サミュエルは機械学習を「明示的にプログラムしなくても学習する能力をコンピュータに与える研究分野」と定義している。

機械学習
学習により自動で改善するコンピューターアルゴリズムもしくはその研究領域。データが持つ特徴(構造やパターン)を学習しており、パターン認識という古くからの研究をベースにしている。

ディープラーニング
ディープニューラルネットワークを用いて学習を行うアルゴリズムで機械学習に含まれる。ディープラーニングを取り入れた人工知能は、学習対象となるデータの特徴量を自動的に学習する。画像認識、音声認識、自動翻訳など、従来のコンピュータでは実現するのが難しいとされてきた分野での応用が進んでいる。ディープラーニングは従来の機械学習と異なり、特徴量そのものを学習するため、入力の良い内部表現を得ることができるようになった。

2. 人工知能分野で議論される問題

試験項目
・人工知能分野で議論されている代表的な問題について説明できる
・汎用的な人工知能の実現可能性について、いくつかの例を取り上げて説明できる

キーワード
シンギュラリティ、シンボルグラウンディング問題、身体性、ダートマス会議、トイ・プロブレム、知識獲得のボト ルネック、チューリングテスト、中国語の部屋、強い AI と弱い AI、統計的機械翻訳、フレーム問題、ルールベース機械翻訳、ローブナーコンテスト

1. 人工知能分野で議論されている代表的な問題について説明できる

  • トイ・プロブレムは、現実世界の複雑な問題の本質を失わない程度に単純化したもの。AIの基本的能力評価や異なるアルゴリズムの性能比較に役立つが、現実世界の複雑な課題への適用の難しさも浮き彫りになった。第1次AIブームの時代に、これらの単純化された問題しか解けないことが明らかになり、AIの限界が認識された。
  • フレーム問題は、AIが目的に関係あることだけを選り出すことの難しさを示す未解決の課題。人間は自然に処理できるこの問題を、AIが柔軟に対応できるようにすることが研究目標の一つとなっている。この問題は、AIの行動決定における重要性と複雑さを浮き彫りにしている。
  • チューリングテストは、AIが人間レベルの知能を持っているかを判定する方法で、外から観察できる行動に基づいて判断する点が特徴的。AIの研究分野で知能の判定基準として参照されるだけでなく、具体的なソフトウェア開発の目標にもなっている。現在、会話ソフトウェアは大きく進歩しているが、完全にチューリングテストをパスするレベルには達していない。

トイ・プロブレム
トイ・プロブレムは、現実世界の複雑な問題を簡略化したものです。AI研究者たちは、直接扱うには複雑すぎる問題の本質を失わない程度に単純化し、取り組みやすくします。例えば、2つの部屋を移動する掃除ロボットの問題を考えてみます。現実世界では、ロボットは連続的に移動し、掃除の失敗や部屋が再び汚れる可能性もあります。しかし、トイ・プロブレムではこれらの要素を省略し、基本的な動作のみに焦点を当てます。トイ・プロブレムは、AIの基本的な能力を評価したり、異なるアルゴリズムの性能を比較したりするのに役立ちます。しかし、第1次AIブームの時代に、これらの単純化された問題しか解けないことが明らかになり、現実世界の複雑な課題への適用の難しさが浮き彫りになりました。

フレーム問題
フレーム問題は、1969年にジョン・マッカーシーとパトリック・ヘイズによって提起された、AIにおける未解決の重要な課題です。この問題は、「今しようとしていることに関係のあることだけを選り出すことが、実は非常に難しい」ということを示しています。哲学者のダニエル・デネットは、この問題を説明するために興味深い例を挙げています。洞窟の中に、ロボットを動かすバッテリーと時限爆弾が置かれた台車があるという設定です。ロボットにバッテリーを取ってくるよう命じると、以下のような問題が発生します。

・単純に命令を実行するロボットは、爆弾も一緒に持ち出してしまい、爆発を引き起こします。
・行動の結果を考慮するよう改良されたロボットは、あらゆる可能性を考え始め、時間切れで爆発してしまいます。
・目的に関係ないことは考慮しないよう改良されたロボットは、何が関係あるかを判断しようとして永遠に考え続け、動作しなくなります。

この問題は、人間の日常生活でも起こりうるものです。何も考えずに行動して予期せぬ結果を招いたり、考えすぎて行動できなくなったりすることがあります。しかし、人間は通常、この問題を自然に処理できます。AIがこのような柔軟な対応をできるようにすることが、研究の目標の一つとなっています。

チューリングテスト
チューリングテストは、イギリスの数学者アラン・チューリングが提案した、AIが人間レベルの知能を持っているかどうかを判定する方法です。このテストでは、人間がコンピュータと会話をし、相手がコンピュータだと見抜けなければ、そのコンピュータには知能があるとみなします。このテストは、AIの内部メカニズムではなく、外から観察できる行動に基づいて判断するという点で特徴的です。チューリングテストは、AIの研究分野で知能の判定基準として参照されるだけでなく、具体的なソフトウェア開発の目標にもなっています。1966年に開発された対話プログラム「イライザ(ELIZA)」は、精神科セラピストの役割を演じ、多くの人々を驚かせました。また、1991年からはチューリングテストに合格する会話ソフトウェアを目指す「ローブナーコンテスト」が毎年開催されています。現在、会話ソフトウェアは大きく進歩していますが、完全にチューリングテストをパスするレベルには達していません。AIの進歩とともに、このテストの妥当性や限界についても議論が続いています。

強いAIと弱いAI
「強いAI」と「弱いAI」という概念は、1980年にアメリカの哲学者ジョン・サールが提唱しました。これらの概念は、AIの本質と可能性に関する重要な議論を引き起こしました。


・強いAI:コンピュータは人間と同じ意味で心を持ち、本物の知能や意識を持つことができるという考え方です。
・弱いAI:コンピュータは人間の心を完全に再現する必要はなく、人間の知的活動と同様の問題解決ができる便利な道具であればよいという立場です。


サールは「中国語の部屋」という思考実験を通じて、弱いAIは実現可能だが、強いAIは実現不可能だと主張しました。この実験では、中国語を理解しない人が完璧なマニュアルを使って中国語の質問に答える様子を描いています。外部からは中国語を理解しているように見えても、実際には理解していないという状況は、AIが言語を処理する方法と類似しているとサールは考えました。この議論は、AIが真の理解や意識を持てるかどうかという哲学的な問いを投げかけ、AI研究の方向性にも影響を与えています。

シンボルグラウンディング問題
シンボルグラウンディング問題(記号接地問題)は、1990年に認知科学者のステファノ・ハルナッドによって提起された問題です。これは、記号(シンボル)とその意味する対象がどのように結びつくかという課題です。人間の場合、「シマ」や「ウマ」という言葉を聞くと、それぞれに対応する具体的なイメージや経験と結びつきます。そのため、初めて「シマウマ」を見ても、それが何であるかを理解できます。

一方、コンピュータにとって、「シマウマ」という文字列はただの記号の羅列にすぎず、その意味を理解することは困難です。コンピュータが「シマウマ」という記号と、実際のシマウマを結びつけることができないという問題がシンボルグラウンディング問題です。この問題は、AIが真の意味での理解や知能を持つためには、単なる記号処理を超えて、世界と直接的に結びついた意味を獲得する必要があることを示唆しています。

身体性
AIの研究において、「身体性」という考え方が注目されています。これは、知能が成立するためには身体が不可欠であるという考え方です。人間は身体を通じて世界を認知し、その経験を基に概念を形成します。例えば、「コップ」という概念を本当の意味で理解するには、実際にコップに触れ、その冷たさを感じたり、落とすと割れるという経験をしたりする必要があります。

このように、外界と相互作用できる身体がないと、概念を適切に捉えることは難しいというのが身体性アプローチの考え方です。この視点は、AIの設計において、単に情報処理能力を高めるだけでなく、環境との相互作用や感覚運動経験の重要性を強調しています。

知識獲得のボトルネック
AIの分野で長年取り組まれてきた課題の一つに、知識獲得のボトルネックがあります。これは、AIシステムに必要な膨大な知識や常識をどのように効率的に与えるかという問題です。例えば、「りんごは赤い」という単純な事実を考えてみると、人間にとっては当たり前の知識ですが、AIにこの情報を理解させるには、「りんご」が何であるか、「赤い」とはどういう状態か、さらには例外(青りんごや黄色いりんごも存在する)なども教える必要があります。このような常識や一般知識を、どのようにしてAIに効率よく獲得させるかが課題となっています。さらに、「りんごを食べる」という行為を理解させるには、りんごが食べ物であること、人間が食べることができること、どのように食べるのか(皮をむく場合もある)など、多くの関連知識が必要になります。このような知識を全てプログラムで記述したり、データベースに登録したりすることは、膨大な時間と労力がかかります。この問題は、言語処理タスクにおいても顕著です。例えば、「The city councilmen refused the demonstrators a permit because they feared violence.」という英文を正確に理解し翻訳するためには、文脈や一般常識が必要です。「they」が指すのは市議会議員なのか、デモ参加者なのかを判断するには、社会的な状況や人間の行動パターンについての知識が必要となります。このような曖昧性の解消は、人間には比較的容易ですが、AIにとっては非常に難しい課題です。近年、機械学習や深層学習の発展により、大量のデータから自動的に知識を獲得する手法が進歩しています。例えば、大規模言語モデルは、インターネット上の膨大なテキストデータから学習することで、多様な知識を獲得しています。しかし、これらの手法にも課題があります。学習したデータに偏りがあると、不適切な知識や偏見を獲得してしまう可能性があります。また、データから学習した知識が本当に「理解」につながっているのか、それとも単なる統計的な相関に過ぎないのかという問題も議論されています。

2. 汎用的な人工知能の実現可能性について、いくつかの例を取り上げて説明できる

  • 強いAIと弱いAIの区別、チューリングテスト、中国語の部屋の思考実験は、AIの知能と理解の本質を問う重要な概念である。
  • シンボルグラウンディング問題と知識獲得のボトルネックは、AIが人間のような真の理解と柔軟な思考を獲得する上での主要な障壁となっている。
  • 現状のAI技術には多くの課題が残されているが、将来的な汎用AI実現の可能性を踏まえ、社会への影響を考慮することが重要である。

強いAIと弱いAI
人工知能の実現可能性を考える際、「強いAI」と「弱いAI」という二つの概念が重要です。強いAIは、人間と同等の意識や心を持ち、あらゆる知的作業をこなせる人工知能を指します。一方、弱いAIは特定の作業に特化した道具としての人工知能です。現在実用化されている人工知能のほとんどは、弱いAIに分類されます。例えば、チェスや将棋のAI、画像認識AI、音声認識AIなどがこれに当たります。

チューリングテスト
人工知能が人間レベルの知能を持っているかを判定する方法の一つに、チューリングテストがあります。このテストでは、人間が機械と対話し、相手が人間か機械か区別できなければ、その機械は知能があるとみなします。ただし、チューリングテストに合格したとしても、それが本当の意味で知能を持っているかどうかについては、まだ議論の余地があります。

中国語の部屋
哲学者のジョン・サールが提唱した「中国語の部屋」という思考実験は、人工知能の本質的な理解について疑問を投げかけています。この実験では、中国語を理解しない人が、詳細な指示書に従って中国語の質問に答えることができる状況を想定します。外から見ると中国語を理解しているように見えますが、実際には理解していません。この思考実験は、人工知能が表面的には人間のように振る舞えても、本当の意味で理解しているとは限らないという問題を示しています。

シンボルグラウンディング問題
人工知能が言葉や記号の意味を真に理解できるかという「シンボルグラウンディング問題」も、汎用的な人工知能の実現に向けた課題の一つです。例えば、「シマウマ」という言葉を人工知能に教えても、実際のシマウマとの結びつきを理解させることは簡単ではありません。

知識獲得のボトルネック
人間が持つ膨大な一般常識を人工知能に教え込むことの難しさは、「知識獲得のボトルネック」と呼ばれています。例えば、「彼は望遠鏡で庭にいる女性を見た」という文を正確に理解するには、文脈や一般常識が必要です。このような知識を全て人工知能に教え込むのは、現実的には非常に困難な課題です。汎用的な人工知能の実現には、まだ多くの課題があります。現在の人工知能技術は急速に進歩していますが、人間のような柔軟な思考や真の理解を持つAIの実現には、さらなる研究が必要です。ただし、技術の進歩は予測が難しく、将来的に汎用的な人工知能が実現する可能性はあります。そのため、AIの発展が社会に与える影響について、今から考えておくことが大切です。

キーワード

シンギュラリティ
AIが人類の知能を超える転換点(技術的特異点)とのことであり、それにより人間の生活に大きな変化が起こるという概念。シンギュラリティが起きると人工知能は自分自身よりも賢い人工知能を作れるようになり、その結果それ自身が無限に知能の高い存在を作り出せるようになるため、知的なシステムの技術開発速度が無限大になるので何が起きるか予想できないとされている。こうした脅威に対し、Googleは、イギリスのディープマインド・テクノロジーズ社を買収する際に、社内に人工知能に関する倫理委員会を作った。日本でも人工知能学会において、2014年に倫理委員会が設置された。なお、シンギュラリティに対する見解は人によって異なっている。

シンボルグラウンディング問題
1990年に認知科学者のスティーブン・ハルナッドにより議論された。記号(シンボル)とその対象がいかにして結び付くかという問題。人間のであれば「シマ(Stripe)」の意味も「ウマ(Horse)」の意味もよく分かっているので、本物のシマウマ(Zebra)を初めて見たとしても、「あれが話に聞いていたシマウマかもしれない」とすぐに認識することができる。しかし、コンピュータは「記号(文字)」の意味が分かっていないので、「シマ(Stripe)」と「ウマ(Horse)」から「シマウマ」と結び付けることができない。シンボルグラウンディング問題はまだ解決されておらず、人工知能の難問とされている。

身体性
知能が成立するためには身体が不可欠であるという考え。視覚や触覚などの外界と相互作用できる身体がないと、概念はとらえきれないというのが身体性というアプローチの考え。人間は身体を通して概念を獲得しているため、シンボルグラウンディング問題が起きない。

ダートマス会議
人工知能という学術研究分野を確立した会議の通称である。1956年7月から8月にかけて開催された。

トイ・プロブレム
トイ・プロブレム(おもちゃの問題)とは、おもちゃのように簡単な問題という意味ではなくコンピュータで扱えるように本質を損なわない程度に問題を簡略化した問題のことで、トイ・プロブレムを用いることで問題の本質を理解したり現実世界の問題に取り組んだりする練習ができるようになる。コンピュータによる「推論」や「探索」 の研究が進み、特定の問題に対して解を提示できるようになった。迷路や数学の定理の証明のような簡単な問題は解けても、現実の問題は解けないことが明らかになり、1970年代には人工知能研究は冬の時代を迎える。

知識獲得のボトルネック
知識のデータベースを構築するためには、専門家・ドキュメント・事例などから知識を獲得する必要がある。ドキュメントや事例から知識を獲得するためには自然言語処理や機械学習という技術を利用することで取得可能であるが、最大の知識源である人間の専門家の知識は暗黙的であるため獲得は難しい場合が多い。そこで専門家が持つ知識を上手にヒアリングするインタビューシステムなどの研究が行われた。知識を共有する方法や再利用する方法も問題になり、そうした問題を解決するために意味ネットワークやオントロジーなどの研究が活性化した。

チューリングテスト
イギリスの数学者アラン・チューリングが提唱した、別の場所にいる人間がコンピュータと会話をした場合に相手がコンピュータだと見抜けなければコンピュータには知能があるとするもの。1950年の論文の中でアラン・チューリングは50年以内に質問者が5問質問した後の判定でコンピュータを人間と誤認する確率は30%であると見積もった。1966年にジョセフ・ワインバムによって開発されたイライザ(ELIZA)では、精神科セラピストの役割を演じるプログラムで、本物のセラピストと信じてしまう人も現れるほどの性能であった。1972年にケネス。コルビーが発表したパーリー(PARRY)も多くの判定者が誤解をする性能だった。イライザ(ELIZA)とパーリー(PARRY)は何度か会話を行ったことがあり、RFC439として最初の記録がある。1991年以降、チューリングテストに合格する会話ソフトウェアを目指すローブナーコンテストを毎年開催されているが、現在もまだチューリングテストにパスする会話ソフトウェアは現れていない。

中国語の部屋
英語しかわからない人を中国語の質問に答えることができる完璧なマニュアルがある部屋に閉じ込めて、その人がマニュアル通りに受け答えをすれば、実際には中国語を理解していないにも関わらず部屋の中の人が中国語を理解していると誤解してしまうという思考実験。

強い AI と弱い AI

アメリカの哲学者ジョン・サールは1980年にAIを「強いAI」と「弱いAI」に区分する概念を発表した。強いAIは、適切にプログラムされたコンピュータが人間と同じように心を持つことを指し、人間の知能に近い機能を人工的に実現することが目指される。一方、弱いAIは、コンピュータが人間の心を持つ必要はなく、有用な道具としての機能を果たせば十分であり、特に人間の知能の一部に特化した機能の実現を指す。ジョン・サールは、表面的に人の思考を模倣する「弱いAI」の実現は可能だが、意識を持ち意味を理解するような「強いAI」は実現不可能だと主張している。その例として「中国語の部屋」という思考実験を行った。これは、英語しか理解できない人が中国語の質問に答えるための完璧なマニュアルを持っている部屋に閉じ込められ、その人がマニュアル通りに応答を行うことで、実際には中国語を理解していないにもかかわらず、中国語を理解していると誤解される可能性を示したもので、これが本当に知能といえるかについての議論がある。また、ブラックホールの研究で有名なスティーブン・ホーキングと共同研究を行った数学者ロジャー・ペンローズも、意識は脳内の微細な管で生じる量子効果が絡むため、現在のコンピュータでは「強いAI」は実現できないと主張している。

統計的機械翻訳
従来は文法構造や意味構造を分析して単語単位で訳を割り当ていた。現在の統計的自然言語処理では複数の単語をひとまとまりにした単位(句または文単位)で用意された膨大な量の対訳データをもとに、最も正解である確率が高いものを選択。

フレーム問題
1969年にジョン・マッカーシーとパトリック・ヘイズが提唱。哲学者のダニエル・デネットは、洞窟から爆弾を運び出すことを命じられロボットが洞窟から爆弾を運び出すことを命じられたロボットが考えすぎてフリーズしてしまう例を挙げた。有限の情報処理能力しかないため、今しようとしていることに関係のある情報だけを選択することが難しく、現実に起こりうる問題全てに対処することができないことを示すもの。ディープラーニングが登場した現在もまだ本質的な解決はされておらず、人工知能研究の中でも難問である。フレーム問題を打ち破ったAIを汎用AI、フレーム問題を打ち破っていないAIを特化型AIと呼ぶことがある。

ルール ベース機械翻訳
1970年代後半まで一般的に使われていた仕組。 機械翻訳の手法としては最も歴史が長い手法だが、翻訳精度向上のために莫大な時間を要するため、まだまだ実用レベルではなかった。

ローブナーコンテスト
ローブナーコンテストとは、チームで優秀な会話ソフトウェアを開発し、その精度を競う大会。大会では、人間の審判員が2つのコンピュータ画面の前に座り、一方の画面はコンピュータが、もう一方は人間が表示を担当する。審判員は両方の画面に対して質問を入力して応答を得る。その応答に基づき、審判員はどちらが人間でどちらがコンピュータかを判定する。1991年以降、チューリングテストに合格する会話ソフトウェアを目指すローブナーコンテストが毎年開催されているが、現在に至ってもチューリングテストにパスする会話ソフトウェアは出現していない。

3. 探索・推論

試験項目
・探索・推論の具体例を説明できる
・探索・推論を実現する代表的な手法を説明できる

 キーワード
αβ 法、Mini-Max 法、SHRDLU、STRIPS、探索木、ハノイの塔、幅優先探索、深さ優先探索、ブルー トフォース、モンテカルロ法

1. 探索・推論の具体例を説明できる

  • 迷路問題と探索木探索は、コンピュータによる問題解決の基本を理解する上で重要な例題となる。
  • 迷路をノードと線で表現された探索木に変換することで、コンピュータが処理可能な形式に変換できる。
  • 幅優先探索と深さ優先探索という2つの基本的な探索手法があり、それぞれに長所と短所がある。

迷路問題と探索木
迷路問題は、探索と推論の基本的な考え方を理解するのに適した例です。コンピュータが迷路を解く過程を見ていくと、探索の仕組みがよく分かります。まず、迷路をコンピュータが処理できる形に変換します。具体的には、分岐点や行き止まりに記号を付け、迷路の枠を取り除きます。すると、迷路は木の形をした構造、つまり探索木として表現できます。探索木では、スタート地点を起点として、各分岐点や行き止まりがノードとなり、それらを線で結んだ構造になります。この探索木を順にたどっていき、ゴールにたどり着く経路を見つけることで、迷路の解答を得ることができます。

ハノイの塔と探索木
探索木は、ハノイの塔というパズルの解法にも応用できます。ハノイの塔は、3本のポールと大きさの異なる円盤を使ったパズルです。最初はすべての円盤が左側のポールに小さいものが上になるように積まれています。このパズルをコンピュータに解かせるには、まず状態をコンピュータが理解できる形で表現する必要があります。例えば、円盤の位置を数字と記号の組み合わせで表現し、それを探索木の形に変換します。探索木を用いることで、ハノイの塔の様々な状態とその間の遷移を表現できます。この木構造を探索することで、初期状態から目標状態(すべての円盤が右側のポールに移動した状態)への最適な手順を見つけることができます。

ロボットの行動計画
探索は、ロボットの行動計画(プランニング)にも応用されています。例えば、部屋の掃除をするロボットの行動を計画する場合を考えてみます。ロボット、部屋、ゴミを含む環境を1つの状態として捉え、ある状態から別の状態への遷移をロボットの行動とみなします。これらの状態と行動の関係を探索空間として表現します。プランニングでは、各状態に対して「前提条件」、「行動」、「結果」という3つの要素を定義します。これにより、ロボットは現在の状態から目標の状態に至るまでの最適な行動順序を決定することができます。このようなプランニング技術は、単純な掃除ロボットだけでなく、より複雑なタスクを行う高度なロボットシステムの開発にも応用されています。

2. 探索・推論を実現する代表的な手法を説明できる

  • 探索木は問題をコンピュータが処理可能な形に変換し、分岐や行き止まりを図式化した構造である。
  • 迷路解決を例とすると、スタートからゴールへの経路を探索木上でたどることで解を得られる。
  • 幅優先探索と深さ優先探索が基本的な探索手法であり、それぞれ最短経路の保証とメモリ効率に特徴がある。

探索木による問題解決
迷路の問題を例に、探索・推論の基本的な考え方を見てみましょう。コンピュータで迷路を解くには、問題をコンピュータが処理できる形に変換する必要があります。迷路の分岐点や行き止まりに記号を付け、それらの関係性を図式化すると、木の形をした構造が現れます。これを「探索木」と呼びます。
探索木は、迷路の問題を場合分けして表現したものです。スタート地点から探索木をたどり、ゴールにたどり着く経路を見つけることで、迷路の解答を得ることができます。

基本的な探索手法
探索木を用いて問題を解く際、主に以下の2つの手法が使われます。
幅優先探索:幅優先探索は、出発点に近いノード(探索木の各要素)から順に探索していく方法です。この方法では、最短距離でゴールにたどり着く解を必ず見つけることができます。ただし、複雑な問題では探索の途中で立ち寄ったノードをすべて記憶しておく必要があるため、メモリ不足に陥る可能性があります。
深さ優先探索:深さ優先探索は、ある経路をとにかく行けるところまで進み、行き止まりになったら1つ前のノードに戻って別の経路を探索する方法です。この方法はメモリの使用量が少なくて済みますが、最短経路を見つけられるとは限りません。また、問題の性質によっては解を見つけるまでに時間がかかる場合があります。

ゲーム戦略における探索
ボードゲームのような対戦型の問題では、自分の手と相手の手を交互に考慮する必要があります。このような状況でよく用いられる手法が、Mini-Max法です。

モンテカルロ法
近年、囲碁や将棋のコンピュータプログラムで注目されているのが、モンテカルロ法です。この方法では、ある局面からゲーム終了までをランダムに何度もシミュレーションし、その結果から最適な手を判断します。

キーワード

αβ法
Mini-Max法を改良した手法で、Mini-Max法による探索をできるだけ減らす手法。この方法では、すでに評価されたスコアを基に、不要なノードの探索を減らすことが可能だ。具体的には、αカットとβカットという2つの手法が用いられる。

αカットすでに出現したスコアよりも小さいノードが現れた時点で、その先につながるノードの探索をカットする。これにより、より良い結果を得られる可能性の低いノードにかかる探索コストを削減できる。
βカットすでに出現したスコアよりも大きいノードが現れた時点で、その先につながるノードの探索をカットする。これも同様に、探索コストの削減に寄与する。

Mini-Max法
自分が番にスコアが最大になるように、相手の番にはスコアが最小になるように戦略を立てる手法。ボードゲームにおける探索木では、一手が指され他時に盤面の状態を探索木の各ノードとし、ある盤面における状態の良し悪しはスコアによって評価される。この手法は、自分の手番と相手の手番を交互に展開することで、相手が最善手を打ったと仮定し、その中で自分の最適な手を選ぶ。具体的には、葉ノード(終端状態)までのスコアを計算し、その値を親ノードに伝搬させる。自分の手番では子ノードの最大値を選択し、相手の手番では最小値を選択することで、最適な手を決定する。MiniMax法はすべての盤面状態を調べるため、計算量が膨大になる欠点がある。

SHRDLU
1968年から1970年にかけて、テリー・ウィノグラードによって実施されたプロジェクトプランニングを実現する研究。英語による指示を受け付け、コンピュータ画面に描かれる「積み木の世界」に存在する様々な物体(ブロック、四角錐、立方体など)を動かすことができた。この成果はCycプロジェクトにも引き継がれている。

STRIPS
STRIPS(Stanford Research Institute Problem Solver)は1970年代に提案された「前提条件」・「行動」・「結果」の3つの組み合わせで記述するプランニングの手法。この手法では、状況における前提条件と目標状態を定義し、それらの間にある行動を決定することで、エージェントが目標を達成するための適切な行動計画を立てることができる。

探索木
計算機科学において特定のキーを特定するために使用される木構造のことで、学習結果を木構造で表現できるため解釈性が高い。場合分けを続けていけばいつか目的の条件に合致するという考え方に基づく。不純度が最も減少(情報利得が最も増加)するようにデータを振り分けることを繰り返す。不純度とはクラスの混ざり具合を表す指標でジニ係数やエントロピーがある。バギングを組み合わせた手法をランダムフォレストという。探索方法は大別すると以下の通りとなる。

ハノイの塔
円盤と3本のポールを用いたパズルの一種である。「1回に動かせる円盤の枚数は1枚のみ」「小さな円盤の上に大きな円盤を乗せることはできない」というルールに従って、全ての円を右端に移動させる。このパズルは、再帰的なアルゴリズムやプログラミングの教材としてよく用いられ、計算機科学や人工知能の分野でも重要な役割を果たしている。円盤の枚数がn枚である時、最小の手数は「(2^ n) -1」回であることが知られており、この性質を利用して様々な問題解決アプローチや最適化手法を学ぶことができる。

幅優先探索、深さ優先探索

幅優先探索深さ優先探索
出発点に近いノード(探索木の各要素)順に検索する。出発点から遠いノードほど検索は後回しになる。最短距離でゴールにたどり着く解を見つけることができる。探索の途中で立ち寄ったノードをすべて記憶しておく必要がありメモリが多く必要となる。深さ優先探索は、一つのノードから可能な限り深く探索を進め、行き止まりに達したら一つ前のノードに戻って再度探索を行う手法である。この方法は、メモリの使用量が少なくて済むが、必ずしも最短距離でゴールに到達するわけではない。運に左右される要素も含まれている。また、「縦型探索」とも称される。

ブルートフォース
総当たり攻撃を行う力任せな方法で、可能な組み合わせを全て試すアプローチ。人間の思考方法とは違ってブルートフォース(力任せ)で押し切る方法のため、探索しなければならない組み合わせの数が増えると、立ち行かなくなるためしばらくは囲碁でプロに勝てなかった。しかし、ディープラーニングの技術を利用し、人間の思考方法をコンピュータで再現することに成功。この結果、人間のプロ棋士に勝利を収めることが可能となった。ディープラーニングを用いた手法は、ブルートフォースとは対照的に、効率的な探索や学習が可能であることが示された。

モンテカルロ法
モンテカルロ法は乱数を用いたシミュレーションや数値計算を行う手法の総称。囲碁や将棋などにおいては、ゲームがある局面まで進んだら、あらかじめ決められた方法でゲームの局面のスコアを評価するという方法を完全に放棄する。その代わりに、コンピュータが2人の仮想的なプレイヤを演じて、完全にランダムに手を指し続ける方法でゲームをシミュレーションし終局させてしまうことをプレイアウトという。どの方法が一番勝率が高いか計算でき、ゲームのスコアを評価できる。

4. 知識表現とエキスパートシステム

試験項目
・知識表現とは何か説明できる
・エキスパートシステムとは何か説明できる
・知識表現に係る代表的な研究や手法について理解する
・エキスパートシステムに係る代表的な研究や手法について理解する

キーワード
Cycプロジェクト、DENDRAL、is-a の関係・has-a の関係・part-of の関係、QuestionAnswering、意味ネットワーク、イライザ(ELIZA)、インタビューシステム、ウェブマイニング、オントロジー、セマンティックWeb、データマイニング、東ロボくん、マイシン(MYCIN)、ワトソン 

1. 知識表現とは何か説明できる

  • 知識表現はコンピュータが情報を扱いやすい形で知識を表現する方法であり、人工知能分野で重要な要素として注目されている。
  • 1970年代から1980年代にかけて活発に研究が行われ、エキスパートシステムの開発が進められたが、知識獲得の困難さや常識的知識の扱いに課題があった。
  • これらの課題に対応するため、意味ネットワークやオントロジーといった新しい知識表現方法が研究されるようになった。

知識表現は、コンピュータが情報を扱いやすい形で知識を表現する方法です。人工知能の分野において重要な要素の一つとして注目されています。1970年代から1980年代にかけて、知識表現の研究が活発に行われました。この時期、専門分野の知識をコンピュータに取り込み、その分野の専門家のように振る舞うプログラムの開発が進められました。これらのプログラムは「エキスパートシステム」と呼ばれています。エキスパートシステムの代表例として、1970年代にスタンフォード大学で開発された「マイシン(MYCIN)」があります。マイシンは血液中のバクテリアを診断し、適切な抗生物質を処方する支援を行うシステムでした。500個のルールを使って、質問に答えていくことで感染した細菌を特定し、それに合った抗生物質を提案することができました。しかし、エキスパートシステムの開発には課題もありました。専門家から知識を引き出すのが難しく、また獲得した知識の数が増えると、矛盾や一貫性の問題が生じることがわかりました。さらに、常識的な知識は明文化されていないことが多く、コンピュータで扱うのが難しいという問題もありました。これらの課題に対応するため、コンピュータで知識を扱うための新しい方法が研究されるようになりました。その中で注目されたのが「意味ネットワーク」と「オントロジー」です。意味ネットワークは、「概念」をラベル付きの点(ノード)で表し、概念間の関係を矢印(リンク)で結んだネットワークとして表現します。特に重要な関係として、「is-a(〜である)」と「part-of(〜の一部である)」があります。これらの関係を使うことで、知識の階層構造や全体と部分の関係を表現できます。オントロジーは、特定の分野の言葉の定義やその関連性を形式化し、それを使って新たな知識の創出や共有に役立てる方法です。オントロジーを使うことで、複数のシステムが自動的に情報を交換したり、新しい知識を発見したりすることができるようになります。

2. エキスパートシステムとは何か説明できる

  • エキスパートシステムは専門家の知識をルール化し、特定分野で専門家並みの判断を行うプログラムである。
  • 代表例のマイシン(MYCIN)は血液感染診断を行い、医師との対話形式で抗生物質を提案した。
  • 知識獲得の困難さや柔軟性の欠如が課題となったが、人工知能の実用化に大きく貢献した。

エキスパートシステムは、特定分野の専門家の知識や経験を取り入れ、その分野の専門家のように動作するプログラムです。1970年代から1980年代にかけて開発された初期の人工知能システムの一つで、専門家の判断を模倣することを目指しています。エキスパートシステムの代表的な例として、スタンフォード大学で開発されたマイシン(MYCIN)があります。マイシンは血液中のバクテリア感染を診断し、適切な抗生物質を処方するシステムでした。約500のルールを使用し、質問に順番に答えていくことで感染症の専門医のような判断を下すことができました。マイシンの特徴は、医師との対話形式で診断を進める点にありました。システムが質問を投げかけ、医師が患者の症状や検査結果を入力すると、マイシンはそれらの情報を基に推論を行い、感染症の原因となる細菌を特定し、適切な抗生物質を提案しました。エキスパートシステムの構築には、専門家からの知識獲得が重要です。しかし、専門家の持つ暗黙知を明示的なルールとして抽出することは難しく、これは「知識獲得のボトルネック」と呼ばれる問題となりました。また、知識ベースが大規模になると、ルール間の矛盾や一貫性の維持が困難になるという課題も浮かび上がりました。エキスパートシステムは、特定の専門分野では高い性能を発揮しましたが、常識的な判断や柔軟な対応が必要な場面では限界がありました。それでも、人工知能の実用化に向けた重要な一歩として、その後の研究開発に大きな影響を与えました。現在では、機械学習や深層学習などの新しい技術の登場により、エキスパートシステムの重要性は相対的に低下しています。しかし、ルールベースのアプローチが有効な場面も依然として存在し、特に高い信頼性や説明可能性が求められる分野では今でも活用されています。

3. 知識表現に係る代表的な研究や手法について理解する

  • エキスパートシステムと知識ベースは、1970年代に専門家の知識を模倣するプログラムとして開発された。MYCINのような成功例もあったが、暗黙知の獲得や大規模知識ベースの管理に課題があった。
  • 意味ネットワークは概念間の関係を視覚的に表現し、「is-a」や「part-of」関係を用いて知識を構造化する手法である。
  • オントロジーは知識の体系化と共有を目的とし、Cycプロジェクトのような一般常識のコンピュータ化や、ヘビーウェイト・ライトウェイトアプローチによる知識構築が行われている。

1970年代、専門家の知識をコンピュータに取り込み、専門家のように振る舞うプログラムが開発されました。これがエキスパートシステムです。代表的な例として、血液中のバクテリア診断を支援するMYCIN(マイシン)があります。MYCINは500のルールを持ち、質問に答えていくことで感染した細菌を特定し、適切な抗生物質を処方することができます。エキスパートシステムの開発には、専門家の知識を獲得し、知識ベースを構築する必要があります。しかし、この過程には多くの課題がありました。専門家の持つ暗黙的な知識を引き出すのが難しく、また知識ベースが大規模になると矛盾が生じたり、保守が困難になったりします。

意味ネットワーク
意味ネットワークは、概念をノードで表し、概念間の関係をリンクで結んだネットワークです。この方法は、人間にとって直感的でわかりやすく、知識の検索も容易です。特に重要な関係として、「is-a」(〜である)と「part-of」(〜の一部である)があります。「is-a」関係は継承関係を表し、下位概念は上位概念の属性を引き継ぎます。例えば、「動物は生物である」「哺乳類は動物である」という関係を表現できます。「part-of」関係は属性を表し、部分は全体の属性を引き継ぎます。例えば、「目は頭部の一部である」という関係を示すことができます。

オントロジー
オントロジーは、知識を体系化し、共有・再利用するための方法論です。人工知能の分野では、「概念化の明示的な仕様」と定義されています。オントロジーを使用することで、異なる人が記述した知識を統合し、活用することが可能になります。例えば、Cycプロジェクトでは、一般常識をコンピュータに取り込む試みが1984年から続けられています。「ビル・クリントンはアメリカ大統領の1人です」「すべての木は植物です」といった知識を形式的に記述しています。オントロジーの構築には、ヘビーウェイトアプローチとライトウェイトアプローチがあります。ヘビーウェイトアプローチは哲学的考察を重視し、時間とコストがかかります。一方、ライトウェイトアプローチは効率を重視し、データマイニングなどの技術を活用して自動的に知識を抽出します。

4. エキスパートシステムに係る代表的な研究や手法について理解する

  • マイシンは1970年代にスタンフォード大学で開発された初期のエキスパートシステムで、血液中のバクテリアを診断し抗生物質を処方するシステムだった。
  • 500の詳細なif-thenルールを使用し、ユーザーへの質問に基づいて診断を行い、その精度は69%で一般医師より高かったが専門医には及ばなかった。
  • エキスパートシステムの開発では知識獲得や大規模知識ベースの管理が課題となり、これらは後の知識工学や機械学習の発展につながった。

初期のエキスパートシステム:マイシン
1970年代、スタンフォード大学でマイシン(MYCIN)が開発されました。このシステムは、血液中のバクテリアを診断し、適切な抗生物質を提案する目的で作られました。マイシンの特徴は、500の詳細なルールを使用していたことです。これらのルールは、「もし(if)このような条件が成り立つならば、そのとき(then)この結論が導かれる」という形式で記述されていました。

例えば、「もし感染の場所が血液で、細菌の形状が棒状であり、患者の症状が深刻ならば、その細菌は緑膿菌である」といったルールが含まれていました。診断の過程では、マイシンはユーザーに一連の質問を投げかけました。「培養はどこで行われましたか?」「細胞のグラム染色の結果は?」「細菌の形状は?」「患者の症状はどの程度ですか?」といった質問です。これらの回答を分析し、最も可能性の高い診断結果を導き出しました。マイシンの診断精度は69%で、一般の医師よりも高い精度を示しました。ただし、感染症の専門医の精度(80%)には及びませんでした。それでも、マイシンは医療分野におけるAIの可能性を示す重要な一歩となりました。

化学分野のエキスパートシステム:DENDRAL
マイシンに先立つ1960年代、スタンフォード大学ではDENDRALというエキスパートシステムが開発されていました。DENDRALは、未知の有機化合物を特定するためのシステムで、化学分野での人工知能の応用を示す先駆的な例となりました。

エキスパートシステム開発の課題
エキスパートシステムの開発過程で、研究者たちはいくつかの重要な課題に直面しました。特に難しかったのが、人間の専門家から知識を獲得する過程でした。専門家の持つ知識の多くは、長年の経験に基づく暗黙的なものであり、それを明確な形で表現することは容易ではありませんでした。また、専門家自身も自分の知識を言葉で説明することが難しい場合も多々ありました。この問題に対処するため、知的なインタビューシステムの研究も進められました。さらに、獲得した知識の数が数千、数万と増えていくにつれ、それらの知識の間で矛盾が生じたり、一貫性を保つことが難しくなったりする問題も発生しました。このため、大規模な知識ベースを効率的に管理し、保守する方法の開発が必要となりました。

エキスパートシステムの影響
エキスパートシステムの研究は、人工知能の分野に大きな影響を与えました。特に、知識の表現方法や推論の仕組みについて、多くの新しい考え方を生み出しました。また、エキスパートシステムの開発過程で直面した課題は、後の知識工学や機械学習の発展につながりました。例えば、知識獲得の難しさから、自動的に知識を学習する機械学習の重要性が認識されるようになりました。また、大規模な知識ベースの管理の必要性から、オントロジーなどの知識表現の研究が進展しました。エキスパートシステムは、特定の専門分野では人間に匹敵する、あるいはそれ以上の性能を示すことができました。しかし、人間のような柔軟な思考や常識的な推論を行うことは難しく、これらの限界を克服するための研究が今も続いています。

キーワード

Cycプロジェクト
すべての一般常識をデータベース化し(知識ベース)、人間と同等の推論システムを構築することを目的とするプロジェクト(ダグラス・レナート)。1984年から今も続いている。このプロジェクトの主な狙いは、機械に人間のような推論能力を持たせることで、知識処理や問題解決を効率化し、人間の判断や活動を支援することである。そのため、一般的な知識や常識を網羅的に収集し、データベース化することが重要な取り組みとなる。

DENDRAL
スタンフォード大学のエドワード・ファイゲンバウムが1960年代に開発した未知の有機化合物を特定するエキスパートシステム。このシステムは、専門家の知識を活用して複雑な化学構造を解析し、有機化合物の同定を行うことができた。1977年には実世界の問題に対する技術を重視した「知識工学」を提唱し、1970年代後半から1980年代にわたり多くのエキスパートシステムが開発された。

is-a の関係
is-a(「である」の関係)は、概念間の継承関係を表すもので、上位概念と下位概念の関係性を示している。例えば、「哺乳類」と「犬」の間にはis-aの関係が存在し、犬は哺乳類であるということを表現している。この関係は、概念階層を構築する際に重要な役割を果たす。is-aの関係には、推移律が必ず成立するという特徴がある。これは、ある概念が別の概念にis-aの関係で結ばれており、さらにその概念が別の概念にis-aの関係で結ばれている場合、最初の概念も最後の概念にis-aの関係で結ばれることを意味する。例として、「哺乳類 is-a 動物」および「人間 is-a 哺乳類」が成立する場合、「人間 is-a 動物」も自動的に成立する。

has-a の関係
has-a(「所有している」の関係)は、概念間の所有関係を表すもので、ある概念が別の概念を所有していることを示している。例えば、「頭部」と「目」の間にはhas-aの関係が存在し、頭部は目を所有しているということを表現している。この関係は、part-of関係とは真逆の関係性を持ち、全体が部分を所有しているという視点から捉えられる。意味ネットワークにおいて、has-aの関係は概念間の所有関係を明確に示すことができ、知識表現を構築する際に重要な役割を果たす。例として、「part-of」では「目は頭部の一部である」と表現される関係が、has-aでは「頭部は目を所有している」という形で表現され、これによって概念間の所有関係を適切に表現することができる。

part-of の関係
part-of(「一部である」の関係)は、概念間の構成要素関係を表すもので、ある概念が別の概念の一部分であることを示している。例えば、「車」と「部品」の間にはpart-ofの関係が存在し、部品は車の一部であることが表現されている。この関係は、概念の構成や概念間の関係性を明確化する上で重要な役割を果たす。「part-of」の関係には、最低でも5つの関係が存在することがわかっており、これらの関係をコンピュータに理解させるのは非常に難しい課題であるが、これらの関係を適切に表現することで、知識の表現や推論が効率的に行えるようになる。

QuestionAnswering
Question-Answeringは、質問応答システムのことであり、ユーザーからの自然言語での質問を受け付け、解答を返すコンピュータソフトウェアを指す。このシステムは、自然言語処理や機械学習の技術を活用し、さまざまな情報源から知識を抽出し、質問に対する適切な回答を生成する。質問応答システムの代表例として、IBMが開発したワトソン君がある。

意味ネットワーク
もともと認知心理学における長期記憶の構造モデルとして発案されたもので、人工知能分野においても重要な知識表現手法の1つとされている。この表現方法では、「概念」をラベル付きのノードで示し、概念間の関係をラベル付きのリンクで結んでいくことにより、ネットワーク形式で知識を表現する。意味ネットワークを利用することで、知識の構造化が容易になり、概念間の関係性を明確に示すことができる。また、概念をノードとして表現するため、情報の追加や変更が容易であり、柔軟な知識管理が可能となる。意味ネットワークを用いることで、知識の獲得や共有、再利用の課題に対処し、エキスパートシステムの限界を克服することが期待される。

イライザ(ELIZA)
1964年から1966年にかけてジョセフ・ワイゼンバウムによって開発されたコンピュータプログラム。(人工無能の元祖)相手の発言をあらかじめ用意されたパターンと比較し、パターンに合致した発言があった場合にはそのパターンに応じた発言を返答する。イライザは、単純なルールに基づいて会話を進めるため、実際には発言の意味を理解していない。しかし、その返答は人間らしいものであり、初期の自然言語処理技術の基礎を築いた。また、コンピュータのことを自分とコミュニケーションがとれる人間だと錯覚してしまうことをイライザ効果という。これは、人間の心理的な要素や認知の特性から生じるもので、コンピュータとの対話が人間との対話と似た形式をとることで引き起こされることが多い。特に、人工知能やチャットボットが発展し、より自然な会話ができるようになった現代では、イライザ効果がより顕著になっている。

インタビューシステム
知識のデータベースを構築するためには、専門家・ドキュメント・事例などから知識を獲得する必要がある。ドキュメントや事例から知識を獲得するためには自然言語処理や機械学習という技術を利用することで取得可能であるが、最大の知識源である人間の専門家の知識は暗黙的であるため獲得は難しい場合が多い。そこで専門家が持つ知識を上手にヒアリングするインタビューシステムなどの研究が行われた。知識を共有する方法や再利用する方法も問題になり、そうした問題を解決するために意味ネットワークやオントロジーなどの研究が活性化した。

ウェブマイニング
ウェブサイトの構造やウェブ上のデータを解析して知識を取り出す。ウェブマイニングは主に3つのカテゴリに分類される。ウェブコンテンツマイニングは、ウェブページ上のテキストや画像、リンクなどの情報を解析し、新たな知識を抽出する。次に、ウェブ構造マイニングは、ウェブページ間のリンク構造を調査し、ページ同士の関係性や重要度を評価する。最後に、ウェブ利用マイニングは、ユーザーのウェブ閲覧履歴やクリックパターンなどの情報を解析し、ユーザーの興味や嗜好を把握する。ウェブマイニングは、検索エンジンの改善やパーソナライズされたコンテンツの提供、ウェブサイトの最適化、マーケティングや広告戦略の策定など、多岐にわたる分野で活用されている。

オントロジー
本来は哲学用語で存在論(存在に関する体系的理論)という意味。人工知能の用語としては、トム・グルーパーによる「概念化の明示的な仕様」という定義が広く受入れられており、エキスパートシステムのための知識ベースの開発と保守にはコストがかかるという問題意識に端を発している。知識を記述する時に用いる「言葉(語彙)」や「その意味」、それらの関係性を共有できるように明確な約束事(仕様)として定義。オントロジーの研究が進むにつれ、知識を記述することの難しさが明らかになり、ヘビーウェイトオントロジー、ライトウェイトオントロジーという2つの流れが生まれた。

セマンティックWeb
Webページに記述された内容について、「情報についての情報」(いわゆるメタデータ)を一定の規則に従って付加し、コンピュータシステムによる自律的な情報の収集や加工を可能にする。情報リソースに意味を付与することでコンピュータにより高度な意味処理を実現することを目指す。セマンティックWebの目的は、情報を構造化し、コンピュータが理解しやすい形で提供することにより、人間とコンピュータが共同で情報を利用・共有できるようにすることである。これにより、情報検索やデータ分析、知識獲得などのタスクが効率化される。

データマイニング
統計学、パターン認識、人工知能等のデータ解析の技法を大量のデータに網羅的に適用することで、有用な知識を取り出す技術。データの前処理では、欠損値の補完や外れ値の処理、データの正規化などが行われる。次に、パターン抽出では、データから隠れたパターンや関連性を見つけ出す。最後に、評価・検証では、抽出されたパターンが実際に有用であるかを検証する。

東ロボくん
東大入試合格を目指す人工知能の研究・開発プロジェクトのことで、2016年にはほとんどの私立大学に合格できるレベルになった。国立情報学研究所が2011年から研究をスタートしたが、質問の意味を理解していないので読解力に問題があり、現在の技術では合格は難しいことから2016年に凍結された。

マイシン(MYCIN)
1970年代にスタンフォード大学で開発された、血液中のバクテリアの診断支援をするルールベースのプログラム。あたかも感染症の専門医のように振舞うことができ、このマイシンは、医師の専門知識や経験を基に作成されたルールセットを活用して、患者の症状や検査結果から適切な診断を導き出すことができた。初期のエキスパートシステムとして影響力を持っていた。

ワトソン
IBMが開発した質問応答システム・意思決定支援システムで、2011年、「ジョパディー」の歴代の人間チャンピオンに勝利した。Question-Answering(質問応答)という研究分野の成果であり、ウィキペディアの情報をもとにライトウェイトオントロジーを生成して解答する。質問の意味を理解して解答しているわけではなく、質問に含まれるキーワードと関連しそうな答えを高速に検索し、解答候補が質問との整合性や条件をどの程度満たしているかを複数の視点でチェックし総合点を算出して、一番高い総合点が得られた候補を解答として選択していた。IBMは開発当初、ワトソンを医療診断に応用するとしていたが、コールセンター、人材マッチング、広告、「シェフ・ワトソン」という新しい料理を考えることへの応用など幅広い分野で活用されている。

5.機械学習

試験項目
・機械学習とは何か説明できる
・機械学習とルールベース手法の差異、およびメリットデメリットについて説明できる
・機械学習が注目されるようになった背景を説明できる
・機械学習がどのような場面において、効果を発揮するのか理解する
・機械学習の代表的な応用例について理解する

キーワード
次元の呪い、スパムフィルター、ビッグデータ、レコメンデーションエンジン、統計的機械翻訳 

1. 機械学習とは何か説明できる

  • 機械学習は、コンピュータがデータから自動的に学習し、パターンを見出す人工知能の一分野である。
  • 大量のデータを用いてタスクを学習させることで、明示的なプログラミングなしに知識を獲得し、新たな入力に対して判断や予測を行うことが可能となる。
  • その応用範囲は検索エンジン、音声認識、医療診断など多岐にわたり、教師あり学習、教師なし学習、強化学習といった手法が存在する。

機械学習は人工知能の一分野であり、コンピュータがデータから学び、パターンを見出す能力を獲得する手法です。この技術の特徴は、プログラマーが明示的に指示を与えるのではなく、コンピュータ自身がデータを分析し、そこから知識を得ることにあります。機械学習の基本的な考え方は、大量のデータを用いてコンピュータにタスクを学ばせることです。例えば、多数の犬と猫の画像を与え、それぞれに「犬」や「猫」というラベルを付けて学習させます。この過程を経ることで、コンピュータは新しい画像を見たときに、それが犬なのか猫なのかを判断できるようになります。学習の過程で、コンピュータは画像の特徴を自動的に抽出し、分類のための規則を見出していきます。この技術の応用範囲は非常に広く、様々な分野で活用されています。例えば、インターネット上の検索エンジンは、ユーザーの検索履歴や閲覧パターンを学習し、より適切な検索結果を提供するようになります。また、スマートフォンの音声アシスタントは、ユーザーの声や言葉遣いを学習し、より正確な音声認識を行うことができます。医療分野においても、画像診断支援や個別化医療の実現に向けて機械学習が活用されています。機械学習には、主に3つの手法があります。1つ目は教師あり学習で、これは正解ラベル付きのデータを使用して学習を行います。2つ目は教師なし学習で、ラベルのないデータからパターンを見出します。3つ目は強化学習で、行動と結果の関係を学習し、最適な行動を選択する能力を身につけます。機械学習の発展には、大量のデータの存在が重要な要素となっています。インターネットの普及により、日々膨大な量のデータが生成され、蓄積されています。この「ビッグデータ」と呼ばれる大規模なデータセットを活用することで、機械学習アルゴリズムの精度と効率が大幅に向上しました。一方で、機械学習にはいくつかの課題もあります。例えば、学習に使用するデータの質と量が結果に大きく影響するため、偏ったデータセットを使用すると、不適切な判断や予測を行う可能性があります。また、機械学習モデルの判断プロセスが複雑で解釈が難しい「ブラックボックス問題」も存在します。特に医療や金融など、重要な意思決定を行う分野では、この問題が大きな課題となっています。

2. 機械学習とルールベース手法の差異、およびメリットデメリットについて説明できる

  • 人工知能の問題解決アプローチとして、機械学習とルールベース手法が存在する。
  • 機械学習はデータからパターンを学習し、複雑な問題に柔軟に対応できるが、データ依存度が高く解釈が難しい。
  • ルールベース手法は予測性と制御性に優れるが、複雑な問題への適用が困難で柔軟性に欠ける。実際の開発では両手法を組み合わせ、問題の性質や要件に応じて適切な方法を選択する。

人工知能の分野では、問題を解決するための主要な方法として、機械学習とルールベース手法が挙げられます。これらの手法はそれぞれ独自の特徴を持ち、適用場面によって長所と短所が異なります。機械学習は、大量のデータを基にコンピュータが自動的にパターンを見出す方法です。例えば、多数の犬と猫の画像を学習データとして与えることで、新しい画像が犬か猫かを判断できるようになります。この手法の特徴は、扱うデータ量が増えるほど判断の精度が向上する点にあります。一方、ルールベース手法は、人間が事前に決めたルールに基づいてシステムの動作を制御します。「もしAならBを行う」といった形式で、システムの振る舞いを明確に定義します。この方法は、ルールを明確に設定できる問題に対して効果を発揮します。機械学習の利点は、複雑なパターンを自動的に発見できる点です。時には、人間が気づかないような規則性を見出すこともあります。また、新しいデータに対しても柔軟に対応できるため、変化する環境に適応しやすいという特徴があります。しかし、機械学習にも課題があります。学習に使用するデータの質と量によって結果が大きく左右されるため、適切なデータを準備するのに時間とコストがかかることがあります。また、学習したモデルがどのような根拠で判断を下しているのかを人間が理解しにくいという問題も存在します。ルールベース手法の利点は、システムの動作が予測しやすく、制御が容易な点です。ルールが明確であるため、システムがどのように判断を下すかを人間が理解しやすいという特徴があります。また、特定の用途に特化した場合、高い精度と効率を達成できます。ただし、ルールベース手法にも難点があります。複雑な問題や、状況が常に変化する環境では、すべての可能性を網羅したルールを作成するのが困難になります。また、新しい状況に対応するためには、人間がルールを更新する必要があり、柔軟性に欠ける面があります。実際のシステム開発では、これらの手法の利点を活かし、欠点を補完するために、機械学習とルールベース手法を組み合わせて使用することもあります。

例えば、基本的な動作はルールベースで制御し、複雑な判断が必要な部分に機械学習を適用するといった方法が考えられます。どちらの手法を選択するかは、解決すべき問題の性質、利用可能なデータの量と質、求められる精度や説明可能性などを考慮して決定する必要があります。それぞれの手法の特徴を理解し、適切に使い分けることが、効果的なシステム開発につながります。

3. 機械学習が注目されるようになった背景を説明できる

  • 機械学習の注目度上昇は、インターネットの普及とデータ蓄積の増加に起因する。
  • 大量のデータが利用可能となり、「ビッグデータ」という概念とともに機械学習の重要性が認識された。
  • 機械学習の精度向上には大量の質の高いデータが必要だが、「次元の呪い」の問題を克服するためには、特徴量の適切な選択や削減も重要となる。

機械学習が注目を集めるようになった背景には、インターネットの普及とデータの蓄積が大きく関わっています。 1990年代、機械学習が現在のように注目を集めるようになった背景には、インターネットの普及とそれに伴うデータの蓄積が深く関係しています。1990年代に入り、インターネット上にウェブページが登場し、その数が急速に増加しました。この現象は、さまざまな種類のデータが大量に蓄積される契機となりました。特に2000年以降、インターネットの一般家庭への普及が進み、かつてないほど大量のデータが利用可能になりました。この時期、「ビッグデータ」という言葉とともに、機械学習に対する注目が高まりました。機械学習とは、コンピュータがデータから自動的に学習する仕組みです。この学習プロセスにおいて、使用するサンプルデータの量が多ければ多いほど、より正確な結果を得ることができるという特徴があります。例えば、犬と猫を区別する機械学習システムを開発する場合を考えてみましょう。システムが学習に使用できる犬と猫の画像サンプルが多いほど、より正確に両者を区別できるようになります。同様に、ある地域のマンションの家賃を予測するシステムの場合も、利用可能なサンプルデータが多ければ多いほど、予測の精度が向上します。ただし、機械学習において重要なのは単にデータ量だけではありません。データの特徴、つまり「特徴量」も非常に重要な要素です。先ほどのマンションの家賃予測の例では、「広さ」「築年数」「最寄り駅からの距離」などが特徴量として使用されます。これらの特徴量の数が増えると、適切な学習を行うために必要なデータ量も著しく増加します。この現象は「次元の呪い」として知られています。そのため、多くの特徴を持つデータを機械学習で扱う際には、特徴量を減らす工夫や、多様で質の高いデータを大量に用いることが求められます。インターネットの普及により、このような大量かつ多様なデータが利用可能になったことが、機械学習の実用化を大きく後押ししました。

4. 機械学習がどのような場面において、効果を発揮するのか理解する

  • 機械学習は、大量のデータからパターンを学習し、多様な分野で活用されている。
  • インターネットの普及により利用可能なデータが増加し、レコメンドエンジンやスパムフィルターなどの実用化が進んだ。
  • 機械学習の性能はデータの量と質に依存するが、次元の呪いという課題があり、これに対処するには特徴量の選択や質の高いデータの収集が重要となる。

機械学習は、データから学び、パターンを見出す能力を持つ技術です。この特性を活かし、さまざまな分野で応用されています。特に大量のデータが利用できる状況下で、機械学習は高い効果を発揮します。インターネットの普及に伴い、Webページの数が急増しました。これにより、多様なデータが蓄積されるようになり、機械学習の応用範囲が拡大しました。具体例として、ユーザーの好みを予測するレコメンドエンジンや、迷惑メールを検出するスパムフィルターなどが実用化されています。これらは、大量のサンプルデータを活用できるようになったことで実現した機械学習の成果といえます。機械学習の性能は、使用できるデータの量と質に大きく左右されます。例えば、犬と猫を区別する画像認識システムを開発する場合、学習に使用する犬と猫の画像が多いほど、システムの精度が向上します。同様に、特定地域のマンション賃料を予測する場合も、より多くのサンプルデータがあれば、予測の精度が高まります。ただし、機械学習には「次元の呪い」と呼ばれる課題があります。これは、データの次元(特徴の数)が増えると、適切な学習を行うために必要なデータ量が著しく増加する現象です。例えば、マンション賃料予測で「広さ」と「築年数」に加えて「最寄り駅からの距離」という特徴を考慮すると、3次元のデータとなります。特徴が増えるほど、適切な学習に必要なデータ量が急激に増加します。この課題に対処するには、次元(特徴量)を減らす工夫や、多様で質の高いデータを大量に使用することが重要です。幸い、インターネットの発展により、多くの分野で大量のデータが利用可能になっています。機械学習は、人間が明確にルールを設定することが難しい問題に特に効果を発揮します。例えば、自然言語処理分野では、統計的手法を用いた機械翻訳が実用化されています。この方法では、大量の対訳データ(コーパス)を使用して、単語や文の最適な訳を確率的に選択します。これにより、文脈に応じた適切な訳を選ぶことが可能になりました。画像認識分野でも機械学習は大きな成果を上げています。特に、ディープラーニング(深層学習)の登場により、人間の目を超える精度で物体を認識できるようになりました。これは、大量の画像データを用いて、画像の特徴を自動的に学習する能力によるものです。

5. 機械学習の代表的な応用例について理解する

  • レコメンドエンジン:ユーザーの行動データを分析し、好みを推測する。オンラインサービスで利用され、興味に合った情報を提案する。ユーザーは効率よく情報を見つけられるようになった。
  • スパムフィルター:機械学習でメールがスパムか判断するシステム。大量のデータから学習し、新着メールの内容を分析する。ユーザーのフィードバックで精度が向上する。
  • 統計的自然言語処理:大量の文章データを統計的に分析し、言語パターンを学習する技術だ。機械翻訳などに応用され、文脈を考慮した高度な言語処理を実現する。

レコメンドエンジン
私たちが日常的に利用するオンラインショッピングやストリーミングサービスでは、「おすすめ商品」や「おすすめ動画」といった提案をよく目にします。これらの提案の裏側では、レコメンドエンジンと呼ばれる機械学習システムが働いています。
レコメンドエンジンの主な機能は、ユーザーの過去の行動データを分析し、その人の好みや興味を推測することです。例えば、あなたが以前に購入した商品や視聴した動画の履歴を基に、類似した特徴を持つ新しい商品や動画を提案します。この仕組みにより、ユーザーは自分の興味に合った情報を効率的に見つけることができるようになります。

スパムフィルター
電子メールを使用する上で、迷惑メール(スパムメール)は大きな問題の一つとなっています。この問題に対処するために開発されたのが、機械学習を活用したスパムフィルターです。スパムフィルターは、大量のメールデータを学習することで、スパムメールに特徴的な単語や文章のパターンを識別します。新しいメールが届くと、そのメールの内容や送信元のアドレスなどの情報を分析し、スパムである確率を計算します。その確率が一定の基準を超えた場合、そのメールをスパムとして分類します。さらに、スパムフィルターの精度は、ユーザーのフィードバックによって向上します。例えば、誤ってスパムと判定されたメールを「スパムではない」と指定すると、システムはその情報を学習し、将来的な判定の精度を高めていきます。

統計的自然言語処理
自然言語処理は、人間の言葉をコンピュータに理解させ、処理させる技術です。その中でも、統計的自然言語処理は、大量の文章データを統計的に分析することで、言語の構造やパターンを学習し、様々なタスクを実行します。代表的な応用例として、機械翻訳があります。従来の機械翻訳では、文法規則や単語の対応関係を人間が細かく設定する必要がありました。一方、統計的自然言語処理を用いた機械翻訳では、大量の対訳データ(同じ内容を異なる言語で書いた文章のペア)を学習することで、より自然な翻訳を生成できるようになりました。例えば、「bank」という単語を翻訳する場合を考えてみましょう。従来の方法では、「銀行」か「土手」かを文脈に関係なく機械的に選んでいました。しかし、統計的自然言語処理では、「bank」の周辺にある単語や文脈を考慮し、より適切な訳語を選択できます。「bank」の近くに「money」や「in」という単語がある場合、「銀行」と訳す確率が高くなります。

キーワード

次元の呪い
数学者リチャード・ベルマンによって提唱された概念。データの次元数が大きくなり過ぎると、そのデータで表現できる組み合わせが飛躍的に多くなってしまい、サンプルデータでは十分な学習結果が得られなくなることを「次元の呪い」という。この問題に対処するために、次元削減や特徴選択の手法が用いられる。一方で、副次的な次元を増やすことにより識別力を向上させることが可能な場合が存在し、そのことを「次元の祝福」と呼ぶ。適切な特徴量を追加することで、データの解釈やモデルの予測精度が向上する効果が期待できる。

スパムフィルター
電子メールの受信者を迷惑メールから保護する自動化されたサービスとして、機械学習技術の実用的な応用例の一つとして知られている。この技術は、2000年代以降のインターネットの発展に伴って蓄積された大量のデータ(ビッグデータ)を活用することで実現された。機械学習システムは、大量のサンプルメールデータを分析し、そこに含まれるパターンを学習することで、新しく受信したメールが正常なメールか迷惑メールかを自動的に判断できるようになる。このプロセスでは、システムに与えられるサンプルデータの量が多ければ多いほど、より精度の高い判断が可能となる。スパムフィルターは、レコメンデーションエンジンなどと同様に、機械学習とビッグデータの組み合わせによって実用化された代表的なアプリケーションの一つである。

ビッグデータ
一般的なデータ管理・処理ソフトウエアで扱うことが困難なほど巨大で複雑なデータの集合。このようなデータは、インターネットの普及やスマートフォンの登場、センサー技術の発展などにより急速に増えており、現代社会において重要な情報資源となっている。ビッグデータを効果的に分析・活用することで、ビジネスや研究、政策立案など様々な分野で新たな知見や価値が生み出される。そのため、ビッグデータ解析技術やデータマイニング、機械学習などの人工知能技術が注目され、データサイエンティストの役割も重要視されている。しかし、ビッグデータの利用には、プライバシーやデータセキュリティ、倫理的な問題も関連しており、適切な取り扱いが求められている。

レコメンデーションエンジン
レコメンデーションエンジンは、オンラインショッピングサイトで買い物をする際によく目にする商品推薦の仕組み。Amazonなどの販売サイトで「この商品を見た人はこんな商品も買っています」といった形で表示される推薦機能の裏側で働いている。このエンジンは、ユーザーの好みを分析して興味がありそうな商品を提案したり、現在見ている商品に関連した商品を勧めたりする。協調フィルタリングや内容ベースフィルタリングなど、様々な技術を組み合わせることで、より的確な商品推薦を実現している。

統計的機械翻訳
対訳データに基づき翻訳モデルと言語モデルを使用して訳文を生成する方法。翻訳モデルは原文と訳語の対応を確率的に解析し、言語モデルは訳文の自然さを評価する。この方法は、類似する構造の言語間(例:英語とフランス語)で有効だが、日本語と英語のように語順が大きく異なる場合は、文の流れや自然さに限界がある。

6. ディープラーニング

試験項目
・ディープラーニングがどのように発展してきたのか、その歴史を説明できる
・古典的な機械学習とディープラーニングの差異を説明できる
・ディープラーニングの代表的な応用例について理解する

キーワード
ImageNet、ILSVRC、LeNet、アルファ碁 (AlphaGo)、特徴抽出、人間の神経回路、ネオコグニトロ ン、LLM(大規模言語モデル)

1. ディープラーニングがどのように発展してきたのか、その歴史を説明できる

  • ディープラーニングの歴史は1943年の最初のニューロンモデルの発表に始まり、パーセプトロンの提案や誤差逆伝播法の確立を経て発展した。
  • 2012年のILSVRCでの勝利を機に急速に進歩し、画像認識や自然言語処理で人間の能力を上回る成果を挙げた。
  • 2022年のChatGPT公開により大規模言語モデルの時代が到来し、より自然な対話や文章生成が可能となった。

ディープラーニングは、人工知能の分野で長年にわたり発展を遂げてきました。その歴史は1943年にまでさかのぼります。この年、神経生理学者のウォーレン・マカロックと数学者のウォルター・ピッツが、生物の神経細胞を単純化した最初のニューロンモデルを発表しました。これが、現代のディープラーニングの基礎となる重要な一歩でした。1958年には、米国の心理学者フランク・ローゼンブラットが「パーセプトロン」という学習可能なニューロンモデルを提案しました。パーセプトロンは1つの神経細胞を単純化したモデルで、2つの対象を分ける直線を見つけることができるという特徴がありました。この発見は、機械学習の可能性を示す重要な成果でした。しかし、1969年になると、マービン・ミンスキーによってパーセプトロンの限界が指摘されました。これにより、ニューラルネットワークの研究は一時的に停滞期を迎えることになりました。転機が訪れたのは1986年のことです。デビッド・ラメルハートらが誤差逆伝播法を提唱し、多層のニューラルネットワーク全体を学習させる方法が確立されました。この画期的な手法により、第2次ニューラルネットワークブームが起こりました。しかし、当時のコンピュータの処理能力の限界や、3層以上の深いネットワークでの学習の難しさなどの問題に直面し、1990年代中頃には再び研究が停滞しました。それでも、多くの研究者たちはニューラルネットワークの可能性を信じ、研究を続けました。そして2006年頃から、ジェフリー・ヒントンを中心としたグループによってディープラーニングの研究が本格的に進められました。オートエンコーダや新しい活性化関数の工夫により、より深い層を持つネットワークの学習が可能になりました。2012年、画像認識の競技会ILSVRCでトロント大学のチームが圧倒的な勝利を収めたことで、ディープラーニングの真価が証明されました。従来の手法では人間の経験と知識に頼っていた特徴量の選択を、ディープラーニングは自動的に行うことができたのです。この成功を機に、ディープラーニングは急速に発展し、画像認識の精度は飛躍的に向上しました。2015年には、ディープラーニングを用いた画像認識システムが人間の認識能力を上回る成果を挙げ、大きな注目を集めました。さらに、2017年にGoogleの研究者たちが発表した「トランスフォーマー」と呼ばれる技術により、自然言語処理の分野でも大きな進展がありました。この技術は、文章中の単語の位置や関係性を効率的に学習することを可能にし、より自然な文章生成を実現しました。2022年には、OpenAIがChatGPTを公開し、大規模言語モデル(LLM)の時代が到来しました。ChatGPTは、大量の文章データを学習し、人間のような自然な対話や文章生成を可能にしました。LLMの規模は年々拡大し、GPT-4では1兆個を超えるパラメータを持つまでに成長しています。

2. 古典的な機械学習とディープラーニングの差異を説明できる

  • 古典的機械学習は人間が特徴を選択し、ディープラーニングは自動で特徴を抽出する点が大きく異なる。
  • ディープラーニングは複雑なパターンを学習可能だが、大量データと計算資源が必要で解釈が困難という課題がある。
  • 両手法には長所短所があり、状況に応じた選択やハイブリッドアプローチの研究が進められている。

古典的な機械学習では、データから特徴を抽出する過程に人間の専門家が深く関わります。例えば、画像認識のタスクを考えてみましょう。この場合、エッジや色、形状といった特徴を人間が選び出し、それらを基に機械学習アルゴリズムが学習を進めていきます。この方法には、人間の知識や経験を活かせるという利点がありますが、同時に限界も存在します。人間が気づかない複雑なパターンや隠れた特徴を見逃してしまう可能性があります。一方、ディープラーニングは多層のニューラルネットワークを使用し、データから自動的に特徴を抽出します。この手法により、人間が気づかないような複雑な特徴やパターンも学習することが可能になりました。画像認識を例にとると、エッジや色といった基本的な特徴から、物体の形状や配置といった高度な特徴まで、段階的に学習していくことができます。2012年、画像認識コンテストILSVRCにおいてディープラーニングを用いたアプローチが従来の手法を大きく上回る精度を達成し、大きな注目を集めました。この出来事を機に、画像認識や自然言語処理などの分野で大きな進展がありました。しかし、ディープラーニングにも課題があります。まず、大量のデータと膨大な計算資源が必要です。また、学習結果の解釈が難しいという特徴があります。さらに、学習に使用するデータに偏りがある場合、その偏りをそのまま学習してしまう可能性もあります。これに対して、古典的な機械学習手法には、比較的少ないデータでも一定の精度を出せる場合があり、結果の解釈がしやすいという利点があります。そのため、扱う問題や状況に応じて、適切な手法を選択することが重要となります。最近の研究では、古典的な機械学習とディープラーニングを組み合わせた新しいアプローチも注目されています。この方法により、両者の長所を活かしつつ、短所を補完することができると期待されています。

3. ディープラーニングの代表的な応用例について理解する

  • ディープラーニングは2012年のILSVRCで従来手法を凌駕し、画像認識分野で人間の能力を超える精度を実現した。
  • 自然言語処理分野でも機械翻訳や音声認識の精度を飛躍的に向上させ、スマートフォンの音声アシスタントなどに活用されている。
  • 近年は大規模言語モデル(LLM)が登場し、ChatGPTのような多機能AIが実現され、様々なタスクをこなすことが可能となった。

画像認識分野での応用
2012年に開催された画像認識コンペティションILSVRCで、ディープラーニングを用いたアプローチが従来の手法を大きく上回る精度を示しました。これを機に、ディープラーニングの研究が進み、現在では人間の認識能力を超える精度で画像を分類できるようになっています。この技術は様々な場面で活用されています。例えば、自動運転車の開発において、カメラで捉えた映像から歩行者や障害物を瞬時に認識する能力は非常に重要です。また、医療分野では、レントゲン写真やMRI画像から病変を検出する際にも利用されており、医師の診断を助ける重要なツールとなっています。

自然言語処理分野での応用
自然言語処理の分野でもディープラーニングは大きな進歩をもたらしました。特に、機械翻訳や音声認識の精度が大幅に向上しています。例えば、スマートフォンの音声アシスタント機能は、ディープラーニングを用いた音声認識技術によって支えられています。また、多言語間の翻訳サービスも、ディープラーニングの導入により、より自然で正確な翻訳が可能になりました。

大規模言語モデル(LLM)の登場
最近では大規模言語モデル(LLM)と呼ばれる技術が注目を集めています。これは、膨大な量のテキストデータを学習することで、人間のような自然な文章を生成できるAIモデルです。ChatGPTはその代表例で、質問に対する回答や文章の要約、プログラムコードの生成など、多岐にわたるタスクをこなすことができます。

キーワード

ImageNet
画像認識の研究において重要な位置を占めているImageNetは、2009年にAI研究者のフェイフェイ・リーらによって公開された画像データセットである。このデータセットの特徴は、その規模の大きさにある。1400万枚を超える画像が収録され、それぞれの画像には20,000以上に分類された物体の種別情報が付与されている。当時の他のデータセットと比べると、ImageNetの規模は画像数もカテゴリ数も約1000倍という圧倒的な大きさを持っていた。このような大規模データセットの出現は、2010年代初頭からの画像分野におけるディープラーニングの発展に大きな影響を与えることとなった。2024年には、さらに大きな規模のデータセットも登場しているが、ImageNetは現在でもディープラーニングのモデル学習や性能評価において広く使用されている。

ILSVRC
ImageNet Large Scale Visual Recognition Challengeの略であり、2010年より始まった画像認識の精度を競い合う競技会。2012年、ジェフリー・ヒントン率いるトロント大学のチーム(SuperVision)がAlexNet(パラメータ数:60,000,000)を用いて優勝。これを受けて、第3次ブームに発展した。2012年以前のILSVRCで、画像認識に機械学習を用いることは既に常識になっていたが、機械学習で用いる特徴量を決めるのは人間だった。2012年以降のILSVRCのチャンピオンは全てディープラーニングを利用しており、2015年に人間の画像認識エラーである4%を下回った。

LeNet
LeNetは1989年、ヤン・ルカンによって開発された畳み込みニューラルネットワーク(CNN)の基本構造だ。当初は手書き数字の認識に使われ、米国郵政公社の郵便番号データでエラー率1%という高い精度を達成した。畳み込み層、プーリング層、全結合層という基本要素で構成され、画像処理に適している。当時はハードウェアの制約で広く使われなかったものの、現代のディープラーニングの基盤を作り上げた。特に、2012年のAlexNet以降、LeNetの考え方はコンピュータビジョンの分野で大きな影響を与え続けている。

アルファ碁 (AlphaGo)
Google DeepMindによって開発されたコンピュータ囲碁プログラム。2016年3月9日、韓国のプロ棋士に4勝1敗。ボードゲームをコンピュータで解く基本は探索であり、代表的なボードゲームでは探索の組み合わせの数の順番はオセロ<チェス<将棋<囲碁となる。この順番は、ボードゲームの複雑さと探索の困難さを示しており、囲碁は最も複雑であるとされる。

特徴抽出
データからその特徴量を取り出す処理のこと。ディープラーニングではこの処理が自動で行われるが、登場以前は人間の手によって行われていた。しかし、ディープラーニングの発展により、特徴抽出が自動で行われるようになり、モデルの精度が大幅に向上した。ディープラーニングでは、多層ニューラルネットワークの隠れ層が特徴抽出の役割を果たす。画像の関心部分をコンパクトな特徴ベクトルとして効率的に表現する一種の次元削減とも言える。特徴抽出の手法は、画像データの場合、エッジ検出やテクスチャ特徴、色の統計情報などを利用していた。音声データの場合、メル周波数ケプストラム係数(MFCC)やゼロクロッシングレートなどが用いられる。

人間の神経回路
「人間の神経回路」とは、主にニューラルネットワークを指す。これは、人間の脳内で情報を処理する神経細胞(ニューロン)の構造と機能を模倣した計算モデルである。1943年にウォーレン・マカロックとウォルター・ピッツによって人間の神経細胞を数理モデル化した形式ニューロンが発表され、これを元に1958年に米国の心理学者フランク・ローゼンブラットが単純パーセプトロンというニューラルネットワークを発表。1960年代に爆発的なブームを起こすが人工知能学者のマービン・ミンスキーにより単純パーセプトロンの限界が示され、ニューラルネットワークの研究は下火になってしまうが、ニューラルネットワークを多層にし、誤差逆伝播法を使うことで克服された。


ネオコグニトロン
日本では1980年に福島邦彦らによってネオコグニトロンというニューラルネットワークが考案されており、これは畳み込みニューラルネットワークの起源となった。視野角の神経細胞の働きを模しており、画像の濃淡パターンを抽出するS細胞の層と特徴の位置ずれの影響を除去するC細胞の層とで構成される。add-id silent という学習手法がとられており、誤差逆伝播方は用いられていない。

LLM(大規模言語モデル)
大規模言語モデル(Large Language Models、LLM)は、大量のデータとディープラーニング技術を用いて構築された言語処理システムである。このモデルは、「計算量」「データ量」「パラメータ数」の3つの要素を大幅に拡大することで高い性能を実現している。2018年にGoogleが発表したBERTを起点として、文章全体の意味を理解できる新しい技術が生まれた。現在は、チャットボットや検索エンジン、翻訳など、多様な用途での活用が進んでいる。ただし、誤った情報を出力する「ハルシネーション」など、いくつかの技術的な課題も残されている。

7. 教師あり学習

試験項目
・教師あり学習には、特徴量と教師データのペアが必要であることを理解する
・教師あり学習における、分析対象に応じた問題の種類を列挙・説明できる
・代表的な教師あり学習モデルの基本概念を理解する
・目的やデータの特性・量に応じて、適切な教師あり学習モデルを選択できる
・ビジネスにおける教師あり学習の応用例を説明できる

キーワード
AdaBoost、アンサンブル学習、カーネル、カーネルトリック、回帰問題、決定木、勾配ブースティング、サポートベクターマシン (SVM)、線形回帰、自己回帰モデル (AR)、重回帰分析、多クラス分類、バギング、ブースティング、ブートストラップサンプリング、分類問題、ベクトル自己回帰モデル (VARモデル)、マージン最大化、ランダムフォレスト、ロジスティック回帰 

1. 教師あり学習には、特徴量と教師データのペアが必要であることを理解する

  • 教師あり学習は、特徴量と教師データのペアを用いてモデルを訓練し、新しい入力に対して正確な予測を行うことを目指す手法である。
  • モデルは訓練中に予測と実際の教師データとの誤差を計算し、それを小さくするようにパラメータを調整していく。
  • この手法は客観的な評価が容易で柔軟性が高いが、大量の正解付きデータが必要となるため、データ収集やラベル付けのコストが課題となることがある。

教師あり学習は機械学習の一手法で、モデルが学習するためには特徴量と教師データのペアが必要です。特徴量とは、モデルに入力するデータの特性を数値化したものです。例えば、動物の画像を分類する場合、画像の色や形などの情報が特徴量となります。一方、教師データは正解のラベルを指します。先ほどの例では、「この画像はネコです」「この画像はイヌです」といった正解情報が教師データに当たります。教師あり学習の目標は、大量の特徴量と教師データのペアを用いてモデルを訓練し、新しい入力データに対して正確な予測ができるようにすることです。学習の過程は次のように進みます。まず、大量の特徴量と教師データのペアを準備します。これらのデータを使ってモデルを訓練します。訓練中、モデルは入力された特徴量から予測を行い、その予測と実際の教師データとの差を計算します。モデルはこの差を小さくするように少しずつ調整を重ねていきます。この過程を繰り返すことで、モデルの精度が徐々に向上していきます。教師あり学習の長所は、明確な正解データがあるため、モデルの性能を客観的に評価しやすい点です。また、多くの実用的な問題に適用できる柔軟性も持ち合わせています。ただし、大量の正解付きデータを用意する必要があるため、データの収集や正解ラベルの付与に時間とコストがかかる場合があります。教師あり学習は、分類問題や回帰問題など、様々な種類の課題に適用できます。具体的には、スパムメールの検出、顧客の購買予測、画像認識などの幅広い分野で活用されています。

2. 教師あり学習における、分析対象に応じた問題の種類を列挙・説明できる

  • 教師あり学習における主要な問題タイプは回帰問題と分類問題の2種類である。
  • 回帰問題は連続的な数値を予測し、分類問題は離散的なカテゴリを予測する。
  • 問題の選択は分析対象や目的に応じて行われ、同じデータでも設定により回帰問題にも分類問題にもなり得る点に注意が必要。

教師あり学習で扱う問題は、大きく分けて「回帰問題」と「分類問題」の2種類があります。

回帰問題
回帰問題は、連続的な数値を予測することを目的としています。例えば、過去の売上データを基に将来の売上を予測するケースがこれに当たります。この場合、入力データとして過去の売上や関連する要因を使用し、出力データとして予測される売上金額を得ることになります。回帰問題におけるモデルの役割は、入力データと出力データの関係性を学習することです。そして、新しい入力に対して連続的な数値を出力します。この出力結果は、一般に予測値や推定値と呼ばれます。

分類問題
分類問題は、離散的なカテゴリを予測することが目標です。例として、動物の画像が与えられた時に、その動物の種類を識別する問題が挙げられます。この場合、入力データは動物の画像であり、出力データはその動物の種類(例:犬、猫、鳥)となります。分類問題では、モデルは入力データがどのカテゴリに属するかを学習します。そして、新しい入力に対してカテゴリを予測します。この予測されるカテゴリは、クラスやラベルと呼ばれることもあります。

問題の選択
実際の応用では、分析対象や目的に応じて適切な問題の種類を選択することが大切です。例えば、顧客の年齢を予測したい場合は回帰問題となります。一方、顧客が商品を購入するかどうかを予測したい場合は分類問題となります。興味深いのは、同じデータであっても、問題の設定によって回帰問題にも分類問題にもなり得ることです。例えば、英語の文章を日本語に翻訳する場合を考えてみましょう。単語ごとに最適な訳語を選ぶ問題として捉えれば分類問題となります。しかし、文全体を連続的な単語の並びとして捉えれば回帰問題とみなすこともできます。

3. 代表的な教師あり学習モデルの基本概念を理解する

  • 線形回帰は、入力と出力の線形関係を仮定し、最適な直線または超平面を見出す基本的な教師あり学習モデルである。多次元問題にも適用可能で、正則化技術と組み合わせることで汎化性能を高められる。身長から体重を予測するなど、様々な問題に応用できる柔軟性を持つ。
  • ロジスティック回帰は、名称に反して分類問題を解くためのモデルで、シグモイド関数を用いて入力データが特定カテゴリに属する確率を予測する。メールの迷惑判定など二値分類に適しているが、ソフトマックス関数を用いれば多クラス分類にも拡張できる。確率として解釈可能な出力が特徴的である。
  • ランダムフォレストは、複数の決定木を組み合わせた手法で、データのランダムなサブセットと特徴を用いて個々の木を学習させる。この手法は予測精度の向上、過学習リスクの軽減、特徴の重要度評価が可能という利点を持ち、回帰と分類の両問題に適用できる汎用性の高いモデルである。

線形回帰
線形回帰は、教師あり学習モデルの中で最も基本的なものの一つです。このモデルは、入力データと出力データの間に直線的な関係があると仮定し、その関係を最もよく表す直線や平面を見つけ出します。例えば、ある人の身長から体重を予測する問題を考えてみましょう。線形回帰モデルは、既存の身長と体重のデータを使って、両者の関係を最もよく表す直線を求めます。この直線が決まれば、新しい身長データが与えられたときに、その直線上の対応する点から体重を予測できます。線形回帰は2次元の問題だけでなく、より多くの変数を扱う多次元の問題にも適用できます。また、正則化という技術を組み合わせることで、モデルの一般化性能を高めることもできます。代表的な正則化手法には、ラッソ回帰やリッジ回帰があります。

ロジスティック回帰
ロジスティック回帰は、名前に「回帰」とついていますが、実際には分類問題を解くためのモデルです。このモデルは、入力データが特定のカテゴリに属する確率を予測します。ロジスティック回帰の特徴は、シグモイド関数(またはロジスティック関数とも呼ばれます)を用いて、任意の入力値を0から1の間の値に変換することです。これにより、モデルの出力を確率として解釈できます。例えば、メールが迷惑メールかどうかを判定する問題を考えてみましょう。ロジスティック回帰モデルは、メールの特徴(送信元、件名の単語、本文の長さなど)を入力として受け取り、そのメールが迷惑メールである確率を0から1の間の値で出力します。通常、0.5を基準として、それ以上なら迷惑メール、それ未満なら正常なメールと判定します。ロジスティック回帰は基本的に2クラス分類(二値分類)のためのモデルですが、多クラス分類問題に拡張することも可能です。その場合、シグモイド関数の代わりにソフトマックス関数を用いて、複数のクラスに属する確率を計算します。

ランダムフォレスト
ランダムフォレストは、複数の決定木を組み合わせて使う手法です。決定木は、データの特徴に基づいて分岐を繰り返し、最終的に予測や分類を行う構造を持っています。ランダムフォレストの特徴は、多数の決定木を作成し、それらの予測結果を組み合わせることで最終的な予測を行う点です。各決定木は、元のデータセットからランダムに選ばれたサブセットを使って学習します。また、各分岐点で使用する特徴もランダムに選択されます。この手法には、いくつかの利点があります。まず、個々の決定木の弱点を補い合うことで、全体としての予測精度が向上します。次に、ランダム性を導入することで、過学習(オーバーフィッティング)のリスクを抑えられます。さらに、特徴の重要度を評価することができ、どの特徴が予測に大きく影響しているかを理解するのに役立ちます。ランダムフォレストは、回帰問題と分類問題の両方に適用できる汎用性の高いモデルです。その柔軟性と高い性能から、多くの実際の問題解決に使用されています。

4. 目的やデータの特性・量に応じて、適切な教師あり学習モデルを選択できる

  • 線形回帰は入力と出力の線形関係を仮定する基本的な教師あり学習モデルである。住宅の広さと価格の予測など、解釈しやすく計算が簡単な利点がある。ただし、非線形関係のデータには適さない。
  • ロジスティック回帰は名称に反し、実際には分類問題に用いられるモデルである。スパムメール判定などの二値分類や多クラス分類に適しており、出力を確率として解釈できる。予測の信頼度把握が容易という利点がある。
  • ランダムフォレストは複数の決定木を組み合わせたモデルで、複雑なパターンを学習可能である。過学習を抑制し、分類・回帰の両問題に使用でき、多くの場合高性能を発揮する。

線形回帰モデル
線形回帰は、最も基本的な教師あり学習モデルの一つです。このモデルは、入力変数と出力変数の間に直線的な関係があると仮定します。例えば、住宅の広さと価格の関係を予測する場合に適しています。
線形回帰の長所は、解釈が容易で計算も比較的簡単なことです。しかし、データに曲線的な関係がある場合には適していません。

ロジスティック回帰
ロジスティック回帰は、名称に「回帰」とありますが、実際には分類問題に用いられるモデルです。二つの選択肢から一つを選ぶ問題(例:スパムメールかどうか)や、複数の選択肢から一つを選ぶ問題に適しています。このモデルの利点は、出力を確率として解釈できるため、予測の信頼度を把握しやすいことです。

ランダムフォレスト
ランダムフォレストは、複数の決定木を組み合わせたモデルです。様々な特徴の組み合わせを考慮するため、複雑なパターンを学習できます。また、過剰適合を抑える効果もあります。
このモデルは、分類問題と回帰問題の両方に使用でき、多くの場合で高い性能を示します。

サポートベクターマシン(SVM)
SVMは、データ点を高次元空間に移し、クラス間の距離が最大になるような境界線(超平面)を見つけるモデルです。曲線的な問題にも対応でき、少ないデータでも高い性能を示すことがあります。
ただし、大規模なデータセットでは計算にかかる負荷が高くなる傾向があります。

自己回帰モデル
時系列データの分析に適しているのが自己回帰モデルです。株価の予測や天気予報など、過去のデータから将来の値を予測する問題に使用されます。データに時間的な依存関係がある場合に効果的です。

モデル選択の基準
適切なモデルを選ぶためには、以下の点を考慮することが大切です。

データの特性直線的か曲線的か、分類問題か回帰問題か、時系列データかどうかなど
データ量大規模なデータセットか、それとも少量のデータか
解釈可能性モデルの判断根拠を説明する必要があるか
計算にかかる負荷学習や予測にかかる時間や計算資源の制約
予測精度:求められる精度のレベル

これらの要素を総合的に判断し、目的に合ったモデルを選択することが求められます。また、複数のモデルを試し、交差検証などの手法で性能を比較することも有効な方法です。

5. ビジネスにおける教師あり学習の応用例を説明できる

  • 過去の売上データから将来の売上を予測する回帰問題を扱い、季節性や経済指標などの要因を考慮する。
  • 顧客の属性や行動データを用いて顧客を分類し、グループごとにマーケティング戦略を立てることが可能。
  • メールの内容や送信元情報を分析してスパムを検出し、ビジネスメールの効率的な管理を実現する。

売上予測
企業にとって、将来の売上を正確に予測することは非常に重要です。過去の売上データを活用することで、この予測が可能になります。この手法は回帰問題の一例です。
予測には、季節性、経済指標、マーケティング活動などの要因が考慮されます。これらの情報を入力として用いることで、将来の売上金額を算出します。
この予測結果は、企業の戦略立案に大きな影響を与えます。例えば、在庫管理の効率化や適切な人員配置の実現につながります。

顧客分類
顧客の属性や行動データを分析することで、顧客をいくつかのグループに分けることができます。これは分類問題の典型例です。
分類に使用される情報には、年齢、購買履歴、Webサイトでの行動などがあります。これらのデータを基に、顧客を「高頻度購入者」「中頻度購入者」「低頻度購入者」などのカテゴリーに分類します。
この分類結果は、マーケティング戦略の立案に活用されます。各グループの特性に合わせたアプローチを取ることで、効果的な顧客対応が可能になります。

スパムメール検出
ビジネスにおいて、メールは重要なコミュニケーションツールです。しかし、スパムメールの存在は業務効率を低下させる要因となります。教師あり学習を用いることで、このスパムメールを効果的に検出できます。検出には、メールの本文、件名、送信元アドレスなどの特徴が使用されます。これらの情報を基に、メールが「スパム」か「非スパム」かを判別します。
この技術により、重要なビジネスメールを見逃すリスクが減少し、メール管理の効率が向上します。

製品の品質管理
製造業において、品質管理は非常に重要です。教師あり学習を活用することで、製品の品質を事前に予測することが可能になります。
予測には、製造時の温度、圧力、原材料の特性などのデータが使用されます。これらの情報を基に、製品の品質スコアを算出したり、「良品」か「不良品」かを判別したりします。
この予測技術により、製造プロセスの最適化が進みます。また、不良品の早期発見も可能になり、品質管理の精度が向上します。

与信評価
金融機関にとって、適切な与信評価は業務の根幹を成します。教師あり学習を用いることで、この評価をより精緻に行うことができます。
評価には、顧客の年収、職業、過去の返済実績などの情報が使用されます。これらのデータを基に、融資の可否や適切な与信限度額を決定します。
この技術により、金融機関はより詳細なリスク管理を行うことが可能になります。結果として、健全な融資業務の実現につながります。

キーワード

AdaBoost
AdaBoostは、データの分類精度を段階的に向上させる機械学習アルゴリズムである。最初に基本的な分類器でデータを2値に分類し、分類に失敗したデータには重みを付ける。次の学習では、重みの大きいデータに注目して新しい分類器を作成する。この過程を繰り返すことで、複数の分類器が生成される。最終的な判断は、各分類器の性能に応じた重みを付けて集計することで行う。このアルゴリズムは、画像認識や自然言語処理など幅広い分野で使用されており、ノイズへの耐性が高く、過剰適合も抑制できる特徴がある。さらに、GradientBoostingやXGBoostなど、より発展的なアルゴリズムの基礎となっている。

アンサンブル学習
複数の学習器を個別に学習し、それらの出力を組み合わせることによって問題を解く手法。出力の組み合わせ方は、平均だけでなく、多数決や重み付きの投票なども含まれる。

カーネル
カーネル法は、データを高次元空間へと変換し、その空間での分析を容易にする手法である。この方法は、特徴量間の相関よりも精度が要求される場合や、線形分離不可能なデータセットに対して有効である。カーネル法を利用することで、高次元空間での分析を行いつつ、計算コストを抑えることが可能になる。カーネルは、実質的には2つのベクトル間の類似度を測る関数であり、機械学習アルゴリズムにおいて内積を置き換える役割を果たす。カーネルトリックと呼ばれる手法を用いることで、データを実際に高次元空間に変換することなく、内積の計算を行うことができる。代表的なカーネル関数として、線形カーネル、多項式カーネル、ガウシアンカーネル(RBFカーネル)などがある。

カーネルトリック
高次元のモデル利用時に汎化性能が低下しデータ分析が困難になる状況に対処する手法で、データの次元数を増加させてより単純な形状へ変換し、データ分析を容易に行うことができる。このカーネルトリックを用いることで、線形分離不可能なデータでも、高次元空間への写像によって線形分離可能な形に変換されることが期待される。その結果、データ分析の精度が向上し、より効果的な学習が可能となる。

分類問題
スパムメールの識別、手書き文字の認識、画像の中の物体のカテゴリ識別など。
・多クラス分類:出力カテゴリが2つ以上の場合。例えば、手書きの数字を0〜9のどれかに分類する場合など。
・2クラス分類(バイナリ分類):出力カテゴリが2つだけの場合。例えば、スパムメールかそうでないかを判定する場合など。

回帰問題
株価の予測、家の価格の予測、気温の予測など。
・出力は具体的な数値。たとえば、家の面積、立地、築年数などの入力データから、その家の価格を予測する場合、予測される価格(例: $250,000)が回帰問題の出力となる。

決定木
分類木と回帰木を組み合わせたものでツリー(樹形図)によって条件分岐を繰り返すことで境界線を形成してデータを分析する手法。決定木は一般に仕組みがわかりやすいだけでなく、データのスケールを事前に揃えておく必要がなく、分析結果の説明が容易である特徴がある。訓練データを用いて決定木を過学習させたあと、検証データを用いて性能低下に寄与している分岐を切り取ることを剪定という。これにより過学習を抑制できる。条件分岐を繰り返す際に条件分岐の良さを判断するための基準をあらかじめ定めておく。分類問題においては情報利得の最大化を判断基準とする。

勾配ブースティング
勾配ブースティング決定木(Gradient Boosting Decision Tree: GBDT)とは、「勾配降下法(Gradient)」、「アンサンブル学習(Boosting)」、「決定木(Decision Tree)」の3つの手法を組み合わせた学習の手法。この手法では、決定木を逐次的に学習させ、前の決定木の誤りを次の決定木が修正するようにしていく。勾配降下法は、学習の過程で目的関数を最小化する方向へパラメータを更新していくことで、学習器の性能を向上させる役割を果たす。XGBoostやLightGBM、CatBoostなどがある。

サポートベクターマシン (SVM)
SVM(Support Vector Machine)とも呼ばれる。異なるクラスの各データ点(サポートベクトル)との距離(マージン)が最大となるような境界線を求めることで、パターン分類を行う。この距離を最大化することをマージン最大化と言う。スラック変数を用いることで、どの程度誤分類を許容するか調整できるようになり、誤分類されたデータに寛容になる。SVMではデータをあえて高次元に写像することで、その写像後の空間で線形分類できるようにするカーネル法というアプローチがとられた。この写像に用いられる関数のことをカーネル関数と言う。計算量が非常に大きくなるため、カーネルトリックと言う手法を用いて計算量を抑えることができる。

線形回帰
回帰問題に用いる手法でシンプルなモデルの1つデータ(の分布)があったときに、そのデータに最も当てはまる直線を考える。線形回帰に正則化項を加えた手法として以下の方法がある。

自己回帰モデル (AR)
一般に回帰問題に適用されるが、対象は時系列データである。時系列データ分析のことを単純に時系列分析(time series analysis)とも呼ぶ。ARモデルは、過去のデータポイントを予測変数として現在のデータポイントを予測することを目的とする。入力が複数種類の場合、自己回帰モデルをベクトル自己回帰モデル(vector autoregressive mode、VARモデル)と呼ぶ。VARモデルでは、複数の時系列データを同時に考慮し、各変数の過去のデータポイントに基づいて現在のデータポイントを予測する。これにより、異なる変数間の相互依存関係が考慮される。

重回帰分析
重回帰分析は説明変数が複数ある場合、それらの組み合わせによって目的変数を予測する線形モデルを構築する。重回帰分析では、各説明変数の寄与度や相互作用を考慮し、より高い予測性能を達成することが可能である。

多クラス分類
データを複数のカテゴリに分類する手法を多クラス分類と呼ぶ。この手法は3つ以上のクラスを対象とする分類問題に対応するために開発された。代表的な手法として、One-vs-Rest、One-vs-One、多クラスソフトマックスの3種類がある。One-vs-Rest方式では、着目するクラスとそれ以外のクラスという二項対立の形で問題を捉える。この処理をすべてのクラスについて実施する。複数のクラスに分類される可能性がある場合は、各分類器の出力値の大きさを基準に最終的な判定を行う。One-vs-One方式は、2つのクラスの組み合わせごとに分類を行う。n個のクラスがある場合、必要な分類器の数はnC2個となる。この方式では、各分類器による判定結果の多数決によって、最終的なクラスを決定する。

バギング
Bootstrap Aggregatingの略称で、予測値と実際値の誤差が大きい場合の改善方法として用いられる。アンサンブル学習の一手法であり、複数のモデルを並列に作成し、それぞれの予測結果の多数決によって最終的な予測を行う。この方法は、オーバーフィッティングを抑制し、モデルの汎化性能を向上させることが目的である。バギングは、元のデータセットからランダムに選んだデータのサブセット(ブートストラップサンプル)を用いて、それぞれの学習器を独立に学習させる。この過程で、複数の異なるデータセットが生成され、それぞれのモデルは異なるデータセットを用いて学習されるため、モデル間の相関が低くなる。バギングの結果は、回帰問題の場合は学習器の平均値を取ることで、分類問題の場合は多数決によって最終的な予測が決定される。これにより、個々の学習器の過学習やバリアンスが低減され、全体としてより安定した予測が可能となる。代表的なバギングのアルゴリズムには、ランダムフォレストがある。

ブースティング
バギングと同様に、ブースティングも一部データを繰り返し抽出し、複数モデルを学習させる手法である。しかし、バギングとは異なり、ブースティングは逐次的にモデルを構築し、前のモデルの誤差を次のモデルが補正するように学習を進める。これにより、全体として弱学習器が連携してより強力なモデルを構築することが可能となる。ブースティングでは、各学習器の性能を評価し、その重要度に応じて重み付けを行う。重み付けされた学習器の組み合わせによって最終的な予測が行われる。特に、誤分類されたデータ点に対して重みを増やすことで、次の学習器はそれらのデータ点にフォーカスし、より正確な予測が可能になる。代表的なブースティングアルゴリズムには、AdaBoost、XGBoost、勾配ブースティングなどがある。

ブートストラップサンプリング
母集団となるデータがあるとき、母集団から重複を許してランダムにいくらかデータを取り出して再標本化をする手法。バギングでは、まず母集団からBootstrap samplingによって複数のサンプルを抽出する。ブートストラップサンプリングを利用したアンサンブル学習の手法にバギングがある。ブートストラップサンプリングとバギングは、特にデータセットが小さい場合やノイズが多い場合に有効である。

ベクトル自己回帰モデル (VARモデル)
自己回帰(AR)モデルを多変量に拡張したもの。複数の変数を用いることで予測精度の向上が見込まれる。VARモデルは、複数の時系列データ間の相互依存関係を捉えることができ、それぞれの変数が他の変数の過去の値に影響を受けることを考慮したモデル構築が可能である。VARモデルを適用することで、時系列データに含まれる相互作用や因果関係を明らかにし、より高い予測性能を実現することができる。

マージン最大化
サポートベクターマシン(SVM)は、マージン最大化という基準を用いて決定境界を得るモデルで、決定境界から一番近いデータまでの距離をマージンといい、マージンが最大になるように決定境界の位置が決められる。このようにして求められた境界は、データが未知の場合でも高い予測性能を発揮し、過学習を抑制する効果がある。決定境界の決め方には、データがマージンの内側に入ることを許容しない「ハードマージン」と、データがマージンの内側に入ることを許容する「ソフトマージン」がある。ハードマージンは、データがマージンの内側に入ることを一切許容しない方法で、完全に線形分離可能なデータセットに適している。一方、ソフトマージンは、データがマージンの内側に入ることをある程度許容する方法で、線形分離不可能なデータセットやノイズのあるデータセットに対応することができる。

ランダムフォレスト
「決定木」において特徴量をランダムに選びだす手法。ランダムフォレストでは特徴量をランダムに選び出す(ランダムに複数の決定木を作る)。学習に用いるデータも全データを使うのではなく、それぞれの決定木に対してランダムに一部のデータを取り出して学習を行う(ブートストラップサンプリング)。複数の決定木の結果から、多数決で出力を決定することで全体的に精度向上することを期待している。なお、複数のモデルで 学習することをアンサンブル学習、全体から一部のデータを用いてアンサンブル学習する方法をバギングという。ランダムフォレストはバギングの中で決定木を用いている手法である。過学習しやすいという弱点がある程度解消される。

ロジスティック回帰
線形回帰を分類問題に応用したアルゴリズム。対数オッズを重回帰分析により予測して、ロジスティック(シグモイド)関数で変換することで出力の正規化によって予測値を求めることで、最大確率を実現するクラスをデータが属するクラスと判定する。目的関数は尤度関数を用いる。ロジット変換を行うことで、出力値が正規化される。3種類以上の分類は、ソフトマックス関数を使う。

8. 教師なし学習

試験項目
・教師なし学習には、特徴量のみが必要であることを理解する
・教師なし学習における、分析対象に応じた問題の種類を列挙・説明できる
・代表的な教師なし学習モデルの基本概念を理解する
・目的やデータの特性・量に応じて、適切な教師なし学習モデルを選択できる
・ビジネスにおける教師なし学習の応用例を説明できる

キーワード
k-means 法、t-SNE、ウォード法、協調フィルタリング、クラスタリング、コールドスタート問題、コンテンツベー スフィルタリング、次元削減、主成分分析 (PCA)、潜在的ディリクレ配分法 (LDA)、多次元尺度構成法、デンドログラム (樹形図)、特異値分解 (SVD)、トピックモデル 

1. 教師なし学習には、特徴量のみが必要であることを理解する

  • 教師なし学習は入力データのみを使用し、正解ラベルを必要としない機械学習手法である。
  • データ自体の構造や特徴を見出すことが目的であり、クラスタリングや次元削減などの手法がある。
  • 大量のデータから新しい知見を得るのに有効だが、結果の解釈には専門知識が必要となる。

 機械学習には多様な手法が存在しますが、教師なし学習は特有の性質を持つ手法です。教師なし学習の最も顕著な特徴は、入力データのみを用いて学習を行う点にあります。教師あり学習では、入力データとそれに対応する正解ラベルのペアを使って学習を進めますが、教師なし学習では正解ラベルは不要です。代わりに、入力データの特徴量だけを利用します。つまり、データそのものが内包する構造や特徴を見出すことが教師なし学習の目的となります。この特性を活かした教師なし学習の代表的な応用例として、データのグループ分けと、データ間の関係性の発見があります。データのグループ分けでは、類似した特徴を持つデータをまとめることで、データ全体の構造を把握します。例えば、オンラインショッピングサイトの購買データを分析して、顧客層を識別することができます。データ間の関係性の発見では、入力データの各項目間にある関連性を見つけ出します。これにより、複雑なデータセットの中から重要な特徴や傾向を抽出することが可能になります。教師なし学習の具体的な手法としては、k-means法やウォード法などのクラスタリング手法、主成分分析(PCA)による次元削減、トピックモデルによる文書分類などがあります。これらの手法は、与えられたデータの中から自動的にパターンや構造を見出すため、事前に正解ラベルを用意する必要がありません。教師なし学習は、正解が明確でない問題や、大量のデータから新しい知見を得たい場合に特に効果的です。ただし、得られた結果の解釈や評価には専門知識が必要となる場合が多いため、適切な活用には慎重さが求められます。

2. 教師なし学習における、分析対象に応じた問題の種類を列挙・説明できる

  • 教師なし学習の代表的な手法にはクラスタリング、主成分分析、トピックモデル、協調フィルタリングなどがある。
  • クラスタリングはデータをグループ化し全体構造を把握する。主成分分析は多次元データの本質を少数の特徴量で表現する。
  • トピックモデルは文書データから潜在的なテーマを抽出する。協調フィルタリングはユーザーの嗜好パターンを分析し推薦に活用する。

クラスタリング
クラスタリングは、データを複数のグループ(クラスタ)に分類する手法です。この方法は、データの全体的な構造を理解するのに役立ちます。例えば、オンラインショップの売上データを分析して顧客層を把握する際に利用できます。代表的な手法には、k-means法やウォード法があります。k-means法は、データを指定した数のクラスタに分類します。一方、ウォード法は階層的なクラスタリングを行い、データの類似度に基づいてグループを形成していきます。

主成分分析
主成分分析(PCA)は、データが持つ多数の特徴量から、相関のない少数の特徴量を抽出する手法です。この方法を使うと、データの次元を削減し、複雑なデータセットの本質的な構造を把握できます。例えば、多くの項目を含むアンケート結果を分析する際に主成分分析を使うと、回答者の傾向を少数の要因で説明できるようになります。これにより、データの解釈がしやすくなり、その後の分析や可視化が容易になります。

トピックモデル
トピックモデルは、文書データを対象とした分析手法です。この手法では、文書集合から潜在的なトピックを抽出し、各文書がどのトピックに関連しているかを確率的に表現します。代表的な手法に潜在的ディリクレ配分法(LDA)があります。LDAを使用すると、大量の文書データから自動的にトピックを抽出し、各文書がそれぞれのトピックにどの程度関連しているかを分析できます。この手法は、ニュース記事の分類や文書推薦システムの構築などに応用されています。

協調フィルタリング
協調フィルタリングは、ユーザーの行動パターンや好みを分析し、類似したユーザーの情報を基に推薦を行う手法です。この方法は、オンラインショップやコンテンツ配信サービスでよく使用されています。例えば、ある商品を購入したユーザーが他にどのような商品を購入しているかを分析し、類似した購買パターンを持つユーザーに対して商品を推薦します。これにより、ユーザーの興味に合った商品やコンテンツを効果的に提案することができます。

3. 代表的な教師なし学習モデルの基本概念を理解する

  • クラスタリングは、データを類似性に基づいてグループ化する手法であり、k-means法と階層型クラスタリングが代表的である。k-means法は事前に指定した数のクラスタにデータを分類し、階層型クラスタリングはデータ間の距離に基づいて段階的にクラスタを形成する。クラスタリングにより、データの構造や特徴を把握しやすくなる。
  • 主成分分析は、多次元データの特徴量間の関係性を分析し、相関のない少数の特徴量へと次元を削減する手法である。この手法により、データの解釈が容易になり、機械学習モデルの入力としても有用となる。また、データの可視化にも活用できる点が特徴的である。
  • 協調フィルタリングは、ユーザー間の類似性に基づいてアイテムを推薦する手法であり、主にレコメンデーションシステムで使用される。ただし、新規ユーザーや新規アイテムに対する推薦精度が低下するコールドスタート問題が課題となる。トピックモデルは、文書データから潜在的なトピックを抽出する手法であり、文書の内容理解や分類に活用される。

クラスタリング
クラスタリングは、データを複数のグループ(クラスタ)に分類する手法です。代表的な手法として、k-means法と階層型クラスタリングがあります。
k-means法では、まず任意にk個の中心点を設定し、各データ点を最も近い中心点に割り当てます。その後、割り当てられたデータ点の平均を取って新しい中心点を計算し、この過程を繰り返します。これにより、類似したデータがグループ化されていきます。階層型クラスタリングには、ウォード法や最短距離法などがあります。これらはデータ間の距離に基づいてクラスタを形成します。例えば、最短距離法では、最も近い2つのデータ(またはクラスタ)を順次結合していきます。この過程は樹形図(デンドログラム)で表現され、クラスタを区切る段階によって、異なる粒度の結果が得られます。

主成分分析
主成分分析(PCA)は、データの特徴量間の関係性を分析する手法で、多数の特徴量を持つデータを扱う際に特に有用です。PCAの主な目的は、相関のある多数の特徴量から、相関のない少数の特徴量へと次元を削減することです。この手法を使用することで、データの分析が容易になり、教師あり学習の入力として用いる際の計算量を減らすことができます。また、データの次元を2次元や3次元に削減することで、データの可視化も可能になります。

協調フィルタリング
協調フィルタリングは、主にレコメンデーションシステムで使用される手法です。この手法は、「類似したユーザーは類似した好みを持つ」という考え方に基づいています。例えば、ECサイトで「この商品を購入した人はこのような商品も購入しています」という推薦を行う際に使用されます。具体的には、ユーザー間の類似度を定義し、類似度の高いユーザーが購入した商品を推薦します。ただし、この手法にはコールドスタート問題という課題があります。これは、新しいユーザーや商品に対して十分なデータがない場合、適切な推薦ができないという問題です。

トピックモデル
トピックモデルは、文書データを分析する際によく用いられる手法です。代表的なものに潜在的ディリクレ配分法(LDA)があります。このモデルでは、各文書が複数の潜在的なトピックから確率的に生成されると仮定します。LDAを使用することで、大量の文書から自動的にトピックを抽出し、各文書がどのトピックに関連しているかを推定することができます。これにより、文書の分類や要約、類似文書の検索などが可能になります。

4. 目的やデータの特性・量に応じて、適切な教師なし学習モデルを選択できる

  • クラスタリングはk-means法や階層的手法でデータをグループ化し、次元削減はPCAやt-SNEで特徴量を圧縮する。
  • トピックモデルはLDAなどを用いて文書から潜在的テーマを抽出し、ECサイトの推薦システムにも応用可能だ。
  • モデル選択時はデータ特性や目的に応じて適切な手法を選び、シルエット分析や寄与率などの指標で評価することが重要となる。

クラスタリングは、データをグループに分類する手法の一つです。その中でも、k-means法は広く使われています。この手法では、データをk個のグループに分けることを目指します。まず、データをランダムにk個のクラスタに割り当てます。次に、各クラスタの中心を計算し、データ点を最も近い中心を持つクラスタに再度割り当てます。この過程を繰り返し、クラスタの中心がほとんど動かなくなるまで続けます。k-means法は理解しやすい手法ですが、クラスタの数kを事前に決める必要があります。一方、階層的クラスタリングは、クラスタの階層構造を明らかにする手法です。ウォード法や最短距離法などがよく知られています。これらの手法は、データ間の距離を基にしてクラスタを形成していきます。結果は樹形図(デンドログラム)で表現され、データの構造を視覚的に理解するのに役立ちます。データの特徴量が多い場合、次元削減を行うと分析がしやすくなります。主成分分析(PCA)は、多数の相関のある特徴量から、少数の相関のない特徴量へと変換する手法です。PCAを使うと、データの本質的な構造を保ちながら、扱いやすい形に変えることができます。また、t-SNEは高次元データを2次元や3次元に落とし込んで可視化する際によく用いられます。文書データを扱う際には、トピックモデルが有効です。代表的な手法に潜在的ディリクレ配分法(LDA)があります。LDAは、各文書が複数の潜在的なトピックから生成されると仮定し、文書集合の中に隠れているトピックを抽出します。この手法は文書の分類だけでなく、ECサイトでの商品推薦システムにも応用できます。ユーザーの行動履歴を「文書」、商品を「単語」と見なすことで、ユーザーの好みを表す「トピック」を抽出し、それに基づいて商品を提案することができます。教師なし学習モデルを選ぶ際は、データの性質や解決したい問題に応じて適切な手法を選ぶことが大切です。データをグループ分けしたい場合はクラスタリング手法、データの次元を減らしたい場合は主成分分析、文書データから潜在的なテーマを抽出したい場合はトピックモデルを選ぶといった具合です。また、選んだモデルの評価も重要です。教師なし学習では正解ラベルがないため、評価が難しい面がありますが、クラスタリングの場合はシルエット分析、主成分分析の場合は寄与率といった指標を用いて評価することができます。

5. ビジネスにおける教師なし学習の応用例を説明できる

  • 顧客セグメンテーションは、ECサイトの売上データを分析し、購買行動や好みが類似する顧客グループを識別する。これにより、高額商品購入層やセール品中心の購入層など、特定の顧客グループを特定し、効果的なマーケティング戦略の立案やターゲット広告の配信に活用できる。
  • データ間の関係性把握は、複雑なデータセット内の意味あるパターンや構造を見出すのに有効である。企業の財務データ分析などで、売上高、利益率、負債比率などの指標間の関連性を明らかにし、経営判断や投資決定の重要な指針となる。
  • 異常検知は、製造業やIT業界で広く活用され、通常の動作パターンから逸脱する挙動を検出する。これにより、工場の生産ラインにおける品質管理や設備メンテナンス、ネットワークセキュリティにおけるサイバー攻撃の予兆把握などが可能となる。

顧客セグメンテーション
ECサイトの売上データを分析することで、様々な顧客層を識別できます。この手法では、購買行動や好みが似ている顧客グループを見つけ出すことができます。例えば、高額商品をよく購入する顧客グループ、セール品を中心に購入する顧客グループ、特定のカテゴリの商品を好む顧客グループなどを特定できます。こうした情報は、マーケティング戦略の立案やターゲット広告の配信に非常に有効です。

データ間の関係性把握
教師なし学習は、入力データの各項目間にある関係性を把握するのにも効果的です。複雑なデータセットの中から意味のあるパターンや構造を見出すことができます。例えば、企業の財務データを分析する際に、売上高、利益率、負債比率などの様々な指標間の関連性を明らかにすることができます。このような分析は、経営判断や投資決定の際の重要な指針となります。

異常検知
製造業やIT業界では、教師なし学習を用いた異常検知が広く活用されています。通常の動作パターンを学習し、そこから外れる挙動を検出することで、機器の故障や不正アクセスなどを早期に発見できます。例えば、工場の生産ラインでは、センサーデータの分析により通常とは異なる動作を検知し、製品の品質管理や設備のメンテナンスに活用できます。また、ネットワークセキュリティの分野では、通常のトラフィックパターンから外れる通信を検出し、サイバー攻撃の予兆を把握することができます。

レコメンデーションシステム
多くのECサイトやコンテンツプラットフォームで利用されているレコメンデーションシステムにも、教師なし学習の手法が応用されています。協調フィルタリングと呼ばれる技術がその代表例です。この手法は、「対象ユーザーは購入していないが、似た嗜好を持つユーザーが購入している商品を推薦する」という考え方に基づいています。ユーザー間の類似度を定義し、類似度の高いユーザーが購入した商品を推薦することで、個々のユーザーに合わせた効果的な商品提案が可能になります。

トピックモデリング
文書データの分析にも教師なし学習が活用されています。トピックモデリングと呼ばれる手法を用いることで、大量の文書データから潜在的なテーマやトピックを抽出することができます。例えば、企業の顧客レビューや問い合わせデータを分析し、よく言及されるトピックや課題を自動的に抽出することができます。これにより、製品改善の方向性や顧客サービスの強化ポイントを効率的に把握することが可能になります。

キーワード

k-means 法
階層なしクラスタリングの一種であり、クラスタの平均を用いて、与えられたクラスタ数をk個に分類する。k個のkは自分で設定する。k-means法を用いた分析のことをクラスタ分析といい、データセット内の類似性に基づいてグループ化することが目的となる。この手法は、データの特徴を捉えることで意味のあるカテゴリ分けを行い、データ解析において有用な情報を得ることができる。

t-SNE
高次元データを2次元又は3次元に変換して可視化するための次元削減アルゴリズム。高次元での距離分布が低次元での距離分布にもできるだけ合致するように変換する。高次元の局所的な構造を非常によく捉える、大局的な構造も可能な限り捉えるといった特徴がある。t-SNEのtはt分布のtである。

ウォード法
階層ありクラスタリングの一つで、データセットの階層構造を求めることを目的とする。k-means法からさらに、クラスタの階層構造を求めるまで行う手法。最も距離が近い2つのデータ(クラスタ)を選び、それらを1つのクラスタにまとめる処理を繰り返していく。クラスタリングのまとまりを表した樹形図のことをデンドログラム(dendrogram)という。

協調フィルタリング
レコメンデーション(recommendation)に用いられる手法のひとつであり、レコメンドシステム(推薦システム)に用いられる。ECサイトで表示される「この商品を買った人はこんな商品も買っています」の裏側には協調フィルタリングが用いられている。協調フィルタリングは事前にある程度の参考となるデータがないと推薦を行うことができない(コールドスタート問題(cold startproblem))。ユーザーではなく商品側に何かしらの特徴量を付与し、特徴が似ている商品を推薦する方法をコンテンツベースフィルタリング(content-based filtering)という。対象ユーザーのデータさえあれば推薦を行うことができるのでコールドスタート問題を回避することができるが、反対に他のユーザー情報を参照することができない。

クラスタリング
機械学習における教師なし学習の1種で、データ間の類似度にもとづいてデータをグループ分けする手法。似たような特徴を持つデータ同士が同じクラスタに属するように、データが分割される。クラスタリングの目的は、データセット内の潜在的な構造や関係性を発見し、データの理解を深めることである。クラスタリングにはさまざまなアルゴリズムが存在し、それぞれ異なるアプローチでデータのグループ化を行う。代表的なクラスタリング手法には、階層的クラスタリング、K-meansクラスタリングなどがある。これらの手法は、データの形状や密度、特徴の重要性などに応じて、適切なクラスタリング結果を得ることができる。

コールドスタート問題
レコメンデーション(recommendation)に用いられる手法のひとつであり、レコメンドシステム(推薦システム)に用いられる。ECサイトで表示される「この商品を買った人はこんな商品も買っています」の裏側には協調フィルタリングが用いられている。協調フィルタリングは事前にある程度の参考となるデータがないと推薦を行うことができない

コンテンツベー スフィルタリング
ユーザーではなく商品側に何かしらの特徴量を付与し、特徴が似ている商品を推薦する方法をコンテンツベースフィルタリング(content-based filtering)という。対象ユーザーのデータさえあれば推薦を行うことができるのでコールドスタート問題を回避することができるが、反対に他のユーザー情報を参照することができない。

次元削減
多次元からなる情報をその意味を保ったまま、それより少ない次元の情報に落とし込むこと。これは、データの特徴を抽出し、情報の本質を理解しやすい形に変換することで、データ分析や機械学習の効率を向上させることが可能となる。また、次元削減はデータの可視化にも役立ち、高次元データを2次元や3次元のグラフにプロットすることで、データの傾向やクラスタリングを視覚的に捉えることができる。次元削減には主成分分析(PCA)やt-分布確率近傍埋め込み法(t-SNE)などの手法があり、それぞれ異なるアプローチで次元削減を実現する。主成分分析は、データの分散が最大となる方向を見つけることで次元を削減し、t-SNEは高次元空間のデータの近さを確率分布で表現し、それを低次元空間に再現することで次元削減を行う。

主成分分析 (PCA)
データの特徴量間の関係性、相関を分析しデータの構造をつかむ手法。特に特徴量の数が多い場合に用いられ、相関をもつ多数の特徴量から相関のない少数の特徴量へと次元削減することが主たる目的。ここで得られる少数の特徴量を主成分という。 線形な次元削減であり、計算量の削減ができ次元の呪いの回避が可能となる。寄与率を調べれば各成分の重要度が把握でき、主成分を調べれば各成分の意味を推測しデータの可視化が可能となる。 主成分分析以外には、特異値分解(Singular Value Decomposition、SVD)、多次元尺度構成法(Multi-Dimensional Scaling、MDS)がよく用いられる。可視化によく用いられる次元圧縮の手法は、t-SNE(t-distributed Stochastic NeighborEmbedding)がある。t-SNEのtはt分布のtである。

潜在的ディリクレ配分法 (LDA)
教師なし機械学習の手法であるLDA(Latent Dirichlet Allocation)は、文中の単語から、トピックを推定する教師なし機械学習の手法。ディリクレ分布という確率分布を用いて、各単語から隠れたあるトピックから生成されているものとしてそのトピックを推定する。この方法により、複数の文書に共通するトピックを発見し、それぞれの文書がどのトピックに関連しているかを特定することが可能となる。また、LDAは教師なし学習であるため、事前にラベル付けされたデータが必要なく、大量のテキストデータから自動的にトピックを抽出することができる。

多次元尺度構成法
多変量解析の一手法。主成分分析の様に分類対象物の関係を低次元空間における点の布置で表現する手法である。主成分分析と同様に、高次元データをより簡潔に低次元空間に投影し、データ間の関係を可視化することができる。これにより、データの構造やパターンを理解しやすくなる。また、MDSは、類似性や距離の情報を元に、データを最適な形で配置するため、データの比較や解釈が容易に行える。特に、人間の知覚や評価に関するデータの分析において効果的な手法とされる。

デンドログラム (樹形図)
クラスタ分析において、逐次的に標本がグループ化される様子を木の枝のような線で表したもの。ンドログラムは、階層的クラスタリング手法において、データ間の類似性や関連性を視覚的に示すために用いられる。この図は、データポイント間の距離を基に、横軸に標本を並べ、縦軸に類似度を表している。デンドログラムを用いることで、どのデータポイントがどのクラスタに属するか、そして各クラスタ間の関係や階層構造を直感的に把握することができる。また、適切なクラスタ数を決定する際にも役立つ。縦軸の類似度に基づいて適切なカットオフポイントを選択することで、クラスタ数を決定できる。

特異値分解 (SVD)
線形代数学における複素数あるいは実数を成分とする行列に対する行列分解の一手法。行列に対するスペクトル定理の一般化とも考えられ、正方行列に限らず任意の形の行列を分解できる。特異値分解により、与えられた行列を3つの行列の積に分解することができる。この3つの行列は、直行行列、対角行列、そしてもう一つの直行行列で構成されている。分解された行列は、元の行列の特性や構造を保持しており、データ圧縮やノイズ除去などの目的で利用されることがある。主成分分析(PCA)やレコメンデーションシステムの協調フィルタリング、画像圧縮、自然言語処理など、多くのアプリケーションでSVDが使用されている。

トピックモデル
k-means法やウォード法と同様クラスタリングを行うモデル。文章を潜在的な「トピック(単語の出現頻度分布)」から確率的に現れるものと仮定して分析を行う。各トピックの確率分布を推定できれば、傾向や単語の頻度、次にくる文章の予測が可能となる。各文書データ間の類似度を求めることができるため、レコメンドシステム(推薦システム)に用いることができる。データをひとつのクラスタに分類するk-means法などと異なり、トピックモデルは複数のクラスタにデータを分類するのが特徴。トピックモデルの代表的な手法に潜在的ディリクレ配分法(latent Dirichlet allocation、LDA)がある。

9. 強化学習

試験項目
・強化学習の基本概念を理解する
・強化学習と、教師あり学習および教師なし学習との差異を説明できる
・価値関数の学習と、方策の学習の2つの代表的なアプローチを理解する
・各アプローチに属する代表的な強化学習手法について概要を理解する
・ビジネスにおける強化学習の応用例を説明できる

キーワード
Actor-Critic、ε-greedy 方策、REINFORCE、Q 学習、UCB 方策、行動価値関数、状態価値関数、バンディットアルゴリズム、方策勾配法、マルコフ決定過程、割引率

1. 強化学習の基本概念を理解する

  • 強化学習は、エージェントが環境と相互作用しながら最適な行動を学習する機械学習手法。
  • エージェントは状態を観測し行動を選択、環境からの報酬を基に行動を評価し、この過程を繰り返すことで学習を進める。
  • 「活用」と「探索」のバランス、マルコフ決定過程、状態・行動価値関数、方策勾配法など、様々な概念や手法が強化学習の基盤を形成している。

強化学習は機械学習の一分野であり、エージェントが環境と相互作用しながら学習を進める手法です。この学習方法では、エージェントが行動を選び、その結果として環境から新しい状態と報酬を受け取ります。エージェントの目標は、長期的に得られる報酬の合計を最大にすることです。強化学習の基本的な流れは次のようになっています。まず、エージェントは現在の環境の状態を観察します。次に、観察した状態に基づいて行動を選択します。選んだ行動により、環境が新しい状態に変化します。そして、エージェントは環境の変化に応じた報酬を受け取ります。最後に、受け取った報酬をもとに、選んだ行動の評価を行います。この一連の流れを繰り返すことで、エージェントは少しずつ最適な行動を学んでいきます。強化学習において重要な考え方の一つに、「活用」と「探索」のバランスがあります。「活用」は、これまでの経験から得た知識を使って、最も報酬が高いと考えられる行動を選ぶことを指します。一方、「探索」は、まだ試していない行動を選ぶことで、新たな可能性を探ることを意味します。このバランスを取るための方法として、バンディットアルゴリズムがあります。例えば、ε-greedy方策では、多くの場合は最も報酬が高いと思われる行動を選びますが、一定の確率でランダムな行動を選びます。また、UCB方策では、これまでの報酬の期待値が高い選択肢を基本としつつ、試行回数が少ない行動も積極的に選びます。強化学習のモデル化で重要な概念に、マルコフ決定過程があります。これは、次の状態への移り変わる確率が、現在の状態だけに依存し、それ以前の状態には依存しないという特徴を持つモデルです。この特徴により、複雑な問題を扱いやすくなります。強化学習の目的は、最適な方策(各状態でどの行動を選ぶかの戦略)を見つけることですが、実際にはこれを直接求めるのは難しいです。そこで、状態や行動の「価値」を表す関数を導入し、その関数を最適化することで間接的に最適な方策を見つける方法が使われます。具体的には、状態価値関数と行動価値関数が使われます。特に行動価値関数は重要で、これはQ値とも呼ばれます。Q値を最適化する方法として、Q学習やSARSAなどがあります。一方で、方策を直接最適化しようとする方法もあります。方策勾配法は、方策をパラメータ化された関数として表現し、累積報酬の期待値が最大となるようにそのパラメータを調整します。この方法は、ロボット制御など行動の選択肢が多い課題で特に効果的です。

2. 強化学習と、教師あり学習および教師なし学習との差異を説明できる

  • 強化学習の基本的考え方は、環境との相互作用を通じて報酬を最大化する行動を学習する仕組みである。
  • エージェント、環境、状態、行動、報酬という要素で構成され、試行錯誤を繰り返しながら最適な行動を見出していく。
  • 教師あり学習や教師なし学習とは異なり、長期的な報酬最大化を目指し、「活用」と「探索」のバランスを取りながら学習を進める点が特徴的である。

強化学習は、行動を学習する仕組みを基本としています。この学習方法では、特定の環境下で目標とする報酬(スコア)を最大化するために、最適な行動を学んでいきます。強化学習の構成要素には、エージェント、環境、状態、行動、報酬があります。これらの要素が相互に作用しながら学習が進んでいきます。具体例として自動運転車を考えてみましょう。車(エージェント)は周囲の状況(環境)を把握し、その状態に基づいて進む、止まる、曲がるなどの行動を選びます。その結果、環境が変化し、新たな状態が生まれます。このサイクルが繰り返される中で、適切な行動には報酬が与えられ、エージェントは報酬を最大化するよう学習を重ねていきます。一方、教師あり学習は与えられたデータ(入力)を基に、そのデータがどのようなパターン(出力)になるかを識別・予測することを目指します。例えば、過去の売上データから将来の売上を予測したり、動物の画像からその種類を識別したりするのに適しています。教師なし学習は、入力データのみを用いて、そのデータが持つ構造や特徴を見出すことを目的としています。例えば、オンラインショップの売上データから顧客層を分類したり、データ項目間の関係性を把握したりするのに使われます。これらの違いを踏まえると、強化学習の特徴がより明確になります。強化学習は、試行錯誤を通じて最適な行動を学習していく点が特徴的です。教師あり学習のように正解のラベルが与えられるわけではなく、また教師なし学習のようにデータの構造を見出すわけでもありません。強化学習では、エージェントが環境と相互作用しながら、長期的な報酬を最大化する方策を学習していきます。この過程で重要になるのが、「活用」と「探索」のバランスです。既知の情報を活用して報酬を得ることと、新しい可能性を探索することのバランスを適切に管理することが、効果的な学習につながります。

3. 価値関数の学習と、方策の学習の2つの代表的なアプローチを理解する

  • 価値関数学習は状態や行動の価値を最大化し、Q学習やSARSAなどの手法がある。
  • 方策直接学習は最適な方策を直接探索し、方策勾配法としてREINFORCEなどがある。
  • 両者を組み合わせたActor-Critic法も存在し、問題の性質に応じて適切な手法を選択することが重要である。

強化学習には、価値関数の学習と方策の学習という2つの代表的なアプローチがあります。これらのアプローチは、異なる方法で最適な行動を見つけ出すことを目指しています。価値関数の学習では、状態や行動の「価値」を設定し、その価値が最大となるように学習を進めます。この手法では、状態価値関数と行動価値関数という2種類の関数を用います。特に重要なのは行動価値関数で、これは通常「Q値」と呼ばれます。Q値を最適化することで、適切な行動を選択できるようになります。この手法の代表例としては、Q学習やSARSAがあります。一方、方策の直接学習は、最適な方策を直接見つけ出そうとするアプローチです。方策勾配法と呼ばれるこの手法では、方策をあるパラメータで表される関数とし、そのパラメータを学習することで直接方策を最適化します。この方法は特に、ロボット制御など行動の選択肢が非常に多い課題で効果を発揮します。方策勾配法の具体例としては、REINFORCEという手法があり、AlphaGoにも活用されています。さらに、これら2つのアプローチを組み合わせた手法も存在します。Actor-Criticと呼ばれるこの方法は、行動を決めるActor(行動器)と方策を評価するCritic(評価器)から構成されています。この組み合わせにより、両アプローチの利点を活かすことができます。これらの手法はそれぞれ特徴があり、解決すべき問題の性質によって適切な選択が変わります。例えば、行動の選択肢が多い場合は方策勾配法が適している可能性があります。一方で、状態や行動の価値を明確に定義できる問題では、価値関数の学習が効果的かもしれません。実際の応用では、問題の特性を見極めて適切な手法を選択することが大切です。

4. 各アプローチに属する代表的な強化学習手法について概要を理解する

  • バンディットアルゴリズムは、「活用」と「探索」のバランスを取る手法であり、ε-greedy方策とUCB方策が代表的である。
  • 価値関数を用いたアプローチでは、Q学習とSARSAが主要な手法であり、Q関数を用いて状態・行動の価値を推定する。
  • 方策勾配法は直接最適な方策を見つけ出す手法で、REINFORCEが代表例であり、連続的な行動空間を扱う場合に有効。

バンディットアルゴリズム
強化学習において、「活用」と「探索」のバランスを取ることが重要です。活用とは、既知の情報から最も高い報酬が得られると予想される行動を選ぶことです。一方、探索とは、新しい情報を得るために未知の行動を試すことを指します。このバランスを取るための手法としてバンディットアルゴリズムがあります。代表的なものとして、ε-greedy方策とUCB方策が挙げられます。ε-greedy方策は、基本的には最も報酬が高いと予想される行動を選びますが、一定の確率でランダムな行動を選択します。一方、UCB方策は期待値の高い選択肢を基本としつつ、あまり試していない行動を優先的に選ぶ方法です。これらの方策を用いることで、未知の環境でも効率的に学習を進めることができます。各方策には特徴があり、状況に応じて適切な方法を選択することが重要です。バンディットアルゴリズムは、シンプルながらも強化学習の基本的な考え方を体現しており、より複雑な問題に取り組む際の基礎となる重要な概念です。

価値関数を用いたアプローチ
強化学習の目的は、将来にわたって得られる報酬の合計(累積報酬)を最大化することです。この目的を達成するため、状態や行動の「価値」を評価する関数を用いるアプローチがあります。代表的な手法として、Q学習とSARSAがあります。これらの手法では、行動価値関数(Q関数)を用いて各状態・行動の組み合わせの価値を推定します。Q関数の値は通常「Q値」と呼ばれ、この値を最適化することで適切な行動を選択できるようになります。Q学習とSARSAの違いは、Q値の更新方法にあります。Q学習は次の状態で取りうる最大のQ値を用いて更新を行うのに対し、SARSAは実際に選択した行動のQ値を用いて更新を行います。

方策勾配法
価値関数を用いるアプローチとは異なり、直接最適な方策(行動の選び方)を見つけ出そうとするのが方策勾配法です。この手法では、方策をあるパラメータで表される関数とし、累積報酬の期待値が最大となるようにそのパラメータを学習します。方策勾配法の代表的な手法の一つにREINFORCEがあります。この手法は、行動の選択肢が非常に多い場合や、連続的な行動空間を扱う場合に特に有効です。例えば、ロボットの制御のような複雑な課題に適用されることがあります。

Actor-Critic法
Actor-Critic法は、価値関数を用いたアプローチと方策勾配法の考え方を組み合わせた手法です。この手法では、行動を決定する「Actor」(行動器)と、その行動の良し悪しを評価する「Critic」(評価器)の2つの要素が協調して学習を進めます。Actorは方策を学習し、Criticは価値関数を学習します。Criticの評価を基にActorが方策を改善し、その方策に基づいてCriticがより正確な評価を行うという形で、互いに影響し合いながら学習が進んでいきます。

5. ビジネスにおける強化学習の応用例を説明できる

  • 強化学習は機械学習の一分野で、複雑な意思決定や長期的戦略が必要な状況で効果を発揮する。
  • 自動運転、ECサイト、製造業、金融分野、エネルギー管理システムなど、幅広いビジネス領域で活用されている。
  • これらの応用では、環境の「状態」を認識し、適切な「行動」を選択し、目標とする「報酬」を最大化するよう学習を進める。

自動運転技術
自動運転技術は、強化学習の代表的な応用例の一つです。自動車が道路環境を正確に認識し、適切な運転操作を行うためには、様々な状況に応じた判断が求められます。強化学習を用いることで、車両は周囲の状況を「状態」として捉え、アクセル、ブレーキ、ハンドル操作などの「行動」を選択し、安全な走行という「報酬」を最大化するように学習を進めます。

ECサイトのレコメンデーションシステム
ECサイトにおける商品のレコメンデーションシステムも、強化学習の活用が進んでいる分野です。ユーザーの過去の購買履歴や閲覧履歴を「状態」として、どの商品を推薦するかという「行動」を選択し、実際の購買や閲覧時間の増加などを「報酬」として学習を進めます。これにより、個々のユーザーの好みに合わせた、より効果的な商品推薦が可能になります。

製造業における生産ラインの最適化
製造業における生産ラインの最適化にも、強化学習が応用されています。生産設備の稼働状況や在庫量を「状態」として捉え、各工程での生産量や作業順序の調整を「行動」とし、生産効率や品質の向上を「報酬」として学習を行います。これにより、需要の変動や設備の状態に応じた柔軟な生産計画の立案が可能となります。

金融分野での活用
金融分野では、株式のトレーディングや資産運用に強化学習が活用されています。市場の状況や各銘柄の動向を「状態」として、売買のタイミングや数量を「行動」とし、収益率を「報酬」として学習を進めます。これにより、市場の変化に迅速に対応し、リスクを抑えつつ収益を最大化する戦略の構築が可能になります。

エネルギー管理システム
エネルギー管理システムにおいても、強化学習の応用が進んでいます。電力需要や再生可能エネルギーの発電量を「状態」として、各発電設備の出力調整を「行動」とし、電力の安定供給とコスト削減を「報酬」として学習を行います。これにより、天候や需要の変動に柔軟に対応した効率的な電力供給が可能となります。

キーワード

Actor-Critic
価値関数ベースと方策勾配ベースの考え方を組み合わせた手法であり、行動を決定する「行動器」(Actor)と価値評価を行う「評価器」(Critic)を用意し、両者を交互に更新しながら学習を進める方法である。アルゴリズムの名前は、これら行動器と評価器から成っていることに由来する。具体的な実装例としては、A2C(Advantage Actor-Critic)やDDPG(Deep Deterministic Policy Gradient)などが存在する。Actor-Criticの利点は、行動器が直接方策を学習することで、連続的な行動空間に対応できる点である。また、評価器によって行動価値を評価し、方策の改善に利用することで、学習の安定性が向上し、収束速度も早くなる。さらに、価値関数と方策勾配法を組み合わせることで、方策勾配法の分散の問題や、価値関数ベースの手法における最適行動の発見の困難さを緩和することができる。Actor-Criticアルゴリズムの欠点としては、ハイパーパラメータ調整が必要な場合があり、学習の効果に大きく影響することがある。

ε-greedy方策
Q学習で用いられるアプローチで、探索と活用のバランスを取りながら累積報酬の最大化を目指す。探索では行動をランダムに選択し、活用では報酬平均が最高な行動を選択する。ε(イプシロン)はハイパーパラメータで、小さい値だと既知の情報を活用する確率が高く、大きい値だとランダムな探索が頻繁に行われる。この戦略の目的は最適な行動を確実に発見することであり、探索と活用のバランスが重要となる。

REINFORCE
強化学習アルゴリズムの一つであり、自ら生成したサンプルを擬似的な教師データとして利用し、評価が高いサンプルに高い重みを与えて学習を行う方法である。このアルゴリズムは、方策勾配法の一種であり、特にモンテカルロ法を用いた学習手法として知られている。AlphaGoにおいても、REINFORCEアルゴリズムが活用された。REINFORCEの利点は、学習過程で必要な計算量が少なく、実装が比較的簡単であることである。また、探索と利用のバランスを適切に調整しながら学習を進めることができるため、最適な方策に収束しやすくなる。さらに、擬似的な教師データを用いることで、教師あり学習の枠組みを利用しつつ、強化学習の問題設定に対応することが可能である。REINFORCEの欠点としては、サンプル効率が低いことが挙げられる。つまり、大量のサンプルが必要となり、学習に時間がかかることがある。また、方策勾配の推定において高い分散が生じることがあり、これが学習の不安定性につながることがある。

Q 学習
エージェントが行動するたびにQ値を更新する学習法。2013年にDeep Mind社はディープラーニングを組み合わせたDQNを発表した。その後、Double DQN、Dueling Network、Categorical DQN、Rainbowなどが提案された。

UCB方策
報酬和の期待値が高い行動を選択する基本方針を持ちながら、試行回数が少ない行動を優先的に選ぶアプローチである。この方法では、探索と活用のバランスを考慮してアームの選択を行い、報酬の最大化を目指す。UCB方策では、各行動の報酬の期待値と試行回数を考慮した評価値を計算し、評価値が最も高い行動を選択する。試行回数が少ない行動は、評価値に大きな不確かさが含まれているため、これらの行動を優先的に選択することで探索を促進する。

行動価値関数と状態価値関数
強化学習の目的は、現在の状態から将来の累積報酬が最大となるような行動を選択していくことだが、実際に最適な方策を見つけ出すのは難しいため、最適な方策を直接求める代わりに状態や行動の「価値」を設定し、その価値が最大となるように学習をするアプローチの検討がされた。この「価値」を表す関数として状態価値関数(state-value function)、行動価値関数(state-value function)を導入する。

状態価値関数直近の報酬に次の状態の価値関数を足したもの。方策および遷移確率で未来のとりうる値は変わってくるので、その期待値をとる。
行動価値関数状態sでの行動aを評価する関数。状態sに対して、どの行動が最適なものかを導く手法。

一般に「価値関数」と言った場合行動価値関数を指す。価値関数のことをQ値(Q-value)とも呼び、これを最適化することで最適な行動ができるようになるといえる。Q値を最適化する手法にはQ学習(Q-learning)、SARSAなどがある。

バンディットアルゴリズム
バンディットアルゴリズムは、強化学習において将来の累積報酬を最大化する行動を選択する際に活用される手法である。行動の組み合わせが無数に存在するため、「活用」と「探索」という2つの考え方が重要となる。活用では、既知の情報を基に報酬が最大となる行動を選択する。一方、探索では、未知の情報を得るために新たな行動を試みる。バンディットアルゴリズムは、この活用と探索のバランスをうまく取りながら、エージェントが最適な行動を選択する能力を向上させることを目指す。強化学習においてはどちらも重要な要素であり、この活用と探索のバランスを取る手法の総称をバンディットアルゴリズムという。ε-greedy方策やUCB方策がある。

方策勾配法
方策をあるパラメータで表される関数とし、累積報酬の期待値が最大となるようにそのパラメータを学習することで、直接方策を学習していくアプローチを方策勾配法という。方策反復法の1つの手法であり、方策勾配定理に基づき実装される。ロボット制御など、特に行動の選択肢が大量にあるような課題で用いられる。方策勾配法の利点は、連続的な行動空間や大規模な行動空間においても適用可能であることで、これによりロボット制御や自動運転車のような実世界の問題に対処することができる。また、方策勾配法は、適切な方策関数を選択することで、学習が効率的に進行し、最適な方策に収束する可能性が高まる。この方法では、状態空間や行動空間が大きくなるにつれて計算量が増加するため、高次元の問題に対しては計算負荷が高くなることが欠点である。

マルコフ決定過程
マルコフ性とは確率論における確率過程が持つ特性の一種であり、環境に対して暗黙的にある仮定を置くことで、「現在の状態から将来の状態に遷移する確率は、現在の状態にのみ依存し、それより過去のいかなる状態にも一切依存しない」という性質。強化学習において、状態遷移にマルコフ性を仮定したモデルをマルコフ決定過程モデルという。エージェントは環境と相互作用し、行動を選択し、報酬を受け取りながら学習を行う。この過程で、マルコフ決定過程モデルは状態、行動、報酬、および状態遷移確率に関する情報を組み合わせて、エージェントが環境の中で最適な方策を見つける手助けをする。マルコフ決定過程モデルは、状態遷移の不確かさや報酬の期待値を考慮して、問題を数学的に定式化し、解決することができる。これにより、エージェントは最終的な報酬を最大化するような方策を獲得する。

割引率
強化学習の行動を選択する段階において、将来もらえると期待できる報酬の総和を見積もるため、即時報酬に乗算する値。この見積もりは即時報酬から割り引かれて計算され、割引くための係数を割引率という。0から1の間の値をとる。割引率が高い場合、将来の報酬がより重視され、逆に割引率が低い場合は即時報酬が重要視される。割引率を用いて、将来得られる報酬の総和の見積もりが計算される。この見積もりは割引された報酬の和として表現され、エージェントはこの割引された報酬の和を最大化するような行動を選択することを目指す。

ご案内

・これ以降をご覧になりたい場合は以下のボタンから購入手続きをお願いいたします。

・ご購入前に、内容をよくご確認ください。購入後の返金はできませんので、予めご了承ください。

・本記事の内容については、より正確で有用な情報をお届けするために随時修正や更新を行うことがあります。あらかじめご了承ください。

・codocを通じてご購入いただけます。
(codocはWEBサイト上でコンテンツ販売を可能にするための、決済機能を含んだコンテンツ配信サービスです)

・codocに関する詳細はこちらのリンクをご覧ください。

特定商取引法に基づく表記

FAQ(購入者向け)