この世界で起こることすべては、いずれ科学で説明がつき、技術で再現することができる、という考え方があります。
もしそれが本当だとしても、実現できるのは遠い将来のこと。
おそらく科学や技術が進歩するほど、世界の謎は深まるばかりという方が、ありそうな未来です。
すでに科学技術によって解決済みとされているテーマにしても、よくよく見直してみれば、落としものや忘れものだらけ。
しかもそれらは、いちばん大切で、しかも日々の生活のすぐそばにあったりするようです。
たとえば、勘や気配や予感をはじめ、合理的に説明されたように思えても、どこか腑に落ちないものは、決して少なくありません。
思えば現代文明はずいぶんたくさんの忘れものをしてきてしまいました。
しばしの間、立ち止まって、あれこれ思い出してみるときが来ているのかもしれません。
来るべき科学や技術の種は、そんな忘れものの中で、見つけられるのを、いまや遅しと待っているのです。
堀場製作所
自然言語処理(natural language processing)と画像認識(image recognition)はAIを人間に近づけるために不可欠な技術だろう。しかしAI(技術)は、言葉やイメージの意味やニュアンスそのものを処理することはできない。処理できるのはあくまでも0と1に置き換えられた言葉やイメージである。いくら大量の例文を記憶させ、画像解像度をアップさせても、「自然」な判断は無理というもの。むしろ人間の側がそれらが「人工」であることに慣れてしまうのが、早道なのかもしれない。
コンピュータ科学の父とも呼ばれるアラン・チューリングが、1950年に提唱した「チューリング・テスト(Turing test)」は、ある機械が知的かどうかを判定するためのテストである。人間の判定者が自然言語を用いて、相手と直接接しないで対話を行い、その相手が知的であるかどうかを判定する。しかし、たとえ相手が人間でコミュニケーションが成立していても、その対象者が本当に知的であるかどうかは、当の本人しかわからないものであるし、人間は犬や猫にも知性を感じる瞬間がある。
<<< 神経学「脳は神経細胞の電気ネットワークである」
<<< N・ウィーナー「サイバネティックス」
<<< C・シャノン「情報理論」
<<< A・チューリング「計算理論」=計算のデジタル化
<<< W・ピッツ+W・マカロック「理想化した人工神経細胞のネットワークを解析」→ニューラルネットワーク。
「人工知能(artificial intelligence)」の命名者は、認知科学者のジョン・マッカーシー。1956年のダートマス会議でのことだった。本来は人間と同等、あるいはそれ以上の知能をもった人工物のことだったが、現在はそのような機械を開発するための様々な「技術」、つまり「人工知能技術」が「AI=人工知能」と呼ばれることが多い。「知能」の定義が曖昧であり、人間の知能を科学的に観測する方法がない現在、少なくとも近い将来において「人工知能」そのものの実現は不可能だとされている。
<<< 1950─A・チューリング「チューリングテスト」
<<< 1951─M・ミンスキー「ニューラルネットマシンSNARC」
<<< 1951─C・ストレイチー「チェッカープログラム」/D・プリンツ「チェスのプログラム」→ゲームAI。
<<< 1955─A・ニューウェル+H・サイモン「Logic Theorist」→強いAI
<<< 1956─ダートマス会議で「Artificial Intelligence」提案=AIの誕生
弱いAIは、人間がその全認知能力を必要としない程度の問題解決や推論を行うもので、強いAIとは、人間の知能に迫るもの、あるいは人間の仕事をこなせるもの、さらには幅広い知識と何らかの自意識を持つものを示す。
H・サイモン+A・ニューウェル
「十年以内にコンピュータはチェスの世界チャンピオンに勝ち、新しい重要な数学の定理を発見し証明する」(1958) H・サイモン
「二十年以内に人間ができることは何でも機械でできるようになるだろう」(1965) M・ミンスキー
「一世代のうちに人工知能を生み出すための問題点のほとんどは解決されるだろう」(1967) M・ミンスキー
「三年から八年の間に、平均的な人間の一般的知能を備えた機械が登場するだろう」(1970)
<<< 1957─F・ローゼンブラット「パーセプトロン」
→コネクショニズム(ニューラルネットワークモデルに基づいた知能体を実現・実装)
<<< 「STUDENT」プログラム
<<< 意味ネットワークを使った最初のAIプログラム
<<< J ・ワイゼンバウム「ELIZA」(自然言語へのアプローチ)→人工無能
<<< M・ミンスキー+S・パパート「マイクロワールド」提案
1980年代の第2次AIブームで中心的な手法となったのがエキスパートシステム(expert system)である。弁護士や医師のような専門家の知識をコンピュータに学習させ、専門家を代替させようとするアプローチだった。しかしたとえば医療現場では、不定愁訴のような定義が難しい事象や、患者の嗜好や家族関係などのような多様で不特定な周辺情報が、判断や問題解決を微妙に左右することもあって、その限界が露呈し、第2次AIブームは下火になってゆく。
<<< コンピュータ性能の限界……コンピュータのメモリ容量や速度の不足
<<< Intractabilityと組合せ爆発
<<< 常識的知識と推論の限界
<<< モラベックのパラドックス「高度な推論よりも感覚運動スキルの方が多くの計算資源を要する」
<<< フレーム問題と条件付与問題
AI開発における重要な難問の一つとされているのが、フレーム問題である。有限の情報処理能力しかないコンピュータには、現実に起こりうるすべての問題に対処することができないことを示すもの。すべてを考慮すると無限の時間がかかってしまうため、枠(フレーム)の中だけで思考せざるをえないのである。もともと科学も数学も境界条件の設定が前提である以上、この問題を解決するのは不可能かもしれない。人間がどのようにこの問題を解決しているかも、まだ解明されていない。
<<< エキスパートシステムの限界
<<< 80年代末─ロボット工学に基づくアプローチ→サイバネティックスと制御理論の復活
<<< 1980─エキスパートシステム「XCON」
<<< 1981─日本の「第五世代コンピュータプロジェクト」
<<< 1982─ジョン・ホップフィールド「バックプロパゲーション」→コネクショニズムの復活
<<< 1984─「Cycプロジェクト」……一般常識をデータベース化し、人間と同等の推論システムを構築することを目的とした
ある年代の人びとにとっては懐かしい言葉になってしまった「第五世代コンピュータ」計画は、1982年に当時の通産省が立ち上げた国家プロジェクトであり、「人工知能が人間知能を越えること」が目標として喧伝され、世界的に話題にもなったが、10年の歳月と570億円の予算を投入した結果、期待された自然言語処理も実現できず、具体的な成果は何ももたらされなかった。完成したのはアプリケーションのほとんどない並列推論システムだけだった。
一般的なソフトウェアの能力を超えたサイズのデータ集合「ビッグデータ(big data)」は、統計学、パターン認識、人工知能等のデータ解析の技法を大量のデータに網羅的に適用することで知識を取り出す技術であるデータマイニング(data mining)で使われてきた言葉である。2010年代に入って「クラウド(cloud)」とともに流行語となった。人工知能開発への応用が指摘されるが、その妥当性はともかく、人間はごくわずかなデータからも結論を出したがる生き物でもある。
<<< 90年代─独立で行動し、状況の変化を学習して適応する「知的エージェント」
<<< 1997─ディープ・ブルーがチェスの世界チャンピオンに勝利
<<< 2005─DARPAグランド・チャレンジでロボットカーが優勝
<<< 2005─レイ・カーツワイル「技術的特異点(シンギュラリティ)」
未来学者レイ・カーツワイルらは、2045年前後に「技術的特異点(technological singularity)」が到達するとした。AIが人間の力を借りずに、自分自身より能力の高いAIをつくり出すことができるようになる地点のこと。以降、AIが文明の主役となるという。齊藤元章は、2025年にプレ・シンギュラリティ(社会的特異点)が到来し、衣食住が無償で手に入り、不老不死も実現可能になるとした。もちろん、プレ・シンギュラリティもシンギュラリティも、その到達を疑問視する向きが多い。
<<< 2006─ジェフリー・ヒント「ディープラーニング」
<<< 2010─「ビッグデータ」提唱
<<< 2011─クイズ番組にIBMの「ワトソン」が参加し2人のチャンピオンに圧勝
<<< 2013─「東京ロボくん」東大入試に挑戦
<<< 2014─弱いAI「Eugene」がチューリングテストに合格
<<< 2016─「AlphaGo」が人間のプロ囲碁棋士に勝利
機械学習の一分野である「深層学習(deep learning)」は、脳神経回路をモデルにしたニューラルネットワークを多層化することで、コンピューターがデータに含まれる特徴をとらえ、より正確で効率的な判断を実現させる技術や手法のこと。2010年代に普及し、この手法を用いたプログラムが囲碁の対戦でプロ棋士に勝利したこともあって一般的にも注目された。シンギュラリティがある程度のリアリティをもって語られるようになったのもディープラーニングの登場によるところが大きい。