AIの進化が加速する中、未来を予測できない不安を感じることはありませんか?
テクノロジーの進化は日々加速しており、最新情報を把握することが難しくなっています。
将来的には、AGI(汎用人工知能)とASI(人工超知能)が誕生し、シンギュラリティ(技術的特異点)がやってくるとも言われています。
- 弱いAIや狭いAI
- AGI(汎用人工知能)
- ASI(人工超知能)
- シンギュラリティの到来
この記事では、AGIやASIとは何か、そしてそれがどのように未来を変えるのかを分かりやすく解説していきます。
AGI(汎用人工知能)とはなにか?
AGI(Artificial General Intelligence/汎用人工知能)とは、人間のように様々なタスクをこなせるAIのことを指します。
従来のAIの多くは、特定のタスクに特化した「弱いAI」または「狭いAI」と呼ばれるものです。
これに対し、AGIは、科学的な問題を解いたり、言葉を自由に使ったり、アイデアを生み出したりと、指示によって色々な使い方ができます。
私たちの生活や働き方が大きく変わり、これまで不可能だと思われていた課題の解決もできるようになるでしょう。
ただし、AGIの開発には技術的な壁や倫理的な課題も存在しており、慎重に進めていく必要があります。
ASI(人工超知能)とはなにか?
ASI(Artificial Super Intelligence/人工超知能)とは、AGIをさらに超え、人間の知能をはるかに凌駕する能力を持つとされる人工知能のことです。
理論上、あらゆる分野で人間以上の知識、判断力、創造性を発揮し、未知の科学技術を発見したり、新たな社会構造を構築することもできると言われています。
ざっくり紹介すると「ドラえもん」だと思っていただければ問題ありません。
ASIが登場すれば、技術の進化は現在の速度を大幅に上回り、人類がこれまで達成できなかった目標が次々と実現されると考えられています。
例えば、複雑な病気の治療法の発見や、宇宙探査の新たな可能性の開拓、さらには環境問題の完全解決などが挙げられます。
ASIの出現は、シンギュラリティ(技術的特異点)の到来を意味するとされています。
今後AIは自分自身で学習を始め、人類の制御を超える存在になる恐れもあります。
そのため、ASIに対する期待とともに、制御不能になるリスクへの懸念が国際的に議論されています。
AIとAGIやASIの違いとは
AIは、現在多くの分野で利用されていますが、その能力には大きな幅があります。
その中でも、AGIやASIは、AI技術の進化の先にある次世代の存在として注目されています。
では、AI、AGI、ASIの違いについて紹介していきます。
「強いAI」と「弱いAI」とは?
AIは大きく「強いAI」と「弱いAI」に分類されます。
現在私たちが利用している多くのAIは、「弱いAI」と呼ばれるものです。
この弱いAIは、特定のタスクを処理できるよう設計されており、例えば、音声認識や画像分類、翻訳ソフトなどがその例です。
これらのAIは一つの特定分野でのみ機能するため、それ以外の問題には対応できません。
一方で、「強いAI」とは、あらゆるタスクを人間と同等にこなす能力を持つ人工知能のことを指します。
これは、AGI(汎用人工知能)と同義です。
AGIは、一つのシステムで多様なタスクを処理する能力を持ち、新しい状況にも自ら適応する柔軟性が特徴です。
また、理論上、自己学習や自己改善を無限に続けることが可能で、より高いパフォーマンスを発揮すると期待されています。
このように、「弱いAI」と「強いAI」の違いは、その適応力と汎用性にあります。
従来のAI技術が「弱いAI」中心であるのに対し、AGI(強いAI)の実現は、AI分野の大きな転換点となるでしょう。
AIが自ら判断
AGIは、あらかじめプログラムされたタスクだけではなく、状況に応じて最適な判断する力を持っています。
これにより、人間が管理できない環境や、瞬時の判断が求められる緊急時にも、的確な対応を実現します。
例えば、自動運転車の技術はAGIの潜在的な活用例の一つです。
交通状況や天候の変化をリアルタイムで分析し、最適な運転判断を自律的に行います。
これは「弱いAI」ではなく、複雑な環境でも適応できるAGIです。
このような技術は、今後様々な場面で利用されるようになり、多くの人がその恩恵を受けることになるでしょう。
AGIやASIの例
AGIやASIが、ピンとこない方もいるでしょう。
身近なものを利用して紹介していきます。
2022年以前: 弱いAI(例: スマートスピーカー、囲碁AI)
2022年以前のAIは、特定のタスクに特化した「弱いAI(Narrow AI)」が主流でした。
たとえば、画像認識、音声認識、特定のデータ解析に特化したAIなどがその例です。
特定の問題を解決する能力を持っていますが、他の分野のタスクには対応できませんでした。
弱いAIは現在でも広く使用されていますが、AGIとは異なり、自ら新しいスキルを学んだり異なる分野の問題を解決する能力はありません。
2024年現在: AGIに近い存在(例: ChatGPT、Gemini)
ChatGPTやGeminiは、AGIに向かう過程の技術とされています。
これらは多様なタスクに対応できる汎用的な能力を持つことから、AGIの一歩手前の存在と位置づけられています。
たとえば、ChatGPTは自然な会話や文章作成、さらにはコード生成や問題解決まで多岐にわたる用途で活用されています。
一方、GoogleのGeminiは、検索エンジンやリアルタイムデータの処理に優れ、仕事から日常生活にまで利用されています。これらはAGIの実現に向けた基盤技術といえるでしょう。
ドラえもんはASI
ASIの例として、ドラえもんが近い存在かもしれません。
ドラえもんは、人間を超えた知識を持ちながらも、人間社会に適応し、道徳的な判断や共感力も備わっています。
のび太くんが困っていると、ドラえもんは自発的にのび太くんを助けようと、様々な問題解決を行います。
ASIが誕生すれば、このような理想的なAIロボットが誕生するかもしれません。
AIの知能指数が向上してAGIやASIに近づく
TrackingAI.orgが実施したAIモデルのIQテスト結果によると、OpenAIの「o1 Preview」が他のAIモデルを大きく引き離し、トップクラスの性能を発表しました。
AIが人間のIQを超え始めた
「OpenAI o1 Preview」は、言語AIの中で圧倒的な性能を発揮し、平均IQスコア120以上を記録しました。
人間の平均的なIQは100なので、半分以上の人類より頭が良くなったと言えるでしょう。
他のAIモデルのIQ
- OpenAI o1 Preview: 圧倒的なスコア120以上
- GPT-4 Omni: 安定した高スコア(約110)
- Claude-3 Opus (Vision): 視覚AIとしての最優秀モデル
- Bing CopilotやLlama-3.1: 平均スコア90付近で堅実なパフォーマンス
AIモデル別パフォーマンス:視覚AI vs 言語AI
今回のテストでは、言語AIが全体的に高いスコアを記録しました。
一方で、視覚AIは画像認識やマルチモーダルタスクに強みを発揮しましたが、スコアは全体的に低めの結果となっています。
今後はテキスト以外に画像や音楽、動画など様々なデータに対応した、「マルチモーダルAI」はより自然な結果を出すことになるでしょう。
モデル名 | 分類 | 平均IQスコア |
---|---|---|
OpenAI o1 Preview | 言語AI | 120+ |
GPT-4 Omni | 言語AI | 約110 |
Claude-3 Opus (Vision) | 視覚AI | 約95 |
Bing Copilot | 言語AI | 約90 |
このように、言語AIが総じて高いパフォーマンスを示す中、視覚AIでは「Claude-3 Opus (Vision)」が結果をだしています。
一方で、視覚AIの進化も引き続き注目されており、特に画像解析やマルチモーダルタスクにおいて重要な役割を果たしています。
GPT-4はアメリカの司法試験に合格(上位10%に)
一つ前のモデルであるGPT-3.5はアメリカの司法試験において下位10%程度の点数でしたが、GPT-4では上位10%の点数を叩き出しました。
言語によって多少の誤差はありますが、少しづつ知能指数を向上させています。
今後はさらに知能指数が高まり、「IQが20違うと会話が成立しない」という説で、今後は変化がわかりにくい可能性もあるかもしれません。
AGIからASIに到達して新しい時代がくる
シンギュラリティ(技術的特異点)とは、AIが人間の知能を超える瞬間を指します。
この瞬間を境に、AIは成長速度をさらに加速させ、進化が人間の予測を超える速度で進むとされています。
AGIやASIの進化は避けられない未来で、これらの技術を活用しながらリスクを最小限に抑えるためには、人間社会がどのように適応するかが重要なポイントです。
シンギュラリティへ
下記ではASIが誕生し、シンギュラリティが到来しすることについて解説しています。
コメント