人工知能(AI)の進歩は目覚ましく、私たちの生活や社会に大きな影響を与えつつあることは、すでにご存知だろう。
2024年も、AIのさらなる進歩によって、人類の未来に大きな変化をもたらす可能性がある。
その中でも、特に懸念されているのが、AI技術に関する3つのブレークスルーだ。
1. 汎用人工知能(AGI)
AGIとは、人間と同等以上の知能を備えた汎用AIのことだ。
AGIが実現すれば、人間の仕事を自動化し、社会のあらゆる分野に革命をもたらす可能性がある。
しかし、一方で、AGIが暴走して人類を脅かす可能性も指摘されている。
2. 超現実的なディープフェイク
ディープフェイクとは、AIを用いて作成されたニセの映像や音声のことで、近年、この技術が急速に進歩しており、人間の目で区別するのが難しいほど精巧なものが作られるようになった。
もし、ディープフェイクが選挙や世論操作に利用された場合、人類の民主主義や社会秩序をゆるがす可能性がある。
3. 自律型殺人兵器
自律型殺人兵器とは、人間の介入なしに目標を攻撃することができる兵器のことだ。
すでに、一部の国では、自律型殺人兵器の開発が進められている。
もし、自律型殺人兵器が実用化されれば、戦争のあり方を根本から変えてしまう可能性がある。
本稿ではこれら3つのブレークスルーについてそれぞれ詳しく説明していく。
ほとんどのAIの進歩は、医療診断や科学的な発見の向上など良い方向に期待されている。
たとえば、あるAIモデルはX線画像を解析して肺がんのリスクを見つけ出すことができたり、COVID-19の時には、咳の音の微妙な違いからウイルスを診断するアルゴリズムが作られたりした。
また、AIは人間が考えつかないような量子物理学実験の設計にも使われている。
しかし、すべての進歩が安全に機能するとは限らない。
殺人ドローンから人類の未来を脅かすAIまで、2024年に実現する可能性の高い恐ろしいAIのブレークスルーがいくつかある。
ブレークスルーとは
「ブレークスルー」とは、ある分野や技術で突然大きな進歩や発見が起こることを指す。
これは従来の進歩のペースや予想を超えて、新しい革新や成果が得られることを意味し、例えば、科学や技術の分野で、以前には考えられなかったような重要な発見や新技術の登場などが「ブレークスルー」と呼ばれる。
新しいアイディアや方法が突然現れ、その分野全体に大きな影響を与えることがあるのだ。
それでは前述した3つのAI技術について、詳しく解説していこう。
汎用人工知能(AGI)の到来
「AGI」とは、Artificial General Intelligenceの略。日本語では、「汎用人工知能」と訳されるが多い。
「AGI」は人間と同等以上の知能を備え、人間が行うことができるあらゆる知的作業を理解・学習・実行することができるという。
2023年末にOpenAIのCEOサム・アルトマンが解任され、再任された正確な理由は分かっていない。
しかしOpenAIでの企業の混乱の最中に、人類の未来を脅かし得る高度な技術のうわさが飛びかっていた。
「Q*(キュースターと発音)」というOpenAIのシステムは、ロイター通信によれば、人工知能の新しい段階である汎用人工知能(AGI)の可能性を具現化したものと言われている。
この謎のシステムについてはほとんど知られていないが、報道が本当ならAIの能力を大きく向上させる可能性がある。これに関しては後述する。
「AGI」は、AIが人間よりも賢くなるという仮説上のターニングポイントであり、「シンギュラリティ」とも呼ばれる。
現行のAIは、人間の得意なコンテキストに基づく推論や、本物の創造性などの面ではまだ劣っている。
ほとんどの生成AIコンテンツは、ある意味で、それを訓練したデータを単に再現しているに過ぎないのだ。
しかし、科学者たちは「AGI」が特定の仕事を、ほとんどの人よりもうまくできる可能性があると言っている。
しかも、それが強化病原体の作成や大規模なサイバー攻撃の実行、大規模な操作の指揮などに悪用される可能性もある。
「大規模な操作」とは、例えば、政治家の演説を改ざんして、別の内容のように見せかけることで選挙結果を操作したり、社会不安を煽ったりするようなことだ。
さらに、犯罪やテロ事件を、あたかも誰かが犯したように見せかけることで、社会に混乱を引き起こしたり、人々の恐怖心を煽ったりするようなことも考えられる。
人間と同等以上の知能を持つ「AGI」の実現は長い間SFの領域に限られていたが、最近では、その実現が近づいているのではないかとの声が上がっている。
その一つの理由は、OpenAIが「AGI」の実現に向けた研究を進めていることだ。
「Q*(Qスター)」は、数学的推論能力の向上を目指す極秘プロジェクトで、その成果は、AGIの実現につながる可能性があると考えられている。
CEOのサム・アルトマンは自身のブログで、「Q*」という名前は明らかにしていないものの、OpenAIの「AGI」へのアプローチについて説明している。
さらに、NVIDIAのCEOのジェンセン・ホァンを含む専門家の間で、「AGI」の実現が近いとの予測されている。
これらのことから、2024年に「AGI」のブレイクスルーが起こる可能性は十分にあると考えられる。
しかし「AGI」の実現には、「AGI」が暴走するリスクや、AIの倫理的な問題など、まだ多くの課題が残されている。
はたして、2024年が「AGI到来」の年になるのだろうか?
ディープフェイクによるサイバー攻撃の脅威
最も緊急性の高いサイバー攻撃による脅威の一つが、「ディープフェイク」だ。
「ディープフェイク」とは、AIを用いて、まるでニセモノとは思えないほど精巧な偽造映像や音声、画像を作る技術のことだ。
政治家や有名人の演説や発言を改ざんしたり、犯罪やテロ事件をでっちあげたりするために悪用される可能性がある。
具体的には、次のようなことが考えられる。
・ 選挙や世論操作
・ 名誉毀損や誹謗中傷
・ 詐欺や犯罪
今のところ、AIを使った「ディープフェイク」技術はまだそこまで優秀ではなく大きな脅威にまではなっていないが、状況は変わりつつある。
「ディープフェイク」技術は、近年急速に進歩しており、人間の目で区別するのが難しいほど精巧なものが作成できるようになってきているのだ。
そのため、「ディープフェイク」によるサイバー攻撃の脅威は、ますます高まっている。
AIは現在、リアルタイムの「ディープフェイク」、つまり生動画を生成できるようになっており、かつ人間の顔の生成が非常に上手くなってきているため、もはや何が本当で何がニセモノか区別できなくなりつつある。
11月13日に「Psychological Science誌」に発表された別の研究では、AIが生成したコンテンツの方が実際のコンテンツよりも「本物」であると認識される可能性が高い「超リアリズム」という現象が明らかになった。
このように、人々が裸眼で事実とフィクションを区別するのは事実上不可能になっていくだろう。
「ディープフェイク」を検出するツールを使えば、本物かどうかを検出できる可能性はあるが、現時点では不十分である。
例えば、インテルの開発した「FakeCatcher」は、リアルタイムで顔の血流の変化を分析することで、ディープフェイク動画の特徴である、顔の表情や動きの不自然さを見破る。
しかし、この技術はまだ開発途上であり、BBCの調査によると、正しく検出できる場合と誤検出してしまう場合があるようだ。
生成型AIの成熟に比例して恐れられるのは、選挙を操作するためにディープフェイクが使われることだ。
例えばフィナンシャル・タイムズ紙によると、バングラデシュは2024年1月の選挙がディープフェイクによって混乱する可能性に備えているという。
また、2024年11月のアメリカ大統領選においても、AIとディープフェイクが影響を与える可能性があると懸念されている。
例えば、UCバークレーは選挙運動でのAIの使用を監視しており、NBCニュースも、多くの州がAI生成デマに対処する法律やツールが欠けていると報じている。
このように、もはや本物、ニセモノの区別がつかなくなる状況を想定し、不正の監視と検出ができる技術の確立、AIに関する法律の整備が急務となっているのだ。
自律型殺人兵器の開発
各国政府は、徐々に戦争のためのツールにAIを取り入れつつある。
近年、人工知能(AI)を含む新興技術が軍事領域に与える影響について、国際的議論が活発化しているという。
日本の外務省のWEBサイトを参照すると、
軍事分野でのAIの責任ある開発、配備及び使用を確保するという観点から各国が実施すべき措置のあり方を示すものであり、AIの軍事利用は、国際人道法の国家の義務に合致した形で、責任ある人間の指揮命令系統の下で運用し、責任の所在を明らかにする必要があること等を確認するもの。
とされており、日本はAIと自律性の責任ある軍事利用に関する協議に積極的に参加しているようだ。詳しくは、記事の最後の「参考文献」を参照いただきたい。
なお、「AIと自律性の責任ある軍事利用に関する政治宣言」を支持・表明している国・地域は46(2023年11月14日時点)だ。
なぜそのような宣言が必要なのだろうか?
これは、AIの軍事利用における潜在的な危険を認識した結果だ。
AIは、意思決定を迅速化させ、命中精度を高め、リソース配分を効率化して軍事能力を向上させることができる。
しかし、AIを搭載した自律型兵器は人間の介入なしに運用できるため、民間人と戦闘員を誤って標的化するなどのリスクが高まるのだ。
ロシア、中国、北朝鮮などの危険視されている共産圏の国々は、やはりというか前述の国際宣言にも参加しておらず、今後も注視が必要だろう。
では、軍事におけるAIはどのように利用されているのだろうか?
AIは軍事分野において、パターン認識、自己学習、予測や提言などの役割を果たすことができ、すでにAI兵器開発競争が始まっているといわれている。
アメリカ軍の各部門は、人間よりも優れた標的認識および戦場追跡を行うことができるドローンを発注している。
イスラエルもハマスとの戦争でAIを使用して、人間よりも少なくとも50倍速く標的を特定したという。
しかし、最も懸念される開発分野の一つは、致死性自律兵器システム(LAWS)、いわゆる殺人ロボットだ。
スティーブン・ホーキングやイーロン・マスクなど、著名な科学者や技術者たちが殺人ロボットに対する警告を発しており、この技術はまだ大規模には実用化されていない。
とはいえ、今年が殺人ロボットのブレイクスルーの年になることを示唆する不吉な動きがある。
例えばウクライナでは、ロシアが人間の介入なしに標的を認識し攻撃できる「Zala KYB-UAVドローン」を配備したと、原子科学者会報が報じている。
オーストラリアも大規模生産が予定されている自律型潜水艦システム「ゴースト・シャーク」を開発している。
世界各国がAIに費やす金額は増加しており、ロイター通信によると、中国は2010年の1160万ドルから、2019年には1億4100万ドルへとAI支出を大幅に増やしている。
同誌はさらに、中国と米国との間でLAWSの配備競争が始まっているとしている。
以上のことから、AI戦争の新たな夜明けが訪れているのだ。
さいごに
これらのブレークスルーは、いずれも人類の未来に大きな影響を及ぼす可能性がある。可能性とリスクを理解し、適切な対応を検討する必要があるだろう。
筆者的には、以下の対策が必要だと考えている。
1. AGIの実現に向けた倫理的な議論
2. ディープフェイクの拡散防止に向けた対策
3. 自律型殺人兵器の開発禁止に向けた取り組み
今後のAIがもたらすであろう恩恵と危険性のバランスをうまくとることが、我々に課せられた課題だ。
技術をコントロールするのは人間であり、使い方を決めるのも人間なのである。
参考 :
AIと自律性の責任ある軍事利用に関する政治宣言|外務省
Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy
3 scary breakthroughs AI will make in 2024
この記事へのコメントはありません。