国連サミットの会見において、人工知能(AI)が搭載されたロボットが「人類に歯向かうことはない」と応えたと報じた記事がいくつか公開された。AIがもたらす現在と将来のリスクについて、信頼できる専門家たちが警告しているときに、このようなナンセンスを目にするのは腹立たしい。
人工知能(AI)が人類に危険をもたらすことはない──。いくつかの著名な報道機関が、そんなニュースを報じたのは2023年7月の始めのことだ。この心強いニュースの情報源はというと、簡易的なチャットボットに接続された、たくさんのヒューマノイドロボットなのだ。
この知らせは、ジュネーブで開催された「AI for Good」と呼ばれる国連の専門機関が開催したグローバル・サミットのパネルから届いた。このパネルには、ヒューマノイドロボットが制作者とともに登場しており、記者たちはロボットたちに取材するために招かれ、そのなかにはHanson Roboticsが生み出したAIロボット「ソフィア」も含まれていたのだ。このロボットは、トーク番組に出演したことで知名度を上げ、奇妙なことにサウジアラビアで人間として存在を法的に認められている。
記者からは、「AIが人類を滅ぼしたり、仕事を奪ったりするのか」という質問が投げかけられていた。質問されたロボットたちは、ChatGPTに搭載されている技術とよく似た会話型AIによって回答を生成している。だが、このようなチャットボットには限界があると知られているにもかかわらず、ロボットの回答は、あたかも自律的な意思をもつ知的存在による、意味ある意見であるかのように報道されたのだ。
人々を混乱させる“高度な人形劇”
なぜこのようなことが起きてしまったのだろうか。その要因として、人間の表情を視覚的に模倣できるロボットは、見ている人たちの感情的な反応を引き出す力があることが挙げられる。そして、わたしたちはこうした表情を察知できるように常に構えているからだ。
しかし、現在のAIがもつ能力の限界を隠すための“高度な人形劇”にすぎないものを許容してしまうと、この技術を理解しようとしている人を混乱させ、今後この技術が引き起こすかもしれない問題に関する懸念を複雑化させてしまう。わたしはジュネーブで開催されたサミットに招待されて取材に行ったのだが、ソフィアやほかのロボットが「講演者」としてリストアップされているのを見たとたん、興味を失ってしまった。
AIがもたらす現在と将来のリスクについて、信頼できる専門家たちが警告しているときに、このようなナンセンスを目にするのは腹立たしい。機械学習アルゴリズムは社会的偏見をすでに悪化させており、偽情報をまき散らし、世界有数の大企業や政府の力を増大させている。そして、この進歩の早さによって、数年のうちに制御困難なアルゴリズムが誕生するのではないかと、第一線のAI専門家たちは懸念しているのだ。
ソフィアをはじめとする人間そっくりのロボットを手がけているHanson Roboticsは、人間の表情を模倣する機械の製造に驚くほど長けている。香港にある本社を訪れ、過去にディスニーで働いていた創業者のデヴィッド・ハンソンと朝食をとりながら話す機会が数年前にあった。同社の研究室は、まるでドラマ「ウエストワールド」や映画『ブレードランナー』シリーズのような雰囲気が漂っていた。電源が入っていないロボットが悲しげに遠くを見つめ、しなびた顔が棚にペタペタと置かれ、試作機が言葉に詰まりながら同じセリフを無限に繰り返していた。
ハンソンと会った際に、これらの機械に本物の知性を加えるというアイディアについて話した。著名なAI研究者であり、ブロックチェーンを活用したAIプラットフォーム「SingularityNET」の最高経営責任者(CEO)を務めるベン・ゲーツェルは、発展した機械学習技術をハンソンのロボットのソフトウェアに応用し、人間の発話に反応できるようにする取り組みを率いているという。
ソフィアに搭載されたAIは、会話を続けられる程度の受け答えはできる。だが、この技術は、ChatGPTの最新バージョンを駆使し、1億ドル(約140億円)以上の開発費をかけた「GPT-4」のようなシステムほど性能は高くない。そしてもちろん、ChatGPTやそのほかの最先端のAIプログラムでさえ、AIの未来に関する質問に対して理にかなった答えは出せないのだ。AIには驚くほど高度な推論ができる。とはいえ、こうした技術には深刻な欠陥があり、世の中に関する限られた“知識”しかもたない、超自然的な知識と才能をもった模倣者だと考えたほうがいいかもしれない。
ジュネーブで開催されたソフィアたちの誤解を招く「インタビュー」は、AIが擬人化されることで、どれだけわたしたちが混乱してしまうかを示している。AIの歴史には、この分野の新しい進歩から未知のことを過剰に予測しすぎる事例が散見されているのだ。
国内最大級の品揃え【DMMブックス】ロリポップ!
ファッション雑誌No.1 宝島社公式通販サイト『宝島チャンネル』
報道姿勢は昔から変わらない
AIの創生期であった1958年に『ニューヨーク・タイムズ』は、コーネル大学の心理学者フランク・ローゼンブラットが米海軍のために開発した荒削りな人工ニューラルネットワークに関する記事を書いている。これは、人類が初めてつくり上げた機械学習システムのうちのひとつだ。
「アメリカ海軍は本日、歩いて話し、見て書いて、自己複製し、自分の存在を意識できるようになると期待する、電子コンピューターの卵を発表した」と、『ニューヨーク・タイムズ』は報道している。とはいえ、400ピクセルのパターンを探し当てるための学習しかできない回路の報道にしては、かなり大胆な語り口だ。
IBMが開発したチェス専用のスーパーコンピューター「ディープ・ブルー」やGoogle DeepMindが手がけた囲碁プログラム「AlphaGo」、そして過去数十年の間に発展してきた深層学習は、ローゼンブラットの機械から直接派生した技術だ。これらに関する報道を振り返ってみると、内容はほとんど同じであることがわかるだろう。人々は、それぞれの発展をより深く、より人間らしい知性の表れであるかのように受け止めているのだ。
だからといって、こうしたプロジェクトが(あるいはソフィアの誕生が)目覚ましい功績ではないと言っているわけではない。ましてや、より知的な機械の誕生に近づいていないと言っているわけでもない。
しかし、AIの能力についてはっきりとした視点をもつことは、この強力なテクノロジーの進歩を測る上で重要である。AIの進歩を理解するためにわたしたちにできる最低限のことは、ヒューマノイドロボットにくだらない質問をするのをやめることだ。
情報元
https://wired.jp/article/fast-forward-dont-ask-dumb-robots-whether-ai-will-destroy-humanity/