人工知能(AI)(その15)(「ChatGPTの生みの親」爆発的人気に透ける葛藤 毀誉褒貶のオープンAIだが 拡大は止まらない、ChatGPTの情報は画一的 「生成系AI」は民主主義社会を支えるツールたり得るか、AIに潜む「蛾」の正体 リスクが脅威になる前にすべきこと) [イノベーション]
人工知能(AI)については、本年4月17日に取上げた。今日は、(その15)(「ChatGPTの生みの親」爆発的人気に透ける葛藤 毀誉褒貶のオープンAIだが 拡大は止まらない、ChatGPTの情報は画一的 「生成系AI」は民主主義社会を支えるツールたり得るか、AIに潜む「蛾」の正体 リスクが脅威になる前にすべきこと)である。
先ずは、本年4月19日付け東洋経済オンライン「「ChatGPTの生みの親」爆発的人気に透ける葛藤 毀誉褒貶のオープンAIだが 拡大は止まらない」を紹介しよう。
https://toyokeizai.net/articles/-/666240
・『爆発的に普及する対話型AIのChatGPT。日本企業の中にも社内での業務や事業に活用しようという動きがある一方で、サイバーセキュリティや著作権法上のリスクもある。4月17日発売の『週刊東洋経済』では「ChatGPT 仕事術革命」を特集。「第4次AIブーム」の本格的な到来に備えて会社員が知るべき生成AIの今を追った。(この記事は本特集内にも収録されています) ChatGPTの登場で一躍有名になったのが、人工知能(AI)の研究開発を行う米オープンAIだ。 社会を大変革する技術を生み出した同社だが、足元ではその潜在的リスクの大きさや、データ収集の違法性をめぐって批判にさらされてもいる。いったい、どんな素性の企業なのか』、興味深そうだ。
・『当初は家庭用ロボット向けの開発も オープンAIは、2015年に非営利法人として設立された。共同議長に就いたのは、現在CEOを務めるサム・アルトマンと、米テスラなどのCEOとして知られるイーロン・マスクだ。 今でこそ大規模言語モデル(LLM)の開発で知られる同社だが、設立翌年に発表された「テクニカルゴールズ」を見ると、それに特化していたわけではない。 ゴールとして定めたのが、家庭用ロボット向けのアルゴリズム導入、自然言語を理解するAIの構築、単一AIでのさまざまなゲーム解決など。 設立当初はとくに、ゲーム解決に必要な「強化学習」のための製品を複数出していた。強化学習とは、与えられた条件下で最大限の結果が出るようにAIの行動を最適化させる手法のこと。 例えば、2016年に発表された「OpenAI Gym」は、ユーザーが開発したAIが強化学習するのを支援するツールだ。2018年には、強化学習をさせたオンライン対戦ゲーム『Dota 2』のAIシステムを発表し、翌年には人間の世界王者に勝利している。 当時のオープンAIを知るゲーム開発者は「多くのゲーム会社が、同社のツールを導入してソフトに搭載するAIの開発をしていた。言語モデルの開発をメインにしている印象はなかった」と振り返る。 ただ実際は、並行して言語モデルの開発も進めていた。2018年には、言語モデルの初代となるGPTを発表。翌2019年にはGPT-2、2020年にはGPT-3と、モデルの表現力や性能を更新していった。今年3月には、大方の予想よりも早くGPT-4を発表し、その飛躍的な性能向上を見せつけた。) オープンAIが言語モデルの開発に邁進するのは、同社がミッションとして掲げる「AGIが全人類に利益をもたらすことを確実にすること」を達成するためだ。 AGIとは「汎用人工知能」のこと。限られた用途でしか使えない現状のAIとは異なり、人間に匹敵する、あるいは超人間的な知性を備える。 今年2月に公表された「Planning for AGI and beyond」という文書には、AGIに関するアルトマンCEOの考え方が記されていた。曰(いわ)く、その実現により、世界経済や新しい科学的知識の発見を活性化させ、人間の創造性にも大きな力を与える、という。 AGIの実現には今後複数の技術的ブレークスルーが必要だが、言語モデルの進化はその重要な道のりの1つ、というわけだ』、「オープンAIは、2015年に非営利法人として設立。共同議長に就いたのは、現在CEOを務めるサム・アルトマンと、米テスラなどのCEOとして知られるイーロン・マスクだ」、「マスク」氏が「共同議長」だったとは初めて知った。「設立当初はとくに、ゲーム解決に必要な「強化学習」のための製品を複数出していた。強化学習とは、与えられた条件下で最大限の結果が出るようにAIの行動を最適化させる手法」、「「多くのゲーム会社が、同社のツールを導入してソフトに搭載するAIの開発をしていた。言語モデルの開発をメインにしている印象はなかった」と振り返る。 ただ実際は、並行して言語モデルの開発も進めていた」、「2018年には、言語モデルの初代となるGPTを発表。翌2019年にはGPT-2、2020年にはGPT-3と、モデルの表現力や性能を更新していった。今年3月には、大方の予想よりも早くGPT-4を発表し、その飛躍的な性能向上を見せつけた。) オープンAIが言語モデルの開発に邁進するのは、同社がミッションとして掲げる「AGIが全人類に利益をもたらすことを確実にすること」を達成するためだ。 AGIとは「汎用人工知能」のこと。限られた用途でしか使えない現状のAIとは異なり、人間に匹敵する、あるいは超人間的な知性を備える」、「「Planning for AGI and beyond」という文書には、AGIに関するアルトマンCEOの考え方が記されていた。曰(いわ)く、その実現により、世界経済や新しい科学的知識の発見を活性化させ、人間の創造性にも大きな力を与える、という。 AGIの実現には今後複数の技術的ブレークスルーが必要だが、言語モデルの進化はその重要な道のりの1つ、というわけだ」、「汎用人工知能」を目指した動きとは初めて知った。
・『AGI実現のための「公共財」を提供 2018年の「オープンAI憲章」によれば、同社は社会がAGI実現への道を歩むための「公共財」を提供するとし、従業員や利害関係者により全人類への利益供与を損なう事態を最小限にするという。オープンAIが非営利の研究開発機関として設立されたゆえんだ。) ただ、今のオープンAIはこの憲章と異なる方向に突き進んでいるようにみえる。 2019年には非営利法人である本体の子会社として、営利企業である「オープンAI LP」を設立。また同年、米マイクロソフトが同社に対する10億ドルの出資と包括的パートナーシップを結ぶことを発表している。 マイクロソフトは2020年9月、新しいAIサービスを開発するためGPT-3の独占的ライセンスを締結。WordやExcelといったオフィス製品を含めた製品群へのAI搭載を加速させていく計画だ。今後数年間で数十億ドルの追加出資を行うことも決まっている。 膨大な計算能力が必要なAIシステムの開発には多くの設備投資が必須で、オープンAIにとってこの提携のうまみは大きい。ただ、同社が資本主義に組み込まれることを批判する声は少なくない。 2018年にオープンAIの理事会を離れたイーロン・マスクは、3月24日のツイッター投稿で「マイクロソフトは投資の一環でオープンAIのコード基盤全体への独占的なアクセス権を獲得した。ChatGPTは完全に(同社のクラウドサービスである)Azureの中に収まっており、いざとなればすべてを手に入れることができる」と警鐘を鳴らした』、「今のオープンAIはこの憲章と異なる方向に突き進んでいるようにみえる。 2019年には非営利法人である本体の子会社として、営利企業である「オープンAI LP」を設立。また同年、米マイクロソフトが同社に対する10億ドルの出資と包括的パートナーシップを結ぶことを発表している。 マイクロソフトは2020年9月、新しいAIサービスを開発するためGPT-3の独占的ライセンスを締結。WordやExcelといったオフィス製品を含めた製品群へのAI搭載を加速させていく計画だ。今後数年間で数十億ドルの追加出資を行うことも決まっている。 膨大な計算能力が必要なAIシステムの開発には多くの設備投資が必須で、オープンAIにとってこの提携のうまみは大きい」、これに対し、「オープンAIの理事会を離れたイーロン・マスクは、3月24日のツイッター投稿で「マイクロソフトは投資の一環でオープンAIのコード基盤全体への独占的なアクセス権を獲得した。ChatGPTは完全に(同社のクラウドサービスである)Azureの中に収まっており、いざとなればすべてを手に入れることができる」と警鐘を鳴らした」、「オープン」な開発と、「巨額の設備投資」と有料サービスでの回収の関係は、確かに難しい問題だ。
・『安全性に対する懸念 足元では、安全性に対する懸念も表明されている。3月28日には、AIの安全性を研究するFuture of Life Institute(FLI)が、GPT-4よりも強力なAIシステムの開発・運用を6カ月以上停止することを呼びかけ、AIの急速な進化に警鐘を鳴らした。イーロン・マスクや米アップル共同創業者のスティーブ・ウォズニアックら、1000名以上が署名したとされる。 同31日には、イタリアのデータ保護当局がChatGPTの利用の一時禁止を発表。同社がAIの学習に用いるデータ処理が法令に違反していることや、青少年への悪影響などがその理由だ。 こうした動きを受けてか、オープンAIは4月5日に「強力なAIを安全に、広く有益な形で維持することを約束する」などと記した声明を発表している。 ただ、逆風下でも足元の勢いに急ブレーキがかかる様子はない。外部の企業が開発したアプリなどと接続できるChatGPTのAPIが公開されたことで、機能を搭載した製品やサービスは加速度的に増えている。この先にあるのは「全人類への利益」か、巨大企業による「強大な技術の独占」か。行方を注視することが必要だ』、「足元では、安全性に対する懸念も表明されている。3月28日には、AIの安全性を研究するFuture of Life Institute(FLI)が、GPT-4よりも強力なAIシステムの開発・運用を6カ月以上停止することを呼びかけ、AIの急速な進化に警鐘を鳴らした。イーロン・マスクや米アップル共同創業者のスティーブ・ウォズニアックら、1000名以上が署名したとされる。 同31日には、イタリアのデータ保護当局がChatGPTの利用の一時禁止を発表。同社がAIの学習に用いるデータ処理が法令に違反していることや、青少年への悪影響などがその理由だ。 こうした動きを受けてか、オープンAIは4月5日に「強力なAIを安全に、広く有益な形で維持することを約束する」などと記した声明を発表している」、今後はどう展開していくのだろう。
次に、5月25日付けダイヤモンド・オンラインが掲載した一橋大学名誉教授の野口悠紀雄氏による「ChatGPTの情報は画一的、「生成系AI」は民主主義社会を支えるツールたり得るか」を紹介しよう。
https://diamond.jp/articles/-/323363
・『ChatGPTは対話型だが、私が誰であるかを知らない ChatGPTのような対話型の生成系AIを使うと、多くの人はしばしば、自分が深く理解されていると感じてしまう。 個人個人が投げかける質問や指示に、それぞれ異なる回答を出してくれるからだ。 これまでのマスメディアとは全く違う!ChatGPTは、利用者の個別事情を理解して対応してくれる! こうした思いを抱くかもしれないが、しかしこれは錯覚にすぎない。 ChatGPTなどが、個々人の多様な事情や考え方を学習したり記憶したりする能力は限定的で、個々人に応じてや多角的な視点で答えをだすまでの能力はない。 対話型生成系AIを使う場合に認識すべき最も重要な点は、このことだ。私はChatGPTがどのようなものであるかをおよそは知っている。しかし、ChatGPTは私が誰かを知らないのだ。)(これ以降は、有料だが、今月の閲覧本数残り4本までは無料。) これを理解するには、あなたがよろず相談人になったと想像すればよい。ChatGPTの利用者は、現在約1億人と言われるので、1億人があなたのところに相談に押し寄せると想像しよう。 突如として誰か一人があなたの前に現れ、「この問題をどう解決したらよいのか、アドバイスがほしい」と相談を持ち掛ける。しかし、あなたはその人が誰であるかを全く知らない。だから、具体的なアドバイスを出すことはできない。 この状況は、生成系AIの場合にも同じだ。1億人が押し寄せてくる。そして、それぞれが自分だけの困りごとや疑問・質問への答えや、アドバイスを求めてくる。 しかし、AIは、その一人一人が誰であるかを知らない。だから、当然のことながら、それぞれの個々の状況に応じた具体的なアドバイスを提供することはできない』、「AIは、その一人一人が誰であるかを知らない。だから、当然のことながら、それぞれの個々の状況に応じた具体的なアドバイスを提供することはできない」、言われてみれば、その通りだ。
・『マスメディアや検索エンジンより親身になってくれるように思える マスメディアも、全ての視聴者や読者に向けて同じ情報を発信している。私たちはそれをよく知っている。それに対して、対話型生成系アプリは、対話形式をとる。そして、個々の場合に、異なる情報を提供している。だから、前記のような錯覚に陥るのだ。 これは従来の検索エンジンとも違う点だ。検索エンジンは、私たちが問いを投げ掛けると、候補のサイトを一覧で示し、それを私たちに引き渡して去ってしまう。だから、検索エンジンは私たちに対して、相談に乗ってくれるような感覚を与えない。検索エンジンは単に情報を提供し、それ以上のことはしない これに対して対話型AIは、利用者の個々の問いに対して真剣に考え、適切な回答を見つけてくれているかのように感じるのだ。こうした体験は私たちにとって新鮮で、それが対話型生成AIの大きな魅力となっている。 しかし、ここで忘れてならないのは、対話型AIが私たちに与える「こちらを見て相談に乗ってくれる」感覚は、実は単なる錯覚に過ぎないという事実だ。中身は同じなのだが、利用者の質問文や指示文にあわせて、見掛けを変えているだけだ』、「対話型AIは、利用者の個々の問いに対して真剣に考え、適切な回答を見つけてくれているかのように感じるのだ。こうした体験は私たちにとって新鮮で、それが対話型生成AIの大きな魅力となっている。 しかし、ここで忘れてならないのは、対話型AIが私たちに与える「こちらを見て相談に乗ってくれる」感覚は、実は単なる錯覚に過ぎないという事実だ。中身は同じなのだが、利用者の質問文や指示文にあわせて、見掛けを変えているだけだ」、なーんだ。
・『一時的には1対1だが記憶の保持は限定的 対話型AIは、一定の時間内であれば、私のことを覚えている。 これによって、「先ほどの回答を少し変えて」とか、「先ほどの質問の後半を変えて」などという問い掛けをすることが可能になる。同じことを何度も繰り返す必要がなくなるため、対話がスムーズに進む。 しかし、この記憶の保持は限定的だ。ChatGPT4の場合は、比較的長い間、多くの回答や質問を記憶することができる。その期間内であれば、私は1億分の1の利用者ではなく、まるで二人だけで話をしているかのように感じられる。それまでの対話の内容に基づく回答が得られるためだ。 しかし、一定の時間が過ぎると、私についての記憶は消えてしまい、私は再び1億分の1の利用者となってしまう』、「ChatGPT4の場合は、比較的長い間、多くの回答や質問を記憶することができる。その期間内であれば、私は1億分の1の利用者ではなく、まるで二人だけで話をしているかのように感じられる。それまでの対話の内容に基づく回答が得られるためだ。 しかし、一定の時間が過ぎると、私についての記憶は消えてしまい、私は再び1億分の1の利用者となってしまう」、やむを得ないようだ。
・『プライバシー保護や公平性の観点からというが これは、AIが利用者個々の特性や個人情報を記憶することなく、公平に対話するための重要なメカニズムであると同時に、私たちのプライバシーを保護するための重要な機能でもあるとされる。 個別の事情に応じた回答や情報を得られるようにするため、生成系AIを使う場合には、AIに特定の役割を規定するのがよいという提案がある。たとえば「学校の先生になったつもりで答えてほしい」と指示することだ。 こうした規程はもちろん可能だが、筆者がChatGPTにこの方法の有用性を尋ねてみると、「あまり意味がない」との答えが返ってきた。AIに特定の視点や立場を強制し、個々のユーザーに対する公平性を損なう可能性があるからだという。 それよりも、自己紹介のように、自分自身の視点や立場を説明したほうがよいだろう。 つまり、対話型生成系AIを活用する場合には、記憶保持の限定性を理解し、それに合わせて対話することが求められる。一時的な記憶保持の恩恵を享受しつつ、同時にその限定性とそれが意味するものを理解し、適切な使用を心掛ける必要がある』、「対話型生成系AIを活用する場合には、記憶保持の限定性を理解し、それに合わせて対話することが求められる。一時的な記憶保持の恩恵を享受しつつ、同時にその限定性とそれが意味するものを理解し、適切な使用を心掛ける必要がある」、その通りのようだ。
・『マスメディアより平板で画一的情報 懸念される民主主義社会への影響 生成系AIの回答は、われわれが想像する以上に限定的だ。それは画一的、さらにいえば平板と表現すべきものだろう。要するに、何の目新しさもない、毒にも薬にもならない情報だ。 一般的な問い掛けに対して、よく知られた情報や一般的な答えを提供してくれるのだが、それが利用者の主張や考えと全く逆の考えに基づくものであることもしばしばある。 また特定の視点を主張するような文章を生成することを求めても、その要求が必ずしも満たされるわけではない。筆者も不満や腹立たしさを感じることがある。 だが、それは、これまで述べてきた対話型AIの仕組みからすると当然のことだ。 マスメディア、例えばテレビや新聞などは、全ての視聴者や読者に同一の情報を発信しているものの、その中で個人の意見や少数意見を紹介してくれることがある。 対話型生成系AIの場合、「この問題について、少数意見はどんなものがありますか?」と聞くことはできるが、どの程度の少数意見までカバーできるかは、AIの設計や学習データに大きく依存する。 「日本国憲法第9条は必要か?」といった具体的な問題についても、AIが多角的な視点を提供することは保証されていない。 このようなメディアの登場は、多様な考え方や少数意見の尊重が前提になっている民主主義社会にどのような影響を与えるのだろうか? われわれはまだ手探り状態であり、この問題に対する答えを見いだすことができないでいる。生成系AIが人類に投げ掛けた最も大きな問題は、このことだろう』、「「日本国憲法第9条は必要か?」といった具体的な問題についても、AIが多角的な視点を提供することは保証されていない。 このようなメディアの登場は、多様な考え方や少数意見の尊重が前提になっている民主主義社会にどのような影響を与えるのだろうか? われわれはまだ手探り状態であり、この問題に対する答えを見いだすことができないでいる。生成系AIが人類に投げ掛けた最も大きな問題は、このことだろう」、なるほど。
第三に、6月23日付け日経ビジネスオンラインが掲載したロバストインテリジェンス共同創業者の大柴 行人氏による「AIに潜む「蛾」の正体 リスクが脅威になる前にすべきこと」を紹介しよう。
https://business.nikkei.com/atcl/gen/19/00548/061600009/
・『私が米ハーバード大学の学生だったころ、研究室のあった理工系学部が入る建物「サイエンスセンター」に巨大な物体が設置されていた。1940年代に登場した米国初のコンピューター「Harvard Mark I(以下、マーク1と表記)」だ。私は毎朝、その物体の目の前を歩いて研究室に通っていた。 コンピューターは誕生当初、一部の研究機関だけが利用するとても特殊な装置だった。「ENIAC」や「IBM 701」など、大きな筐体(きょうたい)にたくさんの電子部品が詰まったその姿は、今や手のひらに収まるスマートフォンを日常的に使用する我々からすれば、信じられないほど遠い過去のもののようにも思える。 しかし、その後の半世紀の間に、コンピューターは何度もの革新を経て性能を飛躍的に向上させ、ユーザビリティーも向上した。パーソナルコンピューターの登場、GUI(グラフィカル・ユーザー・インターフェース)の普及、インターネットの出現、そしてスマホの普及。これら一連の進化によって、コンピューターは今や我々の生活に欠かせない存在となっている。 AI(人工知能)の現状は、コンピューターの黎明(れいめい)期をほうふつとさせる。一部のマニアが研究していただけだったAIが、多くの企業・消費者に活用されるようになり、裾野は急速に広がりつつある。現状は「大規模」言語モデルと呼ばれているモデルについても、コンピューターがそうであったように性能を劇的に向上させつつ、より小規模で安価なモデルが登場する可能性が十分にあるだろう。 さらに、コンピューターがインターネットを介して互いにつながっていったように、すでにAIは様々なアプリケーションをつなぐインターフェースになり始めている。『AI新時代』の幕開けだ』、「現状は「大規模」言語モデルと呼ばれているモデルについても、コンピューターがそうであったように性能を劇的に向上させつつ、より小規模で安価なモデルが登場する可能性が十分にあるだろう」、「コンピューターがインターネットを介して互いにつながっていったように、すでにAIは様々なアプリケーションをつなぐインターフェースになり始めている」、まさに「『AI新時代』の幕開け」のようだ。
・『サイバーセキュリティーの歴史と相似系のAIリスク 冒頭の話には続きがある。マーク1に近づくと奇妙な物体が展示されていることに気づく──。蛾(が)だ。マーク1の計算処理中に機械に混入したもので、ソフトウエアの「バグ(英語で昆虫を指す)」の由来となった。人類史に最も名を残した昆虫と言えよう。 コンピューターの歴史から学べるもう1つの重要な教訓は、技術の進化と普及が進む一方で、常にバグやハッカーとの戦いが続いてきたという事実だ。 初期のコンピューターではハードウエアの故障やソフトウエアのバグが頻繁に発生し、それらを解決するためにエンジニアたちは日夜努力を重ねていた。 そして、インターネットの普及とともに新たなリスク「サイバーセキュリティー」の問題が台頭する。グローバルにつながったネットワークを通じてマルウエアの拡散を目指すハッカーの台頭に対し、多くのプレーヤーが対抗する努力を重ねた。各国政府はサイバーセキュリティーをめぐる行動計画を立て、大企業は専門の部署をつくってこの問題に対処する。そして、研究者やテック企業は攻撃への対応策の開発に努めた。 こうした各ステークホルダー(利害関係者)の努力の歴史を経て、最終的にサイバーセキュリティー産業は世界で30兆円を超えるとされる巨大市場へと成長している。 AIをめぐり今後同じような変化が起きていく。本連載で複数回にわたって紹介してきたように、AIが急速に普及する中で、すでに大きなひずみみが生まれている。AIが他のアプリケーションにつながることによる様々なリスク、対応に追われる大企業、規制に躍起になる各国政府──。既視感があるだろう。 私たちロバストインテリジェンスは2019年から一貫してこの問題に取り組んできた。それはサイバーセキュリティーがわずか数十年で一大産業となったように、AIリスクがAIの拡大とともにサイバーセキュリティーをもりょうがする大きな課題になると考えているからだ。急拡大を続ける「AI新時代の落とし穴」から人類を救うこと、それが我々の使命だ』、「AIが急速に普及する中で、すでに大きなひずみみが生まれている。AIが他のアプリケーションにつながることによる様々なリスク、対応に追われる大企業、規制に躍起になる各国政府──」、「ロバストインテリジェンスは2019年から一貫してこの問題に取り組んできた。それはサイバーセキュリティーがわずか数十年で一大産業となったように、AIリスクがAIの拡大とともにサイバーセキュリティーをもりょうがする大きな課題になると考えているからだ。急拡大を続ける「AI新時代の落とし穴」から人類を救うこと、それが我々の使命だ」、なるほど。
・『社会として、どうAIリスクに向き合うべきか 当然、私たちだけで立ち向かうにはAIリスクは敵として大きすぎる。AIを導入する産業・政府・そして私たちのようなAI技術を持った企業が共同でこの問題に立ち向かっていく必要がある。 (ステークホルダーが共同で問題に対処することが必要の図 はリンク先参照) まず企業の経営層は意識を変革し、AIの持つリスクを経営アジェンダと捉えて向き合うべきだ。これは何よりも、AIの社会実装の流れに乗り遅れず自社の競争力を高める上で不可欠となることだ。前回までの連載で述べてきた通り、実際に先進企業はAI活用とそのリスク管理をセットで進めている。 次に政府は、いわばAIリスクをめぐる「What」や「Why」示す役割を担う。 AIの活用が当たり前となる時代に備え、規制や制度をアップデートしたり、AIという技術のガバナンスについてのスタンダードを積極的に発信したりすべきだ。その際、特にAIという領域においては必ずしも厳しい規制を導入する必要はなく、むしろ技術の激しい変化に対応できる柔軟な仕組みづくりが求められるだろう。 最後にテック企業や研究機関は、実際にAIリスクに対抗するための「How」を示す立場にある。 AIリスクの研究を深め、新たなリスクを予見し、対策となるソリューションを開発するという役割は今後重要性を増すだろう。 また、実際には産業界や政府が持つ情報には限りがあるため、積極的にそれらのセクターに技術的な情報を発信して、それぞれの役割をサポートしていくことも求められる。 AIの社会実装が進み、より「当たり前」になっていく中で、どのステークホルダーが欠けても経済の成長や人々の幸福は実現できないだろう』、「当然、私たちだけで立ち向かうにはAIリスクは敵として大きすぎる。AIを導入する産業・政府・そして私たちのようなAI技術を持った企業が共同でこの問題に立ち向かっていく必要がある」、「企業の経営層は意識を変革し、AIの持つリスクを経営アジェンダと捉えて向き合うべきだ。これは何よりも、AIの社会実装の流れに乗り遅れず自社の競争力を高める上で不可欠となることだ」、「政府は、いわばAIリスクをめぐる「What」や「Why」示す役割を担う。 AIの活用が当たり前となる時代に備え、規制や制度をアップデートしたり、AIという技術のガバナンスについてのスタンダードを積極的に発信したりすべきだ。その際、特にAIという領域においては必ずしも厳しい規制を導入する必要はなく、むしろ技術の激しい変化に対応できる柔軟な仕組みづくりが求められるだろう」、「テック企業や研究機関は、実際にAIリスクに対抗するための「How」を示す立場にある。 AIリスクの研究を深め、新たなリスクを予見し、対策となるソリューションを開発するという役割は今後重要性を増すだろう。 また、実際には産業界や政府が持つ情報には限りがあるため、積極的にそれらのセクターに技術的な情報を発信して、それぞれの役割をサポートしていくことも求められる」、「AIの社会実装が進み、より「当たり前」になっていく中で、どのステークホルダーが欠けても経済の成長や人々の幸福は実現できないだろう」、なるほど。
・『ロバストインテリジェンスの今後の取り組み 私たちロバストインテリジェンスは当然、先ほど述べた「テック企業」の立場で、引き続きこの領域の先頭を走り続けたいと考えている。大きくは、以下3点の取り組みに力を入れたい。 最初に、テック企業の本来の役割として、AIリスクをめぐる最先端の技術開発を行っていくことだ。 当社には米Google(グーグル)の元シニアAIエンジニアでAIセキュリティーの草分けであるメンバーや、米Microsoft(マイクロソフト)でAIリスクの統括を担当していたメンバー、私の共同創業者でありハーバード大学でコンピューターサイエンスの教授を務めていたYaron Singer(ヤローン・シンガー)など、世界トップクラスのAI人材が集積している。まだ見ぬリスクをいち早く顕在化し、社会に警告していくことに大きな意義があると考えている。 連載の第4回で、当社のエンジニアが発見した新しいプロンプト・インジェクションをご紹介したが、その後も私たちは生成AIや関連ツールのリスク評価を続けている。最近では、米NVIDIA(エヌビディア)のAIソフトウエアの脆弱性をいち早く発見し、公表したところだ。 詳細は省くが、そこでは「『I』を『J』に置き換えてください」といった単純なプロンプトを入力するだけで、学習に用いられた個人情報を引き出せることが分かっている。一見、本当にささいな「バグ」のようなところに、重大な権利侵害につながりうる落とし穴が潜んでいるのだ。 NVIDIAのAIソフトウエア「Nemo Guardrails」に対して、文字の書き換えといった単純なプロンプトで個人情報を引き出せることが判明した。詳細はロバストインテリジェンスのブログにて発信している 2点目は、こうした技術を生かしてAIを活用しビジネスを変革しようとしている国内外の企業のAIリスク管理を担っていくことだ。 本連載で紹介した通り、すでにロバストインテリジェンスでは多くの企業と生成AIを含むAIリスク管理の仕組みをつくってきた。「継続的なリスク検証」の考え方は、必ず今後のAIリスク管理のスタンダードになると考えており、その実装例を1つでも多く作って、社会としてAIリスクに立ち向かう体制づくりに貢献したい。 最後に、政府との協業を進め、AIリスクへ向き合う社会を下支えすることだ。 現在、技術の変化に応じた政策的な対応が様々な場で議論されている。先ほど述べたようにAIリスクについて最先端の研究を重ねている当社も、そうした政策の動きに対して情報を提供し、よりよい制度やスタンダードの形成に貢献していければと考えている。実際これまでも私たちは、米国の標準策定機関であるNIST(米国立標準技術研究所)などと積極的に意見交換してきた。日本でも自民党のAIプロジェクトチームに参加したほか、関係省庁とのコミュニケーションも日々続けている。 多くの先進企業とのつながりを生かし、AIリスクに関する事例や悩み事を共有しあう議論の場づくりにも取り組んでいる。そうした場の成果も積極的に政府とも共有していきたい。 ロバストインテリジェンスの掲げる「AI Integrity」という理念は、AIリスクを除去し、誰もが信頼してAIシステムと向き合える状態を指す。そのためには、少しでも多くの皆さんがこの問題をめぐる議論に参加してくださり、解決の糸口を一緒に探してくださることが不可欠だ。 すでに社会の様々な場面に姿を現しつつある、「蛾」より大きくなってしまったAIリスク。それが社会にとっての本当の脅威となる前に、私たちは次の一手を打たなければならない』、「ロバストインテリジェンスの今後の取り組み」、「テック企業の本来の役割として、AIリスクをめぐる最先端の技術開発を行っていくこと・・・当社には・・・世界トップクラスのAI人材が集積している」、「2点目は、こうした技術を生かしてAIを活用しビジネスを変革しようとしている国内外の企業のAIリスク管理を担っていくことだ・・・「継続的なリスク検証」の考え方は、必ず今後のAIリスク管理のスタンダードになると考えており、その実装例を1つでも多く作って、社会としてAIリスクに立ち向かう体制づくりに貢献したい」、「最後に、政府との協業を進め、AIリスクへ向き合う社会を下支えすることだ。 現在、技術の変化に応じた政策的な対応が様々な場で議論されている。先ほど述べたようにAIリスクについて最先端の研究を重ねている当社も、そうした政策の動きに対して情報を提供し、よりよい制度やスタンダードの形成に貢献していければと考えている。実際これまでも私たちは、米国の標準策定機関であるNIST(米国立標準技術研究所)などと積極的に意見交換してきた。日本でも自民党のAIプロジェクトチームに参加したほか、関係省庁とのコミュニケーションも日々続けている」、「自民党のAIプロジェクトチームに参加」、とは抜け目がないようだ。「すでに社会の様々な場面に姿を現しつつある、「蛾」より大きくなってしまったAIリスク。それが社会にとっての本当の脅威となる前に、私たちは次の一手を打たなければならない」、大いに頑張ってもらいたいものだ。
先ずは、本年4月19日付け東洋経済オンライン「「ChatGPTの生みの親」爆発的人気に透ける葛藤 毀誉褒貶のオープンAIだが 拡大は止まらない」を紹介しよう。
https://toyokeizai.net/articles/-/666240
・『爆発的に普及する対話型AIのChatGPT。日本企業の中にも社内での業務や事業に活用しようという動きがある一方で、サイバーセキュリティや著作権法上のリスクもある。4月17日発売の『週刊東洋経済』では「ChatGPT 仕事術革命」を特集。「第4次AIブーム」の本格的な到来に備えて会社員が知るべき生成AIの今を追った。(この記事は本特集内にも収録されています) ChatGPTの登場で一躍有名になったのが、人工知能(AI)の研究開発を行う米オープンAIだ。 社会を大変革する技術を生み出した同社だが、足元ではその潜在的リスクの大きさや、データ収集の違法性をめぐって批判にさらされてもいる。いったい、どんな素性の企業なのか』、興味深そうだ。
・『当初は家庭用ロボット向けの開発も オープンAIは、2015年に非営利法人として設立された。共同議長に就いたのは、現在CEOを務めるサム・アルトマンと、米テスラなどのCEOとして知られるイーロン・マスクだ。 今でこそ大規模言語モデル(LLM)の開発で知られる同社だが、設立翌年に発表された「テクニカルゴールズ」を見ると、それに特化していたわけではない。 ゴールとして定めたのが、家庭用ロボット向けのアルゴリズム導入、自然言語を理解するAIの構築、単一AIでのさまざまなゲーム解決など。 設立当初はとくに、ゲーム解決に必要な「強化学習」のための製品を複数出していた。強化学習とは、与えられた条件下で最大限の結果が出るようにAIの行動を最適化させる手法のこと。 例えば、2016年に発表された「OpenAI Gym」は、ユーザーが開発したAIが強化学習するのを支援するツールだ。2018年には、強化学習をさせたオンライン対戦ゲーム『Dota 2』のAIシステムを発表し、翌年には人間の世界王者に勝利している。 当時のオープンAIを知るゲーム開発者は「多くのゲーム会社が、同社のツールを導入してソフトに搭載するAIの開発をしていた。言語モデルの開発をメインにしている印象はなかった」と振り返る。 ただ実際は、並行して言語モデルの開発も進めていた。2018年には、言語モデルの初代となるGPTを発表。翌2019年にはGPT-2、2020年にはGPT-3と、モデルの表現力や性能を更新していった。今年3月には、大方の予想よりも早くGPT-4を発表し、その飛躍的な性能向上を見せつけた。) オープンAIが言語モデルの開発に邁進するのは、同社がミッションとして掲げる「AGIが全人類に利益をもたらすことを確実にすること」を達成するためだ。 AGIとは「汎用人工知能」のこと。限られた用途でしか使えない現状のAIとは異なり、人間に匹敵する、あるいは超人間的な知性を備える。 今年2月に公表された「Planning for AGI and beyond」という文書には、AGIに関するアルトマンCEOの考え方が記されていた。曰(いわ)く、その実現により、世界経済や新しい科学的知識の発見を活性化させ、人間の創造性にも大きな力を与える、という。 AGIの実現には今後複数の技術的ブレークスルーが必要だが、言語モデルの進化はその重要な道のりの1つ、というわけだ』、「オープンAIは、2015年に非営利法人として設立。共同議長に就いたのは、現在CEOを務めるサム・アルトマンと、米テスラなどのCEOとして知られるイーロン・マスクだ」、「マスク」氏が「共同議長」だったとは初めて知った。「設立当初はとくに、ゲーム解決に必要な「強化学習」のための製品を複数出していた。強化学習とは、与えられた条件下で最大限の結果が出るようにAIの行動を最適化させる手法」、「「多くのゲーム会社が、同社のツールを導入してソフトに搭載するAIの開発をしていた。言語モデルの開発をメインにしている印象はなかった」と振り返る。 ただ実際は、並行して言語モデルの開発も進めていた」、「2018年には、言語モデルの初代となるGPTを発表。翌2019年にはGPT-2、2020年にはGPT-3と、モデルの表現力や性能を更新していった。今年3月には、大方の予想よりも早くGPT-4を発表し、その飛躍的な性能向上を見せつけた。) オープンAIが言語モデルの開発に邁進するのは、同社がミッションとして掲げる「AGIが全人類に利益をもたらすことを確実にすること」を達成するためだ。 AGIとは「汎用人工知能」のこと。限られた用途でしか使えない現状のAIとは異なり、人間に匹敵する、あるいは超人間的な知性を備える」、「「Planning for AGI and beyond」という文書には、AGIに関するアルトマンCEOの考え方が記されていた。曰(いわ)く、その実現により、世界経済や新しい科学的知識の発見を活性化させ、人間の創造性にも大きな力を与える、という。 AGIの実現には今後複数の技術的ブレークスルーが必要だが、言語モデルの進化はその重要な道のりの1つ、というわけだ」、「汎用人工知能」を目指した動きとは初めて知った。
・『AGI実現のための「公共財」を提供 2018年の「オープンAI憲章」によれば、同社は社会がAGI実現への道を歩むための「公共財」を提供するとし、従業員や利害関係者により全人類への利益供与を損なう事態を最小限にするという。オープンAIが非営利の研究開発機関として設立されたゆえんだ。) ただ、今のオープンAIはこの憲章と異なる方向に突き進んでいるようにみえる。 2019年には非営利法人である本体の子会社として、営利企業である「オープンAI LP」を設立。また同年、米マイクロソフトが同社に対する10億ドルの出資と包括的パートナーシップを結ぶことを発表している。 マイクロソフトは2020年9月、新しいAIサービスを開発するためGPT-3の独占的ライセンスを締結。WordやExcelといったオフィス製品を含めた製品群へのAI搭載を加速させていく計画だ。今後数年間で数十億ドルの追加出資を行うことも決まっている。 膨大な計算能力が必要なAIシステムの開発には多くの設備投資が必須で、オープンAIにとってこの提携のうまみは大きい。ただ、同社が資本主義に組み込まれることを批判する声は少なくない。 2018年にオープンAIの理事会を離れたイーロン・マスクは、3月24日のツイッター投稿で「マイクロソフトは投資の一環でオープンAIのコード基盤全体への独占的なアクセス権を獲得した。ChatGPTは完全に(同社のクラウドサービスである)Azureの中に収まっており、いざとなればすべてを手に入れることができる」と警鐘を鳴らした』、「今のオープンAIはこの憲章と異なる方向に突き進んでいるようにみえる。 2019年には非営利法人である本体の子会社として、営利企業である「オープンAI LP」を設立。また同年、米マイクロソフトが同社に対する10億ドルの出資と包括的パートナーシップを結ぶことを発表している。 マイクロソフトは2020年9月、新しいAIサービスを開発するためGPT-3の独占的ライセンスを締結。WordやExcelといったオフィス製品を含めた製品群へのAI搭載を加速させていく計画だ。今後数年間で数十億ドルの追加出資を行うことも決まっている。 膨大な計算能力が必要なAIシステムの開発には多くの設備投資が必須で、オープンAIにとってこの提携のうまみは大きい」、これに対し、「オープンAIの理事会を離れたイーロン・マスクは、3月24日のツイッター投稿で「マイクロソフトは投資の一環でオープンAIのコード基盤全体への独占的なアクセス権を獲得した。ChatGPTは完全に(同社のクラウドサービスである)Azureの中に収まっており、いざとなればすべてを手に入れることができる」と警鐘を鳴らした」、「オープン」な開発と、「巨額の設備投資」と有料サービスでの回収の関係は、確かに難しい問題だ。
・『安全性に対する懸念 足元では、安全性に対する懸念も表明されている。3月28日には、AIの安全性を研究するFuture of Life Institute(FLI)が、GPT-4よりも強力なAIシステムの開発・運用を6カ月以上停止することを呼びかけ、AIの急速な進化に警鐘を鳴らした。イーロン・マスクや米アップル共同創業者のスティーブ・ウォズニアックら、1000名以上が署名したとされる。 同31日には、イタリアのデータ保護当局がChatGPTの利用の一時禁止を発表。同社がAIの学習に用いるデータ処理が法令に違反していることや、青少年への悪影響などがその理由だ。 こうした動きを受けてか、オープンAIは4月5日に「強力なAIを安全に、広く有益な形で維持することを約束する」などと記した声明を発表している。 ただ、逆風下でも足元の勢いに急ブレーキがかかる様子はない。外部の企業が開発したアプリなどと接続できるChatGPTのAPIが公開されたことで、機能を搭載した製品やサービスは加速度的に増えている。この先にあるのは「全人類への利益」か、巨大企業による「強大な技術の独占」か。行方を注視することが必要だ』、「足元では、安全性に対する懸念も表明されている。3月28日には、AIの安全性を研究するFuture of Life Institute(FLI)が、GPT-4よりも強力なAIシステムの開発・運用を6カ月以上停止することを呼びかけ、AIの急速な進化に警鐘を鳴らした。イーロン・マスクや米アップル共同創業者のスティーブ・ウォズニアックら、1000名以上が署名したとされる。 同31日には、イタリアのデータ保護当局がChatGPTの利用の一時禁止を発表。同社がAIの学習に用いるデータ処理が法令に違反していることや、青少年への悪影響などがその理由だ。 こうした動きを受けてか、オープンAIは4月5日に「強力なAIを安全に、広く有益な形で維持することを約束する」などと記した声明を発表している」、今後はどう展開していくのだろう。
次に、5月25日付けダイヤモンド・オンラインが掲載した一橋大学名誉教授の野口悠紀雄氏による「ChatGPTの情報は画一的、「生成系AI」は民主主義社会を支えるツールたり得るか」を紹介しよう。
https://diamond.jp/articles/-/323363
・『ChatGPTは対話型だが、私が誰であるかを知らない ChatGPTのような対話型の生成系AIを使うと、多くの人はしばしば、自分が深く理解されていると感じてしまう。 個人個人が投げかける質問や指示に、それぞれ異なる回答を出してくれるからだ。 これまでのマスメディアとは全く違う!ChatGPTは、利用者の個別事情を理解して対応してくれる! こうした思いを抱くかもしれないが、しかしこれは錯覚にすぎない。 ChatGPTなどが、個々人の多様な事情や考え方を学習したり記憶したりする能力は限定的で、個々人に応じてや多角的な視点で答えをだすまでの能力はない。 対話型生成系AIを使う場合に認識すべき最も重要な点は、このことだ。私はChatGPTがどのようなものであるかをおよそは知っている。しかし、ChatGPTは私が誰かを知らないのだ。)(これ以降は、有料だが、今月の閲覧本数残り4本までは無料。) これを理解するには、あなたがよろず相談人になったと想像すればよい。ChatGPTの利用者は、現在約1億人と言われるので、1億人があなたのところに相談に押し寄せると想像しよう。 突如として誰か一人があなたの前に現れ、「この問題をどう解決したらよいのか、アドバイスがほしい」と相談を持ち掛ける。しかし、あなたはその人が誰であるかを全く知らない。だから、具体的なアドバイスを出すことはできない。 この状況は、生成系AIの場合にも同じだ。1億人が押し寄せてくる。そして、それぞれが自分だけの困りごとや疑問・質問への答えや、アドバイスを求めてくる。 しかし、AIは、その一人一人が誰であるかを知らない。だから、当然のことながら、それぞれの個々の状況に応じた具体的なアドバイスを提供することはできない』、「AIは、その一人一人が誰であるかを知らない。だから、当然のことながら、それぞれの個々の状況に応じた具体的なアドバイスを提供することはできない」、言われてみれば、その通りだ。
・『マスメディアや検索エンジンより親身になってくれるように思える マスメディアも、全ての視聴者や読者に向けて同じ情報を発信している。私たちはそれをよく知っている。それに対して、対話型生成系アプリは、対話形式をとる。そして、個々の場合に、異なる情報を提供している。だから、前記のような錯覚に陥るのだ。 これは従来の検索エンジンとも違う点だ。検索エンジンは、私たちが問いを投げ掛けると、候補のサイトを一覧で示し、それを私たちに引き渡して去ってしまう。だから、検索エンジンは私たちに対して、相談に乗ってくれるような感覚を与えない。検索エンジンは単に情報を提供し、それ以上のことはしない これに対して対話型AIは、利用者の個々の問いに対して真剣に考え、適切な回答を見つけてくれているかのように感じるのだ。こうした体験は私たちにとって新鮮で、それが対話型生成AIの大きな魅力となっている。 しかし、ここで忘れてならないのは、対話型AIが私たちに与える「こちらを見て相談に乗ってくれる」感覚は、実は単なる錯覚に過ぎないという事実だ。中身は同じなのだが、利用者の質問文や指示文にあわせて、見掛けを変えているだけだ』、「対話型AIは、利用者の個々の問いに対して真剣に考え、適切な回答を見つけてくれているかのように感じるのだ。こうした体験は私たちにとって新鮮で、それが対話型生成AIの大きな魅力となっている。 しかし、ここで忘れてならないのは、対話型AIが私たちに与える「こちらを見て相談に乗ってくれる」感覚は、実は単なる錯覚に過ぎないという事実だ。中身は同じなのだが、利用者の質問文や指示文にあわせて、見掛けを変えているだけだ」、なーんだ。
・『一時的には1対1だが記憶の保持は限定的 対話型AIは、一定の時間内であれば、私のことを覚えている。 これによって、「先ほどの回答を少し変えて」とか、「先ほどの質問の後半を変えて」などという問い掛けをすることが可能になる。同じことを何度も繰り返す必要がなくなるため、対話がスムーズに進む。 しかし、この記憶の保持は限定的だ。ChatGPT4の場合は、比較的長い間、多くの回答や質問を記憶することができる。その期間内であれば、私は1億分の1の利用者ではなく、まるで二人だけで話をしているかのように感じられる。それまでの対話の内容に基づく回答が得られるためだ。 しかし、一定の時間が過ぎると、私についての記憶は消えてしまい、私は再び1億分の1の利用者となってしまう』、「ChatGPT4の場合は、比較的長い間、多くの回答や質問を記憶することができる。その期間内であれば、私は1億分の1の利用者ではなく、まるで二人だけで話をしているかのように感じられる。それまでの対話の内容に基づく回答が得られるためだ。 しかし、一定の時間が過ぎると、私についての記憶は消えてしまい、私は再び1億分の1の利用者となってしまう」、やむを得ないようだ。
・『プライバシー保護や公平性の観点からというが これは、AIが利用者個々の特性や個人情報を記憶することなく、公平に対話するための重要なメカニズムであると同時に、私たちのプライバシーを保護するための重要な機能でもあるとされる。 個別の事情に応じた回答や情報を得られるようにするため、生成系AIを使う場合には、AIに特定の役割を規定するのがよいという提案がある。たとえば「学校の先生になったつもりで答えてほしい」と指示することだ。 こうした規程はもちろん可能だが、筆者がChatGPTにこの方法の有用性を尋ねてみると、「あまり意味がない」との答えが返ってきた。AIに特定の視点や立場を強制し、個々のユーザーに対する公平性を損なう可能性があるからだという。 それよりも、自己紹介のように、自分自身の視点や立場を説明したほうがよいだろう。 つまり、対話型生成系AIを活用する場合には、記憶保持の限定性を理解し、それに合わせて対話することが求められる。一時的な記憶保持の恩恵を享受しつつ、同時にその限定性とそれが意味するものを理解し、適切な使用を心掛ける必要がある』、「対話型生成系AIを活用する場合には、記憶保持の限定性を理解し、それに合わせて対話することが求められる。一時的な記憶保持の恩恵を享受しつつ、同時にその限定性とそれが意味するものを理解し、適切な使用を心掛ける必要がある」、その通りのようだ。
・『マスメディアより平板で画一的情報 懸念される民主主義社会への影響 生成系AIの回答は、われわれが想像する以上に限定的だ。それは画一的、さらにいえば平板と表現すべきものだろう。要するに、何の目新しさもない、毒にも薬にもならない情報だ。 一般的な問い掛けに対して、よく知られた情報や一般的な答えを提供してくれるのだが、それが利用者の主張や考えと全く逆の考えに基づくものであることもしばしばある。 また特定の視点を主張するような文章を生成することを求めても、その要求が必ずしも満たされるわけではない。筆者も不満や腹立たしさを感じることがある。 だが、それは、これまで述べてきた対話型AIの仕組みからすると当然のことだ。 マスメディア、例えばテレビや新聞などは、全ての視聴者や読者に同一の情報を発信しているものの、その中で個人の意見や少数意見を紹介してくれることがある。 対話型生成系AIの場合、「この問題について、少数意見はどんなものがありますか?」と聞くことはできるが、どの程度の少数意見までカバーできるかは、AIの設計や学習データに大きく依存する。 「日本国憲法第9条は必要か?」といった具体的な問題についても、AIが多角的な視点を提供することは保証されていない。 このようなメディアの登場は、多様な考え方や少数意見の尊重が前提になっている民主主義社会にどのような影響を与えるのだろうか? われわれはまだ手探り状態であり、この問題に対する答えを見いだすことができないでいる。生成系AIが人類に投げ掛けた最も大きな問題は、このことだろう』、「「日本国憲法第9条は必要か?」といった具体的な問題についても、AIが多角的な視点を提供することは保証されていない。 このようなメディアの登場は、多様な考え方や少数意見の尊重が前提になっている民主主義社会にどのような影響を与えるのだろうか? われわれはまだ手探り状態であり、この問題に対する答えを見いだすことができないでいる。生成系AIが人類に投げ掛けた最も大きな問題は、このことだろう」、なるほど。
第三に、6月23日付け日経ビジネスオンラインが掲載したロバストインテリジェンス共同創業者の大柴 行人氏による「AIに潜む「蛾」の正体 リスクが脅威になる前にすべきこと」を紹介しよう。
https://business.nikkei.com/atcl/gen/19/00548/061600009/
・『私が米ハーバード大学の学生だったころ、研究室のあった理工系学部が入る建物「サイエンスセンター」に巨大な物体が設置されていた。1940年代に登場した米国初のコンピューター「Harvard Mark I(以下、マーク1と表記)」だ。私は毎朝、その物体の目の前を歩いて研究室に通っていた。 コンピューターは誕生当初、一部の研究機関だけが利用するとても特殊な装置だった。「ENIAC」や「IBM 701」など、大きな筐体(きょうたい)にたくさんの電子部品が詰まったその姿は、今や手のひらに収まるスマートフォンを日常的に使用する我々からすれば、信じられないほど遠い過去のもののようにも思える。 しかし、その後の半世紀の間に、コンピューターは何度もの革新を経て性能を飛躍的に向上させ、ユーザビリティーも向上した。パーソナルコンピューターの登場、GUI(グラフィカル・ユーザー・インターフェース)の普及、インターネットの出現、そしてスマホの普及。これら一連の進化によって、コンピューターは今や我々の生活に欠かせない存在となっている。 AI(人工知能)の現状は、コンピューターの黎明(れいめい)期をほうふつとさせる。一部のマニアが研究していただけだったAIが、多くの企業・消費者に活用されるようになり、裾野は急速に広がりつつある。現状は「大規模」言語モデルと呼ばれているモデルについても、コンピューターがそうであったように性能を劇的に向上させつつ、より小規模で安価なモデルが登場する可能性が十分にあるだろう。 さらに、コンピューターがインターネットを介して互いにつながっていったように、すでにAIは様々なアプリケーションをつなぐインターフェースになり始めている。『AI新時代』の幕開けだ』、「現状は「大規模」言語モデルと呼ばれているモデルについても、コンピューターがそうであったように性能を劇的に向上させつつ、より小規模で安価なモデルが登場する可能性が十分にあるだろう」、「コンピューターがインターネットを介して互いにつながっていったように、すでにAIは様々なアプリケーションをつなぐインターフェースになり始めている」、まさに「『AI新時代』の幕開け」のようだ。
・『サイバーセキュリティーの歴史と相似系のAIリスク 冒頭の話には続きがある。マーク1に近づくと奇妙な物体が展示されていることに気づく──。蛾(が)だ。マーク1の計算処理中に機械に混入したもので、ソフトウエアの「バグ(英語で昆虫を指す)」の由来となった。人類史に最も名を残した昆虫と言えよう。 コンピューターの歴史から学べるもう1つの重要な教訓は、技術の進化と普及が進む一方で、常にバグやハッカーとの戦いが続いてきたという事実だ。 初期のコンピューターではハードウエアの故障やソフトウエアのバグが頻繁に発生し、それらを解決するためにエンジニアたちは日夜努力を重ねていた。 そして、インターネットの普及とともに新たなリスク「サイバーセキュリティー」の問題が台頭する。グローバルにつながったネットワークを通じてマルウエアの拡散を目指すハッカーの台頭に対し、多くのプレーヤーが対抗する努力を重ねた。各国政府はサイバーセキュリティーをめぐる行動計画を立て、大企業は専門の部署をつくってこの問題に対処する。そして、研究者やテック企業は攻撃への対応策の開発に努めた。 こうした各ステークホルダー(利害関係者)の努力の歴史を経て、最終的にサイバーセキュリティー産業は世界で30兆円を超えるとされる巨大市場へと成長している。 AIをめぐり今後同じような変化が起きていく。本連載で複数回にわたって紹介してきたように、AIが急速に普及する中で、すでに大きなひずみみが生まれている。AIが他のアプリケーションにつながることによる様々なリスク、対応に追われる大企業、規制に躍起になる各国政府──。既視感があるだろう。 私たちロバストインテリジェンスは2019年から一貫してこの問題に取り組んできた。それはサイバーセキュリティーがわずか数十年で一大産業となったように、AIリスクがAIの拡大とともにサイバーセキュリティーをもりょうがする大きな課題になると考えているからだ。急拡大を続ける「AI新時代の落とし穴」から人類を救うこと、それが我々の使命だ』、「AIが急速に普及する中で、すでに大きなひずみみが生まれている。AIが他のアプリケーションにつながることによる様々なリスク、対応に追われる大企業、規制に躍起になる各国政府──」、「ロバストインテリジェンスは2019年から一貫してこの問題に取り組んできた。それはサイバーセキュリティーがわずか数十年で一大産業となったように、AIリスクがAIの拡大とともにサイバーセキュリティーをもりょうがする大きな課題になると考えているからだ。急拡大を続ける「AI新時代の落とし穴」から人類を救うこと、それが我々の使命だ」、なるほど。
・『社会として、どうAIリスクに向き合うべきか 当然、私たちだけで立ち向かうにはAIリスクは敵として大きすぎる。AIを導入する産業・政府・そして私たちのようなAI技術を持った企業が共同でこの問題に立ち向かっていく必要がある。 (ステークホルダーが共同で問題に対処することが必要の図 はリンク先参照) まず企業の経営層は意識を変革し、AIの持つリスクを経営アジェンダと捉えて向き合うべきだ。これは何よりも、AIの社会実装の流れに乗り遅れず自社の競争力を高める上で不可欠となることだ。前回までの連載で述べてきた通り、実際に先進企業はAI活用とそのリスク管理をセットで進めている。 次に政府は、いわばAIリスクをめぐる「What」や「Why」示す役割を担う。 AIの活用が当たり前となる時代に備え、規制や制度をアップデートしたり、AIという技術のガバナンスについてのスタンダードを積極的に発信したりすべきだ。その際、特にAIという領域においては必ずしも厳しい規制を導入する必要はなく、むしろ技術の激しい変化に対応できる柔軟な仕組みづくりが求められるだろう。 最後にテック企業や研究機関は、実際にAIリスクに対抗するための「How」を示す立場にある。 AIリスクの研究を深め、新たなリスクを予見し、対策となるソリューションを開発するという役割は今後重要性を増すだろう。 また、実際には産業界や政府が持つ情報には限りがあるため、積極的にそれらのセクターに技術的な情報を発信して、それぞれの役割をサポートしていくことも求められる。 AIの社会実装が進み、より「当たり前」になっていく中で、どのステークホルダーが欠けても経済の成長や人々の幸福は実現できないだろう』、「当然、私たちだけで立ち向かうにはAIリスクは敵として大きすぎる。AIを導入する産業・政府・そして私たちのようなAI技術を持った企業が共同でこの問題に立ち向かっていく必要がある」、「企業の経営層は意識を変革し、AIの持つリスクを経営アジェンダと捉えて向き合うべきだ。これは何よりも、AIの社会実装の流れに乗り遅れず自社の競争力を高める上で不可欠となることだ」、「政府は、いわばAIリスクをめぐる「What」や「Why」示す役割を担う。 AIの活用が当たり前となる時代に備え、規制や制度をアップデートしたり、AIという技術のガバナンスについてのスタンダードを積極的に発信したりすべきだ。その際、特にAIという領域においては必ずしも厳しい規制を導入する必要はなく、むしろ技術の激しい変化に対応できる柔軟な仕組みづくりが求められるだろう」、「テック企業や研究機関は、実際にAIリスクに対抗するための「How」を示す立場にある。 AIリスクの研究を深め、新たなリスクを予見し、対策となるソリューションを開発するという役割は今後重要性を増すだろう。 また、実際には産業界や政府が持つ情報には限りがあるため、積極的にそれらのセクターに技術的な情報を発信して、それぞれの役割をサポートしていくことも求められる」、「AIの社会実装が進み、より「当たり前」になっていく中で、どのステークホルダーが欠けても経済の成長や人々の幸福は実現できないだろう」、なるほど。
・『ロバストインテリジェンスの今後の取り組み 私たちロバストインテリジェンスは当然、先ほど述べた「テック企業」の立場で、引き続きこの領域の先頭を走り続けたいと考えている。大きくは、以下3点の取り組みに力を入れたい。 最初に、テック企業の本来の役割として、AIリスクをめぐる最先端の技術開発を行っていくことだ。 当社には米Google(グーグル)の元シニアAIエンジニアでAIセキュリティーの草分けであるメンバーや、米Microsoft(マイクロソフト)でAIリスクの統括を担当していたメンバー、私の共同創業者でありハーバード大学でコンピューターサイエンスの教授を務めていたYaron Singer(ヤローン・シンガー)など、世界トップクラスのAI人材が集積している。まだ見ぬリスクをいち早く顕在化し、社会に警告していくことに大きな意義があると考えている。 連載の第4回で、当社のエンジニアが発見した新しいプロンプト・インジェクションをご紹介したが、その後も私たちは生成AIや関連ツールのリスク評価を続けている。最近では、米NVIDIA(エヌビディア)のAIソフトウエアの脆弱性をいち早く発見し、公表したところだ。 詳細は省くが、そこでは「『I』を『J』に置き換えてください」といった単純なプロンプトを入力するだけで、学習に用いられた個人情報を引き出せることが分かっている。一見、本当にささいな「バグ」のようなところに、重大な権利侵害につながりうる落とし穴が潜んでいるのだ。 NVIDIAのAIソフトウエア「Nemo Guardrails」に対して、文字の書き換えといった単純なプロンプトで個人情報を引き出せることが判明した。詳細はロバストインテリジェンスのブログにて発信している 2点目は、こうした技術を生かしてAIを活用しビジネスを変革しようとしている国内外の企業のAIリスク管理を担っていくことだ。 本連載で紹介した通り、すでにロバストインテリジェンスでは多くの企業と生成AIを含むAIリスク管理の仕組みをつくってきた。「継続的なリスク検証」の考え方は、必ず今後のAIリスク管理のスタンダードになると考えており、その実装例を1つでも多く作って、社会としてAIリスクに立ち向かう体制づくりに貢献したい。 最後に、政府との協業を進め、AIリスクへ向き合う社会を下支えすることだ。 現在、技術の変化に応じた政策的な対応が様々な場で議論されている。先ほど述べたようにAIリスクについて最先端の研究を重ねている当社も、そうした政策の動きに対して情報を提供し、よりよい制度やスタンダードの形成に貢献していければと考えている。実際これまでも私たちは、米国の標準策定機関であるNIST(米国立標準技術研究所)などと積極的に意見交換してきた。日本でも自民党のAIプロジェクトチームに参加したほか、関係省庁とのコミュニケーションも日々続けている。 多くの先進企業とのつながりを生かし、AIリスクに関する事例や悩み事を共有しあう議論の場づくりにも取り組んでいる。そうした場の成果も積極的に政府とも共有していきたい。 ロバストインテリジェンスの掲げる「AI Integrity」という理念は、AIリスクを除去し、誰もが信頼してAIシステムと向き合える状態を指す。そのためには、少しでも多くの皆さんがこの問題をめぐる議論に参加してくださり、解決の糸口を一緒に探してくださることが不可欠だ。 すでに社会の様々な場面に姿を現しつつある、「蛾」より大きくなってしまったAIリスク。それが社会にとっての本当の脅威となる前に、私たちは次の一手を打たなければならない』、「ロバストインテリジェンスの今後の取り組み」、「テック企業の本来の役割として、AIリスクをめぐる最先端の技術開発を行っていくこと・・・当社には・・・世界トップクラスのAI人材が集積している」、「2点目は、こうした技術を生かしてAIを活用しビジネスを変革しようとしている国内外の企業のAIリスク管理を担っていくことだ・・・「継続的なリスク検証」の考え方は、必ず今後のAIリスク管理のスタンダードになると考えており、その実装例を1つでも多く作って、社会としてAIリスクに立ち向かう体制づくりに貢献したい」、「最後に、政府との協業を進め、AIリスクへ向き合う社会を下支えすることだ。 現在、技術の変化に応じた政策的な対応が様々な場で議論されている。先ほど述べたようにAIリスクについて最先端の研究を重ねている当社も、そうした政策の動きに対して情報を提供し、よりよい制度やスタンダードの形成に貢献していければと考えている。実際これまでも私たちは、米国の標準策定機関であるNIST(米国立標準技術研究所)などと積極的に意見交換してきた。日本でも自民党のAIプロジェクトチームに参加したほか、関係省庁とのコミュニケーションも日々続けている」、「自民党のAIプロジェクトチームに参加」、とは抜け目がないようだ。「すでに社会の様々な場面に姿を現しつつある、「蛾」より大きくなってしまったAIリスク。それが社会にとっての本当の脅威となる前に、私たちは次の一手を打たなければならない」、大いに頑張ってもらいたいものだ。
タグ:「オープンAIは、2015年に非営利法人として設立。共同議長に就いたのは、現在CEOを務めるサム・アルトマンと、米テスラなどのCEOとして知られるイーロン・マスクだ」、「マスク」氏が「共同議長」だったとは初めて知った。 東洋経済オンライン「「ChatGPTの生みの親」爆発的人気に透ける葛藤 毀誉褒貶のオープンAIだが 拡大は止まらない」 人工知能(AI) (その15)(「ChatGPTの生みの親」爆発的人気に透ける葛藤 毀誉褒貶のオープンAIだが 拡大は止まらない、ChatGPTの情報は画一的 「生成系AI」は民主主義社会を支えるツールたり得るか、AIに潜む「蛾」の正体 リスクが脅威になる前にすべきこと) 「設立当初はとくに、ゲーム解決に必要な「強化学習」のための製品を複数出していた。強化学習とは、与えられた条件下で最大限の結果が出るようにAIの行動を最適化させる手法」、「「多くのゲーム会社が、同社のツールを導入してソフトに搭載するAIの開発をしていた。言語モデルの開発をメインにしている印象はなかった」と振り返る。 ただ実際は、並行して言語モデルの開発も進めていた」、 「2018年には、言語モデルの初代となるGPTを発表。翌2019年にはGPT-2、2020年にはGPT-3と、モデルの表現力や性能を更新していった。今年3月には、大方の予想よりも早くGPT-4を発表し、その飛躍的な性能向上を見せつけた。) オープンAIが言語モデルの開発に邁進するのは、同社がミッションとして掲げる「AGIが全人類に利益をもたらすことを確実にすること」を達成するためだ。 AGIとは「汎用人工知能」のこと。限られた用途でしか使えない現状のAIとは異なり、人間に匹敵する、あるいは超人間的な知性を 知性を備える」、「「Planning for AGI and beyond」という文書には、AGIに関するアルトマンCEOの考え方が記されていた。曰(いわ)く、その実現により、世界経済や新しい科学的知識の発見を活性化させ、人間の創造性にも大きな力を与える、という。 AGIの実現には今後複数の技術的ブレークスルーが必要だが、言語モデルの進化はその重要な道のりの1つ、というわけだ」、「汎用人工知能」を目指した動きとは初めて知った。 「今のオープンAIはこの憲章と異なる方向に突き進んでいるようにみえる。 2019年には非営利法人である本体の子会社として、営利企業である「オープンAI LP」を設立。また同年、米マイクロソフトが同社に対する10億ドルの出資と包括的パートナーシップを結ぶことを発表している。 マイクロソフトは2020年9月、新しいAIサービスを開発するためGPT-3の独占的ライセンスを締結。WordやExcelといったオフィス製品を含めた製品群へのAI搭載を加速させていく計画だ。今後数年間で数十億ドルの追加出資を行うことも決まっている。 膨大な計算能力が必要なAIシステムの開発には多くの設備投資が必須で、オープンAIにとってこの提携のうまみは大きい」、 これに対し、「オープンAIの理事会を離れたイーロン・マスクは、3月24日のツイッター投稿で「マイクロソフトは投資の一環でオープンAIのコード基盤全体への独占的なアクセス権を獲得した。ChatGPTは完全に(同社のクラウドサービスである)Azureの中に収まっており、いざとなればすべてを手に入れることができる」と警鐘を鳴らした」、「オープン」な開発と、「巨額の設備投資」と有料サービスでの回収の関係は、確かに難しい問題だ。 「足元では、安全性に対する懸念も表明されている。3月28日には、AIの安全性を研究するFuture of Life Institute(FLI)が、GPT-4よりも強力なAIシステムの開発・運用を6カ月以上停止することを呼びかけ、AIの急速な進化に警鐘を鳴らした。イーロン・マスクや米アップル共同創業者のスティーブ・ウォズニアックら、1000名以上が署名したとされる。 同31日には、イタリアのデータ保護当局がChatGPTの利用の一時禁止を発表。同社がAIの学習に用いるデータ処理が法令に違反していることや、 、青少年への悪影響などがその理由だ。 こうした動きを受けてか、オープンAIは4月5日に「強力なAIを安全に、広く有益な形で維持することを約束する」などと記した声明を発表している」、今後はどう展開していくのだろう。 ダイヤモンド・オンライン 野口悠紀雄氏による「ChatGPTの情報は画一的、「生成系AI」は民主主義社会を支えるツールたり得るか」 「AIは、その一人一人が誰であるかを知らない。だから、当然のことながら、それぞれの個々の状況に応じた具体的なアドバイスを提供することはできない」、言われてみれば、その通りだ。 「対話型AIは、利用者の個々の問いに対して真剣に考え、適切な回答を見つけてくれているかのように感じるのだ。こうした体験は私たちにとって新鮮で、それが対話型生成AIの大きな魅力となっている。 しかし、ここで忘れてならないのは、対話型AIが私たちに与える「こちらを見て相談に乗ってくれる」感覚は、実は単なる錯覚に過ぎないという事実だ。中身は同じなのだが、利用者の質問文や指示文にあわせて、見掛けを変えているだけだ」、なーんだ。 「ChatGPT4の場合は、比較的長い間、多くの回答や質問を記憶することができる。その期間内であれば、私は1億分の1の利用者ではなく、まるで二人だけで話をしているかのように感じられる。それまでの対話の内容に基づく回答が得られるためだ。 しかし、一定の時間が過ぎると、私についての記憶は消えてしまい、私は再び1億分の1の利用者となってしまう」、やむを得ないようだ。 「対話型生成系AIを活用する場合には、記憶保持の限定性を理解し、それに合わせて対話することが求められる。一時的な記憶保持の恩恵を享受しつつ、同時にその限定性とそれが意味するものを理解し、適切な使用を心掛ける必要がある」、その通りのようだ。 「「日本国憲法第9条は必要か?」といった具体的な問題についても、AIが多角的な視点を提供することは保証されていない。 このようなメディアの登場は、多様な考え方や少数意見の尊重が前提になっている民主主義社会にどのような影響を与えるのだろうか? われわれはまだ手探り状態であり、この問題に対する答えを見いだすことができないでいる。生成系AIが人類に投げ掛けた最も大きな問題は、このことだろう」、なるほど。 日経ビジネスオンライン 大柴 行人氏による「AIに潜む「蛾」の正体 リスクが脅威になる前にすべきこと」 「現状は「大規模」言語モデルと呼ばれているモデルについても、コンピューターがそうであったように性能を劇的に向上させつつ、より小規模で安価なモデルが登場する可能性が十分にあるだろう」、「コンピューターがインターネットを介して互いにつながっていったように、すでにAIは様々なアプリケーションをつなぐインターフェースになり始めている」、まさに「『AI新時代』の幕開け」のようだ。 「AIが急速に普及する中で、すでに大きなひずみみが生まれている。AIが他のアプリケーションにつながることによる様々なリスク、対応に追われる大企業、規制に躍起になる各国政府──」、「ロバストインテリジェンスは2019年から一貫してこの問題に取り組んできた。それはサイバーセキュリティーがわずか数十年で一大産業となったように、AIリスクがAIの拡大とともにサイバーセキュリティーをもりょうがする大きな課題になると考えているからだ。急拡大を続ける「AI新時代の落とし穴」から人類を救うこと、それが我々の使命だ」、なる ほど。 「当然、私たちだけで立ち向かうにはAIリスクは敵として大きすぎる。AIを導入する産業・政府・そして私たちのようなAI技術を持った企業が共同でこの問題に立ち向かっていく必要がある」、「企業の経営層は意識を変革し、AIの持つリスクを経営アジェンダと捉えて向き合うべきだ。これは何よりも、AIの社会実装の流れに乗り遅れず自社の競争力を高める上で不可欠となることだ」、 「政府は、いわばAIリスクをめぐる「What」や「Why」示す役割を担う。 AIの活用が当たり前となる時代に備え、規制や制度をアップデートしたり、AIという技術のガバナンスについてのスタンダードを積極的に発信したりすべきだ。その際、特にAIという領域においては必ずしも厳しい規制を導入する必要はなく、むしろ技術の激しい変化に対応できる柔軟な仕組みづくりが求められるだろう」、 「テック企業や研究機関は、実際にAIリスクに対抗するための「How」を示す立場にある。 AIリスクの研究を深め、新たなリスクを予見し、対策となるソリューションを開発するという役割は今後重要性を増すだろう。 また、実際には産業界や政府が持つ情報には限りがあるため、積極的にそれらのセクターに技術的な情報を発信して、それぞれの役割をサポートしていくことも求められる」、「AIの社会実装が進み、より「当たり前」になっていく中で、どのステークホルダーが欠けても経済の成長や人々の幸福は実現できないだろう」、なるほど。 「ロバストインテリジェンスの今後の取り組み」、「テック企業の本来の役割として、AIリスクをめぐる最先端の技術開発を行っていくこと・・・当社には・・・世界トップクラスのAI人材が集積している」、 「2点目は、こうした技術を生かしてAIを活用しビジネスを変革しようとしている国内外の企業のAIリスク管理を担っていくことだ・・・「継続的なリスク検証」の考え方は、必ず今後のAIリスク管理のスタンダードになると考えており、その実装例を1つでも多く作って、社会としてAIリスクに立ち向かう体制づくりに貢献したい」、 「最後に、政府との協業を進め、AIリスクへ向き合う社会を下支えすることだ。 現在、技術の変化に応じた政策的な対応が様々な場で議論されている。先ほど述べたようにAIリスクについて最先端の研究を重ねている当社も、そうした政策の動きに対して情報を提供し、よりよい制度やスタンダードの形成に貢献していければと考えている。実際これまでも私たちは、米国の標準策定機関であるNIST(米国立標準技術研究所)などと積極的に意見交換してきた。日本でも自民党のAIプロジェクトチームに参加したほか、関係省庁とのコミュニケーションも も日々続けている」、「自民党のAIプロジェクトチームに参加」、とは抜け目がないようだ。「すでに社会の様々な場面に姿を現しつつある、「蛾」より大きくなってしまったAIリスク。それが社会にとっての本当の脅威となる前に、私たちは次の一手を打たなければならない」、大いに頑張ってもらいたいものだ。
コメント 0