SSブログ

人工知能(AI)(その16)(医療に「進出」するChatGPT 医師の仕事をAIがすることになるのか、解任騒動が示した「オープンAIとMSの相互依存」 スピードを支えるのは人員と「サーバー」だが…、お家騒動であらわ「OpenAI」が抱える矛盾の正体 突然のトップ解任の裏に倫理と営利めぐる葛藤) [イノベーション]

人工知能(AI)については、本年8月10日に取上げた。今日は、(その16)(医療に「進出」するChatGPT 医師の仕事をAIがすることになるのか、解任騒動が示した「オープンAIとMSの相互依存」 スピードを支えるのは人員と「サーバー」だが…、お家騒動であらわ「OpenAI」が抱える矛盾の正体 突然のトップ解任の裏に倫理と営利めぐる葛藤)である。

先ずは、本年9月1日付けダイヤモンド・オンラインが掲載した一橋大学名誉教授の野口悠紀雄氏による「医療に「進出」するChatGPT、医師の仕事をAIがすることになるのか」を紹介しよう。
https://diamond.jp/articles/-/328424
・『「緊急度自己判定」でのChatGPTの能力は高い  ChatGPTなどの大規模言語モデル(LLM)が医療の分野で活用され、人間の医師が担ってきた仕事のかなりの部分をAIがとって代わるという見方がある。 医療での利用としてはまず、医療機関での書類整理などの事務効率化があるが、それだけでなく、医療行為そのものに対する利用が考えられている。その第1は、「セルフ・トリアージ」(一般市民が自分の健康の緊急度を自ら判断すること)だ。 現在では、これは主としてウェブの情報を頼りに行われている。しかし、正確度に疑問があるし、個人個人の事情に即した情報が得られるわけでもない。高齢化の進展に伴って、セルフ・トリアージの必要性は増える。事実、週刊誌には高齢者の健康に関する記事が満載だ。また書籍も多数刊行されている。 さらに、保険会社などが電話で健康相談サービスを提供している。セコムのサービスもあるし、ファストドクターというスタートアップも登場した。もし医学的な質問に対して、大規模言語モデルが専門医レベルの回答をできるなら、事態は大きく変わるだろう。 これについては、さまざまな調査が行なわれており、検証成果はかなり有望な結果を示している(注1)。) ChatGPTが米国の医師資格試験で合格ラインの結果を示したとの報告もあるし、医師による回答よりChatGPTの回答が好まれるとの調査もある』、「もし医学的な質問に対して、大規模言語モデルが専門医レベルの回答をできるなら、事態は大きく変わるだろう。 これについては、さまざまな調査が行なわれており、検証成果はかなり有望な結果を示している」、なるほど。
・『患者の状況に共感示す点などは人間より優れているとの評価も  医学界の有名専門誌「JAMA」に掲載された論文は、医師とChatGPTを比較すると、医学的アドバイスの品質と共感の両面で、ChatGPTが生成した回答が高く評価されていると指摘している。 とりわけ、次の諸点でChatGPTが優れているという。 +患者の状況に共感を示す +患者個人の背景に興味を持ち、個人的な関係を構築しようとする +歯科、医師、看護師、薬剤師などの資格試験の点数が高い  大規模言語モデルの臨床的有効性や診断支援の可能性を高く見積もる意見が多い。大規模言語モデルが臨床実装され、医療を強力に支援するようになる可能性は非常に高い。 特に、スクリーニングや初期診断、治療方針策定、フォローアップ、セカンドオピニオン、患者および医療者教育などは激変する可能性がある』、「大規模言語モデルの臨床的有効性や診断支援の可能性を高く見積もる意見が多い。大規模言語モデルが臨床実装され、医療を強力に支援するようになる可能性は非常に高い。 特に、スクリーニングや初期診断、治療方針策定、フォローアップ、セカンドオピニオン、患者および医療者教育などは激変する可能性がある」、なるほど。
・『医療に特化したLLMも開発 医師国家試験で高い“正答率”  以上で紹介したのは、ChatGPTそのものだが、これに改良を加え医療に特化した大規模言語モデルを開発する動きもある。 グーグル研究所は、医療領域特化の大規模言語モデルMed-PaLMを発表した。アメリカ医師国家試験で、平均点である60%を大きく上回る85%の正解率を示したという(注2)。 臨床家が時間をかけて示す答えと比べると、かなり近いところに来たようだ。ただ臨床家の方が勝っているとも言われる。 日本でも開発が進んでいる。ファストドクターとAI開発スタートアップのオルツが共同開発した大規模言語モデルだ。2022年度の医師国家試験の問題で合格基準を上回る82%の正答率を達成したという。) 中国の研究者らが開発した「ChatCAD」は、レントゲン画像を分かりやすく説明する。画像を見ながら詳しく聞くこともできる。人間より優れているとの評価もある。 日本では、これから人口高齢化がさらに進展し、医師不足は深刻な問題になるだろう。信頼性のある医療用大規模言語モデルの開発は、日本の場合にとくに必要度が高い課題だ』、「日本では、これから人口高齢化がさらに進展し、医師不足は深刻な問題になるだろう。信頼性のある医療用大規模言語モデルの開発は、日本の場合にとくに必要度が高い課題だ」、なるほど。
・『重要な判断を伴うケースやプライバシー保護などで慎重論も  こうして医学関係者の多くが、大規模言語モデルに対して高い期待を寄せている。これは私には意外だった。慎重論が多いと思っていたからだ。 もちろん、医療関係者の全てが大規模言語モデルの利用に積極的であるわけではない。慎重論や消極的な意見が多いことも事実だ。ニューズウィーク・ジャパンの記事は、そうした意見を紹介している(注3) それによると、明らかな誤りやバイアスなど、精度の不安定性に懸念が表明されている。だから、現時点では重要な判断が伴うケースで、専門家のレビューなく出力結果を利用することは難しいとされる。 またプライバシー、倫理、法的制約と規制などについても、解決すべき課題が多くある。治療や研究に取り入れることには、守秘義務や患者の同意、治療の質、信頼性や格差に関する倫理的懸念が伴う。むやみな使用は予想外の結果につながりかねない。 また、ChatGPTに送られた身元特定可能な患者情報は、将来利用される情報の一部になる。だから機密性の高い情報が第三者に漏洩しやすくなる』、「明らかな誤りやバイアスなど、精度の不安定性に懸念が表明されている。だから、現時点では重要な判断が伴うケースで、専門家のレビューなく出力結果を利用することは難しいとされる。 またプライバシー、倫理、法的制約と規制などについても、解決すべき課題が多くある。治療や研究に取り入れることには、守秘義務や患者の同意、治療の質、信頼性や格差に関する倫理的懸念が伴う。むやみな使用は予想外の結果につながりかねない」、なるほど。
・『健康に関する利用はさまざまな微妙な問題含む  私自身はこれまで自分の健康問題に関してChatGPTに質問をしたことはない。ChatGPTが誤った答え(ハルシネーション)を出す危険があるからだ。仮にその問題が克服されたとしても、なおかつ問題は残る。これは上述した医学関係者らの懸念とは異なるものだ。) 第一に、自分の状況を正しくChatGPTに伝えられるかどうか、自信がない。 医師と面談する場合には、医師が様々な質問をし、それに答える。しかしChatGPTの場合には、そのような質問がない。質問自体を私が考えなければならない。電話の健康相談サービスでも、通常は先方が質問してくれる。ChatGPTとの会話は、人間との会話とは異なるものなのだ。 また、ChatGPTは、安全側に偏った回答をするはずだ。少しでも疑問があれば、「医師の診断を受けた方がよい」と答える可能性高い。自分では大丈夫だと思っているときにそうしたアドバイスを受けると、かえって不安になってしまう。 こうしたことがあり、上述した医師国家試験での正答率などの調査結果を知ったいまとなっても、なかなか健康問題の質問をする気にならない。 かと言って、週刊誌にある「多少血圧が高くても気にする必要はない」というような記事も乱暴すぎると思う。健康に関わる問題は、さまざまな微妙な要素を持っており判断が難しい。この問題に関する研究調査がさらに進められることが求められる。 注1 岡本将輝「医療における大規模言語モデルの価値」(時事メディカル、2023年6月8日) 注2 「完璧な医療・医学チャットボットを目指して」(オール・アバウト・サイエンス・ジャパン,2023年7月14日) 注3 ニューズウィーク・ジャパン(2023年4月9日)』、「また、ChatGPTは、安全側に偏った回答をするはずだ。少しでも疑問があれば、「医師の診断を受けた方がよい」と答える可能性高い。自分では大丈夫だと思っているときにそうしたアドバイスを受けると、かえって不安になってしまう・・・健康に関わる問題は、さまざまな微妙な要素を持っており判断が難しい。この問題に関する研究調査がさらに進められることが求められる」、同感である。

次に、11月26日付け東洋経済オンラインが掲載したフリージャーナリストの西田 宗千佳氏による「解任騒動が示した「オープンAIとMSの相互依存」 スピードを支えるのは人員と「サーバー」だが…」を紹介しよう。
https://toyokeizai.net/articles/-/717269
・『これらの背景には2つの要素がある。 1つは優秀な人員を多数抱えており、研究と開発までの距離が近いこと。 OpenAIの社員数は約770名とされているが、世界的な注目を集める企業としては「まだ」コンパクトであり、ほとんどが研究開発に従事していると思われる。 今回の騒動では社員のほとんどにあたる700名以上が、アルトマン氏らの復帰を求める署名にサインしており、求心力の強さは明白だ。社員の一斉離反もしくは作業停滞が起きれば、OpenAIには大きな打撃になっただろう』、「社員のほとんどにあたる700名以上が、アルトマン氏らの復帰を求める署名にサインしており、求心力の強さは明白だ」、取締役会の「アルトマン氏」解任決議に対して、「700名以上が、アルトマン氏らの復帰を求める署名にサイン」、とは。「アルトマン氏」には心強い支援だ。
・『支えるのは「人員」と「サーバー」だが…  もう1つは「サーバー」だ。 LLMの学習には高速なサーバーが必須だ。特にGPTシリーズのように規模の大きなLLMの場合には、現在ならばNVIDIA製の高速なGPUを数千台単位で用意する必要がある。 LLMの規模は「パラメータ数」で表されるが、一般論として、パラメータ数が大きい、規模の大きなLLMほど賢いものになりやすい。一方でパラメータ数が大きなLLMは、開発のための「学習」にも、日常的に使うために必要な「推論」にも、高速な演算が必要になり、GPUを使った大規模なサーバーが必須になっていく。 GPT-4は正確なパラメータ数が公開されていないので必要なサーバー量やその電力消費も不明だが、GPT-3については1750億パラメータとされており、1回の学習には1時間あたり約1300メガワットの電力を必要とする。これはほぼ、原発1基分(毎時約1000メガワット)に相当する。 GPUは取り合いの状況であり、サーバーを用意するだけでも大変な状況だ。それを運用できる電力と保守の能力を持った設備を持つ企業は限られている。 例えばソフトバンクは3500億パラメータ規模のLLMを作るためのデータセンター構築に約200億円を投じている。 一方でNTTはソフトバンクやOpenAIとは異なり、自社開発のLLM「tsuzumi」を用途限定・日本語特化でコンパクトなものにした。パラメータ数を70億規模に抑えることで、学習にかかる機材コストをGPT-3の25分の1に圧縮している。) いかに巨大な設備を持つか、もしくは戦略的に小さな設備向けのLLMで戦うかが重要になってきているわけだが、OpenAIは汎用人工知能(AGI)を目指してどんどんLLMの規模を拡大する方向性にある。だから、パートナーとともにサーバーを動かし続けなければならない。 逆に言えば、「人員がいて」「サーバー設備が用意できる」状態なら、OpenAIと戦うことは不可能ではない。グーグルやMetaはその条件を十分に満たしている。OpenAIが持っている優位性も、他社が持ち得ないものではない、ということだ。 活動が滞ると、その分すぐに他社が追いついてくる』、「「人員がいて」「サーバー設備が用意できる」状態なら、OpenAIと戦うことは不可能ではない。グーグルやMetaはその条件を十分に満たしている。OpenAIが持っている優位性も、他社が持ち得ないものではない、ということだ」、なるほど。
・『マイクロソフトは「共依存」をいつまで維持するのか  OpenAIはサーバーをマイクロソフトに依存している。マイクロソフトはOpenAIに対する最大の出資者だが、逆に言えば、世界トップクラスのクラウドインフラ事業者であるマイクロソフトの力を借りなければ、ChatGPTを含むOpenAIの快進撃も実現できなかっただろう。 マイクロソフトはOpenAIに依存したサービス施策を矢継ぎ早に提供しているが、一方インフラ面でOpenAIはマイクロソフトに依存している。 海外の報道によれば、マイクロソフトがアルトマン氏らの離脱を知ったのは、11月17日の発表直前であるという。 両輪が揃っていないと今の快進撃は実現できないわけだが、その片方が止まりそうになったのを突然知ったマイクロソフトの驚きは想像以上であっただろう。 マイクロソフトのサティア・ナデラCEOはすぐに交渉し、「アルトマン氏らがマイクロソフトに入る」とコメントを発表したが、どのような体制で、どのような組織体を構成するのかといった詳細は公表されなかった。なによりもまず「両社のコンビネーションは安泰です」とアピールする必要があったからだろう。 今回の騒動では、OpenAIへの発言力をマイクロソフトが強化し、漁夫の利を得たようにも見える。だが、同社が取締役会に関係者を送り込めたわけでもなく、両社の関係や体制に変化はない。 今後も体制を維持するなら、OpenAIのガバナンス強化は必須だ。一方で、マイクロソフトとして「OpenAI以外の選択肢」、例えば自社でLLMを開発していく道もなくはない。すでに小規模なLLMは研究しているが、今後はどうなるのだろうか』、「今回の騒動では、OpenAIへの発言力をマイクロソフトが強化し、漁夫の利を得たようにも見える。だが、同社が取締役会に関係者を送り込めたわけでもなく、両社の関係や体制に変化はない。 今後も体制を維持するなら、OpenAIのガバナンス強化は必須だ。一方で、マイクロソフトとして「OpenAI以外の選択肢」、例えば自社でLLMを開発していく道もなくはない」、今後の展開が大いに注目される。

第三に、11月29日付け東洋経済オンライン「お家騒動であらわ「OpenAI」が抱える矛盾の正体 突然のトップ解任の裏に倫理と営利めぐる葛藤」を紹介しよう。
・『OpenAIは2015年12月、アルトマン氏らによって非営利団体として設立された。組織の目標として当時、「金銭的なリターンを得る必要性に制約されることなく、人類全体に最も利益をもたらす可能性の高い方法で、デジタルインテリジェンスを発展させること」と定めている。 AIは業務の効率化などに活用できる一方、フェイクニュースの蔓延や雇用への短期的影響などリスクを伴う。倫理と安全性が求められるAIの領域において、OpenAIは資本的な利益よりも人類の利益を優先する、非営利の研究開発機関として組織されていた。 設立時には、10億ドルの寄付を目標に設定。総額約1.3億ドルの寄付を受け、組織の運営や、ディープラーニング、AIアライメント(AIが人間の価値観、目標、意図に沿って行動するようにすること)の研究などに使用された』、「アルトマン氏らによって非営利団体として設立された。組織の目標として当時、「金銭的なリターンを得る必要性に制約されることなく、人類全体に最も利益をもたらす可能性の高い方法で、デジタルインテリジェンスを発展させること」と定めている。 AIは業務の効率化などに活用できる一方、フェイクニュースの蔓延や雇用への短期的影響などリスクを伴う。倫理と安全性が求められるAIの領域において、OpenAIは資本的な利益よりも人類の利益を優先する、非営利の研究開発機関として組織されていた」、なるほど。
・『数年で「ハイブリッド」組織へと転換  しかし2019年3月に、その組織形態を大きく変えることとなる。OpenAI本体の傘下に、一定条件がついた営利企業のOpenAI LPを設立したのだ。この形態では出資する投資家や従業員は上限付きのリターンを得ることができる一方、一定以上の利益に関しては、非営利組織であるOpenAIに還元される』、「OpenAI本体の傘下に、一定条件がついた営利企業のOpenAI LPを設立したのだ。この形態では出資する投資家や従業員は上限付きのリターンを得ることができる一方、一定以上の利益に関しては、非営利組織であるOpenAIに還元される」、なるほど。
・『OpenAIの組織構造  営利と非営利のハイブリッドな組織に見直した背景について、OpenAIは「アルゴリズムの革新に加え、多くの計算能力を使うことになったことで、OpenAIを始めるときに計画していたよりもはるかに速くスケールすることを決めた」ためと説明していた。 他のIT企業もAI事業に本腰を入れる中、業界をリードするポジションであり続けるには、大規模なクラウドやAIスーパーコンピューターの構築、さらには優秀な人材の確保が欠かせない。そのためには数年間で数十億ドルの投資が必要となり、企業からの出資などを受けられるよう組織形態を変えたわけだ。 実際、そのわずか数カ月後にはマイクロソフトとパートナーシップを締結し、同社が10億ドルの出資を行うと発表。 マイクロソフトは2023年1月にも、複数年にわたって OpenAI に数十億ドル規模の投資を行う方針を発表し、マイクロソフトのAzureは、OpenAI の独占的なクラウドプロバイダーとなった。) 一方、営利企業の設立後も、OpenAI全体の組織の“最上位”に位置づけられてきたのが、6人の役員で構成する理事会だ。2023年6月時点で、OpenAIはその組織構造について主に次のような特徴を挙げている。 「理事会は非営利団体に変わりなく、安全なAGI(汎用人工知能)の促進という義務を果たす必要があり、営利企業もこの使命に従う必要がある」「理事会の過半数は独立性を保っており、社外取締役はOpenAIの株式を保有していない。またCEOのサム・アルトマン氏も直接は株を保有していない」「AGIができたかどうかの決定権は理事会にある」 つまり、OpenAIはあくまで非営利団体として発足した当初の目的を堅持し、それを実現するために理事会の権限を強くしているということだ。 こうした構図から、今回のクーデターのような解任ができたことや、OpenAI Globalに巨額を出資するマイクロソフトですらアルトマン氏の解任を事前に知らなかったことが理解できるだろう』、「「理事会は非営利団体に変わりなく、安全なAGI(汎用人工知能)の促進という義務を果たす必要があり、営利企業もこの使命に従う必要がある」「理事会の過半数は独立性を保っており、社外取締役はOpenAIの株式を保有していない。またCEOのサム・アルトマン氏も直接は株を保有していない」「AGIができたかどうかの決定権は理事会にある」 つまり、OpenAIはあくまで非営利団体として発足した当初の目的を堅持し、それを実現するために理事会の権限を強くしているということだ。 こうした構図から、今回のクーデターのような解任ができたことや、OpenAI Globalに巨額を出資するマイクロソフトですらアルトマン氏の解任を事前に知らなかったことが理解できるだろう」、「社外取締役」が暴走し易い構造があったようだ。
・『理事会メンバー刷新後に残る懸念  解任を決めた当時の理事会は、創業メンバーであるアルトマン氏、ブロックマン氏、イリヤ・サツキバー氏のほか、社外理事3人で構成。2018年から参画しているQuora代表のアダム・ディアンジェロ氏、シンクタンクのランド研究所のターシャ・マッコーリー氏、そして2021年から参画しているジョージタウン大学安全保障・新技術センター戦略担当ディレクターのヘレン・トナー氏だ。 AI政策とグローバルAI戦略研究を専門とするトナー氏の参画時、OpenAIはリリースで「この就任は、テクノロジーの安全かつ責任ある展開に対する私たちの献身を前進させるもの」と記載しており、非営利組織らしくAIの安全性を重視した登用と受け取れる。 アルトマン氏の解任には、サツキバー氏と社外理事の計4人が賛成したとみられている。直近でもアルトマン氏は画像生成や音声合成などテキスト以外のAPIの公開や、開発者が独自のGPTを作成、販売できるマーケットプレースの開発を推し進めていた。ビジネス路線を突き進む同氏との間に生じた軋轢が、解任へとつながった可能性は高い。 一連の騒動を受け、理事会メンバーは抜本的に見直される予定で、元セールスフォース共同CEOのブレット・テイラー氏らの就任が決まっている。アルトマン氏の全面支援を行ったマイクロソフトの関与が強まることも想定される。 理事会の刷新で表向きは一件落着だが、営利色が強まれば、AIの安全性をいかに担保するかというジレンマはいっそう深まる。 世界を騒がせたお家騒動は、AIの開発とビジネス競争をどう両立させるかという根本的な問いを改めて投げかけている』、「アルトマン氏は画像生成や音声合成などテキスト以外のAPIの公開や、開発者が独自のGPTを作成、販売できるマーケットプレースの開発を推し進めていた。ビジネス路線を突き進む同氏との間に生じた軋轢が、解任へとつながった可能性は高い・・・アルトマン氏の全面支援を行ったマイクロソフトの関与が強まることも想定される。 理事会の刷新で表向きは一件落着だが、営利色が強まれば、AIの安全性をいかに担保するかというジレンマはいっそう深まる。 世界を騒がせたお家騒動は、AIの開発とビジネス競争をどう両立させるかという根本的な問いを改めて投げかけている」、「営利色が強まれば、AIの安全性をいかに担保するかというジレンマはいっそう深まる」、難しいものだ。
タグ:人工知能(AI) (その16)(医療に「進出」するChatGPT 医師の仕事をAIがすることになるのか、解任騒動が示した「オープンAIとMSの相互依存」 スピードを支えるのは人員と「サーバー」だが…、お家騒動であらわ「OpenAI」が抱える矛盾の正体 突然のトップ解任の裏に倫理と営利めぐる葛藤) ダイヤモンド・オンライン 野口悠紀雄氏による「医療に「進出」するChatGPT、医師の仕事をAIがすることになるのか」 「もし医学的な質問に対して、大規模言語モデルが専門医レベルの回答をできるなら、事態は大きく変わるだろう。 これについては、さまざまな調査が行なわれており、検証成果はかなり有望な結果を示している」、なるほど。 「大規模言語モデルの臨床的有効性や診断支援の可能性を高く見積もる意見が多い。大規模言語モデルが臨床実装され、医療を強力に支援するようになる可能性は非常に高い。 特に、スクリーニングや初期診断、治療方針策定、フォローアップ、セカンドオピニオン、患者および医療者教育などは激変する可能性がある」、なるほど。 「日本では、これから人口高齢化がさらに進展し、医師不足は深刻な問題になるだろう。信頼性のある医療用大規模言語モデルの開発は、日本の場合にとくに必要度が高い課題だ」、なるほど。 「明らかな誤りやバイアスなど、精度の不安定性に懸念が表明されている。だから、現時点では重要な判断が伴うケースで、専門家のレビューなく出力結果を利用することは難しいとされる。 またプライバシー、倫理、法的制約と規制などについても、解決すべき課題が多くある。治療や研究に取り入れることには、守秘義務や患者の同意、治療の質、信頼性や格差に関する倫理的懸念が伴う。むやみな使用は予想外の結果につながりかねない」、なるほど。 「また、ChatGPTは、安全側に偏った回答をするはずだ。少しでも疑問があれば、「医師の診断を受けた方がよい」と答える可能性高い。自分では大丈夫だと思っているときにそうしたアドバイスを受けると、かえって不安になってしまう・・・健康に関わる問題は、さまざまな微妙な要素を持っており判断が難しい。この問題に関する研究調査がさらに進められることが求められる」、同感である。 東洋経済オンライン 西田 宗千佳氏による「解任騒動が示した「オープンAIとMSの相互依存」 スピードを支えるのは人員と「サーバー」だが…」 「社員のほとんどにあたる700名以上が、アルトマン氏らの復帰を求める署名にサインしており、求心力の強さは明白だ」、取締役会の「アルトマン氏」解任決議に対して、「700名以上が、アルトマン氏らの復帰を求める署名にサイン」、とは。「アルトマン氏」には心強い支援だ。 「「人員がいて」「サーバー設備が用意できる」状態なら、OpenAIと戦うことは不可能ではない。グーグルやMetaはその条件を十分に満たしている。OpenAIが持っている優位性も、他社が持ち得ないものではない、ということだ」、なるほど。 「今回の騒動では、OpenAIへの発言力をマイクロソフトが強化し、漁夫の利を得たようにも見える。だが、同社が取締役会に関係者を送り込めたわけでもなく、両社の関係や体制に変化はない。 今後も体制を維持するなら、OpenAIのガバナンス強化は必須だ。一方で、マイクロソフトとして「OpenAI以外の選択肢」、例えば自社でLLMを開発していく道もなくはない」、今後の展開が大いに注目される。 東洋経済オンライン「お家騒動であらわ「OpenAI」が抱える矛盾の正体 突然のトップ解任の裏に倫理と営利めぐる葛藤」 「アルトマン氏らによって非営利団体として設立された。組織の目標として当時、「金銭的なリターンを得る必要性に制約されることなく、人類全体に最も利益をもたらす可能性の高い方法で、デジタルインテリジェンスを発展させること」と定めている。 AIは業務の効率化などに活用できる一方、フェイクニュースの蔓延や雇用への短期的影響などリスクを伴う。倫理と安全性が求められるAIの領域において、OpenAIは資本的な利益よりも人類の利益を優先する、非営利の研究開発機関として組織されていた」、なるほど。 「OpenAI本体の傘下に、一定条件がついた営利企業のOpenAI LPを設立したのだ。この形態では出資する投資家や従業員は上限付きのリターンを得ることができる一方、一定以上の利益に関しては、非営利組織であるOpenAIに還元される」、なるほど。 「「理事会は非営利団体に変わりなく、安全なAGI(汎用人工知能)の促進という義務を果たす必要があり、営利企業もこの使命に従う必要がある」「理事会の過半数は独立性を保っており、社外取締役はOpenAIの株式を保有していない。またCEOのサム・アルトマン氏も直接は株を保有していない」「AGIができたかどうかの決定権は理事会にある」 つまり、OpenAIはあくまで非営利団体として発足した当初の目的を堅持し、それを実現するために理事会の権限を強くしているということだ。 こうした構図から、今回のクーデターのような解任ができたことや、OpenAI Globalに巨額を出資するマイクロソフトですらアルトマン氏の解任を事前に知らなかったことが理解できるだろう」、「社外取締役」が暴走し易い構造があったようだ。 「アルトマン氏は画像生成や音声合成などテキスト以外のAPIの公開や、開発者が独自のGPTを作成、販売できるマーケットプレースの開発を推し進めていた。ビジネス路線を突き進む同氏との間に生じた軋轢が、解任へとつながった可能性は高い・・・アルトマン氏の全面支援を行ったマイクロソフトの関与が強まることも想定される。 理事会の刷新で表向きは一件落着だが、営利色が強まれば、AIの安全性をいかに担保するかというジレンマはいっそう深まる。 世界を騒がせたお家騒動は、AIの開発とビジネス競争をどう両立させるかという根本的な問いを改めて投げかけている」、「営利色が強まれば、AIの安全性をいかに担保するかというジレンマはいっそう深まる」、難しいものだ。
nice!(0)  コメント(0) 
共通テーマ:日記・雑感