SSブログ

人工知能(AI)(その14)(米中が覇権を握る生成AI 人材・資金でかなわない日本、イーロン・マスクですらこの危機感 世界でAI開発停止要求 なのに日本では無批判に国会答弁に使用提言!、チャットGPTの回答「官僚が結局精査」 非公表情報を入力する恐れも…答弁導入に疑問の声) [イノベーション]

人工知能(AI)については、3月20日に取上げた。今日は、(その14)(米中が覇権を握る生成AI 人材・資金でかなわない日本、イーロン・マスクですらこの危機感 世界でAI開発停止要求 なのに日本では無批判に国会答弁に使用提言!、チャットGPTの回答「官僚が結局精査」 非公表情報を入力する恐れも…答弁導入に疑問の声)である。

先ずは、3月20日付けエコノミストOnlineが掲載した立教大学ビジネススクール教授の田中道昭氏による「米中が覇権を握る生成AI 人材・資金でかなわない日本」を紹介しよう。
https://weekly-economist.mainichi.jp/articles/20230328/se1/00m/020/055000c
・『あらゆる問いに対して人間が書くような文章で回答する「対話型AI」が出現した。この技術のいったい何が革命的なのかを解き明かす。 対話型AI(人工知能)の「チャットGPT」の出現は、世の中に革命的な変化をもたらした。2022年11月にリリースされて以降、その驚くべき性能に利用者が急増している。 チャットGPTを世に送り出したオープンAIは、当初はAIの発展を目指してイーロン・マスク氏などが出資して15年に設立された非営利組織だった。しかし19年、AI技術を社会で実用化する営利目的の会社として、マイクロソフトなどが10億ドルを出資してオープンAI LP(リミテッド・パートナーシップ)を設立した。 マイクロソフトの参加により、オープンAIはマイクロソフトが持つさまざまなデータやリソース(経営資源)を使えるようになり、開発のスピードが一気に上がったとされる。 GPTとは「Generative Pre-trained Transformer」の略で、事前学習済み(Pre-trained)の文章生成型(Generative)トランスフォーマー(深層学習モデルの名称)を意味する、オープンAI開発の「巨大言語モデル」だ。チャットGPTを動かしている「GPT-3」(現在は改良版のGPT-3.5)のシステムは1750億のパラメーター(変数)を読み込んでおり、前バージョンに比べて性能が格段にアップした』、興味深そうだ。
・『高水準の文章で回答  チャットGPTが対話型で返してくる回答は、現時点においてかなりの水準に達している。 一つ例を挙げると、筆者が主宰するワークショップで研究している企業に、カインズやワークマンを傘下に持つベイシアグループがあるが、「ベイシアグループではどのようなDX(デジタルトランスフォーメーション)をしていますか」と聞いてみると、たちどころに「ベイシアグループでは、DXを推進するために、いくつかの取り組みをしています。例えば……」として複数の項目を答えてくる。 もちろん、正確性に問題はあるかもしれないが、このように文章の形で回答するシステムは、ほんの少し前まで、この世に存在しなかった。このレベルにまで達していることに驚きを覚える。 さらに、マイクロソフトの検索システム「Bing(ビング)」とチャットGPTを組み合わせて使うことで、利便性が飛躍的に高まった。 例えば、ベイシアグループについてBingで検索すると、最上部にチャットGPTの回答、その下側にはグーグルと同じような検索結果が出て、これらを同時に見ることができる。チャットGPTの回答をもっと知りたいと思えば、そこをクリックすると、チャットGPT専用の画面に切り替わる。このような仕組みは非常に有用だ』、「文章の形で回答するシステムは、ほんの少し前まで、この世に存在しなかった。このレベルにまで達していることに驚きを覚える」、すごい進歩だ。「マイクロソフト」と、「チャットGPT」を扱う「オープンAI」の提携はさすが本格的だ。
・『グーグルは「非常事態宣言」  これまでは、検索欄に「ベイシアグループ」と入れると、それに関連する記事などが出てきただけだが、決定的に違うのは、ベイシアグループとは何であるかを「ベイシアグループとは日本の流通企業です……」などといった文章で回答してくることだ。 また、画面の下には、どこから引用してきたかの情報が出ている。そこをクリックすると引用元のサイトに飛べるようになっている。この便利さに圧倒されて、筆者は最近、Bingばかりを使い、グーグルで検索することがなくなった。 チャットGPTの能力の奥深さは計り知れない。オープンAIのサム・アルトマン最高経営責任者(CEO)は「チャットGPTで実現したかったことの一つは、プログラミング言語を知らない人でもプログラムが組めて問題解決できるようになること」とまで語っている。恐るべき可能性を秘めていることは間違いない。 このようなチャットGPTに対して、検索で大きなシェアを持つグーグルはどのように対抗していくのか。グーグルの幹部は大きな危機感を抱き、今年1月に社内に「非常事態宣言」を発した。共同創業者のセルゲイ・ブリン氏は数年ぶりに現場に復帰してAI部門のテコ入れを図るようだ。 もちろんグーグルも生成AI、対話型AIの研究はこれまでも行っている。ただ、グーグルのビジネスモデルは、検索によって得られる情報から広告を提示する「検索広告」が事業の主力。収入の9割以上を広告に依存しているため、下手に新しいサービスを立ち上げることで広告に影響するようなことがあってはならないと、一歩を踏み出せずにいた。 しかし、マイクロソフトがグーグルの牙城である検索に踏み込んできたのだから黙ってはいられない。「検索プラス対話型AI」のサービスを遠くない時期に提供できるよう準備を進めている』、「グーグル」は、「今年1月に社内に「非常事態宣言」を発した」、「共同創業者のセルゲイ・ブリン氏は数年ぶりに現場に復帰してAI部門のテコ入れを図るようだ」、「マイクロソフトがグーグルの牙城である検索に踏み込んできたのだから黙ってはいられない。「検索プラス対話型AI」のサービスを遠くない時期に提供できるよう準備を進めている」、「グーグル」の反攻は上手くいくのだろうか。
・『準備を進める中国・百度  一方、中国はどうなっているのか。中国のグーグルと呼ばれる「百度(バイドゥ)」がその先頭を走る。同社は検索はもちろん、クルマの自動運転なども事業展開してきた会社だ。 今年1月上旬に米ラスベガスで開かれた世界最大級のテクノロジー見本市「CES」で生成AIやチャットGPTが話題になった。驚いたのはグーグルなどに先行して、1月下旬に百度はチャットGPTと似た対話型AIサービスを提供すると発表したことだ。当然ながら、生成AIについてずっと研究・開発を行ってきたからこそ、すぐに追随することが可能になる。 中国企業による開発に一つ利点があるとすれば、扱えるデータ量が多いということだろう。欧米はプライバシー重視の必要があるため、使えるデータに制約がかかる可能性がある。中国にはこのような制約がほとんどないことから、AIの精度を上げるために有利に働くと思われる。 いずれにしても今後、生成AIの分野は、マイクロソフトによるオープンAIとグーグルの米2社、それに中国・百度を加えた3社が、それぞれの世界をプラットフォーマーとして覇権を獲得していく可能性が高い。残念ながら、現時点でこの分野に日本の出番はない。人材面、資金面ともにまったく太刀打ちできないのが実情だ』、「中国企業による開発に一つ利点があるとすれば、扱えるデータ量が多いということだろう。欧米はプライバシー重視の必要があるため、使えるデータに制約がかかる可能性がある。中国にはこのような制約がほとんどないことから、AIの精度を上げるために有利に働くと思われる」、「現時点でこの分野に日本の出番はない。人材面、資金面ともにまったく太刀打ちできないのが実情だ」、寂しい限りだ。
・『危険性認識すべき  ただ、イアン・ブレマー氏が率いる米国の政治リスクの専門コンサルティング「ユーラシアグループ」が23年の10大リスクで「生成AI」を3位にランキングしているように、社会を混乱させる危険性があることは常に意識していなければならない。 ユーラシアグループは「大混乱生成兵器」と題し、AIの技術的な進歩が、デマゴーグを生んだり権威主義者に力を与えたりして、ビジネスや市場を混乱させる危険性があることを示した。 チャットGPTなどの利用によって、コンテンツの作成に参入障壁がなくなると、コンテンツの量は指数関数的に増加していき、市民の多くが事実とフィクションを区別できなくなる。偽情報が横行し、社会的な連帯、商業や民主主義の基盤である信頼が損なわれる可能性があると指摘していることは、十分認識しておくべきだろう』、参考にすべき警鐘だ。

次に、4月9日付け現代ビジネスが掲載した一橋大学名誉教授の野口 悠紀雄氏による「イーロン・マスクですらこの危機感、世界でAI開発停止要求、なのに日本では無批判に国会答弁に使用提言!」を紹介しよう。
https://gendai.media/articles/-/108584?imp=0
・『生成系AIの技術開発を一時停止すべきだとの提言が、アメリカでなされました。この技術が持つ潜在的な影響力の大きさを考えれば、当然の懸念です。一方日本では、国会答弁の下書きに利用するというのですが……』、「日本」は他国に先んじて利用したいというスケベ心が見え見えだ。
・『AIを開発しながら慎重な国と無批判に使おうとする国  ChatGPTやBingなど、生成系AIと呼ばれる技術について、その技術開発を半年間ストップさせるべきだとの提言が、アメリカでなされました。 これが 報道された日に、日本では、これと正反対の提言がなされました 。 国会答弁の下書きなどに生成系AIを活用するという提言案を、自民党がまとめたのです。 この2つは、AIに対する基本的な態度の際立った違いを示すものです。 一方は、極めて高度な技術を開発しながら、それを無条件に受け入れるのではなく、その社会的な影響について真剣に検討しようとしています。 もう一方は、外国で開発された技術を、その見かけに幻惑されて、無条件に受け入れようとしています。 この2つの差は極めて深刻なものだと、私は考えます』、「日本」の「提言案」は「自民党がまとめた」ので、本質が理解できないまま「利用」に重点をおいたようだ。
・『生成系AIの技術開発をストップさせる提言  まず、アメリカでの提言は、「人間と競合する知能を持つAIは、社会や人類に深刻なリスクとなりうる」として、強力なAI開発の半年間の停止を訴えています。 さらに、AI開発者は、「自分たちでさえ理解できないデジタル知性を開発する統制不能な競争に陥っている」と批判しています。 これに署名した1000人以上のテクノロジー関係者の中には、起業家イーロン・マスク氏も含まれています。彼は、ChatGPTを開発した企業OpenAIの創業者の1人でした。 現在のAIに、それだけの能力があるとは思えないのですが、将来様々な問題が起こり得ることは否定できないでしょう。この提言が指摘するように、AIの進歩が社会に与える影響は、きわめて大きいと考えざるをえません。 だから、その開発に規制を加えるべきだというのは、 大変重要な問題提起です 。兵器関係の技術以外の技術に関して、これほど強い危惧の念が表明されたのは、初めてのことではないでしょうか? 生成系AIの潜在力は、それほど大きいのです』、「アメリカでの提言は、「人間と競合する知能を持つAIは、社会や人類に深刻なリスクとなりうる」として、強力なAI開発の半年間の停止を訴えています。 さらに、AI開発者は、「自分たちでさえ理解できないデジタル知性を開発する統制不能な競争に陥っている」と批判しています。 これに署名した1000人以上のテクノロジー関係者の中には、起業家イーロン・マスク氏も含まれています」、「AIの進歩が社会に与える影響は、きわめて大きいと考えざるをえません。 だから、その開発に規制を加えるべきだというのは、 大変重要な問題提起です 。兵器関係の技術以外の技術に関して、これほど強い危惧の念が表明されたのは、初めてのことではないでしょうか? 生成系AIの潜在力は、それほど大きいのです」、確かにその通りだ。
・『AIはでたらめな答えを出す  上記の提言は、生成系AIの今後の技術開発に関わるものです。それ以前の問題として、生成系AIが、現在すでに様々な問題を抱えていることも間違いありません。 最大の問題は、誤った答えを出すことです。したがって、 結果を信用することができません。 Bing は、ホームページで、「誤った答えを出すことがあるから、依存しないように」と注意を喚起しています。Googleの対話型AIであるBardは、「自信満々に間違うことがある」とされています。 出力をそのまま信じて利用しようとすれば、深刻な混乱が生じるでしょう。 OpenAIのChatGPTにしても、MicrosoftのBingにしても、またGoogleのBardにしても、未完成の技術を一般の利用に供してしまったと考えざるをません』、「自信満々に間違うことがある」、とは言い得て妙だ。「未完成の技術を一般の利用に供してしまったと考えざるをません」、その通りだ。
・『悪貨が良貨を駆逐する危険  もう一つの問題として私が危惧するのは、優勝劣敗の法則が働かず、逆に、悪貨が良貨を駆逐してしまうことです。 生成系AIは 文章を作るコストを激減させます。内容を指定して、「何字程度の文章を書け」と言えば、数秒のうちに文章を出力します。 その内容は信頼できないものなのですが、読者が受け入れれば、世の中に流通するでしょう。 つまり、内容も誤っているし質も低い文章が、大量に生産される危険があるのです。手抜きの文章が世の中に溢れ、その結果、良質の文章が駆逐されてしまうという事態になりかねないのです。 現在のウェブは、すでにそのような状況になってしまっています。それが加速することが懸念されます』、「内容も誤っているし質も低い文章が、大量に生産される危険があるのです。手抜きの文章が世の中に溢れ、その結果、良質の文章が駆逐されてしまうという事態になりかねない」、恐ろしい事態だ。
・『どうやって規制するのか?  仮に規制が必要であるとしても、その実効確保は難しいでしょう。インターネット上の情報に関して、プロファイリング規制の必要性がいわれています。しかし、その実効性はいまだに確保できていません。生成系AIについても同じことが言えるでしょう。 しかも、Microsoftは、生成系AIにすでに巨額の投資をしています。したがって、上記提言に従って生成系AIの開発をストップさせることは、半年間といえども、現実には不可能ではないでしょうか? 他方で、この技術をうまく使えば、新たな価値が生み出されることも間違いありません。問題は、そのような可能性をいかにして実現していくかでしょう。 したがって、利用者が、この技術を無条件で受けるのではなく、賢明に利用することが求められます。 どんな技術であっても、その見かけに騙されず、賢明な利用方法をすることが重要です。生成系AIについては、とりわけそれが重要なのです』、「利用者が、この技術を無条件で受けるのではなく、賢明に利用することが求められます。 どんな技術であっても、その見かけに騙されず、賢明な利用方法をすることが重要です。生成系AIについては、とりわけそれが重要なのです」、その通りなのだろう。
・『いま行政に取り入れても、混乱が広がるだけ?  本稿の最初に述べたように、日本では、アメリカの提言と正反対の 提言がなされました。自民党が 国会答弁の下書きなどにこれを活用するという提言案をまとめたのです。 しかし、この考えには、首を傾げざるをえません。国会答弁作成にAIを活用しようとしても、能率が上がることはなく、かえって混乱が生じる危険が大きいでしょう。 官僚が国会答弁作成のため、深夜までの勤務を強いられています。私自身も(だいぶ昔のことですが)、この仕事にさんざん苦労させられました。 役人がなぜ夜遅くまで役所に残っているのかといえば、それは、資料の収集や分析などに手間がかかるからではありません。 時間がかかる理由は、第1には国会議員からの質問が夜遅くにならないと得られないことです。それまでの間、役人たちは役所でただ待機しているだけです。この状態が改善されない限り、深夜勤務問題は解決しません。 国会答弁作成に時間がかかる第2の理由は、他部局や他省庁との調整が必要なことです。関係する部局の了解を得られないと、最終答弁にはできません。この過程で、AIは何の役にも立ちません。 AIを使えば答弁に必要な資料やデータなどが簡単に得られると考えられているのかもしれませんが、先に述べたように、AIの出力には誤りが含まれています。この状態が改善されずにAIを使えば、大変な混乱が生じるでしょう。 対話型AIに接したときの人々の反応は、普通、つぎのような経過を辿ります。 第1段階として、知的な人間が書いたような文章がすらすらと出力されるのを見て、驚きます。しかし暫く使っていると、その内容が全くあてにならないことに気づきます。これが、第2段階です。 そして、第3段階として、そのような制約を知った上でどのような利用法があるかだろうと模索するようになります。 自民党の提言は、第1段階に止まっているのではないかと考えざるをえません』、「国会答弁作成」に、「時間がかかる理由は、第1には国会議員からの質問が夜遅くにならないと得られないことです。それまでの間、役人たちは役所でただ待機しているだけです」、「第2の理由は、他部局や他省庁との調整が必要なことです。関係する部局の了解を得られないと、最終答弁にはできません。この過程で、AIは何の役にも立ちません」、「対話型AIに接したときの人々の反応は、普通、つぎのような経過を辿ります。 第1段階として、知的な人間が書いたような文章がすらすらと出力されるのを見て、驚きます。しかし暫く使っていると、その内容が全くあてにならないことに気づきます。これが、第2段階です。 そして、第3段階として、そのような制約を知った上でどのような利用法があるかだろうと模索するようになります。 自民党の提言は、第1段階に止まっているのではないかと考えざるをえません」、「自民党の提言は、第1段階に止まっている」とは手厳しい批判だ。同感である。

第三に、4月12日付け読売新聞「チャットGPTの回答「官僚が結局精査」、非公表情報を入力する恐れも…答弁導入に疑問の声」を紹介しよう。
https://www.yomiuri.co.jp/economy/20230412-OYT1T50033/
・『西村経済産業相が11日の閣議後の記者会見で対話型AI(人工知能)「チャットGPT」で国会答弁を作成する可能性に言及したことについて、専門家からは情報管理の安全性を懸念する声や、導入の効果を疑問視する指摘が出ている。 「結局、チャットGPTの回答を官僚が精査しなければならない」。西村氏が検討理由に掲げる「国家公務員の業務負担軽減」について、元官僚の小峰隆夫・大正大客員教授はそんな見方を示した。 小峰氏は、諸外国の制度の調査など、官僚の業務でチャットGPTを使うメリットは多いとしつつ、「公開情報の中から無理やり回答を作り出すことがあり、うのみにするのは危険だ」と指摘。「政府の公式見解を示す国会答弁をチャットGPTに丸ごと委ねることにはなり得ない」と話した。 国立情報学研究所の佐藤一郎教授(情報学)は、「官僚が答弁を作成する上で非公表情報を入力してしまい、チャットGPTの学習に利用され、機密情報が漏えいするリスクがある」と指摘する。 チャットGPTは、オンライン上の大量の情報を読み込んだ上で、指示に対して新たな文章を生成する。誤った内容でも自然な文章のため気づきにくく、偽情報が拡散する恐れがある。 ほかにも、学習データに著作権のある文章が含まれていた場合、表現がその文章と同じだったり、似通ったりして著作権を侵害する可能性がある。学習データによっては、差別や偏見を助長する答えを返す恐れもある。 教育界からも悪影響を懸念する声が相次いでいる。チャットGPTは論文やリポート、読書感想文なども瞬時に生成するためで、名古屋大の杉山直学長は先月27日の卒業式祝辞で「大学の教育の危機といえる状況」と述べた。 東京大など、学生リポートなどでの利用制限方針を示す大学が相次ぐ。上智大は、リポート作成などに無許可でのチャットGPT利用を認めないと学生に通知。同大の担当者は取材に「教育の質の保証や公平性の観点から、生成AIで作成することは、ひょう窃や他人に依頼して作成させる行為と同様に認めることはできない」とした。 文部科学省も今後、教育現場での取り扱いを示す資料を作成する方針だ』、「「小峰氏は」、「公開情報の中から無理やり回答を作り出すことがあり、うのみにするのは危険だ」と指摘。「政府の公式見解を示す国会答弁をチャットGPTに丸ごと委ねることにはなり得ない」と話した。 国立情報学研究所の佐藤一郎教授(情報学)は、「官僚が答弁を作成する上で非公表情報を入力してしまい、チャットGPTの学習に利用され、機密情報が漏えいするリスクがある」と指摘する。 チャットGPTは、オンライン上の大量の情報を読み込んだ上で、指示に対して新たな文章を生成する。誤った内容でも自然な文章のため気づきにくく、偽情報が拡散する恐れがある。 ほかにも、学習データに著作権のある文章が含まれていた場合、表現がその文章と同じだったり、似通ったりして著作権を侵害する可能性がある。学習データによっては、差別や偏見を助長する答えを返す恐れもある。 教育界からも悪影響を懸念する声が相次いる」、同感である。先に取上げた「自民党の提言」は、余りにも能天気で勉強不足が見え見えだ。
タグ:田中道昭氏による「米中が覇権を握る生成AI 人材・資金でかなわない日本」 エコノミストOnline 人工知能(AI) (その14)(米中が覇権を握る生成AI 人材・資金でかなわない日本、イーロン・マスクですらこの危機感 世界でAI開発停止要求 なのに日本では無批判に国会答弁に使用提言!、チャットGPTの回答「官僚が結局精査」 非公表情報を入力する恐れも…答弁導入に疑問の声) 「文章の形で回答するシステムは、ほんの少し前まで、この世に存在しなかった。このレベルにまで達していることに驚きを覚える」、すごい進歩だ。「マイクロソフト」と、「チャットGPT」を扱う「オープンAI」の提携はさすが本格的だ。 「グーグル」は、「今年1月に社内に「非常事態宣言」を発した」、「共同創業者のセルゲイ・ブリン氏は数年ぶりに現場に復帰してAI部門のテコ入れを図るようだ」、「マイクロソフトがグーグルの牙城である検索に踏み込んできたのだから黙ってはいられない。「検索プラス対話型AI」のサービスを遠くない時期に提供できるよう準備を進めている」、「グーグル」の反攻は上手くいくのだろうか。 「中国企業による開発に一つ利点があるとすれば、扱えるデータ量が多いということだろう。欧米はプライバシー重視の必要があるため、使えるデータに制約がかかる可能性がある。中国にはこのような制約がほとんどないことから、AIの精度を上げるために有利に働くと思われる」、「現時点でこの分野に日本の出番はない。人材面、資金面ともにまったく太刀打ちできないのが実情だ」、寂しい限りだ。 参考にすべき警鐘だ。 現代ビジネス 野口 悠紀雄氏による「イーロン・マスクですらこの危機感、世界でAI開発停止要求、なのに日本では無批判に国会答弁に使用提言!」 「日本」は他国に先んじて利用したいというスケベ心が見え見えだ。 「日本」の「提言案」は「自民党がまとめた」ので、本質が理解できないまま「利用」に重点をおいたようだ。 「アメリカでの提言は、「人間と競合する知能を持つAIは、社会や人類に深刻なリスクとなりうる」として、強力なAI開発の半年間の停止を訴えています。 さらに、AI開発者は、「自分たちでさえ理解できないデジタル知性を開発する統制不能な競争に陥っている」と批判しています。 これに署名した1000人以上のテクノロジー関係者の中には、起業家イーロン・マスク氏も含まれています」、 「AIの進歩が社会に与える影響は、きわめて大きいと考えざるをえません。 だから、その開発に規制を加えるべきだというのは、 大変重要な問題提起です 。兵器関係の技術以外の技術に関して、これほど強い危惧の念が表明されたのは、初めてのことではないでしょうか? 生成系AIの潜在力は、それほど大きいのです」、確かにその通りだ。 「自信満々に間違うことがある」、とは言い得て妙だ。「未完成の技術を一般の利用に供してしまったと考えざるをません」、その通りだ。 「内容も誤っているし質も低い文章が、大量に生産される危険があるのです。手抜きの文章が世の中に溢れ、その結果、良質の文章が駆逐されてしまうという事態になりかねない」、恐ろしい事態だ。 「利用者が、この技術を無条件で受けるのではなく、賢明に利用することが求められます。 どんな技術であっても、その見かけに騙されず、賢明な利用方法をすることが重要です。生成系AIについては、とりわけそれが重要なのです」、その通りなのだろう。 「国会答弁作成」に、「時間がかかる理由は、第1には国会議員からの質問が夜遅くにならないと得られないことです。それまでの間、役人たちは役所でただ待機しているだけです」、「第2の理由は、他部局や他省庁との調整が必要なことです。関係する部局の了解を得られないと、最終答弁にはできません。この過程で、AIは何の役にも立ちません」、「対話型AIに接したときの人々の反応は、普通、つぎのような経過を辿ります。 第1段階として、知的な人間が書いたような文章がすらすらと出力されるのを見て、驚きます。しかし暫く使っていると、その内容が全くあてにならないことに気づきます。これが、第2段階です。 そして、第3段階として、そのような制約を知った上でどのような利用法があるかだろうと模索するようになります。 自民党の提言は、第1段階に止まっているのではないかと考えざるをえません」、「自民党の提言は、第1段階に止まっている」とは手厳しい批判だ。同感である。 読売新聞「チャットGPTの回答「官僚が結局精査」、非公表情報を入力する恐れも…答弁導入に疑問の声」 「「小峰氏は」、「公開情報の中から無理やり回答を作り出すことがあり、うのみにするのは危険だ」と指摘。「政府の公式見解を示す国会答弁をチャットGPTに丸ごと委ねることにはなり得ない」と話した。 国立情報学研究所の佐藤一郎教授(情報学)は、「官僚が答弁を作成する上で非公表情報を入力してしまい、チャットGPTの学習に利用され、機密情報が漏えいするリスクがある」と指摘する。 チャットGPTは、オンライン上の大量の情報を読み込んだ上で、指示に対して新たな文章を生成する。誤った内容でも自然な文章のため気づきにくく、偽 情報が拡散する恐れがある。 ほかにも、学習データに著作権のある文章が含まれていた場合、表現がその文章と同じだったり、似通ったりして著作権を侵害する可能性がある。学習データによっては、差別や偏見を助長する答えを返す恐れもある。 教育界からも悪影響を懸念する声が相次いる」、同感である。先に取上げた「自民党の提言」は、余りにも能天気で勉強不足が見え見えだ。
nice!(0)  コメント(0) 
共通テーマ:日記・雑感