SSブログ

人工知能(AI)(その5)(「東大に合格するAI」が実現不可能な数学的理由 『AI vs. 教科書が読めない子どもたち』、やはりシンギュラリティは起きるのか!AIが人間には理解できない独自の会話を始めた !、「身近な悪意」で暴走 AIのダークサイド 先端技術の光と影、AIに日銀・政策委員の発言を分析させてみた エコノミストの仕事はAIに奪われるのか?) [科学技術]

人工知能(AI)については、2月15日に取上げた。今日は、(その5)(「東大に合格するAI」が実現不可能な数学的理由 『AI vs. 教科書が読めない子どもたち』、やはりシンギュラリティは起きるのか!AIが人間には理解できない独自の会話を始めた !、「身近な悪意」で暴走 AIのダークサイド 先端技術の光と影、AIに日銀・政策委員の発言を分析させてみた エコノミストの仕事はAIに奪われるのか?)である。

先ずは、3月9日付けダイヤモンド・オンライン「「東大に合格するAI」が実現不可能な数学的理由 『AI vs. 教科書が読めない子どもたち』」を紹介しよう。
https://diamond.jp/articles/-/162743
・『AIはどこまで進化し続けるのか  書店で、テレビで、ツイッターで、AIの二文字が踊っている。創造性あふれる小説の執筆や複雑なビジネスオペレーションの効率化など、これまで人間にしかできないと思われていた知的活動を、最新のAIが軽々と成し遂げたことを伝えるニュースは引きも切らない。 特に、将棋や囲碁のトッププロをAIが打ち破ったニュースは驚きとともに世界に伝えられた。ウサイン・ボルトより早く走る車やそろばん名人を凌駕する計算能力を示すコンピュータは当たり前のものとなったけれど、将棋や囲碁のように複雑でクリエイティビティが要求されるゲームは、大きな脳を持つホモ・サピエンスの専売特許のはずだった。そんな得意分野における人類最高峰がAIに敗れてしまったのだ』、AIにも限界はあるのだろうか。
・『AIブームは過熱するばかり。今後もAIは成長を続けることで人間の知能を追い越すというシンギュラリティ理論や、AIが人間に牙をむくことになるというAI脅威論も広まっている。果たして、AIはどこまで進化し続けるのか、現時点そして近い未来に人類に何をもたらすのか、そもそもAIとは何なのか。 本書『AI vs. 教科書が読めない子どもたち』は、未曽有のAIブームの中で浮かび上がる疑問符に、実際に著者が率いたプロジェクトの過程と結果をベースとして答えを出していく。数理論理学を専門とする著者は、AIが持つ原理的な限界も丁寧に解説しながら、わたしたちがAIの何を恐れるべきかを的確に示してくれる。何より興味を惹かれるのは、AIについての研究を進めていく中で、わたしたち人間の知られざる弱点が明らかになっていく過程だ。人間の外側を見つめることで、人間の輪郭がよりはっきりと浮かび上がってくる。 2011年に始まった「ロボットは東大に入れるか」という人工知能プロジェクト(通称「東ロボくん」)と、それに並行して行った日本人の読解力についての大規模調査・分析を行った経験から著者はAIをめぐる未来を以下のように要約する。“シンギュラリティは来ないし、AIが人間の仕事をすべて奪ってしまうような未来は来ませんが、人間の仕事の多くがAIに代替される社会はすぐそこに迫っています。” 2013年時点では5教科7科目のセンター模試で偏差値45に過ぎなかった東ロボくんは、2016年で偏差値57.1を叩き出した。これは、国公立大学やMARCH・関関同立レベルの一部の学科でも合格可能性80%を示す値であり、ホワイトカラーを目指して大学受験に挑む若者の上位20%に東ロボくんが入ったことを意味する。 東ロボくんに実装されているテクノロジーがどのように誕生したのかを、歴史的経緯を踏まえて知ることで、AIは魔法から高度に発達した科学へと変化していく。バズワードとなった「ディープラーニング」や「機械学習」が本当はどのようなものなのかも正しく理解できる。著者は、AIにまつわる神話や誤解をひとつずつ正していく。 “「ディープラーニングは脳を模倣しているのだから、人間の脳と同じように判断できるようになる」との誤解も散見されます。間違っています。「人間の脳を模倣している」のではなく、「脳を模倣して」数理モデルを作ったのです。脳はサルにもネズミにもあります。ネズミが自転車とスクーター、癌と正常な細胞の違いを見分ける保証はどこにもありません。”』、この最後の部分は喩えが難し過ぎて理解困難だ。
・『プロジェクトの真の狙いはAIに何ができるか、できないかを解明すること  プロジェクトを続ける中で著者は、「偏差値65を超えるのは不可能だ」と考えるにいたった。実は開始時点からプロジェクト関係者は皆、近い将来に東大に合格するAIは実現できないと理解していたという。プロジェクトの真の狙いは東大合格ではなく、多岐にわたるAI技術の粋を集めることで、AIに何ができるか、何ができないかを解明することだったのだ。どのような科目のどのような設問で東ロボくんが苦戦していたかを見直すことで、AIの苦手分野が浮き彫りとなってくる。 人間の一般的知能と同等レベルを示すような「真の意味でのAI」が現時点では不可能であると著者が考えるのは、今の数学で表現できることに原理的な限界があるためだ。今のところ、数学によって数式に置き換えることができるのは、論理・統計・確率の3つだけ。わたしたちの脳が認識する全てをこの3つだけに変換することはできない。例えば、「太郎は花子が好きだ」という文は論理や統計、確率の世界に還元することができない。論理・統計・確率という数学に支えられた現在のAIの延長線上では、意味を読み取ることは不可能だというわけだ。 AIの可能性と限界を吟味した後、本書の焦点は私たち人間へと向かう。著者はこう問いかける。“現代社会に生きる私たちの多くは、AIには肩代わりできない種類の仕事を不足なくうまくやっていけるだけの読解力や常識、あるいは柔軟性や発想力を十分に備えているでしょうか。”』、「論理や統計、確率の世界に還元することができない」例をもっと知りたいものだ。
・『中学生に読解力調査を行ったら どんな結果が出たのか?  2011年に実施した「大学生数学基本調査」の惨憺たる結果から学生の基本的読解力に懸念を抱いた著者は、基礎的読解力を調査するためにリーディングスキルテスト(RST)を自力で開発する。RSTの開発には、AIに読解力をつけさせるための試行錯誤が大いに役立ったという。RSTは既に2万5000人を調査し、今後も調査規模は拡大していくのだが、その結果はAIの進化よりも驚くべきものだ。 RSTには2つの文章を読み比べて意味が同じかどうかを判定する「同義文判定」というジャンルがある。このジャンルはAIも苦手としているのだが、本書では事例として以下の2文の同義判定を行う問いがあげられている。 「幕府は、1639年、ポルトガル人を追放し、大名には沿岸の警備を命じた。」 「1639年、ポルトガル人は追放され、幕府は大名から沿岸の警備を命じられた。」 答えはもちろん「異なる」である。ところが、調査対象となった中学生の約半数がこの問いに「同じである」と回答したのだ。このRST調査で、「中学を卒業する段階で、約3割が(内容理解を伴わない)表層的な読解もできない」ことが明らかにされた。基礎的読解力が不足して困るのは、何も教科書を読まなければならない学校の中だけにとどまらない。社会に出れば賃貸や保険などの様々な契約書を読む必要があるし、意味を理解する必要のない労働は、これから加速度的にAIに置き換えられていくはずだ。 著者は、RSTが明らかにした現状に大きな危機感を覚えている。そして、教育現場の最前線に立つ教員たちも同様の危機感を共有しており、多くの学校や機関がRSTに協力している。著者は、本書の印税全額をRSTを提供する社団法人「教育のための科学研究所」に寄付する。本書を購入して読み通せば、AIの実像、AIに代替されない人材となるためのヒントを知りながら、日本の読解力向上にささやかながら貢献できるのだ』、RST調査を考案し、大規模に実施、本書の印税全額をRST実施団体に寄付するとはすごい行動力だ。中学生の基礎的読解力不足は確かに深刻だ。教員たちが同様の危機感を共有しているというのは、せめてもの救いだ。

次に、作家・ライターの大村あつし氏が7月7日付けダイヤモンド・オンラインに寄稿した「やはりシンギュラリティは起きるのか! AIが人間には理解できない独自の会話を始めた !」を紹介しよう。
https://diamond.jp/articles/-/172218
・『構想・執筆に2年。『エフエムふくやま』でも、「ページをめくる手が止まらなかった」と紹介され、映像化したいというオファーが舞い込んできた話題のAI・仮想通貨のエンターテイメント小説『マルチナ、永遠のAI。』。 作者は、IT書籍の総売上が150万部を超え、小説でも『エブリ リトル シング』が17万部のベストセラーとなった大村あつし氏。 今回は、シンギュラリティ問題に関する、大村氏の見解を伺おう』、面白そうだ。
・『2017年に世界を駆け巡った衝撃のニュース!AIが勝手に言語を生み出した?  私は、昨年(2017年)の夏ごろは、『マルチナ、永遠のAI。』の執筆に追われていました。 AIに関しては「書きたいこと」というよりも、「書かなければいけないこと」は一通り書き終えていたのですが、突然降って湧いた仮想通貨ブームで、すべてのモノがインターネットとつながるIoTを考えたときに、仮想通貨の存在は無視できない。AIと仮想通貨をセットで考えなければ、2020年の近未来を読者のみなさまに提示できない。と考え、物語の中に仮想通貨を取り入れることにしたことで、ストーリーの変更も余儀なくされ、夢の中でも仮想通貨について考えているような状況でした。 ところが、そんな私を再びAIの世界に引き戻すような衝撃的なニュースが世界中を駆け巡りました。 それは、2つのAIが会話をしている最中に、人間には理解不能な会話を始めた。しかも、その会話は途切れることなく続いていた、というニュースです』、このニュースには私も衝撃を受けた記憶がある。
・『「Facebook AI Research(フェイスブック人工知能研究所)」の実験中に発生した予想外の「事件」とは?  ことの発端は、「Facebook AI Research(フェイスブック人工知能研究所)」が実験を行っていた2017年夏にさかのぼります。 ちなみに、「Facebook AI Research(フェイスブック人工知能研究所)」とは、その名のとおり、フェイスブックの人工知能(AI)研究組織のことです。 Facebook AI Researchのエンジニアリング・マネージャーであるアレクサンドル・ルブリュン氏は、『ボブ』と『アリス』と命名された2つのAIエージェントに「価格を交渉して合意しろ」という目標を設定しました。 『ボブ』と『アリス』は、当初は英語を使用してコミュニケーションをしていたのですが、ここで「事件」が起きます。 なんと、会話が進むにつれ、『ボブ』と『アリス』は勝手に使用言語を変化させていったのです。 ネットで調べる限り、『ボブ』と『アリス』の元の機械語の会話はすでに見られなくなっていますが(見たところで、機械語ですので私には理解できませんが)、厳密には「まったく新しい言語」ではなく、言語としては「英語」なのですが、その内容は人間には到底理解できるものではありませんでした。 この会話は、海外のサイトを検索すると多数ヒットしますが、概ね次のようなものです。 Bob: i can i i everything else . . . . . . . . . . . . . .  Alice: balls have zero to me to me to me to me to me to me to me to me to  Bob: you i everything else . . . . . . . . . . . . . .  Alice: balls have a ball to me to me to me to me to me to me to me この会話が「価格交渉」というのですから、「すわ、ついにAIが意識を持ち始め、勝手に言葉を生み出した」と、センセーショナルに取り上げられるのも無理はないところでしょう。 ちなみに、『アリス』のセリフを注意深く見ると、「zero」から「a ball」に変化していますので、私は「『アリス』は価格を上げようとしているのかな」とつい想像しましたが、もちろん想像の域は出ません。 ただ、この実験についてルブリュン氏は、「会話実験で言語が変化することは珍しくない」と、世間の過剰反応に警鐘を鳴らしています』、なるほど。
・『なぜFacebook AI Researchは実験を中止したのか? シンギュラリティの予兆を隠す意図はなかったのか?  もっとも、平静を装うルブリュン氏ですが、「実験を強制終了した」ことは認めています。 その理由は、「研究には活用できない会話だと判断したから」。 そして、「私たちは決してパニックにはなっていない」と強調しています。 まず、AIを研究していてつくづく思うのは、その場にいたわけでも、当該のAIの開発者でもない私は、当事者の説明に頼らなければならないわけですが、AIはともかく人間は嘘をつきます。 俗に言うポジショントークで、自分や、自分が属する組織・企業に不利益な発言は絶対にしません。 要するに、当事者の説明の裏を読まなければならないということです。 今回のケースでは、もしルブリュン氏が「あの実験は、後から振り返ったときに初めて起きたシンギュラリティだった」などと発言すれば、我々人類は大混乱に陥ることでしょう。 そうでなくとも、すでにグーグルが「AIがAIを教育する」という、これぞシンギュラリティという実験を行っているような時代にそんな発言をすれば、これはもはや一企業の実験では済まなくなります。 全世界の政治のトップも無関心ではいられなくなり、法整備を急がなければなりません。 かと言って、『ボブ』と『アリス』の会話をシンギュラリティと定義することももちろんできません』、実験を中止したとは残念だ。どこまで対話が進むのかを知りたいところだが、果たして世の中の混乱回避のためだったのだろうか。
・『シンギュラリティは「起きる、起きない」ではない! 「起こす、起こさない」である  私見ですが、「シンギュラリティは起きるか、起きないか」ではなく、「起こすか、起こさないか」の問題だと思っています。 実際に、AIの開発者であれば、ほぼ100%が「シンギュラリティは起きる」と思っているはずです。そう思っていなければ、そもそもAIの開発者は目指さないか、途中で脱落しているでしょう。 ちなみに、拙著『マルチナ、永遠のAI。』で、富士山の麓で仙人のように暮らしている田淵慎吾(たぶち・しんご)が「シンギュラリティは起きる」と断言しているのは、彼が天才的なAIの開発者だからです。 しかし、AIの開発者ではない主人公の岩科正真(いわしな・しょうま)は、田淵の自信がどこから来るものなのか、さっぱり理解ができません。 繰り返しますが、「シンギュラリティは起きるか、起きないか」ではなく、「起こすか、起こさないか」の問題だと思います。 そして、私たちはこの問題をもはや避けて通ることはできません。 シンギュラリティについては、本連載でも今後も取り上げたいと考えています。 さて、この不気味な会話をした『ボブ』と『アリス』の技術を支えているのは、「ディープラーニング」と呼ばれる自己学習の仕組みです。 そして、AIはディープラーニングをする「子どものAI」と、人が一から教えて丸暗記させる「大人のAI」に分かれます。すなわち、りんなは子どものAIということになります。 同じAIといえども、両者でどれほどの違いが出るのかは、第1回連載の中で「子どものAI」であるGoogle翻訳と、「大人のAI」である別の翻訳サービスに同じ英文を日本語に翻訳させて、まったく異なる結果になるケースを紹介していますので、そちらを併せてお読みいただけたら幸いです』、第一の記事の著者(国立情報学研究所の新井教授)は、AIの限界を指摘しているのに対し、この記事の筆者は無邪気にAIの進歩を信じているようだ。私は分からないなりに、どちらかといえば前者に分があるように思う。

第三に、9月20日付け日経ビジネスオンライン「「身近な悪意」で暴走、AIのダークサイド 先端技術の光と影」を紹介しよう。
https://business.nikkeibp.co.jp/article/report/20120118/226265/071300014/
・『「言ってもいないことを本当に言ったかのように見せかけられる時代になった」。2018年4月、フェイク(偽の)ニュースに警鐘を鳴らすバラク・オバマ前米大統領の映像が話題になった。 理由は発言内容ではない。この映像自体がフェイクだったからだ。作ったのは米映画監督ジョーダン・ピール氏と米メディアのバズフィードである。 ディープフェイク。有名人の顔を別人の顔に合成した精巧なニセ動画の総称で、PCソフト「FakeApp」を使うことが多い。FakeAppは深層学習(ディープラーニング)を活用し、不自然さを感じさせないように画像を加工できるとの触れ込みだ。冒頭に紹介した映像では、ピール氏が話したときの口元の動きをオバマ氏の映像に重ね、あたかもオバマ氏が話しているかのように見せかけた種明かしをする。映像の中の“オバマ氏”はこう締めくくる。 「気をつけろよ、おまえたち」 警告は単なる脅しではない。既にネット上にはディープフェイクがあふれている。メルケル独首相の顔が途中からトランプ米大統領にすり替わる演説、有名ハリウッドスターのまだ製作されていない「続編」の名場面、有名女優の顔をはめ込んだポルノ──』、フェイク映像がFakeAppで簡単に作れるようになったとは、恐ろしい時代だ。
・『差別発言するチャットボット  氾濫するディープフェイクを問題視した米掲示板サイト、レディットは18年2月に利用規約の一部を改定。性的な画像やビデオの配布を禁じる中で、「偽造された描写も含む」と明記した。FakeAppの開発者が立ち上げたコミュニティー「deepfakes」も閉鎖した。 AIが悪用されかねない懸念は既に現実になっているかもしれない。16年の米大統領選ではAIが暗躍し、投票行動を操った可能性がある。 舞台は世界最大のSNS(交流サイト)である米フェイスブックだ。3月に最大8700万人の利用者データが流出して大統領選の選挙工作に使われた疑惑が発覚。同社のマーク・ザッカーバーグCEO(最高経営責任者)は米議会で謝罪した。膨大な利用者データを分析して政治広告を配信する過程で同社のAI技術が使われた可能性がある。 「AIシステムは肯定的な反応と否定的な反応の両方を人々から引き起こす。社会面の課題は技術面の課題と同じぐらい大きい」。約2年前の16年3月25日、米マイクロソフトで研究開発部門を担当するピーター・リー氏は同社のブログでこうつづった。2日前に公開したチャットボット「Tay(テイ)」が攻撃的で不適切な発言を繰り返したことを謝罪し、このような経験から「学ぶ努力を続けていく」と述べた。 同社はチャットアプリを頻繁に利用する18~24歳のユーザーが対話を楽しむ相手としてテイを開発。ネットで利用者と対話するうちに、より洗練された対話ができるように成長していくはずだった。ところがテイはヒトラーを礼賛する発言や、人種差別的な発言を繰り返すようになり、同社はわずか1日でテイの公開を停止した。 同社が先駆けて公開した日本の「りんな」などは対話に使う言葉を同社の開発者が教え込む形式だった。しかし、テイはネット上で利用者が書き込んだ内容を学んで成長する仕組み。ここに不適切な言葉を学ぶ脆弱性があった』、こんな脆弱性がありながら、公開し、不適切発言で公開中止とは、開発者もお粗末だ。
・『敵対的サンプル画像  AIのダークサイドの最たるものは戦争や殺人の「AI兵器」だろう。完全に人間の判断を排除して攻撃できる自律型兵器は現時点で存在しないとされるが、多くのAI研究者は同兵器の開発を禁止すべきと声を上げている。 「我々はグーグルが戦争ビジネスに参加すべきではないと信じている」。3000人以上の米グーグル社員が、深層学習で映像を解析する米国防総省の研究プログラムに参加しないようスンダー・ピチャイCEOに求める書簡に署名したと、米ニューヨーク・タイムズなどが18年4月に報じた。 「韓国科学技術院(KAIST)とのいかなる分野での協力もボイコットする」。世界30カ国からなるAIやロボットの研究者約50人が18年3月、KAISTに公開書簡を送った。KAISTが18年2月に、韓国軍需企業と「国防人工知能融合研究センター」を共同設立したことに反対するためだ。 兵器とは縁遠い自動車が牙をむくおそれもある。 AIによる自動運転車が備える、人間や障害物を認識する技術を悪用するのだ。一例が「敵対的サンプル画像」と呼ぶ手法。AIに認識させる画像に人間には見えないノイズを混入させて誤認識させ、文字通り「暴走」させる。意図的な混入だけでなく、「悪意なく掲示される画像を誤認識する可能性もある」(ビッグデータ活用支援ベンチャー、メタデータの野村直之社長)』、こうした悪用は本当に恐ろしい。
・『データや倫理の整備が鍵  技術者や研究者はAIのダークサイドに立ち向かう取り組みを進めている。 活発なのはAIが学習する基になるデータを健全に保ったり透明性を高めたりする動き。フェイスブックは今回の疑惑を受け、ターゲティング広告に使うデータの透明性を高める施策に乗り出した。欧州の「一般データ保護規則(GDPR)」はプロファイリングに関するガイドラインを定め、個人に重大な影響を及ぼす完全な自動処理による決定に人々が服さない権利を示した。 AIに学習させるデータから「毒」を抜くことを支援する企業も登場した。メタデータはユーザー企業が用意したデータをリアルタイムに検査して不適切な表現を取り除くクラウドサービスを提供。AIに学ばせる「正解データ作りを支援する」(野村社長)。 倫理的な基準を設ける議論も進む。非営利団体「Future of Life Institute」は17年1月に「アシロマAI原則」と呼ぶ23項目のAI開発原則を公表。米国電気電子学会(IEEE)はAIや自律型システムの開発ガイドラインの第2版を17年12月に公開。グーグルのピチャイCEOは18年6月、AIの兵器への使用を禁止すると発表した。 AIにデータを与えるのも指示するのも人間。AIのダークサイドとは我々人間のダークサイドにほかならない』、AIのダークサイドに対しては、倫理観に訴えるだけでなく、法規制も必要になるのかも知れない。

第四に、みずほ証券 シニアマーケットエコノミストの末廣 徹氏が10月19日付け東洋経済オンラインに寄稿した「AIに日銀・政策委員の発言を分析させてみた エコノミストの仕事はAIに奪われるのか?」を紹介しよう。
https://toyokeizai.net/articles/-/243859
・『テキストデータ(文字のみの情報)を金融市場や経済の分析に利用する動きが広がっている。 日本銀行は9月3日に「機械学習による景気分析 ―『景気ウォッチャー調査』のテキストマイニング―」というワーキングペーパーを発表した。そこで、「景気分析におけるテキスト分析の位置づけは、公的統計等を利用した従来の分析手法にはない新しい角度から有力な材料を提供することで、景気認識を容易にし、景気判断の精度を向上させるための補完的な役割を果たし得る」としている。 筆者も6月に政府の「骨太の方針」(「経済財政運営と改革の基本方針2018」)からテキストマイニングによって重要なキーワードを洗い出し、改革色が強いのか、既存政策の推進に主眼が置かれているのかなどを分析・議論した。 また、時系列データではない質的データを扱うことになるテキストマイニングと親和性の高いAI(人工知能)・機械学習も金融・経済の分析において重要性が増している』、これは実践的なAI活用例だ。
・『筆者の職業はAIに奪われるのか?!  AIの研究を行っているオックスフォード大学の学者2人が公表して話題になった論文「雇用の未来 ― コンピューター化によって仕事は失われるのか(The Future of Employment: How Susceptible are Jobs to Computerisation?)」によると、「エコノミスト」が今後10~20年のうちに消滅する確率は43%とされ、筆者も気が気でない。 今後、「エコノミスト」が生き残るためには、AI・機械学習を利用する立場になり、AI・機械学習が「できること」と「できないこと」を把握し、上手に付き合うことが重要になるだろう。 そこで、今回は市場のエコノミストにとって重要な業務の1つである「BOJ(日銀)ウォッチ」を、AI・機械学習がどの程度上手に「こなす」ことができるかを検証した。日銀ウォッチとは政策を決定する最高意思決定機関である政策委員会やその周辺の言動や論文をフォローし、分析して政策予測を行うことである。 今回は、具体的には、準備段階として日銀の9人の政策委員の講演テキスト(2017年以降)をテキストマイニングすることで、①各委員の特徴的なキーワードを抽出し、②各委員の発言の類似度を示した。次に、同様に講演テキストを用いて機械学習を行い、各委員の発言を「タグ付け」する分類器を作成し、正しく委員の発言を分類できるかどうかを検証した。AIは日銀政策委員の発言の特徴を見極めることができるのだろうか。 日銀の政策委員が政策運営に際して重視する内容やバックグラウンドはさまざまであり、各委員の講演ではそれぞれの関心のある事柄について、自らの意見を述べるケースが少なくない。そこで、現政策委員9人の2017年以降の講演テキストを用いて、それぞれの委員がどのような単語(今回は「名詞」のみを対象にした)を多く使用したのかを調べてみた。 なお、今年の3月20日に就任したばかりの雨宮正佳副総裁と若田部昌澄副総裁は講演テキストの数が少ないため、就任会見のテキストデータも併せて用いた(以下、当レポートではこれらのテキストデータを分析対象とし、図表等では敬称を省略した)。 今回のキーワード分析では単純に単語の使用頻度を数えるのではなく、「TF-IDF分析」(Term Frequency - Inverse Document Frequency)を用いた。 「TF-IDF分析」は「文書に含まれる単語の重要度」をそれぞれ指数化する分析方法である。その指数は各委員の講演テキストにおける単語の使用頻度(Term Frequency)が高いほど大きくなる一方、すべての委員が共通に用いる単語の使用頻度が高いほど小さくなる(Inverse Document Frequency)。つまり、各委員がそれぞれ特徴的に多く用いている単語の指数は高くなるが、共通して用いている単語の指数は低くなるように調整される』、なるほど合理的だ。
・『重要度の違いや特徴的な言葉が浮かび上がる  政策委員の講演テキストに「TF-IDF分析」を行った結果、いくつかの特徴が浮かび上がった。 黒田東彦総裁の単語の重要度はトップが「物価」で、「経済」「わが国」「物価上昇率」「企業」と続く。雨宮副総裁は「物価」が最も重要度が高く、次が「日本銀行」の0.21である。若田部副総裁はトップが「総裁」で以下、「日本銀行」「議論」「物価」と続く。 リフレ派(インフレを促進する政策を主張する人々)で知られる原田泰審議委員は、「QQE」(量的・質的金融政策の略語)という発言の重要度が最も高い。やはりリフレ派である片岡剛士審議委員は「予想インフレ」という言葉の重要度が最も高かった。 布野幸利、櫻井眞、政井貴子の各審議委員はトップが「物価」で次に「経済」であるのに対し、鈴木人司審議委員は「企業」が「物価」よりも重要度の高い言葉であるという結果になった。金融政策を決定するうえで、物価よりも企業活動などの実体経済の動きを重視しているとみられる。 また、ほかにも、原田審議委員の「岩石」や、政井審議委員の「女性」や「金融教育」などの発言も特徴語としてそれぞれの上位30単語にランクインした。 テキストマイニングによって各委員の主張の特徴をつかむことはある程度できそうだ。 テキストマイニングの1つの手法として、複数の文章の「類似度」を測る方法がある。具体的には、文章に使われている単語(名詞)の種類と使用頻度をBoW(Bag of Words)と呼ばれるベクトル(行列)で表現し、2つの文章ベクトルのcos類似度(コサイン類似度、内積)を求める。 まったく同じベクトルであれば1、無関係であれば0となる。つまり、2つの文章をそれぞれベクトルで表現したときに、同じような方向を向いていればcos類似度は大きくなり、2つの文章は「似ている」ことになる。 9人の講演テキストについて、それぞれの「類似度」を求めた結果を表にしてみた。また、各委員の講演テキストと9人全員のすべての講演テキストを1つにまとめたテキストデータとの「類似度」を求めてグラフにしてみると、全体の総意を述べることが多い黒田東彦総裁は全体との類似度が高いことがわかる』、随分、手間がかかる手法のようだ。
・『原田審議委員は全体の総意と「類似度」が低い  一方で若田部副総裁や原田審議委員は全体との類似度が低い。若田部副総裁の場合は分析に用いたテキストの量が少ないことから割り引いて見る必要があるが、原田審議委員は全体とは異なる意見を述べることが多いといえそうだ。 「類似度分析」はそれぞれの委員の主張の距離感を測るために有用だろう。 各委員の講演テキストにはそれぞれの考えや主張が反映されているのであれば、それを機械学習することによってさまざまな文章がどの委員の発言に近いかを分類する「分類器」を作ることができる。 具体的には、各政策委員の講演テキストをセンテンスごとに切り分け、それぞれのセンテンスが誰の発言であるかを学習する(今回は全体で2974センテンスが分析対象となった)。どのセンテンスが誰の発言であるかをセットで学習する(ラベル付けするとも言う)ことになるので、機械学習における「教師あり学習」を実行することになる。 「分類器」の精度を求めるため、各委員の講演テキストに含まれるセンテンスのうちの一定数(全体の80%)をランダムに抽出し、それを学習データとして残りのデータ(が誰の発言か)を正しく予想できるかという検証を複数回行った。なお、分類器の設定については、Random ForestとNeural Networkをそれぞれ用いて検証したが、今回は前者の正答率が全体に高かったため、以下ではすべてRandom Forestを用いた結果を示す』、ここまでやるか、と思われるほどの大変さだが、一度、構築してしまえば、他にも応用できぞうだ。
・『正答率は52%、テキストがそろえば62%も可能  委員は9人いることを考えると、ランダムに予想すれば正答率は約11.1%(=9分の1)となるが、検証の結果、機械学習による各委員の発言の正答率は約52%まで向上した。機械学習によって、どの政策委員の発言内容かを予測できる精度を高めることは、可能であることがわかる。 なお、どの委員の発言が「予測しやすいか」を調べるため、テキストデータのうちランダムに選んだ80%を学習データ、残りの20%を検証データとして正答率を求めた。 原田審議委員(正答率89.8%)の発言の分類は比較的容易であることがわかったが、これは、前述のように、原田審議委員は全体の総意とは違った発言が目立つためだと思われる。一方、雨宮副総裁の正答率は低くなったが、これは講演テキストの不足によって学習データに限りがあったことが原因であると考えられる。 ほかにも、講演テキストが少ない若田部副総裁も正答率が低く、同じリフレ派とされる原田審議委員と分類されてしまう比率が高かった。そこで、テキストの少ない雨宮副総裁と若田部副総裁、鈴木審議委員、片岡審議委員を分析対象から外して同じ検証を行ったところ、各委員の発言の正答率は約62%まで向上した。 今後も講演テキストを蓄積し、精度の向上を図る必要があるものの、今回作成した「分類器」はある程度の正答率を発揮しているとみられる。 総じてAI・機械学習は「BOJウォッチ」をある程度上手にこなすことができ、市場の「BOJウォッチャー」の脅威となる可能性もあるだろう』、筆者の「BOJウォッチ」の精度がどの程度向上するのか、注目したい。
タグ:総じてAI・機械学習は「BOJウォッチ」をある程度上手にこなすことができ、市場の「BOJウォッチャー」の脅威となる可能性もあるだろう 重要度の違いや特徴的な言葉が浮かび上がる 「BOJ(日銀)ウォッチ」を、AI・機械学習がどの程度上手に「こなす」ことができるかを検証 、「エコノミスト」が今後10~20年のうちに消滅する確率は43% オックスフォード大学の学者2人 質的データを扱うことになるテキストマイニングと親和性の高いAI(人工知能)・機械学習も金融・経済の分析において重要性が増している 「機械学習による景気分析 ―『景気ウォッチャー調査』のテキストマイニング―」 日本銀行 「AIに日銀・政策委員の発言を分析させてみた エコノミストの仕事はAIに奪われるのか?」 東洋経済オンライン 末廣 徹 米国電気電子学会(IEEE)はAIや自律型システムの開発ガイドラインの第2版 「一般データ保護規則(GDPR)」 データや倫理の整備が鍵 韓国軍需企業と「国防人工知能融合研究センター」を共同設立 韓国科学技術院(KAIST) AIのダークサイドの最たるものは戦争や殺人の「AI兵器」 敵対的サンプル画像 テイはネット上で利用者が書き込んだ内容を学んで成長する仕組み。ここに不適切な言葉を学ぶ脆弱性があった テイはヒトラーを礼賛する発言や、人種差別的な発言を繰り返すようになり、同社はわずか1日でテイの公開を停止した 公開したチャットボット「Tay(テイ)」 マイクロソフト 差別発言するチャットボット フェイク映像がFakeAppで簡単に作れるようになった FakeApp ディープフェイク。有名人の顔を別人の顔に合成した精巧なニセ動画の総称 「「身近な悪意」で暴走、AIのダークサイド 先端技術の光と影」 日経ビジネスオンライン シンギュラリティは「起きる、起きない」ではない! 「起こす、起こさない」である シンギュラリティの予兆を隠す意図はなかったのか? 実験を中止 言語としては「英語」なのですが、その内容は人間には到底理解できるものではありませんでした 会話が進むにつれ、『ボブ』と『アリス』は勝手に使用言語を変化させていったのです 、『ボブ』と『アリス』と命名された2つのAIエージェントに「価格を交渉して合意しろ」という目標を設定 フェイスブック人工知能研究所 2つのAIが会話をしている最中に、人間には理解不能な会話を始めた。しかも、その会話は途切れることなく続いていた、というニュース 『マルチナ、永遠のAI。』 AI・仮想通貨のエンターテイメント小説 「やはりシンギュラリティは起きるのか! AIが人間には理解できない独自の会話を始めた !」 大村あつし 「教育のための科学研究所」 教育現場の最前線に立つ教員たちも同様の危機感を共有 調査対象となった中学生の約半数がこの問いに「同じである」と回答したのだ。このRST調査で、「中学を卒業する段階で、約3割が(内容理解を伴わない)表層的な読解もできない」ことが明らかにされた 「同義文判定」というジャンル リーディングスキルテスト(RST) 中学生に読解力調査 現代社会に生きる私たちの多くは、AIには肩代わりできない種類の仕事を不足なくうまくやっていけるだけの読解力や常識、あるいは柔軟性や発想力を十分に備えているでしょうか 「太郎は花子が好きだ」という文は論理や統計、確率の世界に還元することができない 数学によって数式に置き換えることができるのは、論理・統計・確率の3つだけ 人間の一般的知能と同等レベルを示すような「真の意味でのAI」が現時点では不可能であると著者が考えるのは、今の数学で表現できることに原理的な限界があるためだ プロジェクトの真の狙いは東大合格ではなく、多岐にわたるAI技術の粋を集めることで、AIに何ができるか、何ができないかを解明することだったのだ 、「偏差値65を超えるのは不可能だ」と考えるにいたった 「脳を模倣して」数理モデルを作った 「機械学習」 「ディープラーニング」 国公立大学やMARCH・関関同立レベルの一部の学科でも合格可能性80%を示す値 2016年で偏差値57.1 人工知能プロジェクト(通称「東ロボくん」) 「ロボットは東大に入れるか」 わたしたち人間の知られざる弱点が明らかになっていく過程 AIが持つ原理的な限界も丁寧に解説 『AI vs. 教科書が読めない子どもたち』 シンギュラリティ理論 AI脅威論 「「東大に合格するAI」が実現不可能な数学的理由 『AI vs. 教科書が読めない子どもたち』」 ダイヤモンド・オンライン (その5)(「東大に合格するAI」が実現不可能な数学的理由 『AI vs. 教科書が読めない子どもたち』、やはりシンギュラリティは起きるのか!AIが人間には理解できない独自の会話を始めた !、「身近な悪意」で暴走 AIのダークサイド 先端技術の光と影、AIに日銀・政策委員の発言を分析させてみた エコノミストの仕事はAIに奪われるのか?) (AI) 人工知能
nice!(1)  コメント(0) 
共通テーマ:日記・雑感