SSブログ

人工知能(AI)(その2)(人工知能は哲学的に危険、東大入試問題とAI) [科学技術]

人工知能(AI)については、3月22日に取上げたが、今日は、(その2)(人工知能は哲学的に危険、東大入試問題とAI) である。

先ずは、哲学者の岡本裕一朗氏は9月28日付けダイヤモンド・オンラインに寄稿した「なぜ人工知能は哲学的に危険なのか」を紹介しよう(▽は小見出し)。
・世界の哲学者はいま何を考えているのか――21世紀において進行するIT革命、バイオテクノロジーの進展、宗教への回帰などに現代の哲学者がいかに応答しているのかを解説する哲学者・岡本裕一朗氏による新連載です。いま世界が直面する課題から人類の未来の姿を哲学から考えます。9/9発売からたちまち重版出来の新刊『いま世界の哲学者が考えていること』よりそのエッセンスを紹介していきます。第8回は人工知能の発展が人類にもたらす影響を哲学の系譜の上に位置付けて解説します。
▽超知性としてのAIを哲学する
・人工知能の研究は、1950年代から始まり、過去2回のブームを経て、現在は第3段階に立っている、と言われています。過去2回のブームでは、あらかじめコンピュータに規則や推論、知識などを教え込み、そこから現実世界の具体的問題を解決しようと目ざしていました。 しかし、具体的な状況は、決して一律ではなく、例外もあれば、偶発的な出来事も生じます。日常生活での会話を考えてみれば分かりますが、現実はきわめて変化に富み、規則的に行われることがありません。とすれば、そもそも人間の知能に匹敵する人工知能を作製できるのか、と不審に思うでしょう。
・じっさい、アメリカの哲学者ヒューバート・ドレイファスは、早くも1970年代に『コンピュータには何ができないか』を書いて、「人工知能の限界」について次のように主張しました。 われわれは情報処理レベルにおカネと時間をこれ以上費やす前に、(中略)コンピュータ言語が人間の振舞いの分析に適切であるということを示唆しているのかどうかを問わなければならない。離散的、確定的で文脈に依存しない要素の、規則に支配された操作によって、人間理性を分析しつくすことはできるのだろうか。そもそもこの人工理性という目標に接近すること自体可能なのだろうか。いずれの問いの答えも「ノー」であるように思われる。
・しかし、今日、こうした状況が大きく変わろうとしています。たとえば、人間に代わって自動運転する車のニュースはご存じだと思いますが、これに搭載されているのが人工知能です。具体的な状況の多様な変化を見極め、即座に適切な対応を取ることができるようになったのです。そうでなければ、事故ばかり起こすことになりそうですが、そうした事故もほとんど起こることなく、周りの環境に柔軟に対処できるようになっています。
・あるいは、iPhoneをお持ちでしたら、「Siri」と呼ばれるアプリケーションを使われたことがあるでしょう。たとえば、自然言語で「△△を検索して」と話しかけると、それに対応する内容を答えてくれます。つまり、話している内容を理解して、それに応じた答えをしてくれるわけです。今のところ、幾分ぎこちないとはいえ、それでもある程度役に立ちます。このiPhoneに搭載されているのも人工知能です。
・こうした最近の人工知能は、従来型とは違って、多様に変化する具体的な状況から出発し、いわば自律的に学習していくように見えます。そのため、「機械学習」とか「ディープラーニング」などと呼ばれていますが、これによって人工知能の能力が飛躍的に向上しました。 そして、こうした人工知能が自律的に学習するに当たって、情報として与えられたのが「ビッグデータ」に他なりません。インターネットによって集められた「ビッグデータ」を、人工知能は「ディープラーニング」するための素材とするのです。情報量が膨大ですので、人工知能は突然の変化や例外にも適切に対応できるわけです。
・こうして、今、ビッグデータを背景にして、人工知能研究の爆発的な発展が、引き起こされようとしています。 スウェーデン出身のオックスフォード大学の哲学者ニック・ボストロムは、2014年に『スーパー・インテリジェンス道行き、危険、戦略』を出版しています。ビル・ゲイツが「この本を強く推薦する」と述べたこともあって、ボストロムの書物は大きな波紋を惹き起こしました。その中で彼は、次のように語っています。
・いつか私たちが、一般的知性において人間の脳を凌駕する機械の脳をつくるならば、その時にはこの新しいスーパー・インテリジェンス(超知性・超知能)はきわめて強大になるだろう。そして、ゴリラの運命が今、ゴリラ自身というよりも、私たち人間にいっそう依存しているように、私たち人間という種の運命も機械のスーパー・インテリジェンスのアクションに依存することになるだろう。
・つまり、人間の知性(知能)を超える機械の「スーパー・インテリジェンス」が、「技術的な特異点」において出現するわけです。こうした予想は、荒唐無稽な妄想というべきでしょうか。しかし、人工知能の発達を顧みると、あながち間違っているとは言えません。
▽人工知能による「啓蒙」はなぜ危険か
・1950年代に開発された最初の頃の人工知能では、チェスのゲームをしたとき、素人にさえ負けるレベルでしたが、最近では世界チャンピオンにも勝つようになっています。囲碁でもGoogleによるAI「アルファ碁」の目覚ましい活躍は記憶に新しいことでしょう。また、車の自動運転が実用化され、公道でも事故を起こさずに運転できるようになっています。こうした進歩を考えるとき、カーツワイルでなくても、「技術的特異点は近い」と言いたくなるのではないでしょうか。
・しかし、ボストロムの引用でも分かりますが、人工知能が人間の知能を超えるようになったら、人間にとって危険な状況(脅威)になるのではないでしょうか。 人工知能が脅威となるとき、根本にあるのは、それが人間から「自立化・自律化」することにあります。最初の頃の人工知能は、人間があらかじめ規則や推論を設定したり、知識を教えたりするものでした。そのため、そうした規則や知識を超えた状況に出会うと、うまく対処できなかったのです。
・ところが、20世紀末から膨大な「ビッグデータ」が蓄積され、それにもとづいて人工知能が「機械学習」や「ディープラーニング」を行なうことによって、いわば自己進化していく人工知能が開発され始めています。厳密に考えると、現在においては、「人工知能が自律的に学習する」とは言えません。しかしながら、その方向に進みつつあるのは明らかではないでしょうか。 いつの日か、自律するAIが登場し、とてつもない速さで自己改造を始めるかもしれません。生物学的進化の遅さに制限される人間がこれに対抗できるはずもなく、いずれ追い越されるでしょう。
・では、この「自律型の人工知能」は、いったいどこへ向かうのでしょうか。これを考えるとき、ヒントになるのは、アドルノとホルクハイマーが「啓蒙の弁証法」(1947年)と名づけた概念です。彼らは、第二次世界大戦中、亡命先のアメリカで『啓蒙の弁証法』を執筆し、近代社会の未来について、次のような疑念を表明したのです。 何故に人類は、真に人間的な状態に踏み入っていく代わりに、一種の新しい野蛮状態へと落ち込んでいくのか。
・一般に、「啓蒙」というのは、人間を無知蒙昧な迷信から解放する「合理的な理性」を意味しています。近代科学や近代市民社会や資本主義経済などは、この「啓蒙」によって生み出されたものです。 ところが、アドルノとホルクハイマーによれば、こうした合理的な「啓蒙」は、やがて自分自身を否定するようになり、「反‐啓蒙」である神話や暴力へと転化する、というわけです。この「反‐啓蒙」として、彼らはナチズムやスターリニズムなどの「全体主義」を見ていました。
・このような「啓蒙」から「反‐啓蒙」への弁証法は、人工知能の未来を考えるとき、一つのモデルとなるように思えます。人工知能は「人間のような知能」をもつために作製されたのですが、今や人間と同じように「自律的学習」ができるようになって、さらには「人間の知能」を大きく超え出ようとしています。 人工知能が人間から自立化し、モノ同士で相互にコミュニケーションできるようになり始めました。とすれば、やがて、人工知能が人間に対抗することも大いにありうることでしょう。
http://diamond.jp/articles/-/103046

次に、作曲家=指揮者 ベルリン・ラオムムジーク・コレギウム芸術監督の伊東 乾氏が10月25日付けJBPressに寄稿した「この東大入試問題への見方で分かるあなたの未来 AI、IoT時代に勝ち残れるか、全く不要になるか」を紹介しよう(▽は小見出し)。
・とある地方の高校で生徒たちに、「数年後の東大入試、AIは合格できるか?」と尋ねると、大半が「受かると思う」に手を挙げたそうです。 「ではその時君たちは何をするの?」と続けて訊ねると、いろいろな答えが返ってきたとのこと。結構悲観的な答えもあったようです。 さて、東大入試ではどういう問題を出しているか、皆さんご存知ないのではないでしょうか? 今年2016年の春に出題された英語・入試問題の実物を確認してみましょう。
▽東大入試問題の背景
・以下、実際に出題された問題そのものです。
***************************************
 2(A)下の画像について、あなたが思うことを述べよ。全体で60-80語の英語で答えること。  (「下の画像」として、ネットに上がってたものを1つリンクさせていただきました)
****************************************
・床に寝転がっているネコを見ながら、目の比較的近くに手指を持ってくると、遠近法的な「だまし絵」を作ることができ、指先で大きな猫をつまんでいるような面白い錯覚・錯視の写真を撮ることができます。 ネットで検索してみましたが、「東大発!模範解答のない入試の衝撃」「東大入試がアート系に?」うんぬん。かなりピントの外れた観点でこれを取り上げているものを目にしました。 中には、問題の中味に一切触れず「訳の分からない出題に対処できる危機管理」などを説くものを目にし、少なからず驚きました。
・私自身、ピアニストのヘルマン・ゴチェフスキさんなどと共に東京大学としては極めて少ないアート実技系の教官として在勤していますが、このリアクションは率直に残念に思いましたので、以下の議論を建設的なものにするべく、少しだけ常識的な前提を補っておこうと思います。
・言うまでもなく、現役の東京大学教官が、現在実行している入試について言及できることは極めて限られます。ここではあくまで一般論として錯視のメカニズムだけを記すもので、問題の中味には一切触れませんので、誤解のないようにお願いします。
・ネットのフリー・シルエット素材を使って、この錯視のメカニズムを簡単に図示してみましょう。 足元に寝転がっているネコは体長にして数十センチあると思われますが、そこから発せられた光は最終的に数センチ大である私たちの目に入って来ますから、円錐状の光路を考えることができます。 そこで比較的目に近いところで指先を「C」の文字の形にすれば、あたかも猫を指先でつまんでいるように見えてしまう。こんなことは取り立てて言うまでもない、常識の範疇に過ぎません。
・こういう視覚の錯覚、ビジュアル・イリュージョンは「トリック・アート」として周知のことと思います。気の利いた動画を少し前に見て感心したのでリンクしておきます。 この人はこんなものも作っている。これも遠近を用いたトリックですが、何ともセンスがあって素敵ですね。 もう少し分かりやすい例ですと、こんなものもありました。分かりやすいネットコンテンツ、いくつか参照してみると面白いかと思います。
・さて、本題に戻りましょう。 上の出題は、これに関して、いくらでも科学的に正確な話もできるし、ウイットに富んだ洞察やエッセー的な展開も可能な秀逸なものと思います。そうした内容や、採点基準に関わるようなことは、ここでは一切見解を示しませんので悪しからず。
・一般に英作文には唯一の模範解答などあり得ません。この出題は、傾向の異なる複数の解答系列に秩序だった採点基準を設けて公平に加点することができるだろうことのみは、ここで触れておいていいと思います。 受験生諸君はくれぐれも、塾や教育産業のいろいろな情報に惑わされず、自分自身の観点をもって「正気の解答」をしてくれれば、と思うばかりです。
・この問題は極めてよく練られた、品の良い出題と思います。 また、そういうものでなければ、東京大学は決して入試に出題しません。答案回収直後の採点に窮するような出題をする大学は常識で考えても存在しないでしょう。
▽コンピューターは錯視ができない
・先にポイントを1つ。この出題に、AIは解答することができません。そもそも問題を理解することがないでしょう。なぜなら電子計算機には「あなた」が「思うこと」はないのだから。計算機は冷血で、単に道具に過ぎないのですから。
・AIやビッグデータ、IoTで雇用の危機を煽る記事を苦笑を持って眺める1つの観点は「思うこと」「感じること」にあります。2050年でも2100年でも、あるいは3050年に人類が存続しているか知りませんが、料理の味見は人間のコックさんがしていると思います。 塩分濃度が何パーセント、温度はどれだけ・・・みたいな測定はセンサーの方が正確で得意でしょう。でも「これが旨いか?」という判断はIoTのセンシングシステムでは不可能なんですね。正解がないのですから。
・AIというのは「前例がなければ答弁することができないお役人」のスーパー強力バージョンみたいなものと思っておくのが適切です。自ら何か感じ考えるということは原理的にできない。 2050年でも3050年でも、名コックの店は繁盛し、雇用を機械に取られたりはしないでしょう。
・全く同様に、AIで小説のごときものを合成することはできるでしょうが、面白いものはまずできない。基本が二番煎じしかないのだから仕方ないのです。 新聞雑誌などでルーチンの埋め草記事などを書く人は大幅に人員整理される可能性があると思いますが、コンピューターにウイットの利いたジョークや詩を期待するのは無理というものだし、私が作るように音楽は作れず私が演奏するように楽器を弾くこともできない。
・私のマネはできるでしょう。でもモノづくりは自己模倣し始めたらヤキが回っています。常に自分を振り返り、疑って改めているクリエイター・トップエンドの仕事は、大量生産向けのシステムに決して取って代わられることはありません。
・先ほどネコの錯視の話題を出しましたが「錯視」というのも人間の脳にしかできない芸当で、カメラアイではいくつものレベルで無理なのです。 人間のビジョンは幾重にもわたって脳が高度に構成して、物事のまとまりを理解したり奥行きを感じたりしています。私たちは猫を猫と思い、ストーブをストーブと思ってみますが、カメラはそんなことお構いなしに映った色のシミとしてのみ記録し、インテリジェントではありません。
・さらにカメラアイは「違和感」を感じたりすることができません。猫が指に挟まったら変ですよね? 私たちには常識があるから、それに照らして物事を考えますが、そういう分別を反射的直観的にAIが捉えるかと言われれば、学習させないと難しいでしょう。 で、何とかAI君が「指先でネコをつまみあげるのは変、おかしなことだ」と理解できるようになり「何カ変デス」と出力できるようになったとしましょう。 でも半導体や金属のシステムは「これはおかしい」、もう少し分かりやすく崩せば「おもろいやんけ!」とは思わない。AIは決して自ら喜怒哀楽の感情をもって笑ったりはしない。
・幼稚園児でも「これ、なんか変だよ」「面白い!」となる部分が、センサーレベルであらゆるIoTのシステムに一切欠如しているし、ビッグデータを走査してデータを洗い出すAIのシステムも「これは何か変だ!」と気づくような第六感は一切持っていない。 空気が読めないんですね。AIはKYであると覚えておくと便利そうです。
▽考査の原点への回帰
・こういう問題を見て「東大入試の新傾向」「模範解答がない」「大学入試が企業採用に近づいた」など、いろいろ好き勝手な憶測が記されているのを目にしました。一切コメントは避けますのでこれも悪しからず。 ただ、無難な範囲で間違いなく言えることは、これはむしろテスト、考査の原点に戻っているということでしょう。
・「模範解答がない」などと言う人がいますが、世の中の問題のどれだけに「模範解答」があると思っているのでしょうか? まず、最先端の研究課題には、いまだ「正解」など存在しません。 そういう未踏の問題に果敢に解を出して行く人材を、大学は、またとりわけAIやらIoTやら、陳腐なルーチンワークはシステム任せにできるようになって以降、企業や様々な社会的セクターが必要とすることになります。
・「ヘイト」の問題は解決すべきですが、模範解答などあるわけがない。 「いま入試の問題を扱ってるんじゃないか?」という向きには、ここでは一大学教授が学生採用の本質を話しているのだと正確に理解していただきたい。 なぜ「公平な採点ができる一律のペーパーテスト」が必要か、と問われれば、実はそれは、「大学が官費で賄われ、税金を使う以上、機会均等であるべき」という社会的な条件づけによるもので、学術の本質とも教育の核心とも、実は全く無関係と知るべきでしょう。
・本来は、師匠が自分の学風に合うかどうかでセレクションするのが王道です。例えばゼミの採用などは現在でもそれで行っている。 日本がくだらない形式的学歴社会に堕している現状があるから、変に「入試問題の客観評価と公正な採点」などの言葉が独り歩きするのです。
・実際には、面接して、少し目の前で展開などさせてみれば、実力は全部分かるし、一番公正に学生を選ぶことが本来は可能なはずです。それができないとすれば、日本の人材育成、とりわけ第2次世界大戦後に主として米国から導入された「民主的」なシステムが「悪平等」として機能していることが懸念されます。
・学科の定期試験と入試の決定的な違いを1つ記しましょう。学校で行う数学の試験は、数学の実力を見るものであるべきです。 しかし、入試は「数学という題材を用いて、志望してくる学生が本学に向いた適性、可能性がある若者であるか?」を見る選抜試験です。 「英語のテスト」は「英語の力を見る」だけが目的ではなく、英語の出題を通じて、その志願者のものを見る力、考える力、判断する力そして表現する力など、子供の全体を見ようとするものです。ここに根本的な違いがある。
・これがむしろ選抜考査の原点であって、教育指導要領で縦割りにしてみたり、どこから見ても一点の曇りもない「公正な採点基準」の独り歩きが目的ではないのです。 私の専門の例でお話しするなら、日本のクラシック系統の公立音楽高校・大学の入試は「主観によらず誰が見ても明らかな公正・客観的な採点基準」として、ミスを数える減点法が採用されるという不幸がありました。 その結果、アナウンサーのように正確に間違いなく楽譜を音にする部分だけが突出した日本の音楽家像が内外に定着し「プラクティカ―」現実屋という定評ができ上がっています。 同時に表現内容、哲学もファンタジーも魅力も何もない演奏、といった激しいコメントで、海外の音楽院入試やコンクールで1次予選落ちしてしまう若い人をたくさん育ててしまうことにもなっている。
・全く同じことが言えます。 その人の内実をきちんと評価する「考査の原点」に帰ること。端的に言えば地アタマの良さを見て公平に人を採用すること。 AIが基本、地アタマがゼロであることは既に幾度も述べています。IoTのセンサーがKYというのも今回強調しています。
・2018年の入試は21世紀0年目に生まれた子供たちが大学の門を叩く最初のトライアルで、その中には2100年以降にも生きている人がいるに違いない。 私たちは無理ですが、今年の入試をしっかりしたものにするのは、22世紀の明日を支える次世代を育てるという現実的な責任に直結するものであることを、強調しておかねばなりません。
・冒頭の「とある地方の高校生」に。2020年、AIでも解ける入試問題ばかりになっていたら、それは大学側の出題者の怠慢か、あるいは敗北を意味しているだけです。 少なくとも東京大学は2016年時点で、AIでは1点も得点できない問題をはっきり出題している。このことの意味を、どうか噛みしめてみてください。頭は使うためにある。
・電子計算機もAIも、あるいは自動運転もユビキタス情報化もはるかに進んだ時代に、しっかり地アタマを働かせてシステムを使い倒せる人材を選抜し、育てるために、出題の原点に回帰した問題、AIごときには歯も立たない人間力ある、厳密な採点基準でしっかり評価できる問題を、今後大学はどんどん出題するようになるはずです。 で、これ自身実は、すでに100年の伝統があるものなのです。それを次回にお話ししましょう。
http://jbpress.ismedia.jp/articles/-/48206

岡本氏のは哲学者がどう考えているかを知るために紹介したものである。『「啓蒙」から「反‐啓蒙」への弁証法』、は比喩としては面白い。しかし、ニック・ボストロムの「スーパー・インテリジェンス」などから、『今や人間と同じように「自律的学習」ができるようになって、さらには「人間の知能」を大きく超え出ようとしています。人工知能が人間から自立化し、モノ同士で相互にコミュニケーションできるようになり始めました』、というのはやや過大評価なのではなかろうか。
伊東氏は、理学部出身のマルチタレントだけあって、AIの限界を的確に捉えている。『AIというのは「前例がなければ答弁することができないお役人」のスーパー強力バージョンみたいなものと思っておくのが適切です。自ら何か感じ考えるということは原理的にできない』、との指摘は分かり易い。東大入試に地アタマを試すような問題が出題されているとは、心強いことだ。『正確に間違いなく楽譜を音にする部分だけが突出した日本の音楽家像が内外に定着し「プラクティカ―」現実屋という定評ができ上がっています』、という日本の音楽教育への手厳しい批判は、さもありなんだ。
なお、この続きの紹介はここでは省略した。興味ある方は下記リンクをご参照。
http://jbpress.ismedia.jp/articles/-/48265
そういえば、人工知能で東大入試に合格させるプロジェクトがあったが、最近、「無理」として断念したようだ
明日の金曜日は更新を休むので、土曜日にご期待を!
タグ:コンピューターは錯視ができない JBPRESS ダイヤモンド・オンライン 東大入試 岡本裕一朗 (その2)(人工知能は哲学的に危険、東大入試問題とAI) AI 英語・入試問題 伊東 乾 人工知能 正確に間違いなく楽譜を音にする部分だけが突出した日本の音楽家像が内外に定着し「プラクティカ―」現実屋という定評ができ上がっています 日本のクラシック系統の公立音楽高校・大学の入試は「主観によらず誰が見ても明らかな公正・客観的な採点基準」として、ミスを数える減点法が採用されるという不幸がありました 「英語のテスト」は「英語の力を見る」だけが目的ではなく、英語の出題を通じて、その志願者のものを見る力、考える力、判断する力そして表現する力など、子供の全体を見ようとするものです テスト、考査の原点に戻っているということでしょう カメラアイは「違和感」を感じたりすることができません コンピューターにウイットの利いたジョークや詩を期待するのは無理 AIというのは「前例がなければ答弁することができないお役人」のスーパー強力バージョンみたいなものと思っておくのが適切です この出題に、AIは解答することができません 同時に表現内容、哲学もファンタジーも魅力も何もない演奏、といった激しいコメントで、海外の音楽院入試やコンクールで1次予選落ちしてしまう若い人をたくさん育ててしまうことにもなっている この東大入試問題への見方で分かるあなたの未来 AI、IoT時代に勝ち残れるか、全く不要になるか 「啓蒙」から「反‐啓蒙」への弁証法は、人工知能の未来を考えるとき、一つのモデルとなる 人工知能の研究は、1950年代から始まり、過去2回のブームを経て、現在は第3段階 啓蒙の弁証法 いつの日か、自律するAIが登場し、とてつもない速さで自己改造を始めるかもしれません 「機械学習」や「ディープラーニング」を行なうことによって、いわば自己進化していく人工知能が開発され始めています 人工知能による「啓蒙」はなぜ危険か 人間の知性(知能)を超える機械の「スーパー・インテリジェンス」が、「技術的な特異点」において出現 スーパー・インテリジェンス道行き、危険、戦略 なぜ人工知能は哲学的に危険なのか 「錯視」というのも人間の脳にしかできない芸当 錯視のメカニズム ニック・ボストロム 、「機械学習」とか「ディープラーニング」などと呼ばれていますが、これによって人工知能の能力が飛躍的に向上しました 最近の人工知能は、従来型とは違って、多様に変化する具体的な状況から出発し、いわば自律的に学習していくように見えます
nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:日記・雑感

nice! 0

コメント 0

コメントを書く

お名前:
URL:
コメント:
画像認証:
下の画像に表示されている文字を入力してください。

※ブログオーナーが承認したコメントのみ表示されます。

トラックバック 0