日立評論

デジタルがもたらす価値観の変容

“AI×ロボット×IoT”の恩恵を享受するために

ページの本文へ

Hitachi

日立評論

執筆者紹介

新保 史生

  • 慶應義塾大学
  • 総合政策学部 教授
  • 博士(法学)。専門は、憲法、情報法、ロボット法。個人情報保護委員会専門委員、憲法学会常務理事、情報通信学会常務理事、総務省情報通信政策研究所特別研究員、経済協力開発機構(OECD)デジタル経済セキュリティ・プライバシー部会(SPDE)副議長(2009-2016)

目次

異なる価値観とどう向き合っていくか

2016年に発足した「AI社会共創・ラボ」では大学の内外から多種多様な専門家が一堂に会して,AIやロボットなどデジタル技術の社会実装をめぐって幅の広い議論を続けている。これは特定分野に閉じた従来型研究でもなければ,単なる文理融合でもない。技術,経営,経済,政策,法律,倫理,デザインなどの異なる学問領域の者が同床し横断的かつ密に連携する文字通り「総合」的な研究である。

このような試みは容易ではないが,それが成功している要因の一つに,異質なものを排除せず多様性を受け容れる慶大SFCの自由で開放的な気風がある。自分の研究室にも何名かの起業家がいるし,ベンチャー企業だけでなく,アプリ開発や音楽,ゲームといったクリエイティブワークなど,斬新なアイデアを持った若者がアクティブに動ける環境がある。例えば,彼らを支援するインキュベーションセンターがあり,「死の谷」を越えるためのファンド,知財管理のための弁理士,顧問弁護士なども用意している。その結果,成功を収めた先輩の姿を見て,後輩が刺激を受けてチャレンジするという好循環ができている。

一方,今の学生の多くは驚くほど堅実であり,常に冷静に現実を考えながら未来に向き合い,確実に実現できるという根拠を得たうえで挑戦に取り組む。彼ら自身,ゆとり世代ではなく悟り世代なのだと言うが,かつての大学生のような若者らしさ,弾けたところがないのも確かだ。

当然,学生の関心対象も様変わりしている。象徴的なのが車だ。バブル世代の自分たちはこぞって車を買おうとしたものだが,今の学生はまず車に関心がない。所有することへの無関心,あるいはモノへの執着の希薄さの現われと言えるが,車を利用して旅行することに関心がないのではない。つまりモノからコトへという価値観の変化なのである。

大学にいると,こうした世代間の価値観の変化を体感することができる。自分とまったく異なる価値観に生きる彼らと日々接していると,デジタル社会の未来も楽観的に思えてくる。利便性,合理性,最適化,効率化など,これからデジタル技術がもたらすのは彼らの世代の価値観にぴったりなものばかりである。

私自身,AIやロボットの法的課題に関する研究に取り組むようになったのは,大学院で博士号を取得したSFCの学生に触発されたからなのだが,今,最も重要なのはこうした「価値観の違いという新たな現実をどう捉えるか」という,ある意味で非常に抽象的な問題なのだと思う。

人間の価値基準を越えて判断する存在の登場

これまでの法律家の基本的な発想は,大半の出来事は想定できるという「予見可能性」の大前提に立って,そこから逸脱するリスクにどう対処するかというものだった。ところがAIは人間にとって思いもよらない想定外の判断をする可能性がある。有名なトロッコ問題※)のように正答がない問題に直面した場合,どのような価値判断を下すべきなのか。人間であれば,さまざまな観点から価値を相対的に考慮したうえで最終的により良いと思うほうを選ぶはずだ。例えば,携帯電話の使い方に明文化されたルールや法律はない。しかし通常,問題が生じないのは他人に迷惑を掛けてはいけないという同じ価値観をお互いに共有できる社会通念が定着したからだ。一方,AIがどういう根拠でどう判断するのかは誰にも分からないし,人間と同じように判断する保証はまったくない。人間の価値判断とAIの価値判断が一致しないという局面が十分に考えられるわけだ。このことが法律家からすると,リスクとして見える。

しかし,現時点ではこのリスクを真剣に受け止めている法律家は少数に留まる。主流を占めているのは,いかに想定外の事象が起きても,事後的に既存の法体系の中で整合性を確保し,現行の法解釈で対応すれば新たな問題は生じないという考え方だ。確かに今のAIは特定の用途に限ってデータ解析した結果を提供しているだけとも言えるし,その範囲で最終的な判断を下すのは人間である。しかし今後,データを解析・判断するAIに,データを収集するIoT, さらにそれを現実世界にフィードバックするロボットが密に連携するようになれば,人間が介在しない状態でAIが重要な判断を下し,実行することが現実のものとなっていくだろう。大量なデータから学習し,人間の価値基準を越えて判断するのがAIに求められる機能であり,それに基づくフィードバックが現実世界にもたらされることはパラダイムシフトと言わざるを得ない。かつてインターネットが普及し始めた初期の段階には,ネットワークにおけるセキュリティリスクを予見した者は皆無だったと言われるが,同様に現在,“AI×ロボット×IoT”によって生じる新たなリスクを予見することは難しい。しかし,少なくとも自分たちとは異なる価値判断を下す新たな存在と共生することは確実であり,「電子人(Electronic Person)」という新しい電子法人格の創設の議論も始まっている。

国際ルールづくりを主導していくために

昨今のAIブームによって,こうした問題意識が広く浸透したのは歓迎すべきことである。この間,米国の非営利団体「生命未来研究所(FLI)」の「アシロマAI原則」(2017年2月)や欧州委員会の「AI,ロボット,自律システムに関する声明」(2018年3月)をはじめ,世界的にAIやロボットに関するルールづくりの動きが加速し,各国で具体的な規制に向けた法整備が進められている。こうした動向に先がけて私は2015年末に「ロボット法新8原則」を提案し,一定の拘束性を備えた国際的なルール作りを呼びかけた。この8原則の要諦は,「日本人の法令順守意識の特性を踏まえた規制の不存在による萎縮効果への対応」であり,現行の法制度の中でAIやロボットなどの扱いが明確でない結果,研究開発が停滞する事態を回避するために,日本が国際ルールづくりを主導すべきと考えたものであったが,AIブームの過熱とも重なり,正当な理解や賛同を得るには至らなかった。

しかしブームは必ず過ぎ去る。ここから冷静な議論が始まるものと期待している。今後のカギはデータの取扱いと保護に関する国際ルールづくりだ。昨今,経済政策と安全保障の両面からデータを自国内に囲い込むデータローカライゼーションの動きが盛んだが,デジタル社会の恩恵を世界中の誰もが享受するためには,データの自由な流通と適正な保護が欠かせない。特に日本政府が推進するSociety 5.0はデータを活用しながら,人口減少や高齢化に伴う社会課題を克服する壮大な施策であり,個人の尊厳などの普遍的な原則に基づくルールを形成する絶好の機会である。日本が培ってきた「信頼」を拠りどころに国際ルールづくりを主導していくことは各国が期待を寄せるところであり,日本の真価が改めて発揮されるはずである。

※)
トロッコ問題:「ある人を助けるために、ほかの人を犠牲にすることは許されるのか」という,道徳的ジレンマを扱った思考実験。
Adobe Readerのダウンロード
PDF形式のファイルをご覧になるには、Adobe Systems Incorporated (アドビシステムズ社)のAdobe® Reader®が必要です。