緋色の7年間

制約を原動力に。法律事務所の弁護士と大手企業の法務担当者が、時に制約と闘い、時に制約を迂回していきます。

AI(人工知能)と倫理と法

※本記事は賞味期限切れです。誰も整理していなかった当時を思い出させるノスタルジックな遺跡としておたのしみください。

◆はじめに

こんにちは~

本日のテーマは「AI(人工知能)と倫理と法」です。

本記事は、実定法学的な観点から人工知能に関わる諸問題をざっくり考察しようとするものであって、人工知能に関する工学的技術や倫理学・哲学自体を論じようとするものではありません*1。書いてる人は法学畑の人なので、その旨、あらかじめご了承ください。

はじめにこの記事を書いた2015年3月以降、いくつか人工知能に関する一般向けの書籍も出てきたので、それらをカバーしつつ、方針としてはもう少し地に足の着いた内容に修正していくことにしました。また、2017年1月現在において、特に自動運転関連の法学系の学術論文が増えてきたように思われるため、これらも一定程度カバーしようと思います。が、基本的には人工知能関連の法的問題の大枠ないし全体像を提示することに努めたいと考えております。

技術面に関する参考文献は、記事最下段に列挙し、脚注で摘示する方式にしました。また、本文自体はかなり平易というかラフに書いたつもりですが、脚注はあまりそういった考慮をしていません。

※2017年1月26日 最終更新(リンク先の更新、脚注文献等の追加。本文については、現時点でも通用すると思われるので、ほぼ更新をしていません。)

◆最近の「AI」の特徴

AI(Artificial Intelligence)とは、人工知能のことです*2。この用語は1956年から使われているようなので*3、比較的古くから考えられていた技術と言えます。もっとも、アイデアは昔からあったのですが、なかなか実用化されるまでには至らなかったのです。最近になって人工知能が話題になりはじめましたが、これは、ようやく実用化(企業による製品化)が「視野に入るようになった」からです*4。他方で、人工知能(を搭載したロボット等)の実用化は、それに伴う倫理的・法的問題を机上の問題ではなく実際上の現実的問題として招来することを意味します。

f:id:takenokorsi:20151024160152p:plain

そこで、人工知能に関わる倫理的・法的問題を検討する前提として、最近の人工知能の特徴をざっくりと把握しておきましょう。

最近のAIの特徴は、機械学習(Machine Learning)の中でも「ディープ・ラーニング(深層学習)」と呼ばれる技術を中核にしていることに求められます。ここには脳科学の成果が史上初めて本格的に導入されたと評価されています*5。要するに、現在のAIは人間の脳神経回路を工学的に模倣したもので、これによって、コンピュータやロボットにおいて自律的な「思考」(より正確に言えば、システムが自力で変数を発見すること)ができるようになったということなのです*6

このような人工知能の「自律的思考」が人間の思考に準ずるかどうかは別論として、少なからず従来のコンピュータやロボットの観念を変容させることになります*7

従来は、人間がコンピュータやロボットをツールとして利用してきました。あらかじめプログラム等によるルールを作って、その範囲でコンピュータを動かしてきたわけです。コンピュータは、決められた規則から逸脱して行動することは、誤作動を除けばありません。ところが、最近のAIは、いわば自分で何かに気づいて自律的に行動します。学習して「成長」する能力があるのです。このような意味で、最近のAIは、人間のコントロールから外れることを本質としています

AI(人工知能)の倫理的・法的問題を考えるにあたっては、この「制御不能の本質」*8とどのように向き合うべきなのかが最大のポイントになります。もちろん、「制御不能」といっても、はじめに誰かが行動等の基本となる数式についてプログラミングするという点では、なお人間が関与する余地が残っていますし、現時点における工学的技術はロボット等が完全に自律的に判断して動ける水準のものではありません。しかしながら、従来のロボット等と比べたときの異質さは、やはり、その自律的な判断や行動の領域の拡張という点に求められるべきでしょう。

◆「AI」をとりまく倫理的・法的問題

それでは、AI(人工知能)に関わる倫理的・法的問題を、もう少し具体的に見ていきましょう。

AIの行動は、観念的には、①ビッグデータを取得・解析し、②そこからパターンを認識し、③自律的に判断するというステップを踏みます。ここから、AIに関する諸問題は、これら3つの領域にカテゴライズすることができると考えられます。つまり、

  1. データの取得と利用に関わる問題(プライバシー等の問題)
  2. 判断過程の不透明性に関わる問題
  3. 人から機械への制御権の移譲に関わる問題

の3つの領域です。

断っておきますが、上の分類は、どこかの学界で確立されたものではまったくありません。現在、人工知能に関する実定法学的な論点は、いまだ十分に整理されていない状態にあります(知財領域だけ若干先行して論点が整理されているという印象です)。もっとも、幸いにも「ロボット法学会」という学会の設立の動きがありますから*9、もしかしたら近いうちに論点が整理されるかもしれません。そういうわけで、上述の分類は、あくまでも個人的かつ過渡的な分類だということにご留意ください*10

f:id:takenokorsi:20151024160210p:plain

(※上図のような仕組みは Cyber-physical System (CPS) と呼ばれます。)

1 データの取得と利用に関わる問題

まず、①について、「個人の情報パーソナルデータ)」*11の取得と利用によって、プライバシーや人格権その他の私的な権利・利益が侵害されるおそれがあるのではないかという問題があります。情報の取得・利用による著作権や著作者人格権の侵害が問題となることも考えられなくはないですが、とりあえずここではパーソナルデータの利活用の話に絞っておきます。

個人の情報の取得という点に関しては、たとえば、身近なところでは、メールの内容や検索ワードの入力、ウェブの閲覧履歴、音声認識ソフトが受け取る音声データ、無料通話ソフトが受け取る音声データ、SNSのプロフィールや投稿内容、電車の乗降履歴、クレジットカードの利用履歴、ネット通販の利用履歴、家庭用ロボットのカメラが受け取るデータ、消費者直販型遺伝子検査*12の結果、クラウドソーシングで取得される作業データなどなど、あげればきりがありません。

これらは、いわゆる「ビッグデータ」(このうち、特に個人の生活情報の記録を「ライフログ」と呼びます。)*13として個人を識別できる形で、あるいは、匿名化された形で企業が取得・利用しますし、現に取得・利用されています*14

ビッグデータの譲渡や流出も十分に倫理的・法的に問題となりえますが*15、AIとの関連で言えば、やはり情報の取得と利用に伴うプライバシーや人格権の侵害が重要な問題と言えるでしょう*16

この問題に関しては、AIによる労働者の監視(従業員のモニタリング)が、特に差し迫った具体的問題だと言えます*17。たとえば、まだ本格的に人工知能が導入されているわけでもないようですが、世界的な大手クラウドソーシングサイトは、不定期に労働者の作業中の画面をキャプチャ(モニタリング)しています。将来的に、これが一般的な職場で行われれば、かなり問題になりそうです。あるいは、従業員にウェアラブル端末の着用を義務付けようと企業が考えることも容易に想像できます。取得された情報が匿名化されて会社全体の作業効率の改善等に利用されていればよいのですが、そのような用途で利用されないことも十分に考えられます。常時監視され、記録されるので、トイレにも行きづらくなりそうです。

これらは、人工知能に関する問題とは、一応、別個の問題として議論されてきました*18。労働者のプライバシーや人格権の侵害は、人工知能の利用の有無にかかわらず、同様に問題となり得るからです。たとえば、現在までに、ある事業部の事業部長が、同事業部の従業員のメールを監視していたことにつき、当該従業員から損害賠償請求されたケースなどがあります*19。このような点からすれば、使用者による適切な指揮・監督権限の行使の範囲を超えるかどうか、前掲裁判例の表現を用いれば、「監視の目的、手段及びその態様等を総合考慮し、監視される側に生じた不利益とを比較衡量の上、社会通念上相当な範囲を逸脱した監視がなされた場合」かどうかの延長線で議論すれば十分であるようにも思われます*20

しかし、このようなケースにおいては、人工知能との関係で別種の考慮を要することになります。すなわち、それは、大量かつ無差別・自動的に情報を取得できなければAIの機能が著しく低下することをどのように考慮していくかということです*21。AIにとって情報の取得と利用は欠かせません。だからこそAIはビッグデータとセットで考えられてきたわけですが*22、逐一、人間がAIのデータの取得をコントロールしていては、AIのメリットが失われかねません。ここに、人間の手を離れるAIの問題の難しさがあります。どのような範囲のデータの取得を許容するか、どのようにその取得を実現するのか、どこまでその情報を利用してよいのかなどの点で、企業と市民(消費者や被用者等)との間に深刻な利害対立が生じます*23

2 判断過程の不透明性に関わる問題

次に、②について、AIの判断過程の不透明性についての問題があります。最近のAIは、開発者でさえどのようにAIが認識し、判断しているのかが分かりません。誤解がないように付け加えておけば、現実になされた判断の過程自体は必ず事後的に明らかになります*24。もっとも、その判断過程が人間に理解できるかどうか、収集されたデータの束とその相関関係から因果関係をどのように読み取ることができるかなどは、それとは別個の問題です。高度で複雑な判断であるほど、判断過程の「理解」が困難にならざるをえません。また、判断過程が明らかになるのは、常にロボット等の判断・行動の後ということになります。

そうすると、何かAIが問題を起こしたとき、いったい誰が責任を負うのでしょうか*25

被害者がそのプロダクトやサービスを提供したメーカー等の会社に対して不法行為責任契約責任(安全配慮義務違反等)を追及するにしても、そこで要求される過失の要件は事故等の結果発生の予見可能性を前提としますが、AIが人間の手を離れて自律的に判断する以上は、その予見可能性は極端に低下します。そもそも、近代法において個人が責任を負わなければならない理由は自らが意思決定をしたことに由来するからなのですが(過失責任主義)、ここで意思決定をしているのは、もはやAIです。そうすると、被害者がメーカー等の責任を追及することは困難だということになります。他方、第三者に損害が生じた場合について、人工知能を搭載したプロダクトの所有者(メーカー等との関係で見れば、消費者/ユーザー)に第一次的責任を負わせる見解*26もありますが、不法行為法上の過失の判断は同様に問題となります*27

そう考えると、製造物責任のごとく無過失責任(法定責任)を誰かに負わせるしかないことになるとも思われます*28

しかし、仮に誰かに責任を負わせることができたとしても、その個人ないし企業にはどうしようもありません。たとえば、製造物責任の考え方は、被害者に過失等の立証責任を負わせることは酷だとする論理を突き詰めて、予期される侵害の主体にあらかじめ立証責任のかなりの部分を転嫁して被害者の救済を図り、他面において、その潜在的な侵害者に予防的な対策を講じさせようとするものです(過失責任主義の修正*29。しかし、AIのケースでは、事故等の結果発生の予見可能性が極端に低いために、個人や企業に責任を負わせても具体的な予防策がとりえないような場合が出てくるように思われます*30

現在、差し迫った問題となっているのは自動運転車のケースですが*31、問題となるのは自動運転車に限られません。用途が広く危険性が高い行動ができるロボットであるほど、事故等の結果発生の予見可能性の低下は、深刻な問題となりえます(これとは多少性質の異なる問題ですが、たとえば、軍事用ドローン*32なども問題となります)。

3 人から機械への制御権の移譲に関わる問題

上の2つの問題も広い意味ではこの問題と関連しますが、ここでは、人から機械への制御権の移譲*33そのものを問題とします。つまり、どこまで機械に制御権を移譲してよいのか、人間は何をコントロールすべきなのか、人間が想定しえないことのリスクはどうするのか、異常事態で機械にどのような判断をさせるのがよいのか、機械に任せると法的にどのような事態が発生するのかなどです。

この問題の性質上、ともすれば抽象的な議論にならざるをえませんから、実定法学上の問題設定として適切かどうか、最終的に個別具体的な問題群に解消されるのかどうか、現実にそういった問題を含むケースが生じうるのかどうかなどは、現時点ではよくわかりません。

なお、現時点において類型化できる限りでは、(1) 緊急状況下における判断、(2) AIによる芸術作品と著作権法の2つの領域が特に問題とされる類型です。

(1) 緊急状況下における判断

人工知能を設計し、その行動指針や行動規範をプログラミングする段階では、緊急状況下における判断について、まったく考慮しないというわけにはいかないでしょう*34

AIにも、ファット・テール*35の問題が付きまといますから、想定外の事態は現実にけっこう起こりえます。AIの「暴走」は、しばしば映画やアニメでも描かれますが、今まさにそれが問題となってきているのです。ただし、現時点でのAIの「暴走」といっても、もちろんフィクションの世界で描かれるようなイメージではありません。あくまでも一般的な事故のスケールと変わらないでしょうが、上述したように、それが「予見可能性の範囲外で生じる」という点に特徴があると考えることができます。ただでさえどういう判断に出るかわからない人工知能ですが、その人工知能にとって想定外の事態を人間があらかじめ想定するというのはなかなかパラドキシカルな気もしますが、人間に要求されているのはそういうことかもしれません*36

身近な話に移ると、これもやはり自動運転車のケースになります。簡単な例で言えば、状況的に見て自動車同士の事故がどうやっても避けられないケースでは、相手方を犠牲にするのか、それとも自分を犠牲にするのかなどの問題です。もし相手方同乗者が2人だったら結論は変わるでしょうか? 相手方に落ち度があったら? …などなど、サンデルの教室事例ではないですが、ここでは倫理とは何かが正面から問われています*37。もちろん、実定法の解釈に従った判断をAIにさせるのが妥当ですが、刑法上の緊急避難の学説を見ればわかる通り、見解を一致させることは極めて困難です*38

(2) AIによる芸術作品と著作権法

AI(人工知能)が制作した作品について著作権が認められるのか、という「機械創作」や「ロボット創作」、「コンピュータ創作物」などと呼ばれる問題があります。政府の知的財産戦略本部*39では、「AI創作物」と呼んでいるようです*40。現行法上の具体的な論点としては、AIが制作した作品について、①著作物(著作権法2条1項1号)にあたるか、②著作者(同法2条1項2号)は存在するのか、存在するとすればそれは誰か、の2点です。

まず、「著作物」につき、著作権法2条1項1号は「思想又は感情を創作的に表現したものであって、文芸、学術、美術又は音楽の範囲に属するもの」と定義しています。そうすると、哲学的議論はともかくとして、実定法学的に人工知能自体には「思想又は感情」がありませんので、それを「創作的に表現」することが観念しえない以上、人工知能による作品に著作物性が認められることはないと思われます。また、著作権法2条1項2号によれば、著作者は「著作物を創作する者」であり、職務著作等の一部の例外を除いて、著作者は思想又は感情を創作的に表現する自然人に限られますから、人工知能自体が著作者になることはありえません。

それでは、作品の制作について指示等を出している人工知能(を搭載したプロダクト)の利用者との関係ではどうでしょうか。この場合には、人工知能は、あくまでも創作のための道具ということになるでしょうから、作品制作に絵筆やパソコンなどのツールを使う場合と同様に、著作物性も認められますし、かつ、著作者としても認められることになるでしょう*41。ただし、人工知能の利用者の作品制作に対する関与の程度(寄与度)があまりにも小さいような場合には、創作性の要件を充足しないため、そもそも「著作物」または「著作者」にあたらないということになると思われます*42智恵子抄事件*43との素朴なアナロジーで考えれば、利用者が、人工知能に対して、作品制作につきヒントや資料を提供したり、企画案や構想を示すにとどまるなど、単に補助的な作業を行ったにすぎない場合と同視しうる程度の関与しかしていないときには、著作者(あるいは著作物)にあたらないと考えるべきでしょう*44

◆リーディングケース?

以上、現時点では多少現実離れした「極論」や「限界事例」も含まれていますが、必ずしも法学にとって無意味なことではありません。このように考えるのは、法学(あるいは法律家や企業法務部)が、普通は起こらないだろうと考えられる事故であっても、そのリスクへの対処を考えなくてはならない立場にあるからです。技術的にまったくありえないようなことなら格別、そうでない場合には、基本的にはリーガル・リスクとして考慮せざるを得ません。

技術的に人工知能にはまだまだ課題があるようですが、たとえば、大手検索サイトの「サジェスト機能」による名誉毀損の問題のように、人工知能に関する問題と質的にかなり近い問題は、既に起きています*45。この問題について、予見可能性の範囲外で機械的に行われた結果だという見方をすれば、上述した人工知能の問題とほぼ同一の構造を有することになります。

Xは,Z社が本件ドメイン名を使用して本件サイトを管理,運営することによって他人の名誉を毀損する結果が生じ得ることが十分予想し得たと主張するところ,Z社は,世界的な規模でインターネットにおける情報検索サイトを運営している〔…〕から,その情報量はかなり膨大であると推測される。そうすると,その中には他人の名誉を毀損するものが生じ得ることが一般的・抽象的には予想し得るといえても,個々の名誉毀損行為を常時監視し発見することは容易ではないと解されるから,そのことが予想し得たというだけで,Y社がZ社に対して本件サイトにおいて他人の名誉を毀損する表示がされないように事前に監督すべきであるとまではいえない。

〔…〕本件サイトにおいて多数の利用者に検索サービスが提供されているという側面も踏まえると,名誉毀損の結果の発生から直ちに本件ドメイン名の契約を中止すべき義務が認められることにはならない。Z社が検索プログラムに本件検索結果を表示しないようなロジックを組み込むことが容易にできるかについては,証拠上不明であるし,被害救済の困難性という事情からのみY社の義務を導き出すことも困難である。

(大阪高判平成27・6・5 LEX/DB 25540592 ※関係部分の抜粋)

この判例自体は「人工知能」に関するものではありませんし、グローバルな事案なので米本社(Z社・訴外)と国内支社(Y社・被告会社)との契約関係など余計な要素が含まれていたりする間接的なケースなのですが、人工知能の問題を考えるにあたっては、かなり参考になると思われます*46

今後の人工知能技術開発や関連ビジネスの動向に注目したいところです。

◆参考文献(出版年月日降順)

  • DIAMONDハーバード・ビジネス・レビュー編集部編訳『人工知能――機械といかに向き合うか』(ダイヤモンド社、2016年9月29日)
  • 『この1冊でまるごとわかる! 人工知能ビジネス』(日経BP社、2015年10月12日)
  • 小高知宏『人工知能入門』(共立出版、2015年9月15日)
  • 山際大志郎『人工知能と産業・社会 第4次産業革命をどう勝ち抜くか』(経済産業調査会、2015年9月4日)
  • 小林雅一『AIの衝撃―人工知能は人類の敵か』(講談社、2015年3月20日)
  • 松尾豊『人工知能は人間を超えるか ディープラーニングの先にあるもの』(KADOKAWA、2015年2月10日)
  • 松尾豊・塩野誠『東大准教授に教わる「人工知能って、そんなことまでできるんですか?」』(KADOKAWA、2014年10月14日)
  • V・M=ショーンベルガ―&K・クキエ(斎藤栄一郎訳)『ビッグデータの正体 情報の産業革命が世界のすべてを変える』(講談社、2013年5月20日)
  • フェルディナン・ド・ソシュール(影浦峡・田中久美子訳)『ソシュール 一般言語学講義 コンスタンタンのノート』(東京大学出版会、2007年3月27日)

◆脚注

ブログという形式の都合上、「前掲」となっているものは、上の参考文献欄に記載されたものを意味します。

*1:たとえば、人工知能は人間と同じような「こころ」を持てるのかという問題や、シンギュラリティ(技術的特異点)の問題、人工知能の発展に伴う職業淘汰の問題などは、少なくとも直接的には実定法学(法律家や企業法務部)の関心の対象とはなりえない。なお、本稿は、人工知能技術を工学的技術と捉える「弱いAI」の考え方に立脚する。これは、今のところ、知能追求を目的とする「強いAI」の考え方に立ったところで、実定法学上の思考方法としては実益がないと思われるからである。ただし、以下に述べる「ディープラーニングを取り入れた人工知能」は、技術的思想としては「強いAI」の考え方に傾斜していることに注意されたい。

*2:人工知能に関する工学的技術自体の説明については、一般社団法人人工知能学会「人工知能って何?」や、小高・前掲書等を参照。いずれも入門的な内容である。なお、本稿で主として「人工知能」と呼んでいるものは、後述する「ディープラーニングを取り入れた人工知能」である。

*3:松尾・前掲64頁、小林(雅)・前掲80頁。"Artificial Intelligence" という言葉がはじめて登場したのは、 米国東部ダートマスで開催されたワークショップ("A PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE" 参照)におけるジョン・マッカーシーの発言とされる。

*4:現在考えられている具体的な実用化の方向性に関しては、『この1冊でまるごとわかる! 人工知能ビジネス』(日経BP社、2015年)48頁以下を参照。もっとも、技術に対する期待度と実際の貢献度との乖離については、ガートナージャパン広報室「ガートナー、「日本におけるテクノロジのハイプ・サイクル:2016年」を発表」(2016年10月5日)、「ガートナー、人工知能 (AI) に関する10の「よくある誤解」を発表」(2016年12月22日)などを参照。現時点において、人工知能技術は「ハイプ・サイクル」における「過度な期待」のピーク期に位置付けられている。なお、実際にどこまで実用化されているのか全体像を把握することは困難であるが、検索大手の Google などが一部のサービスに導入しているようである。

*5:小林(雅)・前掲115頁。

*6:小林(雅)・前掲118頁によれば、「現時点でディープラーニングの最大の長所は、「特徴量(特徴ベクトル)」と呼ばれる変数を人間から教わることなく、システム自身が自力で発見する能力にある」とされていると指摘する。なお、本記事の立場でもあるが、DHBR・前掲50頁以下〔安宅和人〕に示されるように、AIに「意思」があるわけではないという点を確認しておきたい。

*7:平成27年6月30日閣議決定「『日本再興戦略』改訂2015-未来への投資・生産性革命-」では、人工知能等による産業構造及び就業構造への影響を指して「第四次産業革命」と呼んでいるようである。なお、山際・前掲67頁以下も参照。

*8:ここにいう「制御不能」とは、ロボット等を工学技術的にコントロールできないという意味や、従来の技術と比べて事故の発生率が高くなるという意味ではない。「意思的支配領域」や「自己答責領域」の範囲外という規範的な意味にすぎない。また、ここで問題とされているのは「自律性」であって「自動性」ではない。この点、人工知能学会倫理委員会人工知能研究者の倫理綱領(案)」の序文では、「人工知能はその汎用性と潜在的な自律性から人工知能研究開発者の想定しえない領域においても人類に影響を与える可能性があり、人工知能研究開発者によって為された研究開発がその意図の有無に関〔ママ〕わらず人間社会や公共の利益にとって有害なものとなる可能性もある」と述べられている。この綱領案は、「人工知能研究開発者」を名宛人とするソフト・ローの一種であり、いわゆる業界の自主制定規則である。内容的には、プライバシーの尊重や説明責任等であり、広範囲の悪用防止措置義務(第10項前段)を定めるなど一部踏み込んだところはあるものの、規定の仕方としては、率直に言って、かなり粗雑であるように思われる。とりわけ第7項後段は「法規制の遵守」どころかその正反対のことが規定してあるようにも読める。今のところ人工知能学会の公式見解となっていないものの、一市民の立場として多少の懸念がないではない。

*9:近時の動向として、2015年10月11日、「ロボット法学会」設立準備研究会が開催された(「「ロボット法学会」設立準備研究会 | Robot Law @ Japan」参照)。なお、ロボット法学の必要性については、小林正啓・櫻井美幸「「ロボット法学会設立準備会」に寄せて」花水木法律事務所(2015年10月13日)も参照。しかし、業界関係者の反発からか、同学会は活動を停滞させているようである。ただ、同学会が活動しないことにつき説得的な根拠があるとは思われない。残念ながら日本企業の中には事業部と法務部との関係がよくないところもあり、法務全般に対して過剰な反感を持たれることがありうることに注意されたい。

*10:この分類自体は、人工知能の諸問題につき、小林(雅)・前掲50頁以下等を参考に、なるべく技術的実態と整合するように配慮しつつ、筆者が法学的な問題設定となるように書き直したものである。より適切な問題設定ができるカテゴライズが考えられてよい。山際・前掲195頁〔松尾豊発言〕では、「人工知能へのネガティブな反応に冷静に答えていくためには、人文・社会科学的な議論も併せて重要になってくる」とされていることからも、法学的な観点からの議論も必要ではないかと思われる。なお、人工知能技術に限ったことではないが、しばしば「技術の発展に法整備が追いついていない」とのステレオタイプな指摘がなされることがある。たしかに、これは一面において正しいが、かなり大雑把な議論の仕方だと言わざるを得ない。もっと具体的に、それが本当に法整備によって解決すべき問題なのかどうか等を検討したうえで、何法の何条のこの文言の解釈では対応できないからこれこれの法律や条項が必要だ、という言い方をする必要があるだろう。

*11:「個人情報」という言葉ではなく「個人の情報(パーソナルデータ)」という言葉が使われる場合には、それが実定法上の「個人識別情報」にとどまらないという趣旨である。個人情報保護法2条1項における「個人情報」との関係について、詳しくは、小向太郎「ライフログの利活用と法律問題」ジュリ1464号53頁以下、曽我部真裕ほか『情報法概説』(弘文堂、2016年)182頁以下〔曽我部〕等を参照。なお、直近の法改正(平成27法65)では、「個人情報」にとどまらず「個人の情報」の一部にまで保護対象を拡張している。このような改正の背景等については、宇賀克也「『パーソナルデータの利活用に関する制度見直し方針』について」ジュリ1464号(2014年)12頁、宍戸常寿「個人情報保護法制―保護と利活用のバランス」論究ジュリ(2015年春)37頁以下等を参照。

*12:詳しくは、本ブログ「遺伝情報概念と法整備のゆくえ」を参照。

*13:「ビッグデータ」という用語は、単に大量のデータを意味するものではない。従来の「サンプル調査」との対比において、はじめてその特徴を記述することが可能である。詳しくは、ショーンベルガ―・前掲書参照。

*14:スマートフォンなどの個人が持っている無線端末をセンサーと捉え、そこから情報の取得・収集を行う形態を「センサー・ネットワーク」と呼ぶことがある。このネットワークを外部ネットワークに接続して強力なコンピュータにより管理・利用する形態を「モノのインターネット IoT: Internet of Things」とか「Cyber-physical System」などと呼ぶ。前者は取得情報の外部ネットワーク接続という一方向の情報流通経路に着目しているのに対して、後者は実世界 Physical とサイバー空間 Cyber の相互作用という円環的な仕組みに着目しているものと思われる。

*15:既に第三者が保有する情報との照合等により、本人が予期せぬ不利益を被るおそれがある。また、ショーンベルガ―・前掲230頁以下は、個人の情報の2次利用に対しては、従来型のプライバシー構成による救済が機能しないという問題点を指摘する。そこで、改正個人情報保護法23条1項では、本人の同意等がない限り、原則として、個人情報取扱事業者による個人データの第三者提供が禁止されることとなった(オプトイン原則。これに違反した場合には、勧告・命令・刑事罰等の措置がとられる)。そもそも、企業によるビッグデータの不正な利用や第三者への流出等が発覚すれば、当該企業の事実上の信用が失墜しかねない。このようなこともあり、情報管理につき、取締役会等は相応の対策を迫られる(同法20条〔安全管理措置義務〕、21条〔従業者監督義務〕、22条〔委託先監督義務〕、31条〔苦情処理体制構築義務〕、会社法348条4項・362条5項等〔内部統制システム構築義務〕)。これについては、曽我部・前掲215頁〔曽我部〕、白井邦芳『リスクマネジメントの教科書』(東洋経済新報社、2014年)171頁以下等も参照。なお、ビッグデータの利用許諾は、実務上、いわゆる「トレードシークレット・ライセンス」の一種として扱われており、その管理等につき不正競争防止法上の営業秘密規定の保護・規制が及ぶ場合がある。

*16:なお、プライバシーや人格権という類型に収まらないケースがあるのではないかといった趣旨の問題が提起されている。松尾=塩野・前掲171頁では、「忘れられる権利」にとどまらず、犯罪を「見逃される権利」なるものも考えなくてはならないとする。しかし、「見逃される権利」以前の問題として、我が国の学説・実務においては「忘れられる権利」というものはスローガン的な意味で使われているにすぎず、せいぜい人格権に基づく差止請求権の肯否を判断するにあたって「時間の経過」が差止認容に働く事情として考慮されるという意味を持つにすぎない(さいたま地決平成27・6・25判例集未搭載、曽我部・前掲296頁〔栗田昌裕〕)。他方で、犯罪を「見逃される権利」なるものを作らずとも、平等原則(憲法14条1項)や信頼保護原則・比例原則(憲法31条)などの客観法、刑法上の可罰的違法性論(刑法35条参照)、刑事訴訟法上又は刑事実務上のダイバージョン等の仕組みで考えていけば足りるのではないかと思われる。そもそも、「忘れられる権利」等の是非は、その国の文化的反映という側面が強く、アメリカとEUとの間でも明確に態度がわかれているようである。これについては、宮下紘「ビッグデータの活用とプライバシー保護」法セミ707号(2013年)10頁以下を参照。

*17:いわゆる「モノのインターネット Internet of Things, or IoT」を、いわば人間に適用する場合に問題となる典型的ケースである。企業にとっては、対消費者よりも、対従業員のほうが様々な意味で情報収集のハードルが低いことから、まず労働関係の問題から生じるであろうと予測される。

*18:水町勇一郎『労働法』(有斐閣、第5版、2014年)230頁以下参照。

*19:東京地判平成13・12・3労判826号76頁【E-mail 閲覧訴訟】労働法判例百選29事件。ただし、請求棄却。

*20:この問題につき、水町・前掲231頁は、「会社側の業務上の必要性と労働者のプライバシー」の比較衡量の問題であるとする。そこでは、①使用者が労働者の人格的利益を侵害すれば原則として違法として捉え、②例外的に会社側の業務上の必要性がそれを上回る場合に違法性を阻却するという旨の裁判例の整理がなされている。より具体的な判断基準等については、「情報セキュリティ関連法令の要求事項集」(平成23年4月経済産業省)90頁以下、「個人情報の保護に関する法律についての経済産業分野を対象とするガイドライン」(平成26年12月12日厚生労働省・経済産業省告示第4号)を参照。

*21:この点は、ビッグデータの本質と密接に関係する。ショーンベルガ―・前掲35頁以下参照。

*22:小林(雅)・前掲17頁以下参照。

*23:ただし、企業と市民との安易な二項対立図式によって簡単にバランスをとれるような問題ではない。というのも、市民が企業に情報の取得・利用を許諾することによって、はじめて企業は市民に対して高品質なサービスを提供でき、あるいは、最適な労働環境を整備することが可能だからである。この点、松尾・前掲249頁図31では、日本における短期的な課題として、「データの利用に対する社会的な受容性」や「データ利用に関する競争ルール」があげられている。また、小林(雅)・前掲69頁は、「今から厳格な運用ガイドラインなどを設けておく必要がある」と指摘する。改正個人情報保護法では、個人情報取扱事業者(同法2条5項)は、個人情報を取り扱うにあたって「利用目的」をできる限り特定しなければならず(同法15条1項)、あらかじめ本人の同意を得ないで、利用目的の達成に必要な範囲を超えた個人情報を取り扱うことが厳格に禁止されることとなった(同法16条1項・2項)。この「利用目的」は、個人情報取扱事業者が、事前に公表しておくか、公表していない場合には個人情報の取得の際に本人に通知し、または公表しなければならない(同法18条1項)。個人情報取扱事業者がこれらの規定に反する場合には、刑事罰もありうるというのが今回の改正で強調されるべきポイントのひとつであろう(同法42条、84条)。特定の程度については、利用目的の達成に必要な範囲内か否かにつき実際に判断しうる程度の明確性を有すれば足りるとされる(曽我部・前掲〔曽我部〕190頁)。同書189頁注29では、「利用目的の特定の程度については、各省庁によるガイドラインや認定個人情報保護団体によるガイドラインで示されていることが多い」とされているが、そのガイドラインについて、平成28年1月1日から、改正法に基づき改組された個人情報保護委員会が一括して管理・公表している(法令・ガイドライン等参照)。そして、AIとの関係では、その用途の広さから利用目的の特定が困難になるという問題が生じうる。すなわち、AIが取得する膨大な種類・量の個人情報の利用目的・用途につき、網羅的かつ具体的にプライバシーポリシー等に記述したとしても、それは本当に特定性に欠けるものではないと言い切れるであろうか。また、仮に特定性に欠けるものではないとしても、それは個人情報の保護にとって真に実効的な制度だと言えるのであろうか。さらに言えば、AIは取得する情報をも自律的に変えることが可能であることから、というより、もはやAIは「情報を生産している」とさえ言えることから、取得される情報について事前にその利用目的を特定することは観念しえないのではないかという疑問がある。

*24:これは、あくまでも開発者としての企業側に立ったときの話である。消費者側(被害者側)に立てば、実際に行われた判断過程を知ること自体が不可能に近い。また、松尾・前掲246頁は、「学習済み」の製品だけが製造・販売された場合には、第三者が「学習結果から学習アルゴリズムを推定するのはほぼ不可能である」とする。そうだとすると、消費者が製品事故等の被害者となった場合には、その代理人弁護士としては、証拠収集上、極めて困難な事態に陥る。このような場合における証拠収集手段として、文書送付嘱託(民事訴訟法221条)、文書提出命令(同法220条以下)、証拠保全(同法234条)などが考えられるが、それなりに問題もある。詳しくは、高橋郁夫ほか編『デジタル証拠の法律実務Q&A』(日本加除出版、2015年)155頁以下を参照。

*25:窪田充見「自動運転と販売店・メーカーの責任――衝突被害軽減ブレーキを素材とする現在の法律状態の分析と検討課題」ジュリ1501号(2017年1月)37頁は、複雑な損害賠償・求償関係の処理や最終的な責任・負担の帰属が問題となる旨を指摘する。

*26:小林正啓・櫻井美幸「ロボット事故の法的責任をめぐる誤った議論について」花水木法律事務所(2015年2月24日)。ただし、その理由・根拠は明らかにされていない。価値判断としては、やや企業側に傾斜しすぎているように思われる。

*27:民法717条、718条と対比せよ。また、自動運転車のケースに限っていえば、一次的にせよ二次的にせよ人工知能を媒介して危険源を管理することになる自動車メーカーが自動車損害賠償法3条にいう運行供用者から外れるとは思われない。なお、牧野和夫「AI・ロボット・自動運転の法的実務の課題と対応の方向性」BIZLAW(2016年2月24日)3頁、日本損害保険協会「自動運転の法的責任について報告書を作成~事故時の損害賠償責任の考え方を整理~」(2016年6月9日)、警察庁「自動走行の制度的課題等に関する調査研究報告書」(2016年3月)、藤田友敬「自動運転と運行供用者の責任」ジュリ1501号(2017年1月)23頁以下等も参照。

*28:対メーカーに関しては製造物責任法3条、対運行供用者に関しては自動車損害賠償法3条参照。もっとも、製造物責任にしても、免責事由として「当該製造物をその製造業者等が引き渡した時における科学又は技術に関する知見によっては、当該製造物にその欠陥があることを認識することができなかったこと」が規定されているため(同法4条1号、開発危険の抗弁)、この意味での認識可能性(の不存在)は、厳格な要件であるにせよ、過失判断における予見可能性と同様に問題となり得る。それ以前の問題として、そもそも「欠陥」(同法2条2項。とりわけ設計上の欠陥)にあたらなければ、製造物責任の追及すら不可能である。自賠法における免責三要件(同法3条ただし書)についても、同様のことがいえるであろう。小林正啓「ロボットと法規制」『この1冊でまるごとわかる! 人工知能ビジネス』(日経BP社、2015年)32頁以下では「バグ」で事故を起こす場合が想定されているようであるが、人工知能技術において真に問題となるのは「バグがないのに」事故が起こる場合である。
 なお、本ブログ記事の主題からは離れるが(そして本ブログの本来的主題であるが)、小林(正)・前掲32頁以下で指摘されているようなドローンが他人の住居に侵入した事例においては、いかなる刑法解釈論を採用しようとも、住居侵入罪(刑法130条前段)が成立する余地はないことを指摘しておきたい。現行の住居侵入罪の保護法益は、「個人のプライバシー」ではなく「住居に誰を立ち入らせるかの自由」であるから(住居権説・判例)、情報の取得という側面からは不可罰であり、民法上の損害賠償請求の問題となる(刑法245条より、情報窃盗としても当然に不可罰である)。他方、モノの侵入という物的な側面を捉えれば、野球のボールが住居に飛び込んだ場合や飼いならされたゴリラが住居に「侵入」した場合などと同様に住居侵入罪を構成することはない。それらを故意に行う場合があったとしても、現実的には、建造物損壊罪(刑法260条前段)や器物損壊罪(同261条)等の成立を検討していくことになるように思われる。そうすると、上のような事例において個人のプライバシー保護を問題とするのであれば、素直に、今後の立法政策に委ねるべきであろう。他方で、企業が保有する情報に関しては、既に営業秘密規定の罰則があるため(不正競争防止法21条1項1号以下)、取得情報が「営業秘密」(同2条6項)にあたる限り刑事罰の対象となりうる。

*29:製造物責任法1条等参照。なお、企業の経済活動(憲法22条1項参照)との調整に関しては、上述した「開発危険の抗弁」等によって実現されることが予定されている。ただし、現実には、開発危険の抗弁はほとんど認められていない。

*30:松尾=塩野・前掲185頁では、自動運転車の事故のケースにつき、運営会社に責任を負わせる構成や、メーカーに製造物責任を負わせる構成が提案されているが、人工知能の利用用途が限られている段階でしか通用しない構成であろう。人工知能の道具としての目的の抽象化が進行し、適用範囲が拡大するとともに、本来、企業が負うべき「責任」は「コスト」へと変質することにもなりかねない。なお、このような「企業が責任を負うべきだ」とする考え方を前提に、契約によって消費者・ユーザーにリスクを移転させる考え方もできないではないが、そもそも契約当事者が予見しえないリスクを当事者間の合意によって移転させることは観念しえないのではないかという疑問があるほか、消費者・ユーザーは人工知能を搭載したプロダクトに内在するリスクをコントロールできる立場にないことが多いと思われることから、約款の不当条項の排除の法理等により、結局、リスク移転は無効となるように思われる(たとえば、消費者契約法8条以下参照)。契約でリスク移転が可能だとして、甘く見ても、せいぜいBtoBの場合にしか妥当しない手法であろう。

*31:たとえば、大手検索サービス提供会社 Google の自動運転車につき、"Monthly reports – Google Self-Driving Car Project" で事故等の報告を閲覧できる。2016年2月のレポートでは、自動運転車が車線の右端付近を走行していたところ、前方に砂袋を検知し、一度停止してそれを避けようと車線の中央部に出ようとした時に、後ろから来たバスと接触した旨の事故の報告が注目される。また、電気自動車大手テスラ・モーターズの死亡事故については、ニューヨーク・タイムズ "Self-Driving Tesla Was Involved in Fatal Crash, U.S. Says" (2016年6月30日)が詳しい。自動運転技術自体については、さしあたり、池田裕輔「自動運転技術等の現況」ジュリ1501号(2017年1月)16頁以下参照。

*32:一般的には、「UAV」や「RPA」と呼ばれる。なお、米空軍の説明によれば、"For every RPA, there is a pilot with a crew in continuous control of the aircraft, ensuring not only operational precision but complete ground and flying safety." とされる("Dispelling remotely piloted aircraft myths" 米空軍ホームページ、2015年5月15日)。他方、「殺人ロボット:完成前に 禁止を」(Human Rights Watch ホームページ、2012年11月19日)も参照。このような問題が、日本国内でそのまま商業的に問題となることはほとんど考えられないが、そこで示されている議論の枠組みや解決策等は商業的にも参考となり得るように思われる。

*33:念のため付言しておくが、「制御権」や「移譲」という言葉は、もちろん法律用語ではない。個人の意思に基づく支配可能性や自己答責性の後退を裏面から表現した一種の比喩である。

*34:法的に問題となることはないであろうが、将棋の例を用いれば、次の一手について人工知能により有効な手が提示されたとして、それをそのままロボットが打つのか、人間が自分でその手を選択して打つのか、という問題である。裏を返せば、人間に提示された手を打たないという判断をする自由を与えるべきかどうかの問題である。ここにいう「判断」とは、外部的に、何らかの具体的なアクションを発生させるかどうかの選択を意味し、それをあらかじめコンピュータに委ねるかどうかという人間の意思的介在の有無・可能性に焦点があてられている。この意味では、人工知能の計算結果自体を「判断」と見ているわけではなく、ゆえに、計算過程ないし数式自体に倫理的判断を混入させるかどうかが問題とされているわけではないと思われる。人工知能に「倫理」をプログラミングすべきか、といった類の問題は、人間の意思的介在がない場合に、はじめて問題となるものであるから、論理的には、人工知能の第一次的な計算結果とは別個の段階・次元で考慮されるべきメタ的問題であろう。いわゆる「ロボット三原則」も、人工知能の第一次的機能に内在させられるような原理・原則ではなく、メタレベルの機能で「実装」するほかないものであるように思われる。

*35:小林(雅)・前掲54頁以下によれば、正規分布曲線におけるベル・カーブの両端部分に位置する事態は、無視できるほど小さい確率であるとして、事実上、そのような異常事態は起きないと仮定されているが、現実にはテール部分の確率がもっと大きいことが指摘されているとする。

*36:DHBR・前掲68頁〔安宅和人〕は、人間の見立てや勘の役割について「AIとデータ利活用全体のチューニング的なもの」に変わっていくとしている。

*37:松尾=塩野・前掲188頁以下、小林(雅)・前掲56頁以下参照。

*38:緊急避難に関する刑法学説の対立状況については、さしあたり、野村稔「緊急避難」『刑法の争点』(有斐閣、2007年)50-51頁を参照。

*39:本ブログ「知的財産戦略本部ってなんだ」参照。

*40:知的財産戦略本部検証・評価・企画委員会(産業財産権分野・コンテンツ分野合同会合(第5回))議事次第参考資料1「次世代知財システム検討委員会報告書」(平成28年4月18日)22頁参照。

*41:中山信弘『著作権法』(有斐閣、第2版、2014年)220頁参照。この結論自体は、以前から支持されており、平成5年11月付「著作権審議会第9小委員会(コンピュータ創作物関係)報告書」によると、「コンピュータ創作物の著作物性については、現時点では、人が思想感情を創作的に表現するための「道具」としてコンピュータ・システムを使用したと認められる場合が多」いとされ、「コンピュータ創作物の著作者については、著作者は、具体的な結果物の作成に創作的に寄与した者であり、通常の場合コンピュータ・システムの使用者であると考えられる。」と結論付けられている。

*42:この点につき、福井健策「人工知能と著作権~機械創作の普及でクリエイターは失業するのか?~」(2015年12月1日)は、「わざわざ「過程での創作的寄与」と言うのだから、完全自動生成に近いコンテンツ、つまり「単に人はボタンを押すだけ」といった関与の場合には著作物から除外されそうだ。」と述べているが、おそらく本稿と同趣旨の見解と思われる。なお、中山・前掲221頁は、立法的解決が望まれるとした上で、「コンピュータ創作物の扱いは、従来の著作権の枠組みでは解決不能であるという認識が必要であり、コンピュータ創作物特有の思い切った判断が求められよう。」とする。

*43:最判平成5・3・30判時1461号3頁・著作権法判例百選29事件、東京地判平成10・10・29判時1658号166頁、東京地判平成16・2・18判時1863号102頁、京都地判平成16・11・24判時1910号149頁等。

*44:著作権法の目的は、「芸術文化活動が活発におこなわれるための土壌を作ること」(福井健策『著作権とは何か』(集英社、2005年)9頁)とか、「より容易に対価を還流する手段を著作者に与えて、創作活動のインセンティヴをさらに増大させる」(田村善之『知的財産法』(有斐閣、第5版、2010年)417頁)などと表現される。要するに、著作権法は、人間の芸術活動等を促進するという意味での「文化振興」を公益として保護(創作活動に対するインセンティブを創設)することを目的とする法律である。そして、人工知能の利用によって制作された作品が保護されなくとも文化振興の観点からはそれほど問題はないように思われる。というのも、人間が作品の制作に労力を費やしていないのであれば、このような作品に著作権を認めなかったからといって、人間の創作意欲が減退するなどといったことは考えられず、むしろ人工知能によって生み出された大量の作品に排他的な権利を認めれば、かえって人間の創作活動を妨げかねないからである。それは結局、著作権法本来の目的である文化振興を阻害することになると思われる。また、人工知能を搭載したプロダクトの開発者の利益は、当該技術自体に特許権等を認めれば足りると考えられるほか、利用者が自己の権利を主張したいのであれば、自身で当該作品に創作的に寄与し、あるいは改変を加えればよいのであるから、人工知能を利用した第一次的作品自体に著作権を認めないという結論は必ずしも不当とは言えない。他方で、「しかしながら、自然人による創作物と、AI創作物を、外見上見分けることは通常困難である。両者の違いは創作の過程に表れるものであり、創作物それ自体に創作過程での違いが表れるものではないからである。このため、「AI創作物である」と明らかにされている場合を除き、自然人による創作物と同様に取り扱われ、その結果、一見して「知的財産権で保護されている創作物」に見えるものが爆発的に増えるという事態になる可能性がある。」(前掲「次世代知財システム検討委員会報告書」22頁)という問題が指摘されている。

*45:大阪高判平成27・6・5 LEX/DB 25540592。

*46:本判例は、松尾・前掲52頁で指摘されているレベル3の「機械学習を取り入れた人工知能」に関するものである。これに対して、この記事で「人工知能」と呼んでいるものは、レベル4の「ディープラーニングを取り入れた人工知能」のことであるから、この点では、事案が異なる。

【注意事項及び免責】
ブログ内のコンテンツの無断転載等はご遠慮ください。
また、当ブログは法律学習を目的とするものであり、実際に生じた法律問題の解決を目的としておりませんので、法律相談は適切な法律事務所までお願いします。記事中において金融商品に関して言及することがありますが、投資・投機等を勧めるものではありません。当ブログに記載された内容またはそれに関連して生じた問題について、当ブログは一切の責任を負いかねますので、あらかじめご了承ください。