受付時間 | 9:00~18:00(土日祝祭日は除く) |
---|
電話番号 | 03-3254-5665 |
---|
昨今、人工知能・AIといった言葉を見かけない日はないというくらいに、経済・産業分野における人工知能に関する報道が増えています。
法律の分野でも同様であり、AIに関する法的問題を扱った書籍が刊行されるようになりました。特に、知的財産法の分野に関しては、AI自体の保護をどうするかといった問題や、AIが創作したものについて法的保護が及ぶのかといった議論が盛んになされています。
そこで、フランテック法律事務所として、2017年の前期のフランテック法律事務所のクライアント向けのセミナーのテーマとして、AIを選びました。フランテック法律事務所のセミナー担当者として、人工知能に関する多くの書籍や論文、講演録を読む中で、そもそも、人工知能とは一体何なのか?という疑問が生じたのですが、人工知能に関する専門書を読んでも、納得のいく答えは見つかりませんでした。また、法律学の分野においても、「人工知能」を定義づけた文献は少ないようです。
そこで、本コラムでは、人工知能の定義を考えてみたいと思います。本コラムが法律学における「人工知能」の定義の議論の活性化につながれば幸いです。
まず、技術分野の研究者による定義を概観してみましょう。
人工知能学会のホームページに掲載されている定義
https://www.ai-gakkai.or.jp/whatsai/AIresearch.html
「人工知能(AI)とは、知能のある機械のことです。」
この定義に関しては、「人工(的な)知能」というものが何かを定義づけるために、「知能」という言葉を使っている点で、定義としては、不明確です。
ちなみに、広辞苑によると、「知能」とは、①知識と才能、②知性の程度とされています。そのため、上記の定義に①をあてはめると、「知識と才能のある機械」のことを「人工知能」と呼ぶとことにしていると考えられます。
他の研究者による定義に関しては、以下のようになっています(敬称は省略しています)。
(以上の定義につき出典は、松尾豊『人工知能は人間を超えるか』45頁(KADOKAWA、2015)に掲載されている「人工知能学会誌」記載の定義の一覧)
最近の法律書では、以下の定義がなされています。
また、官民データ活用推進基本法では、「人工知能関連技術」につき、人工的な方による学習、推論、判断等の知的な機能の実現及び人工的な方法により実現した当該機能の活用に関する技術をいうとされています。
以上の定義を要素ごとにまとめて表にしたものが、以下の表になります。
| 研究者名 | 人工的 | 知能 | 人間的 感性(心) | 理性 | 有体物 (機械) | 技術(システム) | 人を基準としたときの知能の程度(人を超えるかどうか) |
1 | 人工知能学会 | ○ |
| ○ |
|
| ||
2 | 山川宏 | ○ |
| ○ |
|
| ||
3 | 中島秀之、武田英明 | ○ | ○ |
|
| ○ |
|
|
4 | 西田豊明 |
| ○ | ○ |
| ○ |
|
|
5 | 松尾豊 | ○ | ○ | ○ |
|
| ○ | ○ |
6 | 松原仁 | ○ | ○ | ○ |
|
|
| ○ |
7 | 栗原聡 | ○ | ○ |
|
|
|
| ○ |
8 | 堀浩一 | ○ | ○ |
|
|
|
|
|
9 | 溝口理一郎 | ○ | ○ |
|
|
| ○ |
|
10 | 長尾真 |
| ○ | ○ |
|
| ○ | ○ |
11 | 池上高志 | ○ |
| ○ |
|
| ○ | ○ |
12 | 山口高平 | ○ | ○ | ○ |
| ○ | ○ | |
13 | 福岡真之介 |
|
|
|
|
| ○ |
|
14 | 影島広康 |
| ○ |
|
|
| ○ | ○ |
このように要素ごとに整理を行うと、「機械」であること、すなわち「有体物性」と、「技術」という「無体物性」の要素は、研究者による定義において重なるものではないことがわかります。また、技術分野の研究者の方々における定義では、AIの知能の程度については、その内容としては重視されていないことがわかります。
(1)定義の意義
AIの定義を考えるにあたり、定義の存在意義について考えてみることが必要です。現時点におけるAIの法律学における定義は、AIに関する法律の議論の範囲(検討・研究範囲)を画定するためにあるように思われます。そこで、定義としての対象範囲は、AIによって喚起される全ての法律問題を網羅している必要があると考えられます。
(2)人工知能(AI)のレベル
ここで問題となるのが、研究者の方々のAIの定義で触れた「AIのレベル」についての議論です。以下に記載されたAIの全てについて議論の対象に入れるべきかどうかが問題となります。
これらのAIのレベルについての説明の詳しい内容については、前掲した松尾豊先生の『人工知能は人間を超えるか』(KADOKAWA、2015)の51頁以下を参考にしてください。
上記のレベル1から4までを見ると、レベル2とレベル3の間に大きな隔たりがあることが理解できます。レベル2以下と、レベル3以上の差は、端的に「自律的に意思決定できるか」という点にあります。そして、この自律的な意思決定こそがAIの特徴であり、また、法的問題が起こる原因です。
例えば、自動発注システムというものがあります。最近ではプリンターのトナーや洗濯機に使用する洗剤などが自動発注されているようです。この自動発注システムが、機械学習の結果、思いもよらない発注をしてしまった場合に、どう対応すべきかが問題になります。自分の好みとは合わない柔軟剤を発注されたら、発注を取り消したくなるというのが普通の人の感覚でしょう。このようにAIが自律的に意思決定した場合に、その意思決定につきAIの保有者(利用者)が責任を負わなければならないかという点は、議論の対象となる点です。
逆に、レベル2以下のAIが発注した場合というのは、単純に、そして文字通り機械的に発注を行っただけであるため、端的に保有者(利用者)が責任を負うべき場合が多いと考えられ、議論の余地はあまり多くないように思われます。
以上から、AIが自律的な意思決定を行なうかどうかが、議論の対象とするか否かの分岐点となるべきものと考えられます。
(3)人工知能(AI)の学習段階
このように、議論の対象とすべきAIにつき、そのレベルを3と4に限定すると、両者に共通する機能として、学習機能が挙げられます。
AIを学習させてから販売するのか、学習させていない状態で販売するのかによって異なるかと思いますが、学習段階ではビッグデータや個人情報を使って学習をさせる可能性があります。
例えば、学習を行っていない自動発注システムのAIを購入し(使用許諾を受け)、自分の生活スタイルに合わせて自動発注を行うなかで、自分の好みをAIが学習した場合が想定されます。この場合、AIの中には、まさにプライバシーと呼べるような、自分の公開されたくない情報が詰め込まれていることになります。
もう少し問題になりそうな具体例を考えてみます。例えば、学習用のデータとして観光客の足取りを記録するために、観光客専用のICカードアプリを用意し、これをダウンロードしてもらったうえで、電車等の移動の際にスマートフォンをかざして乗降車を行ってもらうとします。スマートフォンの中に記録されている個人識別情報等と一緒に乗降車の記録が採取されていた場合、個人と移動の記録が結びついてしまい、普通の人は、プライバシーが利用されているという感覚を持つと思われます。
このように、AIが学習を行う段階でも、法律上検討しなければならない事項があります。そうすると、AIの学習段階についても法律学の議論の対象とする方がよいと考えられます。
(4)人工知能(AI)の学習の結果・成果
それでは、学習した後のAIについてはどうでしょうか。現状のAIでは学習に相当の時間と労力(高性能のコンピュータを複数台)必要としています。これだけの労力をかけているにもかかわらず、AIが見つけ出した特徴量(ひらたくいえば学習によって得られた成果のことで、一貫性のある規則のことです)は保護しなくてよいかが問題となります。
特徴量を獲得したAIを「学習済みモデル」と呼ぶのですが、実は、この学習済みモデルの蒸留問題という課題が議論されています。
蒸留問題とは、リバースエンジニアリングのようなものです。教師役となるAIと同じような出力になるように、学習前のAIのパラメーターを調整していくと、1から学習するよりも短時間で労力をかけることなくAIを学習済みモデルへと発展させることができます。
このような問題があることを踏まえると、学習済みモデルの法的保護を検討しなければいけないと思われます。そこで、AIの学習成果についても議論の対象とするべき、すなわち、定義の対象に含めるべきものと思われます。
(1)人工知能(AI)の定義
これまで見てきたところをまとめると、情報のインプット段階についての規制、学習の成果、そして、アウトプット段階の規制を検討していくべきであるといえます。
これらをまとめて、AIの定義とすると以下のようになると考えられます。
「人工知能とは、①データの解析等を通じて学習を行い、②学習成果に基づき、③人間とは独立して自律的に意思決定を行うシステム」
①は学習段階の保護を、②は学習済みモデルの保護を、そして、③はAIのレベルを念頭に置き、定義に組み込んでいます。
(2)人工知能(Ai)をめぐる今後の課題
定義には、最広義の定義、広義の定義、狭義の定義、最狭義の定義があります(たとえば、刑法上の「暴行」には4段階の定義があります)。本コラムでは、狭義の定義(あるいは最狭義の定義かもしれません)としての「AI」がどのようなものになるかを検討してきましたが、実際には、レベル2とレベル3の間のレベルのAIにつき、どのように考えていくべきかも問題となります。これを仮にレベル2.5としたときに、誰が責任を負うべきでしょうか。例えば、AIがレコメンドした物の中から、服を選ぼうと考えましたが、なかなか決めることができません。そんなときに、「どちらが似合うかな?」とAIに聞きたくなることがありうるでしょう。AIは学習成果を発揮して答えるわけですが、この場合、意思決定はどちらが行ったと評価されるかが問題になります。
また、今後、AIによる創作物の権利者の確定の問題など、更なる議論の展開が見込まれる法分野も多くあります。
このような問題についてもAIに関する検討課題として考えれば、上で記載した狭義の定義では、カバーされていないことになります。このような課題も定義に含めるとすれば、定義の内容に影響しうると考えられます。ただ、それらの動向次第で、狭義の定義を変えることも考え得るのですが、狭義の定義は変更せず、広義の定義としてもう一つの定義を策定することとして、それらの問題を含めた内容の定義を考えることがよいと思われます。
受付時間:9:00~18:00(土日祝祭日は除く)
担当:藤井(ふじい)、池松(いけまつ)、佐藤(さとう)
スポーツジム・フィットネスクラブ経営については、
担当:金井(かない)
メールでのお問合せ・ご相談の予約
受付時間:9:00~18:00
(土日祝祭日は除く)
担当:藤井(ふじい)または池松(いけまつ)
スポーツジム・フィットネスクラブ経営について
担当:金井(かない)
メールは24時間受付
代表弁護士 金井 高志
弁護士 藤井 直芳
弁護士 池松 慧
フランテック法律事務所
〒101-0041 東京都千代田区神田須田町1丁目4番地8 NCO神田須田町2階