北九州市立大学 水野陽一 准教授【AIが進化する現代における人権保障の正しい在り方】

北九州市立大学 水野陽一 准教授に独自インタビュー

もし、何もしていないのに警察に疑われてしまい、間違って犯罪者として逮捕されてしまったとして、どれだけ無実を訴えても全く聞き入れてもらえないとしたら、あなたならどうしますか。

実際に日本でも多くの冤罪事件が起きていますが、冤罪による悲劇を防ぐために社会に必要なことは一体何なのでしょうか。

また、AIが進化する現代において、便利さ故に使い方を一歩間違えると人権侵害を引き起こしてしまいます。

この記事では、「公正な裁判とは何か?」をテーマに研究されている北九州市立大学の水野准教授に、冤罪を防ぐために必要な条件やAIと人権保障の正しい在り方についてお話を伺いました。

水野陽一准教授の紹介
北九州市立大学 水野陽一 准教授

北九州市立大学 法学部 法律学科
水野陽一(みずの よういち)准教授

ドイツ学術交流会の支援を受けた留学を経て、広島大学で博士号(法学)を取得。2014年から北九州市立大学法学部で刑事法学(刑法、刑事訴訟法)を教える。

近年は、AIの社会実装と刑事司法との関係について企業との共同研究を行う他、無罪事件で警察・検察の責任を問う国家賠償請求訴訟の弁護団に協力するなど実際の裁判にも関わる機会がある。

「公正な裁判とは何か?」人権保障の正しい在り方について研究を進める

TLG GROUP編集部:まず最初に、現在の研究テーマとご経歴について詳しくお伺いできますでしょうか。

水野准教授:まず、研究テーマについてお話しします。「公正な裁判とは何か」ということを主なテーマとしていますが、その他だと「AIを社会で使う時に、どうすれば人間に有益でかつ害が少なく済むか」ということも研究しています。

この2つのテーマは結構関係しています。例えば、警察がAIを使って捜査をするとしたら警察側からすると捜査の効率は飛躍的に高まりますが、捜査される側からすると便利さ故にますます監視をされやすくなるでしょう。

裁判において一番立場が弱いのは捜査をされる側なので、犯罪を解決するためだと言って警察のAI利用を無制限に許してしまうと、裁判が警察にとって有利になりすぎて被疑者(テレビでは容疑者と言っていますね)にとってフェア(公正)とは言えない状況が生まれてしまうことにならないでしょうか。

ざっくりとですが、このようなことを研究しています。

TLG GROUP編集部:ありがとうございます。こちらの研究テーマについて、水野様が興味を持たれたきっかけもお伺いできますでしょうか。

水野准教授:多くの人は自分が犯罪者になると考えてもないし、疑われるとも考えてないと思います。ただ、犯罪というものは誰もがやりたくてやっているわけではなく、大変な状況に突如置かれてしまった人や生まれながらにして壮絶な人生を送っている人がやむなく犯罪をしてしまったり、そもそも何もやっていない人が間違って疑われてしまったりすることもあるでしょう。

学生時代に刑事裁判、特に冤罪についてのドキュメンタリーなどを見て、犯罪や刑事裁判が自分にとって関係ないものではなく、むしろ日本の警察や刑事裁判に冤罪を生み出す危険性をはらむ問題が存在していることを知りました。

TLG GROUP編集部:大学の時に興味を持たれてから、今の研究テーマをずっと研究されているということでしょうか。

水野准教授:そうですね。「冤罪の原因とはなにか」ということに興味を持って、まず最初は警察や裁判について研究していました。

元々は助ける側に回ろうと思って弁護士になるために司法試験の勉強をしていたのですが、大学教授として研究をすることでも刑事裁判で困った人を助けることができるかもしれないと考え、気付いたら研究に没頭していました。

また、新しい技術にも関心があり、DNA型鑑定やAIと個人情報の関係についても研究もしていました。そんな時にAI開発を行う企業から共同研究に誘われて、現在の研究テーマの1つである「AIの法的なコントロール」について研究を始めました。

TLG GROUP編集部:どのような経緯で共同研究に至ったのでしょうか。

水野准教授:AIの適切な利用と人権保障は深く関係しています。人間にとって有益なAIの利用のためには個人情報を十分に保護することが前提となるのですが、従来、日本はその認識が薄い傾向がありました。企業がAIを社会に実装する際には人権保障と個人情報の保護が重要であると意見が一致し、共同研究を行う運びになりました。

TLG GROUP編集部:ちなみに、現在のテーマについて何年くらいの間研究されているのでしょうか。

水野准教授:裁判の研究は20年くらいしており、これから先もずっと続けると思います。また、AIに関しては5〜6年くらい研究していますね。

TLG GROUP編集部:ChatGPTが普及したのも去年頃なので、AIというと比較的新しい内容ですよね。

水野准教授:そうですね。今でこそChatGPTも広く知れ渡っていますが、研究を始めた当時はAIと聞くとピンとこない人がほとんどでした。それがこの5〜6年で変わり、例えば高校生に「AIって分かる?使ったことある?」と言うと、昔誰も手を挙げなかったところ、今は誰もが手を挙げます。

TLG GROUP編集部:それくらいAIが世の中に浸透したのですね。課題などでも使っている学生さんが多い印象です。

水野准教授:そうなんですよね。それくらい身近になっています。ただ「AIに情報が取られていますよ、解析されていますよ」と言われて実感がありますか?

TLG GROUP編集部:便利さが先行して、情報を取られることについてあまり実感はないですね。

水野准教授:そうですよね。でも日本のAI技術は世界的にトップクラスなので、AIは様々な場面で利用され、わたしたちの個人情報が収集、分析されています。ただ、「AIに情報を取られて分析されていますよ」と言われてもピンとこない人がまだ多いかもしれないです。

例えば、今私達のしているこの会話から個人情報が収集、分析されていたとしても、痛みを感じません。別に痛くも痒くもないことなんだから、特に法的な規制が必要ないんじゃないのかと考えがちなのではないでしょうか。

分かりやすい痛みを伴うことは法律でルールを作らないといけないが、個人情報、個人データの収集、分析のような目に見えない、痛みを伴わないことは法律のルールは求められない。日本にはそういう風潮がある用に感じられますね。これは警察がすることについても同じで、警察のAIを用いた捜査には具体的な法律によるルールがないんです。

TLG GROUP編集部:そうなんですか!

水野准教授:だから自分が犯罪を犯すことがないと思っている人や、犯罪なんて完全に自分とは関係ないと思ってる人にとって、むしろ警察がAIを使って犯罪者や犯罪を犯しそうな危険人物をどんどん監視して取り締まってくれる方が住みやすい社会が実現されるということになるんですね。

もちろん、日本の警察は世界の中でも優秀で誠実な組織であると言えます。それでも人間が運営する組織なので間違えることもあります。だからこそ、警察の行動をすべて手放しに認めることは許されないのです。

例えば、「この人は今は何も犯罪を行っていないが今後何かするかもしれない」と疑うことも警察の仕事です。警察はできるだけ多くのデータを取りたい。したがって、犯罪者ではない人の情報もあらかじめ取っておくことで、その人がいざ犯罪をした時にすぐ使うことができるという発想から、警察は関係する人のデータをできるだけ収集しています。

TLG GROUP編集部:それが許されてしまうんですね。

水野准教授:現状、警察の個人情報の収集について明確な方による規制がありません。仮に皆さんが警察に疑われたとして、後に裁判で戦うことになったのとしても、警察は沢山の情報を捜査の段階から収集しています。そのような状況で、警察、つまり国家相手に戦えますかと言われたら戦えないですよね。

刑事裁判は警察と疑われた個人の戦いのような側面もあるので、戦いができるだけ対等にフェア(公正)に行われなければならないということを、研究を通じて発信しています。

TLG GROUP編集部:確かに警察だと何でも許されてしまうような風潮はありますね。

水野准教授:日本の警察はとても優秀で、良い人たちの集まりです。だけど実際に間違いがあって冤罪は起こってしまうわけですよね。警察がすることは何でも許されるという前提がある中で、もし間違って疑われてしまったとしても疑われる方に責任があるという話になってしまったら?

TLG GROUP編集部:被疑者(容疑者)の非常に立場が弱くなってしまいますね。

水野准教授:被疑者にとってもフェアな刑事裁判とはなにかということを、これから先もずっと研究していくのかなと思っています。

TLG GROUP編集部:ありがとうございます。また、水野様はドイツへ留学されていたと存じ上げておりますが、ドイツへの留学も今の研究に進む1つのきっかけだったのでしょうか。

水野准教授:そうですね。ドイツ人は非常に物事を細かく分けて考える特徴があります。日本人はもちろん優秀ですが、そういった面でドイツ人から学ぶところが沢山あります。

TLG GROUP編集部:ドイツ人は物事を細分化して考えることが得意なのですね。ドイツに行かれる前にはすでに現在の研究をされていたのでしょうか。

水野准教授:もともと今の研究をすることは決めていたのですが、当時ドイツで勉強をしていたら色々な刺激を受けて、ますます研究が面白くなっていきましたね。

TLG GROUP編集部:ありがとうございます。ちなみに、ドイツ人は日本人と性格が大きく違うんでしょうか?

水野准教授:ドイツ人は非常に真面目で、日本人よりも細かく物事を考える側面もあれば、日本人からすればとてもルーズに見える部分も多いです。その辺りが特に日本人とは大きく違いますね。

例えば、スーパーのレジ係の人が座っている、同僚とお喋りしながら会計をするとか、鉄道の車掌が大きなピアスとタトゥーをしているとか、市役所で約束をしていったのに担当者が長期休暇でいないからと追い返されたりとか、日本ではありえないこともたくさんありました。

TLG GROUP編集部:なるほど。ドイツ人は少しいい加減な一面もあるのですね。

冤罪を防ぐ公正な裁判の条件とは?

TLG GROUP編集部:では次に、日本における冤罪を防ぐ「公正な裁判」の条件を教えていただけますでしょうか。

水野准教授:ずばり、裁判で一番弱い人は誰だと思いますか?

TLG GROUP編集部:疑われている人でしょうか。

水野准教授:そうです。一番弱いのは、疑われている人です。だからこそ、疑われてる人が警察と対等に自分の意見を発信するための仕組みをもっと作らないといけません。

ちなみに、日本は取り調べをできる期間が非常に長いんですが、ご存知ですか。

TLG GROUP編集部:そうなんですか!全く存じ上げませんでした。

水野准教授:そうですよね。一般的には知られていないことですが、日本は23日間取り調べができるんです。23日間と聞いて普通に思うかもしれませんが、例えばアメリカだと被疑者が「やっていません」と言った瞬間から取り調べができなくなります。アメリカではやっていないことを裁判で主張するんだから、その前に警察が一方的に取り調べたら公正ではないという認識なんです。

対して、日本だと「やっていません」と言った人にも、警察が「やっている」ことを前提に23日間取り調べをしています。この時点で、裁判の前に勝負はほとんど決まっているようなものです。つまり、冤罪をなくす上で一番大事なことは、疑われてる人たちが警察に自分の意見を対等の立場で言えるような仕組みを作ることだと言えるでしょう。例えば、取り調べに自分を守ってくれる弁護士が同席できる権利を認めるなど、色々なやり方があると思います。

とにかく、警察に疑われている人が対等に意見できるように制度を改正しないことには、日本における冤罪はなくならないと思っています。

TLG GROUP編集部:なるほど。今の日本ではそういった制度の改正は難しいのでしょうか。

水野准教授:今の日本の仕組みでは難しいでしょうね。

先ほども言いましたが、自分が犯罪者だと疑われるわけがないと誰もが思ってます。だからこそ、いざ自分が間違って疑われた場合に警察が自分の言うことを一切聞いてくれないという状況は絶望的ですよね。そういうことにならないためにも、警察に逮捕されたからと言って犯人とは言い切れないと誰もが思うべきであり、警察も間違っていた時は「間違っていました」と組織として認めることができる世の中にしないといけないでしょう。

まずは疑われてる人が警察に意見をしっかり聞いてもらえるような制度を作ることが急務であり、冤罪をなくすために非常に大事なことだと思います。

個人情報の保護とAIの社会実装の関係

TLG GROUP編集部:近年デジタル化が進み、生成型AIの代表格である「ChatGPT」など非常に便利なものが存在しますが、水野様の研究テーマでもあるように、AIも使い方次第では人権保障を脅かす可能性があると言われています。

個人情報の保護とAIの社会実装の関係について、専門家である水野様からご意見をお聞かせください。

水野准教授:AIは非常に便利なので、今の時代に使わないのは不可能でしょう。だからこそ、AIを使う時には誰もが「AIを使ったことでどうなるか」について理解する制度を作る必要があると思っています。例えば「ここではこのようなAIの使い方をしています」「あなたの情報がこのように処理されています」というように明らかにして、その上で絶対にやってはいけないAIの使い方は禁止するような制度です。

実際に、絶対にされたくない、してはいけないAIの使い方で何が思い浮かびますか。

TLG GROUP編集部:銃の作り方を聞いてもAIは回答しない、ということは聞いたことがあります。

水野准教授:犯罪に使うようなことをAIは教えないということも勿論あるんですが、例えば、自分の個人情報をAIに取られた時、何を分析されたら一番怖いですか。

TLG GROUP編集部:難しいですね。個人情報だと、クレジットカードなどの流出が怖いですね。

水野准教授:確かにそれもありますね。例えば「100点満点中、あなたは何点の人間です」というようにAIに点数をつけられるという話があります。

TLG GROUP編集部:そうなんですか!怖いですね。

水野准教授:職業とか年齢、職業、性別、年収、今までの考え方とか、そういうものをデータ化して処理して社会的スコアをつけられるんですよ。日本の政府がもしそういうことをしようと思えば容易く実現できます。「日本にとってあなたは何点の人間ですか?」と分析されたいですか。

TLG GROUP編集部:絶対にされなくないですね。

水野准教授:そうですよね。実際に、その使い方は絶対にやってはいけないと言われています。また、そこまで行かなくても危険なAIの使い方として、警察がAIでみんなを監視するという使い方があります。警察に監視されたいですか。

TLG GROUP編集部:これも絶対にされなくないです。

水野准教授:そうですよね。ただ、この使い方にはいいところもあるんです。例えば、指名手配を受けている人がカメラに映ったら、AIはそれを見つけることができます。このように犯罪者をAIが見つけてくれるという顔識別システムは既に存在しています。

「自分は犯罪者じゃない」と自信を持っている人は、警察が顔識別システムを使うことに違和感を感じないかもしれません。ただし、顔識別システムを使えば、現状犯罪者として疑われていない人、つまり全国民の顔特徴量データをあらかじめ取って置くことも不可能ではありません。つまり、カメラに映る人の顔の特徴をデータとして収集、保存、データベースを作成することで、その人が次にカメラに映った場所をリアルタイムで特定することができます。

誰もが潜在的に犯罪を犯す可能性があると考えた場合、警察など治安を守るための組織は全国民の顔データを含む個人情報を保有しておきたいと考えるのでしょう。

TLG GROUP編集部:凄いことですが、ちょっと怖いですね。

水野准教授:でも、怖いからと言って、いざ犯罪が起こった時に警察に犯罪者を捕まえてもらわないと困りますよね。だから警察は「こういう時にはAIを使って動いてもいい」「そうじゃない時はAIを使ってはいけない」とルールを定める必要があります。今は明確な法律によるルールがないので、どんな場所、場面で警察がAIを用いて監視、捜査をやっているのかが非常に見えにくい状況です。

そういう状態だからこそ、日本はAIを使う時にはちゃんとしたルールに基づいて使うという法律を作り、コントロールをするべきでしょう。そうしない限り、便利なはずのAIが人間を監視したり、採点したりといった危険な使い方をされて人権が侵害されてしまいます。

TLG GROUP編集部:生き辛い世の中になってしまいますね。

水野准教授:その通りです。

また、生きている中で法律について考えることは少ないですよね。だからと言って、法律を知らないから犯罪をしても関係ないとは言えないですよね。法律とは興味があろうとなかろうと、何かが起こった時に絶対に守らないといけないものです。

そしてそれはAIも同じです。法律でAIのルールを作ることで、AIによる人間への侵害を事前に防止できるかもしれないし、実際に何かが起こった時にも対処できる可能性が広がります。そういった意味でも、法律でAIのルールを作るというのは必要なことであり、人間のためになることだと思っています。

要するに、安全なAIを作り運用していくために法律できちんとしたルール作りをする必要があるということです。

TLG GROUP編集部:貴重なご意見ありがとうございます。ちなみに、現状だと日本でAIに関する法律ができるのは結構先になってしまうのでしょうか。

水野准教授:EU委員会がAI規制法を世界に先駆けて採択したので、日本はそういうものを参考にしながら作っている最中です。先延ばしにせず、できるだけ早く作っておかないといけないという認識はあるようです。

TLG GROUP編集部:EU委員会はどういった法律を作ったんでしょうか。

水野准教授:先ほどお話ししたような「絶対にやってはいけないこと」と「危険だけど必要な時にはしてもいいこと」をルールとして明確に定めています。また、そこまで危険ではないことに関しては、各自が人間に危害を加えないようにきちんと判断して使用するというルールも定められています。「AIは使い方によっては危ない」というリスクベースで法律によるコントロールしていくというやり方でEUは採用しました。

日本でも、おそらくそう遠くないうちにAI規制に関する法律が実現すると思います。

TLG GROUP編集部:お恥ずかしながら、今日お話を伺って初めてAIを怖いと感じました。早く法律ができてほしいですね。

水野准教授:怖いと思われるなら尚更、怖くないようにする必要があります。したがって、「AIは怖い部分もある」ことを前提にしながら、人間が扱ってもいい安全なAIを作るための1つの手段として法律を作ることが非常に有効であると言えるでしょう。

まとめ

TLG GROUP編集部:本日はお時間いただき、ありがとうございました。水野准教授にインタビューして、下記のことが分かりました。

独自インタビューで分かったこと
  • AIと人権保障は深く関係している。ただ、日本では「個人情報、個人データの保護」が人権であるという意識が薄い。特に刑事裁判では、「個人情報、個人データ」の保護が不十分である。
  • 裁判において一番立場が弱い、「疑われている人」が警察と対等に意見を戦わせるための仕組みを作ることが冤罪を防ぐために最も重要である
  • 人間にとって有益かつ安全なAIを作るためにも、日本は「AIは怖い部分もある」ことを前提にしてAIを法律でコントロールするべきである

AIと人権保障は密接に関連していますが、現在日本では個人情報保護の意識が不十分であり、刑事裁判における個人情報保護の不備も指摘されています。

冤罪防止や安全なAIの実現のためには、「AIは怖い部分もある」ことを前提にして、法律でAIを適切にコントロールする必要があります。

取材・文:TLG GROUP編集部
記事公開日:2024年3月6日