立正大学 山本仁志 教授【協力社会の未来を拓く!競争から共生への道】

立正大学 山本仁志 教授に独自インタビュー

社会的ジレンマは、個人の行動が社会全体に波及する現象であり、私たちの日常において、ごみのポイ捨てやコロナ禍における外出自粛、共有資源の浪費などとして頻繁に姿を現します。

また、この現象を解決するためには、協力が不可欠であり、その中でも「間接互恵」の考え方が重要な役割を果たすと言われています。

この記事では、社会的ジレンマの具体例や間接互恵の概念について解説し、安定した協力社会を実現するためのアプローチについて、立正大学の山本仁志教授に独自インタビューさせていただきました。

山本仁志教授の紹介
立正大学 山本仁志 教授

立正大学 経営学部
山本仁志(やまもとひとし)教授

社会的ジレンマ、協力の進化、社会シミュレーション、ソーシャルメディア分析などの研究に従事している。協力の進化に関して多角的な研究を進めている。

電気通信大学大学院情報システム学研究科修了(博士・工学)。東京理科大学工学部経営工学科助手、電気通信大学大学院助手、立正大学経営学部講師等を経て、現在同大学経営学部教授。

日常生活に潜む社会的ジレンマ

TLG GROUP編集部:まず最初に、社会的ジレンマとは何であるか、また現代社会において社会的なジレンマがどのように影響を及ぼしているか、具体的な例を教えていただければ幸いです。

山本教授:社会的ジレンマというのは、個人が自分自身から見て利益になる、もしくは合理的な行動を取るなど自己にとっては有益な利益を追求した結果、社会全体で見た時に個人にとっても集団全体にとっても不利益をもたらす状況を指します。

例えば、買い物に行くのに適した店があり、その店の駐車場が極端に遠くにあるとします。この場合、少しの間路上駐車をして買い物を済ませるととても便利ですよね。

そうすると、多くの人が遠くの駐車場に車を停めて歩くよりも、路上駐車をしてさっと買い物をする方が利益が高いと考えるでしょう。しかし、皆が路上駐車を行うと結果として大渋滞が発生し、店に到達できなくなってしまい全員が不幸な状態に陥ります。

もう1つの例を挙げるなら、自分の資源の投入です。例えば、マンションの共有の中庭に美しい公園があるとします。この公園を掃除するというのは、自分の労力、つまりコストを投入することになりますが、日曜日にはゆっくりと寝ていたいものです。

誰かが掃除してきれいにしてくれると最高ですが、その考え方が一般的になると、結果として汚いマンションになり、誰にとっても不幸な状況になります。このような資源の分配や、自分の資源を公共のものに投入する場合、しばしばこのような構造によって社会的ジレンマ状態が見られます。

TLG GROUP編集部:なるほど。非常に分かりやすい例をありがとうございます。社会的ジレンマは日常生活において頻繁に起こるものなのですね。

「悪者を助けないのは良いこと?」間接互恵の規範と協力の関係

TLG GROUP編集部:山本様は「悪い人を助けないことは良いことだ(正当化される非協力)」という評価ルールについても研究されていると存じております。

この「悪い人を助けないのは良いことだ」というルールは、日常生活においても関係してくるのでしょうか。​

山本教授:まず、この話をする際には「間接互恵」を理解していないと少々難しいと思うので、間接互恵についてお話ししていきたいと思います。

まず、互恵的にお互い様で助け合うという協力には大きく分けて2つの形があります。1つは直接互恵と呼ばれるものです。これは、恩返しや逆の仕返しといった形で、相手から受けた恩恵に対してその相手に返すというものです。同じ相手とずっとやり取りする場合、非常にシンプルで強力な仕組みですね。

また、直接互恵は、同じ相手と繰り返さないと成立しないものです。例えば、奢られたら今度は奢るねというような関係です。直接互恵は、人間以外の生物でも観察されています。

もう1つが今回のテーマである間接互恵です。間接互恵では、第三者というものが必要になってきます。間接互恵は一度しかまたは稀にしか同じ相手とやりとりしない状況でも成立し、そのためには第三者の存在が必要になってきます。

例えば、「情けは人のためならず」という言葉がありますが、誰かを助けたら、その行為はいずれどこかから報いとして返ってくるという意味です。これは助けた相手からの返報を期待して行動をするわけではありません。少なくとも一時的には損になるはずです。では、なぜこのようなことが起こるのでしょうか。

それは、誰かが良い行動をしたとき、第三者がその行動を見て、「あの人は良い人だ」という評判が成立するからです。そして、その評判が社会に広まることで、将来、その人が困っていたり何かを必要としているときに、第三者から協力されるようになります。

これが間接互恵であり、間接互恵は人間にしか存在しないと言われています。なぜなら、社会や評判という非常に高度な情報を持つ必要があるため、現時点では人類にしか見られないとされています。

間接互恵が成立するためには、規範というものが必要になります。つまり、どの行動が良い行動であり、どのような行動が悪いと見なされるのか、その区別を明確にする必要があります。

ここにおける規範とは、何が良くて何が悪いかを判断するルールです。例えば、一番シンプルなのは、誰かを助けたらその人は良い人であり、助けない場合は悪い人と見なされるというものです。

これはとてもシンプルな判断ルールだと思いますが、このルールには致命的な弱点が存在します。弱点というのは、その集団の中に1人、誰も助けない悪い人がいる場合です。この人は当然誰も助けません。

その行動を見た「助けることは良く、助けないことは悪い」という規範を持った人はその悪い人を助けないという選択をするでしょう。これは自然な行動です。

しかし、この行動を観察している他の人々は、助けなかったという理由で、その人を悪いと見なす可能性があります。このように非協力行動が簡単に連鎖してしまうという弱点があります。

このような問題に対処するために、研究者たちはどのような判断ルールがより効果的かを調査し、間接互恵の研究を行ってきました。その結果、いくつかのタイプの規範が社会を協力で安定させることが分かってきましたが、そうした規範が社会で進化してきた理由については、明確な答えが得られていませんでした。

規範と協力の共進化シミュレーション

山本教授:そこで、私たちは「規範が社会で共有されるプロセス」について注目し、研究することが必要であると考えました。そのために、様々な規範を持つ個人が混在している状況をコンピュータの中に構築し、そこからどのような規範が生き残り、そこに社会が協力で安定するのかを調査しました。

また、この研究では、実際にシミュレーションを行ってそのようなプロセスを解明しましたが、興味深いことがいくつか分かりました。

興味深いことに、協力が進化するためには、社会には存在しなくてはいけない規範というのがあることが分かりました。生態系を例にとって説明します。例えば植物の生態系では、荒廃した土地、例えば火山とか地震とかで荒廃した土地に最初に生えてくる植物が存在します。

こうした植物が最初に入って下地を作らないと他の植物が出てこないので、結果として森は育たないのですが、今回のシミュレーションでは、まさにこうした非協力の荒地の中で協力が進化するために必要な規範が存在するということが明かされました。面白いことにこのような規範のうちいくつかは、その後協力が進化した後にはいらなくなって淘汰されてしまいます。

さっき言った生物の植物の生態系の中において、こういった最初に入ってくる種のことをパイオニア種と言いますが、まさにその生態系のパイオニア種に似たようなことが規範の生態系においても存在することが今回のシミュレーションで明らかになりました。

また、同時に協力が安定して平和な世界になった時に、そこから取り除いたら協力が壊れるという規範も存在することが分かりました。

生態系の話に戻りますが、海の中の昆布が繁茂する森の中で、ラッコが極めて重要な存在であることが分かっています。ラッコは必ずしも食物連鎖の頂点に位置する動物ではありませんが、彼らが不在になると、この生態系が崩壊してしまうのです。

ラッコはウニを捕食します。しかし、ラッコが減少するとウニが過剰繁殖し、昆布を食べ尽くすことがあります。その結果、小魚が減少し、それが大型魚の不足につながる可能性があります。このようにして、生態系が崩れることがあります。

この生態系が崩れる可能性がある特定の生物種を「キーストーン種」と呼びます。今回のシミュレーションでは、規範の生態系の中でも、キーストーン種に相当する規範があることが示されました。つまり、協力を維持するために不可欠な判断基準が存在するということです。

TLG GROUP編集部:ラッコの役割も意外でしたが、キーストーン種という概念は非常に興味深いです。また、そういった基準が判明されるまでにどのくらいの期間がかかったのでしょうか。

山本教授:シミュレーション自体は、コンピューターが高速に処理するため、必要な時間はコンピューターの性能に依存します。世界最高のスーパーコンピューターを利用すれば、比較的短い時間で解析が可能でしょう。とは言え、私も高性能なコンピューターを使用していますが、数ヶ月の計算が必要でしたので、多くの場合長期間の計算が必要かもしれません。

TLG GROUP編集部:ありがとうございます。高性能なコンピューターを使っても、複雑なシミュレーションには時間がかかるんですね。

人間が実際に採用している規範は?「悪い人を助けない」は本当に良いことなのか?

山本教授:しかし、シミュレーションだけでは分からないことも多くあります。先ほどのお話は、シミュレーションでの仮想的な世界の中での話なので、実際に人間の反応がどうなるかは分かっていないことになります。

そこで、実際の人間の反応について調査することが、先ほどのご質問で扱われている話題です。

間接互恵が確立されるためには、フリーライダー、いわゆるただ乗りの人々を容認してはなりません。他者からの利益を享受しつつ、自らは貢献しない人々が増えると、誰もが助け合う雰囲気が損なわれます。したがって、ただ乗りの人々を適切に取り除き、助け合いの精神を持つ人々とのみ交流することが重要です。

そのためには、ただ乗りをする人や悪い人に対しては、金銭や労力を提供してはならないという規則が必要です。こうした行動は、理論的には非常に重要であることが理解されていますが、実際の世界でどのように機能するかについて、人間を対象とした実験を行いました。

仮想的な例を用いて考えてみましょう。あるレストランで働く2人の同僚がいます。このレストランでは、夜勤のシフトを相互に調整しあうことになっています。

1人の同僚、山本さんは仕事をサボってばかりで、誰かが夜勤を代わってくれるよう頼んでも絶対に応じません。要するに、周囲に迷惑をかける悪い同僚です。

山本さんはもう一人の同僚である田中さんに、行きたいコンサートがあるために夜勤を代わってもらいたいと頼みました。田中さんは実際には時間に余裕がありましたが、その頼みを断りました。

この田中さんの行動について、「あなたはどのように評価しますか?」と参加者に質問をして、様々な評価をしてもらいました。

「悪い人を助けないのは良いことだ」という規範が成り立っているなら、田中さんはグッジョブと評価されるはずです。一方で、「助けることが良いことであり、助けないことは悪いこと」という規範が成り立っていたら、田中さんは非難されるでしょう。

実験前には人によって意見が異なると思っていましたが、実際にはそうではありませんでした。山本さんが良い人だったとして、田中さんがその頼みを断った場合、皆から田中さんは非難されるでしょう。

この点については皆の規範は一致していました。しかし、山本さんが悪い人であるために田中さんが助けなかった場合、ほとんどの人の評価が中立的になることが分かりました。意見が分かれるのではないかという予測に反して、みなが良いとも悪いとも判断できなかったわけです。

TLG GROUP編集部:なるほど、面白い結果ですね。要するに、ほとんどの人が「どちらとも言えない」という評価をしたということですね。

山本教授:その通りです。例えば、「良い」と答えた人が半分で、「悪い」と答えた人が半分だった場合、0から10までのスケールで評価を行った場合、0と10に二つのピークがくるはずです。しかし、今回のケースでは「どちらとも言えない」、つまり5に極めて鋭いピークが存在するという興味深い結果となりました。

「AIと人間の共存」協力社会の未来を探る​

TLG GROUP編集部:山本様はAIと人間が共存する未来について現在研究されていると拝見しました。​

​​近年AIや機械学習の進歩によって、個人の行動や意思決定を支援するシステムが普及していますが、AIによる個人行動の評価やサービス提供は、正確性、透明性、個人のプライバシー保護に関する問題を引き起こす可能性があると示唆されています。​

このような状況下で、安定した協力社会を実現するために何が重要だとお考えになりますか。

山本教授:いわゆる医療の判断や自動運転の分野で、AIをどのように使っていくのかということは、AIの性能向上によって問題が自動的に解決する問題でしょう。一方で、人の行動の判断といった分野においても、AIの判断が社会に普及することは間違いないと考えています。

正確性や性能向上は重要ですが、先ほどの話のように、人間の行動の善悪を判断する際には、どのような判断基準を採用すればよいのかについて、実は私たち人類も答えを持っていません。

正確に判断すべきか、より寛容に判断すべきか、人は何を求めているのかということも理解されていないところに課題があると思っています。特に、人間はアルゴリズムに対して、アルゴリズム嫌悪もしくはアルゴリズム礼賛という2つの逆のバイアスを持っています。

アルゴリズム嫌悪とは、AIが判断したことを不快に感じ、「人間に判断して欲しい」と過剰に拒否することを指します。また、一方のアルゴリズム礼賛は、AIの判断を「絶対間違いない」と無批判に信じてしまう傾向です。

しかし、これらのバイアスがいつどのようなメカニズムで発生するのかについては、実際にはよく理解されていません。今後、これらのバイアスがどのような状況で発生し、どの方向に向かうかを考えることが重要であると考えます。

例えば、先ほどの例では、多くの人が「どちらとも言えない」と答えましたが、AIがその場合にどのように判断するべきか、その基準は人間の判断の時と違いがあるかどうかを書投げることが課題と言えます。

現時点では、AIと人間の判断の受け入れ方にはおそらく違いがあるだろうということは分かっていますが、人間が善悪を上手く判断できない状況で、その判断をAIが行った場合と人間が行った場合でどのように受け入れられるかを明らかにすることが、私たちが現在チャレンジしている取り組みです。

TLG GROUP編集部:ありがとうございます。AIと人間の判断の違いが社会にどのような影響を与えるか非常に興味深いです。ちなみに、AIの研究については、いつ頃から行われているのでしょうか。

山本教授:先ほどの被験者実験で「悪い人を助けない」という行動が中立という結果が明らかになったのが3〜4年前なのですが、その際、なぜ中立な結果が頑健に保存されるあるのかを考えたときに、他の人が同じ判断を行った場合やAIが判断した場合の反応でも中立なのだろうかという疑問を持ち、実験を始めています。

また、「人がAIの判断をどう受け入れるか」については、近年自動運転技術の進歩に伴い、多くの研究者に注目されています。

具体的には、トロッコ問題と呼ばれる、どちらを選んでも誰かを犠牲にしなくてはいけない状況でどちらを選ぶかという倫理的なジレンマがあります。

この問題は、暴走するトロッコがありこのままだと5人の人をひき殺してしまう。しかし、今ポイントを切り替えれば5人は助かるが切り替えた先の1人はひき殺されてしまう。さてあなたはポイントを切り替えるべきと思いますか、という状況を想定します。

このような問題は以前から議論されてきましたが、近年自動運転の発展に伴いその重要性が再認識されています。以前、MIT(マサチューセッツ工科大学)が行った世界的な調査に触れ、AIの判断の重要性を認識しました。

「AIの判断が社会でどのように受け入れられるか」については以前から関心を持っていたのですが、自分の分野ではこれまでどう扱うべきか分かりませんでした。しかし、最近の研究結果からより関心が深まり、結果がどうなるかは未知数ではありますが手探りで研究を始めている状況です。

また、現在様々な取り組みを行っており、AIなどの最新技術の進捗は以前と比べて月単位や週単位で急速に進んでいるため、研究を着実に進めていかなければならないと考えています。

まとめ

TLG GROUP編集部:本日はお時間いただき、ありがとうございました。山本教授にインタビューして、下記のことが分かりました。

独自インタビューで分かったこと
  • 社会的ジレンマは日常生活に頻繁に現れる現象であり、個人の利益追求が社会全体にとって不利益をもたらす状況を指す
  • 協力行動のメカニズムには、直接互恵と間接互恵の2つの形態が存在し、間接互恵が人間社会において特に重要である
  • 間接互恵とは、個人が他者を支援することで、将来的に自分も支援される可能性があるという考え方である
  • 間接互恵が成立するためには、規範というルールが必要であり、その規範が社会の安定に重要な役割を果たしている
  • 「悪い人を助ける」ことを拒否する行動は中立的に評価される傾向があり、正当化される非協力と呼ばれる行動は正当化も非正当化もされることはない
  • AIと人間の判断の違いが、社会にどのような影響を与えるかを理解するためには、AIの判断が社会でどのように受け入れられるかを明らかにすることが重要である

社会的ジレンマは私たちの日常生活にしばしば現れ、個人の利益追求が社会全体に不利益をもたらす状況を指しており、協力行動のメカニズムにも深く関わっています。

協力行動においては間接互恵が非常に重要であり、この間接互恵が成立するためには、規範が必要です。

また、近年、デジタル化が進む中で、AIと人間の判断の違いが社会に与える影響が注目されています。AIの判断が社会でどのように受け入れられるかを理解することは、重要な課題となっています。

取材・文:TLG GROUP編集部
記事公開日:2024年3月14日