「Google DeepMind」AI同士は協力するか、競争するかの研究

「Google DeepMind」がまたすごく面白い実験をやりましたね!

ゲームを通して、AI同士は協力するか、競争するかを研究したんだそう。

今回試したのは、囚人のジレンマに代表される、社会的なジレンマについて、AIで試してみたそうです。

ちなみに、囚人のジレンマとは・・・

囚人のジレンマとは、ゲーム理論のモデルの1つで、各個人が合理的な選択肢を選んだにもかかわらず、それが最適な結果にはならないジレンマのこと。

AとBという2人の犯罪容疑者(プレーヤー)がいるとする。2人はある犯罪の容疑で警察に捕まった。罪を犯した可能性は高いが、決定的な証拠がないため、2人は別々の部屋で尋問されている。

ここでAとBは、自白するか、自白しないか2つの選択肢を与えられる。

  • 2人とも自白した場合には共に懲役5年
  • 2人とも自白しなければ共に懲役2年
  • 一方が自白して他方が自白しなかった場合には、自白した方が無罪となるが、自白しなかった方は懲役10年

囚人2人にとって、互いに裏切り合って5年の刑を受けるよりは互いに協調し合って2年の刑を受ける方が得である。しかし囚人達が自分の利益のみを追求している限り、互いに裏切り合うという結末を迎える。これがジレンマと言われる所以である。

(Wikipediaより)

囚人のジレンマって、面白いんですよねー

そんなこんなで実験の詳細を!

スポンサーリンク
ピエロ広告ーレクタングル大

こんな実験したんですって

①「Gathering」
取ると一時的に消滅するりんご(緑色)を取り合うゲーム。
ビームで相手を攻撃すると、相手を一時的にゲームから除外できる。

実験結果:りんごが十分あるうちは共存していたものの、少なくなると別のプレイヤーを攻撃するようになり、りんごが豊富に出現する設定では他のプレイヤーに攻撃しなくなった。

②「Wolfpack」
獲物を捕まえたときに、その付近にいたプレイヤーも得点できるゲーム。
獲物を捕まえたときに、ハゲタカに獲物を取られてしまう可能性があるため、仲間が近くにいたほうが捕獲量が増えるという設定。

実験結果:AIは協調的な戦略を実行した。

なるほどなるほどー

ちなみに、ルールに合わせて行動を最適化する傾向は、性能の高い人工知能のほうが強かったとのこと。

うーん、人間と全く変わりませんね。

論文によると、経済や交通、環境問題における人間の行動理解、コントロールに役立つとのこと。

たしかに、これを進めて行けばシミュレーションできそうですもんね!

面白い実験だなぁ

経済や交通、環境問題における人間の行動理解、コントロールに役立つとのことですが、個人差をどこまでカバーできるかってのが問題になりそうですね。

個人個人で頭の良さ、考える能力は幅が広く、価値観が違えば考え方も変わってくるだけでなく、それに加えて感情というものもあります。

AIはとても賢いので合理的に行動しますが、人間は必ずしも合理的に行動するとは限りません。

むしろ合理的に動くことは少ないくらいです。

日本においては合理的に動く人間は忌避される風潮にありますし、そこら辺をどこまで盛り込んでシミュレーションできるかってのが肝になりそうですね。

とは言っても、研究をしている人たちは賢いですし、AIの性能もすごいので、軽くやってしまうかもしれませんね。

むしろ、AI単独で個々の役割を分担して、現実により近い形でシミュレーションを行うことができるようになるかもしれません。

AIが日々の生活を学習することで、個々の行動を分析し、ラべリング。

それをもとにAIがAIに、ラべリングしたそれぞれの行動原理を組み込んで、シミュレーションする・・・

なんて未来は、すぐそこまで来ているんでしょうね。

まとめ

まー色々と書いてきましたが、結局何が言いたかったかというと、

すごいことになってきた

ってことです。

もし、この研究が進んで、AIのシミュレーション通りに人間が動くような結果になれば、世の中が大きく変わりますよね。

意思決定においてAIの占める比率は格段に上がります。

AIが生きているのか、人間が生きているのか、わからないような人が出てきたりするかもしれませんね。

だって、常に最適な答えをくれるんだとしたら、それってすごいじゃないですか。

考えなくていいんですからね、それで前よりもうまく生活がまわっていく。

これからの生活はどうなっていくんでしょうか。

私としては、性能の高いAIの方が・・・というところが気になりましたが。

スポンサーリンク
ピエロ広告ーレクタングル大
ピエロ広告ーレクタングル大

フォローする