いやー、やりましたね、大阪大学。
さすが優秀な頭脳が集まりますね、素晴らしい大学には!
やはり日本でも進んで来ましたね、人工知能の音楽分野への進出が!!
今回の研究はこんな感じ
大阪大学のグループが開発したのはヘッドホンとセットになったAIなんだそうな。
手順はこんな感じ。
まず、10曲程度をこのヘッドフォンで聴くと、ヘッドホンに装着された測定器が脳波をAIに送信する。
そのデータをAIが、どの曲でどのように脳波が動いたかを分析し、曲ごとにその人の感情の動きを特定。
その分析結果から、その人の気分に合わせてその人に合った曲をAIが自動的に作曲してくれるものなんだそう。
実験結果では、参加者からは概ね好評だったようです。
200人~300人規模の実験ということで、まあまあ信憑性はありそうですね!
今回の研究のポイントは、脳波からその人がいま求めている曲を探して、それを作曲できるということですかね。
個人差に合わせて作曲できるという点が、今までとは異なる点でしょうか。
気分に合わせて作曲するAI(Brain.fm など)は今までもありましたが、個人レベルの好みに合わせて作曲できるAIは初めてなんじゃないでしょうか。
ちなみに、AIの作曲についての詳細はこちらをご覧くださいな。(AI(人工知能)が作曲した曲のまとめ)
いやー、すごいですね、ここまで来るとは・・・
個人個人に合わせて作曲できるとなると、従来のものに比べて、かなりヒーリング力が高そうですよねー
ここまで進化してきたとはおそろしい限りですね!
権利って、どうなるんだろう
ふと思ったんですが、権利ってどうなるんですかね、楽曲の。
今までだったら、AIが勝手にやっているだけなので、楽曲の権利は開発側が全権を握ってますよね、当然のごとく。
しかし、今回のケースはそういうわけにはいきません。
なぜなら、個人の脳波のデータが混在しているからです。
個人の脳波のデータがあって初めて世に生まれた曲となると、その人に権利が発生しそうな雰囲気になりませんか?
私は素人なので詳しいことはわかりませんが、なんだかそんなこともあり得るんじゃないかなーと思ってしまいましたねー
正直、最近はAIをはじめとした技術の進歩が速すぎて、行政が全く追いついていない感じがあります。
もうちょっと効率よくスピードを上げていかないと、本当に間に合わなくなるときが来るんじゃないですかねー
でもま、政治家におじいさんしかいないことを考えると・・・
お察しですね。
まとめ
まー色々と書いてきましたが、結局何が言いたかったかというと、
AIきてる
ってことです。
今までのAIは全体に向けたものが多かったですが、最近はどんどん個人レベルのものが出てきてますよね。
より狭く、深く、といったところでしょうか。
無限学習により専門化することは、AIの得意分野ですからね。
全体性と個別性。
これからはどうなるんでしょうね。
楽しみです。
コメント