AIが声を分析してすべてがわかる時代(精神、肉体、健康、身長、体重)

AIが声を分析することで、なんでもわかってしまう時代

 

【AIが声を分析、病気検知や犯罪捜査も可能に。精神・肉体の健康状態のほか、身長、体重まで声で特定】
https://diamond.jp/articles/-/199202

 

・精神疾患の患者にアプリをダウンロードさせて、音声記録をつけさせる。AIの音声分析により、問題の兆候が見られた場合、介護者が手を差し伸べる

・音声AI開発会社が、機械学習を使用して冠動脈疾患の兆候を示す特定の音声バイオマーカーとみられるものを特定した

・自動車メーカーとAI会社が音声解析と顔認証を使用して運転手の注意力や精神状態を評価するAIの設計に取り組んでいる(頭が垂れたり、姿勢が前かがみになっていたり、声が眠そうだったり低かったり、あくびの声が聞こえたり、などを検知し、居眠り運転防止)

・コールセンターの会話をAIが分析(会話速度やトーンなどを分析、顧客の感情も認識)、それを評価、オペレーターのコーチングにつなげる

・担当者と保険加入者とのやりとりの音声をAIが分析し、損害保険詐欺も防ぐ。(相手が嘘をついていないかを判断)ただし、証拠ではないので、詐欺を検知するための第一段階にすぎない

・偽の緊急通話に悩まされていた沿岸警備隊がコンピューター音声認識の研究者に助けを求めた。結果、録音の音声だけで通話者の年齢や身長、体重を特定することができた。「人間の声には発声者の肉体、整理、人口統計、医療、環境面などの特徴に関連した情報が含まれており、このようなごく小さな特性を使用してプロファイリングを行う」とのこと。

 

 

以上、記事引用参考。

 

 



 

 

視覚から聴覚(ビジュアルからサウンド)の時代へ

 

自分が音楽家であるせいか、「音への可能性」はいつも強く感じていますし、そのことをブログで言及することは多いです。

 

上の記事は、その思いをさらに強くさせるものですね。

 

私はこれまでは視覚、ビジュアルの時代だったと思っています。SNSには数多くの写真がアップされ、GoogleMapのように、世界中(地球中)の写真を見ることが可能になりました。まあ、ある意味、視覚データの時代です。世界の名だたる企業はもう十分にこの世の視覚データを得たことでしょう。

 

そしてこれからは、聴覚、サウンドの時代なのかなと考えます。SNSで気軽に音声のやりとりもするようになり、そして、AIスピーカーによって、世界中の人々の音声を、世界の名だたる企業たちが、獲得している最中のように見えます。ある意味、聴覚データ(採集)の時代です。

 

上記のように、声であらゆることがわかるのであれば、AI研究者やAI企業としては、多くの音声データが欲しいですよね。AIスピーカーはそれを採集するための代表格のツールだと思います。

 

 

声の感情を測る??(音楽家の視点)

 

記事の中で、音楽家として、興味深いポイントがありました。

 

どのように声で感情を特定するのかというのを、声のスペクトラム(分光写真)を使用して説明しているのですが、

 

激しい情報活動時、その声は、周波数が高く、高調波に多くの縦の動きがみられる(声が緊張している)

穏やかな情動活動、その声は、周波数が低く、高周波の高調波が弱く、それ以外の高調波については動きがあまりない

 

周波数が高い、低い、つまり、声の音程が高い、低いかによって、その人の状態が緊張か穏やかかがわかるというのは納得。

 

ただ、高調波の縦の動きというのが、どういう声の状態なのかがイメージしづらいです。

 

高調波とは、音楽用語で言うところの「倍音」です。

 

倍音とは、めっちゃシンプルに言うと、同時に鳴っているオクターブ上の音のことです。

例えば、ピアノの「ド」の音(基音)を弾いたら、同時にそのオクターブ上の「ド」の音(倍音)が鳴っているイメージです。(実際、かすかな音で倍音が必ず鳴っています)たいていの楽器の音は、単音で弾いても、基音と倍音が同時に鳴ります。かすかな倍音が混じることで、豊かな響の音になるわけです。

 

歌の世界でも、よく「倍音が響いてて良い声だね」という話はよく出てきます。

 

一般的には、倍音があると良い歌手のように言われたりします。(「倍音 歌手」「倍音 宇多田ヒカル」とかで検索すると色々出てくるよ)

 

おっと、ちょっと専門的というか、話がそれましたが、、、

 

その倍音(高調波)が声の感情を表している、というのはよくわかるのですが、「倍音(高調波)に多くの縦の動きがみられる」、という表現がよくわからないのですが、もしかしてビブラートかなという推測しかできないのが現状です。

 

いずれにせよ、AIが学習し、進化していくことで、声で感情を測ることがどんどん正確になっていくのでしょう。そして、その先には、もしかしたら、歌声をAIが分析して、どれだけ感情がこもっていたか、情感たっぷりに歌えていたかを、測る時代がくるのかもしれません。^^;

 

AIが歌を採点(数値化)する時代、、、うーん、どうなんだろう。。

 

ではでは

 

AIが視覚データ、聴覚データと網羅したら、次は味覚や臭覚データの採集へとどんどん移行していくのかな?

 

 

あわせて読みたい

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です