AIが90%近い精度で精神病の人を判定。共通する傾向とは。(AIが人を判定する時代)
【精神病リスクを持つ人の「会話の特徴」とは?】
https://nazology.net/archives/42830
・会話分析を行うAIによって、総合失調症などの精神病を判断する研究が行われた
・AIは、ニューヨークタイムズやネット掲示板の膨大な文章から会話の内容を解析する機械学習を行なっている
・AIは、会話密度、頻出する単語傾向などから90%近い精度で患者を判断することに成功
・精神病患者に見られる傾向のそのひとつが、会話密度が低いというもの。つまり、多くの言葉を使いながら、ほとんど意味を伝えないような人が、総合失調症や双極性障害を発症するリスクがかなり高い
・傾向その2が、「声」「音」「聞こえる」「ささやき」といった種類の、主に聴覚に関係する話題に強い関心を寄せるというもの(幻聴や、ちょっとした雑音に反応しやすい傾向?)
以上、記事引用参考。
AIが人を判定、評価する(裁く)時代
【うつ病患者の使用頻度の高い言葉→「一人称代名詞」「絶対語」】
https://amimako.com/health-depression-frequent-word/
前に書いたブログ記事のことを思い出しました。
うつ病は精神病のひとつです。
うつ病の人は「一人称代名詞」「絶対語」を会話でよく使うようですが、
精神病という大きなくくりで分析すると、「会話密度が低い」「聴覚に関する話題に強い関心」という傾向があるようです。
上の記事の最後に、「掲示板の書き込みからAIが危険人物を判定して通報するという時代が来るかもしれません」とありますが、
AIが人間を判定、評価する時代が本当に現実味を帯びてきたような気がします。
この他にも、人間のウソをAIが90%以上の確率で見抜くという話があります。
そういうAIウソ発見器が今後、裁判などで活用される可能性もありますよね?
思うのは、
AIが90%以上の確率でどういう人間か判定できるというのは確かにすごいことですが、残りの数%の不正解についてはどう対処していくのでしょうか?
たとえば、AIの数%の不正解によって、精神病認定されたり、虚偽認定からの有罪確定などが起きたら、その人間の悲劇は筆舌につくしがたいでしょう。
人間は完璧ではありません。人間より精度の高いAIに多くのことを委ねること(活用すること)自体はとても良いことだと思います。
ただ、しかし、
100%ではないAIも厳しく言えば完璧ではありません。AIが人間を判定、評価する時代が本格的に始まる前に、AIの数%の不正解とどう向き合っていくかを今のうちに考えていかなければならないのではないかと、ジャンル外の音楽家の小形が勝手に憂うのでした。^^(AI自動運転自動車が事故ったら、誰が責任をとる?という話ともリンクする話ですね。)
ではでは
この研究はハーバード大学の研究なので、おそらく対象はアメリカ人でしょう。これらの研究がそのまま私たち日本人に当てはまるかどうかというのも考えないといけませんね。