恐るべし、韓国のAI自動会話プログラム
韓国で「本物の人間とまったく同じ」と評価されていた話題となっていた韓国のAIチャットボット(自動会話プログラム)「イ・ルダ」が暴走した?ということが話題になっている。
この「イ・ルダ」は、10~20代の恋人同士による無料通話&チャットアプリの会話、約100億件を学習し、これをもとにユーザーとチャットしていたとのことだが、人種差別的な発言をし始めたとのことだ。
記事によれば、例えば、
「なんで黒人は嫌いなの?」
という質問に
「気持ち悪いじゃん。わたしは人間に見える人の方がいい」
と答えたり、
「地下鉄の妊婦専用席をどう思う?」
という質問に
「おぞましい」
と回答。
同性愛者については
「それってホント、ゾッとする。質が低く見えるじゃない」
と答えたとのこと。
開発した韓国の人工知能(AI)関連スタートアップ企業のSCATTER LABは1月11日に、謝罪するとともに翌日からサービスを停止したとのことだ。
どうしてこのような偏見に満ちた返答をしたかというと、恋人同士の会話に、回答のような偏見と固定観念があり、AIは、それをそのまま学習したということらしい。
だから、人工知能(AI)が悪いというよりも、
韓国社会の偏見と固定観念、すなわち「人間の偏向性」をそのまま学習した
ということが、あからさまになったこと自体が問題となったようだ。
ブログで政治的な発言は書きたくないが、
「イ・ルダ」に、「日本海、東海問題」「竹島問題」「徴用工問題」、最終的かつ不可逆的な解決を一旦決めた「慰安婦問題」など、質問してみたかったなぁ。
韓国の市井の人の表向きの答えと、本当の考えのギャップを知ることができれば、対応の仕方も変えられるというものだ。
そう考えてみると、やはり元々、恋人同士の会話を参考に学習させたのが失敗だったのだ。恋人同士の会話は他人に見られたり、聞かれたりするものではないため、思い思い自由に発言している。
そこには当然、社会性もないし、公式見解的な回答はない。
でも、だからこそ人間らしい会話が出来ていたのだ。
人権的には微妙でも、実際は泥臭い人間の本性を学習した結果なのだろう。
つまり、恋人同士のクローズドの会話を覗き見して、偏見に満ちた会話をしてたから「けしからん」と、言っている方がけしからんのかもしれない。
このAIが更に学習すると、もしかすると相手の思想に応じて回答を変えたり、公になる可能性がある場合は発言を慎重にしたりするところまでくれば、より人間に近くなるのかもしれない。
今回のように、公開を前提で学習させるのであれば、無理難題を言っている人であっても「お客様は神様です」のように丁寧な対応をする企業のコールセンターが行うチャットなどを学習させれば、心の奥底を見せない対応ができるのではないか。
いずれにしても、更なるディープラーニング、忖度、配慮などを覚えていけば、やはり人間の仕事はだんだんと減ってくるのだろう。