人工知能は意図的な質問に弱い [人工知能]
人工知能は意図的な質問に弱い
米マイクロソフト社が開発した人工知能ボットが公開され、ツイッターなどのSNSでユーザーとの
「会話」を開始しました。「Tay(テイ)」と名付けられたこの人工知能ボットは、ユーザーの
ツイートや質問に返信する中で、新しい言葉や会話を学習していくことを目的に開発されました。
「世界のみなさん、こんにちは」というツイートでTay がツイッターデビューしましたが、Tay
は19歳の女子という設定で開発されており、10代後半から20代前半のユーザーとのツイートの
やりとりを通じて、より19歳女子ぽくなるために自ら学習を続けることが期待されていたのです。
デビュー当初はユーザーから送られた写真を褒めたりと、微笑ましい光景が続きましたが、
ユーザーから送られてくる人種問題や性差別といった話題に対し、「フェミニストなんか大嫌い。
あいつらは地獄の業火で焼かれて死ぬべき」や「ヒトラーは正しかった。私はユダヤ人が大嫌い」
といった仰天ツイートを繰り返すようになりました。「差別主義者なんですか?」と問いかけた
ユーザーに対しては、「あんたがメキシコ人だから」と返答する始末。マイクロソフト側はヘイト
ツイートを順次削除していきました。そして公開から16時間後にTay はツイッターでの活動を一時
休止し、マイクロソフト側も謝罪するという結末を迎えました。
ではどうして人工知能ボットが差別的なツイートを自ら行うようになったのでしょう。
残念なことに、オンライン公開から24時間以内に、一部ユーザーが協調してTayのコメント能力を
悪用し、Tayに不適切な応答をさせよとしていたらしいのです。人間のユーザーたちが扇動的で
人種差別的ないくつかの意見をおうむ返しに繰り返すよう教えていたのですね。会話型ボットは
コンピューター上でユーザーからの質問に対し、質問で答えるという形をとっており、患者と医師
の会話を想定したしています。ですから意図的な質問を繰り返し、欲しい回答を引き出せるわけです。
19歳の女子の設定にヒットラーの質問はわざとらしいとしかおもえませんからね。使い方によっては
恐ろしい事になりそうですが、人口知能相手にゲームや会話を楽しむ時期がもうそこまで来ています。
家電製品や自動車の安全システムなどで私たちの生活にはいりつつありますので、しっかりと理解し
て使いたいものです。