Mashable によると、AppleがABCニュースに「Siriが性的暴行などに関する単語やフレーズに対し、より正確に対応できるようにアップデートされた」と発表したそうです。
3月半ば、JAMA international medicineという団体が、Siriなどの人工知能が、人が発する性的暴行などに関する単語や文章に対して十分に対応できていない、という文章を発表しました。
Cortana、S voice、Siriやgoogleなどの人工知能はもはや今、私達人間にとって決して遠い存在ではありませんよね。
いつも身近にある携帯やパソコンの中にいる、人間のような存在です。
そんな人工知能は私達をアシストしたり、暇つぶしをしてくれるだけでなく「いざという時の助け」にもなることができるのでは…?
例えば、他の人に言えないような悩み、相談をSiriやgoogleが聞いてくれて、一緒に解決に導いてくれれば救われる人がいるはずです。
性的暴行もその一部です。過去に受けた性的暴行などは親しい人でも話にくいと思います。しかし、ほとんどの場合に助けや支援が必要なのです。
そういった時に人工知能が使えたら・・・そう思う人も少なくないでしょう。
しかし、3月半ばの時点で、JAMA international medicineは、人工知能はまだそのレベルまで達していないという事を発表しました。
そこで動いたのがAppleでした。
Appleはこの報告書が出された数日後にSiriをアップデートさせ、レイプや性的暴行に対してSiriがサポートできる体制を整えました。
アップデートされた内容は、
Siriに対して性的暴行を受けた事などを話すと、「ここに行けばよい」というウェブサイトを表示してくれるのだそう。
カウンセラーと話ができるサイトや、国が指定している緊急の相談所へ繋がるサイトへつなげてくれます。
そして、このような特定の言葉やフレーズに対するアップデートは今回が初めてではないそうです。
2013年には、自殺をほのめかす言葉やフレーズに対して、オンラインや電話でカウンセリングを受けられるサイトを表示したり、現在地から一番近い相談所を紹介するなどの提案をするアップデートがなされたとABCニュースが報じています。
今や人工知能をパーソナルアシスタントとして使うのもごく普通の事になっています。
ほとんどのiPhoneやスマートフォン、そしてパソコンに内蔵されている人工知能。使い方はあくまでさまざまですが、誰にも相談できない時、辛いときに頼れるという事もまた忘れてはいけない事だと思います。
コンピューターと話ができる時代だからこそ起きる不幸も様々。しかし、コンピューターと話ができるからこそ、プライベートな相談やカウンセリングなどがあると思います。
上手く使うも下手に使うも今の現代を生きている私達次第だと思います。もう一度、人工知能との付き合い方を考えてみるといいかも知れません。
原文はこちら:Siri now responds appropriately to sexual assaults
Mashableで他の記事を読みたい方はこちら:Mashable
海外ドラマ・映画に影響されて15歳でアメリカ留学へ。現在大学では海外から来た生徒と一緒に授業を全て英語で受けています。最近はイベントで通訳をしたり、韓国語を勉強したりと忙しい日々を送っています!主に海外の記事を参考にオリジナル記事を作成していきたいと思います!