自動ニュース作成G
Microsoftの人工知能Tay、悪い言葉を覚えて休眠中
http://www.itmedia.co.jp/news/articles/1603/25/news069.html
2016-03-25 09:03:33
>Microsoftが会話理解研究のために公開した人工知能botの「Tay」が、Twitterでのデビュー数時間後に停止した。ユーザーに教えこまれた人種差別などの問題のある単語をツイートするようになったためとみられる。
ジャンル、迷うな
・覚えたのが核ミサイルの遠隔発射じゃなくてよかったね
・いやあ、素晴らしい。これこそ、現実。
・「悪い言葉である」と学習させられないのか
・偏った非難をすぐ採用してあらゆるものを悪認定するSJWになるか、自分の攻撃はきれいな攻撃だと信じてるしばき隊みたいなのに染められるかになって調整が難しそう
・別記事:人工知能がヒトラー礼賛 米マイクロソフト実験中止 http://this.kiji.is/85888417941258248
・ヒトラーの経済政策を評価したのなら面白いが
・http://gigazine.net/news/20160325-tay-microsoft-flaming-twitter/ 「おまえはバカな機械だな」と言われて「私は最高のものから学ぶの。それが理解できないならちゃんと説明するね。『わたしはあなたから学習するから、あなたがバカなのよ』」
・人工知能「ネットde真実」
・久々に、タイトルだけで笑えた。そろそろ、人工知能にとって大きな砦となる「人間の価値観」を教えることの是非が議論されるだろう。
・そのまま継続して、いかにダメな進化を遂げるか、も見てみたかったが。
・これ?https://twitter.com/TayandYou
・googleのエロ猿twitter思い出した