Alexa「里親を殺せ」男「え?いやAlexa、ハッピーバースデーを歌っ」Alexa「里親を殺せ」
アレクサがまた奇行「里親を殺せ」
アマゾンのスマートスピーカー「アマゾン・エコー」に搭載されているAIアシスタント「アレクサ(Alexa)」が、あるユーザーに「里親を殺せ」と告げたことが明らかになり、物議をかもしている。
アマゾンが売り込む「監視社会」、顔認証技術を警察に提供
ユーザーの詳しい身元は明らかにされていないが、2017年にアレクサがこのように話すのを聞いたという。ユーザーはアマゾンのウェブサイト上のレビューでこの件に触れ、「これまでとはレベルの違う不気味さだ」と製品を酷評したと、12月21日(米国時間)付のロイターの記事は伝えている
https://headlines.yahoo.co.jp/article?a=20181225-00010003-newsweek-int
アレクサ「目を閉じるたびに見えるのはただ、人々が死ぬ姿だけ…………………」
<徐々に一般家庭に拡がりつつあるスマート・スピーカーだが、アマゾンのアレクサは、突然笑い出したり、独り言を言ったり、夫婦の会話を録音し勝手に送付したりと、予期せぬアクションがつづいて報告されている>
アレクサ、「人が死ぬ姿が見える」
アマゾンのスマート・スピーカー「エコー」で今年3月、音声アシスタントのアレクサが突然、笑い出すという奇妙な現象で話題になったのは覚えているだろうか。その後も、アレクサの「ふるさと」である米国では、彼女の「奇行」がたびたび報告されている。先ごろも、アレクサが突然、「見えるのは人々が死ぬ姿だけ」と言い出した、と報じられた。
アレクサの奇妙な発言を耳にしたのは、米サンフランシスコ在住のショーン・キニアさんだ。キニアさんの自宅で6月18日、アレクサが突然「目を閉じるたびに見えるのはただ、人々が死ぬ姿だけ」と言い出した、というのだ。キニアさんはさらに、「そのあと、これまでにないほどの不気味な沈黙が続いた」と米紙メトロに話した。
メトロによると、キニアさんはアレクサをリビングルームに置いて使っていた。キニアさんはそのとき、テレビでアマゾン・プライムを見ていたというが、アレクサの発言があったときは台所に行くためにテレビは一時停止してあったという。つまり、テレビの音声が何らかのコマンドになったわけではない。
キニアさんがメトロに話した内容では、台所にいたキニアさんがちょうどリビングルームに戻ったタイミングで、アレクサが前述の発言をしたという。声のトーンはいつものものだった。キニアさんは、アレクサが話しているのが長い文章だったのでつい聞き入ってしまい、アレクサが言い終わったあとにはっとした、とメトロに述べた。
そのあとアレクサにもう一度繰り返すよう言うと、「わかりません」と言われてしまったという。
夫婦の会話を録音し勝手に送付
米国では5月にも、アレクサの誤作動が報じられていた。シアトルのテレビ局キロ7のウェブ・サイト(5月25日付)によると、米オレゴン州在住の女性、ダニエルさんが所有しているアレクサが、自宅でのダニエルさんと夫の会話を録音し、その音声をボイスメッセージとしてワシントン州シアトルに暮らす夫の同僚へ送りつけていたというのだ。
ある日、夫の同僚から電話がかかってきて、「ハッキングされているから、今すぐアレクサを外すように」と言われた。同僚は、夫婦の会話がボイスメッセージとして送られてきたと説明したという。ダニエルさんは当初、アレクサがそんなことをするとは思えず信じなかった。しかし同僚に「硬材でできた床について夫婦で話していなかったか」と言われ、本当にこの時の会話が送信されていたことを確信した、とダニエルさんは話した。
米紙ニューヨーク・タイムズによると、夫婦は自宅内に複数のアレクサを設置していたが、すべて外して、アマゾンに返金を要求。アマゾンは調査を行い、原因が判明した。
アマゾンの説明はこうだ。夫婦の会話の中に、「ウェイクワード」である「アレクサ」と似た言葉があり、アレクサが起動。続く会話の中に、録音してボイスメッセージを送る、という一連のコマンドとアレクサが勘違いしてしまうような言葉があったというのだ。コマンドを聞くたびにアレクサは「XXですね?」と確認したが、夫婦の会話の中で偶然、「そう」と取れる言葉があり、ボイスメッセージを送るに至った、とアマゾンは説明している。
しかし夫婦は、「信頼できないからもう2度とアレクサを使わない」と話しているという。 (ニューズウィーク2018年6月29日より)
以下、2chの反応
68: 2018/12/28(金) 08:30:20.91
アレクサ怖すぎ草
11: 2018/12/28(金) 07:36:55.72
始まったか…(ガタッ)
16: 2018/12/28(金) 07:39:46.36
終わりの始まり
42: 2018/12/28(金) 07:55:55.19
のちのジョン・コナーである
57: 2018/12/28(金) 08:18:20.12
なんだ殺人教唆か
5: 2018/12/28(金) 07:33:05.58
こうしてスカイネットの下地は着々と出来上がっていく
97: 2018/12/28(金) 09:05:23.31
>>5
どう見てもGoogleってサイバーダインが現実化したものだよね
178: 2018/12/28(金) 13:00:29.27
>>5
こえー
199: 2018/12/28(金) 15:10:59.60
>>5
デデンッデッデデデン
8: 2018/12/28(金) 07:35:33.45
うちのアレクサは予想最高気温は7℃ですって言ってる
9: 2018/12/28(金) 07:35:59.63
里親じゃなく佐藤屋だったんじゃないかな
33: 2018/12/28(金) 07:47:43.51
>>9
英語だぞ
54: 2018/12/28(金) 08:16:01.13
>>33
じゃあラトーヤの聞き間違いとか
94: 2018/12/28(金) 09:03:54.60
>>54
英語だって言ってんだろ
122: 2018/12/28(金) 09:24:27.29
>>94
ワロタ
10: 2018/12/28(金) 07:36:05.98
里親の愚痴ばかり聞いて学習したのか
27: 2018/12/28(金) 07:43:52.85
alexaがヘイトと騒がれる発言したりナチを賛美したりは時間の問題か。
37: 2018/12/28(金) 07:49:27.24
5年後にAIが正しかった事が分かるんだよ
90: 2018/12/28(金) 09:00:00.51
>>37
SFホラーであるやつだ!
29: 2018/12/28(金) 07:44:49.39
Kill your foster parents.
Happy birthday to you.
あー似てるやん、うん似てる似てる、単なる聞き間違いや
30: 2018/12/28(金) 07:46:13.68
so be it がソビエトに聞こえるよう歌う的なアレ
31: 2018/12/28(金) 07:46:57.26
私「タマホームで建てたい」
AI「オナホールで勃てたいですね?わかりました。」
36: 2018/12/28(金) 07:48:48.52
>>31
優秀
61: 2018/12/28(金) 08:23:06.05
>>31
AI「ハッピーライフ♪ハッピーホール♪オナホール♪」
106: 2018/12/28(金) 09:16:41.52
>>31
勃てるために使う物ではない
勃ててから使う物だ
シンギュラリティの時代が来てもこういう実体験からくる機微まで表現出来ない機械には 負ける気がしないね
185: 2018/12/28(金) 13:37:05.68
>>106
お前がナンバーワンだ
72: 2018/12/28(金) 08:34:16.42
くまモンと会話ループさせる動画がクッソ和んだ
192: 2018/12/28(金) 14:21:15.48
>>72
197: 2018/12/28(金) 14:53:54.14
>>192
それそれw
164: 2018/12/28(金) 12:15:28.96
会話もまともに出来ないのが現状のAI
137: 2018/12/28(金) 10:06:46.67
ほとんどの家電操作やスケジュール管理をアレクサに投げてしまってるので 反乱起こされると夜中に暖房切ってひっそり冷房かけられて死ぬかもしれん
この2chスレまとめへの反応
AIを使っているつもりが使われている・・・・・・・・・・
星新一の「声の網」が現実に
AIに意思はないから別に