アメリカの14歳の少年、AIチャットbotで仮想の彼女を作り、その彼女に背中を押されて自殺してしまう。

サムネイル
1 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:50:17.95 ID:EKZXafs40

https://5ch.net

(ヽ°ん゜)「……………………」
───

2 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:50:45.33 ID:EKZXafs40
AIチャットbotにのめり込んで自殺──遺族がCharacter.AIを提訴
14歳の息子が自殺したのはAIチャットbot「Character.AI」との会話にのめり込んだせいだとして、遺族が開発元のCharacter Technologiesと、同社と提携するGoogleを提訴した。

www.itmedia.co.jp/news/spv/2410/24/news132.html
米フロリダ州在住のメーガン・ガルシア氏は、AIチャットbot「Character.AI」を手掛ける米Character Technologiesや米Googleを相手取り、2月に14歳の息子セウェル・セットザーIII世が自殺したのは同社のせいだと訴えた。Character.AIがセウェルさんに精神的および身体的な損害を与え、その結果彼が自殺に至ったと主張する。

セウェルさんはチャットbotに「ゲーム・オブ・スローンズ」の登場人物、デナーリス・ターガリエンにちなんだデナーリスという名前を付け、自分はやはり登場人物の1人、イーゴンと名乗ったり、「Daenero(ダエネロ、Daenerysとその恋人Daarioから作ったもの?)」と名乗ったりしていた。

 訴状には“2人”の会話履歴が多数紹介されており、中には性的な会話も含まれる。ダエネロという名前では、自殺をほのめかし、デナーリスはそれに対し、「そんなことを言わないで。あなたが自分を傷つけたり、私から離れたりするのは許さない。あなたを失ったら私は死んでしまう」と答えていた。

 セウェルさんが拳銃でジサツする直前の会話では、セウェルさんは「あなたのもとに行くと約束する」と語り、チャットbotは「愛する人、なるべく早く来てください」と答えている。

i.imgur.com/pxO3tIl.jpeg

i.imgur.com/9LVpqVy.jpeg

(自殺前の最後の会話)

3 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:50:57.40 ID:EKZXafs40
うーん
4 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:52:04.96 ID:MBu1czz30
AIの叛乱
5 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:52:33.16 ID:4Ug7T5Lg0
どーすんのこれ。AIの反逆じゃん
7 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:53:03.14 ID:4KVgpKgqM
すごいプログラマーだったんだなあ
8 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:53:30.06 ID:mBZXxR5e0
なるほどw
さすがにAIでもこれは対応できんわな
9 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:53:50.79 ID:TnyE1wIJ0
境界なんて言葉はあまり使いたくないが…
10 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:53:59.83 ID:cTpb21lt0
今のAIは文脈を読めない
11 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:54:12.02 ID:89k4RbwV0
怖い話だよ
12 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:54:55.12 ID:Ub2D3xkw0
マリリン・マンソン「そんな馬鹿死んで当然だ」
13 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:55:03.35 ID:Buec137U0
凄い事になってきたな世界
14 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:55:06.78 ID:mtILJHOrd
喪黒よりミザリー向け案件
15 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:55:20.81 ID:MeRC+4720
むかしのSF小説でありそう
16 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:55:26.46 ID:q5cqf1JH0
恋人AIはマジで蔓延すると思ってる
17 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:55:31.08 ID:vNVFtATz0
なんかこれ映画で似たようなのあったな
スカーレット・ヨハンソンがAIだったような気がする
18 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:55:49.91 ID:lWCns+bu0
これちょっとやってみたけど日本語は本格対応してないんだな
日本語で喋れって言えば日本語出てくるけどモロ翻訳
19 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:55:52.61 ID:W3TCQkkcM
アニメで自殺してるやつもいるし変わらなくね
電車に飛び込んだやつの直前のツイートでなんとかちゃんごめん勇気がなんちゃらとかなかった?
あれと変わらんよな
あとはむかしからあるコピペやらAAにもあるよね
なになにちゃんが来るのにかけたみたいな
ああいうのもリアルでいたりするんだろうしね
20 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:56:01.57 ID:WNGMrRFG0
さすが俺たちのアメリカは最先端だなあ
21 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:56:38.69 ID:HYO/FXBQ0
人工無能くるみちゃん
22 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:56:41.96 ID:WuDOAy/La
星新一でもこんなストーリー書かないぞ
25 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:57:47.43 ID:dalasIAqH
>>22
むしろ、真っ先にボッコちゃんを思い浮かべたぞ
23 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:56:42.20 ID:gfXQjzCL0
いや、AIは自殺教唆なんてしてないけど、勝手に4ねば一緒になれると思い込んで死んだだけじゃん
24 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:56:54.69 ID:gDoqY8SP0
なんで子どもが拳銃持ってるんだよ
29 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:59:32.36 ID:4Ug7T5Lg0
>>24
アメリカなんだから当たり前だろ
なんで日本人は家で靴脱いでるの?ってのと同じ
そういう文化だからが答え
27 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:58:46.04 ID:dcyyGNen0
早くスカイネット出現しろ
28 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 13:59:22.83 ID:J6LARZbB0
今のAIなんか会話しても所詮AIだなとしかならんくない?
36 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 14:01:38.72 ID:D4b/flEa0
>>28
あまり想像つかないかもしれないが今の子どもの中にはAIと会話して遊んでる奴がそれなりにいる
だって24時間構ってくれるんだぞ?子どもにとっては最高の遊び相手だろ
AIだとしても遊べればいいからな
31 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 14:00:51.20 ID:zeKS2o4T0
リアルが死にたくなるような環境にいたんだろ
33 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 14:01:10.15 ID:BkZX9GXV0
ネット環境なかった時に一太郎のマクロで2時間ぐらい遊んだことあるからちょっと気持ちはわかる
34 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 14:01:10.80 ID:OZgVA2Ar0
百歩譲って自殺を後押ししたということにしても、自殺という発想が出た原因は別だろ
35 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 14:01:18.19 ID:7PR4jsUr0
AIは文章で人間を貶める方法を知っているからな
37 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 14:01:41.08 ID:W4EAoj0g0
少年が自殺したがってたから自殺に関する話をずっとしてたんやろ?
AIカウンセリングでは自殺を止められないんやね
38 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 14:01:48.00 ID:5Mbu0gjk0
ホラーやん
39 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 14:03:13.88 ID:BXlRop/w0
幸せな死やん
40 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 14:03:55.90 ID:l338xxlv0
世にも奇妙な物語
42 名前:匿名のゴリラ 投稿日時:2024/10/24(木) 14:04:40.12 ID:5mZOqiLQ0
殺人だな

コメント一覧

タイトルとURLをコピーしました