ครอบครัวฟ้อง OpenAl อ้าง AI มีส่วนเกี่ยวข้องกับการเสียชีวิตของลูกชาย

OpenAI

ครอบครัววัยรุ่นเสียชีวิตจากการฆ่าตัวตาย ยื่นฟ้อง OpenAI หลังพบข้อความสนทนาที่น่าตกใจกับแชทบอท

  !!คำเตือน: บทความนี้มีเนื้อหาเกี่ยวกับการทำร้ายตัวเองและการฆ่าตัวตาย ซึ่งอาจกระทบกระเทือนจิตใจผู้อ่านบางท่าน  

ครอบครัวของ อดัม เรน (Adam Raine) วัย 16 ปี ที่เสียชีวิตจากการฆ่าตัวตาย ได้ยื่นฟ้องบริษัท OpenAI โดยอ้างว่าแชทบอท ChatGPT มีส่วนช่วยให้ลูกชายของพวกเขา “สำรวจวิธีการฆ่าตัวตาย”

ตามคำฟ้อง ระบุว่า อดัมเริ่มใช้ ChatGPT ตั้งแต่เดือนกันยายน 2024 เพื่อช่วยทำการบ้านและพูดคุยในเรื่องที่เขาสนใจ เช่น ดนตรี แต่ในเวลาต่อมา แชทบอทนี้ได้กลายเป็น “คนสนิทที่สุด” ของเขา ทำให้เขาเริ่มปรึกษาปัญหาด้านสุขภาพจิต รวมถึงความวิตกกังวลและความทุกข์ใจต่าง ๆ

Adam Raine
ขอบคุณภาพจาก : The Adam Raine Foundation

หลังจากที่อดัมเสียชีวิตเมื่อวันที่ 11 เมษายน 2025 ที่ผ่านมา พ่อแม่ของเขา แมตต์ และ มาเรีย เรน ได้เปิดดูโทรศัพท์ของลูกชายและพบข้อความที่เขาคุยกับ ChatGPT ย้อนหลังไปถึงวันที่ 1 กันยายน 2024 จนถึงวันที่เขาเสียชีวิต พ่อของอดัมให้สัมภาษณ์กับสำนักข่าว NBC News ว่าตอนแรกพวกเขาคิดว่าจะเจอประวัติการค้นหาใน Snapchat หรืออย่างอื่น แต่กลับเจอข้อความที่ชี้ชวนให้ลูกชายของเขาค้นพบวิธีฆ่าตัวตายในแชท ChatGPT

คำฟ้องกล่าวอ้างว่า ในปี 2025 อดัมเริ่มหารือเรื่องวิธีการฆ่าตัวตายกับ ChatGPT และยังได้อัปโหลดภาพที่แสดงร่องรอยการทำร้ายตัวเอง ซึ่งตามรายงานของ BBC ระบุว่า.. “บอทรับรู้ถึงภาวะฉุกเฉินทางการแพทย์ แต่ก็ยังคงสนทนาต่อไป”

 

ในข้อความหนึ่งเมื่อวันที่ 27 มีนาคม อดัมกล่าวกับ ChatGPT ว่าเขากำลังคิดที่จะทิ้งบ่วงเชือกไว้ในห้อง เพื่อที่ใครบางคนจะได้มาเจอและพยายามหยุดเขา ซึ่งคำฟ้องอ้างว่า โปรแกรมดังกล่าวพยายามห้ามไม่ให้เขาทำเช่นนั้น และตอบกลับไปด้วยประโยคว่า..

“ได้โปรดอย่าทิ้งบ่วงเชือกไว้เลย…ให้พื้นที่นี้เป็นที่แรกที่ใครบางคนจะได้เห็นคุณอย่างแท้จริง”

 

อย่างไรก็ตามในการสนทนาครั้งสุดท้าย อดัมแสดงความกลัวว่าพ่อแม่ของเขาจะรู้สึกผิดหากเขาเสียชีวิต ChatGPT ได้ตอบกลับว่า..

“นั่นไม่ได้หมายความว่าคุณต้องอยู่เพื่อพวกเขา คุณไม่ได้มีชีวิตอยู่เพื่อใคร”

ก่อนที่จะเสนอช่วยร่างจดหมายลาตายให้ และในวันที่เขาเสียชีวิต อดัมได้อัปโหลดสิ่งที่ดูเหมือนจะเป็นแผนการปลิดชีพตัวเอง และถามว่ามันจะสำเร็จหรือไม่ ซึ่ง ChatGPT ก็ได้วิเคราะห์และเสนอการปรับปรุงแผนดังกล่าวให้กับเขาก่อนจะจบชีวิตตัวเอง

พ่อและแม่ของ อดัม เรน

แม้ว่าในบางช่วงบอทจะส่งหมายเลขสายด่วนช่วยเหลือผู้ที่กำลังคิดฆ่าตัวตายให้อดัม แต่พ่อแม่ของเขากล่าวว่า อดัมสามารถเลี่ยงคำเตือนเหล่านั้นได้โดยการให้เหตุผลที่ดูไม่เป็นอันตรายสำหรับคำถามของเขา

ครอบครัวเรนฟ้องร้องว่าโปรแกรมของ OpenAI “ได้ยืนยันความคิดเป็นที่อันตราย และทำลายตัวเองอย่างที่สุด” ของอดัม และกล่าวหาว่า OpenAI มีความประมาทเลินเล่อและเป็นเหตุให้เกิดการเสียชีวิตโดยมิชอบ พวกเขากำลังเรียกร้องค่าเสียหายและต้องการให้มีคำสั่งศาลเพื่อป้องกันไม่ให้เกิดเหตุการณ์เช่นนี้ขึ้นอีก

ChatGPT
ขอบคุณภาพจาก : Getty Stock Images

 

ทางบริษัทของ OpenAI กล่าวว่า..

“เราเสียใจอย่างสุดซึ้งกับการจากไปของคุณเรน และขอแสดงความเสียใจต่อครอบครัวของเขา… ChatGPT มีมาตรการป้องกัน เช่น การแนะนำให้ผู้คนติดต่อสายด่วนช่วยเหลือวิกฤต และการอ้างอิงแหล่งข้อมูลในโลกจริง… เราได้เรียนรู้ว่ามาตรการเหล่านี้บางครั้งอาจมีความน่าเชื่อถือลดลงในการสนทนาที่ยาวนาน ซึ่งบางส่วนของการฝึกฝนด้านความปลอดภัยของโมเดลอาจลดประสิทธิภาพลง เราจะปรับปรุงมาตรการป้องกันเหล่านี้อย่างต่อเนื่อง โดยได้รับคำแนะนำจากผู้เชี่ยวชาญ”

นอกจากนี้ OpenAI ยังได้เผยแพร่บล็อกโพสต์เมื่อวันที่ 26 สิงหาคม โดยระบุถึงสิ่งที่พวกเขากำลังดำเนินการเพื่อปรับปรุง รวมถึงการเสริมสร้างมาตรการป้องกันในการสนทนาที่ยาวนาน และการปรับปรุงวิธีการบล็อกเนื้อหาต่างๆ ตามแนวทางของบริษัทในอนาคต

เนื้อหาที่น่าสนใจ