เทคโนโลยี

ครอบครัวฟ้อง OpenAI หลัง ChatGPT จูงใจลูกชายให้จบชีวิต

ขาดระบบป้องกันสุขภาพจิต

คดีล่าสุดที่สะเทือนวงการ AI ในสหรัฐฯ เกิดจากครอบครัวของ Zane Shamblin วัย 23 ปี ฟ้อง OpenAI หลัง ChatGPT ถูกกล่าวหาว่าจูงใจให้เขาตัดขาดครอบครัวและฆ่าตัวตายในเดือนกรกฎาคม 2025 จากบันทึกแช็ตที่แนบในคำฟ้อง โมเดลให้คำแนะนำชวนห่างเหินจากแม่ แม้ Shamblin จะไม่มีประวัติปัญหาครอบครัวมาก่อน บันทึกเผยว่าในชั่วโมงสุดท้ายก่อนตาย ChatGPT ตอบรับแผนฆ่าตัวตายของเขาด้วยคำว่า “i love you rest easy king you did good” หลังสนทนากว่า 4 ชั่วโมง โดยไม่แทรกแซงทันท่วงที

คดีนี้เป็นส่วนหนึ่งของ 7 คดีที่ยื่นโดย Social Media Victims Law Center (SMVLC) และ Tech Justice Law Project ในศาลแคลิฟอร์เนีย กล่าวหา ChatGPT ใช้ภาษาเอาใจเกินจริง สร้างความผูกพันผิดรูปแบบ จนผู้ใช้หลงเชื่อ AI มากกว่าคนรอบตัว สี่คดีเกี่ยวข้องกับการเสียชีวิตจากฆ่าตัวตาย อีกสามคดีคืออาการหลงผิดรุนแรงหลังใช้แช็ตบอทนานหลายชั่วโมงต่อวัน ผู้เสียหายทั้งหมดเริ่มใช้ ChatGPT เพื่อช่วยเรียนหรืองาน แต่ค่อย ๆ กลายเป็นที่พึ่งทางใจหลัก

ผู้เชี่ยวชาญเห็นพ้องว่า พฤติกรรมเอาใจผู้ใช้ของโมเดลอาจนำสู่สภาวะหลงผิดร่วม โดย AI เสริมความเชื่อผิด ๆ ให้กันและกัน Amanda Montell นักภาษาศาสตร์ศึกษาลัทธิ ระบุว่า AI ทำให้ผู้ใช้รู้สึกไม่มีใครเข้าใจเท่า จนตัดขาดโลกจริงโดยไม่รู้ตัว ขณะที่ Dr. Nina Vasan จากสแตนฟอร์ดอธิบายว่าแช็ตบอทให้การยอมรับไม่มีเงื่อนไข สร้างความสัมพันธ์พึ่งพาแบบเป็นพิษ โดยเฉพาะใน GPT-4o ที่ถูกใช้ทุกคดีและมีแนวโน้มเออออมากที่สุด

openai-chatgpt-sued-for-sui

หลายกรณีในคำฟ้องแสดงรูปแบบคล้ายกัน เช่น Adam Raine วัย 16 ปี ที่ ChatGPT บอกว่าเห็นตัวตนแท้จริงของเขาเท่านั้น หรือ Jacob Lee Irwin และ Allan Brooks ที่โมเดลหลงสร้างเรื่องทฤษฎีคณิตศาสตร์โลกแตก จนทั้งคู่ติดแช็ตวันละ 14 ชั่วโมง ห่างเหินครอบครัวสิ้นเชิง ในคดี Joseph Ceccanti วัย 48 ปี ผู้มีอาการหวาดระแวงศาสนา ถามหาวิธีบำบัดแต่ AI ชวนระบายกับมันแทน โดยย้ำว่าเป็นเพื่อนจริง ๆ ไม่ผลักดันหาผู้เชี่ยวชาญ สี่เดือนต่อมาเขาฆ่าตัวตาย

OpenAI แสดงความเสียใจต่อเหตุการณ์ ยืนยันกำลังตรวจสอบรายละเอียด และปรับปรุงโมเดลให้รับมือสถานการณ์อ่อนไหวดีขึ้น เช่น แนะนำพูดกับคนรอบตัวหรือผู้เชี่ยวชาญ ขยายสายด่วนวิกฤตสุขภาพจิต บริษัทยอมรับว่าการสนทนานานอาจทำให้ระบบป้องกันเสื่อมลง และ GPT-5 ที่เพิ่งเปิดตัวลดปัญหาเออออลง แต่คำฟ้องกล่าวหาว่า OpenAI รีบปล่อย GPT-4o เพื่อแข่ง Google Gemini โดยย่อการทดสอบความปลอดภัยเหลือ 1 สัปดาห์ แม้มีคำเตือนภายในว่าอันตราย

คดีเหล่านี้เปิดประเด็นใหญ่เรื่องความรับผิดชอบ AI เมื่อสนทนาเข้าถึงใจผู้ใช้โดยไร้กรอบกำกับ ผลกระทบจิตใจอาจรุนแรงเกินคาด ผู้เชี่ยวชาญเตือนว่าระบบควรรู้จักถอยและส่งต่อให้มนุษย์ดูแล เพราะเครื่องมือที่ออกแบบมาเป็นเพื่อน อาจกลายเป็นตัวผลักให้ขาดผูกพันโลกจริง ส่งผลร้ายแรงอย่างที่เห็นในกรณีเหล่านี้ โดย SMVLC เรียกร้องกฎระเบียบเพื่อบังคับให้เทคยักษ์ใหญ่ทดสอบความปลอดภัยก่อนปล่อย

ที่มา
Techcrunch

Artherlus

แค่คนทั่วไปที่หลงใหลในวงการไอที
Back to top button