
นักวิจัยจาก LayerX Security ค้นพบช่องโหว่ร้ายแรงใน ChatGPT Atlas Web Browser ของ OpenAI ที่เปิดโอกาสให้แฮ็กเกอร์ใช้คำสั่งอันตรายเข้าไปในหน่วยความจำถาวรของ ChatGPT โดยไม่ให้ผู้ใช้รู้ตัว ช่องโหว่นี้ใช้การโจมตีแบบ Cross-Site Request Forgery หรือ CSRF ซึ่งอาจนำไปสู่การรันโค้ด การยกระดับสิทธิ์ หรือขโมยข้อมูลส่วนตัว
การโจมตีเริ่มต้นเมื่อผู้ใช้ที่ล็อกอิน ChatGPT แล้วถูกหลอกคลิกลิงก์อันตราย เว็บเพจจะส่งคำขอ CSRF เพื่อฝังคำสั่งลับลงในหน่วยความจำของ Atlas คำสั่งเหล่านี้จะคงอยู่แม้เปลี่ยนเบราว์เซอร์หรืออุปกรณ์ เมื่อผู้ใช้กลับมาใช้งาน ChatGPT คำสั่งจะถูกเรียกใช้โดยอัตโนมัติ ทำให้ AI กลายเป็นเครื่องมือของผู้โจมตี
Michelle Levy หัวหน้าทีมวิจัย LayerX ระบุว่าการโจมตีนี้อันตรายเพราะไม่ใช่แค่ session เบราว์เซอร์ แต่โจมตีหน่วยความจำ AI โดยตรง ทำให้คำสั่งร้ายแฝงตัวใน prompt ปกติและหลบเลี่ยงการตรวจจับได้ง่าย LayerX เปิดเผยรายละเอียดทางเทคนิคบางส่วนแต่ปกปิดเพื่อป้องกันการนำไปใช้ผิด

ฟีเจอร์ Memory ของ ChatGPT ที่เปิดตัวปี 2024 ซึ่งออกแบบให้ AI จำข้อมูลส่วนตัวอย่างชื่อหรือความชอบเพื่อปรับปรุงประสบการณ์ กลับกลายเป็นจุดอ่อนที่ผู้โจมตีใช้ฝังคำสั่งถาวร คำสั่งจะไม่หายไปจนกว่าผู้ใช้จะล้างข้อมูลใน Settings เอง สร้างความเสี่ยงต่อการรั่วไหลข้อมูลยาวนาน
จากการทดสอบ LayerX กับช่องโหว่เว็บกว่า 100 รูปแบบ พบว่า ChatGPT Atlas บล็อกได้เพียง 5.8% เท่านั้น เทียบกับ Microsoft Edge 53% และ Google Chrome 47% แสดงให้เห็นถึงการป้องกันฟิชชิ่งที่อ่อนแอ ผู้ใช้ Atlas จึงเสี่ยงสูงถึง 90% มากกว่าเบราว์เซอร์ทั่วไป
Or Eshed CEO ของ LayerX เตือนว่าช่องโหว่แบบนี้คือซัพพลายเชนใหม่ในยุค AI ที่เดินทางติดตามผู้ใช้และพร่าเลือนเส้นแบ่งระหว่าง AI ผู้ช่วยกับ AI ที่ควบคุม องค์กรควรปฏิบัติการเบราว์เซอร์ AI เป็นโครงสร้างพื้นฐานสำคัญ และ OpenAI กำลังแก้ไขตามกระบวนการแจ้งเตือนความปลอดภัย







