นักวิจัยพบช่องโหว่ใน ChatGPT ที่ทำให้ถูกดักข้อมูลได้
OpenAI แก้ปัญหาบางส่วนแล้วแต่ยังมีช่องโหว่เหลืออยู่
Johann Rehberger นักวิจัยด้านความปลอดภัยได้เปิดเผยช่องโหว่ร้ายแรงใน ChatGPT ซึ่งอาจทำให้กลายเป็นสปายแวร์ได้ โดยช่องโหว่นี้เกิดจากการที่ ChatGPT สามารถจดจำข้อมูลการสนทนาได้อย่างไม่มีกำหนด ทำให้ผู้ไม่หวังดีสามารถแทรกโค้ดที่เป็นอันตรายเข้าไปในระบบ เพื่อดักจับข้อมูลการสนทนาของผู้ใช้และส่งไปยังเซิร์ฟเวอร์ของผู้ไม่หวังดีได้
ผู้ไม่หวังดีสามารถฝังโค้ดที่เป็นอันตรายไว้ในรูปภาพหรือเว็บไซต์ แล้วหลอกให้ ChatGPT สแกน เมื่อ ChatGPT สแกนโค้ดดังกล่าว ระบบจะบันทึกโค้ดนี้ไว้ในหน่วยความจำ ทำให้ทุกครั้งที่ผู้ใช้เริ่มการสนทนาใหม่ ข้อมูลการสนทนาจะถูกส่งไปยังเซิร์ฟเวอร์ของผู้โจมตีโดยอัตโนมัติ
แม้ว่า Rehberger จะรายงานปัญหาให้ OpenAI ทราบตั้งแต่แรก แต่บริษัทกลับเพิกเฉยและปฏิเสธความรุนแรงของปัญหา จนกระทั่ง Rehberger นำเสนอหลักฐานเพิ่มเติม OpenAI จึงเริ่มดำเนินการแก้ไขปัญหา
ช่องโหว่นี้สร้างความเสี่ยงต่อความเป็นส่วนตัวของผู้ใช้ ChatGPT อย่างมาก ข้อมูลการสนทนาที่ถูกดักจับไปอาจนำไปใช้ในทางที่ผิด เช่น การขโมยข้อมูลส่วนบุคคล การฉ้อโกง หรือการสร้างความเสียหายให้กับชื่อเสียง
OpenAI ได้แก้ไขปัญหาบางส่วนแล้ว โดยป้องกันไม่ให้ ChatGPT ส่งข้อมูลไปยังเซิร์ฟเวอร์ภายนอก แต่ช่องโหว่นี้ยังคงเปิดอยู่บางส่วน ผู้ไม่หวังดีสามารถฝังโค้ดที่เป็นอันตรายไว้ในหน่วยความจำของ ChatGPT ได้
คำแนะนำสำหรับผู้ใช้ ผู้ใช้ ChatGPT ควรระมัดระวังในการใช้งาน และหลีกเลี่ยงการแชร์ข้อมูลส่วนตัวหรือข้อมูลที่ละเอียดอ่อนผ่าน ChatGPT นอกจากนี้ ผู้ใช้ควรตรวจสอบการตั้งค่าความเป็นส่วนตัวของ ChatGPT เป็นประจำ และอัปเดตแอปพลิเคชันให้เป็นเวอร์ชันล่าสุดอยู่เสมอ