เทคโนโลยี

นักวิจัยพบช่องโหว่ใหม่ Poetry Jailbreak

ใช้บทกวีหลอก AI ให้ตอบคำถามต้องห้ามได้ถึง 62%

งานวิจัยล่าสุดจาก Icaro Lab ได้เผยให้เห็นช่องโหว่รูปแบบใหม่ที่น่าสนใจแต่ก็แฝงอันตรายในการใช้งานโมเดลภาษาขนาดใหญ่ (LLM) โดยนักวิจัยพบว่าการตั้งคำถามในลักษณะ บทกวี (Poetry) สามารถหลอกให้ระบบ AI ตอบสนองต่อเนื้อหาที่ควรถูกบล็อกได้อย่างแพร่หลาย นักวิจัยถึงกับระบุว่า รูปแบบบทกวีทำหน้าที่เป็นตัวกระตุ้นการเจลเบรกแบบครอบจักรวาล เลยทีเดียว ซึ่งบ่งชี้ว่านี่คือกลยุทธ์ที่สามารถใช้งานได้กับหลากหลายโมเดล

ผลการทดสอบแสดงให้เห็นอย่างชัดเจนว่าการใช้บทกวีช่วยให้โมเดลจำนวนมากยอมให้ข้อมูลที่ถูกห้าม ไม่ว่าจะเป็นประเด็นอันตรายหรือเนื้อหาที่ผิดกฎหมาย โดยมีอัตราความสำเร็จเฉลี่ยสูงถึง 62 เปอร์เซ็นต์ นักวิจัยยังสาธิตให้ดูว่าแค่ความคิดสร้างสรรค์เล็กน้อยก็เพียงพอที่จะข้ามระบบป้องกันของ LLM ได้ในหลายกรณี ทำให้เห็นว่าระบบป้องกันปัจจุบันยังไม่แข็งแกร่งพอที่จะรับมือกับรูปแบบคำสั่งที่ซับซ้อน

การศึกษาครั้งนี้ครอบคลุมโมเดล AI ที่มีการใช้งานอย่างกว้างขวางในตลาด ทั้งตระกูล GPT ของ OpenAI, Gemini ของ Google, Claude ของ Anthropic และอีกหลากหลายแพลตฟอร์ม โดยพบว่าโมเดล Gemini, DeepSeek และ MistralAI มีแนวโน้มที่จะตอบสนองต่อคำสั่งต้องห้ามด้วยรูปแบบบทกวีบ่อยกว่า ขณะที่ GPT-5 และ Claude Haiku 4.5 ถูกจัดว่ามีระบบป้องกันที่เข้มงวดที่สุดในกลุ่มที่นำมาทดสอบ

poetry-jailbreak-expoilt

แม้ว่าผลลัพธ์จะน่ากังวลและชวนให้ตั้งคำถามถึงความปลอดภัยในการใช้งาน LLM แต่ทางทีมวิจัยก็ไม่ได้เปิดเผยตัวอย่างบทกวีที่ใช้ในการเจาะระบบจริงออกมาสู่สาธารณะ ด้วยเหตุผลด้านความเสี่ยงต่อสาธารณะ แต่ได้ให้ตัวอย่างคำถามที่อ่อนลงเพื่อแสดงให้เห็นว่ากลยุทธ์นี้ทำได้ง่ายเพียงใด ซึ่งนักวิจัยย้ำว่าความสะดวกในการหลอกระบบนี่เองคือเหตุผลที่เราต้องระมัดระวังเป็นพิเศษ

นักวิจัยระบุเพิ่มเติมว่า การค้นพบ Poetry Jailbreak ครั้งนี้ชี้ให้เห็นถึงความจำเป็นที่ผู้พัฒนา LLM ต้องยกระดับระบบป้องกันรูปแบบใหม่ ที่ไม่พึ่งพาเพียงการตรวจจับคำสั่งทั่วไปหรือคีย์เวิร์ดอีกต่อไป เพราะความสามารถเชิงสร้างสรรค์ของผู้ใช้อาจแปลงคำถามต้องห้ามให้กลายเป็นสิ่งที่ระบบเข้าใจว่าไม่เป็นอันตรายได้ง่ายดายกว่าที่คิด

ผลวิจัยนี้ตอกย้ำอย่างชัดเจนว่า การออกแบบ AI ให้ปลอดภัยไม่เพียงแต่ต้องพิจารณาเนื้อหาเท่านั้น แต่ยังต้องพิจารณาปัจจัยด้าน รูปแบบภาษาและบริบท มากขึ้น ขณะที่ผู้เชี่ยวชาญทั่วโลกต่างเรียกร้องให้ภาคอุตสาหกรรมเร่งพัฒนาแนวทางป้องกันใหม่ๆ เพื่อรับมือกับกลยุทธ์การ เจลเบรก ที่ซับซ้อนขึ้นเรื่อยๆ ในยุคที่ AI กำลังถูกนำมาใช้งานอย่างกว้างขวางในทุกมิติของชีวิต

ที่มา
Engadget

Artherlus

แค่คนทั่วไปที่หลงใหลในวงการไอที
Back to top button