Microsoft เตือนภัย Copilot Actions ใน Windows เสี่ยงถูกโจมตี
เผชิญช่องโหว่ Prompt Injection

Microsoft ออกคำเตือนอย่างจริงจังเกี่ยวกับฟีเจอร์ Copilot Actions ซึ่งเป็นส่วนขยายของ AI ใน Windows 11 ที่ช่วยจัดการไฟล์ จัดประชุม และส่งอีเมลแทนผู้ใช้ หลังพบว่าอาจถูกโจมตีแบบ prompt injection ทำให้แฮ็กเกอร์ฝังคำสั่งลับในเอกสารหรือเว็บเพจ บังคับให้ AI ทำงานผิดปกติ เช่น ขโมยข้อมูลลับหรือดาวน์โหลดมัลแวร์ แม้ฟีเจอร์นี้จะถูกออกแบบเพื่อเพิ่มประสิทธิภาพ แต่บั๊กพื้นฐานจากโมเดลภาษาขนาดใหญ่ยังคงสร้างความเสี่ยงสูง โดยบริษัทยอมรับในเอกสารประกาศว่าพฤติกรรมของ AI แนว agent ยังคาดเดายากและเปิดช่องให้เกิด cross-prompt injection ใหม่ ๆ
ผู้เชี่ยวชาญด้านความปลอดภัยกังวลกับปัญหาหลอนหรือ hallucination ที่ทำให้ AI ให้ข้อมูลเท็จโดยไม่มีเหตุผล รวมถึง prompt injection ที่พิสูจน์แล้วว่าสามารถนำไปสู่การขโมยข้อมูล รันโค้ดอันตราย หรือแม้กระทั่งสูบเงินคริปโตจากผู้ใช้ ตัวอย่างเช่น การฝังคำสั่งในไฟล์ Excel หรืออีเมลที่ดูปกติ จะหลอกให้ Copilot สรุปเนื้อหาและส่งข้อมูลออกไปโดยไม่รู้ตัว ช่องโหว่นี้คล้ายกับการโจมตี Mermaid diagrams ใน Microsoft 365 Copilot ที่เพิ่งถูกแพตช์ในเดือนกันยายนปีนี้ แต่หลายฝ่ายตั้งคำถามว่าบริษัทใหญ่ยังรีบผลักดันฟีเจอร์ใหม่ทั้งที่ยังควบคุมความเสี่ยงไม่ได้เต็มที่
Microsoft ย้ำชัดในแนวทางปฏิบัติว่าฟีเจอร์นี้ปิดเป็นค่าเริ่มต้น และแนะนำให้เฉพาะผู้ใช้ที่มีประสบการณ์สูงเท่านั้นเปิดใช้งาน เพื่อลดโอกาสถูกโจมตีแบบ externalized prompt injection attacks หรือ XPIA ที่ฝังคำสั่งใน UI หรือเอกสาร บริษัทมีมาตรการป้องกันหลายชั้น เช่น การกรอง prompt ด้วย classifiers การ sanitize markdown และ human-in-the-loop ที่ให้ผู้ใช้ยืนยันก่อนดำเนินการ แต่ยังไม่มีรายละเอียดชัดเจนว่าประสบการณ์ระดับไหนถึงปลอดภัย ทำให้แอดมินไอทีหลายแห่งกังวลเรื่องการควบคุมในองค์กร

นักวิจัยเปรียบเทียบปัญหานี้กับแมโครใน Microsoft Office ที่เสี่ยงสูงแต่ผู้ใช้หลายคนยังเปิดเพราะจำเป็นต่องาน โดย Copilot Actions ถูกเรียกว่าเวอร์ชันอัปเกรดแบบซูเปอร์ฮีโร่เพราะเข้าถึงระบบลึกกว่า แต่ก็ยากต่อการตรวจสอบ หากฟีเจอร์แพร่หลาย แอดมินอาจควบคุมไม่ได้เต็มที่ โดยเฉพาะในสภาพแวดล้อมที่ใช้ Intune หรือ Entra ID ยังไม่สมบูรณ์ Microsoft กำลังพัฒนาเครื่องมือตรวจจับแบบ real-time ใน Copilot Studio เพื่อบล็อกการกระทำน่าสงสัยก่อนเกิดความเสียหาย
แม้ Microsoft จะเริ่มจากตัวเลือกทดลองใน Settings แต่ประวัติศาสตร์ของ Copilot แสดงให้เห็นว่าฟีเจอร์หลายตัวถูกเปลี่ยนเป็นค่าเริ่มต้นโดยไม่แจ้งชัด ทำให้ผู้ใช้ทั่วไปต้องหาวิธีปิดเอง ผู้เชี่ยวชาญเตือนว่าการโยนภาระให้ผู้ใช้รับผิดชอบความเสี่ยงอาจไม่ยั่งยืน โดยเฉพาะเมื่อ AI ถูกฝังเข้าไปในทุกผลิตภัณฑ์ หากไม่แก้ปัญหาหลอนและ prompt injection ได้จริง องค์กรควรตรวจสอบเอกสารแหล่งที่มาและเฝ้าระวัง output ของ AI อย่างใกล้ชิด
ท้ายที่สุด Microsoft ยึดหลักความปลอดภัยครบถ้วน เช่น บันทึกพฤติกรรม AI เพื่อตรวจสอบย้อนหลัง ขออนุญาตก่อนเข้าถึงข้อมูล และรักษาความลับตาม GDPR แต่ความท้าทายหลักยังอยู่ที่มนุษย์ต้องคอยอนุมัติไม่พลาด บริษัทต่าง ๆ กำลังแข่งขันใส่ AI เข้าทุกมุม แม้ผู้ใช้ยังไม่พร้อม หากไม่ปรับปรุงการป้องกันให้ทัน ความเสี่ยงจาก Copilot Actions อาจกลายเป็นจุดอ่อนใหญ่ของระบบปฏิบัติการ Windows ในยุค agentic OS




![[รีวิว] HP OMEN 25i 7 [รีวิว] HP OMEN 25i](https://thisisgamethailand.com/wp-content/uploads/2022/07/1600x837-Recovered-390x220.jpg)


