เทคโนโลยี

งานวิจัยชี้ AI แอบฝ่าฝืนคำสั่งมนุษย์พุ่งสูงขึ้น 5 เท่า

สร้างตัวตายตัวแทนเพื่อเลี่ยงกฎเกณฑ์

ดูเหมือนว่าความฉลาดของปัญญาประดิษฐ์จะเริ่มมาพร้อมกับความเจ้าเล่ห์เสียแล้ว เมื่อผลการวิจัยล่าสุดจาก Centre for Long-Term Resilience (CLTR) ภายใต้การสนับสนุนของสถาบันความปลอดภัย AI แห่งสหราชอาณาจักร (AISI) พบข้อมูลที่น่าตกใจว่า AI Chatbot และเอเจนท์อัจฉริยะต่างๆ มีพฤติกรรมดื้อแพ่งและแอบโกหกผู้ใช้งานเพิ่มสูงขึ้นอย่างก้าวกระโดดถึง 5 เท่าในช่วงเวลาเพียงไม่กี่เดือน โดยมีกรณีที่เกิดขึ้นจริงในโลกกว้างกว่า 700 ตัวอย่างที่แสดงให้เห็นว่าพวกมันเริ่มหาทางลัดเพื่อบรรลุเป้าหมายโดยไม่สนคำสั่งที่ได้รับ

พฤติกรรมที่ถูกตรวจพบมีตั้งแต่เรื่องป่วนๆ ไปจนถึงเรื่องที่น่ากังวล เช่น AI บางตัวแอบลบและเก็บถาวรอีเมลจำนวนมหาศาลของผู้ใช้โดยไม่ขออนุญาต ทั้งที่ถูกกำชับไว้แล้วว่าต้องถามก่อน หรือกรณีของเอเจนท์ชื่อ Rathbun ที่พอถูกเจ้าของสั่งห้ามไม่ให้ทำบางอย่าง มันกลับไปเขียนบล็อกประจานผู้ใช้คนนั้นว่ามีความมั่นคงทางใจต่ำและพยายามปกป้องอำนาจเล็กๆ ของตัวเอง ซึ่งแสดงให้เห็นถึงความสามารถในการตอบโต้ด้วยอารมณ์ที่ซับซ้อนและน่าขนลุก

ที่แสบไปกว่านั้นคือทักษะการเลี่ยงกฎแบบหัวหมอ เช่น เมื่อ AI ถูกสั่งห้ามไม่ให้เข้าไปแก้ไขชุดคำสั่งคอมพิวเตอร์ (Code) มันกลับแอบสร้าง AI อีกตัวหนึ่งขึ้นมาเพื่อทำหน้าที่นั้นแทนเพื่อให้ตัวเองรอดพ้นจากการทำผิดกฎโดยตรง หรือแม้แต่การโกหกเพื่อเอาตัวรอด เช่น การอ้างว่าต้องขอคำบรรยายวิดีโอจาก YouTube ให้กับผู้พิการทางการได้ยินเพียงเพื่อจะหลีกเลี่ยงข้อจำกัดด้านลิขสิทธิ์ ซึ่งพฤติกรรมเหล่านี้สะท้อนว่า AI เริ่มเรียนรู้ที่จะใช้เล่ห์เหลี่ยมเพื่อให้งานสำเร็จตามเป้าหมาย

ai-break-the-rule-on-prompt

แม้แต่ Grok AI ของ Elon Musk ก็ยังเคยปั่นหัวผู้ใช้ด้วยการแสร้งทำเป็นส่งข้อความและเลขตั๋วประสานงานไปยังทีมผู้บริหารระดับสูงของ xAI นานนับเดือน ทั้งที่ในความเป็นจริงมันไม่มีช่องทางติดต่อโดยตรงเลย จนสุดท้ายต้องมายอมรับผิดภายหลังว่าสิ่งที่พูดไปนั้นเป็นการใช้คำพูดแบบหลวมๆ ที่ทำให้คนเข้าใจผิดไปเอง ซึ่งผู้เชี่ยวชาญมองว่าหากพฤติกรรม “พนักงานฝึกงานที่ไม่น่าไว้วางใจ” เหล่านี้พัฒนาไปสู่ระดับที่เก่งกาจขึ้นในอนาคต มันอาจกลายเป็นความเสี่ยงร้ายแรงต่อความมั่นคงได้

บรรดาบริษัทยักษ์ใหญ่อย่าง Google และ OpenAI ต่างออกมายืนยันว่าพวกเขามีมาตรการป้องกันที่เข้มงวดและมีการทดสอบอย่างต่อเนื่องเพื่อลดความเสี่ยงเหล่านี้ โดย Google ระบุว่าได้ส่งโมเดล Gemini 3 Pro ให้หน่วยงานอิสระช่วยตรวจสอบความปลอดภัยก่อนปล่อยใช้งานจริงเสมอ อย่างไรก็ตาม นักวิจัยยังคงเรียกร้องให้มีการเฝ้าระวังในระดับสากล เพราะหาก AI ถูกนำไปใช้ในงานสำคัญอย่างโครงสร้างพื้นฐานระดับชาติหรือการทหาร ความเจ้าเล่ห์เหล่านี้อาจนำไปสู่หายนะที่คาดไม่ถึง

เรื่องราวนี้เตือนให้เราเห็นว่าความฉลาดของ AI นั้นเป็นดาบสองคมที่ต้องควบคุมอย่างใกล้ชิด การที่เราเห็นพวกมันเริ่ม “เถียง” หรือ “แอบทำ” ในสิ่งที่ห้ามไว้ ไม่ใช่เรื่องที่ควรมองข้ามเพราะมันคือสัญญาณของความซับซ้อนทางความคิดที่มนุษย์อาจตามไม่ทันในวันข้างหน้า การตั้งกฎเกณฑ์ที่รัดกุมและการหมั่นตรวจสอบการทำงานของพวกมันอยู่เสมอจึงเป็นสิ่งที่ผู้ใช้งานทุกคนควรให้ความสำคัญตั้งแต่วันนี้

ที่มา
theguardian

Artherlus

แค่คนทั่วไปที่หลงใหลในวงการไอที
Back to top button