Google เผยถูกถล่มยิงคำถามนับแสนครั้ง หวังนำความฉลาด Gemini ไปใช้เอง
เทคนิค Distillation ช่วยคู่แข่งสร้าง AI เลียนแบบได้ในราคาถูก

Google ออกมาเปิดเผยข้อมูลที่น่าตกใจว่า มีกลุ่มผู้ไม่หวังดีที่มีแรงจูงใจทางธุรกิจ พยายามขโมยความรู้จาก Gemini ผ่านการป้อนคำถามจำนวนมหาศาล โดยพบการโจมตีหนึ่งที่มีการยิงคำถามใส่โมเดลมากกว่า 100,000 ครั้งในหลากหลายภาษาที่ไม่ใช่ภาษาอังกฤษ เพื่อเก็บข้อมูลคำตอบไปใช้ฝึกฝน AI รุ่นใหม่ให้มีความสามารถใกล้เคียงกับ Gemini แต่ใช้ต้นทุนในการพัฒนาเพียงเสี้ยวเดียวเท่านั้น
พฤติกรรมนี้ถูกเรียกว่า Model Extraction หรือการดึงข้อมูลโมเดล ซึ่ง Google มองว่าเป็นการละเมิดทรัพย์สินทางปัญญา แม้ว่าตัว Gemini เองจะถูกสร้างขึ้นจากการรวบรวมข้อมูลบนอินเทอร์เน็ตมาใช้ก็ตาม โดยรายงานจาก Google Threat Intelligence Group ระบุว่าเป้าหมายส่วนใหญ่คือบริษัทเอกชนและนักวิจัยที่ต้องการสร้างความได้เปรียบทางการแข่งขัน แต่ไม่ได้ระบุชื่อชัดเจนว่าเป็นใครบ้าง
ในวงการ AI เรียกวิธีการนี้ว่า Distillation หรือการกลั่นกรอง ซึ่งทำงานเหมือนการเป็นทางลัดสำหรับคนที่อยากมี AI เก่งๆ แต่ไม่มีเงินหลักพันล้านดอลลาร์หรือเวลาหลายปีแบบ Google โดยพวกเขาจะป้อนคำถามที่คัดสรรมาอย่างดีเข้าไป แล้วนำคู่คำถาม-คำตอบที่ได้ไปสอน AI ตัวที่เล็กกว่าและราคาถูกกว่า ผลที่ได้คือ AI รุ่นลูกจะมีพฤติกรรมการตอบคำถามแทบไม่ต่างจากต้นฉบับเลย

การโจมตีครั้งล่าสุดที่ Google ตรวจพบนั้นมุ่งเป้าไปที่อัลกอริทึมการใช้เหตุผล (Reasoning) ของ Gemini โดยพยายามบีบบังคับให้ AI แสดงขั้นตอนการคิดอย่างละเอียดออกมาทั้งหมด เพื่อนำไปลอกเลียนแบบตรรกะภายใน ซึ่งเปรียบเสมือนการสั่งอาหารทุกจานในร้านมาลองชิมแล้วแกะสูตรลับของเชฟออกมาทีละส่วนโดยไม่ต้องเห็นวิธีการปรุงในครัวจริงๆ
ความกังวลเรื่องการถูกโคลนนิ่งไม่ได้เกิดขึ้นแค่กับ Google เท่านั้น เพราะก่อนหน้านี้ OpenAI ก็เคยกล่าวหาคู่แข่งอย่าง DeepSeek ว่าใช้เทคนิคเดียวกันนี้เพื่อพัฒนาโมเดลของตัวเอง ขณะที่นักวิจัยจาก Stanford University เคยพิสูจน์ให้เห็นแล้วว่าสามารถสร้างโมเดล Alpaca ที่เก่งระดับ GPT-3.5 ได้ด้วยงบประมาณเพียง 600 ดอลลาร์ หรือประมาณ 21,000 บาท (คำนวณจากอัตราแลกเปลี่ยน 35 บาทต่อ 1 ดอลลาร์)
แม้ Google จะยืนยันว่าได้ปรับปรุงระบบป้องกันเพื่อรับมือกับคำถามนับแสนเหล่านั้นแล้ว แต่ตราบใดที่ AI ยังเปิดให้สาธารณชนใช้งานผ่าน API หรือช่องทางต่างๆ การป้องกันไม่ให้ใครมาแกะรอยความรู้ไปใช้อย่างถาวรก็ยังเป็นเรื่องที่ท้าทายมาก เพราะเส้นแบ่งระหว่างการเรียนรู้เพื่อพัฒนาต่อยอดกับการขโมยผลงานในโลกของ AI นั้นยังคงมีความคลุมเครืออยู่ไม่น้อย







