เทคโนโลยี

Google AI Overviews ให้ข้อมูลมั่วหลักล้านครั้งต่อชั่วโมง แม้อัปเกรดเป็น Gemini 3 แล้ว

ผลลัพธ์ 1 ใน 10 ยังไม่ถูกต้อง

กลายเป็นประเด็นเมื่อ AI Overviews ของ Google ที่ใช้ขุมพลังจาก Gemini 3 ในการสรุปคำตอบบนหน้าค้นหา ถูกเปิดโปงว่ายังคงสร้างข้อมูลผิดพลาดในปริมาณมหาศาล จากการวิเคราะห์ล่าสุดของ The New York Times ร่วมกับ Oumi บริษัทสตาร์ทอัพด้าน AI พบว่าแม้ระบบจะดูฉลาดขึ้น แต่ความแม่นยำที่ระดับ 91% นั้นหมายถึงคำตอบ 1 ใน 10 ข้อที่ผู้คนได้รับยังคงเป็นข้อมูลเท็จ และเมื่อเทียบกับปริมาณการค้นหาทั่วโลกที่มหาศาล นั่นเท่ากับว่า Google กำลังส่งต่อคำโกหกหลักหลายสิบล้านครั้งในทุกๆ ชั่วโมง

ในการทดสอบนี้ Oumi ได้ใช้เกณฑ์มาตรฐานที่เรียกว่า SimpleQA ซึ่งพัฒนาโดย OpenAI เพื่อวัดความถูกต้องของข้อมูล พบว่าเมื่อครั้งที่ Google ยังใช้โมเดล Gemini 2.5 ความแม่นยำอยู่ที่ 85% แต่หลังจากอัปเกรดเป็น Gemini 3 ในช่วงต้นปี 2026 ตัวเลขขยับขึ้นมาเป็น 91% ซึ่งแม้จะดูดีขึ้นในเชิงสถิติ แต่ในโลกความเป็นจริงที่คนเชื่อใจ AI มากขึ้นเรื่อยๆ ข้อผิดพลาดเพียงเล็กน้อยก็สามารถสร้างความสับสนในวงกว้างได้ เช่น กรณีที่ AI ตอบผิดเกี่ยวกับวันที่บ้านของ Bob Marley กลายเป็นพิพิธภัณฑ์ หรือการอ้างว่าไม่มีองค์กรอย่าง Classical Music Hall of Fame อยู่จริง ทั้งที่ลิงก์ที่มันแนบมาก็เป็นเว็บขององค์กรนั้นเอง

ความน่ากังวลยิ่งกว่าคือปัญหาเรื่องการอ้างอิงข้อมูล หรือ Grounding ที่ดูเหมือนจะแย่ลง ผลการทดสอบชี้ว่าในยุคของ Gemini 3 มีคำตอบที่ถูกต้องแต่กลับอ้างอิงแหล่งที่มาแบบ Ungrounded สูงถึง 56% เพิ่มขึ้นจากเดิมที่ 37% นั่นหมายความว่า AI อาจจะเดาคำตอบได้ถูก แต่กลับพาผู้ใช้ไปยังเว็บไซต์ที่ไม่เกี่ยวข้องหรือไม่สามารถยืนยันข้อมูลนั้นได้เลย ทำให้ผู้ใช้งานตรวจสอบความถูกต้องได้ยากขึ้น และอาจนำไปสู่ปรากฏการณ์ การยอมจำนนทางปัญญา ที่ผู้ใช้เลือกจะเชื่อ AI โดยไม่คลิกเข้าไปอ่านรายละเอียดในลิงก์ต้นฉบับ

google-gemini-false-data

ทางด้าน Google ออกมาตอบโต้รายงานนี้อย่างรุนแรง โดย Ned Adriance โฆษกของบริษัทกล่าวว่าเกณฑ์ SimpleQA นั้นมีข้อบกพร่องและไม่สะท้อนพฤติกรรมการค้นหาจริงๆ ของผู้ใช้ Google ยืนยันว่าพวกเขาใช้เกณฑ์ที่เข้มงวดกว่าอย่าง SimpleQA Verified และพยายามเลือกโมเดลที่เหมาะสมที่สุดสำหรับแต่ละคำถาม เช่น การใช้ Gemini 3.1 Pro ในเรื่องที่ซับซ้อน หรือ Gemini 3 Flash ในเรื่องทั่วไปเพื่อความรวดเร็ว แต่ถึงกระนั้นคำชี้แจงนี้ก็ดูจะขัดแย้งกับประสบการณ์จริงที่ผู้ใช้มักเจอ AI สรุปข้อมูลแบบผิดเพี้ยนอยู่บ่อยครั้ง

ปัญหาอีกประการคือโครงสร้างของ AI Overviews ที่ไม่ได้เป็นโมเดลเดียวโดดๆ แต่เป็นการผสมผสานหลายโมเดลเพื่อความเร็วและประหยัดต้นทุน การใช้ Gemini 3 Flash ที่เน้นความไวอาจทำให้ความลุ่มลึกและความแม่นยำหายไปในบางจังหวะ นอกจากนี้ยังมีประเด็นเรื่องผู้ไม่หวังดีที่พยายามปั่นข้อมูลบนเว็บไซต์เพื่อให้ AI หยิบไปสรุปแบบผิดๆ ซึ่งถือเป็นความท้าทายใหม่ของ Google ในการคัดกรองข้อมูลขยะที่ซับซ้อนกว่าเดิมในยุคที่ AI เป็นคนอ่านและสรุปให้เราฟัง

สุดท้ายแล้ว แม้ความแม่นยำระดับ 90% จะถือเป็นคะแนนที่สอบผ่านในหลายอุตสาหกรรม แต่สำหรับหุ่นยนต์ค้นหาที่ผู้คนนับล้านใช้เป็นที่พึ่งพิงทางความรู้ ตัวเลขนี้อาจยังไม่ดีพอ คำเตือนตัวเล็กๆ ที่ด้านล่างของหน้าจอที่ว่า AI อาจทำผิดพลาดได้ โปรดตรวจสอบข้อมูลอีกครั้ง จึงไม่ใช่เพียงแค่คำบอกปัดความรับผิดชอบทางกฎหมาย แต่มันคือเรื่องจริงที่ผู้ใช้งานอินเทอร์เน็ตในปี 2026 ต้องจำให้ขึ้นใจก่อนจะเชื่อทุกอย่างที่ปรากฏอยู่บนยอดของหน้าค้นหา

ที่มา
Arstechnica

Artherlus

แค่คนทั่วไปที่หลงใหลในวงการไอที
Back to top button