Meta เดินหน้าใช้ AI แทนคนประเมินความเสี่ยง
เปลี่ยนระบบตรวจสอบใหม่ เสี่ยงพลาดเรื่องความปลอดภัย

ตามรายงานจาก NPR เปิดเผยว่า Meta กำลังเตรียมเปลี่ยนแปลงครั้งใหญ่ในกระบวนการตรวจสอบความเสี่ยงของผลิตภัณฑ์ โดยจะใช้ AI เป็นหลัก แทนที่การพึ่งพารายงานจากทีมงานมนุษย์ ซึ่งอาจส่งผลให้ถึง 90% ของการประเมินในอนาคตทำโดยระบบปัญญาประดิษฐ์ โดยมีทั้งเรื่องความปลอดภัยของเยาวชนและเนื้อหาที่เกี่ยวข้องกับความรุนแรงหรือข้อมูลเท็จ
ปกติแล้ว ก่อนจะปล่อยฟีเจอร์ใหม่บนแพลตฟอร์มอย่าง Instagram และ WhatsApp จะมีการตรวจสอบโดยทีมงานเพื่อดูว่ามีผลกระทบเชิงลบใดบ้าง แต่ในช่วงสองเดือนที่ผ่านมา Meta ปรับกระบวนการทำงานใหม่ โดยให้ทีมพัฒนากรอกแบบฟอร์ม จากนั้นส่งให้ AI วิเคราะห์และให้คำตอบกลับแบบทันทีรวมถึงกำหนดแนวทางแก้ไขที่ต้องทำก่อนปล่อยฟีเจอร์จริง
แม้จะช่วยลดเวลาในการทำงานได้อย่างมาก แต่อดีตและปัจจุบันพนักงานของบริษัทหลายคนออกมาเตือนว่า AI อาจไม่เห็นความเสี่ยงบางอย่างที่คนมองออก เช่น การกระทบต่อจิตใจของเยาวชน หรือการแพร่กระจายของข่าวปลอม ซึ่งหากขาดสายตาคนเข้าไปตรวจสอบ อาจทำให้ปัญหาร้ายแรงกว่าเดิม

อดีตผู้บริหาร Meta รายหนึ่งระบุว่า การลดการตรวจสอบจากคนลง หมายถึงคุณกำลังเพิ่มความเสี่ยงเพราะปัญหาที่อาจเกิดจากฟีเจอร์ใหม่ ๆ จะไม่ถูกหยุดไว้ก่อนเกิดจริง ทางบริษัทยืนยันว่ายังคงใช้ความเชี่ยวชาญของมนุษย์สำหรับประเด็นที่ซับซ้อน แต่ปล่อยให้ AI ตัดสินใจเรื่องที่เสี่ยงน้อย
การเปลี่ยนแปลงนี้เกิดขึ้นไม่กี่วันหลังจาก Meta เปิดเผยรายงานความโปร่งใสรอบล่าสุด ซึ่งเป็นฉบับแรกหลังปรับนโยบายการตรวจสอบเนื้อหา โดยพบว่าจำนวนเนื้อหาที่ถูกลบทิ้งลดลง ขณะที่เนื้อหาประเภทการคุกคามและการใช้ความรุนแรงกลับเพิ่มขึ้นเล็กน้อย
แม้ Meta จะหวังว่า AI จะช่วยเร่งความเร็วการพัฒนาและลดภาระของทีมงาน แต่การเปลี่ยนครั้งนี้ก็มาพร้อมคำถามสำคัญ เราพร้อมจะวางใจ AI กับความปลอดภัยของผู้ใช้งานจริงหรือ