Microsoft เปิดตัวเครื่องมือช่วยตรวจสอบ DeepFake
ตรวจสอบได้ทั้งภาพนิ่งและวิดีโอที่ผ่านกระบวนการแปลงมา

ในช่วงที่ผ่านมาเราน่าจะได้เห็นการมาของสิ่งที่เรียกว่า DeepFake ที่จะมีการนำใบหน้าของใครก็ได้มาใส่บนหน้าของอีกคนหนึ่ง แม้ว่าในช่วงที่ผ่านมากระแสอาจจะไม่ได้แรงเท่าในช่วงที่เริ่มต้น แต่มันก็ถูกนำไปใช้งานในด้านต่าง ๆ มากมายและแน่นอนว่ามีดีก็ต้องมีร้าย เพราะมันมักจะถูกนำไปใช้เพื่อความบันเทิงในเชิง 18+ มากเช่นกัน
และเมื่อเล็งเห็นถึงความเสี่ยงที่อาจจะก่อให้เกิดความเสียหายกับบุคคลได้ ทาง Microsoft จึงได้ทำการเปิดตัวเครื่องมือสำหรับการตรวจสอบภาพและวิดีโอที่ชื่อว่า Microsoft Video Authenticator ที่จะช่วยจัดการกับพวก DeepFake เหล่านี้นั่นเอง
สำหรับเครื่องมือตัวนี้จะเข้ามาช่วยเราในการตรวจสอบภาพหรือวิดีโอที่ผ่านกระบวนการของ DeepFake ขึ้นมาด้วย AI โดยหากเป็นวิดีโอจะมีการแยกการประมวลผลออกมาเป็นเฟรมต่อเฟรมเลย ซึ่งเมื่อประมวลผลเรียบร้อยแล้วตัว AI จะให้เราทราบว่ามีโอกาสเป็น DeepFake มากน้อยเพียงใดด้วยเปอร์เซ็นต์
แน่นอนว่าการมาถึงของ Microsoft Video Authenticator ยังไม่ได้ทำงานได้สมบูรณ์แบบมากนัก ประกอบกับตัวของ DeepFake เองก็มีการพัฒนาตัวเองอยู่เรื่อย ๆ และยิ่งมีการเทรนมากเท่าไหร่ก็จะยิ่งสร้างความยากลำบากในการตรวจสอบว่าจริงหรือปลอมมากยิ่งขึ้น ซึ่งเราก็ไม่สามารถบอกได้ว่าจะพร้อมสำหรับการนำออกมาใช้งานในช่วงใดสำหรับเครื่องมือตัวนี้