OpenAI ฉีกกฎเดิม จับมือ Cerebras ปล่อยโมเดลเขียนโค้ดความเร็วสูงแบบไม่พึ่งพา Nvidia
มาพร้อมความเร็วที่เหนือกว่าเดิม 15 เท่า

OpenAI สร้างความฮือฮาครั้งใหม่ด้วยการเปิดตัว GPT-5.3-Codex-Spark ซึ่งเป็นโมเดล AI สำหรับการเขียนโค้ดตัวแรกที่ทำงานบนฮาร์ดแวร์อื่นนอกเหนือจาก Nvidia โดยเลือกใช้ชิปจาก Cerebras แทน ความโดดเด่นของโมเดลนี้อยู่ที่ความเร็วในการประมวลผลโค้ดที่สูงถึง 1,000 โทเคนต่อวินาที ซึ่งถือว่าเร็วกว่ารุ่นก่อนหน้าถึง 15 เท่า หากเปรียบเทียบกับคู่แข่งอย่าง Claude Opus 4.6 ของ Anthropic ที่เร่งความเร็วเต็มที่แล้วยังทำได้เพียง 2.5 เท่าของความเร็วมาตรฐาน การก้าวกระโดดครั้งนี้จึงเป็นที่น่าจับตามองอย่างมากในวงการนักพัฒนา
Sachin Katti หัวหน้าฝ่ายคำนวณของ OpenAI ระบุว่า Cerebras เป็นพันธมิตรด้านวิศวกรรมที่ดีเยี่ยม และทีมงานรู้สึกตื่นเต้นที่ได้เพิ่มความสามารถในการประมวลผลที่รวดเร็วเป็นแพลตฟอร์มใหม่ สำหรับใครที่อยากลองใช้งาน ตอนนี้ Codex-Spark เปิดให้สมาชิก ChatGPT Pro ในราคา 200 ดอลลาร์สหรัฐ หรือประมาณ 6,600 บาทต่อเดือน ได้เข้าใช้งานผ่านแอป Codex รวมถึง VS Code extension โดยตัวโมเดลถูกออกแบบมาให้รองรับข้อมูลได้สูงสุดถึง 128,000 โทเคน และเน้นการจัดการข้อความเพียงอย่างเดียวในช่วงเริ่มต้น
หัวใจสำคัญของ Codex-Spark คือการปรับแต่งเพื่อเน้นความเร็วมากกว่าความลึกของเนื้อหา ซึ่งต่างจากรุ่นเต็มอย่าง GPT-5.3-Codex ที่เน้นงานยากและซับซ้อน OpenAI เลือกที่จะไม่ทำให้โมเดลนี้เป็นแบบอเนกประสงค์ แต่เจาะจงไปที่การเขียนโค้ดโดยเฉพาะ จากการทดสอบบนมาตรฐาน SWE-Bench Pro และ Terminal-Bench 2.0 พบว่าโมเดลรุ่นนี้ทำผลงานได้ดีกว่า GPT-5.1-Codex-mini รุ่นเก่าหลายเท่าตัว แถมยังใช้เวลาเพียงเสี้ยววินาทีในการทำงานให้สำเร็จ

การทำความเร็วได้ถึง 1,000 โทเคนต่อวินาทีถือเป็นจุดเปลี่ยนสำคัญ เพราะก่อนหน้านี้โมเดลที่เร็วที่สุดของ OpenAI บนฮาร์ดแวร์ Nvidia อย่าง GPT-4o หรือ o3-mini ยังทำความเร็วได้ไม่ถึง 200 โทเคนต่อวินาทีด้วยซ้ำ แม้ว่าความเร็วนี้จะดูเหมือนยังไม่แตะระดับสูงสุดที่ Cerebras เคยทำได้กับโมเดลอื่น แต่ก็นับว่าเพียงพอที่จะทำให้นักพัฒนาสามารถปรับแก้โค้ดและสร้างโปรโตไทป์ได้อย่างรวดเร็วทันใจ ลดช่องว่างเรื่องความหน่วงที่เคยเป็นปัญหาหลักในอดีต
เบื้องหลังความแรงนี้คือการใช้งานบนชิป Wafer Scale Engine 3 ของ Cerebras ซึ่งมีขนาดใหญ่พอๆ กับจานอาหาร และถือเป็นก้าวสำคัญของ OpenAI ในการลดการพึ่งพา Nvidia หลังจากที่ผ่านมาได้พยายามกระจายความเสี่ยงด้วยการทำข้อตกลงกับ AMD และ Amazon รวมถึงการซุ่มออกแบบชิปของตัวเองเพื่อจ้าง TSMC ผลิตในอนาคต การขยับตัวครั้งนี้แสดงให้เห็นว่า OpenAI เริ่มไม่พอใจกับความเร็วของชิปบางรุ่นจาก Nvidia ในงานด้านการประมวลผลผลลัพธ์
สมรภูมิ AI สำหรับเขียนโค้ดกำลังดุเดือดขึ้นเรื่อยๆ เมื่อคู่แข่งอย่าง Google และ Anthropic ต่างเร่งสปีดเครื่องมือของตนเองออกมาสู้กันอย่างไม่ลดละ สำหรับเหล่านักพัฒนาที่ต้องคลุกคลีอยู่กับหน้าจอแก้ไขโค้ดทั้งวัน ความเร็วระดับ 1,000 โทเคนต่อวินาทีอาจเปลี่ยนความรู้สึกจากการค่อยๆ ต่อจิ๊กซอว์ให้กลายเป็นการใช้เลื่อยไฟฟ้าที่ตัดงานได้อย่างรวดเร็ว แต่สิ่งที่ต้องระวังคือความเร็วที่เพิ่มขึ้นอาจต้องแลกมาด้วยความแม่นยำที่ต้องตรวจสอบให้ดีก่อนใช้งานจริง







