OpenAI ตรวจสอบการใช้งาน ChatGPT อย่างเข้มงวด ขู่ตัดการเข้าถึงหากถามคำถามเกินขอบเขต
สร้างความไม่พอใจให้ผู้ใช้งานบางส่วน
OpenAI ผู้พัฒนา ChatGPT กำลังเผชิญหน้ากับเสียงวิจารณ์หลังจากมีรายงานว่าบริษัทได้ส่งอีเมลเตือนไปยังผู้ใช้ที่สอบถามข้อมูลเกี่ยวกับการทำงานภายในของโมเดล AI โดยเฉพาะอย่างยิ่งเกี่ยวกับ reasoning chain ซึ่งเป็นกระบวนการที่โมเดลใช้ในการหาคำตอบ
ผู้ใช้หลายรายรายงานว่า เมื่อพวกเขาพยายามสอบถามเกี่ยวกับรายละเอียดของการทำงานภายในของโมเดล หรือใช้คำศัพท์เฉพาะทาง เช่น reasoning trace พวกเขาจะได้รับอีเมลเตือนจาก OpenAI ที่ระบุว่าการกระทำดังกล่าวเป็นการละเมิดเงื่อนไขการใช้งานและอาจถูกตัดการเข้าถึง GPT-4
การกระทำของ OpenAI สร้างความไม่พอใจให้กับผู้ใช้หลายคนที่มองว่าเป็นการจำกัดสิทธิในการเข้าถึงข้อมูลและขัดต่อหลักการของความโปร่งใสที่ควรมีในงานวิจัยด้าน AI
OpenAI อ้างว่า การตัดสินใจซ่อนรายละเอียดของ reasoning chain เป็นการป้องกันข้อมูลที่อาจนำไปสู่การใช้งานในทางที่ผิด และเพื่อรักษาความได้เปรียบในการแข่งขัน
อย่างไรก็ตาม หลายฝ่ายมองว่าการกระทำของ OpenAI นั้นขัดแย้งกับเป้าหมายเดิมของบริษัทที่ต้องการพัฒนา AI ให้เป็นประโยชน์ต่อผู้คน และอาจส่งผลกระทบต่อการพัฒนางานวิจัยด้าน AI ในวงกว้าง
เหตุการณ์นี้ เป็นการเตือนให้เห็นว่าแม้เทคโนโลยี AI จะมีความก้าวหน้าไปมาก แต่ก็ยังมีประเด็นที่ต้องพิจารณาในด้านจริยธรรมและความโปร่งใส และจำเป็นต้องมีการกำหนดกฎเกณฑ์ที่ชัดเจนเพื่อควบคุมการพัฒนาและการใช้งาน AI
สิ่งที่น่ากังวล คือการที่ OpenAI สามารถตรวจสอบการสนทนาของผู้ใช้ได้ ซึ่งอาจเป็นการละเมิดความเป็นส่วนตัว และอาจนำไปสู่การใช้ข้อมูลส่วนบุคคลในทางที่ไม่เหมาะสม
ในที่สุดแล้ว การที่ OpenAI ตัดสินใจปิดกั้นข้อมูลเกี่ยวกับการทำงานภายในของโมเดล AI ก็สะท้อนให้เห็นว่าบริษัทกำลังให้ความสำคัญกับผลประโยชน์ทางธุรกิจมากกว่าผลประโยชน์ของสังคม