เทคโนโลยี

OpenAI จัดตั้งทีมควบคุมและกำกับการดูแลความเสี่ยงที่อาจเกิดขึ้นจาก AI

ป้องกันและแก้ไขปัญหาที่มีโอกาสเกิดขึ้นได้

OpenAI ได้ประกาศการสร้างทีมงานเฉพาะที่มุ่งจัดการกับความเสี่ยงที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI) ทีมเตรียมพร้อมที่ตั้งขึ้นใหม่นี้จะมุ่งเน้นไปที่การติดตาม ประเมิน คาดการณ์ และป้องกันปัญหาสำคัญที่เกิดจาก AI รวมถึงภัยคุกคามทางนิวเคลียร์ ขอบเขตของทีมยังขยายไปถึงการบรรเทาภัยคุกคามทางเคมี ชีวภาพ และรังสี รวมถึงข้อกังวลที่เกี่ยวข้องกับการจำลองแบบอัตโนมัติ ซึ่ง AI สามารถจำลองตัวเองได้ นอกจากนี้ ทีมงานจะจัดการกับ ความสามารถของ AI ในการหลอกลวงมนุษย์และภัยคุกคามความปลอดภัยทางไซเบอร์

ในการอัปเดต OpenAI จะเน้นย้ำลักษณะสองประการของโมเดล AI ขั้นสูง แม้ว่าโมเดล AI เหล่านี้มีศักยภาพที่จะเป็นประโยชน์ต่อมนุษยชาติอย่างมาก แต่ก็ก่อให้เกิดความเสี่ยงที่รุนแรงมากขึ้นเช่นกัน OpenAI ตระหนักถึงความสำคัญของการสร้างสมดุลระหว่างการเพิ่มผลประโยชน์ที่เป็นไปได้ของ AI สูงสุด และการจัดการเชิงรุกถึงอันตรายที่อาจเกิดขึ้นที่เกี่ยวข้องกับความก้าวหน้าอย่างรวดเร็ว

image 724

ผู้นำทีมเคือ Aleksander Madry ซึ่งปัจจุบันลาออกจากตำแหน่งผู้อำนวยการศูนย์การเรียนรู้ของเครื่องที่ปรับใช้ได้ของ MIT OpenAI มอบหมายให้เขาทำหน้าที่พัฒนาและรักษา นโยบายการพัฒนาที่คำนึงถึงความเสี่ยง นโยบายนี้จะสรุปกลยุทธ์ของบริษัทในการประเมิน ติดตาม และลดความเสี่ยงที่เกี่ยวข้องกับโมเดล AI เพื่อให้มั่นใจถึงแนวทางเชิงรุกในการพัฒนาเทคโนโลยี

Sam Altman ซีอีโอของ OpenAI กล่าวถึงความจำเป็นเร่งด่วนในการจัดลำดับความสำคัญของการลดความเสี่ยงที่เกี่ยวข้องกับ AI นอกเหนือจากนักวิจัย AI ที่มีอิทธิพลคนอื่น ๆ แล้ว Altman ได้ออกแถลงการณ์โดยเน้นย้ำถึงความสำคัญระดับโลกในการลดความเสี่ยงของการสูญพันธุ์อันเป็นผลมาจาก AI นอกจากนี้ เขายังสนับสนุนให้รัฐบาลต่าง ๆ ปฏิบัติต่อ AI ด้วยความจริงจังในระดับเดียวกับอาวุธนิวเคลียร์ โดยเน้นย้ำถึงความรุนแรงของภัยคุกคามที่อาจเกิดขึ้นจากเทคโนโลยี AI ขั้นสูง

ที่มา
The Verge

Artherlus

แค่คนทั่วไปที่หลงใหลในวงการไอที
Back to top button