กลุ่มเรียกร้องให้บริษัทที่พัฒนา AI ต้องมีความชัดเจนในทุกกระบวนการ
![กลุ่มเรียกร้องให้บริษัทที่พัฒนา AI ต้องมีความชัดเจนในทุกกระบวนการ 1 03329740016920512016540 ai prove safe main](https://i0.wp.com/thisisgamethailand.com/wp-content/uploads/2024/01/03329740016920512016540_ai_prove_safe_main.jpg?fit=1000%2C523&ssl=1)
ห้ามนำไปใช้งานที่ก่อให้เกิดความเสี่ยงต่อผู้คน
Nonprofits Accountable Tech, AI Now และ Electronic Privacy Information Center (EPIC) ได้ยื่นเรื่องเพื่อนำเสนอนโยบายเกี่ยวกับการควบคุมการใช้งาน generative AI
ข้อกำหนดดังกล่าวถูกเรียกว่า Zero Trust AI Governance ตั้งอยู่บนหลักการ 3 ประการ ได้แก่ บังคับใช้กฎหมายที่มีอยู่ สร้างกฎใหม่ที่มีความชัดเจนและนำไปใช้ได้ง่าย และวางภาระให้กับบริษัทในการพิสูจน์ว่าระบบ AI ไม่เป็นอันตรายในแต่ละช่วงของการนำ AI มาใช้งาน
![กลุ่มเรียกร้องให้บริษัทที่พัฒนา AI ต้องมีความชัดเจนในทุกกระบวนการ 2 image 6667](https://i0.wp.com/thisisgamethailand.com/wp-content/uploads/2024/01/image-6667.jpeg?resize=650%2C365&ssl=1)
ทางกลุ่มให้เหตุผลว่ากฎหมายปัจจุบันเกี่ยวกับการต่อต้านการเลือกปฏิบัติ การคุ้มครองผู้บริโภค และการแข่งขันสามารถช่วยจัดการกับอันตรายในปัจจุบันที่เกิดจาก AI พวกเขายังเรียกร้องให้กำหนดขอบเขตของกฎหมายป้องกันดิจิทัลใหม่ เช่น มาตรา 230 ดังนั้นบริษัท AI จะต้องรับผิดหากโมเดลปล่อยข้อมูลที่เป็นเท็จหรือเป็นอันตรายออกมา
นอกจากนี้ยังแนะนำกฎที่ชัดเจนหลายข้อสิ่งเหล่านี้รวมถึงการห้ามใช้ AI สำหรับการป้องกันเหตุที่จะเกิดขึ้นล่วงหน้า การจดจำใบหน้าที่ใช้สำหรับการเฝ้าระวังจำนวนมากในที่สาธารณะ การให้คะแนนทางสังคม และการจ้างงานอัตโนมัติ การยิง และการจัดการทรัพยากรบุคคลและอื่น ๆ