เทคโนโลยี

กลุ่มเรียกร้องให้บริษัทที่พัฒนา AI ต้องมีความชัดเจนในทุกกระบวนการ

ห้ามนำไปใช้งานที่ก่อให้เกิดความเสี่ยงต่อผู้คน

Nonprofits Accountable Tech, AI Now และ Electronic Privacy Information Center (EPIC) ได้ยื่นเรื่องเพื่อนำเสนอนโยบายเกี่ยวกับการควบคุมการใช้งาน generative AI

ข้อกำหนดดังกล่าวถูกเรียกว่า Zero Trust AI Governance ตั้งอยู่บนหลักการ 3 ประการ ได้แก่ บังคับใช้กฎหมายที่มีอยู่ สร้างกฎใหม่ที่มีความชัดเจนและนำไปใช้ได้ง่าย และวางภาระให้กับบริษัทในการพิสูจน์ว่าระบบ AI ไม่เป็นอันตรายในแต่ละช่วงของการนำ AI มาใช้งาน

ทางกลุ่มให้เหตุผลว่ากฎหมายปัจจุบันเกี่ยวกับการต่อต้านการเลือกปฏิบัติ การคุ้มครองผู้บริโภค และการแข่งขันสามารถช่วยจัดการกับอันตรายในปัจจุบันที่เกิดจาก AI พวกเขายังเรียกร้องให้กำหนดขอบเขตของกฎหมายป้องกันดิจิทัลใหม่ เช่น มาตรา 230 ดังนั้นบริษัท AI จะต้องรับผิดหากโมเดลปล่อยข้อมูลที่เป็นเท็จหรือเป็นอันตรายออกมา

นอกจากนี้ยังแนะนำกฎที่ชัดเจนหลายข้อสิ่งเหล่านี้รวมถึงการห้ามใช้ AI สำหรับการป้องกันเหตุที่จะเกิดขึ้นล่วงหน้า การจดจำใบหน้าที่ใช้สำหรับการเฝ้าระวังจำนวนมากในที่สาธารณะ การให้คะแนนทางสังคม และการจ้างงานอัตโนมัติ การยิง และการจัดการทรัพยากรบุคคลและอื่น ๆ

ที่มา
The Verge

Artherlus

แค่คนทั่วไปที่หลงใหลในวงการไอที
Back to top button