เทคโนโลยี

นักวิจัยยอมรับมีการใช้ ChatGPT ช่วยเขียนเอกสารทางกฎหมาย

ถูกตรวจพบความผิดพลาดจำนวนมาก

Jeff Hancock ผู้ก่อตั้ง Stanford Social Media Lab ยอมรับว่าเขาได้ใช้ ChatGPT เพื่อช่วยจัดระเบียบการอ้างอิงในเอกสารทางกฎหมาย แต่ไม่ได้ใช้ในการเขียนเนื้อหา

Hancock ได้ยื่นเอกสารดังกล่าวเพื่อสนับสนุนกฎหมาย “การใช้เทคโนโลยี Deep Fake เพื่อแทรกแซงการเลือกตั้ง” ของรัฐมินนิโซตา ซึ่งกำลังถูกสอบสวนในศาล โดยฝ่ายตรงข้ามได้ชี้ให้เห็นถึงความผิดพลาดในการอ้างอิงข้อมูลในเอกสารของ Hancock

Hancock ชี้แจงว่า เขาใช้ Google Scholar และ GPT-4 เพื่อค้นหาบทความที่เกี่ยวข้อง และใช้ GPT-4 เพื่อสร้างรายการอ้างอิง แต่ไม่ได้ใช้ในการเขียนเนื้อหา

openai-chatgpt-misinformation-research

อย่างไรก็ตาม Hancock ยอมรับว่ามีข้อผิดพลาดในการอ้างอิงข้อมูล 2 รายการ ซึ่งเกิดจากการ “เข้าใจผิด” ของ GPT-4

Hancock ยืนยันว่าเขาไม่ได้มีเจตนาหลอกลวงศาล และยืนยันว่าเนื้อหาของเอกสารมีความถูกต้อง

เหตุการณ์นี้สะท้อนให้เห็นถึงความสำคัญของการตรวจสอบข้อมูลที่ได้จาก AI อย่างรอบคอบ และเตือนให้ระมัดระวังในการใช้ AI ในการสร้างเนื้อหาทางกฎหมายหรือทางวิชาการ

ที่มา
The Verge

Artherlus

แค่คนทั่วไปที่หลงใหลในวงการไอที
Back to top button