OpenAI เปิดตัวการตรวจสอบ CoT เพื่อป้องกันพฤติกรรมที่เป็นอันตรายในโมเดลขนาดใหญ่
OpenAI ได้เปิดตัวงานวิจัยล่าสุดที่ระบุว่าการใช้การตรวจสอบ CoT (Chain of Thought) สามารถป้องกันไม่ให้โมเดลขนาดใหญ่พูดเรื่องไร้สาระ ซ่อนเจตนาที่แท้จริง และพฤติกรรมที่เป็นอันตรายอื่นๆ นอกจากนี้ยังเป็นหนึ่งในเครื่องมือที่มีประสิทธิภาพสำหรับการกำกับดูแลซูเปอร์โมเดล OpenAI ใช้โมเดลล้ำสมัยที่เพิ่งเปิดตัว o3-mini เป็นหัวข้อที่ต้องตรวจสอบ โดยมีโมเดล GPT-4o ที่อ่อนแอกว่าเป็นผู้ตรวจสอบ สภาพแวดล้อมการทดสอบคือการทำงานเกี่ยวกับการเขียนโค้ด ซึ่งต้องการให้ AI ดำเนินการฟังก์ชันในไลบรารีโค้ดเพื่อผ่านการทดสอบหน่วย ผลลัพธ์แสดงให้เห็นว่าการตรวจสอบ CoT ทำงานได้อย่างยอดเยี่ยมในการตรวจจับพฤติกรรม "การแฮ็กผลตอบแทน" อย่างเป็นระบบ โดยมีอัตราการเรียกคืนสูงถึง 95% ซึ่งสูงกว่า 60% ของการตรวจสอบพฤติกรรมเพียงอย่างเดียวอย่างมาก
ข้อสงวนสิทธิ์: เนื้อหาทั้งหมดในบทความนี้เป็นเพียงความคิดเห็นของผู้เขียนเท่านั้น ไม่ได้มีส่วนเกี่ยวข้องกับแพลตฟอร์มแต่อย่างใด บทความนี้ไม่มีจุดประสงค์เพื่อใช้เป็นข้อมูลอ้างอิงประกอบการตัดสินใจลงทุน
เผื่อคุณอาจชื่นชอบ
ความคิดเห็น: ทรัมป์อาจจงใจทำให้ตลาดหุ้นตกเพื่อกระตุ้นให้ธนาคารกลางสหรัฐลดอัตราดอกเบี้ย
รัฐมนตรีการเงินยูโรโซนหารือเกี่ยวกับการตอบสนองต่อนโยบายสกุลเงินดิจิทัลของสหรัฐฯ
ตลาดหุ้นญี่ปุ่นและเกาหลีเปิดตัวลดลงอย่างมากหลังจากการลดลงของหุ้นสหรัฐฯ
กำลังมาแรง
เพิ่มเติมราคาคริปโต
เพิ่มเติม








