
มอนทรีออล, 25 พฤศจิกายน 2568 /PRNewswire/ -- International AI Safety Report ได้เผยแพร่รายงานอัปเดต (Key Update) ฉบับที่สอง เพื่อมอบข้อมูลสำคัญเกี่ยวกับการบริหารความเสี่ยงและแนวทางทางเทคนิคในการลดความเสี่ยงของ AI แบบใช้งานทั่วไป
รายงานฉบับนี้มี Yoshua Bengio นักวิทยาการคอมพิวเตอร์ผู้ได้รับรางวัล Turing Award เป็นประธาน และจัดทำโดยผู้เชี่ยวชาญนานาชาติมากกว่า 100 คน พร้อมการสนับสนุนจากประเทศต่าง ๆ และองค์กรนานาชาติกว่า 30 แห่ง รวมถึง EU, OECD และ UN
การตระหนักว่าพัฒนาการของวงการนี้ก้าวหน้าเร็วเกินกว่าจะสรุปเป็นรายงานประจำปีเพียงฉบับเดียว ทำให้มีการจัดทำรายงานอัปเดตขึ้นมาเพื่อเป็นรายงานขนาดสั้นที่เจาะประเด็นสำคัญเฉพาะด้าน รายงานฉบับนี้เป็นรายงานอัปเดตฉบับที่สองต่อจากรายงานอัปเดตฉบับแรกที่เผยแพร่เมื่อวันที่ 15 ตุลาคม 2568 ทั้งนี้ การอัปเดตอยู่เป็นระยะเช่นนี้ช่วยให้ผู้กำหนดนโยบายได้รับข้อมูลสังเคราะห์ล่าสุดจากงานวิจัย เพื่อใช้ประกอบการกำหนดนโยบายบนพื้นฐานของหลักฐานอย่างต่อเนื่อง
รายงานอัปเดตฉบับที่สองนี้นำเสนอภาพรวมของเทคนิคด้านวิศวกรรมที่ใช้พัฒนาความน่าเชื่อถือของระบบและป้องกันการใช้งานในทางที่ผิด ตลอดจนแนวทางด้านการจัดการความเสี่ยงเชิงสถาบันที่กำลังเกิดขึ้น โดยมีประเด็นสำคัญดังนี้:
- มีความคืบหน้าในการฝึกโมเดลให้ต้านทานการโจมตีที่เป็นอันตรายได้ดีขึ้น แต่ช่องโหว่ยังคงมีอยู่ แม้ว่าโมเดลและระบบ AI จะมีความสามารถในการต้านทานการโจมตีเพิ่มขึ้น แต่แฮกเกอร์ที่มีความเชี่ยวชาญยังคงสามารถเจาะผ่านมาตรการป้องกันได้ประมาณ 50% โดยใช้ความพยายามเพียง 10 ครั้ง และยึดครองโมเดลได้โดยการปนเปื้อนข้อมูลด้วยเอกสารที่เป็นอันตรายเพียง 250 ฉบับ เท่านั้น
- ช่องว่างระหว่างโอเพนซอร์ซกำลังแคบลง โมเดลแบบ open-weight ขณะนี้มีความล่าช้าตามหลังผู้นำอุตสาหกรรมไม่ถึงหนึ่งปี ทำให้การเข้าถึงเทคโนโลยีเป็นประชาธิปไตยมากขึ้น แต่ก็ทำให้ความพยายามในการป้องกันความผิดพลาดและการนำไปใช้ในทางที่ผิดมีความซับซ้อนมากขึ้นด้วย
- ความมุ่งมั่นด้านความปลอดภัยของอุตสาหกรรมเพิ่มสูงขึ้น แต่ประสิทธิผลยังไม่เป็นที่ทราบแน่ชัด แม้ว่าจำนวนบริษัท AI ที่นำกรอบการจัดการความเสี่ยงมาใช้จะเพิ่มขึ้นมากกว่าสองเท่าในปี 2568 แต่ประสิทธิผลในการปฏิบัติจริงยังคงไม่แน่นอน
ประธานรายงาน Yoshua Bengio ศาสตราจารย์ประจำมหาวิทยาลัยมอนทรีออล ผู้อำนวยการฝ่ายวิทยาศาสตร์ของ LawZero และที่ปรึกษาฝ่ายวิทยาศาสตร์ของสถาบัน Mila - Quebec AI Institute กล่าวว่า
"ในขณะที่เรายังคงติดตามความคืบหน้าด้านขีดความสามารถและความเสี่ยงของ AI สิ่งสำคัญคือการต้องมีแนวทางที่ชัดเจนสำหรับการบริหารจัดการความเสี่ยงและมาตรการบรรเทาทางเทคนิคที่เหมาะสมและมีประสิทธิภาพ อัปเดตฉบับนี้ให้ภาพรวมของความก้าวหน้าที่เกิดขึ้นในด้านเหล่านี้ รวมถึงช่องว่างและโอกาสที่ยังคงมีอยู่ เป้าหมายของเราคือการมอบข้อมูลอัปเดตที่ทันเวลาเกี่ยวกับพัฒนาการของ AI ให้แก่ผู้กำหนดนโยบายทั่วโลกอย่างต่อเนื่อง ก่อนการเผยแพร่รายงาน International AI Safety Report ฉบับที่สองในช่วงต้นปี 2569 ก่อนงาน AI Impact Summit ที่ประเทศอินเดีย"
เกี่ยวกับ
รายงาน International AI Safety Report เป็นการสังเคราะห์หลักฐานเกี่ยวกับความสามารถและความเสี่ยงของระบบ AI ขั้นสูง ออกแบบมาเพื่อสนับสนุนนโยบายสาธารณะอย่างมีข้อมูลประกอบทั่วโลก โดยให้ฐานข้อมูลเชิงหลักฐานสำหรับผู้ตัดสินใจ รายงานนี้จัดทำโดยกลุ่มผู้เชี่ยวชาญอิสระมากกว่า 100 คน และได้รับการสนับสนุนจากคณะกรรมการที่ปรึกษาผู้เชี่ยวชาญ (Expert Advisory Panel) ซึ่งประกอบด้วยตัวแทนที่ได้รับการเสนอชื่อจากกว่า 30 ประเทศและองค์กรระหว่างประเทศ รวมถึงสหภาพยุโรป (EU) องค์การเพื่อความร่วมมือทางเศรษฐกิจและการพัฒนา (OECD) และสหประชาชาติ (UN) แม้จะตระหนักถึงประโยชน์มหาศาลของ AI แต่รายงานมุ่งเน้นไปที่การระบุความเสี่ยงและประเมินกลยุทธ์การบรรเทาความเสี่ยง เพื่อให้มั่นใจว่า AI จะถูกพัฒนาและใช้อย่างปลอดภัยเพื่อประโยชน์ของทุกคน รายงานฉบับนี้ได้รับมอบหมายจากรัฐบาลสหราชอาณาจักร โดยมีสำนักงานเลขาฯ ตั้งอยู่ที่ UK AI Security Institute
ติดต่อ: Mila Medias (medias@mila.quebec); สื่อมวลชนติดต่อ DSIT (press@dsit.gov.uk)
บทแปลนี้จัดทำโดย PRNewswire


ภาษาไทย
English
แสดงความคิดเห็น