Industry
Anthropic ออกนโยบายการขยายขนาดอย่างรับผิดชอบ V3
![]()
สวัสดีเพื่อนๆ ในวงการ AI! มีข่าวสำคัญจาก Anthropic มาอัปเดตกันครับ เมื่อวันที่ 24 กุมภาพันธ์ 2026 ที่ผ่านมา Anthropic ได้ปล่อย นโยบายการขยายขนาดอย่างรับผิดชอบ (Responsible Scaling Policy หรือ RSP) เวอร์ชัน 3.0 ออกมาแล้วนะ ซึ่งนโยบายนี้เป็นเหมือนกรอบการทำงานที่ Anthropic พัฒนาขึ้นมาเองโดยสมัครใจ เพื่อช่วยลดความเสี่ยงหายนะที่อาจเกิดขึ้นจากระบบ AI ที่มีประสิทธิภาพสูงขึ้นเรื่อย ๆ ครับ สามารถอ่านรายละเอียดเพิ่มเติมได้ที่ นโยบายการขยายขนาดอย่างรับผิดชอบ v3.0
เกิดอะไรขึ้นบ้าง?
ย้อนกลับไปนิดนึง นโยบาย RSP ฉบับแรกเริ่มเปิดตัวไปตั้งแต่เดือนกันยายนปี 2023 โน่นเลยครับ โดยหัวใจหลักของ RSP คือการใช้ "ระดับความปลอดภัยของ AI" หรือ AI Safety Levels (ASL) ในการกำหนดมาตรการป้องกันที่เข้มข้นขึ้นตามความสามารถของ AI ที่พัฒนาไปไกลขึ้น เช่น มี ASL-2, ASL-3, ASL-4 และที่สูงกว่านั้น
สิ่งที่น่าสนใจคือ Anthropic ได้เปิดใช้งานมาตรการป้องกันระดับ ASL-3 สำหรับโมเดลที่เกี่ยวข้องไปแล้วตั้งแต่เดือนพฤษภาคม 2025 โดยระดับนี้จะเน้นจัดการกับความเสี่ยงจากอาวุธเคมีและชีวภาพที่อาจเกิดจากผู้ไม่หวังดีที่มีทรัพยากรไม่มากนัก ซึ่งรวมถึงการพัฒนาตัวจำแนกข้อมูลเข้าและออก (input and output classifiers) ที่ซับซ้อนและแม่นยำขึ้นด้วย
ไม่นานหลังจากที่ Anthropic ประกาศ RSP ครั้งแรก บริษัทใหญ่อื่นๆ อย่าง OpenAI และ Google DeepMind ก็ได้นำกรอบการทำงานที่คล้ายคลึงกันมาใช้ตามกันไปครับ เรียกได้ว่าเป็นการสร้างมาตรฐานใหม่ให้กับอุตสาหกรรมเลยทีเดียว
หลักการจาก RSP ยังได้มีส่วนช่วยในการกำหนดนโยบาย AI ในช่วงเริ่มต้นหลายฉบับ เช่น กฎหมาย SB 53 ของแคลิฟอร์เนีย, กฎหมาย RAISE Act ของนิวยอร์ก และ Codes of Practice ของ EU AI Act ซึ่ง Anthropic เองก็รับมือกับข้อกำหนดเหล่านี้ผ่านเอกสารสาธารณะอย่าง Frontier Compliance Framework ของพวกเขา
ทำไมเราถึงต้องสนใจ?
เรื่องนี้สำคัญมากครับ เพราะมันสะท้อนถึงความพยายามของภาคเอกชนในการสร้างความรับผิดชอบและมาตรฐานความปลอดภัยของ AI ในขณะที่เทคโนโลยีกำลังก้าวหน้าไปอย่างรวดเร็ว อย่างไรก็ตาม Anthropic เองก็ยอมรับว่าการบรรลุฉันทามติในอุตสาหกรรมเป็นเรื่องท้าทายพอสมควรครับ เพราะระดับความสามารถที่กำหนดไว้ล่วงหน้านั้นยังคลุมเครือ และวิทยาศาสตร์ของการประเมินโมเดลในปัจจุบันก็ยังไม่พัฒนามากพอ โดยเฉพาะอย่างยิ่งสำหรับความเสี่ยงทางชีวภาพ
รายงานของ RAND ที่เกี่ยวกับการรักษาความปลอดภัยของ Model Weight ยังได้กล่าวถึงมาตรฐานความปลอดภัย "SL5" ซึ่งชี้ให้เห็นว่าการนำมาตรการลดผลกระทบที่แข็งแกร่งสำหรับ ASL ที่สูงขึ้นไปใช้นั้น อาจเป็นเรื่องยากหรือเป็นไปไม่ได้เลย หากปราศจากความร่วมมือจากหลายฝ่าย
แม้ว่า Anthropic จะประสบความสำเร็จในการนำมาตรการ ASL-3 มาใช้ได้ด้วยตัวเอง แต่สำหรับ ASL ที่สูงขึ้นไปอีกนั้น อาจจะต้องอาศัยการร่วมมือจากหลายภาคส่วน เพราะมาตรการป้องกันที่ต้องใช้จะมีความเข้มข้นและซับซ้อนมากขึ้นครับ ซึ่งเป็นเรื่องที่บริษัทเดียวอาจทำไม่ได้
ก้าวต่อไปเป็นอย่างไร?
จากที่เราเห็น Anthropic พยายามกำหนดทิศทางความปลอดภัยของ AI ด้วยตัวเอง และยังกระตุ้นให้บริษัทอื่น ๆ ทำตาม แต่ความท้าทายยังคงอยู่ ทั้งในเรื่องของการประเมินความสามารถของ AI อย่างแม่นยำ และการสร้างความร่วมมือจากภาครัฐและเอกชนทั่วโลก เพื่อรับมือกับความเสี่ยงที่ซับซ้อนขึ้นเรื่อย ๆ ครับ
สำหรับการอัปเดตและข่าวสารอื่นๆ จาก Anthropic คุณสามารถติดตามได้ที่ หน้าข่าว Anthropic ซึ่งมีข้อมูลเกี่ยวกับการพัฒนาและนโยบายต่างๆ ที่สำคัญครับ
อ่านต่อเกี่ยวกับนโยบายฉบับเต็มได้ที่นี่: Anthropic Responsible Scaling Policy v3.0