AI อะไรเนี่ย

Industry

Anthropic ออกนโยบายการขยายขนาดอย่างรับผิดชอบ V3

Anthropic ออกนโยบายการขยายขนาดอย่างรับผิดชอบ V3

สวัสดีเพื่อนๆ ในวงการ AI! มีข่าวสำคัญจาก Anthropic มาอัปเดตกันครับ เมื่อวันที่ 24 กุมภาพันธ์ 2026 ที่ผ่านมา Anthropic ได้ปล่อย นโยบายการขยายขนาดอย่างรับผิดชอบ (Responsible Scaling Policy หรือ RSP) เวอร์ชัน 3.0 ออกมาแล้วนะ ซึ่งนโยบายนี้เป็นเหมือนกรอบการทำงานที่ Anthropic พัฒนาขึ้นมาเองโดยสมัครใจ เพื่อช่วยลดความเสี่ยงหายนะที่อาจเกิดขึ้นจากระบบ AI ที่มีประสิทธิภาพสูงขึ้นเรื่อย ๆ ครับ สามารถอ่านรายละเอียดเพิ่มเติมได้ที่ นโยบายการขยายขนาดอย่างรับผิดชอบ v3.0

เกิดอะไรขึ้นบ้าง?

ย้อนกลับไปนิดนึง นโยบาย RSP ฉบับแรกเริ่มเปิดตัวไปตั้งแต่เดือนกันยายนปี 2023 โน่นเลยครับ โดยหัวใจหลักของ RSP คือการใช้ "ระดับความปลอดภัยของ AI" หรือ AI Safety Levels (ASL) ในการกำหนดมาตรการป้องกันที่เข้มข้นขึ้นตามความสามารถของ AI ที่พัฒนาไปไกลขึ้น เช่น มี ASL-2, ASL-3, ASL-4 และที่สูงกว่านั้น

สิ่งที่น่าสนใจคือ Anthropic ได้เปิดใช้งานมาตรการป้องกันระดับ ASL-3 สำหรับโมเดลที่เกี่ยวข้องไปแล้วตั้งแต่เดือนพฤษภาคม 2025 โดยระดับนี้จะเน้นจัดการกับความเสี่ยงจากอาวุธเคมีและชีวภาพที่อาจเกิดจากผู้ไม่หวังดีที่มีทรัพยากรไม่มากนัก ซึ่งรวมถึงการพัฒนาตัวจำแนกข้อมูลเข้าและออก (input and output classifiers) ที่ซับซ้อนและแม่นยำขึ้นด้วย

ไม่นานหลังจากที่ Anthropic ประกาศ RSP ครั้งแรก บริษัทใหญ่อื่นๆ อย่าง OpenAI และ Google DeepMind ก็ได้นำกรอบการทำงานที่คล้ายคลึงกันมาใช้ตามกันไปครับ เรียกได้ว่าเป็นการสร้างมาตรฐานใหม่ให้กับอุตสาหกรรมเลยทีเดียว

หลักการจาก RSP ยังได้มีส่วนช่วยในการกำหนดนโยบาย AI ในช่วงเริ่มต้นหลายฉบับ เช่น กฎหมาย SB 53 ของแคลิฟอร์เนีย, กฎหมาย RAISE Act ของนิวยอร์ก และ Codes of Practice ของ EU AI Act ซึ่ง Anthropic เองก็รับมือกับข้อกำหนดเหล่านี้ผ่านเอกสารสาธารณะอย่าง Frontier Compliance Framework ของพวกเขา

ทำไมเราถึงต้องสนใจ?

เรื่องนี้สำคัญมากครับ เพราะมันสะท้อนถึงความพยายามของภาคเอกชนในการสร้างความรับผิดชอบและมาตรฐานความปลอดภัยของ AI ในขณะที่เทคโนโลยีกำลังก้าวหน้าไปอย่างรวดเร็ว อย่างไรก็ตาม Anthropic เองก็ยอมรับว่าการบรรลุฉันทามติในอุตสาหกรรมเป็นเรื่องท้าทายพอสมควรครับ เพราะระดับความสามารถที่กำหนดไว้ล่วงหน้านั้นยังคลุมเครือ และวิทยาศาสตร์ของการประเมินโมเดลในปัจจุบันก็ยังไม่พัฒนามากพอ โดยเฉพาะอย่างยิ่งสำหรับความเสี่ยงทางชีวภาพ

รายงานของ RAND ที่เกี่ยวกับการรักษาความปลอดภัยของ Model Weight ยังได้กล่าวถึงมาตรฐานความปลอดภัย "SL5" ซึ่งชี้ให้เห็นว่าการนำมาตรการลดผลกระทบที่แข็งแกร่งสำหรับ ASL ที่สูงขึ้นไปใช้นั้น อาจเป็นเรื่องยากหรือเป็นไปไม่ได้เลย หากปราศจากความร่วมมือจากหลายฝ่าย

แม้ว่า Anthropic จะประสบความสำเร็จในการนำมาตรการ ASL-3 มาใช้ได้ด้วยตัวเอง แต่สำหรับ ASL ที่สูงขึ้นไปอีกนั้น อาจจะต้องอาศัยการร่วมมือจากหลายภาคส่วน เพราะมาตรการป้องกันที่ต้องใช้จะมีความเข้มข้นและซับซ้อนมากขึ้นครับ ซึ่งเป็นเรื่องที่บริษัทเดียวอาจทำไม่ได้

ก้าวต่อไปเป็นอย่างไร?

จากที่เราเห็น Anthropic พยายามกำหนดทิศทางความปลอดภัยของ AI ด้วยตัวเอง และยังกระตุ้นให้บริษัทอื่น ๆ ทำตาม แต่ความท้าทายยังคงอยู่ ทั้งในเรื่องของการประเมินความสามารถของ AI อย่างแม่นยำ และการสร้างความร่วมมือจากภาครัฐและเอกชนทั่วโลก เพื่อรับมือกับความเสี่ยงที่ซับซ้อนขึ้นเรื่อย ๆ ครับ

สำหรับการอัปเดตและข่าวสารอื่นๆ จาก Anthropic คุณสามารถติดตามได้ที่ หน้าข่าว Anthropic ซึ่งมีข้อมูลเกี่ยวกับการพัฒนาและนโยบายต่างๆ ที่สำคัญครับ

อ่านต่อเกี่ยวกับนโยบายฉบับเต็มได้ที่นี่: Anthropic Responsible Scaling Policy v3.0