Industry
Anthropic เผยพบการโจมตี AI แบบ 'Distillation' ระดับอุตสาหกรรม
![]()
เฮ้ยเพื่อนๆ! มีข่าวร้อนๆ จากวงการ AI มาฝากครับ Anthropic บริษัท AI ผู้พัฒนาโมเดล Claude สุดฉลาด ออกมาเปิดเผยว่าพวกเขาตรวจพบการโจมตีแบบ "Distillation" ในระดับอุตสาหกรรม โดยมีห้องแล็บ AI ใหญ่ๆ ถึงสามแห่งคือ DeepSeek, Moonshot และ MiniMax พยายามดึงความสามารถของ Claude ไปใช้กับโมเดลของตัวเองแบบผิดกฎหมาย! เรื่องนี้ไม่ใช่แค่เรื่องเล็กๆ นะ แต่เป็นประเด็นที่กระทบถึงความมั่นคงของชาติและทรัพย์สินทางปัญญาเลยทีเดียว อ่านข่าวฉบับเต็มได้ที่ Detecting and preventing distillation attacks
เกิดอะไรขึ้น?
ง่ายๆ คือ บริษัทเหล่านี้พยายาม "ลอกเลียน" ความเก่งของ Claude ครับ โดยใช้เทคนิคที่เรียกว่า Distillation ซึ่งปกติแล้วเป็นวิธีที่ใช้กันในการฝึกโมเดลให้เก่งขึ้นหรือทำให้เล็กลง แต่ในกรณีนี้คือการเอาโมเดลที่ความสามารถน้อยกว่า มาเรียนรู้จากเอาต์พุตของโมเดลที่เก่งกว่า (อย่าง Claude) เพื่อสร้างโมเดลของตัวเองให้เก่งขึ้นอย่างรวดเร็วและประหยัดค่าใช้จ่ายสุดๆ
Anthropic เจอการโจมตีเหล่านี้ที่สร้างการโต้ตอบกับ Claude ไปมากกว่า 16 ล้านครั้ง ผ่านบัญชีปลอมประมาณ 24,000 บัญชี ซึ่งแน่นอนว่าผิดเงื่อนไขการให้บริการและละเมิดข้อจำกัดการเข้าถึงในบางภูมิภาคด้วย
มาดูรายละเอียดกันว่าแต่ละเจ้าทำอะไรไปบ้าง:
- DeepSeek: สร้างการโต้ตอบไปกว่า 150,000 ครั้ง เป้าหมายหลักคือความสามารถในการให้เหตุผลของ Claude, การให้คะแนนแบบ rubric-based และการสร้างทางเลือกที่ปลอดภัยจากการเซ็นเซอร์สำหรับคำถามที่ละเอียดอ่อนทางการเมือง เจ้านี้ยังใช้เทคนิคสุดล้ำ เช่น การให้ Claude จินตนาการและอธิบายการให้เหตุผลทีละขั้นตอน เพื่อสร้างข้อมูลการฝึกแบบ "chain-of-thought" จำนวนมาก
- Moonshot AI: ลุยหนักกว่าใครเพื่อน ด้วยการโต้ตอบมากกว่า 3.4 ล้านครั้ง เน้นไปที่ความสามารถในการให้เหตุผลแบบ Agentic, การใช้เครื่องมือ (tool use), การเขียนโค้ด, การวิเคราะห์ข้อมูล, การพัฒนา Agent ที่ใช้คอมพิวเตอร์ และความสามารถด้าน Computer Vision
- MiniMax: ทำสถิติสูงสุดที่กว่า 13 ล้านครั้ง โดยมุ่งเป้าไปที่การเขียนโค้ดแบบ Agentic และการใช้/จัดการเครื่องมือ สิ่งที่น่าสนใจคือ Anthropic ตรวจพบการโจมตีนี้ในขณะที่กำลังดำเนินการอยู่ และ MiniMax ก็ปรับเปลี่ยนการใช้งานเกือบครึ่งหนึ่งไปดึงความสามารถจากโมเดลใหม่ของ Anthropic ภายใน 24 ชั่วโมงหลังจากที่ถูกปล่อยออกมา!
ที่น่าตกใจคือ ผู้โจมตีเหล่านี้ยังหลีกเลี่ยงการควบคุมการเข้าถึงที่เกี่ยวข้องกับความมั่นคงของชาติในภูมิภาคอย่างประเทศจีน โดยใช้บริการพร็อกซี่เชิงพาณิชย์ที่ใช้สถาปัตยกรรมแบบ "hydra cluster" ซึ่งบางครั้งสามารถจัดการบัญชีปลอมได้มากกว่า 20,000 บัญชีพร้อมกันเลยทีเดียว
ทำไมคนในวงการหรือคนใช้ AI ควรสนใจ?
เรื่องนี้สำคัญมากครับ ไม่ใช่แค่ Anthropic ที่โดนผลกระทบ แต่ส่งผลเสียต่อวงการ AI โดยรวมเลยทีเดียว:
- ความเสี่ยงด้านความมั่นคงของชาติ: โมเดลที่ถูก "ลอกเลียน" มาแบบผิดกฎหมายเหล่านี้มักจะขาดระบบป้องกันที่จำเป็น ซึ่งหมายความว่าความสามารถที่อันตราย เช่น การพัฒนาอาวุธชีวภาพ หรือกิจกรรมทางไซเบอร์ที่เป็นอันตราย อาจแพร่กระจายไปได้โดยไม่มีการป้องกันใดๆ
- บ่อนทำลายการควบคุมการส่งออก: Anthropic และบริษัทสหรัฐฯ อื่นๆ สนับสนุนการควบคุมการส่งออกเทคโนโลยี AI เพื่อรักษาส่วนแบ่งทางการตลาด แต่การโจมตีแบบ Distillation นี้ทำให้ห้องแล็บต่างชาติ (รวมถึงที่อยู่ภายใต้การควบคุมของพรรคคอมมิวนิสต์จีน) สามารถลดช่องว่างทางเทคโนโลยีได้อย่างรวดเร็ว โดยไม่จำเป็นต้องพัฒนาเอง
- ข้อมูลผิดพลาดในการประเมินความก้าวหน้า: หากไม่มีการเปิดเผยเรื่องนี้ ความก้าวหน้าอย่างรวดเร็วที่ดูเหมือนว่ามาจากห้องแล็บเหล่านั้น อาจถูกเข้าใจผิดว่าเป็นการพัฒนาที่มาจากนวัตกรรมของตนเอง ทั้งที่จริงๆ แล้วส่วนสำคัญมาจากความสามารถที่ถูกดึงมาจากโมเดลของบริษัทอเมริกัน
Anthropic กำลังตอบโต้อย่างไร?
Anthropic ไม่ได้นิ่งนอนใจครับ พวกเขากำลังลงทุนอย่างหนักในระบบป้องกันเพื่อให้การโจมตีแบบ Distillation ทำได้ยากขึ้นและตรวจจับได้ง่ายขึ้น ซึ่งเป็นส่วนหนึ่งของ พันธกิจของ Anthropic ในการพัฒนา AI อย่างปลอดภัย
มาตรการที่กำลังทำอยู่รวมถึง:
- การตรวจจับ: พัฒนาระบบ Classifier และ Behavioral Fingerprinting เพื่อระบุรูปแบบการโจมตีแบบ Distillation ใน API รวมถึงการตรวจจับกิจกรรมที่ประสานงานกันระหว่างบัญชีจำนวนมาก
- การแบ่งปันข้อมูล: แชร์ตัวบ่งชี้ทางเทคนิคกับห้องแล็บ AI อื่นๆ, ผู้ให้บริการคลาวด์ และหน่วยงานที่เกี่ยวข้อง เพื่อให้เห็นภาพรวมของการโจมตีที่ชัดเจนยิ่งขึ้น
- การเสริมสร้างการควบคุมการเข้าถึง: ยกระดับการยืนยันตัวตนและการควบคุมการเข้าถึงให้แข็งแกร่งขึ้น
เรื่องนี้เน้นย้ำว่า การร่วมมือกันระหว่างผู้เล่นในอุตสาหกรรม, ผู้กำหนดนโยบาย และประชาคม AI ทั่วโลก เป็นสิ่งจำเป็นอย่างยิ่งเพื่อรับมือกับภัยคุกคามที่ซับซ้อนและทวีความรุนแรงขึ้นเรื่อยๆ ครับ
อ่านต่อ: https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks