AI อะไรเนี่ย

Industry

Anthropic เผยพบการโจมตี AI แบบ 'Distillation' ระดับอุตสาหกรรม

Anthropic เผยพบการโจมตี AI แบบ 'Distillation' ระดับอุตสาหกรรม

เฮ้ยเพื่อนๆ! มีข่าวร้อนๆ จากวงการ AI มาฝากครับ Anthropic บริษัท AI ผู้พัฒนาโมเดล Claude สุดฉลาด ออกมาเปิดเผยว่าพวกเขาตรวจพบการโจมตีแบบ "Distillation" ในระดับอุตสาหกรรม โดยมีห้องแล็บ AI ใหญ่ๆ ถึงสามแห่งคือ DeepSeek, Moonshot และ MiniMax พยายามดึงความสามารถของ Claude ไปใช้กับโมเดลของตัวเองแบบผิดกฎหมาย! เรื่องนี้ไม่ใช่แค่เรื่องเล็กๆ นะ แต่เป็นประเด็นที่กระทบถึงความมั่นคงของชาติและทรัพย์สินทางปัญญาเลยทีเดียว อ่านข่าวฉบับเต็มได้ที่ Detecting and preventing distillation attacks

เกิดอะไรขึ้น?

ง่ายๆ คือ บริษัทเหล่านี้พยายาม "ลอกเลียน" ความเก่งของ Claude ครับ โดยใช้เทคนิคที่เรียกว่า Distillation ซึ่งปกติแล้วเป็นวิธีที่ใช้กันในการฝึกโมเดลให้เก่งขึ้นหรือทำให้เล็กลง แต่ในกรณีนี้คือการเอาโมเดลที่ความสามารถน้อยกว่า มาเรียนรู้จากเอาต์พุตของโมเดลที่เก่งกว่า (อย่าง Claude) เพื่อสร้างโมเดลของตัวเองให้เก่งขึ้นอย่างรวดเร็วและประหยัดค่าใช้จ่ายสุดๆ

Anthropic เจอการโจมตีเหล่านี้ที่สร้างการโต้ตอบกับ Claude ไปมากกว่า 16 ล้านครั้ง ผ่านบัญชีปลอมประมาณ 24,000 บัญชี ซึ่งแน่นอนว่าผิดเงื่อนไขการให้บริการและละเมิดข้อจำกัดการเข้าถึงในบางภูมิภาคด้วย

มาดูรายละเอียดกันว่าแต่ละเจ้าทำอะไรไปบ้าง:

  • DeepSeek: สร้างการโต้ตอบไปกว่า 150,000 ครั้ง เป้าหมายหลักคือความสามารถในการให้เหตุผลของ Claude, การให้คะแนนแบบ rubric-based และการสร้างทางเลือกที่ปลอดภัยจากการเซ็นเซอร์สำหรับคำถามที่ละเอียดอ่อนทางการเมือง เจ้านี้ยังใช้เทคนิคสุดล้ำ เช่น การให้ Claude จินตนาการและอธิบายการให้เหตุผลทีละขั้นตอน เพื่อสร้างข้อมูลการฝึกแบบ "chain-of-thought" จำนวนมาก
  • Moonshot AI: ลุยหนักกว่าใครเพื่อน ด้วยการโต้ตอบมากกว่า 3.4 ล้านครั้ง เน้นไปที่ความสามารถในการให้เหตุผลแบบ Agentic, การใช้เครื่องมือ (tool use), การเขียนโค้ด, การวิเคราะห์ข้อมูล, การพัฒนา Agent ที่ใช้คอมพิวเตอร์ และความสามารถด้าน Computer Vision
  • MiniMax: ทำสถิติสูงสุดที่กว่า 13 ล้านครั้ง โดยมุ่งเป้าไปที่การเขียนโค้ดแบบ Agentic และการใช้/จัดการเครื่องมือ สิ่งที่น่าสนใจคือ Anthropic ตรวจพบการโจมตีนี้ในขณะที่กำลังดำเนินการอยู่ และ MiniMax ก็ปรับเปลี่ยนการใช้งานเกือบครึ่งหนึ่งไปดึงความสามารถจากโมเดลใหม่ของ Anthropic ภายใน 24 ชั่วโมงหลังจากที่ถูกปล่อยออกมา!

ที่น่าตกใจคือ ผู้โจมตีเหล่านี้ยังหลีกเลี่ยงการควบคุมการเข้าถึงที่เกี่ยวข้องกับความมั่นคงของชาติในภูมิภาคอย่างประเทศจีน โดยใช้บริการพร็อกซี่เชิงพาณิชย์ที่ใช้สถาปัตยกรรมแบบ "hydra cluster" ซึ่งบางครั้งสามารถจัดการบัญชีปลอมได้มากกว่า 20,000 บัญชีพร้อมกันเลยทีเดียว

ทำไมคนในวงการหรือคนใช้ AI ควรสนใจ?

เรื่องนี้สำคัญมากครับ ไม่ใช่แค่ Anthropic ที่โดนผลกระทบ แต่ส่งผลเสียต่อวงการ AI โดยรวมเลยทีเดียว:

  1. ความเสี่ยงด้านความมั่นคงของชาติ: โมเดลที่ถูก "ลอกเลียน" มาแบบผิดกฎหมายเหล่านี้มักจะขาดระบบป้องกันที่จำเป็น ซึ่งหมายความว่าความสามารถที่อันตราย เช่น การพัฒนาอาวุธชีวภาพ หรือกิจกรรมทางไซเบอร์ที่เป็นอันตราย อาจแพร่กระจายไปได้โดยไม่มีการป้องกันใดๆ
  2. บ่อนทำลายการควบคุมการส่งออก: Anthropic และบริษัทสหรัฐฯ อื่นๆ สนับสนุนการควบคุมการส่งออกเทคโนโลยี AI เพื่อรักษาส่วนแบ่งทางการตลาด แต่การโจมตีแบบ Distillation นี้ทำให้ห้องแล็บต่างชาติ (รวมถึงที่อยู่ภายใต้การควบคุมของพรรคคอมมิวนิสต์จีน) สามารถลดช่องว่างทางเทคโนโลยีได้อย่างรวดเร็ว โดยไม่จำเป็นต้องพัฒนาเอง
  3. ข้อมูลผิดพลาดในการประเมินความก้าวหน้า: หากไม่มีการเปิดเผยเรื่องนี้ ความก้าวหน้าอย่างรวดเร็วที่ดูเหมือนว่ามาจากห้องแล็บเหล่านั้น อาจถูกเข้าใจผิดว่าเป็นการพัฒนาที่มาจากนวัตกรรมของตนเอง ทั้งที่จริงๆ แล้วส่วนสำคัญมาจากความสามารถที่ถูกดึงมาจากโมเดลของบริษัทอเมริกัน

Anthropic กำลังตอบโต้อย่างไร?

Anthropic ไม่ได้นิ่งนอนใจครับ พวกเขากำลังลงทุนอย่างหนักในระบบป้องกันเพื่อให้การโจมตีแบบ Distillation ทำได้ยากขึ้นและตรวจจับได้ง่ายขึ้น ซึ่งเป็นส่วนหนึ่งของ พันธกิจของ Anthropic ในการพัฒนา AI อย่างปลอดภัย

มาตรการที่กำลังทำอยู่รวมถึง:

  • การตรวจจับ: พัฒนาระบบ Classifier และ Behavioral Fingerprinting เพื่อระบุรูปแบบการโจมตีแบบ Distillation ใน API รวมถึงการตรวจจับกิจกรรมที่ประสานงานกันระหว่างบัญชีจำนวนมาก
  • การแบ่งปันข้อมูล: แชร์ตัวบ่งชี้ทางเทคนิคกับห้องแล็บ AI อื่นๆ, ผู้ให้บริการคลาวด์ และหน่วยงานที่เกี่ยวข้อง เพื่อให้เห็นภาพรวมของการโจมตีที่ชัดเจนยิ่งขึ้น
  • การเสริมสร้างการควบคุมการเข้าถึง: ยกระดับการยืนยันตัวตนและการควบคุมการเข้าถึงให้แข็งแกร่งขึ้น

เรื่องนี้เน้นย้ำว่า การร่วมมือกันระหว่างผู้เล่นในอุตสาหกรรม, ผู้กำหนดนโยบาย และประชาคม AI ทั่วโลก เป็นสิ่งจำเป็นอย่างยิ่งเพื่อรับมือกับภัยคุกคามที่ซับซ้อนและทวีความรุนแรงขึ้นเรื่อยๆ ครับ

อ่านต่อ: https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks