Industry
Anthropic โต้ข้อกล่าวหาจากกระทรวงสงครามสหรัฐฯ เรื่องความเสี่ยงด้านห่วงโซ่อุปทาน AI
![]()
Anthropic บริษัท AI ชั้นนำ กำลังตกเป็นประเด็นร้อนแรงในวงการ หลังจากกระทรวงสงครามสหรัฐฯ ประกาศเมื่อวันที่ 27 กุมภาพันธ์ 2026 ว่าจะกำหนดให้ Anthropic เป็น "ความเสี่ยงด้านห่วงโซ่อุปทาน" การเคลื่อนไหวครั้งนี้เกิดขึ้นหลังจากที่ทั้งสองฝ่ายไม่สามารถหาข้อสรุปในการเจรจาเกี่ยวกับข้อจำกัดการใช้งานโมเดล AI ของ Anthropic อย่าง Claude ได้ โดย Anthropic ยืนกรานที่จะไม่ยอมให้มีการใช้ AI ของตนในการสอดแนมประชาชนจำนวนมาก หรือในอาวุธปกครองตนเองอย่างสมบูรณ์
เกิดอะไรขึ้น?
เรื่องนี้เริ่มต้นขึ้นเมื่อรัฐมนตรีกระทรวงสงคราม Pete Hegseth ได้ออกคำสั่งให้หน่วยงานพิจารณา Anthropic เป็นความเสี่ยงด้านห่วงโซ่อุปทาน ซึ่งเป็นมาตรการที่ไม่เคยเกิดขึ้นมาก่อนกับบริษัทอเมริกัน สาเหตุหลักคือการที่ Anthropic ขอข้อยกเว้นสองข้อในการใช้โมเดล Anthropic Claude AI อย่างถูกกฎหมาย:
- การสอดแนมประชาชนอเมริกันจำนวนมาก: Anthropic เชื่อว่าการกระทำนี้เป็นการละเมิดสิทธิขั้นพื้นฐานของพลเมือง
- อาวุธปกครองตนเองอย่างสมบูรณ์: ทางบริษัทให้เหตุผลว่าโมเดล AI ในปัจจุบันยังไม่น่าเชื่อถือพอที่จะใช้ในอาวุธลักษณะนี้ ซึ่งอาจเป็นอันตรายต่อทั้งทหารและพลเรือน
Anthropic ได้ออกแถลงการณ์อย่างเป็นทางการ เพื่อตอบโต้ความคิดเห็นของรัฐมนตรี Hegseth ยืนยันว่าพวกเขาได้พยายามเจรจาด้วยความสุจริตใจมานานหลายเดือนแล้ว และพร้อมสนับสนุนการใช้งาน AI เพื่อความมั่นคงแห่งชาติที่ถูกกฎหมายทุกรูปแบบ ยกเว้นเพียงสองข้อยกเว้นดังกล่าว
ทำไมคนในวงการหรือผู้ใช้ AI ควรสนใจ?
ประเด็นนี้สำคัญสำหรับผู้ใช้และผู้ที่อยู่ในอุตสาหกรรม AI ด้วยหลายเหตุผล:
- ผลกระทบต่อการทำงานกับรัฐบาล: หากการกำหนดสถานะ "ความเสี่ยงด้านห่วงโซ่อุปทาน" ภายใต้กฎหมาย 10 USC 3252 มีผลบังคับใช้จริง จะมีผลกระทบเฉพาะกับการใช้ Claude (รวมถึงโมเดลอย่าง Opus, Sonnet, Haiku) ในงานที่เกี่ยวข้องกับสัญญาของกระทรวงสงครามเท่านั้น โดยการใช้งานส่วนบุคคล เชิงพาณิชย์ หรือของหน่วยงานอื่นๆ ที่ไม่ใช่กระทรวงสงคราม จะไม่ได้รับผลกระทบ
- คำถามด้านจริยธรรมของ AI: การยืนกรานของ Anthropic สะท้อนให้เห็นถึงความพยายามของบริษัท AI ในการกำหนดขอบเขตทางจริยธรรมในการใช้งานเทคโนโลยีของตน ซึ่งสอดคล้องกับนโยบายด้านความรับผิดชอบของบริษัท อย่าง Anthropic's Responsible Scaling Policy: Version 3.0
- กรณีที่ไม่เคยเกิดขึ้นมาก่อน: การที่รัฐบาลสหรัฐฯ จะกำหนดให้บริษัทอเมริกันเป็น "ความเสี่ยงด้านห่วงโซ่อุปทาน" นั้นเป็นเรื่องที่ไม่เคยเกิดขึ้นมาก่อน และมักจะใช้กับศัตรูของประเทศมากกว่า ซึ่ง Anthropic มองว่าเป็นการดำเนินการที่ไม่ชอบด้วยกฎหมายและสร้างแบบอย่างที่เป็นอันตราย
Anthropic เคยเป็นบริษัท AI ชั้นนำรายแรกที่นำโมเดล AI ไปใช้งานในเครือข่ายความลับของรัฐบาลสหรัฐฯ ตั้งแต่เดือนมิถุนายน 2024 และมีความตั้งใจที่จะสนับสนุนกองทัพอเมริกันต่อไป
ต่อไปเป็นยังไง?
Anthropic ประกาศชัดเจนว่าจะต่อสู้กับการกำหนดสถานะ "ความเสี่ยงด้านห่วงโซ่อุปทาน" นี้ในชั้นศาล โดยเชื่อว่าการดำเนินการดังกล่าวไม่มีพื้นฐานทางกฎหมายที่สมเหตุสมผล และจะไม่มีการข่มขู่หรือบทลงโทษใดๆ ที่จะทำให้บริษัทเปลี่ยนจุดยืนเกี่ยวกับการสอดแนมประชาชนจำนวนมากหรืออาวุธปกครองตนเองอย่างสมบูรณ์
อ่านต่อ: สามารถอ่านแถลงการณ์ฉบับเต็มของ Anthropic ได้ที่ Anthropic Statement on Secretary Hegseth Comments