AI อะไรเนี่ย

Industry

Anthropic ตอบโต้การถูกกระทรวงสงครามสหรัฐฯ จัดเป็น 'ความเสี่ยงห่วงโซ่อุปทาน'

Anthropic ตอบโต้การถูกกระทรวงสงครามสหรัฐฯ จัดเป็น 'ความเสี่ยงห่วงโซ่อุปทาน'

เฮ้ยเพื่อนๆ! มีข่าวใหญ่จากวงการ AI มาอัปเดตกันหน่อย เมื่อเร็วๆ นี้ Anthropic ผู้พัฒนา AI ชื่อดังอย่าง Claude โดนกระทรวงสงครามของสหรัฐอเมริกาจัดให้เป็น "ความเสี่ยงด้านห่วงโซ่อุปทาน" ต่อความมั่นคงของชาติซะงั้น งานนี้ Dario Amodei ซีอีโอของ Anthropic ก็ออกมาแถลงการณ์ตอบโต้ทันควันเลยว่าไม่เห็นด้วย และเตรียมจะสู้ในศาลด้วยนะ! อ่าน แถลงการณ์ของ Anthropic เกี่ยวกับจุดยืนกับกระทรวงสงคราม เพิ่มเติมได้เลย

เกิดอะไรขึ้น

เมื่อวันที่ 4 มีนาคม 2026 ที่ผ่านมา Anthropic ได้รับจดหมายยืนยันจากกระทรวงสงครามสหรัฐฯ ว่าบริษัทถูกจัดให้เป็นความเสี่ยงด้านห่วงโซ่อุปทานต่อความมั่นคงของชาติอเมริกา ทาง Anthropic เองก็ไม่รอช้า ออกมาบอกว่าพวกเขาไม่เชื่อว่าการกระทำนี้ถูกต้องตามกฎหมาย และไม่มีทางเลือกอื่นนอกจากต้องท้าทายเรื่องนี้ในชั้นศาล ดูเหมือนว่าสถานการณ์จะเริ่มตึงเครียดขึ้นเรื่อยๆ นะ

ถึงแม้จะถูกจัดให้เป็นความเสี่ยง แต่ทาง Anthropic ก็ชี้แจงว่าการกำหนดนี้มีขอบเขตที่จำกัดมากๆ โดยอิงตามกฎหมาย 10 USC 3252 ซึ่งจะส่งผลกระทบเฉพาะกับการใช้ Claude โดยลูกค้าที่เป็นส่วนหนึ่งโดยตรงของสัญญากับกระทรวงสงครามเท่านั้น พูดง่ายๆ คือ ถ้าคุณเป็นลูกค้าของ Anthropic และไม่ได้ทำสัญญาโดยตรงกับกระทรวงสงคราม การใช้งาน Claude หรือความสัมพันธ์ทางธุรกิจกับ Anthropic ก็ยังคงเป็นไปตามปกติ ไม่ได้รับผลกระทบอะไรเลย สรุปคือไม่ได้จำกัดการใช้งาน Claude หรือความสัมพันธ์ทางธุรกิจกับ Anthropic ที่ไม่เกี่ยวข้องกับสัญญากับกระทรวงสงครามโดยเฉพาะนั่นเอง

Anthropic ย้ำชัดว่าพวกเขามีข้อกังวลที่จำกัดเพียงแค่สองเรื่องเท่านั้น คือ "อาวุธปกครองตนเองเต็มรูปแบบ" และ "การเฝ้าระวังมวลชนในประเทศ" ซึ่งเป็นประเด็นด้านจริยธรรมที่บริษัทให้ความสำคัญมาโดยตลอด พวกเขาได้ออก แถลงการณ์เกี่ยวกับสถานะการหารือกับกระทรวงสงคราม ตั้งแต่แรกแล้วว่า จุดยืนของพวกเขาเป็นอย่างไร

ทำไมต้องสนใจ

เรื่องนี้เป็นประเด็นที่น่าจับตาสำหรับคนในวงการ AI และผู้ใช้งานทั่วไปอย่างเราๆ เลยนะ เพราะมันสะท้อนให้เห็นถึงความท้าทายในการนำ AI มาใช้ในบริบทของความมั่นคงของชาติ และเส้นแบ่งระหว่างเทคโนโลยี การเมือง และจริยธรรม การที่รัฐบาลเข้ามามีบทบาทในการกำหนดว่าบริษัท AI ใดเป็น "ความเสี่ยง" อาจส่งผลกระทบต่อการพัฒนา AI ในอนาคต และสร้างมาตรฐานใหม่สำหรับการร่วมมือระหว่างบริษัทเทคฯ กับหน่วยงานรัฐ

นอกจากนี้ การที่ Anthropic ยืนยันที่จะต่อสู้ทางกฎหมายก็แสดงให้เห็นถึงความมุ่งมั่นที่จะปกป้องหลักการและจุดยืนของบริษัท ซึ่งอาจกลายเป็นบรรทัดฐานสำคัญสำหรับบริษัท AI อื่นๆ ที่อาจต้องเผชิญกับสถานการณ์คล้ายๆ กันในอนาคต

ต่อไปเป็นยังไง

ถึงแม้จะมีการฟ้องร้อง ทาง Anthropic ก็ยืนยันว่าจะยังคงสนับสนุนกระทรวงสงครามและชุมชนความมั่นคงแห่งชาติอยู่ โดยจะจัดหารุ่นโมเดล AI ของพวกเขาให้ในราคาที่ถูกมากๆ (nominal cost) และให้การสนับสนุนด้านวิศวกรรมอย่างต่อเนื่องในช่วงระยะเวลาเปลี่ยนผ่าน จนกว่าการเปลี่ยนผ่านจะเสร็จสมบูรณ์ และตราบเท่าที่ได้รับอนุญาตให้ทำได้ แสดงให้เห็นถึงความรับผิดชอบและความพยายามในการหาทางออกร่วมกัน

ซีอีโอ Dario Amodei ย้ำว่า Anthropic มีอะไรที่เหมือนกับกระทรวงสงครามมากกว่าความแตกต่างเสียอีก พวกเขาทั้งคู่มุ่งมั่นที่จะส่งเสริมความมั่นคงของชาติสหรัฐฯ และปกป้องชาวอเมริกัน รวมถึงเห็นพ้องต้องกันถึงความเร่งด่วนในการนำ AI มาประยุกต์ใช้ทั่วทั้งภาครัฐ ซึ่งการตัดสินใจในอนาคตทั้งหมดจะมาจากหลักการร่วมกันนี้ แม้ก่อนหน้านี้จะมีการแสดงความเห็นจากเลขาธิการกระทรวงสงคราม ซึ่ง Anthropic ก็ได้ออกมาตอบโต้อย่างชัดเจน

สถานการณ์นี้เป็นตัวอย่างที่น่าสนใจว่าเทคโนโลยี AI ที่ทรงพลังนั้นมีความละเอียดอ่อนและอาจนำไปสู่ข้อถกเถียงต่างๆ ได้มากมาย การติดตามข่าวสารต่อไปจะช่วยให้เราเข้าใจทิศทางของอุตสาหกรรมนี้ได้ดีขึ้นเลยล่ะ

อ่านต่อ: จุดยืนของ Anthropic กับกระทรวงสงครามสหรัฐฯ