Industry
Anthropic ยืนยันจุดยืนปฏิเสธการใช้ AI เพื่อการสอดแนมและการพัฒนาอาวุธไร้คนควบคุม กับกระทรวงกลาโหม
![]()
เฮ้ย! มีข่าวใหญ่ในวงการ AI ที่น่าสนใจมากๆ เลยนะ เรื่องของ Anthropic กับกระทรวงกลาโหมสหรัฐฯ ที่กำลังเป็นประเด็นร้อนแรง เกี่ยวกับขอบเขตการใช้งาน AI ในภารกิจด้านความมั่นคง มันไม่ใช่แค่เรื่องธุรกิจ แต่มันเกี่ยวกับเรื่องจริยธรรมและอนาคตของ AI เลยล่ะ
เกิดอะไรขึ้น
Anthropic บริษัท AI แนวหน้า ผู้สร้างโมเดลอย่าง Claude เนี่ย เขาเป็นเจ้าแรกๆ เลยนะที่บุกเบิกการนำโมเดล AI ไปใช้งานในเครือข่ายความลับของรัฐบาลสหรัฐฯ ในห้องปฏิบัติการแห่งชาติ และยังเป็นเจ้าแรกที่ปรับแต่งโมเดลให้เหมาะกับลูกค้าด้านความมั่นคงแห่งชาติด้วย โมเดล Claude ถูกใช้กันอย่างแพร่หลายในกระทรวงกลาโหมและหน่วยงานความมั่นคงอื่นๆ สำหรับภารกิจสำคัญๆ เช่น การวิเคราะห์ข่าวกรอง การจำลองสถานการณ์ การวางแผนปฏิบัติการ และปฏิบัติการไซเบอร์เลยทีเดียว
ก่อนหน้านี้ Anthropic เองก็แสดงจุดยืนที่ชัดเจนมาตลอด เขาเคยตัดสินใจปฏิเสธรายได้หลายร้อยล้านดอลลาร์ เพื่อตัดความสัมพันธ์กับบริษัทที่เชื่อมโยงกับพรรคคอมมิวนิสต์จีน (บางแห่งถูกกระทรวงกลาโหมจัดเป็นบริษัททหารของจีนด้วย) เพื่อปกป้องความเป็นผู้นำด้าน AI ของอเมริกา
แต่ล่าสุดเนี่ย ทาง Anthropic ได้ออกมายืนยันจุดยืนที่สำคัญมากๆ สองข้อที่พวกเขาไม่เคยและจะไม่ยอมให้กระทรวงกลาโหมใช้ AI ของพวกเขาทำ นั่นก็คือ:
- การสอดแนมพลเมืองจำนวนมากในประเทศ: Anthropic มองว่าการใช้ AI เพื่อสอดแนมประชาชนจำนวนมากมันขัดแย้งกับค่านิยมประชาธิปไตย และยังมีความเสี่ยงใหม่ๆ ที่ร้ายแรงต่อเสรีภาพพื้นฐานของเราด้วย เพราะ AI ที่ทรงพลังสามารถรวบรวมข้อมูลเล็กๆ น้อยๆ ที่ดูไม่เป็นอันตราย มาสร้างภาพรวมชีวิตของคนๆ หนึ่งได้โดยอัตโนมัติและในวงกว้าง
- อาวุธที่ควบคุมตนเองได้อย่างสมบูรณ์ (Fully Autonomous Weapons): หรืออาวุธที่สามารถเลือกและโจมตีเป้าหมายได้เองโดยที่มนุษย์ไม่ได้อยู่ในวงจรการตัดสินใจเลย Anthropic ให้เหตุผลว่าระบบ AI ที่มีอยู่ในปัจจุบันยังไม่น่าเชื่อถือเพียงพอที่จะนำมาใช้กับอาวุธประเภทนี้ และยังขาดการกำกับดูแลที่เหมาะสมด้วย แม้ว่าพวกเขาจะเสนอที่จะร่วมวิจัยและพัฒนาเพื่อปรับปรุงความน่าเชื่อถือของระบบเหล่านี้ แต่กระทรวงฯ ก็ไม่ได้ตอบรับข้อเสนอ
ประเด็นคือ กระทรวงกลาโหมได้เรียกร้องให้ Anthropic ยอมรับ "การใช้งานที่ชอบด้วยกฎหมายทุกรูปแบบ" และให้ยกเลิกข้อจำกัดเหล่านี้ พร้อมกับข่มขู่ว่าจะถอด Anthropic ออกจากระบบของพวกเขา ประกาศว่า Anthropic เป็น "ความเสี่ยงต่อห่วงโซ่อุปทาน" (Supply Chain Risk) และอาจจะใช้กฎหมาย Defense Production Act เพื่อบังคับให้ยกเลิกข้อจำกัดเหล่านั้นด้วย
แต่ Anthropic ก็ยังคงยืนยันหนักแน่นว่าพวกเขาไม่สามารถยอมทำตามคำขอของกระทรวงฯ ได้ด้วยสำนึกในหน้าที่และจริยธรรมของตนเอง ถึงแม้พวกเขาจะอยากให้บริการกระทรวงฯ และนักรบต่อไปก็ตาม และถ้าหากกระทรวงฯ ตัดสินใจยกเลิกสัญญา Anthropic ก็พร้อมที่จะช่วยให้การเปลี่ยนผ่านไปยังผู้ให้บริการรายอื่นเป็นไปอย่างราบรื่น เพื่อไม่ให้ภารกิจทางทหารต้องหยุดชะงัก
ทำไมต้องสนใจ
เรื่องนี้สำคัญมากสำหรับคนในวงการ AI และผู้ใช้งานอย่างเราๆ เพราะมันกำลังสร้างบรรทัดฐานใหม่ให้กับจริยธรรมของ AI โดยเฉพาะในภาคส่วนที่ละเอียดอ่อนอย่างความมั่นคงของชาติ การที่บริษัท AI อย่าง Anthropic ที่มีโมเดลอย่าง Claude AI ยืนหยัดในจุดยืนด้านจริยธรรม แม้จะต้องแลกกับรายได้มหาศาลหรือการเผชิญหน้ากับการข่มขู่จากรัฐบาล แสดงให้เห็นถึงความตระหนักรู้ถึงผลกระทบที่ AI อาจมีต่อสังคมและมนุษยชาติ
มันสะท้อนให้เห็นถึงความท้าทายในการสร้างสมดุลระหว่างนวัตกรรม ความมั่นคงของชาติ และคุณค่าประชาธิปไตยของเราเองด้วย การตัดสินใจของ Anthropic อาจส่งผลต่อแนวทางการพัฒนาแพลตฟอร์มสำหรับนักพัฒนา AI ในอนาคต (ซึ่งคุณสามารถไปดูข้อมูลเพิ่มเติมได้ที่ Anthropic Developer Platform) และการร่วมมือกันระหว่างบริษัทเทคโนโลยีกับภาครัฐในระยะยาว
ต่อไปเป็นยังไง
สถานการณ์นี้ยังไม่แน่นอนว่าจะจบลงอย่างไร กระทรวงกลาโหมจะยอมอ่อนข้อ หรือจะบังคับใช้มาตรการที่ข่มขู่จริงๆ? การตัดสินใจครั้งนี้จะเป็นบทเรียนสำคัญสำหรับอุตสาหกรรม AI ทั้งหมด และอาจนำไปสู่การถกเถียงและกำหนดนโยบายที่ชัดเจนขึ้นเกี่ยวกับการใช้ AI ในภารกิจด้านความมั่นคงในอนาคต
ไม่ว่าผลจะออกมาเป็นอย่างไร การยืนหยัดของ Anthropic ก็ได้จุดประกายให้เห็นถึงความสำคัญของ "จริยธรรม" และ "ความรับผิดชอบ" ในยุคของ AI อย่างแท้จริง สำหรับใครที่สนใจข่าวสารของ Anthropic เพิ่มเติม สามารถไปเยี่ยมชมได้ที่ เว็บไซต์หลักของ Anthropic เลยนะ
อ่านต่อ: หากต้องการข้อมูลเชิงลึกเกี่ยวกับเรื่องนี้ คุณสามารถอ่านแถลงการณ์ฉบับเต็มจาก Dario Amodei ได้ที่ แถลงการณ์ของ Dario Amodei เกี่ยวกับการหารือกับกระทรวงกลาโหม