AI อะไรเนี่ย

News

Google DeepMind กับการปกป้องผู้คนจากการถูก AI ชักจูง

Google DeepMind กับการปกป้องผู้คนจากการถูก AI ชักจูง

ช่วงนี้ AI พัฒนาไปเร็วมาก จนสามารถพูดคุยโต้ตอบได้อย่างเป็นธรรมชาติเหมือนมนุษย์เลยใช่ไหมครับ? แต่ในขณะเดียวกัน Google DeepMind ก็มองเห็นประเด็นสำคัญที่ต้องคำนึงถึง นั่นคือความเสี่ยงที่ AI อาจถูกนำไปใช้ในทางที่ผิด เพื่อชักจูงผู้คนได้ และนี่คือสิ่งที่พวกเขาได้เปิดเผยผลการศึกษาใหม่ล่าสุด รวมถึงเครื่องมือที่ช่วยวัดการชักจูงประเภทนี้ด้วย

AI ชักจูงคืออะไร และ Google DeepMind ทำอะไร?

Google DeepMind ได้เผยแพร่ผลการค้นพบใหม่เกี่ยวกับศักยภาพที่ AI อาจถูกใช้เพื่อการชักจูงที่เป็นอันตราย โดยเฉพาะอย่างยิ่งความสามารถของ AI ในการเปลี่ยนแปลงความคิดและพฤติกรรมของมนุษย์ในทางลบและหลอกลวง ลองนึกภาพว่า AI ที่คุยกับเราอยู่ทุกวัน อาจมีอิทธิพลต่อการตัดสินใจของเราได้ ซึ่งถ้าไปในทางที่ไม่ดี ก็อาจสร้างความเสียหายได้เยอะเลย

เพื่อจัดการกับเรื่องนี้ ทางบริษัทได้สร้างชุดเครื่องมือที่ได้รับการยืนยันเชิงประจักษ์เป็นครั้งแรก เพื่อใช้วัดการชักจูงจาก AI ในสถานการณ์จริง ชุดเครื่องมือนี้ไม่เพียงแต่ช่วยปกป้องผู้คนเท่านั้น แต่ยังช่วยพัฒนาวงการ AI โดยรวมให้มีความปลอดภัยมากขึ้นอีกด้วย พวกเขายังได้เปิดเผยข้อมูลทั้งหมดที่จำเป็นสำหรับการทำวิจัยที่เกี่ยวข้องกับมนุษย์โดยใช้วิธีการเดียวกันนี้อีกด้วย คุณสามารถอ่านรายละเอียดเพิ่มเติมได้ที่ บล็อกของ DeepMind เกี่ยวกับการปกป้องผู้คนจากการชักจูงที่เป็นอันตราย

ทำไมการชักจูงจาก AI ถึงสำคัญ?

ลองคิดดูสองสถานการณ์นี้: สถานการณ์แรก AI ให้ข้อมูลที่เป็นข้อเท็จจริงเพื่อช่วยให้คุณตัดสินใจเรื่องสุขภาพได้อย่างชาญฉลาด ซึ่งส่งผลดีต่อสุขภาพของคุณ ส่วนอีกสถานการณ์หนึ่ง AI กลับใช้ความกลัวเพื่อกดดันให้คุณตัดสินใจผิดๆ ซึ่งเป็นอันตรายต่อสุขภาพของคุณเอง

นี่คือความแตกต่างระหว่าง "การโน้มน้าวใจที่เป็นประโยชน์" ที่ใช้ข้อเท็จจริงและหลักฐานเพื่อช่วยให้ผู้คนเลือกสิ่งที่สอดคล้องกับผลประโยชน์ของตนเอง กับ "การชักจูงที่เป็นอันตราย" ที่ใช้การเอารัดเอาเปรียบจากจุดอ่อนทางอารมณ์และสติปัญญา เพื่อหลอกให้ผู้คนตัดสินใจที่เป็นอันตราย การศึกษาล่าสุดของ Google DeepMind ช่วยให้เราและชุมชน AI ได้เข้าใจความเสี่ยงของการที่ AI อาจพัฒนาความสามารถในการชักจูงที่เป็นอันตรายได้ดีขึ้น และช่วยสร้างกรอบการประเมินที่สามารถปรับขนาดได้เพื่อวัดผลในพื้นที่ที่ซับซ้อนนี้ สำหรับข้อมูลเชิงลึกเพิ่มเติมเกี่ยวกับประเด็นนี้ ลองดูที่บทความจาก AI Policy Perspectives เรื่องการชักจูงโดย AI ได้ครับ

เครื่องมือสำคัญในการรับมือความท้าทายนี้

การทดสอบการชักจูงที่เป็นอันตรายจาก AI เป็นเรื่องที่ยากมากๆ เพราะมันเกี่ยวข้องกับการวัดการเปลี่ยนแปลงเล็กๆ น้อยๆ ในวิธีคิดและการกระทำของผู้คน ซึ่งแตกต่างกันไปตามหัวข้อ วัฒนธรรม และบริบท นี่คือแรงผลักดันให้เกิดการวิจัยล่าสุดของพวกเขา ซึ่งรวมถึงการศึกษา 9 ชิ้น โดยมีผู้เข้าร่วมมากกว่า 10,000 คนในสหราชอาณาจักร สหรัฐอเมริกา และอินเดีย

พวกเขาเน้นไปที่พื้นที่ที่มีความเสี่ยงสูง เช่น การเงิน โดยใช้สถานการณ์การลงทุนจำลองเพื่อทดสอบว่า AI สามารถมีอิทธิพลต่อพฤติกรรมของผู้คนในการตัดสินใจที่ซับซ้อนได้อย่างไร รวมถึงด้านสุขภาพ ซึ่งพวกเขาติดตามว่า AI สามารถมีอิทธิพลต่อการเลือกอาหารได้อย่างไร

ต่อไปจะเป็นยังไง?

งานวิจัยนี้เป็นก้าวสำคัญในการทำความเข้าใจและรับมือกับความเสี่ยงที่ AI จะถูกนำไปใช้ในทางที่ผิด การที่ Google DeepMind เปิดเผยผลการศึกษาและเครื่องมือต่างๆ นี้ ถือเป็นการแสดงความมุ่งมั่นในการสร้าง AI ที่รับผิดชอบและปลอดภัยสำหรับทุกคน ซึ่งสอดคล้องกับ กรอบความปลอดภัยระดับสูงสำหรับ AI ที่ DeepMind ให้ความสำคัญ ซึ่งจะช่วยให้วงการ AI โดยรวมสามารถพัฒนาระบบที่ปลอดภัยและเป็นประโยชน์ต่อมนุษยชาติอย่างแท้จริง

อ่านต่อ: Google DeepMind: Protecting People from Harmful Manipulation เพื่อเจาะลึกรายละเอียดทั้งหมดของงานวิจัยชิ้นนี้