
การสาธิตของ Palantir แสดงให้เห็นว่ากองทัพอาจใช้แชตบอต AI ในการสร้างแผนการรบได้อย่างไร
การสาธิตซอฟต์แวร์และบันทึกของเพนตากอนเผยรายละเอียดว่า แชตบอตอย่าง Claude ของ Anthropic สามารถช่วยเพนตากอนในการวิเคราะห์ข้อมูลข่าวกรองและเสนอแนะขั้นตอนการดำเนินงานต่อไปได้อย่างไร
Palantir กำลังแสดงให้เพนตากอนเห็นว่าแชตบอต AI สามารถปฏิวัติการตัดสินใจทางทหารได้อย่างไร ข้อมูลจากการสาธิตซอฟต์แวร์ใหม่และบันทึกของเพนตากอนที่นิตยสาร Wired ได้รับมา เปิดเผยว่า AI Claude ของ Anthropic กำลังถูกนำไปรวมเข้ากับระบบป้องกันประเทศเพื่อวิเคราะห์ข้อมูลข่าวกรองในสนามรบและเสนอแนะการตอบโต้ทางยุทธวิธี การเปิดเผยนี้มีขึ้นในช่วงที่อุตสาหกรรมป้องกันประเทศกำลังเร่งนำโมเดลภาษาขนาดใหญ่ (LLM) เข้าไปติดตั้งในโครงสร้างพื้นฐานทางทหารที่สำคัญ ซึ่งก่อให้เกิดคำถามเกี่ยวกับอิสระของ AI ในการทำสงคราม
Palantir เพิ่งแสดงภาพอนาคตของสงครามที่ขับเคลื่อนด้วย AI ให้กระทรวงกลาโหมสหรัฐฯ ได้เห็น การสาธิตซอฟต์แวร์และเอกสารภายในของเพนตากอนแสดงให้เห็นว่าบริษัทคู่สัญญาด้านกลาโหมรายนี้กำลังรวมแชตบอต Claude ของ Anthropic เข้ากับระบบวางแผนทางทหาร เพื่อสร้าง "ผู้ช่วย AI" ที่สามารถตีความรายงานข่าวกรองและแนะนำการปฏิบัติการทางยุทธวิธีได้แบบเรียลไทม์
การสาธิตดังกล่าวซึ่งมีรายละเอียดอยู่ในรายงานของ Wired แสดงให้เห็นถึงการยกระดับครั้งสำคัญในการที่กองทัพวางแผนจะใช้ AI เชิงพาณิชย์ แทนที่จะเป็นการวิเคราะห์ข้อมูลแบบพื้นฐาน ระบบเหล่านี้ถูกวางตำแหน่งให้ "เสนอแนะขั้นตอนต่อไปในการปฏิบัติการ" ซึ่งเป็นการตัดสินใจเชิงกลยุทธ์ที่ตามปกติแล้วต้องใช้การตัดสินใจของมนุษย์และประสบการณ์ทางทหารนานนับปี
แนวทางของ Palantir คือการใช้เทคโนโลยีโมเดลภาษาขนาดใหญ่แบบเดียวกับที่ขับเคลื่อนแชตบอตสำหรับผู้บริโภค แต่เปลี่ยนทิศทางไปใช้ในการวิเคราะห์ข้อมูลข่าวกรองชั้นความลับ ภาพถ่ายดาวเทียม และการสื่อสารในสมรภูมิ ในทางทฤษฎี ระบบนี้สามารถย่อยข้อมูลทางทหารจำนวนมหาศาลและนำเสนอคำแนะนำที่นำไปปฏิบัติได้จริง รวดเร็วกว่านักวิเคราะห์ที่เป็นมนุษย์ซึ่งทำงานผ่านช่องทางดั้งเดิม
การเปิดเผยนี้เป็นที่น่าจับตามองอย่างยิ่ง เมื่อพิจารณาจากจุดยืนต่อสาธารณะของ Anthropic ในฐานะบริษัท AI ที่ให้ความสำคัญกับความปลอดภัย แม้ว่าบริษัทสตาร์ทอัพแห่งนี้จะเน้นย้ำเรื่องการพัฒนา AI อย่างรับผิดชอบและป้องกันโมเดลจากการถูกนำไปใช้ในทางที่ผิด แต่บันทึกของเพนตากอนกลับแสดงให้เห็นว่าผลิตภัณฑ์หลักของบริษัทกำลังถูกใช้เพื่อวิเคราะห์ข่าวกรองทางทหารและมีส่วนร่วมในสถานการณ์วางแผนการรบ ยังไม่ชัดเจนว่า Anthropic ได้อนุญาตการรวมระบบนี้โดยตรง หรือ Palantir เข้าถึง Claude ผ่านช่องทาง API เชิงพาณิชย์ทั่วไป
นี่ไม่ใช่ก้าวแรกของ Palantir ในด้านการป้องกันประเทศที่ใช้ AI บริษัทใช้เวลาหลายปีในการสร้างแพลตฟอร์ม Gotham และ Foundry สำหรับหน่วยงานข่าวกรองและกองบัญชาการทหารทั่วโลก แต่การรวม LLM ระดับแนวหน้าถือเป็นพรมแดนใหม่ ซึ่งอินเทอร์เฟซ AI แบบสนทนาอาจเข้ามามีบทบาทในการกำหนดการตัดสินใจในสนามรบโดยมีการควบคุมจากมนุษย์น้อยลงเรื่อยๆ
สถานการณ์นี้ทำให้ Anthropic ตกอยู่ในตำแหน่งที่ลำบาก บริษัทระดมทุนได้มากกว่า 7 พันล้านดอลลาร์จากนักลงทุนรวมถึง Google และ Salesforce โดยวางภาพลักษณ์ตนเองเป็นขั้วตรงข้ามกับการพัฒนา AI ที่ก้าวร้าวเกินไป ผู้ร่วมก่อตั้งอย่าง Dario และ Daniela Amodei ได้ย้ำหลายครั้งถึงความสำคัญของการวิจัยความปลอดภัยของ AI และหลักการ "AI เชิงรัฐธรรมนูญ" (Constitutional AI) ที่ออกแบบมาเพื่อให้โมเดลสอดคล้องกับคุณค่าของมนุษย์
ทว่าในโลกความเป็นจริง โมเดล AI เชิงพาณิชย์ไม่ได้จำกัดอยู่แค่ในสภาพแวดล้อมที่ควบคุมได้ เมื่อปล่อยผ่าน API หรือบริการคลาวด์แล้ว บริษัทผู้พัฒนาก็แทบจะมองไม่เห็นการนำไปใช้งานในปลายน้ำ การรวมระบบของ Palantir บ่งชี้ว่าแม้แต่ห้องปฏิบัติการ AI ที่คำนึงถึงความปลอดภัยที่สุด ก็อาจพบว่าเทคโนโลยีของตนถูกนำไปใช้ในงานทางทหารผ่านบริษัทคู่สัญญาที่มีความสัมพันธ์กับเพนตากอน
อุตสาหกรรมป้องกันประเทศเร่งนำ Generative AI มาใช้ตั้งแต่การแจ้งเกิดของ ChatGPT โดย Microsoft ให้บริการเครื่องมือ AI แก่ลูกค้าด้านกลาโหมผ่าน Azure Government cloud ด้าน Google ก็เคยเผชิญกับการประท้วงจากพนักงานเกี่ยวกับโครงการ Project Maven จนต้องลดระดับงาน AI ทางทหารโดยตรงลง ส่วน Amazon Web Services (AWS) ก็เป็นขุมพลังให้ระบบข่าวกรองชั้นความลับ และตอนนี้ Palantir กำลังแสดงให้เห็นว่าโมเดลเชิงพาณิชย์เหล่านี้สามารถส่งผลกระทบโดยตรงต่อการตัดสินใจในการสู้รบได้อย่างไร
ความสนใจของเพนตากอนในการใช้ AI สนับสนุนการตัดสินใจไม่ใช่เรื่องน่าแปลกใจ สงครามสมัยใหม่สร้างข้อมูลจำนวนมหาศาลจากโดรน ดาวเทียม การสกัดกั้นสัญญาณ และเซ็นเซอร์ภาคพื้นดิน นักวิเคราะห์ที่เป็นมนุษย์ต้องดิ้นรนเพื่อประมวลผลข้อมูลทั้งหมดให้ทันเวลาต่อภัยคุกคามที่เคลื่อนที่อย่างรวดเร็ว ระบบ AI สัญญาว่าจะบีบวงจรการตัดสินใจนั้นให้สั้นลง โดยระบุรูปแบบและแนะนำการตอบโต้ก่อนที่ฝ่ายตรงข้ามจะทันขยับตัว
แต่ความเร็วนี้มาพร้อมกับความเสี่ยง โมเดล AI สามารถเกิดอาการ "หลอน" (hallucinate) สร้างข้อมูลเท็จ ตีความบริบทผิด หรือสะท้อนอคติในข้อมูลที่ใช้ฝึก ในแอปพลิเคชันสำหรับผู้บริโภค ข้อผิดพลาดเหล่านี้อาจก่อความรำคาญ แต่ในบริบททางทหาร อาจนำไปสู่การยกระดับความรุนแรงโดยไม่เจตนาหรือการระบุเป้าหมายผิดพลาด การสาธิตไม่ได้เปิดเผยว่า Palantir สร้างระบบป้องกันความปลอดภัยรอบคำแนะนำของ Claude ไว้อย่างไร หรือผู้บัญชาการที่เป็นมนุษย์ยังคงมีอำนาจการควบคุมที่มีความหมายอยู่หรือไม่
การเปิดเผยนี้ยังตอกย้ำถึงเส้นแบ่งที่เลือนลางระหว่างการพัฒนา AI เชิงพาณิชย์และการนำไปใช้ในทางทหาร Anthropic สร้าง Claude ขึ้นมาเพื่อการใช้งานเชิงพาณิชย์ในวงกว้าง ไม่ใช่เพื่อการประจำการในสมรภูมิ ทว่าความสามารถเดียวกับที่ทำให้มันมีประโยชน์ในงานบริการลูกค้าหรือการช่วยเขียนโค้ด เช่น ความเข้าใจภาษาธรรมชาติ การใช้เหตุผล และการสังเคราะห์ข้อมูลอย่างรวดเร็ว กลับสามารถนำไปปรับใช้กับการวิเคราะห์ข่าวกรองทางทหารได้โดยตรง
ปัญหา "การใช้งานสองทาง" (Dual-use dilemma) นี้จะทวีความรุนแรงขึ้นเมื่อโมเดล AI มีความสามารถมากขึ้น ทุกความก้าวหน้าในการใช้เหตุผล ความเข้าใจสื่อผสม (multimodal) หรือการทำงานอัตโนมัติ ล้วนมีการใช้งานทั้งในภาคพลเรือนและทหาร ห้องปฏิบัติการ AI ต้องเผชิญกับแรงกดดันมหาศาลในการควบคุมการใช้งานปลายน้ำ ในขณะที่ต้องรักษาการเข้าถึงเชิงพาณิชย์แบบเปิดซึ่งเป็นแหล่งเงินทุนสำหรับการวิจัยของพวกเขา
การสำรวจการวางแผนสงครามด้วย AI ของเพนตากอนผ่าน Palantir และ Claude ของ Anthropic ถือเป็นจุดเปลี่ยนสำคัญในการยอมรับ AI ทางทหาร เทคโนโลยีที่เริ่มต้นจากแชตบอตเชิงพาณิชย์กำลังถูกทดสอบเพื่อใช้ในการตัดสินใจที่มีความเสี่ยงสูงที่สุดของมนุษย์ ในขณะที่บริษัทคู่สัญญาด้านกลาโหมเร่งนำ LLM เข้าสู่ระบบสนามรบ อุตสาหกรรมนี้ต้องเผชิญกับคำถามเร่งด่วนเกี่ยวกับอิสระในการตัดสินใจ ความรับผิดรับชอบ และการที่ "รั้วกั้นความปลอดภัย" (guardrails) ที่สร้างขึ้นสำหรับผู้บริโภคจะสามารถรับแรงกระแทกในเขตสู้รบได้หรือไม่ การสาธิตอาจทำให้เหล่านักวางแผนของเพนตากอนประทับใจ แต่มันก็ฉายภาพให้เห็นว่า AI เชิงพาณิชย์หลุดออกจากขอบเขตที่ตั้งใจไว้ได้รวดเร็วเพียงใด และเรายังขาดความพร้อมเพียงใดสำหรับผลลัพธ์ที่จะตามมา