ปัญญาประดิษฐ์ในรอยเท้าของโครงการแมนฮัตตัน: แผ่นดินที่เสื่อมโทรมไม่เคยหายไปไหน? | นภควัฒน์ วันชัย

ปัญญาประดิษฐ์ในรอยเท้าของโครงการแมนฮัตตัน: แผ่นดินที่เสื่อมโทรมไม่เคยหายไปไหน? | นภควัฒน์ วันชัย

วันที่นำเข้าข้อมูล 1 Apr 2026

วันที่ปรับปรุงข้อมูล 1 Apr 2026

| 35 view
วิเทศปริทัศน์_(JPG)

No. 3/2569 | เมษายน 2569

ปัญญาประดิษฐ์ในรอยเท้าของโครงการแมนฮัตตัน: แผ่นดินที่เสื่อมโทรมไม่เคยหายไปไหน?
นภควัฒน์ วันชัย* 

(Download .pdf below)

 

 

        เมื่อวันที่ 6 มีนาคม ค.ศ. 2026 Kirsten Davies ประธานเจ้าหน้าที่สารสนเทศ (Chief Information Officer) ของกระทรวงกลาโหม ออกแถลงการณ์กำหนดให้เทคโนโลยี AI จากบริษัท Anthropic, PBC ในโมเดลClaude อยู่ในกลุ่มที่มีความเสี่ยงต่อความมั่นคงในห่วงโซ่อุปทาน (Supply Chain Security Risk) สำหรับโครงสร้างพื้นฐานและเครือข่ายสารสนเทศของกระทรวงฯ มูลเหตุของแถลงการณ์มาจากการประเมินถึงมาตรฐานความปลอดภัย ซึ่งพบว่าแนวทางการบริหารจัดการของ Anthropic อาจก่อให้เกิดความเสี่ยงในระดับที่ยากจะยอมรับได้ในระบบการใช้งานที่มีความสำคัญ รวมไปถึงความกังวลว่าข้อกำหนดบางประการอาจนำไปสู่ช่องโหว่เชิงระบบ ซึ่งอาจนำไปสู่การใช้ประโยชน์โดยฝ่ายตรงข้ามผ่านกระบวนการที่แฝงมากับตัวฮาร์ดแวร์ ซอฟต์แวร์ หรือบริการเสริมจากผู้ให้บริการภายนอก บริบทของแถลงการณ์ มีพื้นฐานมาจากความแตกต่างเกี่ยวกับมุมมองและแนวทางนโยบายระหว่างบริษัท Anthropic กับแนวทางการบริหารของรัฐบาล Trump 2.0 ซึ่งทางบริษัท Anthropic ยึดแนวทางในหลักการจำกัดการใช้โมเดล Claude ในภารกิจด้านการสอดแนมพลเมืองชาวอเมริกัน หรือปฏิบัติการทางการทหาร นี้คือการธำรงไว้ซึ่งบรรทัดฐานจริยธรรมขององค์กร ในทางกลับกัน การตัดสินใจของกระทรวงฯ ยังสะท้อนถึงการให้ความสำคัญการเลือกบริษัทที่มีแนวทางสอดรับกับยุทธศาสตร์ความมั่นคงแห่งชาติมากกว่า เช่น การที่บริษัท OpenAI บรรลุข้อตกลงความร่วมมืออย่างเป็นทางการกับกระทรวงฯ[1] โดยประเด็นดังกล่าวยังไม่มีข้อสรุปแน่ชัดถึงข้อปฏิบัติทางกฎหมายที่เกี่ยวข้องหรือการพิจารณาตามรัฐธรรมนูญของสหรัฐอเมริกา หรือเส้นแบ่งทางจริยธรรมที่ชัดเจน แต่ประเด็นที่สำคัญของเรื่องเหล่านี้กลับสะท้อนถึงรากเหง้าบางประการในช่วงเวลาที่สหรัฐอเมริกาแข่งขันกับเยอรมนี ความกลัวว่าหากเยอรมนีสร้างนิวเคลียร์สำเร็จก่อน โลกจะจบสิ้น และสหรัฐอเมริกาจะแพ้สงคราม

          แม้มีความแตกต่างในช่วงเวลาแต่ความกลัวของการแข่งขันไม่เคยเปลี่ยนแปลง การแข่งขันระหว่างสหรัฐอเมริกากับสาธารณรัฐประชาชนจีนในเรื่อง AI ก็ไม่พ้นเรื่องเหล่านี้ ความกังวลด้านความมั่นคง ทำให้สองฝ่ายเร่งรัดการพัฒนา ลงทุนในทรัพยากร อาศัยโครงสร้างงบประมาณที่มหาศาล แต่นั้นก็ไม่ได้มีความแตกต่างการพัฒนาในอดีตจากโครงการแมนฮัตตัน แม้ภายหลังสงครามโลกพลังงานนิวเคลียร์จะใช้ในเชิงพลเรือนเพื่อประโยชน์หลังสงคราม แต่โลกช่วงสงครามเย็นอาวุธนิวเคลียร์ก็ให้ความรู้สึกที่กลัวการโจมตี การสะสมอาวุธ และการทดสอบจึงตามมา สำหรับ AI ก็ไม่ได้แตกต่างในยุคดังกล่าวโดยเฉพาะในเชิงจริยธรรมและศีลธรรม

          การทบทวนและการพิจารณาถึงข้อถกเถียงไม่ว่าจะเป็นเชิงจริยธรรม ความมั่นคง และเป้าหมายทางการทหารจึง “จำเป็น” เพราะหากเราตีความว่าการพัฒนาด้าน AI เป็นการแข่งขันด้านอาวุธหรือการบรรลุเป้าหมายว่าการพัฒนา AI หมายถึงการเป็นผู้เล่นที่ชนะทุกอย่างอาจนำไปสู่ความเสี่ยงที่ย้อนกลับไม่ได้ Yoshua Bengio เป็นผู้บุกเบิกทางเทคนิคสมัยใหม่ด้าน AI ซึ่งไม่เห็นด้วยกับมุมมองการพัฒนา AI เป็นการแข่งขัน แม้เราสามารถเข้าร่วมเกมการแข่งขันได้ แต่สำหรับนักวิทยาศาสตร์อย่าง Bengio การพัฒนา AI ควรเป็นไปในลักษณะผลประโยชน์ส่วนร่วมและความเป็นอยู่ของผู้คน[2] อย่างไรก็ตาม การพัฒนา AI ก็ไม่ได้มีความเห็นที่ลงรอยกัน โดยเฉพาะความเห็นระหว่างนักวิทยาศาสตร์ เจ้าหน้าที่ฝ่ายความมั่นคง กองทัพ หรือบริษัทเอกชน นี้จึงเป็นสิ่งที่ไม่ได้แตกต่างเลยกับการทำโครงการแมนฮัตตัน และ AI คือรอยเท้าของโครงการแมนฮัตตัน

          ในระหว่างที่โครงการแมนฮัตตันดำเนินไป นักวิทยาศาสตร์ในโครงการเริ่มมีข้อกังวลถึงจริยธรรม เมื่อสงครามในยุโรปใกล้สิ้นสุดลง Robert Wilson นักฟิสิกส์ทดลอง ได้จัดประชุมภายใต้หัวข้อผลกระทบของอุปกรณ์ต่ออารยธรรม (The Impact of the Gadget on Civilization) ในช่วงปลาย ค.ศ. 1944 เพื่อหารือว่าทำไมพวกเขาถึงยังสร้างระเบิดอยู่ทั้งที่สงครามใกล้ชนะแล้ว J. Robert Oppenheimer ก็ได้เข้าร่วมประชุม และได้แสดงทัศนะว่า “โลกต้องได้รับรู้เกี่ยวกับอาวุธนี้” เพื่อไม่ให้มันกลายเป็นความลับทางการทหาร ขณะเดียวกัน Leo Szilard และนักวิทยาศาสตร์กว่า 155 คนได้ลงนามในคำร้องเรียกร้องให้ประธานาธิบดี Harry S. Truman แจ้งเงื่อนไขการยอมจำนนต่อญี่ปุ่นอย่างชัดเจนก่อนใช้ระเบิด หรือเลือกใช้วิธีสาธิตพลังของระเบิดแทนการทิ้งลงในเขตเมือง ในส่วนของ Oppenheimer แสดงท่าทีไม่เห็นด้วยกับคำร้องของ Szilard โดยให้เหตุผลว่านักวิทยาศาสตร์ไม่มีสิทธิ์มีเสียงในการตัดสินใจเรื่องทางทหารมากกว่าคนอื่น สำหรับฝ่ายความมั่นคงพลเอก Leslie Groves มองว่าการใช้ระเบิดโดยไม่เตือนล่วงหน้าต่อเป้าหมายพลเรือนเป็นสิ่งที่ต้องทำเพื่อให้เกิดแรงช็อกสูงสุดต่อรัฐบาลญี่ปุ่น

          อย่างไรก็ตาม แม้ในช่วงแรก Oppenheimer รู้สึกยินดีในการดำเนินการโครงการเสร็จสิ้นภายหลัง การทดลองทรีนิตี (Trinity Test) แต่จุดเปลี่ยนที่สำคัญเมื่อ Kenneth Bainbridge กล่าวกับเขาว่า “ตอนนี้พวกเรากลายเป็นคนบาปกันหมดแล้ว” (Now we're all sons-of-bitches) ซึ่ง Oppenheimer เองเริ่มแสดงความรู้สึกผิดหลังการทดลองทรีนิตี ด้วยเหตุนี้ ไม่ว่าจะเป็นมุมมองใดต่อความก้าวหน้าในสิ่งที่มนุษย์เป็นผู้สร้าง โครงการนี้ก็นับเป็นตัวแทนของความก้าวหน้าทางวิทยาศาสตร์แต่มันก็มาพร้อมกับวิกฤตทางจริยธรรมที่ไม่อาจหลีกได้ Oppenheimer จึงเปรียบเสมือนโปรมีธีอุสแห่งอเมริกา (Prometheus) เทพปกรณัมกรีกที่ขโมยไฟจากเขาโอลิมปัสมามอบให้แก่มนุษย์ที่มาพร้อมกับความอบอุ่นและการสร้างสรรค์ แต่ในขณะเดียวกันมันก็สามารถเผาผลาญและทำลายล้างได้ แต่ก็โดนลงโทษอย่างโหดเหี้ยมด้วยการล่ามโซ่ไว้กับเทือกเขาคอเคซัส

          เปรียบได้ดังที่ Oppenheimer นำความรู้ เทคโนโลยี และอารยธรรมที่ทำให้มนุษย์สามารถยืนหยัดได้ด้วยตนเองแต่ผลของมันคือการทำลายล้างเมืองเมืองฮิโรชิมาและนางาซากิ หลังจบสงคราม Oppenheimer คัดค้านการพัฒนาระเบิดไฮโดรเจน (H-bomb) และเรียกร้องให้มีการควบคุมอาวุธนิวเคลียร์ระดับสากล แต่กลับโดนตราหน้าว่าเป็นภัยต่อความมั่นคง เมื่อ ค.ศ. 1954 ยังโดนไต่สวนในคดีความมั่นคง ซึ่งก็เปรียบเสมือนการโดนล่ามโซ่และทำลายชื่อเสียงต่อหน้าสาธารณชน อีกทั้งยังโดนถอนสิทธิการเข้าถึงความลับทางราชการและทำให้กลายเป็นคนนอกในวงการที่ Oppenheimer เคยเป็นผู้นำ[3]

          ดังนั้น โครงการแมนฮัตตันในตอนนั้นจนถึงการพัฒนา AI ในตอนนี้ ไม่ได้มีความแตกต่างในเชิงหลักการแม้แต่น้อยโดยเฉพาะประเด็นทางศีลธรรมและจริยธรรม การที่บริษัทเอกชนด้าน AI ห้ามไม่ให้ใช้เชิงการทหารหลังจากที่ตนสร้างมันขึ้นมา ก็ไม่ได้แตกต่างอะไรกับช่วงเวลาที่ข้อถกเถียงในการนำอาวุธนิวเคลียร์ระเบิดใส่ญี่ปุ่น

          หากพิจารณาถึงการพัฒนา AI เพื่อการแข่งขันของมหาอำนาจหรือการวนเวียนอยู่กับวาทกรรมเพื่อการแข่งขันไม่ว่าจะเป็นฝ่ายใดนี้คือหนทางที่เปรียบได้ใน The Waste Land (1922) ผลงานของ T.S. Eliot ที่ให้ภาพสะท้อนถึงช่วงเวลาที่โลกตะวันตกกำลังเผชิญกับภาวะทางจิตวิญญาณหลังสงครามโลกครั้งที่ 1 สื่อถึงความแห้งแล้ง ฝุ่นผง และก้อนหิน ผู้คนกระหายน้ำแต่ไม่มีน้ำ และมนุษย์ในศตวรรษที่ 20 สูญเสียศรัทธาในศาสนาและคุณค่าทางจริยธรรมไปหมดสิ้น[4] การมุ่งมั่นการพัฒนา AI ในการทำสงครามจึงเปรียบได้กับการ “ละทิ้งศีลธรรม” ความเป็นมนุษย์ทิ้งไปที่เผชิญภาวะความไม่แน่นอนหรือความไม่แน่ใจถึงการนำมาใช้

          การละทิ้งศีลธรรมและจริยธรรมของการใช้ AI ในการทำสงครามของโลกตะวันตก หนีไม่พ้นเรื่องการสร้างเทคโนโลยีสงคราม เช่น การสร้างอาวุธสังหารอัตโนมัติ (Lethal Autonomous Weapons) ประเด็นของเรื่องนี้คือคำถามที่ว่าเราควรปล่อยให้เครื่องจักรตัดสินใจที่จะสังหารมนุษย์ได้หรือไม่ การตัดสินใจในเชิงศีลธรรมและรอยแยกการสร้างเทคโนโลยีสงครามสะท้อนได้จากกรณี Project Maven เริ่มต้นใน ค.ศ. 2017 โดย Bob Work รัฐมนตรีช่วยว่าการกระทรวงกลาโหม (Deputy Secretary of Defense: DepSecDef) ในขณะนั้น มีวัตถุประสงค์เพื่อนำ AI มาช่วยวิเคราะห์ข้อมูลวิดีโอจากโดรน แต่จำนวนของวิดีโอมีมากเกินกว่าที่มนุษย์จะตรวจสอบได้ กองทัพต้องการใช้ Computer Vision เพื่อตรวจจับวัตถุ 38 ประเภท เช่น รถยนต์และบุคคล เพื่อใช้ในการระบุตำแหน่งรถระเบิด (Car Bombs) ในอัฟกานิสถานและอิรัก อย่างไรก็ตาม AI มีปัญหาเรื่องความแม่นยำเมื่อเผชิญกับสภาพแวดล้อมจริงในสนามรบที่แตกต่างจากการใช้ข้อมูลในการฝึกฝน ทำให้พนักงานของ Google กว่า 3,000 คนลงนามประท้วงโดยระบุว่า “Google ไม่ควรอยู่ในธุรกิจสงคราม” จน Google ไม่ต่อสัญญากับโครงการ แต่บริษัทอื่นอย่าง Clarifai โดย Matt Zeiler ยังคงเดินหน้าต่อ แม้จะโดนประท้วงจากพนักงานอย่าง Liz O'Sullivan ที่กังวลว่าเทคโนโลยีที่ยังไม่เสถียรอาจนำไปสู่ความผิดพลาดที่ทำให้มีผู้เสียชีวิต

          ด้วยเหตุนี้ เพื่อให้ยังคงศีลธรรมและจริยธรรมของการใช้ AI ในการทำสงครามหรือในมิติอื่น ๆ จำเป็นต้องให้มนุษย์เป็นผู้ควบคุมและกำหนดทิศทางของเทคโนโลยี แม้ AI จะมีความสามารถในการประมวลผลเหนือมนุษย์ในหลายด้านแต่เราไม่ควรปล่อยให้ AI ทำงานโดยปราศจากมนุษย์จากค่านิยมที่มนุษย์เป็นผู้กำกับ การตัดสินใจขั้นพื้นฐานคือรัฐบาลควรจำกัดไว้ที่การบริหารและกำกับดูแลโดยมนุษย์ หรือในแง่ของความรับผิดชอบ หาก AI ทำงานผิดพลาดหรือก่อให้เกิดความเสียหาย คำถามเชิงศีลธรรมคือใครจะเป็นผู้รับผิดชอบ ดังนั้น การให้มนุษย์อยู่ในกระบวนการตัดสินใจจึงจำเป็นเพื่อให้แน่ใจว่ายังมีตัวแทนทางศีลธรรม (Moral Agency) เพราะหากปล่อยให้ AI ตัดสินใจสังหารชีวิตโดยปราศจากมนุษย์ จึงเป็นข้อท้าทายศักดิ์ศรีของมนุษย์ เมื่อเผชิญกับภาวะทางศีลธรรม “นานาชาติ” ต้องร่วมกำหนด “เส้นแดง” ในกรอบการควบคุมอาวุธที่ใช้ AI เพื่อป้องกันการขยายตัวของความขัดแย้งที่การทูตไม่สามารถยับยั้งได้[5] เช่น หากเทคโนโลยีพัฒนาไปถึงจุดหนึ่ง AI จะกลายเป็นสิ่งที่ผลิตได้ในปริมาณมาก และมีราคาถูกจนทุกคนสามารถเข้าถึงได้ เมื่อเข้าราคาถูกลงและเข้าถึงได้ง่าย AI จะไหลเข้าสู่ตลาดมืดได้ง่าย ซึ่งจะตกไปอยู่ในมือของกลุ่มผู้ก่อการร้าย เผด็จการที่ต้องการควบคุมประชาชน หรือขุนศึกที่ต้องการล้างเผ่าพันธุ์

          ความพยายามในการควบคุม AI สะท้อนได้จากการประชุม The Future of AI: Opportunities and Challenges เมื่อเดือนมกราคม ค.ศ. 2015 ณ เมืองซานฮวน เปอร์โตริโก ของสถาบัน Future of Life Institute (FLI) โดย Max Tegmark เป็นผู้ก่อตั้ง เพื่อควบคุม AI ให้เป็นมาตรฐานร่วมกัน ผลจากการประชุม คือ การร่างจดหมายเปิดผนึก Research Priorities for Robust and Beneficial Artificial Intelligence เพื่อให้ AI ได้พัฒนาให้ตรงกับเป้าหมายของมนุษย์ ซึ่งมีผู้ลงนามมากกว่า 3,000 คนในเวลานั้น ผู้ลงนามส่วนใหญ่เป็นนักวิทยาศาสตร์และนักวิจัยด้าน AI เป้าหมายของการลงนามคือไม่ต้องการให้สาขาวิชาตนนำไปสร้างเป็นเครื่องมือทำลายมนุษย์ และความกังวลของพวกเขาว่าหากเกิดโศกนาฏกรรมจากอาวุธ AI จะทำให้สังคมต่อต้านและขัดขวางการพัฒนา AI ในด้านที่เป็นประโยชน์[6] หากพิจารณาถึงเนื้อหามาถึงตรงนี้ สังเกตได้ว่าการลงนามเพื่อควบคุมการใช้ AI เป็นอาวุธสงครามเปรียบได้ดังที่นักวิทยาศาสตร์ในอดีตลงนามควบคุมการใช้อาวุธนิวเคลียร์ ซึ่งคำถามในเชิงศีลธรรมยังคงอยู่

          ทั้งนี้ การห้ามใช้อาวุธ AI จะทำได้ยากเพราะ AI มีลักษณะของการใช้งานแบบ Dual Use และกฎหมายไม่มีประสิทธิภาพในการห้ามอย่างเต็มที่ แต่ Tegmark กลับมองว่าข้อเสนอให้การมีกฎหมายสากลหรือสนธิสัญญาสากลจะช่วยสร้าง “บรรทัดฐานทางสังคม” ได้ หากมีออกกฎหมายระดับสากลแล้ว บริษัทเทคโนโลยีเอกชนขนาดใหญ่หรือแม้แต่รัฐบาลคงไม่เสี่ยงในการทำลายชื่อเสียง

          ไทยในฐานะรัฐขนาดกลางจึงมีโอกาสที่จะแสดงบทบาทผ่านการส่งเสริมบรรทัดฐานดังกล่าว โดยใช้กลไกความร่วมมือระหว่างประเทศที่มีอยู่เดิมเป็นฐาน ซึ่งสามารถขยายขอบเขตไปสู่มิติทางเทคโนโลยี เช่น การคุ้มครองสิทธิมนุษยชนในยุค AI ความโปร่งใสและระบบธรรมาภิบาลในการกำกับดูแล AI หรือ การยึดถือคุณค่าประชาธิปไตยและหลักจริยธรรมในการสงคราม โดยการดำเนินการดังกล่าวสามารถริเริ่มได้จากภายในประเทศ ควบคู่ไปกับการขับเคลื่อนในประชาคมโลก เพื่อส่งเสริมภาพลักษณ์ของไทยในฐานะรัฐที่มีความรับผิดชอบ ตระหนักถึงมิติด้านจริยธรรมควบคู่ไปกับความมั่นคง ซึ่งจะช่วยยกระดับสถานะและบทบาทของไทยบนเวทีโลกได้

          การที่เปรียบเทียบกับบทกวี The Waste Land หรือแปลเป็นไทย “แผ่นดินที่เสื่อมโทรม” ก็เพื่อให้เราตระหนักถึงบทเรียนทางประวัติศาสตร์ เรียนรู้จากภาวะทางศีลธรรมหรือความรู้สึกของมนุษย์ในศตวรรษที่ 20 โดยเฉพาะเมื่อเผชิญกับความไม่แน่นอน ดังนั้น เพื่อให้มนุษย์ยังคงรักษาสันติภาพร่วมกันและลดผลกระทบความขัดแย้งจึงเป็นหมุดหมายที่ดีสำหรับการแสดงบทบาทนำเพื่อบ่งบอกว่าไทยมีความพร้อมในการมีส่วนร่วมสำหรับการกำหนดบรรทัดฐานด้าน AI ในอนาคต

 

 

 

[1] Michael Kaplan, Jo Ling Kent, Emily Pandise, Eleanor Watson, “Internal Pentagon memo orders military commanders to remove Anthropic AI technology from key systems,” CBS NEWS, https://www.cbsnews.com/news/pentagon-ai-anthropic-memo-remove-from-key-systems/.

[2] New America, “Problem 1: “Arms Race” Framing is Winner-Takes-All,” https://www.newamerica.org/insights/essay-reframing-the-us-china-ai-arms-race/problem-1-arms-race-framing-is-winner-takes-all/.

[3] รายละเอียดความเห็นของนักวิทยาศาสตร์ ฝ่ายความมั่นคง และการดำเนินโครงการแมนฮัตตัน ดูรายละเอียดเพิ่มเติมใน Kai Bird and Martin J. Sherwin, American Prometheus: The Triumph and Tragedy of J. Robert Oppenheimer (New York: Vintage Books, 2005).

[4] โปรดดูการตีความใน David E. Chinitz, ed., A Companion to T. S. Eliot (Chichester, UK: Wiley-Blackwell, 2009).

[5] Henry A. Kissinger, Eric Schmidt, and Daniel Huttenlocher, The Age of AI: And Our Human Future (London: John Murray, 2021).

[6] Max Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence (New York: Knopf, 2017).

 

 

[*] นักวิจัยผู้ช่วย ศูนย์ศึกษาการต่างประเทศ (ISC)

 

Documents

3-2569_Apr2026_ปัญญาประดิษฐ์ในรอยเท้าของโครงการแมนฮัตตัน_นภควัฒน์_วันชัย.pdf