วิวัฒนาการปัญญาประดิษฐ์กับมาตรการควบคุม

วิวัฒนาการปัญญาประดิษฐ์กับมาตรการควบคุม
กรณีศึกษา: Anthropic และเส้นแดงที่โลกยังไม่พร้อมขีด
ศาสตราจารย์ พลโท ดร.สมชาย วิรุฬหผล
บทนำ: เมื่อเครื่องจักรเริ่มคิดได้
ในช่วงเวลาไม่ถึงทศวรรษที่ผ่านมา ปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ได้เปลี่ยนโฉมหน้าจากเทคโนโลยีเฉพาะทางในห้องวิจัยมหาวิทยาลัย กลายเป็นโครงสร้างพื้นฐานที่แทรกซึมอยู่ในชีวิตประจำวันของมนุษยชาติ ทั้งในรูปแบบของผู้ช่วยส่วนตัว ระบบแนะนำเนื้อหา เครื่องมือสร้างสรรค์งาน ไปจนถึงการตัดสินใจเชิงยุทธศาสตร์ระดับรัฐ
การพัฒนาอย่างก้าวกระโดดนี้ก่อให้เกิดคำถามพื้นฐานที่สังคมโลกยังไม่มีคำตอบที่ชัดเจน: ใครควรมีอำนาจกำหนดทิศทางการใช้งาน AI? บริษัทเอกชนผู้สร้าง รัฐบาลผู้ควบคุม หรือสังคมโดยรวมผู้ได้รับผลกระทบ?
ความขัดแย้งระหว่าง Anthropic กับกระทรวงกลาโหมสหรัฐฯ (เพนตากอน) ที่ปะทุขึ้นในปี 2568-2569 ไม่เพียงเป็นข้อพิพาทเชิงพาณิชย์ระหว่างบริษัทเทคโนโลยีกับรัฐบาล แต่เป็นกรณีศึกษาอันทรงคุณค่าที่สะท้อนถึงความตึงเครียดเชิงโครงสร้างระหว่างนวัตกรรม ความปลอดภัย และอำนาจรัฐในยุค AI
วิวัฒนาการของ AI: จากกฎง่ายสู่ระบบที่ตัดสินใจเอง
ยุคที่หนึ่ง: AI แบบกฎตายตัว (Rule-Based AI)
AI รุ่นแรกทำงานบนพื้นฐานของกฎที่มนุษย์กำหนดไว้ล่วงหน้าทุกขั้นตอน เช่น ระบบผู้เชี่ยวชาญ (Expert Systems) ในทศวรรษ 1980 ที่ถ่ายทอดความรู้ของผู้เชี่ยวชาญในรูปแบบ if-then ข้อจำกัดคือระบบทำได้เฉพาะสิ่งที่ถูกสั่งไว้เท่านั้น ไม่สามารถปรับตัวหรือเรียนรู้ได้
ยุคที่สอง: Machine Learning และการเรียนรู้จากข้อมูล
การปฏิวัติครั้งแรกเกิดขึ้นเมื่อ AI เริ่ม “เรียนรู้” จากข้อมูลแทนที่จะรับคำสั่งโดยตรง โมเดล Machine Learning สามารถค้นพบรูปแบบจากข้อมูลขนาดใหญ่ได้เอง เปิดประตูสู่การใช้งานที่หลากหลายตั้งแต่การตรวจจับสแปมไปจนถึงการวินิจฉัยโรคมะเร็ง
ยุคที่สาม: Deep Learning และการประมวลผลภาษา
การเกิดขึ้นของ Deep Learning โดยเฉพาะสถาปัตยกรรม Transformer ในปี 2560 เปิดยุคใหม่ของ AI ที่สามารถเข้าใจและสร้างภาษาธรรมชาติได้อย่างน่าทึ่ง ก่อให้เกิด Large Language Models (LLMs) อย่าง GPT, Claude และ Gemini ที่สามารถสนทนา วิเคราะห์ และสร้างสรรค์เนื้อหาได้ในระดับที่ใกล้เคียงมนุษย์
ยุคที่สี่: AI Agents และความสามารถในการกระทำ
ปัจจุบันเรากำลังเข้าสู่ยุคที่ AI ไม่ได้เพียงแค่ตอบคำถาม แต่สามารถวางแผนและลงมือปฏิบัติในโลกจริงได้ ระบบ AI Agent สามารถเชื่อมต่อกับเครื่องมือภายนอก ค้นหาข้อมูลบนอินเทอร์เน็ต ส่งอีเมล เขียนโค้ด และประสานงานกับ AI ระบบอื่น โดยมีมนุษย์ดูแลในระดับที่ลดน้อยลงเรื่อยๆ
มาตรการควบคุม AI: ช่องว่างระหว่างเทคโนโลยีและกฎหมาย
ปัญหาพื้นฐานของการกำกับดูแล AI คือ เทคโนโลยีพัฒนาเร็วกว่ากระบวนการนิติบัญญัติหลายเท่าตัว ในขณะที่รัฐสภาและหน่วยงานกำกับดูแลยังคงถกเถียงเรื่องนิยามและกรอบกฎหมาย บริษัทเทคโนโลยีได้ผ่านการพัฒนา AI ไปอีกหลายรุ่นแล้ว
ความพยายามระดับสากล
สหภาพยุโรปนำหน้าในด้านการออกกฎหมาย AI อย่างเป็นระบบด้วย EU AI Act ที่บังคับใช้ในปี 2567 โดยจัดประเภท AI ตามระดับความเสี่ยง ตั้งแต่ความเสี่ยงต่ำ (เช่น ตัวกรองสแปม) ไปจนถึงความเสี่ยงสูงที่ต้องผ่านกระบวนการตรวจสอบเข้มข้น
สหรัฐอเมริกาเลือกแนวทางที่หลวมกว่า โดยอาศัย Executive Order ของประธานาธิบดีไบเดนในปี 2566 เป็นกรอบหลัก แต่เมื่อทรัมป์กลับมา นโยบายดังกล่าวถูกยกเลิกและแทนที่ด้วยแนวทางที่เน้นการแข่งขันมากกว่าการกำกับดูแล
ช่องว่างที่เป็นอันตราย
ปัญหาสำคัญที่สุดคือการขาดฉันทามติระดับโลกว่าอะไรคือ “เส้นแดง” ที่ AI ไม่ควรถูกใช้ในการทำ ในขณะที่บางประเทศออกกฎหมายห้ามการใช้ AI สำหรับการจดจำใบหน้าในพื้นที่สาธารณะ ประเทศอื่นกลับใช้เทคโนโลยีเดียวกันนี้อย่างแพร่หลายโดยไม่มีการตรวจสอบ

กรณีศึกษา: Anthropic กับเพนตากอน
พื้นหลังของ Anthropic
Anthropic ก่อตั้งในปี 2564 โดย Dario Amodei, Daniela Amodei และทีมงานอดีต OpenAI ที่ออกมาเพราะความกังวลเรื่องความปลอดภัยของ AI บริษัทวางตัวเองในฐานะ “Safety-focused AI company” และพัฒนา Claude ซึ่งเป็น AI ผู้ช่วยที่ได้รับการออกแบบมาให้มีความปลอดภัยและความน่าเชื่อถือเป็นหัวใจสำคัญ
ต่างจากคู่แข่งรายอื่น Anthropic ลงทุนอย่างหนักในงานวิจัยด้าน AI Safety โดยพัฒนากรอบแนวคิด Constitutional AI ที่ฝึก Claude ให้มีหลักการและค่านิยมที่ชัดเจน ไม่ใช่เพียงแค่ทำตามคำสั่งทุกอย่างโดยไม่มีเงื่อนไข
สัญญาที่ก่อให้เกิดข้อพิพาท
เพนตากอนเข้าเจรจาสัญญามูลค่าสูงสุด 200 ล้านดอลลาร์กับ Anthropic เพื่อใช้งาน Claude สำหรับภารกิจทางทหารหลากหลายรูปแบบ อย่างไรก็ตาม เงื่อนไขที่เพนตากอนเสนอคือต้องการใช้ Claude “เพื่อวัตถุประสงค์ทางกฎหมายทุกรูปแบบ” โดยไม่มีข้อยกเว้น
Anthropic ปฏิเสธเงื่อนไขดังกล่าว โดยยืนยันว่าต้องมีการห้ามใช้ Claude ในสองกรณีหลัก ได้แก่ การเฝ้าระวังประชาชนอเมริกันเป็นวงกว้าง และการควบคุมระบบอาวุธอัตโนมัติเต็มรูปแบบที่ไม่มีมนุษย์ตัดสินใจในกระบวนการ
การตอบโต้ของเพนตากอน
เพนตากอนภายใต้การนำของรัฐมนตรีกลาโหม Pete Hegseth ตอบโต้ด้วยการประกาศยกเลิกสัญญาและตราหน้า Anthropic ว่าเป็น “supply chain risk” ซึ่งเป็นคำที่ปกติใช้กับบริษัทที่เป็นภัยคุกคามด้านความมั่นคง เช่น บริษัทที่มีความเชื่อมโยงกับรัฐบาลต่างประเทศที่เป็นปฏิปักษ์
การใช้คำนี้กับ Anthropic ถือเป็นเรื่องผิดปกติอย่างยิ่ง เพราะการที่ Anthropic ปฏิเสธที่จะให้ใช้ Claude โดยไม่มีข้อจำกัดนั้น ไม่ได้หมายความว่าบริษัทเป็นภัยต่อความมั่นคงของสหรัฐฯ แต่เป็นการกำหนดเงื่อนไขการใช้ผลิตภัณฑ์ที่บริษัทมีสิทธิ์ทำได้โดยชอบธรรม
ผลกระทบและนัยสำคัญ
ผลกระทบทันทีที่เกิดขึ้นคือ บริษัทใดก็ตามที่มีสัญญากับกองทัพสหรัฐฯ อาจต้องหลีกเลี่ยงการใช้บริการของ Anthropic เพื่อไม่ให้เกิดความเสี่ยง ซึ่งอาจส่งผลให้ฐานลูกค้าองค์กรของ Anthropic หดหายอย่างมีนัยสำคัญ
ในระยะยาว กรณีนี้ตั้งคำถามสำคัญว่า รัฐบาลมีอำนาจบังคับให้บริษัท AI ยอมรับการใช้งานเทคโนโลยีในแบบที่บริษัทเห็นว่าเป็นอันตรายต่อสาธารณะหรือไม่?
บทเรียนและข้อคิด
หนึ่ง: การควบคุม AI ไม่ใช่ทางเลือก แต่เป็นความจำเป็น
กรณี Anthropic-เพนตากอนแสดงให้เห็นว่าในสุญญากาศของกฎหมาย การตัดสินใจว่า AI จะถูกใช้อย่างไรจะตกอยู่ในมือของการเจรจาเชิงพาณิชย์ ซึ่งผลลัพธ์จะขึ้นอยู่กับอำนาจต่อรอง ไม่ใช่หลักจริยธรรม
สอง: “เส้นแดง” ต้องถูกกำหนดโดยสังคม ไม่ใช่บริษัทเดี่ยว
แม้ Anthropic จะอยู่ในจุดยืนที่ถูกต้องทางจริยธรรมในกรณีนี้ แต่การที่บริษัทเอกชนเพียงรายเดียวเป็นผู้กำหนดว่าอะไรคือการใช้งาน AI ที่ยอมรับได้นั้น ไม่ใช่โครงสร้างที่ยั่งยืน สังคมต้องพัฒนากระบวนการกำหนด “เส้นแดง” ที่มีความชอบธรรมทางประชาธิปไตย
สาม: ความเร็วของการพัฒนา AI เป็นตัวแปรที่อันตรายที่สุด
หากวันนี้เรายังถกเถียงกันว่าจะควบคุม AI รุ่นปัจจุบันอย่างไร ในขณะที่ AI รุ่นถัดไปกำลังถูกพัฒนาไปพร้อมกัน นั่นหมายความว่าช่องว่างระหว่างเทคโนโลยีและการกำกับดูแลจะขยายกว้างขึ้นเรื่อยๆ ไม่ใช่แคบลง
บทสรุป
วิวัฒนาการของ AI ดำเนินไปในอัตราที่สังคมยังไม่สามารถติดตามได้อย่างทัน กรณีของ Anthropic และเพนตากอนเป็นเพียงตัวอย่างเล็กๆ ของความตึงเครียดที่กำลังก่อตัวในระดับโลก ระหว่างศักยภาพอันมหาศาลของ AI กับความจำเป็นที่จะต้องมีกรอบควบคุมที่รัดกุม
สิ่งที่กรณีนี้สอนเราได้คือ การควบคุม AI ไม่ใช่เรื่องของการยับยั้งนวัตกรรม แต่เป็นเรื่องของการกำหนดทิศทางว่านวัตกรรมนั้นจะรับใช้ใคร เพื่อวัตถุประสงค์อะไร และภายใต้กฎเกณฑ์อะไร
หากสังคมไม่ร่วมกันตอบคำถามเหล่านี้อย่างจริงจัง คำตอบเหล่านั้นก็จะถูกตัดสินโดยอำนาจทางเทคนิคและทุน ซึ่งไม่จำเป็นต้องสอดคล้องกับประโยชน์สาธารณะเสมอไป





