Anthropic กล่าวหาบริษัท AI จีน 3 แห่ง ได้แก่ DeepSeek, Moonshot AI และ MiniMax ว่าใช้เทคนิค distillation attack เพื่อลอกเลียนโมเดล Claude โดยสร้างบัญชีปลอมกว่า 24,000 บัญชีและสร้างการโต้ตอบมากกว่า 16 ล้านครั้ง ขณะที่ OpenAI ก็เคยร้องเรียนเรื่องเดียวกันเมื่อต้นเดือนนี้
Anthropic ร่วมกับ OpenAI กล่าวหาบริษัท AI จีน 3 แห่ง ลอกโมเดลด้วยเทคนิค Distillation
ตามแถลงการณ์ของ Anthropic เมื่อวันจันทร์ที่ผ่านมา บริษัท AI จีนทั้ง 3 แห่ง คือ DeepSeek, Moonshot AI และ MiniMax ถูกกล่าวหาว่าลอกโมเดลโดยใช้เทคนิค distillation อย่างเป็นระบบ ส่ง prompts ที่ออกแบบมาเป็นพิเศษจำนวนมหาศาลเข้าสู่ Claude เพื่อฝึกโมเดลของตัวเอง

Distillation คืออะไร
Distillation เป็นเทคนิคที่โมเดล AI ขนาดเล็กสามารถเลียนแบบประสิทธิภาพของโมเดลขนาดใหญ่ที่ผ่านการฝึกมาแล้ว โดยการดึงความรู้จากโมเดลที่ฝึกดีกว่า เทคนิคนี้มีประโยชน์อย่างมากสำหรับทีมเล็ก ๆ ที่มีทรัพยากรจำกัด เพราะสามารถสร้างโมเดลที่มีประสิทธิภาพใกล้เคียงกับโมเดลใหญ่ได้ด้วยต้นทุนและเวลาที่น้อยกว่ามาก
วิธีการที่ใช้
แม้ Anthropic จะมีข้อจำกัดการใช้บริการที่ป้องกันการเข้าถึง Claude เชิงพาณิชย์จากจีน แต่บริษัททั้ง 3 แห่งถูกกล่าวหาว่าใช้บริการ Proxy เพื่อหลีกเลี่ยงข้อจำกัดเหล่านี้ ทำให้สามารถเข้าถึงเครือข่ายที่รันบัญชี Claude หลายหมื่นบัญชีพร้อมกันได้
กระบวนการทำงานเป็นดังนี้:
- สร้างบัญชี Claude ปลอมจำนวนมหาศาล (ประมาณ 24,000 บัญชี)
- ส่ง prompts ที่ออกแบบมาเป็นพิเศษเพื่อดึงความสามารถเฉพาะจากโมเดล
- เก็บคำตอบจาก Claude เป็นจำนวนมหาศาล (มากกว่า 16 ล้านคำตอบ)
- นำข้อมูลเหล่านี้ไปฝึกโมเดลจีนโดยตรง หรือใช้กระบวนการ Reinforcement learning (ลองผิดลองถูกด้วยตัวเอง)
ตัวเลขที่น่าตกใจ
Anthropic ประเมินว่าบริษัทจีนทั้ง 3 แห่งรวมกันสร้างการโต้ตอบกับ Claude มากกว่า 16 ล้านครั้ง จากบัญชีปลอมที่สร้างขึ้นประมาณ 24,000 บัญชี โดย:
- MiniMax เป็นบริษัทที่สร้าง traffic มากที่สุด ด้วยการโต้ตอบมากกว่า 13 ล้านครั้ง
- DeepSeek และ Moonshot AI แบ่งส่วนที่เหลืออีกประมาณ 3 ล้านครั้ง
ทั้ง 3 บริษัทยังไม่ได้ตอบกลับคำขอสัมภาษณ์จาก CNBC
OpenAI เคยเตือนแล้ว
Anthropic ไม่ใช่บริษัทอเมริกันแห่งแรกที่แสดงความกังวลเรื่องนี้ จากบริษัท AI จีน เมื่อต้นเดือน ก.พ. Sam Altman จาก OpenAI ได้ส่งจดหมายเปิดผนึกถึงนักกฎหมายสหรัฐ อ้างว่าพบหลักฐานกิจกรรมที่บ่งบอกว่า DeepSeek กำลังพยายาม distill โมเดล frontier ของ OpenAI และห้องปฏิบัติการอื่น ๆ ของสหรัฐ รวมถึงการใช้วิธีใหม่ที่ซ่อนเร้นมากขึ้น
OpenAI ได้ตั้งธงเตือนเรื่อง Distillation โดยบริษัทจีนมาตั้งแต่ต้นปีที่แล้ว เมื่อมีการเปิดตัว DeepSeek รุ่นแรกของจีน ซึ่งผู้ใช้พบว่าคล้ายกับ ChatGPT อย่างน่าตกใจ ตาม Financial Times ที่อ้างข้อมูลจากคนใน OpenAI

Distillation เป็นเรื่องปกติในอุตสาหกรรม AI
ประเด็นที่น่าสนใจคือ Distillation ไม่ใช่เทคนิคผิดปกติในอุตสาหกรรม AI แม้แต่ Anthropic เองก็ยอมรับในแถลงการณ์ว่า บริษัท AI มักทำ Distillation โมเดลของตัวเองเป็นประจำ เพื่อสร้างเวอร์ชันที่เล็กกว่า และถูกกว่า
ปัญหาจริงคืออะไร
Lia Raquel Neves ผู้ก่อตั้ง EITIC ซึ่งเป็นบริษัทที่ปรึกษาด้านจริยธรรม กล่าวว่าข้อกล่าวหาของ Anthropic น่าจะเกี่ยวกับการละเมิดข้อกำหนดการให้บริการมากกว่าการประพฤติมิชอบในอุตสาหกรรม
หากแม้แต่ Anthropic เองก็ยอมรับว่า Distillation เป็นการปฏิบัติที่ถูกต้องตามกฎหมาย และใช้กันอย่างแพร่หลาย ประเด็นหลักของความขัดแย้งจึงไม่ได้อยู่ที่เทคนิคเองเท่านั้น แต่อยู่ที่การเข้าถึงที่ถูกกล่าวหาว่าเป็นการฉ้อโกง, การละเมิดข้อกำหนดสัญญา และข้อจำกัดการเข้าถึง
ความได้เปรียบในการแข่งขัน
อย่างไรก็ตาม Anthropic แสดงความกังวลเกี่ยวกับความได้เปรียบในการแข่งขันที่บริษัทคู่แข่งจะได้รับ เพราะการปฏิบัตินี้สามารถใช้เพื่อรับความสามารถที่ทรงพลังจากห้องปฏิบัติการอื่น ๆ ในเวลาเพียงเสี้ยวหนึ่ง และด้วยต้นทุนเพียงเสี้ยวหนึ่ง เมื่อเทียบกับการพัฒนาขึ้นมาเองอย่างอิสระ
ความมั่นคงของชาติ หรือการรักษาผลประโยชน์ทางธุรกิจ?
ทั้ง Anthropic และ OpenAI ได้กำหนดกรอบ Distillation โดยบริษัทจีนเหล่านี้ว่าเป็นภัยคุกคามด้านความมั่นคงของชาติ
ภาษาที่ใช้
เช่นเดียวกับ OpenAI ที่อธิบายการปฏิบัติของ DeepSeek ว่าเป็น Ddversarial Distillation ซึ่ง Anthropic ก็ได้แสดงความกังวลเกี่ยวกับความเป็นไปได้ที่รัฐบาลเผด็จการอาจปรับใช้ Frontier AI สำหรับการโจมตีทางไซเบอร์, แคมเปญข้อมูลบิดเบือน และการเฝ้าระวังจำนวนมาก
สงครามของการเล่าเรื่อง
อย่างไรก็ตาม ยังไม่ชัดเจนว่าแถลงการณ์เหล่านี้สะท้อนความกังวลด้านความปลอดภัยที่แท้จริงมากเพียงใด เมื่อเทียบกับความปรารถนาที่จะรักษาความเป็นผู้นำในการแข่งขันของบริษัท AI อเมริกา ตามผู้เชี่ยวชาญ
Erik Cambria ศาสตราจารย์ด้าน AI จาก Nanyang Technological University ประเทศสิงคโปร์ กล่าวกับ CNBC ว่า เนื่องจากการยอมรับโดยทั่วไปของ Distillation ว่าเป็นการปฏิบัติที่ถูกต้องในอุตสาหกรรม AI เส้นแบ่งระหว่างการใช้งานที่ถูกต้องรวมทั้งการใช้ประโยชน์อย่างเป็นปรปักษ์มักจะไม่ชัดเจน
ความคล้ายคลึงที่น่าสนใจ
ผู้ใช้ออนไลน์บางคนรีบชี้ให้เห็นความคล้ายคลึงระหว่างข้อกล่าวหาของ Anthropic กับการใช้ Distillation ของ Anthropic เองในการฝึกโมเดลของตัวเอง
Anthropic ได้กำหนดกรอบ Compute Leadership ว่าเป็นความสำคัญด้านความมั่นคงของชาติมาโดยตลอด และสนับสนุนอย่างสม่ำเสมอให้มีการควบคุมการส่งออกชิป AI ขั้นสูงไปยังจีนให้เข้มงวดขึ้น ตาม Rui Ma จาก Tech Buzz China
ไม่ว่าจะเป็นการตั้งใจหรือไม่ การเล่าเรื่องของการถ่ายทอดความสามารถที่ผิดกฎหมายเสริมสร้างกรณีสำหรับข้อจำกัดชิปที่เข้มงวดยิ่งขึ้น
หลักฐานใหม่จากรัฐบาลสหรัฐฯ
ในวันเดียวกับที่ Anthropic ออกแถลงการณ์ Reuters รายงานว่าสหรัฐได้พบหลักฐานว่า DeepSeek ได้ฝึกโมเดล AI บนชิป Blackwell ของ Nvidia ซึ่งเป็นชิปเรือธงล่าสุด แม้จะมีการห้ามส่งออก ตามเจ้าหน้าที่อาวุโสที่ไม่ระบุชื่อ
รายงานดังกล่าวเพิ่มน้ำมันเข้าไฟในความกังวลจากรัฐบาลที่ดูเหมือนจะกังวลมากขึ้นเกี่ยวกับความก้าวหน้าอย่างรวดเร็วของจีนในอุตสาหกรรม AI โดยเฉพาะอย่างยิ่งเมื่อความได้เปรียบของจีนถูกกล่าวหาว่ามาจากการใช้ระบบที่พัฒนาโดยสหรัฐฯ
การตอบโต้ของสหรัฐฯ
เมื่อวันศุกร์ที่ผ่านมา ทำเนียบขาวประกาศการจัดตั้ง Peace Corps Tech Corps ซึ่งเป็นโครงการภายใน Peace Corps ที่มุ่งส่งเสริมผลประโยชน์ AI ของอเมริกาในต่างประเทศ และช่วยประเทศพันธมิตรในการนำระบบที่ทันสมัยมาใช้
สรุป
ข้อพิพาทระหว่าง Anthropic, OpenAI และบริษัท AI จีนเรื่อง Distillation เป็นประเด็นที่ซับซ้อน ซึ่งเกี่ยวข้องกับทั้งปัญหาทางกฎหมาย (การละเมิดข้อกำหนดการใช้บริการ), การแข่งขันทางธุรกิจ (การรักษาความได้เปรียบในตลาด) และความมั่นคงของชาติ (การป้องกันเทคโนโลยีที่ละเอียดอ่อน)
ในขณะที่ตัวเลข 16 ล้านการโต้ตอบและ 24,000 บัญชีปลอมดูน่าตกใจ แต่ก็ต้องตั้งคำถามว่า Distillation ที่กระทำโดยบริษัทจีนแตกต่างจากการปฏิบัติมาตรฐานในอุตสาหกรรมอย่างไร และแถลงการณ์เหล่านี้เป็นเพียงการป้องกันความปลอดภัย หรือ เป็นส่วนหนึ่งของยุทธศาสตร์ที่กว้างขึ้นในการรักษาความเป็นผู้นำทางเทคโนโลยีของสหรัฐฯ
ที่มา: CNBC
