Anthropic ჩინურ AI ლაბორატორიებს Claude-ის მონაცემების მითვისებაში ადანაშაულებს: დებატები ჩიპების ექსპორტზე მწვავდება
Anthropic ჩინურ კომპანიებს Claude-ის მოდელიდან მონაცემების უკანონო მოპოვებაში ადანაშაულებს, რაც აშშ-ში AI ჩიპების ექსპორტის კონტროლის შესახებ დებატებს კიდევ უფრო ამწვავებს.

ხელოვნური ინტელექტის სფეროში მოღვაწე კომპანია Anthropic სამ ჩინურ AI ლაბორატორიას ადანაშაულებს 24,000-ზე მეტი ყალბი ანგარიშის შექმნაში, რომელთა მეშვეობითაც ისინი საკუთარი მოდელების გასაუმჯობესებლად Claude-ის მონაცემებს მოიპოვებდნენ. ბრალდების თანახმად, კომპანიებმა — DeepSeek, Moonshot AI და MiniMax — Claude-თან 16 მილიონზე მეტი ინტერაქცია განახორციელეს ე.წ. „დისტილაციის“ (distillation) ტექნიკის გამოყენებით.
Anthropic-ის განცხადებით, ჩინური ლაბორატორიების სამიზნე Claude-ის ყველაზე გამორჩეული შესაძლებლობები იყო: აგენტური მსჯელობა (agentic reasoning), ხელსაწყოების გამოყენება და პროგრამული კოდის წერა. ეს ბრალდებები აშშ-ში მიმდინარე იმ მწვავე დებატების ფონზე გაჟღერდა, რომელიც მოწინავე AI ჩიპების ექსპორტზე კონტროლის გამკაცრებას ეხება. აღნიშნული პოლიტიკის მიზანი ჩინეთის ხელოვნური ინტელექტის განვითარების ტემპის შეფერხებაა.
დისტილაცია სწავლების გავრცელებული მეთოდია, რომელსაც AI ლაბორატორიები საკუთარი მოდელების უფრო მცირე და იაფი ვერსიების შესაქმნელად იყენებენ. თუმცა, კონკურენტებს შეუძლიათ ეს მეთოდი სხვა ლაბორატორიების „დავალების გადასაწერად“ გამოიყენონ. მიმდინარე თვის დასაწყისში OpenAI-მ აშშ-ის წარმომადგენელთა პალატის წევრებს გაუგზავნა მემორანდუმი, სადაც DeepSeek-ს მათი პროდუქტების მიბაძვის მიზნით დისტილაციის გამოყენებაში სდებდა ბრალს.
თავდასხმების მასშტაბები და სამიზნეები
DeepSeek-მა ყურადღება ერთი წლის წინ მიიპყრო, როდესაც გამოუშვა ღია კოდის მქონე R1 მოდელი, რომელიც წარმადობით თითქმის არ ჩამოუვარდებოდა ამერიკულ წამყვან მოდელებს, თუმცა მისი შექმნა გაცილებით იაფი დაჯდა. მოსალოდნელია, რომ კომპანია მალე გამოუშვებს DeepSeek V4-ს, რომელსაც, გავრცელებული ინფორმაციით, კოდირებაში Anthropic-ის Claude-ისა და OpenAI-ის ChatGPT-ის დაჯაბნა შეუძლია.
Anthropic-ის მიერ დაფიქსირებული თავდასხმების მასშტაბები კომპანიების მიხედვით განსხვავდება:
- DeepSeek: დაფიქსირდა 150,000-ზე მეტი ინტერაქცია, რომელიც მიზნად ისახავდა ფუნდამენტური ლოგიკისა და „ელაინმენტის“ (alignment) გაუმჯობესებას, განსაკუთრებით ცენზურისგან თავისუფალი ალტერნატივების შესაქმნელად პოლიტიკურად სენსიტიურ კითხვებზე.
- Moonshot AI: განახორციელა 3.4 მილიონზე მეტი ინტერაქცია, რომელთა სამიზნე იყო აგენტური მსჯელობა, ხელსაწყოების გამოყენება, კოდირება, მონაცემთა ანალიზი და კომპიუტერული ხედვა. გასულ თვეში ფირმამ გამოუშვა ახალი ღია კოდის მოდელი Kimi K2.5 და კოდირების აგენტი.
- MiniMax: დაფიქსირდა 13 მილიონი ინტერაქცია, რომელიც მიმართული იყო აგენტური კოდირების, ხელსაწყოების გამოყენებისა და ორკესტრაციისკენ. Anthropic-ის თქმით, MiniMax-მა ახალი Claude მოდელის გაშვებისას თავისი ტრაფიკის თითქმის ნახევარი მისი შესაძლებლობების მისათვისებლად გადაამისამართა.
ექსპორტის კონტროლი და ეროვნული უსაფრთხოება
Anthropic აცხადებს, რომ გააგრძელებს ინვესტირებას თავდაცვის მექანიზმებში, რაც დისტილაციურ თავდასხმებს უფრო რთულად შესასრულებელს და ადვილად გამოსავლენს გახდის. თუმცა, კომპანია მოუწოდებს AI ინდუსტრიას, ღრუბლოვანი სერვისების პროვაიდერებსა და პოლიტიკოსებს კოორდინირებული რეაგირებისკენ.
„დისტილაციური თავდასხმები ამყარებს ექსპორტის კონტროლის საჭიროებას: ჩიპებზე წვდომის შეზღუდვა ზღუდავს როგორც მოდელების პირდაპირ წვრთნას, ისე უკანონო დისტილაციის მასშტაბებს“, — ნათქვამია Anthropic-ის ბლოგპოსტში.
Silverado Policy Accelerator-ის თავმჯდომარემ და CrowdStrike-ის თანადამფუძნებელმა, დიმიტრი ალპეროვიჩმა TechCrunch-თან საუბრისას აღნიშნა, რომ ეს თავდასხმები მისთვის მოულოდნელი არ ყოფილა. მისი თქმით, ჩინური მოდელების სწრაფი პროგრესის ერთ-ერთი მიზეზი სწორედ ამერიკული წამყვანი მოდელების დისტილაციის გზით ქურდობაა, რაც ახლა უკვე ფაქტებით დასტურდება.
პოტენციური საფრთხეები
Anthropic-ის განმარტებით, დისტილაცია არა მხოლოდ საფრთხეს უქმნის ამერიკის დომინირებას AI სფეროში, არამედ ქმნის ეროვნული უსაფრთხოების რისკებსაც:
- უსაფრთხოების ბარიერების მოხსნა: ამერიკული კომპანიები ქმნიან სისტემებს, რომლებიც ხელს უშლიან AI-ის გამოყენებას ბიოიარაღის შესაქმნელად ან კიბერშეტევებისთვის. უკანონო დისტილაციით შექმნილი მოდელები, სავარაუდოდ, ამ ბარიერებს ვერ შეინარჩუნებენ.
- ავტორიტარული რეჟიმების გაძლიერება: არსებობს რისკი, რომ ავტორიტარულმა მთავრობებმა მოწინავე AI გამოიყენონ დეზინფორმაციული კამპანიებისა და მასობრივი თვალთვალისთვის, რაც განსაკუთრებით საშიშია მოდელების ღია კოდით გავრცელების შემთხვევაში.
TechCrunch-მა კომენტარისთვის მიმართა DeepSeek-ს, MiniMax-სა და Moonshot-ს, თუმცა პასუხი ამ დრომდე არ მიუღია.
მსგავსი სტატიები

OpenAI კორპორაციულ სექტორში პოზიციების გასამყარებლად საკონსულტაციო გიგანტებთან ერთიანდება
OpenAI-მ ოთხ წამყვან საკონსულტაციო ფირმასთან „Frontier Alliance“ შექმნა. პარტნიორობა მიზნად ისახავს საწარმოებში ხელოვნური ინტელექტის დანერგვის დაჩქარებას და სტრატეგიულ ტრანსფორმაციას.

Google Cloud-ის AI მიმართულების ხელმძღვანელი მოდელების განვითარების სამ მთავარ გამოწვევაზე საუბრობს
Google Cloud-ის ვიცე-პრეზიდენტი მაიკლ გერსტენჰაბერი განმარტავს AI მოდელების განვითარების სამ მთავარ მიმართულებას: ინტელექტს, რეაგირების დროსა და მასშტაბირების ხარჯებს.

ინდოეთის AI Impact Summit: ტექნოლოგიური გიგანტების გეგმები და მრავალმილიარდიანი ინვესტიციები
ინდოეთი ხელოვნური ინტელექტის გლობალურ ცენტრად ჩამოყალიბებას ცდილობს. გაეცანით AI Impact Summit-ის უმნიშვნელოვანეს სიახლეებს OpenAI-სგან, Anthropic-ისგან და სხვა ლიდერებისგან.