Anthropic ჩინურ AI ლაბორატორიებს Claude-ის მონაცემების მითვისებაში ადანაშაულებს: დებატები ჩიპების ექსპორტზე მწვავდება
Anthropic ჩინურ კომპანიებს Claude-ის მოდელიდან მონაცემების უკანონო მოპოვებაში ადანაშაულებს, რაც აშშ-ში AI ჩიპების ექსპორტის კონტროლის შესახებ დებატებს კიდევ უფრო ამწვავებს.

ხელოვნური ინტელექტის სფეროში მოღვაწე კომპანია Anthropic სამ ჩინურ AI ლაბორატორიას ადანაშაულებს 24,000-ზე მეტი ყალბი ანგარიშის შექმნაში, რომელთა მეშვეობითაც ისინი საკუთარი მოდელების გასაუმჯობესებლად Claude-ის მონაცემებს მოიპოვებდნენ. ბრალდების თანახმად, კომპანიებმა — DeepSeek, Moonshot AI და MiniMax — Claude-თან 16 მილიონზე მეტი ინტერაქცია განახორციელეს ე.წ. „დისტილაციის“ (distillation) ტექნიკის გამოყენებით.
Anthropic-ის განცხადებით, ჩინური ლაბორატორიების სამიზნე Claude-ის ყველაზე გამორჩეული შესაძლებლობები იყო: აგენტური მსჯელობა (agentic reasoning), ხელსაწყოების გამოყენება და პროგრამული კოდის წერა. ეს ბრალდებები აშშ-ში მიმდინარე იმ მწვავე დებატების ფონზე გაჟღერდა, რომელიც მოწინავე AI ჩიპების ექსპორტზე კონტროლის გამკაცრებას ეხება. აღნიშნული პოლიტიკის მიზანი ჩინეთის ხელოვნური ინტელექტის განვითარების ტემპის შეფერხებაა.
დისტილაცია სწავლების გავრცელებული მეთოდია, რომელსაც AI ლაბორატორიები საკუთარი მოდელების უფრო მცირე და იაფი ვერსიების შესაქმნელად იყენებენ. თუმცა, კონკურენტებს შეუძლიათ ეს მეთოდი სხვა ლაბორატორიების „დავალების გადასაწერად“ გამოიყენონ. მიმდინარე თვის დასაწყისში OpenAI-მ აშშ-ის წარმომადგენელთა პალატის წევრებს გაუგზავნა მემორანდუმი, სადაც DeepSeek-ს მათი პროდუქტების მიბაძვის მიზნით დისტილაციის გამოყენებაში სდებდა ბრალს.
თავდასხმების მასშტაბები და სამიზნეები
DeepSeek-მა ყურადღება ერთი წლის წინ მიიპყრო, როდესაც გამოუშვა ღია კოდის მქონე R1 მოდელი, რომელიც წარმადობით თითქმის არ ჩამოუვარდებოდა ამერიკულ წამყვან მოდელებს, თუმცა მისი შექმნა გაცილებით იაფი დაჯდა. მოსალოდნელია, რომ კომპანია მალე გამოუშვებს DeepSeek V4-ს, რომელსაც, გავრცელებული ინფორმაციით, კოდირებაში Anthropic-ის Claude-ისა და OpenAI-ის ChatGPT-ის დაჯაბნა შეუძლია.
Anthropic-ის მიერ დაფიქსირებული თავდასხმების მასშტაბები კომპანიების მიხედვით განსხვავდება:
- DeepSeek: დაფიქსირდა 150,000-ზე მეტი ინტერაქცია, რომელიც მიზნად ისახავდა ფუნდამენტური ლოგიკისა და „ელაინმენტის“ (alignment) გაუმჯობესებას, განსაკუთრებით ცენზურისგან თავისუფალი ალტერნატივების შესაქმნელად პოლიტიკურად სენსიტიურ კითხვებზე.
- Moonshot AI: განახორციელა 3.4 მილიონზე მეტი ინტერაქცია, რომელთა სამიზნე იყო აგენტური მსჯელობა, ხელსაწყოების გამოყენება, კოდირება, მონაცემთა ანალიზი და კომპიუტერული ხედვა. გასულ თვეში ფირმამ გამოუშვა ახალი ღია კოდის მოდელი Kimi K2.5 და კოდირების აგენტი.
- MiniMax: დაფიქსირდა 13 მილიონი ინტერაქცია, რომელიც მიმართული იყო აგენტური კოდირების, ხელსაწყოების გამოყენებისა და ორკესტრაციისკენ. Anthropic-ის თქმით, MiniMax-მა ახალი Claude მოდელის გაშვებისას თავისი ტრაფიკის თითქმის ნახევარი მისი შესაძლებლობების მისათვისებლად გადაამისამართა.
ექსპორტის კონტროლი და ეროვნული უსაფრთხოება
Anthropic აცხადებს, რომ გააგრძელებს ინვესტირებას თავდაცვის მექანიზმებში, რაც დისტილაციურ თავდასხმებს უფრო რთულად შესასრულებელს და ადვილად გამოსავლენს გახდის. თუმცა, კომპანია მოუწოდებს AI ინდუსტრიას, ღრუბლოვანი სერვისების პროვაიდერებსა და პოლიტიკოსებს კოორდინირებული რეაგირებისკენ.
„დისტილაციური თავდასხმები ამყარებს ექსპორტის კონტროლის საჭიროებას: ჩიპებზე წვდომის შეზღუდვა ზღუდავს როგორც მოდელების პირდაპირ წვრთნას, ისე უკანონო დისტილაციის მასშტაბებს“, — ნათქვამია Anthropic-ის ბლოგპოსტში.
Silverado Policy Accelerator-ის თავმჯდომარემ და CrowdStrike-ის თანადამფუძნებელმა, დიმიტრი ალპეროვიჩმა TechCrunch-თან საუბრისას აღნიშნა, რომ ეს თავდასხმები მისთვის მოულოდნელი არ ყოფილა. მისი თქმით, ჩინური მოდელების სწრაფი პროგრესის ერთ-ერთი მიზეზი სწორედ ამერიკული წამყვანი მოდელების დისტილაციის გზით ქურდობაა, რაც ახლა უკვე ფაქტებით დასტურდება.
პოტენციური საფრთხეები
Anthropic-ის განმარტებით, დისტილაცია არა მხოლოდ საფრთხეს უქმნის ამერიკის დომინირებას AI სფეროში, არამედ ქმნის ეროვნული უსაფრთხოების რისკებსაც:
- უსაფრთხოების ბარიერების მოხსნა: ამერიკული კომპანიები ქმნიან სისტემებს, რომლებიც ხელს უშლიან AI-ის გამოყენებას ბიოიარაღის შესაქმნელად ან კიბერშეტევებისთვის. უკანონო დისტილაციით შექმნილი მოდელები, სავარაუდოდ, ამ ბარიერებს ვერ შეინარჩუნებენ.
- ავტორიტარული რეჟიმების გაძლიერება: არსებობს რისკი, რომ ავტორიტარულმა მთავრობებმა მოწინავე AI გამოიყენონ დეზინფორმაციული კამპანიებისა და მასობრივი თვალთვალისთვის, რაც განსაკუთრებით საშიშია მოდელების ღია კოდით გავრცელების შემთხვევაში.
TechCrunch-მა კომენტარისთვის მიმართა DeepSeek-ს, MiniMax-სა და Moonshot-ს, თუმცა პასუხი ამ დრომდე არ მიუღია.
მსგავსი სტატიები

პენტაგონისა და Anthropic-ის დაპირისპირება: დააფრთხობს თუ არა ეს სტარტაპებს თავდაცვის სფეროში მუშაობისგან?
პენტაგონსა და Anthropic-ს შორის არსებული დაპირისპირება და OpenAI-ის ახალი გარიგება AI ინდუსტრიაში დიდ ვნებებს აღძრავს. გაიგეთ, როგორ მოქმედებს ეს მოვლენები სტარტაპების მომავალზე.

Ring-ის დამფუძნებელი კონფიდენციალურობასთან დაკავშირებული შიშების გაფანტვას ცდილობს, თუმცა მისი პასუხები კითხვებს ბადებს
Ring-ის დამფუძნებელი ჯეიმი სიმინოვი AI ფუნქციებსა და კონფიდენციალურობაზე საუბრობს. რატომ აშინებს საზოგადოებას Search Party და რა დათმობებზე უწევთ წასვლა მომხმარებლებს უსაფრთხოებისთვის?

ICE-ის დაკავების ცენტრის მფლობელი AI ინდუსტრიაში ახალ ბიზნეს შესაძლებლობებს პოულობს
Target Hospitality, რომელიც ICE-ის დაკავების ცენტრს ფლობს, AI მონაცემთა ცენტრების მშენებლებისთვის მრავალმილიონიან „მუშათა ბანაკებს“ აშენებს.