Skip to main content
ხელოვნური ინტელექტი9.4.20262 ნახვა

Anthropic ზღუდავს Mythos-ის ხელმისაწვდომობას: ინტერნეტის უსაფრთხოება თუ ბიზნეს ინტერესები?

Anthropic-მა თავისი უახლესი AI მოდელის, Mythos-ის ხელმისაწვდომობა შეზღუდა. კომპანია ამას უსაფრთხოების რისკებით ხსნის, თუმცა ექსპერტები ბიზნეს ინტერესებსა და კონკურენციაზე მიუთითებენ.

Anthropic ზღუდავს Mythos-ის ხელმისაწვდომობას: ინტერნეტის უსაფრთხოება თუ ბიზნეს ინტერესები?

Anthropic-მა განაცხადა, რომ თავისი უახლესი მოდელის, სახელწოდებით Mythos-ის, გავრცელება შეზღუდა. კომპანიის განმარტებით, აღნიშნულ მოდელს პროგრამულ უზრუნველყოფაში უსაფრთხოების ხარვეზების აღმოჩენის ზედმეტად დიდი პოტენციალი აქვს, რაც შესაძლოა გლობალური მასშტაბით მომხმარებლებისთვის საფრთხის შემცველი აღმოჩნდეს.

ფართო საზოგადოებისთვის ხელმისაწვდომობის ნაცვლად, ლაბორატორია მოდელს მხოლოდ მსხვილ კომპანიებსა და ორგანიზაციებს გაუზიარებს, რომლებიც კრიტიკულ ონლაინ ინფრასტრუქტურას მართავენ. მათ შორის არიან Amazon Web Services და JPMorgan Chase. გავრცელებული ინფორმაციით, მსგავსი გეგმის განხორციელებას OpenAI-ც განიხილავს თავისი მომავალი კიბერუსაფრთხოების ხელსაწყოსთვის.

ოფიციალური ვერსიით, ეს სტრატეგია მიზნად ისახავს მსხვილ საწარმოებს მისცეს უპირატესობა ბოროტმოქმედებთან ბრძოლაში, რომლებმაც შესაძლოა მოწინავე LLM-ები (დიდი ენობრივი მოდელები) დაცულ სისტემებში შესაღწევად გამოიყენონ. თუმცა, არსებობს ეჭვი, რომ ამ გადაწყვეტილების მიღმა მხოლოდ კიბერუსაფრთხოება ან მოდელის შესაძლებლობების რეკლამირება არ დგას.

უსაფრთხოების რისკები და ექსპერტთა მოსაზრებები

AI კიბერუსაფრთხოების ლაბორატორია Irregular-ის აღმასრულებელმა დირექტორმა, დენ ლაჰავმა, ჯერ კიდევ Mythos-ის გამოშვებამდე აღნიშნა, რომ მიუხედავად AI ინსტრუმენტების მიერ ხარვეზების პოვნის მნიშვნელობისა, ნებისმიერი სისუსტის რეალური ფასი თავდამსხმელისთვის ბევრ ფაქტორზეა დამოკიდებული.

„მთავარი კითხვა, რომელიც ყოველთვის მიჩნდება, არის შემდეგი: იპოვეს თუ არა მათ ისეთი რამ, რაც რეალურად გამოსაყენებელია (exploitable) მნიშვნელოვანი გზით, იქნება ეს დამოუკიდებლად თუ ხარვეზების ჯაჭვის ნაწილი?“ - განაცხადა ლაჰავმა.

Anthropic ამტკიცებს, რომ Mythos-ს ხარვეზების გამოყენება გაცილებით უკეთ შეუძლია, ვიდრე მის წინა მოდელ Opus-ს. თუმცა, არ არის ცალსახა, რომ Mythos მართლაც წარმოადგენს კიბერუსაფრთხოების მოდელების მწვერვალს. კიბერუსაფრთხოების სტარტაპმა Aisle-მა განაცხადა, რომ მათ შეძლეს Mythos-ის მიღწევების დიდი ნაწილის რეპლიკაცია უფრო მცირე, ღია წონის (open-weight) მოდელების გამოყენებით. Aisle-ის გუნდი მიიჩნევს, რომ კიბერუსაფრთხოებისთვის არ არსებობს ერთი უნივერსალური მოდელი და შედეგი დამოკიდებულია კონკრეტულ ამოცანაზე.

ბიზნეს სტრატეგია და „დისტილაციის“ საფრთხე

ვინაიდან Opus-იც კი უკვე მიიჩნეოდა კიბერუსაფრთხოების სფეროში მნიშვნელოვან წინგადადგმულ ნაბიჯად, არსებობს სხვა მიზეზიც, რის გამოც წამყვან ლაბორატორიებს სურთ მოდელების გავრცელების შეზღუდვა. ეს ქმნის ხელსაყრელ გარემოს მსხვილი კორპორატიული კონტრაქტებისთვის და ართულებს კონკურენტების მიერ მოდელების კოპირებას „დისტილაციის“ (distillation) გზით. დისტილაცია არის ტექნიკა, რომელიც იყენებს მოწინავე მოდელებს ახალი LLM-ების იაფად მოსამზადებლად.

სტარტაპ exe.dev-ის აღმასრულებელმა დირექტორმა, დევიდ კროშოუმ, სოციალურ ქსელში აღნიშნა, რომ ეს არის მარკეტინგული საფარი იმ ფაქტისთვის, რომ საუკეთესო მოდელები ახლა მხოლოდ კორპორატიული შეთანხმებებითაა ხელმისაწვდომი და მცირე ლაბორატორიებს მათი დისტილაციის საშუალება აღარ აქვთ.

„სანამ თქვენ და მე Mythos-ის გამოყენებას შევძლებთ, უკვე გამოვა ახალი საუკეთესო ვერსია, რომელიც კვლავ მხოლოდ მსხვილი ბიზნესისთვის იქნება ხელმისაწვდომი. ეს პროცესი ხელს უწყობს კორპორატიული შემოსავლების შენარჩუნებას და დისტილაციაზე მომუშავე კომპანიებს მეორეხარისხოვან პოზიციებზე ტოვებს“ - ამბობს კროშოუ.

გლობალური კონკურენცია და მომავალი

ეს ანალიზი ემთხვევა AI ეკოსისტემაში არსებულ ტენდენციას: მიმდინარეობს რბოლა უმსხვილეს ლაბორატორიებსა და ისეთ კომპანიებს შორის, როგორიცაა Aisle, რომლებიც ღია კოდის მქონე მოდელებს ეყრდნობიან (ხშირად ჩინური წარმოშობის და სავარაუდოდ დისტილაციით შექმნილი). წელს წამყვანმა ლაბორატორიებმა მკაცრი პოზიცია დაიკავეს დისტილაციის მიმართ. Anthropic-მა საჯაროდ განაცხადა ჩინური ფირმების მცდელობებზე, დაეკოპირებინათ მათი მოდელები. Bloomberg-ის თანახმად, სამი წამყვანი ლაბორატორია — Anthropic, Google და OpenAI — გაერთიანდა დისტილატორების გამოსავლენად და მათ დასაბლოკად.

დისტილაცია საფრთხეს უქმნის წამყვანი ლაბორატორიების ბიზნეს მოდელს, რადგან ის აქარწყლებს იმ უპირატესობას, რაც გიგანტური კაპიტალის ინვესტირებით მიიღწევა. მოდელების შერჩევითი გამოშვება ლაბორატორიებს საშუალებას აძლევს, გამორჩეული გახადონ თავიანთი კორპორატიული შეთავაზებები იმ დროს, როდესაც ეს კატეგორია მომგებიანობის მთავარ გასაღებად იქცევა.

ჯერ კიდევ გასარკვევია, რამდენად რეალურ საფრთხეს უქმნის Mythos ან ნებისმიერი ახალი მოდელი ინტერნეტის უსაფრთხოებას. ტექნოლოგიის ფრთხილი დანერგვა პასუხისმგებლიანი ნაბიჯია, თუმცა Anthropic-მა შესაძლოა იპოვა გონივრული მიდგომა როგორც ინტერნეტის, ისე საკუთარი ფინანსური ინტერესების დასაცავად.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

ილონ მასკმა დაადასტურა, რომ xAI-მ Grok-ის მოსამზადებლად OpenAI-ის მოდელები გამოიყენა
ხელოვნური ინტელექტი

ილონ მასკმა დაადასტურა, რომ xAI-მ Grok-ის მოსამზადებლად OpenAI-ის მოდელები გამოიყენა

ილონ მასკმა სასამართლო პროცესზე აღიარა, რომ xAI-მ Grok-ის მოსამზადებლად ნაწილობრივ OpenAI-ის მოდელები გამოიყენა, რაც AI ინდუსტრიაში გავრცელებული პრაქტიკაა.

30.4.2026
OpenAI-მ ChatGPT-ის ანგარიშების უსაფრთხოების ახალი სისტემა და Yubico-სთან პარტნიორობა დააანონსა
ხელოვნური ინტელექტი

OpenAI-მ ChatGPT-ის ანგარიშების უსაფრთხოების ახალი სისტემა და Yubico-სთან პარტნიორობა დააანონსა

OpenAI-მ წარადგინა „ანგარიშის გაძლიერებული უსაფრთხოების“ (AAS) პროგრამა და Yubico-სთან პარტნიორობით ფიზიკური უსაფრთხოების გასაღებები გამოუშვა ChatGPT-ის მომხმარებელთა დასაცავად.

30.4.2026
OpenAI ზღუდავს წვდომას ახალ კიბერინსტრუმენტზე, მიუხედავად Anthropic-ის მსგავსი ნაბიჯის ადრინდელი კრიტიკისა
ხელოვნური ინტელექტი

OpenAI ზღუდავს წვდომას ახალ კიბერინსტრუმენტზე, მიუხედავად Anthropic-ის მსგავსი ნაბიჯის ადრინდელი კრიტიკისა

სემ ალტმანმა დაადასტურა, რომ OpenAI ზღუდავს წვდომას GPT-5.5 Cyber-ზე, მიუხედავად იმისა, რომ ადრე Anthropic-ს მსგავსი ქმედების გამო „შიშზე დაფუძნებულ მარკეტინგში“ ადანაშაულებდა.

30.4.2026