Skip to main content
ხელოვნური ინტელექტი9.3.20260 ნახვა

Anthropic vs. პენტაგონი: რა დგას რეალურად სასწორზე?

Anthropic-სა და აშშ-ის თავდაცვის დეპარტამენტს შორის დაპირისპირება მწვავდება. დავის საგანი ხელოვნური ინტელექტის სამხედრო მიზნებისთვის, მათ შორის ავტონომიური იარაღისა და თვალთვალისთვის გამოყენებაა.

Anthropic vs. პენტაგონი: რა დგას რეალურად სასწორზე?

ბოლო ორი კვირის განმავლობაში Anthropic-ის აღმასრულებელ დირექტორს, დარიო ამოდეისა და აშშ-ის თავდაცვის მდივანს, პიტ ჰეგსეტს შორის დაპირისპირება გამწვავდა. დავის მთავარი საგანი სამხედრო სფეროში ხელოვნური ინტელექტის (AI) გამოყენებაა. Anthropic კატეგორიულ უარს აცხადებს, რომ მისი მოდელები ამერიკელების მასობრივი თვალთვალისთვის ან სრულად ავტონომიური იარაღისთვის იქნას გამოყენებული, რომელიც დარტყმებს ადამიანის ჩარევის გარეშე განახორციელებს.

თავდაცვის მდივანი ჰეგსეთი მიიჩნევს, რომ დეპარტამენტი არ უნდა შეიზღუდოს კერძო მომწოდებლის შიდა წესებით. მისი არგუმენტით, ტექნოლოგიის ნებისმიერი „კანონიერი გამოყენება“ დასაშვები უნდა იყოს. მიუხედავად იმისა, რომ კომპანიას „მიწოდების ჯაჭვის რისკად“ გამოცხადებით ემუქრებიან, ამოდეი საჯაროდ აცხადებს, რომ Anthropic უკან დახევას არ აპირებს. ეს დაპირისპირება ეხება ფუნდამენტურ საკითხს: ვინ აკონტროლებს მძლავრ AI სისტემებს — მათი შემქმნელი კომპანიები თუ მთავრობა, რომელსაც მათი დანერგვა სურს?

რისი ეშინია Anthropic-ს?

Anthropic-ის პოზიცია მკაფიოა: კომპანიას არ სურს, რომ მისი AI მოდელები გამოყენებული იქნას ამერიკის მოქალაქეების მასობრივი თვალთვალისთვის ან ისეთი ავტონომიური იარაღის შესაქმნელად, სადაც სამიზნის შერჩევისა და ცეცხლის გახსნის გადაწყვეტილებაში ადამიანი არ მონაწილეობს. ტრადიციული თავდაცვის კონტრაქტორებისგან განსხვავებით, რომლებსაც ნაკლები გავლენა აქვთ მათი პროდუქციის გამოყენების წესებზე, Anthropic დაარსების დღიდან ამტკიცებს, რომ ხელოვნური ინტელექტი უნიკალურ რისკებს შეიცავს და, შესაბამისად, განსაკუთრებულ დამცავ მექანიზმებს საჭიროებს.

აშშ-ის სამხედრო ძალები უკვე იყენებენ მაღალტექნოლოგიურ ავტომატიზებულ სისტემებს, რომელთაგან ზოგიერთი ლეტალურია. ისტორიულად, სასიკვდილო ძალის გამოყენების გადაწყვეტილებას ყოველთვის ადამიანი იღებდა, თუმცა ავტონომიური იარაღის სამხედრო გამოყენებაზე სამართლებრივი შეზღუდვები მწირია. თავდაცვის დეპარტამენტი (DoD) კატეგორიულად არ კრძალავს სრულად ავტონომიურ სისტემებს. 2023 წლის დირექტივის თანახმად, AI სისტემებს შეუძლიათ სამიზნეების შერჩევა და განადგურება ადამიანის ჩარევის გარეშე, თუ ისინი გარკვეულ სტანდარტებს აკმაყოფილებენ და მაღალჩინოსნების შემოწმებას გაივლიან.

სწორედ ეს იწვევს Anthropic-ის შეშფოთებას. სამხედრო ტექნოლოგიები ბუნებით გასაიდუმლოებულია, ამიტომ, თუ აშშ-ის არმია ლეტალური გადაწყვეტილებების ავტომატიზაციას დაიწყებს, ეს შესაძლოა მხოლოდ სისტემის ექსპლუატაციაში შესვლის შემდეგ გახდეს ცნობილი. Anthropic-ის არგუმენტით, მათი მოდელები ჯერ არ არის საკმარისად განვითარებული ასეთი მისიების უსაფრთხოდ შესასრულებლად. არსებობს რისკი, რომ ავტონომიურმა სისტემამ არასწორად მოახდინოს სამიზნის იდენტიფიცირება, გამოიწვიოს კონფლიქტის ესკალაცია ან მიიღოს შეუქცევადი ლეტალური გადაწყვეტილება.

გარდა ამისა, ხელოვნურ ინტელექტს შეუძლია მნიშვნელოვნად გააძლიეროს მოქალაქეების თვალთვალი. AI ცვლის არსებულ რეალობას მონაცემთა მასშტაბური დამუშავების, ქცევითი ანალიზისა და პროგნოზირებადი რისკების შეფასების გზით, რაც თვალთვალის მასშტაბებს საგანგაშო ნიშნულამდე ზრდის.

რა სურს პენტაგონს?

პენტაგონის პოზიციით, მათ უნდა ჰქონდეთ შესაძლებლობა, გამოიყენონ Anthropic-ის ტექნოლოგია ნებისმიერი კანონიერი მიზნისთვის, რომელსაც საჭიროდ მიიჩნევენ. მდივანი ჰეგსეთი ამტკიცებს, რომ თავდაცვის დეპარტამენტი არ უნდა იყოს დამოკიდებული კერძო კორპორაციის შიდა პოლიტიკაზე.

პენტაგონის მთავარმა პრესსპიკერმა, შონ პარნელმა განაცხადა, რომ დეპარტამენტს არ აქვს ინტერესი მასობრივი შიდა თვალთვალის ან ავტონომიური იარაღის განლაგების მიმართ. მისი თქმით:

„ჩვენ ვითხოვთ შემდეგს: მიეცით პენტაგონს უფლება, გამოიყენოს Anthropic-ის მოდელი ყველა კანონიერი მიზნისთვის. ეს არის მარტივი და გონივრული მოთხოვნა, რომელიც ხელს შეუშლის Anthropic-ს კრიტიკული სამხედრო ოპერაციების საფრთხის ქვეშ ჩაგდებაში. ჩვენ არ დავუშვებთ, რომ რომელიმე კომპანიამ დაგვიწესოს პირობები ოპერატიული გადაწყვეტილებების მიღებისას.“

პარნელმა დაამატა, რომ Anthropic-ს გადაწყვეტილების მისაღებად ვადა პარასკევს, აღმოსავლეთის დროით 17:01 საათამდე აქვს. წინააღმდეგ შემთხვევაში, პარტნიორობა შეწყდება და კომპანია „მიწოდების ჯაჭვის რისკად“ გამოცხადდება.

ჰეგსეთის უკმაყოფილება ზოგჯერ კულტურულ ჭრილშიც ვლინდება. იანვარში SpaceX-ისა და xAI-ის ოფისებში გამოსვლისას მან გააკრიტიკა ე.წ. „woke AI“ (ზედმეტად ლიბერალური AI) და აღნიშნა, რომ თავდაცვის სამინისტროს სჭირდება ომისთვის მზადმყოფი სისტემები და არა „ჩატბოტები აივი ლიგის პროფესორებისთვის“.

რა მოხდება შემდეგ?

პენტაგონი იმუქრება ორი გზით: Anthropic-ის შეყვანა „შავ სიაში“, რაც მას სამთავრობო კონტრაქტებს დაუკარგავს, ან თავდაცვის წარმოების აქტის (DPA) გამოყენება, რათა აიძულოს კომპანია, მოდელი სამხედრო საჭიროებებზე მოარგოს.

ექსპერტების აზრით, ეს დაპირისპირება ორივე მხარისთვის სარისკოა. Trousdale Ventures-ის წარმომადგენლის, საშინ სეთის თქმით, „მიწოდების ჯაჭვის რისკის“ იარლიყი შესაძლოა კომპანიის დასასრულს ნიშნავდეს. თუმცა, Anthropic-თან თანამშრომლობის გაწყვეტა ეროვნული უსაფრთხოების პრობლემაცაა, რადგან OpenAI-ს ან xAI-ს შესაძლოა 6-დან 12 თვემდე დასჭირდეთ იმავე დონის მისაღწევად.

ამ ფონზე, ილონ მასკის xAI აქტიურად ემზადება Anthropic-ის ჩასანაცვლებლად. მასკის რიტორიკიდან გამომდინარე, სავარაუდოა, რომ მისი კომპანია პენტაგონს ტექნოლოგიაზე სრულ კონტროლს გადასცემს. რაც შეეხება OpenAI-ს, ბოლო ცნობებით, მათ შესაძლოა Anthropic-ის მსგავსი მკაცრი შეზღუდვები შეინარჩუნონ.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა: დავა „მიწოდების ჯაჭვის რისკის“ სტატუსის გამო
ხელოვნური ინტელექტი

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა: დავა „მიწოდების ჯაჭვის რისკის“ სტატუსის გამო

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა მას შემდეგ, რაც უწყებამ კომპანია „მიწოდების ჯაჭვის რისკად“ გამოაცხადა. დავა ხელოვნური ინტელექტის უსაფრთხოებასა და სამხედრო მიზნებისთვის გამოყენებას ეხება.

9.3.2026
OpenAI-მ ხელოვნური ინტელექტის აგენტების უსაფრთხოების გასაძლიერებლად Promptfoo შეიძინა
ხელოვნური ინტელექტი

OpenAI-მ ხელოვნური ინტელექტის აგენტების უსაფრთხოების გასაძლიერებლად Promptfoo შეიძინა

OpenAI-მ AI უსაფრთხოების სტარტაპი Promptfoo შეიძინა. ტექნოლოგია OpenAI Frontier პლატფორმაში ინტეგრირდება, რათა უზრუნველყოს AI აგენტების დაცვა და უსაფრთხოების ავტომატიზებული ტესტირება.

9.3.2026
Anthropic-მა კოდის რევიზიის ახალი ხელსაწყო წარადგინა AI-ით გენერირებული კოდის ნაკადის შესამოწმებლად
ხელოვნური ინტელექტი

Anthropic-მა კოდის რევიზიის ახალი ხელსაწყო წარადგინა AI-ით გენერირებული კოდის ნაკადის შესამოწმებლად

Anthropic-მა გამოუშვა Code Review — ხელოვნურ ინტელექტზე დაფუძნებული ინსტრუმენტი, რომელიც Claude Code-ის მიერ გენერირებულ კოდში ლოგიკურ შეცდომებს პოულობს და რევიზიის პროცესს აჩქარებს.

9.3.2026