Anthropic vs. პენტაგონი: რა დგას რეალურად სასწორზე?
Anthropic-სა და აშშ-ის თავდაცვის დეპარტამენტს შორის დაპირისპირება მწვავდება. დავის საგანი ხელოვნური ინტელექტის სამხედრო მიზნებისთვის, მათ შორის ავტონომიური იარაღისა და თვალთვალისთვის გამოყენებაა.

ბოლო ორი კვირის განმავლობაში Anthropic-ის აღმასრულებელ დირექტორს, დარიო ამოდეისა და აშშ-ის თავდაცვის მდივანს, პიტ ჰეგსეტს შორის დაპირისპირება გამწვავდა. დავის მთავარი საგანი სამხედრო სფეროში ხელოვნური ინტელექტის (AI) გამოყენებაა. Anthropic კატეგორიულ უარს აცხადებს, რომ მისი მოდელები ამერიკელების მასობრივი თვალთვალისთვის ან სრულად ავტონომიური იარაღისთვის იქნას გამოყენებული, რომელიც დარტყმებს ადამიანის ჩარევის გარეშე განახორციელებს.
თავდაცვის მდივანი ჰეგსეთი მიიჩნევს, რომ დეპარტამენტი არ უნდა შეიზღუდოს კერძო მომწოდებლის შიდა წესებით. მისი არგუმენტით, ტექნოლოგიის ნებისმიერი „კანონიერი გამოყენება“ დასაშვები უნდა იყოს. მიუხედავად იმისა, რომ კომპანიას „მიწოდების ჯაჭვის რისკად“ გამოცხადებით ემუქრებიან, ამოდეი საჯაროდ აცხადებს, რომ Anthropic უკან დახევას არ აპირებს. ეს დაპირისპირება ეხება ფუნდამენტურ საკითხს: ვინ აკონტროლებს მძლავრ AI სისტემებს — მათი შემქმნელი კომპანიები თუ მთავრობა, რომელსაც მათი დანერგვა სურს?
რისი ეშინია Anthropic-ს?
Anthropic-ის პოზიცია მკაფიოა: კომპანიას არ სურს, რომ მისი AI მოდელები გამოყენებული იქნას ამერიკის მოქალაქეების მასობრივი თვალთვალისთვის ან ისეთი ავტონომიური იარაღის შესაქმნელად, სადაც სამიზნის შერჩევისა და ცეცხლის გახსნის გადაწყვეტილებაში ადამიანი არ მონაწილეობს. ტრადიციული თავდაცვის კონტრაქტორებისგან განსხვავებით, რომლებსაც ნაკლები გავლენა აქვთ მათი პროდუქციის გამოყენების წესებზე, Anthropic დაარსების დღიდან ამტკიცებს, რომ ხელოვნური ინტელექტი უნიკალურ რისკებს შეიცავს და, შესაბამისად, განსაკუთრებულ დამცავ მექანიზმებს საჭიროებს.
აშშ-ის სამხედრო ძალები უკვე იყენებენ მაღალტექნოლოგიურ ავტომატიზებულ სისტემებს, რომელთაგან ზოგიერთი ლეტალურია. ისტორიულად, სასიკვდილო ძალის გამოყენების გადაწყვეტილებას ყოველთვის ადამიანი იღებდა, თუმცა ავტონომიური იარაღის სამხედრო გამოყენებაზე სამართლებრივი შეზღუდვები მწირია. თავდაცვის დეპარტამენტი (DoD) კატეგორიულად არ კრძალავს სრულად ავტონომიურ სისტემებს. 2023 წლის დირექტივის თანახმად, AI სისტემებს შეუძლიათ სამიზნეების შერჩევა და განადგურება ადამიანის ჩარევის გარეშე, თუ ისინი გარკვეულ სტანდარტებს აკმაყოფილებენ და მაღალჩინოსნების შემოწმებას გაივლიან.
სწორედ ეს იწვევს Anthropic-ის შეშფოთებას. სამხედრო ტექნოლოგიები ბუნებით გასაიდუმლოებულია, ამიტომ, თუ აშშ-ის არმია ლეტალური გადაწყვეტილებების ავტომატიზაციას დაიწყებს, ეს შესაძლოა მხოლოდ სისტემის ექსპლუატაციაში შესვლის შემდეგ გახდეს ცნობილი. Anthropic-ის არგუმენტით, მათი მოდელები ჯერ არ არის საკმარისად განვითარებული ასეთი მისიების უსაფრთხოდ შესასრულებლად. არსებობს რისკი, რომ ავტონომიურმა სისტემამ არასწორად მოახდინოს სამიზნის იდენტიფიცირება, გამოიწვიოს კონფლიქტის ესკალაცია ან მიიღოს შეუქცევადი ლეტალური გადაწყვეტილება.
გარდა ამისა, ხელოვნურ ინტელექტს შეუძლია მნიშვნელოვნად გააძლიეროს მოქალაქეების თვალთვალი. AI ცვლის არსებულ რეალობას მონაცემთა მასშტაბური დამუშავების, ქცევითი ანალიზისა და პროგნოზირებადი რისკების შეფასების გზით, რაც თვალთვალის მასშტაბებს საგანგაშო ნიშნულამდე ზრდის.
რა სურს პენტაგონს?
პენტაგონის პოზიციით, მათ უნდა ჰქონდეთ შესაძლებლობა, გამოიყენონ Anthropic-ის ტექნოლოგია ნებისმიერი კანონიერი მიზნისთვის, რომელსაც საჭიროდ მიიჩნევენ. მდივანი ჰეგსეთი ამტკიცებს, რომ თავდაცვის დეპარტამენტი არ უნდა იყოს დამოკიდებული კერძო კორპორაციის შიდა პოლიტიკაზე.
პენტაგონის მთავარმა პრესსპიკერმა, შონ პარნელმა განაცხადა, რომ დეპარტამენტს არ აქვს ინტერესი მასობრივი შიდა თვალთვალის ან ავტონომიური იარაღის განლაგების მიმართ. მისი თქმით:
„ჩვენ ვითხოვთ შემდეგს: მიეცით პენტაგონს უფლება, გამოიყენოს Anthropic-ის მოდელი ყველა კანონიერი მიზნისთვის. ეს არის მარტივი და გონივრული მოთხოვნა, რომელიც ხელს შეუშლის Anthropic-ს კრიტიკული სამხედრო ოპერაციების საფრთხის ქვეშ ჩაგდებაში. ჩვენ არ დავუშვებთ, რომ რომელიმე კომპანიამ დაგვიწესოს პირობები ოპერატიული გადაწყვეტილებების მიღებისას.“
პარნელმა დაამატა, რომ Anthropic-ს გადაწყვეტილების მისაღებად ვადა პარასკევს, აღმოსავლეთის დროით 17:01 საათამდე აქვს. წინააღმდეგ შემთხვევაში, პარტნიორობა შეწყდება და კომპანია „მიწოდების ჯაჭვის რისკად“ გამოცხადდება.
ჰეგსეთის უკმაყოფილება ზოგჯერ კულტურულ ჭრილშიც ვლინდება. იანვარში SpaceX-ისა და xAI-ის ოფისებში გამოსვლისას მან გააკრიტიკა ე.წ. „woke AI“ (ზედმეტად ლიბერალური AI) და აღნიშნა, რომ თავდაცვის სამინისტროს სჭირდება ომისთვის მზადმყოფი სისტემები და არა „ჩატბოტები აივი ლიგის პროფესორებისთვის“.
რა მოხდება შემდეგ?
პენტაგონი იმუქრება ორი გზით: Anthropic-ის შეყვანა „შავ სიაში“, რაც მას სამთავრობო კონტრაქტებს დაუკარგავს, ან თავდაცვის წარმოების აქტის (DPA) გამოყენება, რათა აიძულოს კომპანია, მოდელი სამხედრო საჭიროებებზე მოარგოს.
ექსპერტების აზრით, ეს დაპირისპირება ორივე მხარისთვის სარისკოა. Trousdale Ventures-ის წარმომადგენლის, საშინ სეთის თქმით, „მიწოდების ჯაჭვის რისკის“ იარლიყი შესაძლოა კომპანიის დასასრულს ნიშნავდეს. თუმცა, Anthropic-თან თანამშრომლობის გაწყვეტა ეროვნული უსაფრთხოების პრობლემაცაა, რადგან OpenAI-ს ან xAI-ს შესაძლოა 6-დან 12 თვემდე დასჭირდეთ იმავე დონის მისაღწევად.
ამ ფონზე, ილონ მასკის xAI აქტიურად ემზადება Anthropic-ის ჩასანაცვლებლად. მასკის რიტორიკიდან გამომდინარე, სავარაუდოა, რომ მისი კომპანია პენტაგონს ტექნოლოგიაზე სრულ კონტროლს გადასცემს. რაც შეეხება OpenAI-ს, ბოლო ცნობებით, მათ შესაძლოა Anthropic-ის მსგავსი მკაცრი შეზღუდვები შეინარჩუნონ.
მსგავსი სტატიები

ChatGPT-ის ყოველკვირეული მომხმარებლების რაოდენობამ 900 მილიონს მიაღწია: OpenAI-მ 110 მილიარდი დოლარის ინვესტიცია მოიზიდა
OpenAI-ის პლატფორმას კვირაში უკვე 900 მილიონი აქტიური მომხმარებელი ჰყავს. პარალელურად, კომპანიამ ისტორიული, 110 მილიარდი დოლარის მოცულობის საინვესტიციო რაუნდი დახურა.

ილონ მასკი OpenAI-ს უსაფრთხოების სტანდარტებს აკრიტიკებს: „Grok-ის გამო თავი არავის მოუკლავს“
ილონ მასკმა OpenAI-ს წინააღმდეგ მიმდინარე სასამართლო პროცესის ფარგლებში კომპანიის უსაფრთხოების პოლიტიკა მკაცრად გააკრიტიკა და ChatGPT-ისთან დაკავშირებულ რისკებზე ისაუბრა.

Meta და Prada-ს კოლაბორაცია? მარკ ცუკერბერგის ვიზიტი მილანში AI სათვალეების შესახებ მოლოდინებს ამძაფრებს
მილანის მოდის კვირეულზე მარკ ცუკერბერგის გამოჩენამ Prada-სთან შესაძლო თანამშრომლობის შესახებ ხმები გააძლიერა. იგეგმება თუ არა ახალი ლუქს-კლასის AI სათვალეების გამოშვება?