Skip to main content
ხელოვნური ინტელექტი5.3.20260 ნახვა

Anthropic-ის აღმასრულებელი დირექტორი OpenAI-ს თავდაცვის სამინისტროსთან გარიგებას „აშკარა სიცრუეს“ უწოდებს

Anthropic-ის ხელმძღვანელი დარიო ამოდეი OpenAI-ს აკრიტიკებს და აშშ-ის თავდაცვის დეპარტამენტთან მათ თანამშრომლობას „უსაფრთხოების თეატრს“ უწოდებს.

Anthropic-ის აღმასრულებელი დირექტორი OpenAI-ს თავდაცვის სამინისტროსთან გარიგებას „აშკარა სიცრუეს“ უწოდებს

Anthropic-ის თანადამფუძნებელი და აღმასრულებელი დირექტორი დარიო ამოდეი OpenAI-ს ხელმძღვანელის, სემ ალტმანის ქმედებებით უკმაყოფილოა. გამოცემა The Information-ის მიერ მოპოვებულ შიდა მიმოწერაში, რომელიც თანამშრომლებისთვის იყო განკუთვნილი, ამოდეიმ OpenAI-სა და აშშ-ის თავდაცვის დეპარტამენტს (DoD) შორის გაფორმებულ შეთანხმებას „უსაფრთხოების თეატრი“ უწოდა.

„მთავარი მიზეზი, რის გამოც OpenAI-მ მიიღო თავდაცვის დეპარტამენტის პირობები, ჩვენ კი — არა, არის ის, რომ მათ თანამშრომლების დაშოშმინება სურდათ, ჩვენ კი რეალურად ბოროტად გამოყენების პრევენციაზე ვზრუნავდით“, — აღნიშნავს ამოდეი თავის წერილში.

გასულ კვირას Anthropic-სა და აშშ-ის თავდაცვის დეპარტამენტს შორის მოლაპარაკებები ჩაიშალა. მხარეები ვერ შეთანხმდნენ სამხედრო უწყების მოთხოვნაზე, ჰქონოდა შეუზღუდავი წვდომა ხელოვნური ინტელექტის კომპანიის ტექნოლოგიაზე. Anthropic-ი, რომელსაც სამხედროებთან უკვე აქვს 200 მილიონი დოლარის ღირებულების კონტრაქტი, დაჟინებით მოითხოვდა გარანტიას, რომ უწყება მათ ტექნოლოგიას შიდა მასობრივი თვალთვალისთვის ან ავტონომიური იარაღის შესაქმნელად არ გამოიყენებდა.

Anthropic-ის უარის შემდეგ, თავდაცვის დეპარტამენტმა შეთანხმებას OpenAI-სთან მიაღწია. სემ ალტმანმა განაცხადა, რომ მისი კომპანიის ახალი თავდაცვის კონტრაქტი მოიცავს იმავე „წითელ ხაზებს“, რომლებსაც Anthropic-ი ითხოვდა. თუმცა, ამოდეი OpenAI-ს ამ განცხადებებს „აშკარა სიცრუეს“ უწოდებს და მიიჩნევს, რომ ალტმანი ცდილობს თავი „მშვიდობისმყოფელად და გარიგებების ოსტატად“ წარმოაჩინოს.

დაპირისპირების ერთ-ერთი მთავარი მიზეზი ტერმინოლოგიური განსხვავებაა. Anthropic-ისთვის მიუღებელი აღმოჩნდა თავდაცვის დეპარტამენტის მოთხოვნა, რომ ხელოვნური ინტელექტი ხელმისაწვდომი ყოფილიყო „ნებისმიერი კანონიერი გამოყენებისთვის“. OpenAI-მ კი ბლოგპოსტში განმარტა, რომ მათი კონტრაქტი სისტემების გამოყენებას „ყველა კანონიერი მიზნისთვის“ უშვებს.

„ჩვენი კომუნიკაციისას ნათელი გახდა, რომ თავდაცვის უწყება მასობრივ შიდა თვალთვალს უკანონოდ მიიჩნევს და ამ მიზნით ტექნოლოგიის გამოყენებას არ გეგმავს. ჩვენ უზრუნველვყავით, რომ ის ფაქტი, რომ ეს ქმედება არ შედის კანონიერ გამოყენებაში, კონტრაქტში მკაფიოდ ყოფილიყო გაწერილი“, — ნათქვამია OpenAI-ს განცხადებაში.

კრიტიკოსები აღნიშნავენ, რომ კანონმდებლობა ცვალებადია და ის, რაც დღეს უკანონოდ ითვლება, მომავალში შესაძლოა დასაშვები გახდეს. როგორც ჩანს, საზოგადოებრივი აზრი ამ საკითხში Anthropic-ის მხარესაა: მას შემდეგ, რაც OpenAI-მ თავდაცვის უწყებასთან გარიგება გააფორმა, ChatGPT-ის აპლიკაციის წაშლის მაჩვენებელი 295%-ით გაიზარდა.

ამოდეი მიიჩნევს, რომ OpenAI-ს მცდელობა, მოახდინოს საზოგადოებრივი აზრით მანიპულირება, წარუმატებელია. მისი თქმით, მედია და მომხმარებლები OpenAI-ს გარიგებას საეჭვოდ მიიჩნევენ, Anthropic-ი კი ამ ფონზე პოპულარობას იხვეჭს და App Store-ის რეიტინგში მეორე ადგილზე გადავიდა. ამოდეის მთავარი საფიქრალი ახლა ისაა, რომ OpenAI-ს თანამშრომლებმა არ დაიჯერონ საკუთარი ხელმძღვანელობის მიერ გავრცელებული ნარატივი.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

Apple Music ხელოვნური ინტელექტის მიერ შექმნილი მუსიკის გამოსავლენად სპეციალურ თეგებს ამატებს
ხელოვნური ინტელექტი

Apple Music ხელოვნური ინტელექტის მიერ შექმნილი მუსიკის გამოსავლენად სპეციალურ თეგებს ამატებს

Apple Music ამატებს ახალ ფუნქციას, რომელიც დისტრიბუტორებს საშუალებას მისცემს, ხელოვნური ინტელექტის მიერ შექმნილი მუსიკა, ტექსტი თუ ვიზუალი სპეციალური თეგებით მონიშნონ.

5.3.2026
ჯენსენ ჰუანგი: Nvidia OpenAI-სა და Anthropic-ში ინვესტირებას წყვეტს, თუმცა მისი განმარტება ბევრ კითხვას აჩენს
ხელოვნური ინტელექტი

ჯენსენ ჰუანგი: Nvidia OpenAI-სა და Anthropic-ში ინვესტირებას წყვეტს, თუმცა მისი განმარტება ბევრ კითხვას აჩენს

Nvidia-ს აღმასრულებელი დირექტორი ჯენსენ ჰუანგი აცხადებს, რომ კომპანია OpenAI-სა და Anthropic-ში ინვესტირებას წყვეტს. მიზეზად IPO სახელდება, თუმცა რეალობა ბევრად უფრო კომპლექსურია.

5.3.2026
აშშ-ის არმია კვლავ იყენებს Claude-ს, თუმცა თავდაცვის სექტორის კლიენტები Anthropic-ს მასობრივად ტოვებენ
ხელოვნური ინტელექტი

აშშ-ის არმია კვლავ იყენებს Claude-ს, თუმცა თავდაცვის სექტორის კლიენტები Anthropic-ს მასობრივად ტოვებენ

Anthropic-ის ხელოვნური ინტელექტი აშშ-ირანის კონფლიქტში სამიზნეების შერჩევისთვის გამოიყენება, მიუხედავად იმისა, რომ თავდაცვის მსხვილი კონტრაქტორები კომპანიასთან თანამშრომლობას წყვეტენ.

4.3.2026