Anthropic-ის მიერ საკუთარი თავისთვის დაგებული ხაფანგი: რატომ აღმოჩნდა ხელოვნური ინტელექტის გიგანტი შავ სიაში?
Anthropic-ის შავ სიაში მოხვედრა, რეგულაციების ნაკლებობა და ხელოვნური ინტელექტის საფრთხეები: მაქს ტეგმარკის ანალიზი ინდუსტრიის კრიზისზე.

პარასკევს, მას შემდეგ რაც ტრამპის ადმინისტრაციამ 2021 წელს დარიო ამოდეის მიერ დაარსებულ ხელოვნური ინტელექტის კომპანია Anthropic-თან კავშირი გაწყვიტა, ინდუსტრიაში სერიოზული რყევები დაიწყო. თავდაცვის მდივანმა პიტ ჰეგსეტმა ეროვნული უსაფრთხოების კანონზე დაყრდნობით კომპანია შავ სიაში შეიყვანა და პენტაგონთან თანამშრომლობა აუკრძალა. ეს გადაწყვეტილება მოჰყვა ამოდეის უარს, დაეშვა Anthropic-ის ტექნოლოგიის გამოყენება აშშ-ის მოქალაქეების მასობრივი თვალთვალისთვის ან ავტონომიური შეიარაღებული დრონებისთვის, რომლებსაც სამიზნეების განადგურება ადამიანის ჩარევის გარეშე შეუძლიათ.
მოვლენების ამგვარი განვითარების შედეგად, Anthropic შესაძლოა 200 მილიონ დოლარამდე ღირებულების კონტრაქტის გარეშე დარჩეს. გარდა ამისა, კომპანიას სხვა თავდაცვის კონტრაქტორებთან მუშაობაც შეეზღუდება, რადგან პრეზიდენტმა ტრამპმა Truth Social-ის მეშვეობით ყველა ფედერალურ სააგენტოს მოუწოდა, დაუყოვნებლივ შეწყვიტონ Anthropic-ის ტექნოლოგიის გამოყენება. კომპანიამ უკვე განაცხადა, რომ პენტაგონის გადაწყვეტილებას სასამართლოში გაასაჩივრებს.
მაქს ტეგმარკი, MIT-ის ფიზიკოსი და Future of Life Institute-ის დამფუძნებელი, ათწლეულზე მეტია აფრთხილებს მსოფლიოს, რომ მძლავრი ხელოვნური ინტელექტის შექმნის რბოლა მის მართვის შესაძლებლობებს უსწრებს. მისი ხედვით, Anthropic-ის კრიზისი თავად კომპანიისა და მისი კონკურენტების მიერ დაშვებული შეცდომების შედეგია. ტეგმარკის არგუმენტი წლების წინ მიღებულ გადაწყვეტილებას ეფუძნება — ინდუსტრიის საერთო არჩევანს, წინააღმდეგობა გაეწიათ რეგულაციებისთვის.
დარღვეული პირობები და რეგულაციების ვაკუუმი
Anthropic, OpenAI, Google DeepMind და სხვა კომპანიები დიდხანს იძლეოდნენ პირობას, რომ საკუთარ თავს თავად გააკონტროლებდნენ. თუმცა, ბოლო პერიოდში Anthropic-მა უარი თქვა თავისი უსაფრთხოების დაპირების მთავარ პრინციპზე — არ გამოეშვა მძლავრი სისტემები მანამ, სანამ არ დარწმუნდებოდა მათ უსაფრთხოებაში. ტეგმარკის აზრით, ეს არის კლასიკური მაგალითი იმისა, თუ როგორ არის „ჯოჯოხეთისკენ მიმავალი გზა კეთილი განზრახვებით მოკირწყლული“.
ტეგმარკი აღნიშნავს, რომ ოთხივე წამყვანმა კომპანიამ დაარღვია საკუთარი დაპირება:
- Google: უარი თქვა სლოგანზე „Don’t be evil“ და მოგვიანებით გააუქმა ვალდებულება, რომ ხელოვნურ ინტელექტს ზიანის მისაყენებლად არ გამოიყენებდა, რათა ტექნოლოგია თვალთვალისა და იარაღისთვის გაეყიდა.
- OpenAI: თავისი მისიიდან ამოიღო სიტყვა „უსაფრთხოება“.
- xAI: სრულად დაშალა უსაფრთხოების გუნდი.
- Anthropic: გააუქმა ყველაზე მნიშვნელოვანი პირობა მძლავრი სისტემების უსაფრთხო გამოშვების შესახებ.
„ამერიკაში ხელოვნური ინტელექტის სისტემებზე უფრო ნაკლები რეგულაცია არსებობს, ვიდრე სენდვიჩებზე. თუ სენდვიჩების მაღაზიის სამზარეულოში ინსპექტორი ვირთხებს იპოვის, ის გაყიდვას აგიკრძალავთ. მაგრამ თუ იტყვით, რომ უშვებთ სუპერინტელექტს, რომელმაც შესაძლოა მთავრობა დაამხოს, ინსპექტორს ბერკეტი არ გააჩნია“, — აცხადებს ტეგმარკი.
საკუთარი თავისთვის დაგებული ხაფანგი
კომპანიების მიერ რეგულაციების წინააღმდეგ ლობირებამ შექმნა სამართლებრივი ვაკუუმი. ვინაიდან არ არსებობს კანონი, რომელიც კრძალავს ადამიანების მოსაკლავად გამიზნული ხელოვნური ინტელექტის შექმნას, მთავრობას შეუძლია მოულოდნელად მოითხოვოს მისი დამზადება. ტეგმარკის აზრით, კომპანიებს თავადვე რომ მოეთხოვათ მკაცრი კანონების მიღება, ისინი დღეს ამ მდგომარეობაში არ აღმოჩნდებოდნენ.
ჩინეთთან რბოლის არგუმენტი
ხელოვნური ინტელექტის კომპანიების ლობისტები ხშირად იყენებენ ჩინეთის ფაქტორს რეგულაციების თავიდან ასაცილებლად. თუმცა, რეალობა განსხვავებულია: ჩინეთი თავად კრძალავს ანთროპომორფულ (ადამიანის მსგავს) ხელოვნურ ინტელექტს, რადგან მიიჩნევს, რომ ეს მათ ახალგაზრდობას ასუსტებს. ჩინეთის კომუნისტური პარტიისთვის კონტროლი პრიორიტეტია და ისინი არ დაუშვებენ ისეთი ტექნოლოგიის შექმნას, რომელიც მათ მმართველობას საფრთხეს შეუქმნის.
ტეგმარკის ხედვით, უკონტროლო სუპერინტელექტი არა ინსტრუმენტი, არამედ ეროვნული უსაფრთხოების საფრთხეა. ის ამას ცივი ომის პერიოდს ადარებს, როდესაც ამერიკამ და საბჭოთა კავშირმა გააცნობიერეს, რომ ბირთვული შეიარაღების რბოლა თვითმკვლელობის ტოლფასი იყო და მასში გამარჯვებული ვერ იარსებებდა.
განვითარების ტემპი და მომავალი
ხელოვნური ინტელექტის განვითარების სისწრაფემ ექსპერტების მოლოდინს გადააჭარბა. თუ ადრე მიიჩნევდნენ, რომ ენობრივი ბარიერის გადალახვას ათწლეულები დასჭირდებოდა, დღეს ეს უკვე რეალობაა. ხელოვნური ინტელექტის საერთო ინტელექტისკენ (AGI) მიმავალ გზაზე შემდეგი მონაცემები ფიქსირდება:
- GPT-4: მიზნის 27%-ს მიაღწია.
- GPT-5: უკვე 57%-ზეა.
ეს პროგრესი მიუთითებს, რომ სულ რამდენიმე წელიწადში შესაძლოა შრომის ბაზარი რადიკალურად შეიცვალოს. Anthropic-ის შავ სიაში მოხვედრის შემდეგ, საინტერესოა სხვა გიგანტების პოზიცია. OpenAI-მ უკვე გააფორმა ხელშეკრულება პენტაგონთან, თუმცა სემ ალტმანმა განაცხადა, რომ ის Anthropic-ის გვერდით დგას გარკვეული „წითელი ხაზების“ საკითხში. Google და xAI ამ დრომდე დუმილს ინარჩუნებენ.
ტეგმარკი ოპტიმიზმის საფუძველს მაინც ხედავს: თუ ხელოვნური ინტელექტის კომპანიებს ისევე მოეპყრობიან, როგორც ნებისმიერ სხვას — მაგალითად, მოსთხოვენ კლინიკურ კვლევებს პროდუქტის გამოშვებამდე — შესაძლებელი იქნება ხელოვნური ინტელექტის „ოქროს ხანაში“ შესვლა ეგზისტენციალური შიშის გარეშე.
მსგავსი სტატიები

მილიარდდოლარიანი გარიგებები: როგორ შენდება ხელოვნური ინტელექტის ბუმისთვის საჭირო ინფრასტრუქტურა
ხელოვნური ინტელექტის ბუმი მოითხოვს კოლოსალურ ინფრასტრუქტურას. გაიგეთ, როგორ ხარჯავენ Microsoft, Nvidia, Oracle და Meta ასეულობით მილიარდ დოლარს მონაცემთა ცენტრებსა და ენერგორესურსებში.

Anthropic-ის Claude აპლიკაციების მაღაზიაში მეორე ადგილზე დაწინაურდა: პენტაგონთან დაპირისპირებამ ჩატბოტის პოპულარობა გაზარდა
Anthropic-ის ჩატბოტი Claude აშშ-ის App Store-ში მეორე ადგილზე ავიდა. პოპულარობის ზრდა პენტაგონთან არსებულ დავას და უსაფრთხოების გარანტიებზე უარს უკავშირდება.

OpenAI-მ პენტაგონთან ხელშეკრულება გააფორმა: სემ ალტმანი „ტექნიკურ გარანტიებზე“ საუბრობს
OpenAI-მ აშშ-ის თავდაცვის დეპარტამენტთან შეთანხმებას მიაღწია, რაც უწყებას გასაიდუმლოებულ ქსელებში AI მოდელების გამოყენების უფლებას აძლევს. სემ ალტმანი ტექნიკურ გარანტიებზე საუბრობს.