OpenAI-სა და Google-ის თანამშრომლები Anthropic-ს პენტაგონის წინააღმდეგ სასამართლო დავაში მხარს უჭერენ
OpenAI-სა და Google DeepMind-ის 30-ზე მეტი თანამშრომელი Anthropic-ს იცავს მას შემდეგ, რაც აშშ-ის თავდაცვის დეპარტამენტმა კომპანია „მიწოდების ჯაჭვის რისკად“ გამოაცხადა.

OpenAI-სა და Google DeepMind-ის 30-ზე მეტმა თანამშრომელმა ორშაბათს განცხადება შეიტანა Anthropic-ის მხარდასაჭერად აშშ-ის თავდაცვის დეპარტამენტის წინააღმდეგ მიმდინარე სასამართლო პროცესში. აღნიშნული ნაბიჯი მას შემდეგ გადაიდგა, რაც ფედერალურმა სააგენტომ ხელოვნური ინტელექტის კომპანია „მიწოდების ჯაჭვის რისკად“ (supply-chain risk) გამოაცხადა.
სასამართლოში წარდგენილ დოკუმენტში ნათქვამია, რომ მთავრობის მიერ Anthropic-ისთვის ამ სტატუსის მინიჭება იყო ძალაუფლების არასათანადო და თვითნებური გამოყენება, რასაც სერიოზული შედეგები ექნება ინდუსტრიისთვის. დოკუმენტს ხელს აწერს Google DeepMind-ის მთავარი მეცნიერი ჯეფ დინიც.
გასული კვირის ბოლოს პენტაგონმა Anthropic-ი მიწოდების ჯაჭვის რისკად შერაცხა — სტატუსი, რომელიც, როგორც წესი, უცხოელი მოწინააღმდეგეებისთვისაა განკუთვნილი. ეს გადაწყვეტილება მოჰყვა კომპანიის უარს, ნება დაერთო თავდაცვის დეპარტამენტისთვის (DOD), გამოეყენებინა მისი ტექნოლოგია ამერიკელების მასობრივი თვალთვალისთვის ან ავტონომიური იარაღის მართვისთვის. თავდაცვის დეპარტამენტი ამტკიცებდა, რომ მათ უნდა ჰქონდეთ ხელოვნური ინტელექტის ნებისმიერი „კანონიერი“ მიზნით გამოყენების უფლება და არ უნდა იყვნენ შეზღუდულნი კერძო კონტრაქტორის მიერ.
Anthropic-ის მხარდამჭერი სასამართლო მეგობრის (amicus brief) დასკვნა საქმეში მას შემდეგ გამოჩნდა, რაც Claude-ის შემქმნელმა თავდაცვის დეპარტამენტისა და სხვა ფედერალური სააგენტოების წინააღმდეგ ორი სარჩელი შეიტანა. ამის შესახებ ინფორმაცია პირველად გამოცემა Wired-მა გაავრცელა.
თანამშრომლების პოზიცია და პენტაგონის ქმედებები
სასამართლო დოკუმენტში Google-ისა და OpenAI-ს თანამშრომლები აღნიშნავენ, რომ თუ პენტაგონი აღარ იყო კმაყოფილი Anthropic-თან გაფორმებული ხელშეკრულების პირობებით, სააგენტოს შეეძლო უბრალოდ გაეუქმებინა კონტრაქტი და სხვა წამყვანი AI კომპანიის მომსახურება შეეძინა.
რეალურად, თავდაცვის დეპარტამენტმა Anthropic-ის რისკად გამოცხადებისთანავე გააფორმა ხელშეკრულება OpenAI-სთან, რასაც ChatGPT-ის შემქმნელი კომპანიის ბევრი თანამშრომელი აპროტესტებს. განცხადებაში ნათქვამია:
„თუ ამ ქმედებას გაგრძელების საშუალება მიეცემა, აშშ-ის ერთ-ერთი წამყვანი AI კომპანიის დასჯის მცდელობა უდავოდ იქონიებს გავლენას ქვეყნის ინდუსტრიულ და სამეცნიერო კონკურენტუნარიანობაზე ხელოვნური ინტელექტის სფეროში და მის მიღმა. ეს ასევე შეაფერხებს ღია მსჯელობას ჩვენს სფეროში არსებული AI სისტემების რისკებსა და სარგებელზე.“
უსაფრთხოების გარანტიები და „წითელი ხაზები“
დოკუმენტი ასევე ადასტურებს, რომ Anthropic-ის მიერ დაწესებული „წითელი ხაზები“ ლეგიტიმურია და მკაცრ დამცავ მექანიზმებს საჭიროებს. ვინაიდან ხელოვნური ინტელექტის გამოყენების მარეგულირებელი საჯარო კანონმდებლობა ჯერ არ არსებობს, დეველოპერების მიერ დაწესებული სახელშეკრულებო და ტექნიკური შეზღუდვები კატასტროფული ბოროტად გამოყენებისგან დაცვის კრიტიკულ საშუალებად მიიჩნევა.
ბევრმა თანამშრომელმა, ვინც ამ განცხადებას მოაწერა ხელი, ბოლო კვირების განმავლობაში ღია წერილებსაც დაუჭირა მხარი. ისინი მოუწოდებენ თავდაცვის დეპარტამენტს, გააუქმოს მინიჭებული სტატუსი, ხოლო საკუთარი კომპანიების ხელმძღვანელებს სთხოვენ, მხარი დაუჭირონ Anthropic-ს და უარი თქვან მათი AI სისტემების ცალმხრივ გამოყენებაზე.
მსგავსი სტატიები

ხელოვნურ ინტელექტზე დაფუძნებულ აპლიკაციებს მომხმარებლების შენარჩუნება უჭირთ: ახალი კვლევის შედეგები
RevenueCat-ის ახალი ანგარიში აჩვენებს, რომ ხელოვნურ ინტელექტზე დაფუძნებული აპლიკაციები ეფექტურად ახდენენ მონეტიზაციას, თუმცა მომხმარებელთა გრძელვადიანი შენარჩუნება უჭირთ.

Amazon-მა ჯანდაცვის ხელოვნური ინტელექტის ასისტენტი საკუთარ ვებსაიტსა და აპლიკაციაში დაამატა
Amazon-მა ჯანდაცვის AI ასისტენტი, Health AI, საკუთარ პლატფორმებზე დაამატა. სისტემა მომხმარებლებს პერსონალიზებულ სამედიცინო რჩევებს აძლევს და One Medical-ის ექიმებთან აკავშირებს.

Google-მა Chrome-ში Gemini-ს ინტეგრაცია ინდოეთსა და სხვა რეგიონებში გააფართოა
Google-მა Chrome-ის ბრაუზერში Gemini-ს გვერდითა პანელი დაამატა ინდოეთის, კანადისა და ახალი ზელანდიის მომხმარებლებისთვის, რაც ხელოვნური ინტელექტის გამოყენებას კიდევ უფრო ამარტივებს.