Skip to main content
ხელოვნური ინტელექტი4.5.20260 ნახვა

ილონ მასკის ერთადერთი ექსპერტი OpenAI-ის სასამართლო პროცესზე ხელოვნური ინტელექტის „შეიარაღების რბოლის“ საფრთხეებზე საუბრობს

ილონ მასკისა და OpenAI-ის სასამართლო დავაში ექსპერტმა სტიუარტ რასელმა ხელოვნური ინტელექტის განვითარების რისკებსა და „შეიარაღების რბოლაზე“ ისაუბრა, რაც საფრთხეს უქმნის ტექნოლოგიის უსაფრთხოებას.

ილონ მასკის ერთადერთი ექსპერტი OpenAI-ის სასამართლო პროცესზე ხელოვნური ინტელექტის „შეიარაღების რბოლის“ საფრთხეებზე საუბრობს

როდის უნდა დავიწყოთ ხელოვნური ინტელექტის (AI) მიერ გამოწვეული შესაძლო კატასტროფების სერიოზულად აღქმა? ეს არის ილონ მასკის იმ მცდელობის ერთ-ერთი მთავარი ქვეტექსტი, რომელიც OpenAI-ის მომგებიან ბიზნესად ქცევის შეჩერებას ისახავს მიზნად. მასკის ადვოკატები ამტკიცებენ, რომ ორგანიზაცია თავდაპირველად საქველმოქმედო მიზნებით შეიქმნა და AI-ის უსაფრთხოებაზე იყო ორიენტირებული, თუმცა მოგვიანებით გზას აცდა და მოგების ძიებაში ჩაერთო.

ამ არგუმენტის დასამტკიცებლად მოსარჩელე მხარე დამფუძნებლების ძველ ელექტრონულ წერილებსა და განცხადებებს იშველიებს, სადაც საუბარი იყო Google DeepMind-ის საპირწონე, საზოგადოებრივ ინტერესებზე ორიენტირებული ძალის შექმნის აუცილებლობაზე. სასამართლოში ჩვენების მისაცემად მოწვეული იყო ტექნოლოგიების სფეროს ერთადერთი ექსპერტი — სტიუარტ რასელი, ბერკლის კალიფორნიის უნივერსიტეტის კომპიუტერული მეცნიერების პროფესორი, რომელიც ათწლეულების განმავლობაში სწავლობს ხელოვნურ ინტელექტს.

რასელის ამოცანა იყო AI-ის შესახებ ზოგადი ინფორმაციის მიწოდება და იმის დასაბუთება, რომ ეს ტექნოლოგია საკმარისად სახიფათოა საიმისოდ, რომ მასზე სერიოზულად ვინერვიულოთ. აღსანიშნავია, რომ 2023 წლის მარტში რასელმა ხელი მოაწერა ღია წერილს, რომელიც AI-ის კვლევების ექვსი თვით შეჩერებას ითხოვდა. საინტერესოა, რომ ამავე წერილს ხელი ილონ მასკმაც მოაწერა, მიუხედავად იმისა, რომ იმავე პერიოდში საკუთარ მომგებიან AI ლაბორატორიას, xAI-ს აფუძნებდა.

ხელოვნური ინტელექტის განვითარებასთან დაკავშირებული რისკები

ნაფიც მსაჯულებსა და მოსამართლე ივონ გონსალეს როჯერსს რასელმა განუმარტა, რომ AI-ის განვითარება მრავალ რისკს შეიცავს. მათ შორისაა:

  • კიბერუსაფრთხოების საფრთხეები;
  • „შეუსაბამობის“ (misalignment) პრობლემები, როდესაც სისტემის მიზნები არ ემთხვევა ადამიანის ინტერესებს;
  • ზოგადი ხელოვნური ინტელექტის (AGI) შექმნის პროცესში არსებული პრინციპი — „გამარჯვებულს მიაქვს ყველაფერი“.

ექსპერტის თქმით, არსებობს აშკარა დაპირისპირება AGI-ის სწრაფ განვითარებასა და უსაფრთხოების დაცვას შორის. მიუხედავად იმისა, რომ OpenAI-ის ადვოკატების პროტესტის გამო მოსამართლემ რასელის ჩვენება ნაწილობრივ შეზღუდა, პროფესორი დიდი ხანია აკრიტიკებს იმ „შეიარაღების რბოლას“, რომელიც მსოფლიოს წამყვან ლაბორატორიებს შორის AGI-ის პირველობისთვის მიმდინარეობს. ის მოუწოდებს მთავრობებს, სფეროს უფრო მკაცრი რეგულაციები დაუწესონ.

კორპორაციული ინტერესები და უსაფრთხოება

ჯვარედინი დაკითხვისას OpenAI-ის ადვოკატებმა ხაზი გაუსვეს იმას, რომ რასელი უშუალოდ არ აფასებდა ორგანიზაციის კორპორაციულ სტრუქტურას ან მათ კონკრეტულ უსაფრთხოების პოლიტიკას. თუმცა, სასამართლო პროცესის მთავარი კითხვა მაინც კორპორაციულ ინტერესებსა და AI-ის უსაფრთხოებას შორის არსებულ კავშირს ეხება.

OpenAI-ის თითქმის ყველა დამფუძნებელი აქტიურად საუბრობდა AI-ის რისკებზე, თუმცა პარალელურად ხაზს უსვამდნენ მის სარგებელს და ცდილობდნენ ტექნოლოგიის მაქსიმალურად სწრაფად განვითარებას. ამავდროულად, ისინი გეგმავდნენ მომგებიანი საწარმოების შექმნას, რომლებსაც თავადვე გააკონტროლებდნენ.

გარედან დაკვირვებისას აშკარაა, რომ დაფუძნებიდან მალევე OpenAI-ში გააცნობიერეს: წარმატებისთვის გაცილებით მეტი გამოთვლითი რესურსი და ფინანსები იყო საჭირო. ამ თანხების მოზიდვა კი მხოლოდ მომგებიანი ინვესტორებისგან იყო შესაძლებელი. შიშმა, რომ AGI შესაძლოა მხოლოდ ერთი ორგანიზაციის ხელში აღმოჩენილიყო, დამფუძნებლები აიძულა მოეძიებინათ კაპიტალი, რამაც საბოლოოდ გუნდი დაშალა და საფუძველი ჩაუყარა დღევანდელ „შეიარაღების რბოლას“.

პოლიტიკური გამოძახილი და საზოგადოებრივი აზრი

მსგავსი დინამიკა უკვე ეროვნულ დონეზეც შეიმჩნევა. სენატორ ბერნი სანდერსის ინიციატივა მონაცემთა ცენტრების მშენებლობაზე მორატორიუმის დაწესების შესახებ, ეხმიანება იმ შიშებს, რომლებსაც ილონ მასკი, სემ ალტმანი, ჯეფრი ჰინტონი და სხვები გამოთქვამენ. თუმცა, ამას მოჰყვა კრიტიკაც მონაცემთა ინოვაციების ცენტრის (Center for Data Innovation) წარმომადგენლის, ჰოდან ომარის მხრიდან.

ომარმა აღნიშნა, რომ გაუგებარია, რატომ უნდა ენდოს საზოგადოება ტექნოლოგიური მილიარდერების მხოლოდ იმ სიტყვებს, რომლებიც მათ შიშებს ეხება, და უგულებელყოს მათი იმედები. მისი თქმით, მილიარდერების ციტირება ხშირად მხოლოდ მაშინ ხდება, როდესაც ეს ვინმეს არგუმენტაციაში არსებული ხვრელების ამოსავსებად სჭირდება.

ამჟამად სასამართლო პროცესის ორივე მხარე სასამართლოსგან სწორედ ამას ითხოვს: სერიოზულად აღიქვან ალტმანისა და მასკის არგუმენტების გარკვეული ნაწილი, ხოლო ის ნაწილები, რომლებიც მათ იურიდიულ პოზიციას არ აწყობს, უგულებელყონ.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

Cerebras-ის გზა IPO-სკენ: OpenAI-ის პარტნიორი რეკორდულ მაჩვენებლებს უმიზნებს
ხელოვნური ინტელექტი

Cerebras-ის გზა IPO-სკენ: OpenAI-ის პარტნიორი რეკორდულ მაჩვენებლებს უმიზნებს

Cerebras Systems-ი 2026 წლის ყველაზე მასშტაბური ტექნოლოგიური IPO-სთვის ემზადება. კომპანია, რომელიც OpenAI-ის მჭიდრო პარტნიორია, 26.6 მილიარდი დოლარის საბაზრო კაპიტალიზაციას უმიზნებს.

5.5.2026
Nvidia-ს ხელმძღვანელი ჯენსენ ჰუანგი: ხელოვნური ინტელექტი სამუშაო ადგილების „უზარმაზარ რაოდენობას“ ქმნის
ხელოვნური ინტელექტი

Nvidia-ს ხელმძღვანელი ჯენსენ ჰუანგი: ხელოვნური ინტელექტი სამუშაო ადგილების „უზარმაზარ რაოდენობას“ ქმნის

Nvidia-ს აღმასრულებელი დირექტორი ჯენსენ ჰუანგი ხელოვნურ ინტელექტს სამუშაო ადგილების გენერატორად მიიჩნევს და აკრიტიკებს „AI განკითხვის დღის“ რიტორიკას, რომელიც საზოგადოებაში შიშს თესავს.

5.5.2026
Sierra-მ $950 მილიონი მოიზიდა: კორპორაციული ხელოვნური ინტელექტის ბაზარზე კონკურენცია მწვავდება
ხელოვნური ინტელექტი

Sierra-მ $950 მილიონი მოიზიდა: კორპორაციული ხელოვნური ინტელექტის ბაზარზე კონკურენცია მწვავდება

ბრეტ ტეილორის სტარტაპმა Sierra-მ $950 მილიონი მოიზიდა. კომპანია, რომლის ღირებულება $15 მილიარდს აჭარბებს, კორპორაციული AI-აგენტების ბაზარზე ლიდერობას გეგმავს.

4.5.2026