Skip to main content
ხელოვნური ინტელექტი7.5.20267 ნახვა

ილონ მასკის სარჩელი OpenAI-ის უსაფრთხოების სტანდარტებს კითხვის ნიშნის ქვეშ აყენებს

ილონ მასკის სარჩელი OpenAI-ის წინააღმდეგ კომპანიის შიდა მართვისა და უსაფრთხოების პრობლემებს ააშკარავებს, რაც კითხვის ნიშნის ქვეშ აყენებს მის თავდაპირველ მისიას.

ილონ მასკის სარჩელი OpenAI-ის უსაფრთხოების სტანდარტებს კითხვის ნიშნის ქვეშ აყენებს

ილონ მასკის სამართლებრივი მცდელობა OpenAI-ის დაშლის შესახებ, შესაძლოა, მნიშვნელოვნად იყოს დამოკიდებული იმაზე, თუ რამდენად უწყობს ხელს ან უშლის ხელს კომპანიის კომერციული შვილობილი სტრუქტურა მის თავდაპირველ მისიას — უზრუნველყოს ხელოვნური ზოგადი ინტელექტის (AGI) კაცობრიობის სასიკეთოდ გამოყენება. ოკლენდში (კალიფორნიის შტატი) გამართულ ფედერალურ სასამართლო სხდომაზე ყოფილმა თანამშრომლებმა და საბჭოს წევრებმა განაცხადეს, რომ ბაზარზე AI პროდუქტების სწრაფად გატანის მცდელობამ კომპანიის უსაფრთხოების ვალდებულებები დააზიანა.

როუზი კემპბელი, რომელიც OpenAI-ის AGI-სთვის მზადყოფნის გუნდს 2021 წელს შეუერთდა და კომპანია 2024 წელს, მისი გუნდის დაშლის შემდეგ დატოვა, სასამართლოში ჩვენებას აძლევდა. აღსანიშნავია, რომ იმავე პერიოდში დაიხურა უსაფრთხოებაზე ორიენტირებული კიდევ ერთი — „სუპერ-ალიანსის“ (Super Alignment) გუნდი. კემპბელის თქმით, თავდაპირველად ორგანიზაცია კვლევებზე იყო ორიენტირებული, თუმცა დროთა განმავლობაში ის პროდუქტზე ფოკუსირებულ კომპანიად გარდაიქმნა.

ჯვარედინი დაკითხვისას კემპბელმა აღიარა, რომ AGI-ს შესაქმნელად მნიშვნელოვანი დაფინანსება იყო საჭირო, თუმცა აღნიშნა, რომ სუპერ-ინტელექტუალური მოდელის შექმნა სათანადო უსაფრთხოების ზომების გარეშე ეწინააღმდეგება იმ ორგანიზაციის მისიას, რომელსაც ის თავდაპირველად შეუერთდა.

უსაფრთხოების პროცესების დარღვევა და Microsoft-ის როლი

კემპბელმა ყურადღება გაამახვილა ინციდენტზე, როდესაც Microsoft-მა GPT-4 მოდელის ვერსია ინდოეთში, Bing-ის საძიებო სისტემის მეშვეობით, მანამ დანერგა, სანამ მას OpenAI-ის დეპლოიმენტის უსაფრთხოების საბჭო (DSB) შეაფასებდა. მიუხედავად იმისა, რომ თავად მოდელი იმ მომენტში დიდ საფრთხეს არ წარმოადგენდა, კემპბელის აზრით, აუცილებელია მყარი პრეცედენტების შექმნა ტექნოლოგიის გაძლიერებასთან ერთად, რათა უსაფრთხოების პროცესები ყოველთვის მკაცრად იყოს დაცული.

OpenAI-ის ადვოკატებმა კემპბელს ათქმევინეს, რომ მისი „სუბიექტური აზრით“, OpenAI-ის უსაფრთხოების მიდგომა მაინც აღემატება მასკის მიერ დაფუძნებული xAI-ის სტანდარტებს. OpenAI საჯაროდ აქვეყნებს მოდელების შეფასებებსა და უსაფრთხოების ჩარჩოებს, თუმცა კომპანიამ უარი თქვა კომენტარი გაეკეთებინა AGI-სთან დაკავშირებულ მიმდინარე მიდგომებზე. კომპანიის მზადყოფნის გუნდის ახალი ხელმძღვანელი, დილან სკანდინარო, თებერვალში Anthropic-იდან გადმოვიდა, რაზეც სემ ალტმანმა აღნიშნა, რომ ეს დანიშვნა მას „უფრო მშვიდად ძილის“ საშუალებას მისცემდა.

სემ ალტმანის გათავისუფლება და მართვის სტილი

GPT-4-ის ინდოეთში დანერგვა ერთ-ერთი იმ „წითელი დროშათაგანი“ აღმოჩნდა, რამაც 2023 წელს არაკომერციულ საბჭოს სემ ალტმანის დროებითი გათავისუფლებისკენ უბიძგა. ეს გადაწყვეტილება მოჰყვა თანამშრომლების, მათ შორის მაშინდელი მთავარი მეცნიერის, ილია სუცკევერისა და ტექნიკური დირექტორის, მირა მურატის ჩივილებს ალტმანის მართვის სტილზე.

საბჭოს მაშინდელმა წევრმა, ტაშა მაკკოლიმ, სასამართლოში ისაუბრა იმ შეშფოთებაზე, რომ ალტმანი საბჭოსთან ბოლომდე გულწრფელი არ იყო. მაკკოლიმ აღნიშნა ალტმანის მიერ საბჭოს შეცდომაში შეყვანის რამდენიმე შემთხვევა:

  • ალტმანმა მოატყუა საბჭოს ერთ-ერთი წევრი ჰელენ ტონერის გადაყენების სურვილის შესახებ მას შემდეგ, რაც ტონერმა OpenAI-ის უსაფრთხოების პოლიტიკის კრიტიკული ნაშრომი გამოაქვეყნა.
  • მან საბჭოს არ შეატყობინა ChatGPT-ის საჯაროდ გაშვების გადაწყვეტილება.
  • საბჭოს წევრები შეშფოთებულნი იყვნენ პოტენციური ინტერესთა კონფლიქტების შესახებ ინფორმაციის დაფარვის გამო.

არაკომერციული კონტროლის მარცხი

მაკკოლის განცხადებით, არაკომერციული საბჭოს მანდატი იყო ზედამხედველობა გაეწია კომერციული სტრუქტურისთვის, თუმცა მათ არ ჰქონდათ საკმარისი ნდობა მიწოდებული ინფორმაციის მიმართ, რათა ინფორმირებული გადაწყვეტილებები მიეღოთ. საბოლოოდ, როდესაც თანამშრომლებმა ალტმანს დაუჭირეს მხარი და Microsoft-მა სტატუს-კვოს აღდგენა სცადა, საბჭომ უკან დაიხია და ალტმანის მოწინააღმდეგე წევრები გადადგნენ.

ეს ფაქტი პირდაპირ ამყარებს ილონ მასკის არგუმენტს, რომ OpenAI-ის ტრანსფორმაციამ კვლევითი ორგანიზაციიდან მსოფლიოს ერთ-ერთ უმსხვილეს კერძო კომპანიად დაარღვია დამფუძნებლებს შორის არსებული შეთანხმება. კოლუმბიის სამართლის სკოლის ყოფილმა დეკანმა, დევიდ შიზერმა, რომელიც მასკის გუნდის ექსპერტად გამოდის, დაადასტურა მაკკოლის შეშფოთება. მისი თქმით, მთავარი პრობლემა პროცესების უგულებელყოფაა — თუ უსაფრთხოება პრიორიტეტია, წესების დაცვა სავალდებულო უნდა იყოს.

მაკკოლიმ ასევე აღნიშნა, რომ OpenAI-ის შიდა მართვის ხარვეზები მიუთითებს ხელოვნური ინტელექტის სახელმწიფო რეგულირების აუცილებლობაზე, რადგან საზოგადოებრივი სიკეთე არ უნდა იყოს დამოკიდებული მხოლოდ ერთი აღმასრულებელი დირექტორის გადაწყვეტილებებზე.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

Bumble „სვაიპის“ ფუნქციას აუქმებს — კომპანიის აღმასრულებელი დირექტორი რევოლუციურ ცვლილებებს აანონსებს
ხელოვნური ინტელექტი

Bumble „სვაიპის“ ფუნქციას აუქმებს — კომპანიის აღმასრულებელი დირექტორი რევოლუციურ ცვლილებებს აანონსებს

Bumble-ის აღმასრულებელი დირექტორი უიტნი ვულფ ჰერდი აცხადებს, რომ აპლიკაცია უარს ამბობს „სვაიპის“ ფუნქციაზე და ხელოვნურ ინტელექტზე დაფუძნებულ რევოლუციურ ცვლილებებს გეგმავს.

7.5.2026
Perplexity-ის Personal Computer უკვე ხელმისაწვდომია Mac-ის ყველა მომხმარებლისთვის
ხელოვნური ინტელექტი

Perplexity-ის Personal Computer უკვე ხელმისაწვდომია Mac-ის ყველა მომხმარებლისთვის

Perplexity-მ თავისი ლოკალური AI აგენტი, Personal Computer, Mac-ის მომხმარებლებისთვის გახსნა. ინსტრუმენტი საშუალებას იძლევა ავტომატიზდეს რთული სამუშაო პროცესები ფაილებსა და აპლიკაციებს შორის.

7.5.2026
Snap-მა და Perplexity-მ 400 მილიონ დოლარიანი პარტნიორობა შეწყვიტეს
ხელოვნური ინტელექტი

Snap-მა და Perplexity-მ 400 მილიონ დოლარიანი პარტნიორობა შეწყვიტეს

Snap-მა და Perplexity-მ 400 მილიონ დოლარიანი გარიგება გააუქმეს. შეთანხმება Snapchat-ში ხელოვნური ინტელექტის საძიებო სისტემის ინტეგრაციას ითვალისწინებდა.

7.5.2026