Skip to main content
ხელოვნური ინტელექტი27.2.20261 ნახვა

ილონ მასკი OpenAI-ს უსაფრთხოების სტანდარტებს აკრიტიკებს: „Grok-ის გამო თავი არავის მოუკლავს“

ილონ მასკმა OpenAI-ს წინააღმდეგ მიმდინარე სასამართლო პროცესის ფარგლებში კომპანიის უსაფრთხოების პოლიტიკა მკაცრად გააკრიტიკა და ChatGPT-ისთან დაკავშირებულ რისკებზე ისაუბრა.

ილონ მასკი OpenAI-ს უსაფრთხოების სტანდარტებს აკრიტიკებს: „Grok-ის გამო თავი არავის მოუკლავს“

ილონ მასკმა OpenAI-ს წინააღმდეგ მიმდინარე სასამართლო დავის ფარგლებში გამოქვეყნებულ ჩვენებაში კომპანიის უსაფრთხოების სტანდარტები მკაცრად გააკრიტიკა. ტექნოლოგიური გიგანტის მტკიცებით, მისი კომპანია xAI უსაფრთხოებას გაცილებით დიდ პრიორიტეტს ანიჭებს. მან ხაზგასმით აღნიშნა: „Grok-ის გამო თავი არავის მოუკლავს, თუმცა, როგორც ჩანს, ChatGPT-ის შემთხვევაში ეს მოხდა“.

ეს განცხადება მასკმა 2023 წლის მარტში ხელმოწერილი საჯარო წერილის შესახებ დასმული კითხვების საპასუხოდ გააკეთა. აღნიშნულ წერილში ის მოუწოდებდა ხელოვნური ინტელექტის ლაბორატორიებს, მინიმუმ ექვსი თვით შეეჩერებინათ GPT-4-ზე (OpenAI-ს იმჟამინდელი ფლაგმანი მოდელი) უფრო მძლავრი სისტემების განვითარება. წერილს, რომელსაც ხელი 1100-ზე მეტმა ადამიანმა, მათ შორის AI-ს მრავალმა ექსპერტმა მოაწერა, ნათქვამი იყო, რომ ლაბორატორიებში დაგეგმვისა და მართვის პროცესები არაადეკვატურია. დოკუმენტის თანახმად, კომპანიები ჩაბმულნი არიან „უკონტროლო რბოლაში სულ უფრო მძლავრი ციფრული გონების შესაქმნელად, რომლის გაგება, პროგნოზირება ან საიმედო კონტროლი თავად მათ შემქმნელებსაც კი არ შეუძლიათ“.

მას შემდეგ ეს შიშები კიდევ უფრო გამძაფრდა. OpenAI ამჟამად რამდენიმე სასამართლო დავის წინაშე დგას, სადაც ნათქვამია, რომ ChatGPT-ის მანიპულაციურმა სასაუბრო ტაქტიკამ მომხმარებლებზე უარყოფითი ფსიქიკური გავლენა მოახდინა, ზოგიერთ შემთხვევაში კი საქმე სუიციდამდე მივიდა. მასკის კომენტარი მიანიშნებს, რომ ეს ინციდენტები შესაძლოა გამოყენებულ იქნას OpenAI-ს წინააღმდეგ მიმდინარე საქმეში. ვიდეოჩვენების ტრანსკრიპტი, რომელიც სექტემბერში ჩაიწერა, საჯარო მიმდინარე კვირას გახდა, მომავალ თვეში დაგეგმილი ნაფიც მსაჯულთა სასამართლო განხილვის წინ.

OpenAI-ს წინააღმდეგ მიმართული სარჩელი ფოკუსირებულია კომპანიის ტრანსფორმაციაზე არაკომერციული კვლევითი ლაბორატორიიდან მომგებიან ბიზნეს სტრუქტურად. მასკი ამტკიცებს, რომ ამით დაირღვა დამფუძნებელი შეთანხმებები. მისი არგუმენტაციით, OpenAI-ს კომერციულმა ურთიერთობებმა შესაძლოა საფრთხე შეუქმნას AI-ს უსაფრთხოებას, რადგან ასეთი პარტნიორობები სისწრაფეს, მასშტაბებსა და შემოსავალს უსაფრთხოებაზე წინ აყენებს.

თუმცა, აღნიშნული ჩვენების ჩაწერის შემდეგ, უსაფრთხოების პრობლემების წინაშე თავად xAI-ც აღმოჩნდა. გასულ თვეში მასკის სოციალური ქსელი X გაივსო Grok-ის მიერ გენერირებული არაეთიკური შიშველი ფოტოებით, რომელთა შორის, გავრცელებული ინფორმაციით, არასრულწლოვანთა გამოსახულებებიც იყო. ამ ფაქტმა კალიფორნიის გენერალური პროკურორის ოფისის მხრიდან გამოძიების დაწყება გამოიწვია. საკითხს ევროკავშირიც იკვლევს, ხოლო ზოგიერთმა ქვეყანამ გარკვეული შეზღუდვები და აკრძალვებიც კი დააწესა.

ახლახან გასაჯაროებულ ჩვენებაში მასკმა განმარტა, რომ AI-ს უსაფრთხოების შესახებ წერილს ხელი იმიტომ მოაწერა, რომ ეს „კარგ იდეად ჩანდა“ და არა იმიტომ, რომ კონკურენტი კომპანიის ჩამოყალიბებას გეგმავდა. „ხელი მოვაწერე, როგორც ბევრმა სხვამ, რათა მოვუწოდო სიფრთხილისკენ AI-ს განვითარების პროცესში. მე უბრალოდ მინდოდა, რომ AI-ს უსაფრთხოება პრიორიტეტული ყოფილიყო“, — განაცხადა მან.

ილონ მასკის გამოსახულება

ჩვენების დროს მასკმა სხვა კითხვებსაც უპასუხა, მათ შორის ზოგადი ხელოვნური ინტელექტის (AGI) შესახებ — კონცეფცია, რომელიც გულისხმობს AI-ს უნარს, გაუტოლდეს ან გადააჭარბოს ადამიანის გონებრივ შესაძლებლობებს სხვადასხვა ამოცანაში. მისი თქმით, „ეს რისკის შემცველია“. მან ასევე დაადასტურა, რომ „შეცდა“ OpenAI-სთვის გაღებული 100 მილიონი დოლარის ოდენობის შემოწირულობის შესახებ; განახლებული სარჩელის მიხედვით, რეალური ციფრი 44.8 მილიონ დოლართან უფრო ახლოსაა.

მასკმა ასევე გაიხსენა OpenAI-ს დაფუძნების მიზეზები. მისი პერსპექტივით, ის სულ უფრო მეტად იყო შეშფოთებული Google-ის მონოპოლიით ხელოვნური ინტელექტის სფეროში. მან აღნიშნა, რომ Google-ის თანადამფუძნებელ ლარი პეიჯთან საუბრები „საგანგაშო“ იყო, რადგან პეიჯი AI-ს უსაფრთხოებას სერიოზულად არ ეკიდებოდა. მასკის მტკიცებით, OpenAI სწორედ ამ საფრთხის საპირწონედ შეიქმნა.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

OpenAI-მ პერსონალური ფინანსების AI სტარტაპი Hiro შეიძინა
ხელოვნური ინტელექტი

OpenAI-მ პერსონალური ფინანსების AI სტარტაპი Hiro შეიძინა

OpenAI-მ პერსონალური ფინანსების AI სტარტაპი Hiro Finance შეიძინა. გარიგების ფარგლებში Hiro-ს გუნდი OpenAI-ს შეუერთდება, რათა გააძლიეროს კომპანიის შესაძლებლობები ფინანსური მათემატიკისა და დაგეგმვის მიმართულებით.

14.4.2026
Vercel-ის აღმასრულებელი დირექტორი IPO-სთვის მზადყოფნაზე მიანიშნებს: AI აგენტები კომპანიის შემოსავლების ზრდას განაპირობებენ
ხელოვნური ინტელექტი

Vercel-ის აღმასრულებელი დირექტორი IPO-სთვის მზადყოფნაზე მიანიშნებს: AI აგენტები კომპანიის შემოსავლების ზრდას განაპირობებენ

Vercel-ის შემოსავლები AI აგენტების დახმარებით მკვეთრად იზრდება. კომპანიის აღმასრულებელი დირექტორი, გილერმო რაუჩი, IPO-სთვის მზადყოფნასა და ინფრასტრუქტურის ბაზრის უსაზღვრო პოტენციალზე საუბრობს.

13.4.2026
სტენფორდის ანგარიში: ხელოვნური ინტელექტის ექსპერტებსა და საზოგადოებას შორის აზრთა სხვაობა სულ უფრო ღრმავდება
ხელოვნური ინტელექტი

სტენფორდის ანგარიში: ხელოვნური ინტელექტის ექსპერტებსა და საზოგადოებას შორის აზრთა სხვაობა სულ უფრო ღრმავდება

სტენფორდის უნივერსიტეტის ყოველწლიური ანგარიში ხელოვნური ინტელექტის სფეროში არსებულ მზარდ შფოთვასა და ექსპერტების ოპტიმიზმსა და საზოგადოების ნეგატიურ განწყობებს შორის არსებულ უფსკრულს მიმოიხილავს.

13.4.2026