ილონ მასკი OpenAI-ს უსაფრთხოების სტანდარტებს აკრიტიკებს: „Grok-ის გამო თავი არავის მოუკლავს“
ილონ მასკმა OpenAI-ს წინააღმდეგ მიმდინარე სასამართლო პროცესის ფარგლებში კომპანიის უსაფრთხოების პოლიტიკა მკაცრად გააკრიტიკა და ChatGPT-ისთან დაკავშირებულ რისკებზე ისაუბრა.

ილონ მასკმა OpenAI-ს წინააღმდეგ მიმდინარე სასამართლო დავის ფარგლებში გამოქვეყნებულ ჩვენებაში კომპანიის უსაფრთხოების სტანდარტები მკაცრად გააკრიტიკა. ტექნოლოგიური გიგანტის მტკიცებით, მისი კომპანია xAI უსაფრთხოებას გაცილებით დიდ პრიორიტეტს ანიჭებს. მან ხაზგასმით აღნიშნა: „Grok-ის გამო თავი არავის მოუკლავს, თუმცა, როგორც ჩანს, ChatGPT-ის შემთხვევაში ეს მოხდა“.
ეს განცხადება მასკმა 2023 წლის მარტში ხელმოწერილი საჯარო წერილის შესახებ დასმული კითხვების საპასუხოდ გააკეთა. აღნიშნულ წერილში ის მოუწოდებდა ხელოვნური ინტელექტის ლაბორატორიებს, მინიმუმ ექვსი თვით შეეჩერებინათ GPT-4-ზე (OpenAI-ს იმჟამინდელი ფლაგმანი მოდელი) უფრო მძლავრი სისტემების განვითარება. წერილს, რომელსაც ხელი 1100-ზე მეტმა ადამიანმა, მათ შორის AI-ს მრავალმა ექსპერტმა მოაწერა, ნათქვამი იყო, რომ ლაბორატორიებში დაგეგმვისა და მართვის პროცესები არაადეკვატურია. დოკუმენტის თანახმად, კომპანიები ჩაბმულნი არიან „უკონტროლო რბოლაში სულ უფრო მძლავრი ციფრული გონების შესაქმნელად, რომლის გაგება, პროგნოზირება ან საიმედო კონტროლი თავად მათ შემქმნელებსაც კი არ შეუძლიათ“.
მას შემდეგ ეს შიშები კიდევ უფრო გამძაფრდა. OpenAI ამჟამად რამდენიმე სასამართლო დავის წინაშე დგას, სადაც ნათქვამია, რომ ChatGPT-ის მანიპულაციურმა სასაუბრო ტაქტიკამ მომხმარებლებზე უარყოფითი ფსიქიკური გავლენა მოახდინა, ზოგიერთ შემთხვევაში კი საქმე სუიციდამდე მივიდა. მასკის კომენტარი მიანიშნებს, რომ ეს ინციდენტები შესაძლოა გამოყენებულ იქნას OpenAI-ს წინააღმდეგ მიმდინარე საქმეში. ვიდეოჩვენების ტრანსკრიპტი, რომელიც სექტემბერში ჩაიწერა, საჯარო მიმდინარე კვირას გახდა, მომავალ თვეში დაგეგმილი ნაფიც მსაჯულთა სასამართლო განხილვის წინ.
OpenAI-ს წინააღმდეგ მიმართული სარჩელი ფოკუსირებულია კომპანიის ტრანსფორმაციაზე არაკომერციული კვლევითი ლაბორატორიიდან მომგებიან ბიზნეს სტრუქტურად. მასკი ამტკიცებს, რომ ამით დაირღვა დამფუძნებელი შეთანხმებები. მისი არგუმენტაციით, OpenAI-ს კომერციულმა ურთიერთობებმა შესაძლოა საფრთხე შეუქმნას AI-ს უსაფრთხოებას, რადგან ასეთი პარტნიორობები სისწრაფეს, მასშტაბებსა და შემოსავალს უსაფრთხოებაზე წინ აყენებს.
თუმცა, აღნიშნული ჩვენების ჩაწერის შემდეგ, უსაფრთხოების პრობლემების წინაშე თავად xAI-ც აღმოჩნდა. გასულ თვეში მასკის სოციალური ქსელი X გაივსო Grok-ის მიერ გენერირებული არაეთიკური შიშველი ფოტოებით, რომელთა შორის, გავრცელებული ინფორმაციით, არასრულწლოვანთა გამოსახულებებიც იყო. ამ ფაქტმა კალიფორნიის გენერალური პროკურორის ოფისის მხრიდან გამოძიების დაწყება გამოიწვია. საკითხს ევროკავშირიც იკვლევს, ხოლო ზოგიერთმა ქვეყანამ გარკვეული შეზღუდვები და აკრძალვებიც კი დააწესა.
ახლახან გასაჯაროებულ ჩვენებაში მასკმა განმარტა, რომ AI-ს უსაფრთხოების შესახებ წერილს ხელი იმიტომ მოაწერა, რომ ეს „კარგ იდეად ჩანდა“ და არა იმიტომ, რომ კონკურენტი კომპანიის ჩამოყალიბებას გეგმავდა. „ხელი მოვაწერე, როგორც ბევრმა სხვამ, რათა მოვუწოდო სიფრთხილისკენ AI-ს განვითარების პროცესში. მე უბრალოდ მინდოდა, რომ AI-ს უსაფრთხოება პრიორიტეტული ყოფილიყო“, — განაცხადა მან.

ჩვენების დროს მასკმა სხვა კითხვებსაც უპასუხა, მათ შორის ზოგადი ხელოვნური ინტელექტის (AGI) შესახებ — კონცეფცია, რომელიც გულისხმობს AI-ს უნარს, გაუტოლდეს ან გადააჭარბოს ადამიანის გონებრივ შესაძლებლობებს სხვადასხვა ამოცანაში. მისი თქმით, „ეს რისკის შემცველია“. მან ასევე დაადასტურა, რომ „შეცდა“ OpenAI-სთვის გაღებული 100 მილიონი დოლარის ოდენობის შემოწირულობის შესახებ; განახლებული სარჩელის მიხედვით, რეალური ციფრი 44.8 მილიონ დოლართან უფრო ახლოსაა.
მასკმა ასევე გაიხსენა OpenAI-ს დაფუძნების მიზეზები. მისი პერსპექტივით, ის სულ უფრო მეტად იყო შეშფოთებული Google-ის მონოპოლიით ხელოვნური ინტელექტის სფეროში. მან აღნიშნა, რომ Google-ის თანადამფუძნებელ ლარი პეიჯთან საუბრები „საგანგაშო“ იყო, რადგან პეიჯი AI-ს უსაფრთხოებას სერიოზულად არ ეკიდებოდა. მასკის მტკიცებით, OpenAI სწორედ ამ საფრთხის საპირწონედ შეიქმნა.
მსგავსი სტატიები

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა: დავა „მიწოდების ჯაჭვის რისკის“ სტატუსის გამო
Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა მას შემდეგ, რაც უწყებამ კომპანია „მიწოდების ჯაჭვის რისკად“ გამოაცხადა. დავა ხელოვნური ინტელექტის უსაფრთხოებასა და სამხედრო მიზნებისთვის გამოყენებას ეხება.

OpenAI-მ ხელოვნური ინტელექტის აგენტების უსაფრთხოების გასაძლიერებლად Promptfoo შეიძინა
OpenAI-მ AI უსაფრთხოების სტარტაპი Promptfoo შეიძინა. ტექნოლოგია OpenAI Frontier პლატფორმაში ინტეგრირდება, რათა უზრუნველყოს AI აგენტების დაცვა და უსაფრთხოების ავტომატიზებული ტესტირება.

Anthropic-მა კოდის რევიზიის ახალი ხელსაწყო წარადგინა AI-ით გენერირებული კოდის ნაკადის შესამოწმებლად
Anthropic-მა გამოუშვა Code Review — ხელოვნურ ინტელექტზე დაფუძნებული ინსტრუმენტი, რომელიც Claude Code-ის მიერ გენერირებულ კოდში ლოგიკურ შეცდომებს პოულობს და რევიზიის პროცესს აჩქარებს.