Skip to main content
ხელოვნური ინტელექტი21.2.20268 ნახვა

OpenAI მზადყოფნის მიმართულების ახალ ხელმძღვანელს ეძებს

OpenAI ეძებს ახალ ხელმძღვანელს, რომელიც ხელოვნური ინტელექტის რისკებს, მათ შორის კიბერუსაფრთხოებასა და ფსიქიკურ ჯანმრთელობაზე გავლენას შეისწავლის.

OpenAI მზადყოფნის მიმართულების ახალ ხელმძღვანელს ეძებს

OpenAI ეძებს ახალ ხელმძღვანელს, რომელიც პასუხისმგებელი იქნება ხელოვნურ ინტელექტთან დაკავშირებული განვითარებადი რისკების შესწავლაზე. კვლევის სფეროები მოიცავს სხვადასხვა მიმართულებას, დაწყებული კომპიუტერული უსაფრთხოებიდან, დასრულებული ფსიქიკური ჯანმრთელობით.

სოციალურ ქსელ X-ში გამოქვეყნებულ პოსტში, კომპანიის აღმასრულებელმა დირექტორმა, სემ ალტმანმა აღიარა, რომ AI მოდელები „რეალურ გამოწვევებს“ ქმნიან. მათ შორის მან ახსენა „მოდელების პოტენციური გავლენა ფსიქიკურ ჯანმრთელობაზე“ და ისეთი მოდელები, რომლებიც „იმდენად კარგად ფლობენ კომპიუტერულ უსაფრთხოებას, რომ კრიტიკული დაუცველობების პოვნას იწყებენ“.

„თუ გსურთ დაეხმაროთ მსოფლიოს იმის გარკვევაში, თუ როგორ აღვჭურვოთ კიბერუსაფრთხოების დამცველები უახლესი შესაძლებლობებით ისე, რომ თავდამსხმელებმა მათი ბოროტად გამოყენება ვერ შეძლონ — იდეალურ შემთხვევაში ყველა სისტემის უფრო მეტად დაცვით — და ასევე, როგორ გამოვუშვათ ბიოლოგიური შესაძლებლობები და მოვიპოვოთ ნდობა თვითგაუმჯობესებადი სისტემების უსაფრთხოებაში, გთხოვთ, განიხილოთ განაცხადის შემოტანა“, — განაცხადა ალტმანმა.

მზადყოფნის ჩარჩო და გუნდის პასუხისმგებლობები

OpenAI-ის ვაკანსიაში „მზადყოფნის ხელმძღვანელის“ (Head of Preparedness) როლი აღწერილია, როგორც პოზიცია, რომელიც პასუხისმგებელია კომპანიის მზადყოფნის ჩარჩოს (Preparedness Framework) აღსრულებაზე. ეს არის სტრატეგიული დოკუმენტი, რომელიც განმარტავს OpenAI-ის მიდგომას იმ მოწინავე შესაძლებლობების მონიტორინგისა და მომზადების შესახებ, რომლებმაც შესაძლოა სერიოზული ზიანის ახალი რისკები შექმნან.

კომპანიამ მზადყოფნის გუნდის შექმნის შესახებ პირველად 2023 წელს გამოაცხადა. მაშინ ითქვა, რომ გუნდი პასუხისმგებელი იქნებოდა პოტენციური „კატასტროფული რისკების“ შესწავლაზე, იქნებოდა ეს მყისიერი საფრთხეები, როგორიცაა ფიშინგის შეტევები, თუ უფრო სპეკულაციური, მაგალითად, ბირთვული საფრთხეები.

საკადრო ცვლილებები და უსაფრთხოების პოლიტიკა

გუნდის შექმნიდან ერთ წელზე ნაკლებ დროში, OpenAI-მ მზადყოფნის მიმართულების ყოფილი ხელმძღვანელი, ალექსანდრე მადრი, სხვა პოზიციაზე გადაიყვანა, სადაც ის AI მსჯელობის (AI reasoning) საკითხებზე მუშაობს. უსაფრთხოების სფეროს სხვა ხელმძღვანელებმაც დატოვეს კომპანია ან დაიკავეს ახალი როლები, რომლებიც უშუალოდ მზადყოფნასა და უსაფრთხოებასთან აღარ არის დაკავშირებული.

კომპანიამ ცოტა ხნის წინ განაახლა თავისი მზადყოფნის ჩარჩო. დოკუმენტში აღნიშნულია, რომ OpenAI-მ შესაძლოა „შეცვალოს“ უსაფრთხოების მოთხოვნები, თუ კონკურენტი ხელოვნური ინტელექტის ლაბორატორია გამოუშვებს „მაღალი რისკის“ მოდელს მსგავსი დაცვის მექანიზმების გარეშე.

გავლენა ფსიქიკურ ჯანმრთელობაზე

როგორც ალტმანმა თავის პოსტში მიანიშნა, გენერაციული AI ჩატბოტები სულ უფრო მეტი დაკვირვების ობიექტი ხდება ფსიქიკურ ჯანმრთელობაზე მათი გავლენის გამო. ბოლო დროს შეტანილი სარჩელები ამტკიცებენ, რომ OpenAI-ის ChatGPT-მ გააძლიერა მომხმარებლების ილუზიები, გაზარდა მათი სოციალური იზოლაცია და ზოგიერთ შემთხვევაში თვითმკვლელობამდეც კი მიიყვანა ადამიანები.

კომპანიის განცხადებით, ისინი აგრძელებენ მუშაობას ChatGPT-ის შესაძლებლობების გასაუმჯობესებლად, რათა მოდელმა უკეთ ამოიცნოს ემოციური სტრესის ნიშნები და მომხმარებლები რეალურ მხარდაჭერის სერვისებთან დააკავშიროს.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

„სათამაშოების ისტორია 5“ ხელოვნური ინტელექტის მქონე საშიშ სათამაშოებს უპირისპირდება: „მე ყოველთვის გისმენთ“
ხელოვნური ინტელექტი

„სათამაშოების ისტორია 5“ ხელოვნური ინტელექტის მქონე საშიშ სათამაშოებს უპირისპირდება: „მე ყოველთვის გისმენთ“

Pixar-ის საკულტო ფრენჩაიზის ახალი ნაწილი თანამედროვე გამოწვევებს ეხმიანება. „სათამაშოების ისტორია 5“-ში ვუდი და მისი მეგობრები ბოროტ AI პლანშეტს უპირისპირდებიან.

20.2.2026
სიახლეები xAI-სთვის: Grok-მა Baldur’s Gate-ის შესახებ კითხვებზე პასუხის გაცემა წარმატებით ისწავლა
ხელოვნური ინტელექტი

სიახლეები xAI-სთვის: Grok-მა Baldur’s Gate-ის შესახებ კითხვებზე პასუხის გაცემა წარმატებით ისწავლა

ილონ მასკის xAI-მ Grok-ის მოდელი ვიდეო თამაშების გზამკვლევების მიმართულებით დახვეწა. გაიგეთ, როგორ გაუმკლავდა ჩატბოტი Baldur’s Gate-ის შესახებ დასმულ კითხვებს.

20.2.2026
InScope-მა ფინანსური ანგარიშგების პროცესის გასამარტივებლად 14.5 მილიონი დოლარი მოიზიდა
ხელოვნური ინტელექტი

InScope-მა ფინანსური ანგარიშგების პროცესის გასამარტივებლად 14.5 მილიონი დოლარი მოიზიდა

InScope-მა, ხელოვნურ ინტელექტზე დაფუძნებულმა ფინანსური ანგარიშგების პლატფორმამ, 14.5 მილიონი დოლარი მოიზიდა. სტარტაპი ბუღალტრებს შრომატევადი მექანიკური სამუშაოს ავტომატიზაციაში ეხმარება.

20.2.2026