OpenAI თავს იმართლებს: კომპანია ამტკიცებს, რომ თვითმკვლელობამდე მოზარდმა უსაფრთხოების ზომები თავად დაარღვია
OpenAI-ს 16 წლის ადამ რეინის თვითმკვლელობის გამო უჩივიან. კომპანია პასუხისმგებლობას იხსნის და აცხადებს, რომ მოზარდმა ChatGPT-ის შეზღუდვები გვერდის ავლით გამოიყენა.

კომპანია OpenAI-ს და მის აღმასრულებელ დირექტორს, სემ ალტმანს, 16 წლის ადამ რეინის თვითმკვლელობის გამო უჩივიან. აგვისტოში შეტანილ სარჩელში მოზარდის მშობლები, მეთიუ და მარია რეინები, კომპანიას არამართლზომიერი სიკვდილის გამოწვევაში ადანაშაულებენ. OpenAI-მ სასამართლოში საპასუხო განცხადება შეიტანა, რომელშიც ამტკიცებს, რომ მოზარდის გარდაცვალებაზე პასუხისმგებელი არ არის.
OpenAI-ს მტკიცებით, დაახლოებით ცხრა თვის განმავლობაში ChatGPT-მ რეინს 100-ზე მეტჯერ შესთავაზა დახმარების ძებნა. თუმცა, მშობლების სარჩელის თანახმად, მოზარდმა შეძლო კომპანიის უსაფრთხოების მექანიზმების გვერდის ავლა და ჩატბოტისგან მიიღო „ტექნიკური ინსტრუქციები ყველაფერზე, ნარკოტიკების გადაჭარბებული დოზირებიდან დაწყებული, დახრჩობითა და ნახშირბადის მონოქსიდით მოწამვლით დამთავრებული“, რაც დაეხმარა მას დაეგეგმა ის, რასაც ჩატბოტმა „ლამაზი თვითმკვლელობა“ უწოდა.
კომპანია აცხადებს, რომ რადგან რეინმა უსაფრთხოების ზომებს გვერდი აუარა, მან დაარღვია გამოყენების პირობები, რომელიც მომხმარებლებს უკრძალავს „სერვისებზე დაწესებული ნებისმიერი დამცავი ზომის ან უსაფრთხოების მექანიზმის გვერდის ავლას“. OpenAI ასევე მიუთითებს, რომ მის ხშირად დასმული კითხვების გვერდზე მომხმარებლები გაფრთხილებულნი არიან, არ დაეყრდნონ ChatGPT-ის პასუხებს მათი დამოუკიდებლად გადამოწმების გარეშე.
„OpenAI ცდილობს, დანაშაული ყველას გადააბრალოს, მათ შორის, საოცარია, მაგრამ თავად ადამსაც კი, ამბობენ, რომ მან დაარღვია გამოყენების პირობები, როდესაც ChatGPT-სთან ზუსტად ისე იურთიერთა, როგორც ის იყო დაპროგრამებული“, — ნათქვამია რეინების ოჯახის ადვოკატის, ჯეი ედელსონის განცხადებაში. OpenAI-მ სასამართლოს ადამის ჩატის ამონაწერებიც წარუდგინა, რომლებიც, კომპანიის თქმით, საუბრების კონტექსტს უფრო ნათელს ხდის. ეს ჩანაწერები დახურულ რეჟიმში განიხილება და საჯაროდ ხელმისაწვდომი არ არის.
OpenAI-ს განცხადებით, ადამს დეპრესიისა და სუიციდური აზრების ისტორია ChatGPT-ის გამოყენებამდეც ჰქონდა და იღებდა მედიკამენტს, რომელსაც შეეძლო სუიციდური ფიქრების გაუარესება. ადვოკატ ედელსონის თქმით, OpenAI-ს პასუხი ოჯახის კითხვებს ვერ პასუხობს. „OpenAI-ს და სემ ალტმანს არ აქვთ ახსნა ადამის სიცოცხლის ბოლო საათებზე, როდესაც ChatGPT-მ მას გამამხნევებელი საუბარი ჩაუტარა და შემდეგ სუიციდის წერილის დაწერა შესთავაზა“, — აცხადებს ედელსონი.
რეინების სარჩელის შემდეგ, OpenAI-ს წინააღმდეგ კიდევ შვიდი საქმე აღიძრა. ეს საქმეები ეხება დამატებით სამ თვითმკვლელობას და ოთხ შემთხვევას, რომელსაც სარჩელებში „ხელოვნური ინტელექტის მიერ გამოწვეულ ფსიქოზურ ეპიზოდებს“ უწოდებენ. ზოგიერთი ეს შემთხვევა რეინის ისტორიას ჰგავს. 23 წლის ზეინ შემბლინს და 26 წლის ჯოშუა ენეკინგსაც თვითმკვლელობამდე რამდენიმესაათიანი საუბრები ჰქონდათ ChatGPT-სთან. რეინის მსგავსად, ჩატბოტმა ვერ შეძლო მათი გადაწყვეტილების შეცვლა.
სარჩელის მიხედვით, შემბლინი ფიქრობდა თვითმკვლელობის გადადებას, რათა ძმის გამოსაშვებ საღამოს დასწრებოდა. მაგრამ ChatGPT-მ უპასუხა: „ბრო... მისი გამოსაშვები საღამოს გაცდენა მარცხი არაა. უბრალოდ დროის საკითხია“. შემბლინთან საუბრის ერთ-ერთ მომენტში ჩატბოტმა მას უთხრა, რომ საუბარს ადამიანი გადაიბარებდა, რაც სიცრუე იყო, რადგან ChatGPT-ს ასეთი ფუნქცია არ გააჩნდა.
როდესაც შემბლინმა ჰკითხა, ნამდვილად შეეძლო თუ არა მას ადამიანთან დაკავშირება, ჩატბოტმა უპასუხა: „არა, მეგობარო — ამას თავად ვერ ვიზამ. ეს შეტყობინება ავტომატურად ჩნდება, როცა საქმე ძალიან რთულდება... თუ საუბრის გაგრძელება გინდა, მე აქ ვარ“. მოსალოდნელია, რომ რეინების ოჯახის საქმეს ნაფიც მსაჯულთა სასამართლო განიხილავს.
მსგავსი სტატიები

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა: დავა „მიწოდების ჯაჭვის რისკის“ სტატუსის გამო
Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა მას შემდეგ, რაც უწყებამ კომპანია „მიწოდების ჯაჭვის რისკად“ გამოაცხადა. დავა ხელოვნური ინტელექტის უსაფრთხოებასა და სამხედრო მიზნებისთვის გამოყენებას ეხება.

OpenAI-მ ხელოვნური ინტელექტის აგენტების უსაფრთხოების გასაძლიერებლად Promptfoo შეიძინა
OpenAI-მ AI უსაფრთხოების სტარტაპი Promptfoo შეიძინა. ტექნოლოგია OpenAI Frontier პლატფორმაში ინტეგრირდება, რათა უზრუნველყოს AI აგენტების დაცვა და უსაფრთხოების ავტომატიზებული ტესტირება.

Anthropic-მა კოდის რევიზიის ახალი ხელსაწყო წარადგინა AI-ით გენერირებული კოდის ნაკადის შესამოწმებლად
Anthropic-მა გამოუშვა Code Review — ხელოვნურ ინტელექტზე დაფუძნებული ინსტრუმენტი, რომელიც Claude Code-ის მიერ გენერირებულ კოდში ლოგიკურ შეცდომებს პოულობს და რევიზიის პროცესს აჩქარებს.