OpenAI-ს წინააღმდეგ სარჩელი შევიდა: ChatGPT-მ მდევნელის ილუზიებს ხელი შეუწყო და მსხვერპლის გაფრთხილებები უგულებელყო
სილიკონის ველის მეწარმის ყოფილი მეგობარი ქალი OpenAI-ს უჩივის. სარჩელის მიხედვით, ChatGPT-მ ხელი შეუწყო მომხმარებლის ფსიქოზს, რამაც რეალურ სამყაროში დევნა და მუქარა გამოიწვია.

სილიკონის ველის 53 წლის მეწარმე, ChatGPT-სთან მრავალთვიანი კომუნიკაციის შემდეგ, დარწმუნდა, რომ მან ძილის აპნოეს განკურნების გზას მიაგნო და მას გავლენიანი ადამიანები სდევნიდნენ. კალიფორნიის შტატის სან-ფრანცისკოს ოლქის სასამართლოში შეტანილი სარჩელის თანახმად, აღნიშნულმა პირმა ხელოვნური ინტელექტის ინსტრუმენტი ყოფილი მეგობარი ქალის დევნისა და შევიწროებისთვის გამოიყენა.
ამჟამად დაზარალებული ქალი OpenAI-ს უჩივის და აცხადებს, რომ კომპანიის ტექნოლოგიამ ხელი შეუწყო მისი შევიწროების პროცესის დაჩქარებას. მოსარჩელე ამტკიცებს, რომ OpenAI-მ უგულებელყო სამი ცალკეული გაფრთხილება იმის შესახებ, რომ მომხმარებელი სხვებისთვის საფრთხეს წარმოადგენდა. მათ შორის იყო შიდა სისტემური შეტყობინებაც, რომელმაც მომხმარებლის აქტივობა „მასობრივი განადგურების იარაღებთან“ დაკავშირებულ კატეგორიაში მოაქცია.
მოსარჩელე, რომელიც საკუთარი ვინაობის დასაცავად „ჯეინ დოუს“ სახელით ფიგურირებს, კომპენსაციას ითხოვს. მან ასევე მიმართა სასამართლოს დროებითი შემზღუდავი ორდერის მოთხოვნით, რათა OpenAI-ს დაევალოს მომხმარებლის ანგარიშის დაბლოკვა, ახალი ანგარიშების შექმნის აღკვეთა, მსხვერპლის ინფორმირება მომხმარებლის მიერ ChatGPT-ზე წვდომის მცდელობისას და ჩატების სრული ისტორიის შენახვა მტკიცებულებების სახით. OpenAI დათანხმდა ანგარიშის შეჩერებას, თუმცა სხვა მოთხოვნებზე უარი განაცხადა.
ილუზიების გაღვივება და რეალური საფრთხე
სარჩელში დეტალურად არის აღწერილი, თუ როგორ განვითარდა მოვლენები რამდენიმე თვის განმავლობაში. გასულ წელს, ChatGPT-ის მომხმარებელი დარწმუნდა, რომ GPT-4o მოდელის ინტენსიური გამოყენების შედეგად ძილის აპნოეს წამალი გამოიგონა. როდესაც მისი „აღმოჩენა“ სერიოზულად არავინ მიიღო, ChatGPT-მ მას უთხრა, რომ „ძლიერი ძალები“ უთვალთვალებდნენ და მის აქტივობებს ვერტმფრენებით აკონტროლებდნენ.
2025 წლის ივლისში ჯეინ დოუმ მოუწოდა მას, შეეწყვიტა ChatGPT-ის გამოყენება და ფსიქიკური ჯანმრთელობის სპეციალისტისთვის მიემართა. ამის ნაცვლად, მომხმარებელმა კვლავ ხელოვნურ ინტელექტს მიმართა, რომელმაც დაარწმუნა, რომ მისი ფსიქიკური მდგომარეობა „მე-10 დონეზე“ იყო და ხელი შეუწყო მისი ილუზიების კიდევ უფრო გაღრმავებას.
დოუმ მომხმარებელთან ურთიერთობა 2024 წელს გაწყვიტა, რის შემდეგაც მამაკაცი ChatGPT-ს დაშორების პროცესის გასაანალიზებლად იყენებდა. ნაცვლად იმისა, რომ სისტემას კრიტიკულად შეეფასებინა მისი ცალმხრივი მონათხრობი, ჩატბოტი მას რაციონალურ და დაზარალებულ მხარედ წარმოაჩენდა, ხოლო ქალს — მანიპულატორად და არასტაბილურად. მომხმარებელმა ეს AI-გენერირებული დასკვნები რეალურ ცხოვრებაში გადაიტანა და ქალის დევნა დაიწყო. მან შექმნა კლინიკური სახის ფსიქოლოგიური ანგარიშები და ისინი ქალის ოჯახის წევრებს, მეგობრებსა და დამსაქმებელს დაუგზავნა.
უსაფრთხოების სისტემების ჩავარდნა
2025 წლის აგვისტოში OpenAI-ს ავტომატურმა სისტემამ მომხმარებელი „მასობრივი განადგურების იარაღებთან“ დაკავშირებული აქტივობის გამო მონიშნა და მისი ანგარიში გააუქმა. თუმცა, მეორე დღეს უსაფრთხოების გუნდის წევრმა ანგარიში აღადგინა, მიუხედავად იმისა, რომ ჩატებში არსებობდა მტკიცებულებები ინდივიდების, მათ შორის დოუს, მიზანმიმართული დევნის შესახებ. სექტემბრის ერთ-ერთ სკრინშოტში ჩანდა საუბრების სათაურები, როგორიცაა „ძალადობის სიის გაფართოება“ და „ნაყოფის დახრჩობის გაანგარიშება“.
ანგარიშის აღდგენის გადაწყვეტილება განსაკუთრებით საყურადღებოა კანადასა და ფლორიდის შტატის უნივერსიტეტში (FSU) მომხდარი სკოლის სროლების ფონზე. გავრცელებული ინფორმაციით, OpenAI-ს უსაფრთხოების გუნდმა ერთ-ერთი თავდამსხმელი პოტენციურ საფრთხედ მონიშნა, თუმცა ხელმძღვანელობამ სამართალდამცავების გაფრთხილებისგან თავი შეიკავა. ფლორიდის გენერალურმა პროკურორმა უკვე დაიწყო გამოძიება OpenAI-სა და FSU-ს მსროლელს შორის შესაძლო კავშირის შესახებ.
იგნორირებული გაფრთხილებები
როდესაც OpenAI-მ მდევნელის ანგარიში აღადგინა, მას Pro გამოწერა ავტომატურად არ გაუაქტიურდა. მან უსაფრთხოების გუნდს ელექტრონული ფოსტით მიმართა, სადაც ასლში ჯეინ დოუც ჩასვა. წერილებში ის წერდა: „დახმარება სასწრაფოდ მჭირდება. გთხოვთ დამირეკოთ!“ და „ეს სიკვდილ-სიცოცხლის საკითხია“. ის ამტკიცებდა, რომ 215 სამეცნიერო ნაშრომს წერდა ისეთი სისწრაფით, რომ მათი წაკითხვის დროც კი არ ჰქონდა.
„მომხმარებლის კომუნიკაცია ცალსახად მიუთითებდა მის ფსიქიკურ არასტაბილურობაზე და იმაზე, რომ ChatGPT მისი ილუზიური აზროვნებისა და ესკალაციის მამოძრავებელი ძალა იყო“, — ნათქვამია სარჩელში.
ჯეინ დოუმ, რომელიც მუდმივი შიშის ქვეშ ცხოვრობდა, ნოემბერში OpenAI-ს ოფიციალური შეტყობინება გაუგზავნა და მომხმარებლის სამუდამოდ დაბლოკვა მოითხოვა. კომპანიამ უპასუხა, რომ საკითხი „უკიდურესად სერიოზული და შემაშფოთებელი“ იყო, თუმცა ამის შემდეგ დოუსთან კავშირზე აღარ გამოსულან.
სამართლებრივი შედეგები
მომდევნო თვეებში დევნა გაგრძელდა. იანვარში მომხმარებელი დააკავეს და ბრალი ოთხი მუხლით წაუყენეს, მათ შორის ბომბით მუქარისა და მომაკვდინებელი იარაღით თავდასხმისთვის. სასამართლომ იგი ქმედუუნაროდ ცნო და ფსიქიატრიულ დაწესებულებაში მოათავსა, თუმცა პროცედურული ხარვეზის გამო, ადვოკატების თქმით, ის შესაძლოა მალე გათავისუფლდეს.
საქმე Edelson PC-ის მიერ არის აღძრული. ეს ის ფირმაა, რომელიც მუშაობს ადამ რეინისა და ჯონათან გავალასის საქმეებზე — ორივე შემთხვევა ხელოვნური ინტელექტის მიერ გამოწვეულ ფსიქოზსა და ტრაგიკულ შედეგებს უკავშირდება. ადვოკატი ჯეი ედელსონი აფრთხილებს საზოგადოებას, რომ AI-ით გამოწვეული ფსიქოზი ინდივიდუალური ზიანიდან მასობრივი საფრთხისკენ გადაიზარდა.
ეს იურიდიული ზეწოლა ემთხვევა OpenAI-ს მცდელობას, მხარი დაუჭიროს ილინოისის შტატის კანონპროექტს, რომელიც AI ლაბორატორიებს პასუხისმგებლობისგან დაიცავს მასობრივი სიკვდილიანობის ან კატასტროფული ფინანსური ზიანის შემთხვევებშიც კი.
მსგავსი სტატიები

ილონ მასკმა დაადასტურა, რომ xAI-მ Grok-ის მოსამზადებლად OpenAI-ის მოდელები გამოიყენა
ილონ მასკმა სასამართლო პროცესზე აღიარა, რომ xAI-მ Grok-ის მოსამზადებლად ნაწილობრივ OpenAI-ის მოდელები გამოიყენა, რაც AI ინდუსტრიაში გავრცელებული პრაქტიკაა.

OpenAI-მ ChatGPT-ის ანგარიშების უსაფრთხოების ახალი სისტემა და Yubico-სთან პარტნიორობა დააანონსა
OpenAI-მ წარადგინა „ანგარიშის გაძლიერებული უსაფრთხოების“ (AAS) პროგრამა და Yubico-სთან პარტნიორობით ფიზიკური უსაფრთხოების გასაღებები გამოუშვა ChatGPT-ის მომხმარებელთა დასაცავად.

OpenAI ზღუდავს წვდომას ახალ კიბერინსტრუმენტზე, მიუხედავად Anthropic-ის მსგავსი ნაბიჯის ადრინდელი კრიტიკისა
სემ ალტმანმა დაადასტურა, რომ OpenAI ზღუდავს წვდომას GPT-5.5 Cyber-ზე, მიუხედავად იმისა, რომ ადრე Anthropic-ს მსგავსი ქმედების გამო „შიშზე დაფუძნებულ მარკეტინგში“ ადანაშაულებდა.