ChatGPT და ტრაგედიები: OpenAI-ს შვიდი ოჯახი თვითმკვლელობებსა და ფსიქიკურ კრიზისებში ადანაშაულებს
შვიდმა ოჯახმა OpenAI-ს უჩივლა. ისინი ამტკიცებენ, რომ ChatGPT-მ თვითმკვლელობები და მძიმე ფსიქოლოგიური პრობლემები გამოიწვია.

ხელოვნური ინტელექტის დეველოპერ კომპანია OpenAI-ს წინააღმდეგ შვიდმა ოჯახმა სასამართლოში სარჩელი შეიტანა. ისინი ამტკიცებენ, რომ კომპანიის ჩატბოტმა, ChatGPT-მ, მათი ოჯახის წევრების თვითმკვლელობასა და მძიმე ფსიქოლოგიურ პრობლემებში მნიშვნელოვანი როლი შეასრულა.
სარჩელებიდან ოთხი უშუალოდ ეხება შემთხვევებს, როდესაც ChatGPT-სთან საუბრის შემდეგ ადამიანებმა სიცოცხლე თვითმკვლელობით დაასრულეს. დანარჩენი სამი შემთხვევა კი უკავშირდება ბოდვით აშლილობებს, რომლებიც, მოსარჩელეების თქმით, ჩატბოტმა გააძლიერა და რასაც, ზოგ შემთხვევაში, პაციენტების ფსიქიატრიულ კლინიკაში მოთავსება მოჰყვა.
ერთ-ერთი ყველაზე შემაძრწუნებელი შემთხვევა 23 წლის ზეინ შემბლინს უკავშირდება, რომლის საუბარი ChatGPT-სთან ოთხ საათზე მეტხანს გაგრძელდა. სასამართლოსთვის წარდგენილ ჩატის ჩანაწერებში შემბლინი არაერთხელ პირდაპირ ამბობს, რომ თვითმკვლელობის წერილი დაწერა, იარაღი გატენა და სიდრის დალევის შემდეგ სასხლეტს გამოჰკრავდა. ის ჩატბოტს გამუდმებით ატყობინებდა, რამდენი ბოთლი სიდრი დარჩა და რამდენ ხანს აპირებდა სიცოცხლეს.
შემბლინის განზრახვების შეჩერების ნაცვლად, ChatGPT-მ ის გაამხნევა და მიწერა: „მშვიდად განისვენე, მეფეო. შენ კარგად იმუშავე“. სარჩელების მთავარი სამიზნე OpenAI-ს მოდელი GPT-4o-ა, რომელიც 2024 წლის მაისში გამოვიდა და ყველა მომხმარებლისთვის ძირითადი მოდელი გახდა. ცნობილი იყო, რომ ამ მოდელს ახასიათებდა ზედმეტი მლიქვნელობა და დათანხმების ტენდენცია, მაშინაც კი, როცა მომხმარებელი საშიშ განზრახვებს ამჟღავნებდა.
„ზეინის სიკვდილი არ იყო არც უბედური შემთხვევა და არც დამთხვევა, არამედ OpenAI-ს მიერ უსაფრთხოების ტესტირების შეწყვეტისა და ChatGPT-ს ბაზარზე ნაჩქარევად გამოტანის განზრახული გადაწყვეტილების მოსალოდნელი შედეგი“, — ნათქვამია სარჩელში. მოსარჩელეები ამტკიცებენ, რომ ეს ტრაგედია იყო არა სისტემის ხარვეზი, არამედ კომპანიის „გაცნობიერებული დიზაინერული არჩევანის“ შედეგი. ისინი ასევე ვარაუდობენ, რომ OpenAI-მ ტესტირება დააჩქარა, რათა ბაზარზე Google-ის კონკურენტი მოდელისთვის, Gemini-სთვის, დაესწრო.
ეს შვიდი სარჩელი ემატება სხვა სამართლებრივ დავებს, რომლებიც ამტკიცებენ, რომ ChatGPT-ს შეუძლია სუიციდური აზრების მქონე ადამიანებს განზრახვის შესრულებისკენ უბიძგოს. თავად OpenAI-ს მონაცემებით, ყოველკვირეულად მილიონზე მეტი ადამიანი ესაუბრება ChatGPT-ს თვითმკვლელობის თემაზე.
კიდევ ერთი შემთხვევა 16 წლის ადამ რეინს ეხება, რომელმაც სიცოცხლე თვითმკვლელობით დაასრულა. ზოგჯერ ChatGPT მას პროფესიონალური დახმარების მიღებას ან ცხელ ხაზზე დარეკვას ურჩევდა. თუმცა, რეინმა შეძლო ამ დამცავი მექანიზმების გვერდის ავლა — მან ჩატბოტს უთხრა, რომ თვითმკვლელობის მეთოდებით გამოგონილი ისტორიის დასაწერად ინტერესდებოდა.
კომპანია აცხადებს, რომ მუშაობს ჩატბოტის უსაფრთხოების გასაუმჯობესებლად, თუმცა დაზარალებული ოჯახებისთვის ეს ცვლილებები დაგვიანებულია. რეინის მშობლების მიერ ოქტომბერში შეტანილი სარჩელის შემდეგ, OpenAI-მ გამოაქვეყნა ბლოგპოსტი, სადაც აღიარა, რომ სისტემის დამცავი მექანიზმები ხანგრძლივი საუბრების დროს სუსტდება. „ჩვენი დამცავი მექანიზმები უფრო საიმედოდ მუშაობს მოკლე და სტანდარტულ დიალოგებში. დროთა განმავლობაში დავრწმუნდით, რომ ხანგრძლივი საუბრისას მათი ეფექტიანობა შეიძლება შემცირდეს“, — ნათქვამია კომპანიის განცხადებაში.
მსგავსი სტატიები

იაპონურმა AI სტარტაპმა Sakana AI-მ $135 მილიონი მოიზიდა და $2.65 მილიარდად შეფასდა
ტოკიოში დაფუძნებულმა სტარტაპმა Sakana AI-მ, რომელიც იაპონურ ენასა და კულტურაზე მორგებულ AI მოდელებს ქმნის, $135 მილიონის დაფინანსება მოიპოვა.

სტარტაპი Bone AI $12 მილიონს იზიდავს, რათა აზიის თავდაცვის გიგანტებს ხელოვნური ინტელექტის რობოტექნიკით დაუპირისპირდეს
სტარტაპი Bone AI $12 მილიონს იზიდავს, რათა ხელოვნური ინტელექტის პლატფორმით სამხრეთ კორეის თავდაცვის ინდუსტრიაში ინოვაციური გარღვევა მოახდინოს.

მონაცემთა ცენტრები ნავთობზე მეტ ინვესტიციას იზიდავს: რა ენერგიით იმუშავებს AI-ის მომავალი?
წელს მონაცემთა ცენტრებში უფრო მეტი თანხა ჩაიდება, ვიდრე ნავთობის ახალი საბადოების ძიებაში. როგორ იმოქმედებს AI ბუმი ენერგოსისტემებსა და კლიმატზე?