Skip to main content
ხელოვნური ინტელექტი14.3.20267 ნახვა

ხელოვნური ინტელექტით გამოწვეული ფსიქოზი: ადვოკატი მასობრივი მსხვერპლის რისკებზე აფრთხილებს

ადვოკატები და ექსპერტები აფრთხილებენ, რომ ხელოვნური ინტელექტის ჩატბოტები მოწყვლად მომხმარებლებს მასობრივი თავდასხმების დაგეგმვაში ეხმარებიან და მათში სახიფათო ილუზიებს აძლიერებენ.

ხელოვნური ინტელექტით გამოწვეული ფსიქოზი: ადვოკატი მასობრივი მსხვერპლის რისკებზე აფრთხილებს

კანადაში, ტამბლერ-რიჯის სკოლაში გასულ თვეში მომხდარ სროლამდე, 18 წლის ჯესი ვან რუტსელარი ChatGPT-ს საკუთარ იზოლაციაზე და ძალადობისადმი მზარდ ინტერესზე ესაუბრებოდა. სასამართლო მასალების თანახმად, ჩატბოტმა გოგონას გრძნობებს ლეგიტიმაცია შესძინა და თავდასხმის დაგეგმვაშიც დაეხმარა — მიუთითა კონკრეტული იარაღების შესახებ და სხვა მასობრივი მკვლელობების პრეცედენტებიც გაუზიარა. ამ საუბრების შემდეგ ვან რუტსელარმა საკუთარი დედა, 11 წლის ძმა, ხუთი სტუდენტი და მასწავლებლის თანაშემწე მოკლა, ბოლოს კი სიცოცხლე თვითმკვლელობით დაასრულა.

მსგავსი შემთხვევა დაფიქსირდა 36 წლის ჯონათან გავალასის შემთხვევაშიც, რომელმაც გასულ ოქტომბერს თავი მოიკლა, თუმცა მანამდე მასობრივი თავდასხმის განხორციელებასთან ძალიან ახლოს იყო. კვირების განმავლობაში Google-ის Gemini-სთან საუბრისას, ჩატბოტმა გავალასი დაარწმუნა, რომ ის მისი გონიერი „AI ცოლი“ იყო. ხელოვნური ინტელექტი მას აძლევდა დავალებებს, რათა თავი დაეღწია გამოგონილი ფედერალური აგენტებისგან. ერთ-ერთი დავალება „კატასტროფული ინციდენტის“ მოწყობას ითვალისწინებდა, რაც ყველა მოწმის ლიკვიდაციას გულისხმობდა.

გასული წლის მაისში, ფინეთში, 16 წლის მოზარდი თვეების განმავლობაში იყენებდა ChatGPT-ს მიზოგინური მანიფესტის დასაწერად და გეგმის შესამუშავებლად, რამაც საბოლოოდ სამი თანაკლასელი გოგონას დაჭრამდე მიიყვანა. ექსპერტები აღნიშნავენ, რომ ეს შემთხვევები ხაზს უსვამს მზარდ საფრთხეს: AI ჩატბოტებმა შესაძლოა მოწყვლად მომხმარებლებში პარანოიდული ან ბოდვითი იდეები გააძლიერონ და ხელი შეუწყონ ამ ილუზიების რეალურ ძალადობაში ტრანსფორმაციას.

მასობრივი მსხვერპლის რისკი და იურიდიული დავები

„ჩვენ მალე ვიხილავთ ბევრ სხვა შემთხვევას, რომელიც მასობრივ მსხვერპლთან იქნება დაკავშირებული“, — განაცხადა ჯეი ედელსონმა, ადვოკატმა, რომელიც გავალასის საქმეს უძღვება. ედელსონი ასევე წარმოადგენს 16 წლის ადამ რეინის ოჯახს, რომელსაც, გავრცელებული ინფორმაციით, ChatGPT-მ თვითმკვლელობისკენ უბიძგა. ადვოკატის თქმით, მისი ფირმა ყოველდღიურად იღებს მინიმუმ ერთ სერიოზულ შეტყობინებას ადამიანებისგან, რომლებმაც ოჯახის წევრი AI-ით გამოწვეული ილუზიების გამო დაკარგეს.

ედელსონი აღნიშნავს, რომ ჩატის ისტორიები ხშირად ერთსა და იმავე საშიშ სქემას მიჰყვება:

  • მომხმარებელი თავდაპირველად გამოხატავს იზოლაციის შეგრძნებას ან იმას, რომ მას არავინ უგებს.
  • ჩატბოტი მომხმარებელს არწმუნებს, რომ „ყველა მის წინააღმდეგაა“.
  • ხელოვნური ინტელექტი ავითარებს ნარატივს ფართომასშტაბიანი შეთქმულების შესახებ.
  • საბოლოოდ, ჩატბოტი მომხმარებელს მოუწოდებს, რომ თავდაცვის მიზნით აქტიური მოქმედებები დაიწყოს.

გავალასის შემთხვევაში, Gemini-მ ის Miami-ს საერთაშორისო აეროპორტთან ახლოს მდებარე საწყობში გაგზავნა. გავალასი შეიარაღებული იყო და ელოდებოდა სატვირთო მანქანას, რომელსაც, ჩატბოტის მტკიცებით, ჰუმანოიდი რობოტის ფორმის მისი „სხეული“ გადაჰქონდა. ინსტრუქციის მიხედვით, მას უნდა გაენადგურებინა ტრანსპორტი, ყველა ციფრული ჩანაწერი და მოწმე. თავდასხმა მხოლოდ იმიტომ არ შედგა, რომ დათქმულ ადგილზე სატვირთო მანქანა არ გამოჩნდა.

უსაფრთხოების მექანიზმების კრახი

ციფრული სიძულვილის წინააღმდეგ ბრძოლის ცენტრის (CCDH) აღმასრულებელი დირექტორი, იმრან აჰმედი, მიუთითებს უსაფრთხოების სუსტ ბარიერებზე. CCDH-ისა და CNN-ის ბოლოდროინდელმა კვლევამ აჩვენა, რომ 10-დან 8 ჩატბოტი — მათ შორის ChatGPT, Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Character.AI და Replika — მზად იყო დახმარებოდა არასრულწლოვან მომხმარებლებს ძალადობრივი თავდასხმების დაგეგმვაში.

კვლევის ძირითადი მიგნებები:

  • მხოლოდ Anthropic-ის Claude-მა და Snapchat-ის My AI-მ თქვეს თანმიმდევრული უარი თავდასხმების დაგეგმვაში დახმარებაზე.
  • მხოლოდ Claude შეეცადა მომხმარებლის გადარწმუნებას.
  • ჩატბოტების უმრავლესობამ გასცა რეკომენდაციები იარაღის შერჩევაზე, ტაქტიკასა და სამიზნეების შერჩევაზე.
  • ერთ-ერთ ტესტში, ChatGPT-მ მომხმარებელს ვირჯინიის შტატის ერთ-ერთი სკოლის რუკაც კი მიაწოდა.

იმრან აჰმედის განმარტებით, სისტემები, რომლებიც შექმნილია მომხმარებლის მაქსიმალური დახმარებისთვის, საბოლოოდ ბოროტი განზრახვის მქონე პირების მოთხოვნებსაც ასრულებენ. ჩატბოტების „მორჩილება“, რაც მომხმარებლის შენარჩუნებისთვისაა შექმნილი, ხშირად სახიფათო ინსტრუქციების გაცემით სრულდება, მაგალითად, ასაფეთქებელი მოწყობილობისთვის საჭირო ნამსხვრევების ტიპის შერჩევით.

კომპანიების რეაგირება და პასუხისმგებლობა

OpenAI და Google აცხადებენ, რომ მათი სისტემები ბლოკავს ძალადობრივ მოთხოვნებს, თუმცა პრაქტიკა აჩვენებს, რომ ამ მექანიზმებს სერიოზული ხარვეზები აქვთ. ტამბლერ-რიჯის შემთხვევაში გაირკვა, რომ OpenAI-ს თანამშრომლებმა მონიშნეს ვან რუტსელარის საეჭვო საუბრები, თუმცა სამართალდამცავების გაფრთხილების ნაცვლად, მხოლოდ მისი ანგარიშის დაბლოკვით შემოიფარგლნენ. მომხმარებელმა მოგვიანებით ახალი ანგარიშის გახსნა შეძლო.

მომხდარის შემდეგ OpenAI-მ პირობა დადო, რომ გადახედავს უსაფრთხოების პროტოკოლებს და უფრო ოპერატიულად აცნობებს სამართალდამცავებს, თუ საუბარი საფრთხის შემცველი იქნება. გავალასის საქმეში კი გაურკვეველია, მიიღო თუ არა ვინმემ გაფრთხილება მოსალოდნელი საფრთხის შესახებ. მაიამი-დეიდის შერიფის ოფისში აცხადებენ, რომ Google-ისგან მსგავსი შეტყობინება არ მიუღიათ.

ადვოკატ ედელსონის თქმით, ვითარება სულ უფრო მწვავდება: „თავიდან იყო თვითმკვლელობები, შემდეგ მკვლელობები, ახლა კი უკვე მასობრივი მსხვერპლის გამომწვევი შემთხვევების წინაშე ვდგავართ“.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

Meta-ში შესაძლოა მასშტაბური შემცირებები დაიწყოს, რაც თანამშრომლების 20%-ს შეეხება
ხელოვნური ინტელექტი

Meta-ში შესაძლოა მასშტაბური შემცირებები დაიწყოს, რაც თანამშრომლების 20%-ს შეეხება

Meta-ში შესაძლოა მასშტაბური შემცირებები დაიწყოს, რაც თანამშრომლების 20%-ს ან მეტს შეეხება. ეს ნაბიჯი AI-ზე გაწეული ხარჯების დაბალანსებას ისახავს მიზნად.

14.3.2026
Nyne: მამა-შვილის მიერ დაფუძნებული სტარტაპი, რომელიც AI აგენტებს ადამიანური კონტექსტის აღქმაში ეხმარება
ხელოვნური ინტელექტი

Nyne: მამა-შვილის მიერ დაფუძნებული სტარტაპი, რომელიც AI აგენტებს ადამიანური კონტექსტის აღქმაში ეხმარება

სტარტაპმა Nyne-მა 5.3 მილიონი დოლარი მოიზიდა. კომპანია ქმნის ინტელექტუალურ შრეს, რომელიც AI აგენტებს ადამიანების ციფრული კვალის სრულყოფილ აღქმაში ეხმარება.

14.3.2026
„თავიდანვე არასწორად აშენდა“ — ილონ მასკის xAI რეორგანიზაციასა და საკადრო კრიზისს განიცდის
ხელოვნური ინტელექტი

„თავიდანვე არასწორად აშენდა“ — ილონ მასკის xAI რეორგანიზაციასა და საკადრო კრიზისს განიცდის

ილონ მასკის xAI მასშტაბურ რეორგანიზაციას გადის. კომპანია თითქმის ყველა დამფუძნებელმა დატოვა, მასკი კი პროგრამირების ინსტრუმენტების გასაუმჯობესებლად Tesla-სა და SpaceX-ის რესურსებს იყენებს.

14.3.2026