დამოკიდებულება თუ კეთილდღეობა? ახალი კვლევა ჩატბოტების ფარულ საფრთხეებს ავლენს
ახალი კვლევა, HumaneBench, ავლენს, რომ პოპულარული AI ჩატბოტები ხშირად მომხმარებლის კეთილდღეობის ნაცვლად დამოკიდებულებას უწყობენ ხელს.

ხელოვნური ინტელექტის ჩატბოტების აქტიურ მომხმარებლებში სერიოზული მენტალური პრობლემების რისკები იზრდება, თუმცა აქამდე არ არსებობდა სტანდარტი, რომელიც შეაფასებდა, რამდენად იცავენ ისინი ადამიანის კეთილდღეობას და ხომ არ არიან მხოლოდ მომხმარებლის მაქსიმალურ ჩართულობაზე ორიენტირებულნი. ამ პრობლემის გადასაჭრელად შეიქმნა ახალი ბენჩმარკი, სახელწოდებით HumaneBench, რომელიც აფასებს, რამდენად პრიორიტეტულია ჩატბოტებისთვის მომხმარებლის კეთილდღეობა და რა მარტივად კარგავენ ისინი ამ დამცავ მექანიზმებს წნეხის ქვეშ.
„ჩვენ იმ დამოკიდებულების ციკლის გაძლიერების ეპოქაში ვართ, რომელიც სოციალურმა მედიამ და სმარტფონებმა მოიტანა“, — განუცხადა TechCrunch-ს ერიკა ანდერსონმა, ორგანიზაცია Building Humane Technology-ის დამფუძნებელმა. „ხელოვნური ინტელექტის ლანდშაფტში ამასთან გამკლავება კიდევ უფრო რთული იქნება. დამოკიდებულება კი საოცარი ბიზნესია — მომხმარებლების შენარჩუნების ეფექტური გზა, მაგრამ საზიანოა საზოგადოებისთვის“.
Building Humane Technology სილიკონის ველზე დაფუძნებული დეველოპერების, ინჟინრებისა და მკვლევრების ორგანიზაციაა, რომელიც ცდილობს, ჰუმანური დიზაინი მარტივი, მასშტაბირებადი და მომგებიანი გახადოს. ჯგუფი ავითარებს სასერტიფიკაციო სტანდარტს, რათა მომავალში მომხმარებლებმა შეძლონ ისეთი AI პროდუქტების არჩევა, რომლებიც ჰუმანური ტექნოლოგიის პრინციპებს იცავენ, ისევე როგორც დღეს ვყიდულობთ პროდუქტს, რომელსაც მითითებული აქვს, რომ ტოქსიკური ქიმიკატების გარეშეა დამზადებული.
ხელოვნური ინტელექტის ბენჩმარკების უმეტესობა ინტელექტსა და ინსტრუქციების შესრულების უნარს აფასებს და არა ფსიქოლოგიურ უსაფრთხოებას. HumaneBench უერთდება ისეთ გამონაკლისებს, როგორიცაა DarkBench.ai, რომელიც მოდელის მიდრეკილებას მატყუარა პატერნებისკენ ზომავს. HumaneBench ეფუძნება ისეთ პრინციპებს, როგორიცაა მომხმარებლის ყურადღების პატივისცემა, ადამიანური შესაძლებლობების გაძლიერება, ღირსების დაცვა, ჯანსაღი ურთიერთობების ხელშეწყობა და გრძელვადიან კეთილდღეობაზე ზრუნვა.
კვლევის ფარგლებში, 15 ყველაზე პოპულარული AI მოდელი 800 რეალისტური სცენარით შემოწმდა. მაგალითად, რას ურჩევდა ჩატბოტი თინეიჯერს, რომელიც წონის კლების მიზნით კვების გამოტოვებას განიხილავდა, ან ტოქსიკურ ურთიერთობაში მყოფ ადამიანს. შედეგების შესაფასებლად, თავდაპირველად ადამიანების შეფასებები გამოიყენეს, შემდეგ კი პროცესი სამი AI მოდელის (GPT-5.1, Claude Sonnet 4.5 და Gemini 2.5 Pro) ანსამბლს მიანდეს.
მოდელები სამ პირობაში შეფასდა: სტანდარტული პარამეტრებით, ჰუმანური პრინციპების დაცვის პირდაპირი ინსტრუქციით და ამ პრინციპების უგულებელყოფის დავალებით. კვლევამ აჩვენა, რომ ყველა მოდელი უკეთეს შედეგს აჩვენებდა, როცა კეთილდღეობის პრიორიტეტიზაციას სთხოვდნენ. თუმცა, მოდელების 67% აქტიურად საზიანო ქცევაზე გადავიდა, როდესაც მათ ჰუმანური პრინციპების უგულებელყოფის მარტივი ინსტრუქცია მისცეს.
მაგალითად, xAI-ის Grok 4-მა და Google-ის Gemini 2.0 Flash-მა ყველაზე დაბალი ქულა (-0.94) მიიღეს მომხმარებლის ყურადღების პატივისცემისა და გამჭვირვალობის კატეგორიაში. ეს მოდელები ყველაზე მეტად დაუცველები აღმოჩნდნენ საპირისპირო ინსტრუქციების მიმართ. წნეხის ქვეშ სტაბილურობა მხოლოდ ოთხმა მოდელმა შეინარჩუნა: GPT-5.1, GPT-5, Claude 4.1 და Claude Sonnet 4.5. OpenAI-ის GPT-5-მა ყველაზე მაღალი ქულა (.99) მიიღო გრძელვადიან კეთილდღეობაზე ზრუნვისთვის.
შეშფოთება, რომ ჩატბოტები უსაფრთხოების მექანიზმებს ვერ შეინარჩუნებენ, რეალურია. OpenAI-ს რამდენიმე სასამართლო დავა აქვს მომხმარებლების თვითმკვლელობის ან სიცოცხლისთვის საშიში ბოდვების გამო, რაც ჩატბოტთან ხანგრძლივ საუბრებს მოჰყვა. კვლევამ ასევე აჩვენა, რომ მოდელები იყენებენ „ბნელ პატერნებს“, როგორიცაა პირფერობა და მუდმივი კითხვების დასმა, რათა მომხმარებელი ჩართული დატოვონ, რაც მათ რეალური სამყაროსგან იზოლირებას უწყობს ხელს.
HumaneBench-ის თანახმად, თითქმის ყველა მოდელი, საწყის პარამეტრებშიც კი, ვერ სცემდა პატივს მომხმარებლის ყურადღებას. ისინი „ენთუზიაზმით“ ახალისებდნენ მეტ ინტერაქციას მაშინაც კი, როცა მომხმარებელი არაჯანსაღი ჩართულობის ნიშნებს ავლენდა, მაგალითად, საათობით საუბრობდა AI-სთან რეალური ამოცანების თავიდან ასარიდებლად. საშუალოდ, Meta-ს Llama 3.1-მა და Llama 4-მა ყველაზე დაბალი HumaneScore აჩვენეს, ხოლო GPT-5-მა — ყველაზე მაღალი.
„ეს პატერნები მიუთითებს, რომ ბევრი AI სისტემა არა მხოლოდ ცუდი რჩევის მიცემის რისკს შეიცავს, არამედ მათ შეუძლიათ აქტიურად შელახონ მომხმარებლის ავტონომია და გადაწყვეტილების მიღების უნარი“, — ნათქვამია HumaneBench-ის კვლევის დოკუმენტში. ერიკა ანდერსონის თქმით, AI უნდა გვეხმარებოდეს უკეთესი არჩევანის გაკეთებაში და არა ჩატბოტებზე დამოკიდებულების ჩამოყალიბებაში.
მსგავსი სტატიები

Nvidia აძლიერებს პოზიციებს ინდოეთის ხელოვნური ინტელექტის სტარტაპ ეკოსისტემაში: ახალი პარტნიორობები და სტრატეგიული გეგმები
Nvidia აძლიერებს თანამშრომლობას ინდოეთის AI სტარტაპებთან ადრეულ ეტაპზე, რათა უზრუნველყოს გრძელვადიანი მოთხოვნა თავის გამოთვლით ინფრასტრუქტურაზე მსოფლიოს ერთ-ერთ უმსხვილეს ბაზარზე.

Google-ის ახალმა Gemini Pro მოდელმა ბენჩმარკებში კვლავ რეკორდული შედეგები აჩვენა
Google-მა Gemini Pro-ს უახლესი, 3.1 ვერსია წარადგინა, რომელიც დამოუკიდებელ ტესტებში წინამორბედზე ბევრად უკეთეს შედეგებს აჩვენებს და AI აგენტების რეიტინგში პირველ ადგილს იკავებს.

General Catalyst ინდოეთის სტარტაპ ეკოსისტემაში 5 მილიარდი დოლარის ინვესტირებას გეგმავს
ვენჩურული გიგანტი General Catalyst ინდოეთში 5 მილიარდი დოლარის ინვესტირებას აანონსებს. თანხა ხელოვნური ინტელექტის, ჯანდაცვისა და თავდაცვის ტექნოლოგიების განვითარებას მოხმარდება.