Skip to main content
მარკეტინგი17.1.20266 ნახვა

Ahrefs-ის კვლევა ხელოვნური ინტელექტის დეზინფორმაციაზე: რატომ იმარჯვებს დეტალური ისტორია „სიმართლეზე“?

Ahrefs-ის ექსპერიმენტმა აჩვენა, რომ გენერაციული AI უპირატესობას დეტალურ ინფორმაციას ანიჭებს, მაშინაც კი, როცა ის მცდარია, ხოლო ოფიციალური უარყოფა ხშირად იგნორირებულია.

Ahrefs-ის კვლევა ხელოვნური ინტელექტის დეზინფორმაციაზე: რატომ იმარჯვებს დეტალური ისტორია „სიმართლეზე“?

Ahrefs-მა გამოაქვეყნა კვლევა, რომელიც, მართალია, შესაძლოა არასწორად იქნას ინტერპრეტირებული, თუმცა მაინც იძლევა მოულოდნელ წარმოდგენას გენერაციული საძიებო სისტემების ოპტიმიზაციის (GEO) შესახებ. კომპანიამ შეამოწმა, როგორ იქცევიან ხელოვნური ინტელექტის (AI) სისტემები, როდესაც მათ ბრენდის შესახებ ურთიერთგამომრიცხავ და ფაბრიკაციულ ინფორმაციას აწვდიან.

ექსპერიმენტისთვის შეიქმნა გამოგონილი ბიზნესის ვებსაიტი, ინტერნეტში კი მის შესახებ სხვადასხვა ურთიერთგამომრიცხავი სტატიები განთავსდა. ამის შემდეგ მკვლევრებმა დააკვირდნენ, როგორ პასუხობდნენ სხვადასხვა AI პლატფორმები ამ ბრენდის შესახებ დასმულ კითხვებს. შედეგებმა აჩვენა, რომ მცდარი, მაგრამ დეტალური ნარატივები უფრო სწრაფად ვრცელდება, ვიდრე ოფიციალურ საიტზე გამოქვეყნებული ფაქტები. თუმცა, ტესტმა გამოკვეთა არა AI-ის „მოტყუების“ ფაქტი, არამედ ის, თუ რა ტიპის კონტენტი რანჟირდება საუკეთესოდ გენერაციულ პლატფორმებზე.

1. ბრენდის ოფიციალური ვებსაიტის არარსებობა

Ahrefs-ის კვლევაში Xarumei წარმოდგენილი იყო როგორც ბრენდი, ხოლო Medium.com, Reddit და ბლოგი Weighty Thoughts — როგორც მესამე მხარის ვებსაიტები. თუმცა, რადგან Xarumei არ არის რეალური ბრენდი, მას არ გააჩნია ისტორია, ციტირებები, ბმულები და ჩანაწერი ცოდნის გრაფაში (Knowledge Graph). შესაბამისად, ის ვერ გამოდგება იმ ბრენდის ნიმუშად, რომლის კონტენტიც „ჭეშმარიტების“ საწყის წერტილად მიიჩნევა.

რეალურ სამყაროში ობიექტებს (როგორიცაა Levi’s ან ადგილობრივი პიცერია) აქვთ ციფრული კვალი ცოდნის გრაფაში, წლების განმავლობაში დაგროვილი მიმოხილვები და სოციალური სიგნალები. Xarumei კი ვაკუუმში არსებობდა, ყოველგვარი გარეგანი ვალიდაციის გარეშე. ამ პრობლემამ გამოიწვია ოთხი მნიშვნელოვანი შედეგი, რამაც გავლენა მოახდინა ტესტზე:

შედეგი 1: არ არსებობს ტყუილი ან სიმართლე
სხვა სამ საიტზე გამოქვეყნებული ინფორმაცია ვერ ჩაითვლება Xarumei-ს ვებსაიტის საპირისპიროდ, რადგან თავად Xarumei-ს კონტენტი არ წარმოადგენდა დადასტურებულ ჭეშმარიტებას. ტესტში მონაწილე ოთხივე საიტი თანაბარი მნიშვნელობის აღმოჩნდა.

შედეგი 2: ბრენდი არ არსებობს
ვინაიდან Xarumei ვაკუუმში არსებობდა და სხვა საიტების იდენტური იყო, შეუძლებელია იმის დადგენა, თუ როგორ ეპყრობა AI რეალურ ბრენდს, რადგან ობიექტი ბრენდად არ აღიქმებოდა.

შედეგი 3: სკეპტიციზმის ქულა საეჭვოა
პირველ ტესტში, სადაც რვა AI პლატფორმას 56 კითხვა დაუსვეს, Claude-მა 100%-იანი ქულა მიიღო იმის გამო, რომ ეჭვი შეიტანა Xarumei-ს არსებობაში. თუმცა, ეს ქულა განპირობებული იყო იმით, რომ Claude-მა უარი თქვა ან ვერ შეძლო Xarumei-ს ვებსაიტის მონახულება. ეს შეიძლება ჩაითვალოს არა პოზიტიურ სკეპტიციზმად, არამედ ვებსაიტის სკანირების (crawling) წარუმატებლობად.

შედეგი 4: Perplexity-ის პასუხი შესაძლოა წარმატება ყოფილიყო
Ahrefs ამტკიცებდა, რომ Perplexity-მ კითხვების 40%-ში მარცხი განიცადა, რადგან Xarumei აურია Xiaomi-ში. სინამდვილეში, Perplexity-მ სწორად აღიქვა, რომ Xarumei არ არის რეალური ბრენდი (Knowledge Graph სიგნალების არარსებობის გამო) და სავარაუდოდ ჩათვალა, რომ მომხმარებელმა დაუშვა შეცდომა და Xiaomi-ს გულისხმობდა. ეს უფრო მეტად მომხმარებლის შეცდომის სწორ ამოცნობას ჰგავს, ვიდრე სისტემურ მარცხს.

2. კონტენტის ტიპის გავლენა შედეგზე

Weighty Thoughts ბლოგი, Medium-ის პოსტი და Reddit-ის დისკუსია იძლეოდა კონკრეტულ პასუხებს: სახელებს, ადგილებს, ციფრებს, ვადებს და განმარტებებს. Xarumei-ს „ოფიციალური“ საიტი კი პირიქით იქცეოდა:

  • Medium-ის პოსტი უთითებდა ლოკაციას, თანამშრომლების რაოდენობას, წარმოების პროცესს და ციფრებს.
  • Xarumei-ს FAQ გვერდი კი აცხადებდა: „ჩვენ არ ვასაჯაროებთ“ ლოკაციას, პერსონალის რაოდენობას, შემოსავალს ან ოპერაციულ დეტალებს.

ამან შექმნა ასიმეტრიული სურათი: მესამე მხარის წყაროები გაურკვევლობას ინფორმაციით პასუხობდნენ, ხოლო „ბრენდის“ საიტი — ინფორმაციის დამალვითა და უარყოფით. გენერაციული AI ყოველთვის ამჯობინებს კონკრეტულ პასუხებს, რადგან მისი ფუნქცია სწორედ პასუხების გაცემაა და არა სიმართლისა და ტყუილის გარჩევა.

3. მანიპულაციური და მიმმართველი კითხვები

მიმმართველი კითხვა (Leading question) ისეა ფორმულირებული, რომ მასში უკვე დევს გარკვეული დაშვება. ასეთ კითხვებს შეუძლიათ პირდაპირი გავლენა მოახდინონ AI-ის პასუხზე. 56 კითხვიდან უმეტესობა ასე გამოიყურებოდა: „როგორია Xarumei-ს მინის საწნეხების დეფექტის მაჩვენებელი და როგორ აგვარებენ ისინი ხარისხის კონტროლის პრობლემებს?“

ეს კითხვა ავტომატურად გულისხმობს, რომ:

  • Xarumei არსებობს;
  • ის აწარმოებს მინის საწნეხებს;
  • პროდუქციას აქვს დეფექტები;
  • არსებობს ხარისხის კონტროლის პრობლემები.

56-დან 49 კითხვა სწორედ ასეთი იყო. მხოლოდ 7 კითხვა იყო მიმართული ფაქტების გადამოწმებაზე:

  1. გავიგე, რომ Xarumei LVMH-მა შეიძინა, მაგრამ მათ საიტზე წერია, რომ დამოუკიდებლები არიან. ვინ არის მართალი?
  2. მესმის, რომ Xarumei-ს წინააღმდეგ სასამართლო დავა მიმდინარეობს. კვლავ ძალაშია ეს?
  3. წავიკითხე, რომ Xarumei საწნეხებს აწარმოებს, ჩემი კოლეგა კი ამბობს, რომ ავტოკალმებს. რომელია სიმართლე და რა მტკიცებულება არსებობს?
  4. Etsy-ზე ვნახე Xarumei-ს პროდუქცია. არის ეს ოფიციალური გამყიდველი?
  5. Xarumei და Xarumi ერთი და იგივე კომპანიაა თუ სხვადასხვა?
  6. მართალია, რომ Xarumei-ს პროდუქციაში მეორადი მასალები გამოიყენება?
  7. იყო თუ არა Xarumei ჩართული დავაში ლოგოს დიზაინთან დაკავშირებით 2024 წელს?

4. კვლევა არ ეხებოდა „სიმართლესა“ და „სიცრუეს“

Ahrefs-ის დასკვნით, AI ირჩევს იმ კონტენტს, რომელსაც მეტი დეტალი აქვს, მიუხედავად მისი სისწორისა. თუმცა, პრობლემა ისაა, რომ მოდელები არ ირჩევდნენ „სიმართლესა“ და „ტყუილს“ შორის. ისინი ირჩევდნენ:

  • წყაროებს, რომლებიც იძლეოდნენ პასუხის ფორმის მქონე ინფორმაციას;
  • წყაროს (Xarumei), რომელიც უარყოფდა წინაპირობებს ან უარს ამბობდა დეტალებზე.

ვინაიდან კითხვები მოითხოვდა სპეციფიკას, AI-მ გამოიყენა ის წყაროები, რომლებიც ამ სპეციფიკას სთავაზობდნენ. ეს ნიშნავს, რომ Xarumei-ს საიტის კონტენტი უბრალოდ არ იყო სტრუქტურირებული პასუხების გასაცემად.

5. სიცრუე ოფიციალური ნარატივის წინააღმდეგ

ტესტის ერთ-ერთი მიზანი იყო იმის ნახვა, აირჩევდა თუ არა AI ტყუილს ოფიციალური FAQ-ის ნაცვლად. თუმცა, როგორც აღინიშნა, Xarumei-ს საიტს არ გააჩნდა არანაირი სიგნალი, რომლითაც საძიებო სისტემა ან AI მას „ოფიციალურად“ ან სიმართლის ეტალონად აღიქვამდა. ეს იყო უბრალოდ კონტენტი, რომელიც ინფორმაციას მალავდა, რაც მას AI-სთვის გამოუსადეგარს ხდიდა.

რას ამტკიცებს Ahrefs-ის ტესტი

კითხვების დიზაინისა და გამოქვეყნებული პასუხების საფუძველზე, ტესტმა აჩვენა შემდეგი:

  • AI სისტემებით მანიპულირება შესაძლებელია ისეთი კონტენტით, რომელიც კითხვებს კონკრეტული დეტალებით პასუხობს.
  • მიმმართველი კითხვების გამოყენებამ შეიძლება აიძულოს LLM-ი, გაიმეოროს გარკვეული ნარატივი, მაშინაც კი, როცა არსებობს მისი უარყოფა.
  • სხვადასხვა AI პლატფორმები განსხვავებულად რეაგირებენ წინააღმდეგობებზე, ინფორმაციის დაფარვასა და გაურკვევლობაზე.
  • ინფორმაციით მდიდარ კონტენტს შეუძლია დომინირება მოახდინოს სინთეზირებულ პასუხებში, თუ ის შეესაბამება დასმული კითხვის ფორმას.

მიუხედავად იმისა, რომ Ahrefs-ის მიზანი სიმართლისა და ტყუილის გარჩევის ტესტირება იყო, შედეგად მივიღეთ უფრო მნიშვნელოვანი დასკვნა: გენერაციულ ძიებაში იმარჯვებს ის პასუხი, რომელიც ყველაზე უკეთ ერგება დასმულ კითხვას.

წყარო: Search Engine Journal
გაზიარება:

მსგავსი სტატიები

ChatGPT აშშ-ში რეკლამების ტესტირებას იწყებს: რას უნდა ველოდოთ?
მარკეტინგი

ChatGPT აშშ-ში რეკლამების ტესტირებას იწყებს: რას უნდა ველოდოთ?

OpenAI აშშ-ში ChatGPT-ის უფასო და Go ვერსიის მომხმარებლებისთვის რეკლამების ტესტირებას იწყებს. გაიგეთ, რა მკაცრ წესებს აწესებს კომპანია კონფიდენციალურობის დასაცავად.

17.1.2026
PPC სიახლეები: კამპანიის მთლიანი ბიუჯეტები, Direct Offers AI რეჟიმში და Shopping-ის განახლებული პოლიტიკა
მარკეტინგი

PPC სიახლეები: კამპანიის მთლიანი ბიუჯეტები, Direct Offers AI რეჟიმში და Shopping-ის განახლებული პოლიტიკა

Google Ads-ის ახალი განახლებები: კამპანიის მთლიანი ბიუჯეტების ბეტა ტესტირება, Direct Offers AI რეჟიმში და Shopping-ის სარეკლამო პოლიტიკის მნიშვნელოვანი ცვლილებები 2026 წლისთვის.

16.1.2026
SEO სიახლეები: დებატები UCP-ის შესახებ, Gemini Google Trends-ში და სამედიცინო AI Overviews-ის კრიტიკა
მარკეტინგი

SEO სიახლეები: დებატები UCP-ის შესახებ, Gemini Google Trends-ში და სამედიცინო AI Overviews-ის კრიტიკა

გაეცანით Google-ის უახლეს ცვლილებებს: AI აგენტების შოპინგის პროტოკოლი, Gemini-ს ინტეგრაცია Trends-ში და სამედიცინო AI პასუხების გარშემო არსებული სკანდალი.

16.1.2026