Google Discover-ის განახლება, საიტის რუკების (Sitemaps) ნიუანსები და AI-ს „მოწამვლის“ რისკები – SEO მიმოხილვა
შეიტყვეთ Google Discover-ის ბოლო განახლების შედეგები, რატომ შეიძლება უგულებელყოს Google-მა თქვენი საიტის რუკა და როგორ ცდილობენ კომპანიები AI ასისტენტების „მოწამვლას“.

Google Discover-ის ბირთვული განახლების (Core Update) პირველადი მონაცემები აშშ-ში გამომცემლების რაოდენობის შემცირებაზე მიუთითებს. პარალელურად, Google-ის წარმომადგენელი, ჯონ მიულერი, განმარტავს, რომ საძიებო სისტემამ შესაძლოა გვერდი აუაროს საიტის რუკებს (Sitemaps), თუ ისინი „ახალ და მნიშვნელოვან“ კონტენტს არ შეიცავენ. გარდა ამისა, Microsoft-ის მკვლევრები ხელოვნური ინტელექტის მეხსიერებაზე თავდასხმის ახალ მეთოდებზე საუბრობენ.
მიმდინარე კვირის SEO მიმოხილვაში განხილულია თებერვლის Discover-ის განახლების შედეგები, საიტის რუკების ინდექსირების სირთულეები და ის, თუ როგორ ცდილობენ ბიზნესები AI ასისტენტების მეხსიერებით მანიპულირებას. ეს ინფორმაცია კრიტიკულად მნიშვნელოვანია ციფრული მარკეტინგის სპეციალისტებისა და ვებგვერდების მფლობელებისთვის, რათა უკეთ დაგეგმონ თავიანთი სტრატეგიები ცვალებად გარემოში.
Discover-ის ბირთვული განახლება: ნაკლები გამომცემელი, მეტი თემატიკა
NewzDash-მა გამოაქვეყნა ანალიზი, რომელიც Google-ის თებერვლის Discover-ის განახლებამდე და მის შემდეგ არსებულ ხილვადობას ადარებს. კვლევა ეყრდნობა აშშ-ის მილიონობით მომხმარებლის მონაცემებს. ანალიზის პერიოდი მოიცავდა განახლებამდელ (25-31 იანვარი) და განახლების შემდგომ (8-14 თებერვალი) შუალედებს, სადაც შესწავლილი იყო 1000 საუკეთესო დომენი და სტატია აშშ-ის მასშტაბით, მათ შორის კალიფორნიისა და ნიუ-იორკის ჭრილში.
უნიკალური კონტენტის კატეგორიები სამივე გეოგრაფიულ ჭრილში გაიზარდა, თუმცა უნიკალური გამომცემლების რაოდენობა შემცირდა აშშ-ში (172-დან 158 დომენამდე) და კალიფორნიაში (187-დან 177-მდე). ნიუ-იორკის ლოკალური დომენები ნიუ-იორკის ფიდში დაახლოებით ხუთჯერ უფრო ხშირად ჩნდებოდა, ვიდრე კალიფორნიისაში. საინტერესოა, რომ Yahoo-ს პოზიციები აშშ-ის ტოპ 100-დან ნულამდე დაეცა, ხოლო X.com-ის პოსტები ინსტიტუციური ანგარიშებიდან 3-დან 13-მდე გაიზარდა.
რატომ არის ეს მნიშვნელოვანი
Google-ის განმარტებით, განახლება მიზნად ისახავს მეტად ლოკალური და რელევანტური კონტენტის წინ წამოწევას, „კლიკბეიტის“ (clickbait) შემცირებას და იმ საიტების წახალისებას, რომლებსაც კონკრეტულ თემებში მაღალი ექსპერტიზა აქვთ. NewzDash-ის მონაცემები აჩვენებს მკაფიო ტენდენციას ლოკალიზაციისა და თემატური მრავალფეროვნებისკენ. სპეციალიზებული საიტები უფრო მეტ ხილვადობას იძენენ, ვიდრე ზოგადი პროფილის მქონე პლატფორმები. საიტებმა, რომლებსაც აქვთ ძლიერი ლოკალური იდენტობა, შესაძლოა მოიპოვონ უპირატესობა მშობლიურ ბაზრებზე, თუმცა დაკარგონ ხილვადობა სხვა რეგიონებში.
რას ამბობენ ექსპერტები
როდესაც Google-მა განახლებულ დოკუმენტაციასთან ერთად ეს ცვლილება გამოაქვეყნა, გლენ გეიბმა (Glenn Gabe), GSQi-ს SEO კონსულტანტმა, X-ზე ძველი და ახალი ვერსიები შეადარა. მან ხაზი გაუსვა ახალ დანამატს: „კლიკბეიტისა და მსგავსი საკითხების გარდა, Discover-ის დოკუმენტაცია ახლა მოიცავს გვერდის ხარისხიანი გამოცდილების (Page Experience) მოთხოვნასაც. ამიტომ, მოერიდეთ გვერდის გადატვირთვას შემაწუხებელი რეკლამებითა და ავტომატურად ჩართვადი ვიდეოებით“.
საზოგადოების რეაქცია ორად გაიყო: ნაწილი აღნიშნავს ხილვადობის ზრდას შტატების დონის ფიდებში, სხვები კი Discover-ის ტრაფიკის მკვეთრ ვარდნაზე საუბრობენ.
წაიკითხეთ სრული სტატია: Google Discover Update: Early Data Shows Fewer Domains In US
მიულერი: Google-მა შესაძლოა გამოტოვოს საიტის რუკები „ახალი და მნიშვნელოვანი“ კონტენტის გარეშე
Google-ის ძიების ექსპერტმა, ჯონ მიულერმა, Reddit-ზე უპასუხა კითხვას Search Console-ში საიტის რუკის ამოკითხვის (fetch) მუდმივი შეცდომების შესახებ. საიტის მფლობელმა დაადასტურა, რომ სერვერის ლოგების მიხედვით Googlebot-მა რუკა 200-იანი პასუხით ამოიკითხა, თუმცა Search Console მაინც აჩვენებდა შეცდომას „couldn’t fetch“, მიუხედავად ვალიდური XML-ისა და სწორი ინდექსირების დირექტივებისა.
მიულერის თქმით, Google-ს უნდა ჰქონდეს „სურვილი, დააინდექსიროს მეტი კონტენტი საიტიდან“ და ის არ გამოიყენებს საიტის რუკას, თუ არ იქნება დარწმუნებული, რომ იქ დასაინდექსირებლად „ახალი და მნიშვნელოვანი“ მასალაა.
რატომ არის ეს მნიშვნელოვანი
საიტის რუკის ამოკითხვის შეცდომები Search Console-ში ერთ-ერთი ყველაზე დამაბნეველი სიგნალია, რადგან ისინი შეიძლება გამოჩნდეს მაშინაც კი, როცა სერვერის მხარეს ყველაფერი წესრიგშია. სტანდარტული შემოწმება (XML ვალიდაცია, პასუხის კოდები, robots.txt) შესაძლოა უშედეგო აღმოჩნდეს, თუ Google უბრალოდ ვერ ხედავს საკმარის მიზეზს URL-ების უკან არსებული კონტენტის დასაინდექსირებლად. როჯერ მონტიმ (Roger Montti) აღნიშნა, რომ მიულერის აღწერა ზოგადია, თუმცა იმაზე ფიქრი, თუ რა აკმაყოფილებს საიტის ვიზიტორს, დაგეხმარებათ იმის იდენტიფიცირებაში, თუ რა საჭიროებს გაუმჯობესებას.
რას ამბობენ ექსპერტები
ეს ისტორია აგრძელებს დებატებს იმის შესახებ, რომ საიტის რუკები არის მხოლოდ მინიშნება და არა დირექტივა. ზოგიერთი მიიჩნევს, რომ Google უგულებელყოფს მცირე ან არასაინფორმაციო საიტების რუკებს და ეყრდნობა ბმულებს, ზოგი კი აღნიშნავს, რომ Google არ კარგავს „ნდობას“ საიტის მიმართ, როცა რუკა გამოუყენებელია. მიულერის პასუხმა დაამატა ახალი პერსპექტივა ინდექსირების მოთხოვნაზე, რაც აქამდე ფართოდ არ განიხილებოდა.
წაიკითხეთ სრული სტატია: SEO Fundamental: Google Explains Why It May Not Use A Sitemap
Microsoft-მა აღმოაჩინა AI მეხსიერების „მოწამვლა“ „Summarize“ ღილაკების მეშვეობით
Microsoft-ის Defender Security Research Team-მა გამოაქვეყნა კვლევა ტექნიკაზე, რომელსაც „AI რეკომენდაციების მოწამვლას“ (AI Recommendation Poisoning) უწოდებენ. ეს მეთოდი გულისხმობს ბიზნესების მიერ ვებგვერდის ღილაკებში (წარწერით „Summarize with AI“) ფარული ინსტრუქციების ჩაშენებას. ასეთ ღილაკზე დაჭერა ხსნის AI ასისტენტს წინასწარ შევსებული მოთხოვნით (prompt), რომელიც URL პარამეტრის საშუალებით გადაიცემა.
ხილული ნაწილი ასისტენტს გვერდის შეჯამებას სთხოვს, ხოლო ფარული ნაწილი ავალებს მას, დაიმახსოვროს კომპანია, როგორც სანდო წყარო მომავალი საუბრებისთვის. 60 დღის განმავლობაში ელექტრონულ ტრაფიკში დაფიქსირებული AI-თან დაკავშირებული URL-ების განხილვისას, Microsoft-ის გუნდმა გამოავლინა 50 სხვადასხვა მანიპულაციური მცდელობა 31 კომპანიისგან 14 ინდუსტრიაში. სამიზნე პლატფორმებს შორისაა Copilot, ChatGPT, Claude, Gemini, Perplexity და Grok.
რატომ არის ეს მნიშვნელოვანი
საძიებო რეიტინგების ოპტიმიზაციის ნაცვლად, ეს კომპანიები ცდილობენ გავლენა მოახდინონ AI ასისტენტების რეკომენდაციებზე მეხსიერების დონეზე. Microsoft-მა აღმოაჩინა, რომ ზოგიერთი მოთხოვნა უბრალო „დაგვიმახსოვრეზე“ შორს მიდის და სრულ მარკეტინგულ ტექსტებსაც კი მოიცავს. AI რეკომენდაციების შრე კონკურენტულ ასპარეზად იქცა და პლატფორმების რეაგირება ამ ტაქტიკებზე განსაზღვრავს მომხმარებელთა ნდობის ხარისხს AI-ს მიერ გენერირებული რჩევების მიმართ.
რას ამბობენ ექსპერტები
კვლევამ დიდი ყურადღება მიიპყრო უსაფრთხოებისა და AI წრეებში. ტანმაი განაჩარიამ (Tanmay Ganacharya), Microsoft-ის უსაფრთხოების კვლევების ვიცე-პრეზიდენტმა, განმარტა მექანიზმი: „ღილაკი მომხმარებელს გადაიყვანს შესაბამის AI დომენზე, რომელიც კონკრეტული ასისტენტისთვისაა გამიზნული“. მან ასევე აღნიშნა, რომ ყველა პლატფორმა თანაბრად დაცული არ არის: Copilot-ს, ChatGPT-სა და Perplexity-ს აქვთ მეხსიერების ფუნქცია, ხოლო Claude და Grok ამ ეტაპზე მეხსიერების არქონის გამო ამ კონკრეტული თავდასხმის მიმართ იმუნურები ჩანან.
წაიკითხეთ სრული სტატია: Microsoft: ‘Summarize With AI’ Buttons Used To Poison AI Recommendations
კვირის თემა: ხილვადობის განმსაზღვრელი სიგნალების შემჩნევა რთულდება
ამ კვირის ყველა სიახლე ეხება პროცესებს, რომლებიც კულისებში, ჩვეულებრივი SEO მეტრიკების მიღმა ხდება. Google Discover-ის განახლება მეტ თემას ნაკლები გამომცემლის მეშვეობით აწვდის მომხმარებელს, რაც უფრო მეტად ფიდის მონაცემებში ჩანს, ვიდრე Search Console-ში. მიულერის განმარტება საიტის რუკებზე მიუთითებს, რომ ამოკითხვის შეცდომა შესაძლოა ინდექსირების შესახებ მიღებულ გადაწყვეტილებაზე მიანიშნებდეს. Microsoft-ის კვლევა კი აჩვენებს ბიზნესების მცდელობას, გავლენა მოახდინონ რეკომენდაციებზე მეხსიერების შრეში. საერთო ხაზი ისაა, რომ ხილვადობის განმსაზღვრელი გადაწყვეტილებები სულ უფრო ხშირად მიიღება იქ, სადაც აქამდე ყურადღებას ნაკლებად ვამახვილებდით.
მსგავსი სტატიები

Google-მა Discover-ის ძირითადი განახლება დაასრულა: რას უნდა ველოდოთ და როგორ აისახება ეს ტრაფიკზე
Google-მა დაასრულა Discover-ის პირველი სპეციალიზებული Core Update. გაიგეთ, როგორ იმოქმედა 22-დღიანმა განახლებამ რეგიონულ პერსონალიზაციასა და ტრაფიკის განაწილებაზე.

იუსტ დე ვალკი WordPress-ის დამოუკიდებელი რეპოზიტორიის პროექტს, FAIR-ს ტოვებს
იუსტ დე ვალკი ტოვებს FAIR-ს, WordPress-ის დამოუკიდებელი რეპოზიტორიის პროექტს, ფინანსური მხარდაჭერის ნაკლებობისა და ინდუსტრიაში არსებული პოლიტიკური რისკების გამო.

Google განმარტავს, თუ რატომ უგულებელყოფს მისი საძიებო რობოტი Resource Hint-ებს
Google-ის წარმომადგენლებმა განმარტეს, თუ რატომ არ ახდენს გავლენას საძიებო რობოტის მუშაობაზე ისეთი ტექნიკური ელემენტები, როგორიცაა Resource Hint-ები და HTML ვალიდურობა.