Bing-ის AI ციტირების თრექინგი, დამალული HTTP გვერდები და Googlebot-ის სკანირების ლიმიტები
Bing-მა AI ციტირების პანელი დაამატა, ჯონ მიულერმა HTTP-სთან დაკავშირებული ხარვეზი განმარტა, ხოლო კვლევამ Googlebot-ის სკანირების ლიმიტების ეფექტურობა დაადასტურა.

Bing-მა Webmaster Tools-ში AI ციტირების თრექინგის ფუნქცია დაამატა, ჯონ მიულერმა დამალული HTTP მთავარი გვერდის ხარვეზი აღმოაჩინა, ხოლო ახალი მონაცემები ადასტურებს, რომ ვებგვერდების უმეტესობა თავისუფლად ჯდება Googlebot-ის სკანირების ლიმიტებში. SEO-ს ყოველკვირეული მიმოხილვა მოიცავს ინფორმაციას იმის შესახებ, თუ როგორ უნდა გაკონტროლდეს AI ხილვადობა, როგორ შეიძლება "მოჩვენება" გვერდმა დააზიანოს საიტის სახელი ძიების შედეგებში და რას ამბობს სტატისტიკა ფაილების ზომის შეზღუდვებზე.
ეს სიახლეები მნიშვნელოვანია სპეციალისტებისთვის, რათა უკეთ გაიგონ, როგორ აღიქვამენ საძიებო სისტემები მათ კონტენტს ხელოვნური ინტელექტის ეპოქაში და როგორ აიცილონ თავიდან ტექნიკური ხარვეზები, რომლებიც ჩვეულებრივი ბრაუზერით დათვალიერებისას არ ჩანს.
Bing Webmaster Tools-ში AI ციტირების პანელი დაემატა
Microsoft-მა Bing Webmaster Tools-ში AI Performance პანელი წარადგინა. ეს ფუნქცია გამომცემლებს საშუალებას აძლევს დაინახონ, თუ რამდენად ხშირად ხდება მათი კონტენტის ციტირება Copilot-სა და AI-ს მიერ გენერირებულ პასუხებში. ამჟამად ფუნქცია საჯარო ტესტირების (public preview) რეჟიმშია.
ძირითადი ფაქტები: პანელი აღრიცხავს ციტირებების ჯამურ რაოდენობას, დღიურად ციტირებული გვერდების საშუალო მაჩვენებელს, გვერდების დონეზე ციტირების აქტივობას და ე.წ. "grounding queries"-ს. ეს უკანასკნელი აჩვენებს იმ ფრაზებს, რომლებსაც AI იყენებს პასუხის მოსამზადებლად კონტენტის ამოღებისას.
რატომ არის ეს მნიშვნელოვანი
Bing ახლა სთავაზობს სპეციალურ პანელს AI ციტირების ხილვადობისთვის. Google-ის Search Console-ში AI Overviews და AI Mode აქტივობები საერთო Performance რეპორტშია მოქცეული, თუმცა ის არ იძლევა ცალკეულ ანგარიშს ან ციტირების სტილის URL-ების რაოდენობას. AI Overviews ასევე ყველა ბმულს ერთ პოზიციას ანიჭებს, რაც ზღუდავს ინფორმაციას ინდივიდუალური გვერდების ეფექტურობაზე AI პასუხებში.
Bing-ის პანელი უფრო შორს მიდის და აჩვენებს, რომელი გვერდებია ციტირებული, რამდენად ხშირად და რომელმა ფრაზებმა გამოიწვია ციტირება. ერთადერთი ნაკლოვანება ქლიქების (click) მონაცემების არარსებობაა. პანელი აჩვენებს ციტირების ფაქტს, მაგრამ არა იმას, მოაქვს თუ არა ამას ტრაფიკი. ახლა უკვე შესაძლებელია იმის დადასტურება, თუ რომელი გვერდებია გამოყენებული AI პასუხებში, თუმცა AI ხილვადობის ბიზნეს შედეგებთან დაკავშირება კვლავ საკუთარი ანალიტიკის გამოყენებას მოითხოვს.
SEO სპეციალისტების მოსაზრებები
Wil Reynolds-მა, Seer Interactive-ის დამფუძნებელმა, X-ზე (ყოფილი Twitter) დადებითად შეაფასა ეს სიახლე და ყურადღება გაამახვილა grounding queries-ის მონაცემებზე:
„Bing ახლა გვაწვდის grounding queries-ს Bing Webmaster tools-ში! ახლა უნდა გავიგოთ, რას გვაძლევს ეს მონაცემები, რას ნიშნავს ისინი და როგორ გამოვიყენოთ.“
Koray Tuğberk GÜBÜR-მა, Holistic SEO & Digital-ის დამფუძნებელმა, ფუნქცია პირდაპირ შეადარა Google-ის ინსტრუმენტებს:
„Microsoft Bing Webmaster Tools ყოველთვის უფრო სასარგებლო და ეფექტური იყო, ვიდრე Google Search Console, და მათ კიდევ ერთხელ დაამტკიცეს თავიანთი ერთგულება გამჭვირვალობის მიმართ.“
Fabrice Canel-მა, Microsoft Bing-ის პროდუქტების მთავარმა მენეჯერმა, აღნიშნა, რომ ეს ფუნქცია არის ხიდი ტრადიციულ და AI-ზე დაფუძნებულ ოპტიმიზაციას შორის:
„გამომცემლებს ახლა შეუძლიათ დაინახონ, როგორ ჩანს მათი კონტენტი AI ეპოქაში. GEO (Generative Engine Optimization) ხვდება SEO-ს, გააძლიერეთ თქვენი სტრატეგია რეალური სიგნალებით.“
დამალულმა HTTP გვერდმა შესაძლოა Google-ში საიტის სახელი დააზიანოს
Google-ის წარმომადგენელმა, ჯონ მიულერმა, Bluesky-ზე გააზიარა შემთხვევა, როდესაც ძველი HTTP მთავარი გვერდი ძიების შედეგებში საიტის სახელისა და ფავიკონის (favicon) პრობლემებს იწვევდა. პრობლემის შემჩნევა რთულია, რადგან Chrome ავტომატურად გადამისამართებს HTTP მოთხოვნებს HTTPS-ზე, რაც ხარვეზს ჩვეულებრივი დათვალიერებისას მალავს.
ძირითადი ფაქტები: საიტი იყენებდა HTTPS-ს, თუმცა სერვერის ნაგულისხმევი (default) HTTP მთავარი გვერდი კვლავ ხელმისაწვდომი იყო. Chrome-ის ავტომატური გადამისამართების გამო გამომცემელი HTTP ვერსიას ვერ ხედავდა, თუმცა Googlebot არ მიჰყვება Chrome-ის ამ ქცევას და ინფორმაციას არასწორი გვერდიდან იღებდა.
რატომ არის ეს მნიშვნელოვანი
ეს არის პრობლემა, რომელსაც სტანდარტული საიტის აუდიტით ვერ აღმოაჩენთ. თუ საიტის სახელი ან ფავიკონი ძიების შედეგებში არ შეესაბამება მოლოდინს, ხოლო HTTPS გვერდი სწორად არის გამართული, აუცილებელია დომენის HTTP ვერსიის შემოწმება.
მიულერმა პრობლემის დიაგნოსტიკისთვის შემდეგი ნაბიჯები გვირჩია:
- გამოიყენეთ
curlბრძანება ტერმინალიდან (command line), რათა ნახოთ სუფთა HTTP პასუხი Chrome-ის ავტომატური გადამისამართების გარეშე. - თუ ბრძანება აბრუნებს სერვერის ნაგულისხმევ გვერდს თქვენი რეალური გვერდის ნაცვლად, ეს არის პრობლემის წყარო.
- გამოიყენეთ URL Inspection tool Search Console-ში (Live Test ფუნქცია), რათა ნახოთ, რა ინფორმაციას იღებს და არენდერებს Google.
Google-ის დოკუმენტაცია საიტის სახელების შესახებ პირდაპირ მიუთითებს დუბლირებულ მთავარ გვერდებზე (მათ შორის HTTP და HTTPS ვერსიებზე) და რეკომენდაციას უწევს ერთი და იმავე სტრუქტურირებული მონაცემების გამოყენებას ორივესთვის.
ექსპერტების კომენტარები
მიულერმა ამ შემთხვევას „უცნაური“ უწოდა და აღნიშნა:
„Chrome ავტომატურად აუმჯობესებს HTTP-ს HTTPS-მდე, ამიტომ თქვენ ვერ ხედავთ HTTP გვერდს. თუმცა, Googlebot ხედავს მას და იყენებს საიტის სახელისა და ფავიკონის შესარჩევად.“
ეს შემთხვევა ხაზს უსვამს იმას, რომ ბრაუზერის ფუნქციები ხშირად მალავს იმას, რასაც სკანერები (crawlers) ხედავენ. პრობლემების მოსაგვარებლად შეამოწმეთ სერვერის პასუხი პირდაპირ და არა მხოლოდ ბრაუზერში ჩატვირთვისას.
ახალი მონაცემები Googlebot-ის სკანირების ლიმიტების შესახებ
ახალი კვლევა აჩვენებს, რომ ვებგვერდების უმეტესობა ბევრად მცირეა Googlebot-ის 2 MB-იან ლიმიტზე. მონაცემები, რომლებიც Search Engine Journal-ის როჯერ მონტიმ გააანალიზა, ეყრდნობა HTTP Archive-ის გაზომვებს.
ძირითადი ფაქტები: Google-მა ცოტა ხნის წინ განაახლა დოკუმენტაცია, სადაც განმარტა, რომ Googlebot-ის ლიმიტი მხარდაჭერილი ფაილების ტიპებისთვის 2 MB-ია, ხოლო PDF ფაილებისთვის — 64 MB.
რატომ არის ეს მნიშვნელოვანი
სკანირების ლიმიტის საკითხი აქტიურად განიხილებოდა ტექნიკურ SEO წრეებში. ახალი მონაცემები პასუხობს კითხვას: რამდენად მნიშვნელოვანია 2 MB-იანი ლიმიტი თქვენი გვერდებისთვის? საიტების უმეტესობისთვის პასუხია — არა. სტანდარტული გვერდები, თუნდაც კონტენტით დატვირთული, იშვიათად უახლოვდებიან ამ ზღვარს.
ლიმიტი შეიძლება პრობლემური იყოს მხოლოდ იმ გვერდებისთვის, რომლებსაც აქვთ გადატვირთული კოდი (markup), inline სკრიპტები ან ჩაშენებული მონაცემები, რაც HTML-ის ზომას ჩვეულებრივზე მეტად ზრდის.
ტექნიკური SEO სპეციალისტების აზრი
Dave Smart-მა, Tame the Bots-ის კონსულტანტმა, ციფრები კონტექსტში მოაქცია:
„Googlebot ჩამოტვირთავს მხოლოდ საწყისი HTML-ის (ან სხვა რესურსის, როგორიცაა CSS, JavaScript) პირველ 2 MB-ს. ეს შეიძლება ჩანდეს როგორც დიდი შემცირება ადრე გავრცელებული 15 MB-დან, მაგრამ რეალურად 2 MB მაინც ძალიან ბევრია.“
ჯონ მიულერმა Reddit-ზე გააზიარა Web Almanac-ის მონაცემები:
„მობილური ვერსიების მედიანა 33kb-ია, ხოლო 90-ე პერცენტილი — 151kb. ეს ნიშნავს, რომ გვერდების 90%-ს 151kb-ზე ნაკლები HTML კოდი აქვს.“
როჯერ მონტიმ დაასკვნა, რომ HTML-ის ზომა შეიძლება ამოიშალოს იმ SEO საკითხების სიიდან, რომლებზეც ნერვიულობა ღირს.
კვირის თემა: დიაგნოსტიკური ნაპრალი
ამ კვირის თითოეული ისტორია მიუთითებს იმაზე, რასაც სპეციალისტები ადრე ვერ ხედავდნენ ან არასწორად ამოწმებდნენ. Bing-ის AI ციტირების პანელი ავსებს გაზომვის ნაკლოვანებას, რომელიც AI პასუხების გაჩენის დღიდან არსებობდა. მიულერის HTTP შემთხვევა ააშკარავებს უხილავ გვერდს, რომელსაც სტანდარტული აუდიტი ვერ პოულობს. ხოლო Googlebot-ის ლიმიტების მონაცემები პასუხობს კითხვებს, რომლებსაც მხოლოდ დოკუმენტაცია ვერ ხსნიდა.
მთავარი დასკვნა ისაა, რომ ინსტრუმენტები და მონაცემები უფრო სპეციფიკური ხდება. გამოწვევა კი იმაში მდგომარეობს, რომ ზუსტად ვიცოდეთ, სად ვეძებოთ ხარვეზები.
მსგავსი სტატიები
AIO ციტატები ტრადიციულ რეიტინგებს შორდება, Bing-ი კი წესებს ცვლის – SEO Pulse
SEO Pulse-ის მიმოხილვა: AI Overview-ს ციტატები ტრადიციულ რეიტინგებს შორდება, ხოლო Bing-ი ხელოვნური ინტელექტის პასუხებისთვის ახალ წესებს აყალიბებს.

Google-ის AI რეჟიმი საკუთარ თავს უფრო ხშირად უთითებს: იზრდება ორგანული ბმულების რაოდენობა
SE Ranking-ის კვლევის თანახმად, Google-ის AI რეჟიმში თვითციტირების მაჩვენებელი გასამმაგდა, თუმცა ბმულები ახლა უფრო ხშირად ორგანული ძიების შედეგებისკენ მიემართება.

NanoClaw-ის შემქმნელი SEO ბრძოლაში თაღლითურ ვებსაიტთან დამარცხდა
NanoClaw-ის შემქმნელი აცხადებს, რომ Google და სხვა საძიებო სისტემები მის ავთენტურ ვებსაიტზე წინ ყალბ გვერდს აჩვენებენ, მიუხედავად პროექტის მაღალი რეიტინგისა და ტექნიკური გამართულობისა.