Skip to main content
მარკეტინგი14.2.20260 ნახვა

Bing-ის AI ციტირების თრექინგი, დამალული HTTP გვერდები და Googlebot-ის სკანირების ლიმიტები

Bing-მა AI ციტირების პანელი დაამატა, ჯონ მიულერმა HTTP-სთან დაკავშირებული ხარვეზი განმარტა, ხოლო კვლევამ Googlebot-ის სკანირების ლიმიტების ეფექტურობა დაადასტურა.

Bing-ის AI ციტირების თრექინგი, დამალული HTTP გვერდები და Googlebot-ის სკანირების ლიმიტები

Bing-მა Webmaster Tools-ში AI ციტირების თრექინგის ფუნქცია დაამატა, ჯონ მიულერმა დამალული HTTP მთავარი გვერდის ხარვეზი აღმოაჩინა, ხოლო ახალი მონაცემები ადასტურებს, რომ ვებგვერდების უმეტესობა თავისუფლად ჯდება Googlebot-ის სკანირების ლიმიტებში. SEO-ს ყოველკვირეული მიმოხილვა მოიცავს ინფორმაციას იმის შესახებ, თუ როგორ უნდა გაკონტროლდეს AI ხილვადობა, როგორ შეიძლება "მოჩვენება" გვერდმა დააზიანოს საიტის სახელი ძიების შედეგებში და რას ამბობს სტატისტიკა ფაილების ზომის შეზღუდვებზე.

ეს სიახლეები მნიშვნელოვანია სპეციალისტებისთვის, რათა უკეთ გაიგონ, როგორ აღიქვამენ საძიებო სისტემები მათ კონტენტს ხელოვნური ინტელექტის ეპოქაში და როგორ აიცილონ თავიდან ტექნიკური ხარვეზები, რომლებიც ჩვეულებრივი ბრაუზერით დათვალიერებისას არ ჩანს.

Bing Webmaster Tools-ში AI ციტირების პანელი დაემატა

Microsoft-მა Bing Webmaster Tools-ში AI Performance პანელი წარადგინა. ეს ფუნქცია გამომცემლებს საშუალებას აძლევს დაინახონ, თუ რამდენად ხშირად ხდება მათი კონტენტის ციტირება Copilot-სა და AI-ს მიერ გენერირებულ პასუხებში. ამჟამად ფუნქცია საჯარო ტესტირების (public preview) რეჟიმშია.

ძირითადი ფაქტები: პანელი აღრიცხავს ციტირებების ჯამურ რაოდენობას, დღიურად ციტირებული გვერდების საშუალო მაჩვენებელს, გვერდების დონეზე ციტირების აქტივობას და ე.წ. "grounding queries"-ს. ეს უკანასკნელი აჩვენებს იმ ფრაზებს, რომლებსაც AI იყენებს პასუხის მოსამზადებლად კონტენტის ამოღებისას.

რატომ არის ეს მნიშვნელოვანი

Bing ახლა სთავაზობს სპეციალურ პანელს AI ციტირების ხილვადობისთვის. Google-ის Search Console-ში AI Overviews და AI Mode აქტივობები საერთო Performance რეპორტშია მოქცეული, თუმცა ის არ იძლევა ცალკეულ ანგარიშს ან ციტირების სტილის URL-ების რაოდენობას. AI Overviews ასევე ყველა ბმულს ერთ პოზიციას ანიჭებს, რაც ზღუდავს ინფორმაციას ინდივიდუალური გვერდების ეფექტურობაზე AI პასუხებში.

Bing-ის პანელი უფრო შორს მიდის და აჩვენებს, რომელი გვერდებია ციტირებული, რამდენად ხშირად და რომელმა ფრაზებმა გამოიწვია ციტირება. ერთადერთი ნაკლოვანება ქლიქების (click) მონაცემების არარსებობაა. პანელი აჩვენებს ციტირების ფაქტს, მაგრამ არა იმას, მოაქვს თუ არა ამას ტრაფიკი. ახლა უკვე შესაძლებელია იმის დადასტურება, თუ რომელი გვერდებია გამოყენებული AI პასუხებში, თუმცა AI ხილვადობის ბიზნეს შედეგებთან დაკავშირება კვლავ საკუთარი ანალიტიკის გამოყენებას მოითხოვს.

SEO სპეციალისტების მოსაზრებები

Wil Reynolds-მა, Seer Interactive-ის დამფუძნებელმა, X-ზე (ყოფილი Twitter) დადებითად შეაფასა ეს სიახლე და ყურადღება გაამახვილა grounding queries-ის მონაცემებზე:

„Bing ახლა გვაწვდის grounding queries-ს Bing Webmaster tools-ში! ახლა უნდა გავიგოთ, რას გვაძლევს ეს მონაცემები, რას ნიშნავს ისინი და როგორ გამოვიყენოთ.“

Koray Tuğberk GÜBÜR-მა, Holistic SEO & Digital-ის დამფუძნებელმა, ფუნქცია პირდაპირ შეადარა Google-ის ინსტრუმენტებს:

„Microsoft Bing Webmaster Tools ყოველთვის უფრო სასარგებლო და ეფექტური იყო, ვიდრე Google Search Console, და მათ კიდევ ერთხელ დაამტკიცეს თავიანთი ერთგულება გამჭვირვალობის მიმართ.“

Fabrice Canel-მა, Microsoft Bing-ის პროდუქტების მთავარმა მენეჯერმა, აღნიშნა, რომ ეს ფუნქცია არის ხიდი ტრადიციულ და AI-ზე დაფუძნებულ ოპტიმიზაციას შორის:

„გამომცემლებს ახლა შეუძლიათ დაინახონ, როგორ ჩანს მათი კონტენტი AI ეპოქაში. GEO (Generative Engine Optimization) ხვდება SEO-ს, გააძლიერეთ თქვენი სტრატეგია რეალური სიგნალებით.“

დამალულმა HTTP გვერდმა შესაძლოა Google-ში საიტის სახელი დააზიანოს

Google-ის წარმომადგენელმა, ჯონ მიულერმა, Bluesky-ზე გააზიარა შემთხვევა, როდესაც ძველი HTTP მთავარი გვერდი ძიების შედეგებში საიტის სახელისა და ფავიკონის (favicon) პრობლემებს იწვევდა. პრობლემის შემჩნევა რთულია, რადგან Chrome ავტომატურად გადამისამართებს HTTP მოთხოვნებს HTTPS-ზე, რაც ხარვეზს ჩვეულებრივი დათვალიერებისას მალავს.

ძირითადი ფაქტები: საიტი იყენებდა HTTPS-ს, თუმცა სერვერის ნაგულისხმევი (default) HTTP მთავარი გვერდი კვლავ ხელმისაწვდომი იყო. Chrome-ის ავტომატური გადამისამართების გამო გამომცემელი HTTP ვერსიას ვერ ხედავდა, თუმცა Googlebot არ მიჰყვება Chrome-ის ამ ქცევას და ინფორმაციას არასწორი გვერდიდან იღებდა.

რატომ არის ეს მნიშვნელოვანი

ეს არის პრობლემა, რომელსაც სტანდარტული საიტის აუდიტით ვერ აღმოაჩენთ. თუ საიტის სახელი ან ფავიკონი ძიების შედეგებში არ შეესაბამება მოლოდინს, ხოლო HTTPS გვერდი სწორად არის გამართული, აუცილებელია დომენის HTTP ვერსიის შემოწმება.

მიულერმა პრობლემის დიაგნოსტიკისთვის შემდეგი ნაბიჯები გვირჩია:

  • გამოიყენეთ curl ბრძანება ტერმინალიდან (command line), რათა ნახოთ სუფთა HTTP პასუხი Chrome-ის ავტომატური გადამისამართების გარეშე.
  • თუ ბრძანება აბრუნებს სერვერის ნაგულისხმევ გვერდს თქვენი რეალური გვერდის ნაცვლად, ეს არის პრობლემის წყარო.
  • გამოიყენეთ URL Inspection tool Search Console-ში (Live Test ფუნქცია), რათა ნახოთ, რა ინფორმაციას იღებს და არენდერებს Google.

Google-ის დოკუმენტაცია საიტის სახელების შესახებ პირდაპირ მიუთითებს დუბლირებულ მთავარ გვერდებზე (მათ შორის HTTP და HTTPS ვერსიებზე) და რეკომენდაციას უწევს ერთი და იმავე სტრუქტურირებული მონაცემების გამოყენებას ორივესთვის.

ექსპერტების კომენტარები

მიულერმა ამ შემთხვევას „უცნაური“ უწოდა და აღნიშნა:

„Chrome ავტომატურად აუმჯობესებს HTTP-ს HTTPS-მდე, ამიტომ თქვენ ვერ ხედავთ HTTP გვერდს. თუმცა, Googlebot ხედავს მას და იყენებს საიტის სახელისა და ფავიკონის შესარჩევად.“

ეს შემთხვევა ხაზს უსვამს იმას, რომ ბრაუზერის ფუნქციები ხშირად მალავს იმას, რასაც სკანერები (crawlers) ხედავენ. პრობლემების მოსაგვარებლად შეამოწმეთ სერვერის პასუხი პირდაპირ და არა მხოლოდ ბრაუზერში ჩატვირთვისას.

ახალი მონაცემები Googlebot-ის სკანირების ლიმიტების შესახებ

ახალი კვლევა აჩვენებს, რომ ვებგვერდების უმეტესობა ბევრად მცირეა Googlebot-ის 2 MB-იან ლიმიტზე. მონაცემები, რომლებიც Search Engine Journal-ის როჯერ მონტიმ გააანალიზა, ეყრდნობა HTTP Archive-ის გაზომვებს.

ძირითადი ფაქტები: Google-მა ცოტა ხნის წინ განაახლა დოკუმენტაცია, სადაც განმარტა, რომ Googlebot-ის ლიმიტი მხარდაჭერილი ფაილების ტიპებისთვის 2 MB-ია, ხოლო PDF ფაილებისთვის — 64 MB.

რატომ არის ეს მნიშვნელოვანი

სკანირების ლიმიტის საკითხი აქტიურად განიხილებოდა ტექნიკურ SEO წრეებში. ახალი მონაცემები პასუხობს კითხვას: რამდენად მნიშვნელოვანია 2 MB-იანი ლიმიტი თქვენი გვერდებისთვის? საიტების უმეტესობისთვის პასუხია — არა. სტანდარტული გვერდები, თუნდაც კონტენტით დატვირთული, იშვიათად უახლოვდებიან ამ ზღვარს.

ლიმიტი შეიძლება პრობლემური იყოს მხოლოდ იმ გვერდებისთვის, რომლებსაც აქვთ გადატვირთული კოდი (markup), inline სკრიპტები ან ჩაშენებული მონაცემები, რაც HTML-ის ზომას ჩვეულებრივზე მეტად ზრდის.

ტექნიკური SEO სპეციალისტების აზრი

Dave Smart-მა, Tame the Bots-ის კონსულტანტმა, ციფრები კონტექსტში მოაქცია:

„Googlebot ჩამოტვირთავს მხოლოდ საწყისი HTML-ის (ან სხვა რესურსის, როგორიცაა CSS, JavaScript) პირველ 2 MB-ს. ეს შეიძლება ჩანდეს როგორც დიდი შემცირება ადრე გავრცელებული 15 MB-დან, მაგრამ რეალურად 2 MB მაინც ძალიან ბევრია.“

ჯონ მიულერმა Reddit-ზე გააზიარა Web Almanac-ის მონაცემები:

„მობილური ვერსიების მედიანა 33kb-ია, ხოლო 90-ე პერცენტილი — 151kb. ეს ნიშნავს, რომ გვერდების 90%-ს 151kb-ზე ნაკლები HTML კოდი აქვს.“

როჯერ მონტიმ დაასკვნა, რომ HTML-ის ზომა შეიძლება ამოიშალოს იმ SEO საკითხების სიიდან, რომლებზეც ნერვიულობა ღირს.

კვირის თემა: დიაგნოსტიკური ნაპრალი

ამ კვირის თითოეული ისტორია მიუთითებს იმაზე, რასაც სპეციალისტები ადრე ვერ ხედავდნენ ან არასწორად ამოწმებდნენ. Bing-ის AI ციტირების პანელი ავსებს გაზომვის ნაკლოვანებას, რომელიც AI პასუხების გაჩენის დღიდან არსებობდა. მიულერის HTTP შემთხვევა ააშკარავებს უხილავ გვერდს, რომელსაც სტანდარტული აუდიტი ვერ პოულობს. ხოლო Googlebot-ის ლიმიტების მონაცემები პასუხობს კითხვებს, რომლებსაც მხოლოდ დოკუმენტაცია ვერ ხსნიდა.

მთავარი დასკვნა ისაა, რომ ინსტრუმენტები და მონაცემები უფრო სპეციფიკური ხდება. გამოწვევა კი იმაში მდგომარეობს, რომ ზუსტად ვიცოდეთ, სად ვეძებოთ ხარვეზები.

წყარო: Search Engine Journal
გაზიარება:

მსგავსი სტატიები

სჭირდება თუ არა ბიზნესს საკუთარი ვებსაიტი 2026 წელს? Google-ის გუნდის დისკუსია
მარკეტინგი

სჭირდება თუ არა ბიზნესს საკუთარი ვებსაიტი 2026 წელს? Google-ის გუნდის დისკუსია

Google-ის Search Relations გუნდმა განიხილა, რამდენად აუცილებელია საკუთარი ვებსაიტის ქონა 2026 წელს და რა უპირატესობები აქვს სოციალურ ქსელებსა თუ აპლიკაციებს.

13.2.2026
კლასიფიკაციის შრე: სპამი, უსაფრთხოება, განზრახვა და ნდობა — ბარიერები თქვენს კონტენტსა და მომხმარებელს შორის
მარკეტინგი

კლასიფიკაციის შრე: სპამი, უსაფრთხოება, განზრახვა და ნდობა — ბარიერები თქვენს კონტენტსა და მომხმარებელს შორის

გაიგეთ, როგორ მუშაობს SSIT მოდელი (სპამი, უსაფრთხოება, განზრახვა, ნდობა) და როგორ განსაზღვრავს ის თქვენი კონტენტის ხილვადობას AI პასუხების შრეში.

12.2.2026
Google-ის განმარტება კამპანიების კონსოლიდაციაზე: როდის არის საჭირო სტრუქტურის გამარტივება?
მარკეტინგი

Google-ის განმარტება კამპანიების კონსოლიდაციაზე: როდის არის საჭირო სტრუქტურის გამარტივება?

Google-მა კამპანიების კონსოლიდაციის შესახებ ახალი განმარტებები გააკეთა. გაიგეთ, რატომ არ არის სტრუქტურის გამარტივება თვითმიზანი და როდის ინარჩუნებს სეგმენტაცია აქტუალობას AI-ზე დაფუძნებულ რეკლამებში.

12.2.2026