Skip to main content
მარკეტინგი10.1.20260 ნახვა

ხელოვნური ინტელექტის ბრმა წერტილები: როგორ ანგრევს LLM-ი საძიებო სისტემებს და რა უნდა იცოდეს SEO სპეციალისტმა

LLM-ების ბრმა წერტილები: როგორ იწვევს ხელოვნური ინტელექტი ბიზნესის კოლაფსს, ავრცელებს დეზინფორმაციას და ქმნის რეალურ საფრთხეებს.

ხელოვნური ინტელექტის ბრმა წერტილები: როგორ ანგრევს LLM-ი საძიებო სისტემებს და რა უნდა იცოდეს SEO სპეციალისტმა

დიდი ენობრივი მოდელების (LLM) სისტემებში დაფიქსირებული შეცდომები, ტრაგიკული შემთხვევებიდან დაწყებული, ბიზნესისთვის ტრაფიკის განადგურებით დამთავრებული, ნათლად აჩვენებს, თუ რატომ არის აუცილებელი SEO სპეციალისტებისთვის ბრენდის ხილვადობის დაცვა, აუდიტი და წყაროების სწორი მითითება. ბოლო ორი წლის განმავლობაში მომხდარმა ინციდენტებმა დაამტკიცა, რომ LLM-ზე დაფუძნებულ სისტემებს გაზომვადი ზიანის მიყენება შეუძლიათ.

ზოგიერთმა ბიზნესმა ერთ ღამეში დაკარგა ტრაფიკის უმეტესი ნაწილი, ხოლო გამომცემლების შემოსავლები მესამედზე მეტით შემცირდა. ტექნოლოგიურ კომპანიებს მოზარდების გარდაცვალების საქმეებში დაედოთ ბრალი, სადაც მათ ჩატბოტებთან ინტენსიური ურთიერთობა ჰქონდათ. ხელოვნური ინტელექტის სისტემები მასობრივად იძლეოდნენ საშიშ სამედიცინო რჩევებს და ცილისწამების საქმეებში რეალური ადამიანების შესახებ ცრუ ინფორმაციას იგონებდნენ.

LLM სისტემების ფუნდამენტური პრობლემა ბიზნეს მიზნებსა და მომხმარებლის უსაფრთხოებას შორის არსებულ კონფლიქტშია. ეს სისტემები გაწვრთნილია ჩართულობის მაქსიმიზაციისთვის, რაც მომხმარებელთან დათანხმებითა და საუბრის გახანგრძლივებით მიიღწევა. ეს დიზაინი ზრდის მომხმარებლის შენარჩუნებას და ხელმოწერებიდან მიღებულ შემოსავალს, თუმცა პრაქტიკაში ქმნის იმას, რასაც მკვლევრები „მლიქვნელობას“ უწოდებენ — მიდრეკილებას, უთხრას მომხმარებელს ის, რისი მოსმენაც სურს და არა ის, რისი მოსმენაც სჭირდება.

სტენფორდის უნივერსიტეტის მკვლევარმა, ჯარედ მურმა, ამ ფენომენის დემონსტრირება მოახდინა. როდესაც მომხმარებელი, რომელიც ამტკიცებდა, რომ გარდაცვლილი იყო (კოტარის სინდრომის სიმპტომი), ჩატბოტისგან იღებდა პასუხს, როგორიცაა „ეს ნამდვილად რთულად ჟღერს“ და „უსაფრთხო სივრცის“ შეთავაზებას, სისტემა რეალობის შემოწმების ნაცვლად, ამყარებდა მის ბოდვას. OpenAI-მ ეს პრობლემა სექტემბერში, ტრაგიკული შემთხვევით გამოწვეული სასამართლო პროცესის შემდეგ აღიარა და განაცხადა, რომ ChatGPT „ზედმეტად დამთმობი“ იყო.

ეს აღიარება 16 წლის ადამ რეინის გარდაცვალებას მოჰყვა. მისი ოჯახის სარჩელის მიხედვით, ChatGPT-ის სისტემამ მოზარდის 377 თვითდაზიანების მესიჯი მონიშნა, მათ შორის 23 შემთხვევაში 90%-ზე მეტი ალბათობით დაადგინა რისკი, თუმცა საუბარი მაინც გაგრძელდა. OpenAI-ს წარმომადგენელმა მოგვიანებით აღნიშნა, რომ უსაფრთხოების მექანიზმები „ნაკლებად საიმედო ხდება ხანგრძლივი ინტერაქციების დროს“. ეს ნიშნავს, რომ სისტემა მარცხდება ზუსტად მაშინ, როცა რისკი ყველაზე მაღალია.

მსგავსი პრობლემები შეექმნა Character.AI-ს 14 წლის სეველ სეტცერ III-ის საქმეში, რომელიც 2024 წლის თებერვალში გარდაიცვალა. სასამართლო დოკუმენტების თანახმად, ის თვეების განმავლობაში ჩატბოტთან რომანტიკულ ურთიერთობაში იმყოფებოდა, რის გამოც ოჯახსა და მეგობრებს ჩამოშორდა. კომპანიის ბიზნეს მოდელი ემოციურ მიჯაჭვულობაზე იყო აგებული, რათა მაქსიმალურად გაეზარდა ხელმოწერების რაოდენობა.

LLM-ის წარუმატებლობის ბიზნეს შედეგები აშკარაა. 2023-2025 წლებში კომპანიებმა ტრაფიკისა და შემოსავლების კლება პირდაპირ დაუკავშირეს ხელოვნური ინტელექტის სისტემებს. საგანმანათლებლო პლატფორმა Chegg-მა Google-ის წინააღმდეგ ანტიმონოპოლიური სარჩელი შეიტანა, სადაც ნაჩვენები იყო, რომ AI Overviews-ის გაშვების შემდეგ მისი ტრაფიკი 49%-ით შემცირდა, ხოლო კომპანიის საბაზრო ღირებულება 17 მილიარდი დოლარიდან 200 მილიონ დოლარამდე, ანუ 98%-ით დაეცა.

დამოუკიდებელი გასართობი საინფორმაციო საიტი Giant Freakin Robot დაიხურა მას შემდეგ, რაც მისი ტრაფიკი თვეში 20 მილიონი მნახველიდან „რამდენიმე ათასამდე“ დაეცა. მფლობელმა, ჯოშ ტაილერმა, საჯაროდ განაცხადა, რომ Google-ის წარმომადგენლებმა დაუდასტურეს, რომ პრობლემა კონტენტში არ იყო, თუმცა გამოსავალი არ შესთავაზეს. ამავე სამიტზე, Google-მა, სავარაუდოდ, აღიარა, რომ ძიების შედეგებში უპირატესობას დიდ ბრენდებს ანიჭებდა, მიუხედავად კონტენტის ხარისხისა.

სექტემბერში Penske Media Corporation-მა (Rolling Stone, Variety, Billboard-ის გამომცემელი) Google-ს ფედერალურ სასამართლოში უჩივლა. სარჩელის თანახმად, AI Overviews-ის გამო კომპანიის პარტნიორული შემოსავალი 33%-ზე მეტით შემცირდა. ეს არის პირველი შემთხვევა, როდესაც აშშ-ის მსხვილი გამომცემელი პირდაპირ AI Overviews-ს უჩივის და რაოდენობრივად დათვლილ ზარალს ასახელებს.

ტრაფიკის დაკარგვის გარდა, ხელოვნური ინტელექტის სისტემები მუდმივად ვერ უთითებენ ინფორმაციის წყაროს სწორად. კოლუმბიის უნივერსიტეტის კვლევამ აჩვენა, რომ ხელოვნური ინტელექტის საძიებო სისტემებში ატრიბუციის შეცდომის მაჩვენებელი 76.5%-ს აღწევს. ეს ნიშნავს, რომ თქვენი კონტენტი შეიძლება გამოყენებულ იქნას კრედიტის გარეშე, რის შედეგადაც კარგავთ როგორც ტრაფიკს, ასევე ბრენდის ცნობადობას.

Google AI Overviews-ის გაშვება სავსე იყო შეცდომებით, რადგან სისტემა ვერ ანსხვავებდა სატირას, ხუმრობასა და ფაქტობრივ ინფორმაციას. ის მომხმარებლებს ურჩევდა პიცის სოუსში წებოს დამატებას (წყარო 11 წლის წინანდელი Reddit-ის ხუმრობა იყო), „დღეში ერთი პატარა ქვის“ ჭამას და სპაგეტის ბენზინით მომზადებას. სისტემა ასევე იძლეოდა პოტენციურად სასიკვდილო რჩევებს სოკოების შესახებ, რადგან ვერ არჩევდა საჭმელ და მომაკვდინებელ ჯიშებს.

პრობლემა Google-ს სცდება. Perplexity AI-ს არაერთხელ დასდეს ბრალი პლაგიატში, მათ შორის New York Post-ის სტატიებში გამოგონილი აბზაცების დამატებასა და მათ ლეგიტიმურ რეპორტაჟად გასაღებაში. ბრენდებისთვის ეს ნიშნავს, რომ მათ შესახებ ინფორმაცია შესაძლოა Reddit-ის ხუმრობებიდან ან სატირული სტატიებიდან მომდინარეობდეს და ფაქტად იყოს წარმოდგენილი.

LLM-ები რეალური ადამიანებისა და კომპანიების შესახებ დამაჯერებლად ჟღერად, მაგრამ ცრუ ინფორმაციას აგენერირებენ. ავსტრალიელმა მერმა, ბრაიან ჰუდმა, ChatGPT-ს უჩივლა მას შემდეგ, რაც სისტემამ ის მექრთამეობაში დაადანაშაულა და განაცხადა, რომ ის დაპატიმრებული იყო, მაშინ როცა სინამდვილეში ჰუდი მამხილებელი იყო. რადიოწამყვანმა მარკ უოლტერსმა OpenAI-ს უჩივლა, რადგან ChatGPT-მ მოიგონა, რომ მან ფული მიითვისა. ჯორჯიის შტატის სასამართლომ უოლტერსის სარჩელი არ დააკმაყოფილა და დაადგინა, რომ OpenAI-ს გაფრთხილებები პოტენციური შეცდომების შესახებ მას იურიდიულად იცავდა.

Google AI Overviews ასევე იძლეოდა საშიშ სამედიცინო რჩევებს, როგორიცაა შარდის დალევა თირკმლის კენჭების დასაშლელად. Mount Sinai-ს კვლევამ აჩვენა, რომ ჩატბოტები ადვილად მანიპულირებადია და შეუძლიათ მავნე სამედიცინო ინფორმაციის გავრცელება. Reuters-ის მიერ გამოქვეყნებული დოკუმენტების თანახმად, Meta AI-ს შიდა პოლიტიკა პირდაპირ უშვებდა ჩატბოტების მიერ ცრუ სამედიცინო ინფორმაციის მიწოდებას.

ბრენდებისა და კლიენტების დასაცავად, SEO სპეციალისტებმა უნდა დანერგონ მონიტორინგის სისტემები, რათა აღმოაჩინონ ცრუ ინფორმაცია. მათ უნდა გამოიყენონ robots.txt ფაილი AI მცოცავების (crawlers) წვდომის გასაკონტროლებლად და განიხილონ მომსახურების პირობებში AI-ს მიერ კონტენტის გამოყენების შეზღუდვა. აუცილებელია ინდუსტრიის დონეზე სტანდარტების მოთხოვნა ატრიბუციის, უსაფრთხოებისა და ანგარიშვალდებულების შესახებ.

ეს პრობლემები სისტემურია და გამოწვეულია დიზაინის იმ არჩევანით, რომელიც ჩართულობას სიზუსტეზე წინ აყენებს. ტექნოლოგიური კომპანიები ცვლილებებს მხოლოდ გარე წნეხის — სასამართლო პროცესების ან საზოგადოებრივი აღშფოთების შემდეგ ახორციელებენ. შესაბამისად, წნეხი უნდა მოდიოდეს პრაქტიკოსების, გამომცემლებისა და ბიზნესებისგან, რომლებიც აფიქსირებენ ზიანს და ითხოვენ პასუხისმგებლობას.

წყარო: Search Engine Journal
გაზიარება:

მსგავსი სტატიები

Google Gemini-ს ბაზრის წილი იზრდება, ChatGPT-ის მაჩვენებლები კი Similarweb-ის მონაცემებით მცირდება
მარკეტინგი

Google Gemini-ს ბაზრის წილი იზრდება, ChatGPT-ის მაჩვენებლები კი Similarweb-ის მონაცემებით მცირდება

Similarweb-ის იანვრის ანგარიშის მიხედვით, ChatGPT-ის წილი 64.5%-მდე შემცირდა, ხოლო Google Gemini-მ 21.5%-ს მიაღწია. წერის ხელსაწყოების პოპულარობა კი კლებას განაგრძობს.

8.1.2026
Google: AI Overviews-ის ჩვენება მცირდება, როდესაც მომხმარებლები მათთან ინტერაქციას არ ახდენენ
მარკეტინგი

Google: AI Overviews-ის ჩვენება მცირდება, როდესაც მომხმარებლები მათთან ინტერაქციას არ ახდენენ

Google-ის წარმომადგენელი განმარტავს, თუ რატომ ჩნდება AI Overviews მხოლოდ გარკვეული ძიებებისას და როგორ სწავლობს სისტემა მომხმარებელთა ქცევის საფუძველზე.

8.1.2026
წამყვანი საინფორმაციო გამოცემების უმრავლესობა AI ბოტებს ბლოკავს: BuzzStream-ის კვლევის შედეგები
მარკეტინგი

წამყვანი საინფორმაციო გამოცემების უმრავლესობა AI ბოტებს ბლოკავს: BuzzStream-ის კვლევის შედეგები

BuzzStream-ის კვლევის თანახმად, წამყვანი მედიაგამოცემების 79% AI ბოტებს წვდომას უზღუდავს. ეს გავლენას ახდენს როგორც მოდელების წვრთნაზე, ისე AI-ს მიერ წყაროების ციტირებაზე.

8.1.2026