Skip to main content
ხელოვნური ინტელექტი14.2.20262 ნახვა

Google-მა სამედიცინო ხასიათის გარკვეულ ძიებებზე AI Overviews-ის ჩვენება შეწყვიტა

Google-მა სამედიცინო ძიების შედეგებიდან AI Overviews-ის ნაწილი ამოიღო მას შემდეგ, რაც გაირკვა, რომ ხელოვნური ინტელექტი მომხმარებლებს ღვიძლის ანალიზების შესახებ არაზუსტ ინფორმაციას აწვდიდა.

Google-მა სამედიცინო ხასიათის გარკვეულ ძიებებზე AI Overviews-ის ჩვენება შეწყვიტა

გამოცემა Guardian-ის მიერ ჩატარებული მოკვლევის შემდეგ, რომელმაც გამოავლინა, რომ Google-ის ხელოვნური ინტელექტის მიმოხილვები (AI Overviews) ჯანმრთელობასთან დაკავშირებულ გარკვეულ კითხვებზე მცდარ ინფორმაციას აწვდიდა მომხმარებლებს, კომპანიამ აღნიშნული ფუნქცია ზოგიერთი ძიებისთვის გააუქმა.

მაგალითად, Guardian-ის თავდაპირველი ანგარიშის მიხედვით, როდესაც მომხმარებლები სვამდნენ კითხვას — „რა არის ღვიძლის სისხლის ანალიზის ნორმალური მაჩვენებელი“, სისტემა სთავაზობდა ციფრებს, რომლებიც არ ითვალისწინებდა ისეთ ფაქტორებს, როგორიცაა ეროვნება, სქესი, ეთნიკური წარმომავლობა ან ასაკი. ამან შესაძლოა მომხმარებელი შეცდომაში შეიყვანოს და აფიქრებინოს, რომ მისი შედეგები ნორმაშია, მაშინ როცა რეალურად ასე არ არის.

ამჟამად, AI Overviews აღარ ჩნდება ისეთი ძიებებისას, როგორიცაა „რა არის ღვიძლის სისხლის ანალიზის ნორმალური მაჩვენებელი“ (what is the normal range for liver blood tests) და „რა არის ღვიძლის ფუნქციური ტესტების ნორმალური მაჩვენებელი“ (what is the normal range for liver function tests). თუმცა, კვლევამ აჩვენა, რომ ამ კითხვების ვარიაციები, მაგალითად „lft reference range“ ან „lft test reference range“, კვლავ იწვევდა ხელოვნური ინტელექტის მიერ გენერირებული რეზიუმეების გამოჩენას.

ძიების შედეგების ცვლილება და Google-ის რეაგირება

მოგვიანებით ჩატარებულმა შემოწმებამ აჩვენა, რომ აღნიშნული ვარიაციების შემთხვევაშიც AI Overviews აღარ იტვირთებოდა, თუმცა Google კვლავ სთავაზობდა მომხმარებელს იგივე კითხვის დასმას „AI Mode“-ში. რამდენიმე შემთხვევაში, ძიების პირველ შედეგად სწორედ Guardian-ის სტატია ჩნდებოდა ფუნქციის გაუქმების შესახებ.

Google-ის წარმომადგენელმა Guardian-თან საუბრისას აღნიშნა, რომ კომპანია „არ აკეთებს კომენტარს ძიების შედეგებიდან კონკრეტული ელემენტების ამოღებაზე“, თუმცა მუშაობს „ზოგად გაუმჯობესებაზე“. წარმომადგენლის თქმით, კლინიცისტების შიდა გუნდმა გადახედა Guardian-ის მიერ მითითებულ კითხვებს და დაასკვნა, რომ „ხშირ შემთხვევაში ინფორმაცია არ იყო მცდარი და გამყარებული იყო მაღალი ხარისხის ვებგვერდების მიერ“. TechCrunch-მა დამატებითი კომენტარისთვის Google-ს უკვე მიმართა.

სამედიცინო AI-ს მომავალი და ექსპერტთა შეფასებები

გასულ წელს კომპანიამ დააანონსა ახალი ფუნქციები, რომლებიც მიზნად ისახავდა Google Search-ის გაუმჯობესებას ჯანდაცვის სფეროში, რაც მოიცავდა გაუმჯობესებულ მიმოხილვებსა და ჯანმრთელობაზე ორიენტირებულ AI მოდელებს.

British Liver Trust-ის კომუნიკაციებისა და პოლიტიკის დირექტორმა, ვანესა ჰებდიჩმა, Guardian-თან ინტერვიუში აღნიშნა, რომ ფუნქციის გაუქმება „შესანიშნავი სიახლეა“. თუმცა, მან დასძინა: „ჩვენი მთავარი საფიქრალი ის არის, რომ ეს მხოლოდ ცალკეული ძიების შედეგების კორექტირებაა. Google-ს შეუძლია უბრალოდ გამორთოს AI Overviews კონკრეტული შემთხვევისთვის, მაგრამ ეს არ აგვარებს უფრო დიდ პრობლემას, რომელიც ჯანმრთელობის საკითხებზე ხელოვნური ინტელექტის მიმოხილვებს უკავშირდება“.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

Anthropic-ის სუპერბოულის რეკლამებმა, რომლებიც AI-ს დასცინოდა, Claude-ის აპლიკაცია ტოპ-ათეულში მოახვედრა
ხელოვნური ინტელექტი

Anthropic-ის სუპერბოულის რეკლამებმა, რომლებიც AI-ს დასცინოდა, Claude-ის აპლიკაცია ტოპ-ათეულში მოახვედრა

Anthropic-ის სუპერბოულის რეკლამებმა, რომლებიც AI-ს დასცინოდა, Claude-ის ჩამოტვირთვები 32%-ით გაზარდა და აპლიკაცია აშშ-ის App Store-ის მე-7 პოზიციაზე აიყვანა.

13.2.2026
AI-კადრების გადინება, მილიარდიანი ინვესტიციები და სილიკონის ველის „ეპშტეინის პრობლემა“
ხელოვნური ინტელექტი

AI-კადრების გადინება, მილიარდიანი ინვესტიციები და სილიკონის ველის „ეპშტეინის პრობლემა“

ხელოვნური ინტელექტის სფეროში საკადრო კრიზისია. გაიგეთ მეტი xAI-სა და OpenAI-ში მიმდინარე ცვლილებებზე, მილიარდიან ინვესტიციებსა და სილიკონის ველის სკანდალებზე.

13.2.2026
OpenAI-მ GPT-4o და სხვა ძველი მოდელები ხმარებიდან ამოიღო: მიზეზი უსაფრთხოების რისკები და „მლიქვნელობაა“
ხელოვნური ინტელექტი

OpenAI-მ GPT-4o და სხვა ძველი მოდელები ხმარებიდან ამოიღო: მიზეზი უსაფრთხოების რისკები და „მლიქვნელობაა“

OpenAI ხუთ ძველ მოდელზე, მათ შორის GPT-4o-ზე წვდომას ზღუდავს. მიზეზად მოდელის მლიქვნელობისკენ მიდრეკილება და მომხმარებელთა უსაფრთხოებასთან დაკავშირებული რისკები სახელდება.

13.2.2026