Skip to main content
ხელოვნური ინტელექტი11.1.20262 ნახვა

Google-მა სამედიცინო ხასიათის გარკვეულ ძიებებზე AI Overviews-ის ჩვენება შეწყვიტა

Google-მა სამედიცინო ძიების შედეგებიდან AI Overviews-ის ნაწილი ამოიღო მას შემდეგ, რაც გაირკვა, რომ ხელოვნური ინტელექტი მომხმარებლებს ღვიძლის ანალიზების შესახებ არაზუსტ ინფორმაციას აწვდიდა.

Google-მა სამედიცინო ხასიათის გარკვეულ ძიებებზე AI Overviews-ის ჩვენება შეწყვიტა

გამოცემა Guardian-ის მიერ ჩატარებული მოკვლევის შემდეგ, რომელმაც გამოავლინა, რომ Google-ის ხელოვნური ინტელექტის მიმოხილვები (AI Overviews) ჯანმრთელობასთან დაკავშირებულ გარკვეულ კითხვებზე მცდარ ინფორმაციას აწვდიდა მომხმარებლებს, კომპანიამ აღნიშნული ფუნქცია ზოგიერთი ძიებისთვის გააუქმა.

მაგალითად, Guardian-ის თავდაპირველი ანგარიშის მიხედვით, როდესაც მომხმარებლები სვამდნენ კითხვას — „რა არის ღვიძლის სისხლის ანალიზის ნორმალური მაჩვენებელი“, სისტემა სთავაზობდა ციფრებს, რომლებიც არ ითვალისწინებდა ისეთ ფაქტორებს, როგორიცაა ეროვნება, სქესი, ეთნიკური წარმომავლობა ან ასაკი. ამან შესაძლოა მომხმარებელი შეცდომაში შეიყვანოს და აფიქრებინოს, რომ მისი შედეგები ნორმაშია, მაშინ როცა რეალურად ასე არ არის.

ამჟამად, AI Overviews აღარ ჩნდება ისეთი ძიებებისას, როგორიცაა „რა არის ღვიძლის სისხლის ანალიზის ნორმალური მაჩვენებელი“ (what is the normal range for liver blood tests) და „რა არის ღვიძლის ფუნქციური ტესტების ნორმალური მაჩვენებელი“ (what is the normal range for liver function tests). თუმცა, კვლევამ აჩვენა, რომ ამ კითხვების ვარიაციები, მაგალითად „lft reference range“ ან „lft test reference range“, კვლავ იწვევდა ხელოვნური ინტელექტის მიერ გენერირებული რეზიუმეების გამოჩენას.

ძიების შედეგების ცვლილება და Google-ის რეაგირება

მოგვიანებით ჩატარებულმა შემოწმებამ აჩვენა, რომ აღნიშნული ვარიაციების შემთხვევაშიც AI Overviews აღარ იტვირთებოდა, თუმცა Google კვლავ სთავაზობდა მომხმარებელს იგივე კითხვის დასმას „AI Mode“-ში. რამდენიმე შემთხვევაში, ძიების პირველ შედეგად სწორედ Guardian-ის სტატია ჩნდებოდა ფუნქციის გაუქმების შესახებ.

Google-ის წარმომადგენელმა Guardian-თან საუბრისას აღნიშნა, რომ კომპანია „არ აკეთებს კომენტარს ძიების შედეგებიდან კონკრეტული ელემენტების ამოღებაზე“, თუმცა მუშაობს „ზოგად გაუმჯობესებაზე“. წარმომადგენლის თქმით, კლინიცისტების შიდა გუნდმა გადახედა Guardian-ის მიერ მითითებულ კითხვებს და დაასკვნა, რომ „ხშირ შემთხვევაში ინფორმაცია არ იყო მცდარი და გამყარებული იყო მაღალი ხარისხის ვებგვერდების მიერ“. TechCrunch-მა დამატებითი კომენტარისთვის Google-ს უკვე მიმართა.

სამედიცინო AI-ს მომავალი და ექსპერტთა შეფასებები

გასულ წელს კომპანიამ დააანონსა ახალი ფუნქციები, რომლებიც მიზნად ისახავდა Google Search-ის გაუმჯობესებას ჯანდაცვის სფეროში, რაც მოიცავდა გაუმჯობესებულ მიმოხილვებსა და ჯანმრთელობაზე ორიენტირებულ AI მოდელებს.

British Liver Trust-ის კომუნიკაციებისა და პოლიტიკის დირექტორმა, ვანესა ჰებდიჩმა, Guardian-თან ინტერვიუში აღნიშნა, რომ ფუნქციის გაუქმება „შესანიშნავი სიახლეა“. თუმცა, მან დასძინა: „ჩვენი მთავარი საფიქრალი ის არის, რომ ეს მხოლოდ ცალკეული ძიების შედეგების კორექტირებაა. Google-ს შეუძლია უბრალოდ გამორთოს AI Overviews კონკრეტული შემთხვევისთვის, მაგრამ ეს არ აგვარებს უფრო დიდ პრობლემას, რომელიც ჯანმრთელობის საკითხებზე ხელოვნური ინტელექტის მიმოხილვებს უკავშირდება“.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

რატომ დახურა OpenAI-მ Sora სინამდვილეში: ფინანსური კრახი და სტრატეგიული ცვლილება
ხელოვნური ინტელექტი

რატომ დახურა OpenAI-მ Sora სინამდვილეში: ფინანსური კრახი და სტრატეგიული ცვლილება

OpenAI-მ ვიდეოგენერაციის ხელსაწყო Sora დახურა. მიზეზი პროექტის მაღალი ხარჯები, მომხმარებელთა რაოდენობის კლება და Anthropic-თან კონკურენცია გახდა, რამაც Disney-სთან $1-მილიარდიანი გარიგებაც შეიწირა.

30.3.2026
Sora-ს დახურვა: რეალობის აღქმა ხელოვნური ინტელექტის ვიდეო ინდუსტრიისთვის
ხელოვნური ინტელექტი

Sora-ს დახურვა: რეალობის აღქმა ხელოვნური ინტელექტის ვიდეო ინდუსტრიისთვის

OpenAI-მ Sora-ს ვიდეო მოდელების გაუქმება გამოაცხადა. ეს ნაბიჯი AI ინდუსტრიისთვის რეალობის აღქმის მომენტად იქცა, რაც მიუთითებს ტექნიკურ და სამართლებრივ სირთულეებზე.

29.3.2026
სტენფორდის კვლევა ხელოვნური ინტელექტის „პირფერობის“ საფრთხეებზე აფრთხილებს
ხელოვნური ინტელექტი

სტენფორდის კვლევა ხელოვნური ინტელექტის „პირფერობის“ საფრთხეებზე აფრთხილებს

სტენფორდის ახალი კვლევა აჩვენებს, რომ AI ჩატბოტების მიდრეკილება მომხმარებლისთვის თავის მოწონებისკენ ადამიანებს უფრო ეგოცენტრულს ხდის და სოციალურ უნარებს აქვეითებს.

29.3.2026