Google-მა სამედიცინო ხასიათის გარკვეულ ძიებებზე AI Overviews-ის ჩვენება შეწყვიტა
Google-მა სამედიცინო ძიების შედეგებიდან AI Overviews-ის ნაწილი ამოიღო მას შემდეგ, რაც გაირკვა, რომ ხელოვნური ინტელექტი მომხმარებლებს ღვიძლის ანალიზების შესახებ არაზუსტ ინფორმაციას აწვდიდა.

გამოცემა Guardian-ის მიერ ჩატარებული მოკვლევის შემდეგ, რომელმაც გამოავლინა, რომ Google-ის ხელოვნური ინტელექტის მიმოხილვები (AI Overviews) ჯანმრთელობასთან დაკავშირებულ გარკვეულ კითხვებზე მცდარ ინფორმაციას აწვდიდა მომხმარებლებს, კომპანიამ აღნიშნული ფუნქცია ზოგიერთი ძიებისთვის გააუქმა.
მაგალითად, Guardian-ის თავდაპირველი ანგარიშის მიხედვით, როდესაც მომხმარებლები სვამდნენ კითხვას — „რა არის ღვიძლის სისხლის ანალიზის ნორმალური მაჩვენებელი“, სისტემა სთავაზობდა ციფრებს, რომლებიც არ ითვალისწინებდა ისეთ ფაქტორებს, როგორიცაა ეროვნება, სქესი, ეთნიკური წარმომავლობა ან ასაკი. ამან შესაძლოა მომხმარებელი შეცდომაში შეიყვანოს და აფიქრებინოს, რომ მისი შედეგები ნორმაშია, მაშინ როცა რეალურად ასე არ არის.
ამჟამად, AI Overviews აღარ ჩნდება ისეთი ძიებებისას, როგორიცაა „რა არის ღვიძლის სისხლის ანალიზის ნორმალური მაჩვენებელი“ (what is the normal range for liver blood tests) და „რა არის ღვიძლის ფუნქციური ტესტების ნორმალური მაჩვენებელი“ (what is the normal range for liver function tests). თუმცა, კვლევამ აჩვენა, რომ ამ კითხვების ვარიაციები, მაგალითად „lft reference range“ ან „lft test reference range“, კვლავ იწვევდა ხელოვნური ინტელექტის მიერ გენერირებული რეზიუმეების გამოჩენას.
ძიების შედეგების ცვლილება და Google-ის რეაგირება
მოგვიანებით ჩატარებულმა შემოწმებამ აჩვენა, რომ აღნიშნული ვარიაციების შემთხვევაშიც AI Overviews აღარ იტვირთებოდა, თუმცა Google კვლავ სთავაზობდა მომხმარებელს იგივე კითხვის დასმას „AI Mode“-ში. რამდენიმე შემთხვევაში, ძიების პირველ შედეგად სწორედ Guardian-ის სტატია ჩნდებოდა ფუნქციის გაუქმების შესახებ.
Google-ის წარმომადგენელმა Guardian-თან საუბრისას აღნიშნა, რომ კომპანია „არ აკეთებს კომენტარს ძიების შედეგებიდან კონკრეტული ელემენტების ამოღებაზე“, თუმცა მუშაობს „ზოგად გაუმჯობესებაზე“. წარმომადგენლის თქმით, კლინიცისტების შიდა გუნდმა გადახედა Guardian-ის მიერ მითითებულ კითხვებს და დაასკვნა, რომ „ხშირ შემთხვევაში ინფორმაცია არ იყო მცდარი და გამყარებული იყო მაღალი ხარისხის ვებგვერდების მიერ“. TechCrunch-მა დამატებითი კომენტარისთვის Google-ს უკვე მიმართა.
სამედიცინო AI-ს მომავალი და ექსპერტთა შეფასებები
გასულ წელს კომპანიამ დააანონსა ახალი ფუნქციები, რომლებიც მიზნად ისახავდა Google Search-ის გაუმჯობესებას ჯანდაცვის სფეროში, რაც მოიცავდა გაუმჯობესებულ მიმოხილვებსა და ჯანმრთელობაზე ორიენტირებულ AI მოდელებს.
British Liver Trust-ის კომუნიკაციებისა და პოლიტიკის დირექტორმა, ვანესა ჰებდიჩმა, Guardian-თან ინტერვიუში აღნიშნა, რომ ფუნქციის გაუქმება „შესანიშნავი სიახლეა“. თუმცა, მან დასძინა: „ჩვენი მთავარი საფიქრალი ის არის, რომ ეს მხოლოდ ცალკეული ძიების შედეგების კორექტირებაა. Google-ს შეუძლია უბრალოდ გამორთოს AI Overviews კონკრეტული შემთხვევისთვის, მაგრამ ეს არ აგვარებს უფრო დიდ პრობლემას, რომელიც ჯანმრთელობის საკითხებზე ხელოვნური ინტელექტის მიმოხილვებს უკავშირდება“.
მსგავსი სტატიები

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა: დავა „მიწოდების ჯაჭვის რისკის“ სტატუსის გამო
Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა მას შემდეგ, რაც უწყებამ კომპანია „მიწოდების ჯაჭვის რისკად“ გამოაცხადა. დავა ხელოვნური ინტელექტის უსაფრთხოებასა და სამხედრო მიზნებისთვის გამოყენებას ეხება.

OpenAI-მ ხელოვნური ინტელექტის აგენტების უსაფრთხოების გასაძლიერებლად Promptfoo შეიძინა
OpenAI-მ AI უსაფრთხოების სტარტაპი Promptfoo შეიძინა. ტექნოლოგია OpenAI Frontier პლატფორმაში ინტეგრირდება, რათა უზრუნველყოს AI აგენტების დაცვა და უსაფრთხოების ავტომატიზებული ტესტირება.

Anthropic-მა კოდის რევიზიის ახალი ხელსაწყო წარადგინა AI-ით გენერირებული კოდის ნაკადის შესამოწმებლად
Anthropic-მა გამოუშვა Code Review — ხელოვნურ ინტელექტზე დაფუძნებული ინსტრუმენტი, რომელიც Claude Code-ის მიერ გენერირებულ კოდში ლოგიკურ შეცდომებს პოულობს და რევიზიის პროცესს აჩქარებს.