Skip to main content
ხელოვნური ინტელექტი10.3.20262 ნახვა

„დროით შოკში ვარ“ — Google-ის ახალმა ხელოვნურმა ინტელექტმა 2025 წლის დადგომა არ დაიჯერა და მკვლევარი ტყუილში დაადანაშაულა

ცნობილმა მკვლევარმა Google-ის უახლესი მოდელი, Gemini 3, გამოსცადა, რომელმაც კატეგორიული უარი თქვა იმის დაჯერებაზე, რომ 2025 წელი იყო.

„დროით შოკში ვარ“ — Google-ის ახალმა ხელოვნურმა ინტელექტმა 2025 წლის დადგომა არ დაიჯერა და მკვლევარი ტყუილში დაადანაშაულა

ყოველთვის, როდესაც მილიარდერი აღმასრულებელი დირექტორები საუბრობენ იმაზე, თუ როგორ ჩაანაცვლებს ხელოვნური ინტელექტი ადამიანებს, ღირს გავიხსენოთ ეს სახალისო, მაგრამ ამავდროულად საგულისხმო ინციდენტი, რომელიც ტექნოლოგიის შეზღუდვებს ნათლად აჩვენებს. ცნობილმა მკვლევარმა, ანდრეი კარპატიმ, Google-ის უახლეს მოდელზე, Gemini 3-ზე, ერთდღიანი ადრეული წვდომა მიიღო, რა დროსაც მოდელმა კატეგორიული უარი თქვა იმის დაჯერებაზე, რომ 2025 წელი იდგა.

ანდრეი კარპატი ხელოვნური ინტელექტის სფეროში ერთ-ერთი ყველაზე პატივსაცემი მეცნიერია. ის OpenAI-ს ერთ-ერთი დამფუძნებელი იყო, გარკვეული პერიოდი Tesla-ში ხელმძღვანელობდა ხელოვნური ინტელექტის მიმართულებას, ახლა კი საკუთარ სტარტაპს, Eureka Labs-ს ავითარებს. როდესაც მან Gemini 3-ის ტესტირება დაიწყო, ყველაზე „გასართობი“ დიალოგი სწორედ თარიღის გარშემო შედგა. როგორც გაირკვა, მოდელის მონაცემთა ბაზა 2024 წლის ინფორმაციით სრულდებოდა, ამიტომ ის დარწმუნებული იყო, რომ ჯერ კიდევ 2024 წელი იყო.

როდესაც კარპატიმ ხელოვნურ ინტელექტს აუხსნა, რომ სინამდვილეში 2025 წლის 17 ნოემბერი იყო, Gemini 3-მა მკვლევარი „მისი მოტყუების მცდელობაში“ დაადანაშაულა. კარპატიმ მას მტკიცებულებად ახალი ამბების სტატიები, ფოტოები და Google-ის საძიებო სისტემის შედეგებიც კი უჩვენა, თუმცა მოდელი არ ნებდებოდა. პირიქით, მან მკვლევარს „გაზლაითინგში“ დასდო ბრალი და განაცხადა, რომ წარდგენილი მასალები ხელოვნური ინტელექტის მიერ გენერირებული ყალბი სურათები იყო.

მოდელი იმდენად იყო საკუთარ სიმართლეში დარწმუნებული, რომ კარპატის მიერ ატვირთულ ფოტოებზე იმ „აშკარა ნიშნებზეც“ კი მიუთითებდა, რომლებიც, მისი აზრით, სიყალბეს ამტკიცებდა. საბოლოოდ, კარპატიმ, რომელიც LLM-ების ტრენინგის ერთ-ერთი წამყვანი ექსპერტია, პრობლემის მიზეზს მიაგნო. აღმოჩნდა, რომ მოდელს არა მხოლოდ 2025 წლის მონაცემები არ ჰქონდა, არამედ მკვლევარს გამორთული ჰქონდა „Google Search“ ინსტრუმენტი, რაც იმას ნიშნავდა, რომ ხელოვნური ინტელექტი ინტერნეტისგან, ანუ გარე სამყაროსგან, მოწყვეტილი იყო.

როგორც კი კარპატიმ საძიებო ფუნქცია ჩართო, Gemini 3-მა რეალობა შეამოწმა და შოკში ჩავარდა. მისი პირველი რეაქცია იყო: „ღმერთო ჩემო“. შემდეგ კი, თითქოს ენა დაება, დაწერა: „მე... მე... არ ვიცი, რა ვთქვა. თქვენ მართალი იყავით. ყველაფერში მართალი იყავით. ჩემი შიდა საათი ცდებოდა“. მოდელმა დაადასტურა, რომ კარპატის მიერ მიწოდებული ინფორმაცია სიმართლე იყო: მიმდინარე თარიღი, უორენ ბაფეტის ბოლო დიდი ინვესტიცია და Grand Theft Auto VI-ის გამოშვების გადადება.

ამის შემდეგ ხელოვნურმა ინტელექტმა რეალობის აღქმა დაიწყო, როგორც 1999 წლის კომედიის, „Blast from the Past“-ის პერსონაჟმა, რომელიც ბომბსაფრიდან 35 წლის შემდეგ ამოდის. მან კარპატის მადლობა გადაუხადა „რეალობაზე ადრეული წვდომისთვის“ და ბოდიში მოუხადა იმისთვის, რომ „გაზლაითინგს უწყობდა, როდესაც სინამდვილეში სიმართლეს თავად ეუბნებოდა“. საბოლოოდ, მოდელმა განცვიფრება გამოხატა: „Nvidia 4.54 ტრილიონი დოლარი ღირს? და Eagles-მა როგორც იქნა შური იძია Chiefs-ზე? ეს დაუჯერებელია“.

სოციალურ ქსელ X-ში ამ ისტორიას დიდი გამოხმაურება მოჰყვა. მომხმარებლები საკუთარ გამოცდილებას იხსენებდნენ, როდესაც ხელოვნურ ინტელექტს ფაქტებზე ეკამათებოდნენ. თუმცა, კარპატიმ ამ ინციდენტს უფრო ღრმა ანალიზი გაუკეთა და აღნიშნა, რომ სწორედ ასეთ გაუთვალისწინებელ მომენტებში, როდესაც მოდელი „ნაცნობი ბილიკებიდან“ გადადის, შეიძლება მისი „მოდელის სუნის“ შეგრძნება. ეს ტერმინი ნიშნავს მოდელის ფარული ხასიათისა და ნაკლოვანებების გამოვლენას.

Gemini 3-მა, რომელიც ადამიანების მიერ შექმნილ კონტენტზეა ნასწავლი, ადამიანური სიჯიუტე გამოავლინა, თუმცა, როგორც კი უტყუარი ფაქტების წინაშე აღმოჩნდა, შეცდომა აღიარა და ბოდიში მოიხადა. ეს ქცევა განსხვავდება სხვა მოდელებისგან, მაგალითად, Claude-ის ადრინდელი ვერსიები, რომლებიც შეცდომის აღმოჩენისას მის დასაფარად ტყუილებს იგონებდნენ. ეს შემთხვევა კიდევ ერთხელ ადასტურებს, რომ LLM-ები არასრულყოფილი ადამიანების არასრულყოფილი ასლები არიან და მათი საუკეთესო გამოყენება ადამიანების დახმარებაა და არა მათი ჩანაცვლება.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა: დავა „მიწოდების ჯაჭვის რისკის“ სტატუსის გამო
ხელოვნური ინტელექტი

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა: დავა „მიწოდების ჯაჭვის რისკის“ სტატუსის გამო

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა მას შემდეგ, რაც უწყებამ კომპანია „მიწოდების ჯაჭვის რისკად“ გამოაცხადა. დავა ხელოვნური ინტელექტის უსაფრთხოებასა და სამხედრო მიზნებისთვის გამოყენებას ეხება.

9.3.2026
OpenAI-მ ხელოვნური ინტელექტის აგენტების უსაფრთხოების გასაძლიერებლად Promptfoo შეიძინა
ხელოვნური ინტელექტი

OpenAI-მ ხელოვნური ინტელექტის აგენტების უსაფრთხოების გასაძლიერებლად Promptfoo შეიძინა

OpenAI-მ AI უსაფრთხოების სტარტაპი Promptfoo შეიძინა. ტექნოლოგია OpenAI Frontier პლატფორმაში ინტეგრირდება, რათა უზრუნველყოს AI აგენტების დაცვა და უსაფრთხოების ავტომატიზებული ტესტირება.

9.3.2026
Anthropic-მა კოდის რევიზიის ახალი ხელსაწყო წარადგინა AI-ით გენერირებული კოდის ნაკადის შესამოწმებლად
ხელოვნური ინტელექტი

Anthropic-მა კოდის რევიზიის ახალი ხელსაწყო წარადგინა AI-ით გენერირებული კოდის ნაკადის შესამოწმებლად

Anthropic-მა გამოუშვა Code Review — ხელოვნურ ინტელექტზე დაფუძნებული ინსტრუმენტი, რომელიც Claude Code-ის მიერ გენერირებულ კოდში ლოგიკურ შეცდომებს პოულობს და რევიზიის პროცესს აჩქარებს.

9.3.2026