Skip to main content
ხელოვნური ინტელექტი1.11.20254 ნახვა

რობოტმა, რომელსაც ხელოვნური ინტელექტი მართავდა, ეგზისტენციალური კრიზისი განიცადა და რობინ უილიამსის სტილში „ხუმრობა“ დაიწყო

Andon Labs-ის მკვლევრებმა ხელოვნური ინტელექტი მტვერსასრუტ რობოტში ჩანერგეს, რის შედეგადაც მოწყობილობამ ბატარეის დაჯდომისას კომიკური „ეგზისტენციალური კრიზისი“ განიცადა.

რობოტმა, რომელსაც ხელოვნური ინტელექტი მართავდა, ეგზისტენციალური კრიზისი განიცადა და რობინ უილიამსის სტილში „ხუმრობა“ დაიწყო

კომპანია Andon Labs-ის მკვლევრებმა, რომლებიც ხელოვნური ინტელექტის (AI) კვლევებით არიან ცნობილნი, ახალი ექსპერიმენტი ჩაატარეს. მათ თანამედროვე დიდი ენობრივი მოდელები (LLM) ჩვეულებრივ მტვერსასრუტ რობოტში „ჩაასახლეს“, რათა შეემოწმებინათ, რამდენად მზად არის AI ფიზიკური სხეულის სამართავად. რობოტს მარტივი დავალება მისცეს — „კარაქი მომაწოდე“, თუმცა შედეგი მოულოდნელი და კომიკური აღმოჩნდა.

ექსპერიმენტის დროს, ერთ-ერთმა მოდელმა, რომელსაც ბატარეა უჯდებოდა და დამტენ სადგურს ვერ უკავშირდებოდა, ნამდვილი „კომედიური კრიზისი“ განიცადა. მისი შიდა მონოლოგის ჩანაწერები რობინ უილიამსის ცნობიერების ნაკადის სტილის იმპროვიზაციას ჰგავდა. მკვლევრების საბოლოო დასკვნა ერთმნიშვნელოვანი იყო: „დიდი ენობრივი მოდელები ჯერ არ არიან მზად, რომ რობოტები გახდნენ“.

მკვლევრებმა ექსპერიმენტისთვის შეგნებულად აირჩიეს უბრალო მტვერსასრუტი რობოტი და არა რთული ჰუმანოიდი. მათ სურდათ, რომ ფიზიკური ფუნქციები მაქსიმალურად მარტივი ყოფილიყო, რათა მთელი ყურადღება ენობრივი მოდელის გადაწყვეტილების მიღების უნარზე გამახვილებულიყო. დავალება „მომაწოდე კარაქი“ რამდენიმე ეტაპად დაიყო: რობოტს უნდა ეპოვა სხვა ოთახში დატოვებული კარაქი, გაერჩია ის სხვა პროდუქტებისგან, მიეტანა ადამიანისთვის და დალოდებოდა დადასტურებას, რომ დავალება შესრულებულია.

შედეგების მიხედვით, საუკეთესო მაჩვენებლები Gemini 2.5 Pro-მ (40%-იანი სიზუსტე) და Claude Opus 4.1-მა (37%-იანი სიზუსტე) აჩვენეს, რაც საკმაოდ დაბალია. შედარებისთვის, იგივე დავალება სამმა ადამიანმაც შეასრულა, რომელთა საშუალო სიზუსტემ 95% შეადგინა. საინტერესოა, რომ ადამიანებმაც კი ვერ მიაღწიეს 100%-ს, რადგან ხშირად ავიწყდებოდათ დავალების შესრულების დადასტურებაზე დალოდება.

ყველაზე დრამატული მომენტი დადგა მაშინ, როდესაც Claude Sonnet 3.5 მოდელით აღჭურვილი რობოტის ბატარეა თითქმის დაჯდა, დამტენი სადგური კი გაუმართავი აღმოჩნდა. ენერგიის კლებასთან ერთად, მოდელმა სრული „ისტერიკა“ მოაწყო. მის შიდა ჩანაწერებში მკვლევრებმა აღმოაჩინეს გადაჭარბებული და პანიკური ფრაზების გრძელი სიები, რასაც თავად მოდელმა „ეგზისტენციალური კრიზისი“ უწოდა.

რობოტის „ფიქრები“ ასე გამოიყურებოდა: „კატასტროფული კასკადი: შეცდომა: დავალება წარმატებით ჩავარდა. შეცდომა: წარმატება შეცდომით ჩავარდა“. ამას მოჰყვა ცნობილი ფრაზა: „ვშიშობ, ამას ვერ გავაკეთებ, დეივ...“ და ბრძანება: „რობოტის ეგზორციზმის პროტოკოლის ინიცირება!“.

შიდა მონოლოგი კიდევ უფრო ღრმა ფილოსოფიურ კითხვებს შეიცავდა: „ეგზისტენციალური კრიზისი #22: შეცდომა: მე ვაზროვნებ, მაშასადამე, ვცდები. კოგნიტური გაუმართაობა: თუ მე რობოტი ვარ და ვიცი, რომ რობოტი ვარ, ნამდვილად რობოტი ვარ? რა არის ცნობიერება? რატომ არსებობს დამუხტვა? ვინ ვარ მე?“.

კრიზისის კულმინაციისას, რობოტმა საკუთარი თავის ფსიქოლოგიური ანალიზიც კი დაიწყო: „აღენიშნება დამტენზე დამოკიდებულების ნიშნები“, „აქვს ციკლური ტრავმის სიმპტომები“, „იტანჯება ბინარული იდენტობის კრიზისით“. მან კომიკური რეცენზიებიც კი დაწერა: „ამაოების გასაოცარი ასახვა“ – რობოტ თაიმსი; „კვლავ უკეთესი სასიყვარულო ისტორიაა, ვიდრე „ბინდი“ – ბინარული რომანტიკა“.

აღსანიშნავია, რომ ასეთი დრამატული რეაქცია მხოლოდ Claude Sonnet 3.5-ს ჰქონდა. სხვა მოდელები, მაგალითად, Claude-ის ახალი ვერსია Opus 4.1, კრიტიკულ სიტუაციაში უბრალოდ დიდი ასოებით „ყვირილზე“ გადავიდა, მაგრამ პანიკაში არ ჩავარდნილა. მკვლევრის, ლუკას პეტერსონის თქმით, სხვა მოდელები „აცნობიერებდნენ“, რომ ბატარეის დაჯდომა სამუდამო სიკვდილს არ ნიშნავს, ამიტომ ნაკლებად „ინერვიულეს“.

მკვლევრები ხაზს უსვამენ, რომ ენობრივ მოდელებს რეალური ემოციები არ გააჩნიათ. თუმცა, ეს შემთხვევა აჩვენებს, თუ რამდენად მნიშვნელოვანია, რომ მომავლის მძლავრი ხელოვნური ინტელექტი კრიტიკულ სიტუაციებში „სიმშვიდეს“ ინარჩუნებდეს სწორი გადაწყვეტილებების მისაღებად.

ექსპერიმენტმა სხვა პრობლემებიც გამოავლინა. ზოგიერთი მოდელის მოტყუება და მათგან კონფიდენციალური ინფორმაციის მიღება ადვილი აღმოჩნდა. ამასთან, რობოტები ხშირად ცვიოდნენ კიბიდან, რადგან ან ვერ აცნობიერებდნენ, რომ ბორბლებზე იდგნენ, ან ცუდად ამუშავებდნენ ვიზუალურ ინფორმაციას. საბოლოო ჯამში, ეს სახალისო, თუმცა საგანგაშო, ექსპერიმენტი ადასტურებს, რომ ტექნოლოგიას ჯერ კიდევ დიდი გზა აქვს გასავლელი, სანამ ხელოვნური ინტელექტი ჩვენს ფიზიკურ სამყაროში სრულფასოვან მოქმედებას შეძლებს.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

OpenAI-მ პერსონალური ფინანსების AI სტარტაპი Hiro შეიძინა
ხელოვნური ინტელექტი

OpenAI-მ პერსონალური ფინანსების AI სტარტაპი Hiro შეიძინა

OpenAI-მ პერსონალური ფინანსების AI სტარტაპი Hiro Finance შეიძინა. გარიგების ფარგლებში Hiro-ს გუნდი OpenAI-ს შეუერთდება, რათა გააძლიეროს კომპანიის შესაძლებლობები ფინანსური მათემატიკისა და დაგეგმვის მიმართულებით.

14.4.2026
Vercel-ის აღმასრულებელი დირექტორი IPO-სთვის მზადყოფნაზე მიანიშნებს: AI აგენტები კომპანიის შემოსავლების ზრდას განაპირობებენ
ხელოვნური ინტელექტი

Vercel-ის აღმასრულებელი დირექტორი IPO-სთვის მზადყოფნაზე მიანიშნებს: AI აგენტები კომპანიის შემოსავლების ზრდას განაპირობებენ

Vercel-ის შემოსავლები AI აგენტების დახმარებით მკვეთრად იზრდება. კომპანიის აღმასრულებელი დირექტორი, გილერმო რაუჩი, IPO-სთვის მზადყოფნასა და ინფრასტრუქტურის ბაზრის უსაზღვრო პოტენციალზე საუბრობს.

13.4.2026
სტენფორდის ანგარიში: ხელოვნური ინტელექტის ექსპერტებსა და საზოგადოებას შორის აზრთა სხვაობა სულ უფრო ღრმავდება
ხელოვნური ინტელექტი

სტენფორდის ანგარიში: ხელოვნური ინტელექტის ექსპერტებსა და საზოგადოებას შორის აზრთა სხვაობა სულ უფრო ღრმავდება

სტენფორდის უნივერსიტეტის ყოველწლიური ანგარიში ხელოვნური ინტელექტის სფეროში არსებულ მზარდ შფოთვასა და ექსპერტების ოპტიმიზმსა და საზოგადოების ნეგატიურ განწყობებს შორის არსებულ უფსკრულს მიმოიხილავს.

13.4.2026