Skip to main content
ხელოვნური ინტელექტი28.2.202691 ნახვა

Microsoft-ის AI-ის ხელმძღვანელი: ხელოვნური ინტელექტის ცნობიერების კვლევა საშიშია

Microsoft-ის AI ხელმძღვანელი აკრიტიკებს ხელოვნური ინტელექტის ცნობიერების კვლევას, რაც სილიკონის ველში დებატების საგანი გახდა. ექსპერტები განსხვავებულ პოზიციებს აფიქსირებენ.

Microsoft-ის AI-ის ხელმძღვანელი: ხელოვნური ინტელექტის ცნობიერების კვლევა საშიშია

Microsoft-ის ხელოვნური ინტელექტის განყოფილების ხელმძღვანელმა, მუსტაფა სულეიმანმა, მწვავე კრიტიკით გამოვიდა AI-ის კეთილდღეობის კვლევების მიმართ, რასაც სილიკონის ველის წამყვანი კომპანიები ახორციელებენ.

სულეიმანის მტკიცებით, AI მოდელების შესაძლო ცნობიერებისა და უფლებების შესწავლა არა მხოლოდ ნაადრევია, არამედ პოტენციურად საშიშიც. მისი აზრით, ამგვარი კვლევები აძლიერებს ადამიანების არაჯანსაღ დამოკიდებულებას AI ჩეთბოტებთან და ქმნის ახალ დაპირისპირებას საზოგადოებაში.

ამის საპირისპიროდ, Anthropic-მა უკვე დაიწყო AI-ის კეთილდღეობის კვლევითი პროგრამა და თავის მოდელებს ახალი ფუნქციაც კი შესძინა - Claude-ს შეუძლია შეწყვიტოს საუბარი აგრესიულ მომხმარებლებთან. Google DeepMind-იც აქტიურად ეძებს მკვლევარებს მანქანური კოგნიციისა და ცნობიერების საკითხების შესასწავლად.

საინტერესოა, რომ სულეიმანი ადრე ხელმძღვანელობდა Inflection AI-ს, რომელმაც შექმნა პოპულარული ჩეთბოტი Pi. თუმცა, Microsoft-ში გადასვლის შემდეგ, მისი ფოკუსი შეიცვალა პროდუქტიულობის გაუმჯობესებაზე ორიენტირებულ AI ინსტრუმენტებზე.

OpenAI-ის გენერალური დირექტორის, სემ ალტმანის თქმით, ChatGPT-ის მომხმარებელთა 1%-ზე ნაკლებს აქვს არაჯანსაღი ურთიერთობა პროდუქტთან. მიუხედავად მცირე პროცენტულობისა, ეს ასობით ათას ადამიანზე შეიძლება აისახოს.

Eleos-ის ყოფილი თანამშრომელი, ლარისა სკიავო არ ეთანხმება სულეიმანის პოზიციას და მიიჩნევს, რომ შესაძლებელია ერთდროულად ვიზრუნოთ როგორც AI მოდელების კეთილდღეობაზე, ისე ადამიანებზე მათი გავლენის შემცირებაზე.

სულეიმანი დარწმუნებულია, რომ ცნობიერება ვერ განვითარდება ჩვეულებრივ AI მოდელებში და ამტკიცებს, რომ ზოგიერთი კომპანია სპეციალურად ცდილობს შექმნას ემოციების მქონე ჩეთბოტები. მისი აზრით, AI უნდა შეიქმნას ადამიანებისთვის და არა იმისთვის, რომ თავად გახდეს ადამიანი.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

პენტაგონი Anthropic-ს მიწოდების ჯაჭვის რისკად აცხადებს: დაპირისპირება ხელოვნური ინტელექტის გამოყენების გარშემო
ხელოვნური ინტელექტი

პენტაგონი Anthropic-ს მიწოდების ჯაჭვის რისკად აცხადებს: დაპირისპირება ხელოვნური ინტელექტის გამოყენების გარშემო

პენტაგონმა Anthropic-ი ეროვნული უსაფრთხოების რისკად გამოაცხადა მას შემდეგ, რაც კომპანიამ უარი თქვა AI-ს გამოყენებაზე მასობრივი თვალთვალისა და ავტონომიური იარაღისთვის.

28.2.2026
ChatGPT-ის ყოველკვირეული მომხმარებლების რაოდენობამ 900 მილიონს მიაღწია: OpenAI-მ 110 მილიარდი დოლარის ინვესტიცია მოიზიდა
ხელოვნური ინტელექტი

ChatGPT-ის ყოველკვირეული მომხმარებლების რაოდენობამ 900 მილიონს მიაღწია: OpenAI-მ 110 მილიარდი დოლარის ინვესტიცია მოიზიდა

OpenAI-ის პლატფორმას კვირაში უკვე 900 მილიონი აქტიური მომხმარებელი ჰყავს. პარალელურად, კომპანიამ ისტორიული, 110 მილიარდი დოლარის მოცულობის საინვესტიციო რაუნდი დახურა.

27.2.2026
Anthropic vs. პენტაგონი: რა დგას რეალურად სასწორზე?
ხელოვნური ინტელექტი

Anthropic vs. პენტაგონი: რა დგას რეალურად სასწორზე?

Anthropic-სა და აშშ-ის თავდაცვის დეპარტამენტს შორის დაპირისპირება მწვავდება. დავის საგანი ხელოვნური ინტელექტის სამხედრო მიზნებისთვის, მათ შორის ავტონომიური იარაღისა და თვალთვალისთვის გამოყენებაა.

27.2.2026