Skip to main content
ხელოვნური ინტელექტი21.8.202591 ნახვა

Microsoft-ის AI-ის ხელმძღვანელი: ხელოვნური ინტელექტის ცნობიერების კვლევა საშიშია

Microsoft-ის AI ხელმძღვანელი აკრიტიკებს ხელოვნური ინტელექტის ცნობიერების კვლევას, რაც სილიკონის ველში დებატების საგანი გახდა. ექსპერტები განსხვავებულ პოზიციებს აფიქსირებენ.

Microsoft-ის AI-ის ხელმძღვანელი: ხელოვნური ინტელექტის ცნობიერების კვლევა საშიშია

Microsoft-ის ხელოვნური ინტელექტის განყოფილების ხელმძღვანელმა, მუსტაფა სულეიმანმა, მწვავე კრიტიკით გამოვიდა AI-ის კეთილდღეობის კვლევების მიმართ, რასაც სილიკონის ველის წამყვანი კომპანიები ახორციელებენ.

სულეიმანის მტკიცებით, AI მოდელების შესაძლო ცნობიერებისა და უფლებების შესწავლა არა მხოლოდ ნაადრევია, არამედ პოტენციურად საშიშიც. მისი აზრით, ამგვარი კვლევები აძლიერებს ადამიანების არაჯანსაღ დამოკიდებულებას AI ჩეთბოტებთან და ქმნის ახალ დაპირისპირებას საზოგადოებაში.

ამის საპირისპიროდ, Anthropic-მა უკვე დაიწყო AI-ის კეთილდღეობის კვლევითი პროგრამა და თავის მოდელებს ახალი ფუნქციაც კი შესძინა - Claude-ს შეუძლია შეწყვიტოს საუბარი აგრესიულ მომხმარებლებთან. Google DeepMind-იც აქტიურად ეძებს მკვლევარებს მანქანური კოგნიციისა და ცნობიერების საკითხების შესასწავლად.

საინტერესოა, რომ სულეიმანი ადრე ხელმძღვანელობდა Inflection AI-ს, რომელმაც შექმნა პოპულარული ჩეთბოტი Pi. თუმცა, Microsoft-ში გადასვლის შემდეგ, მისი ფოკუსი შეიცვალა პროდუქტიულობის გაუმჯობესებაზე ორიენტირებულ AI ინსტრუმენტებზე.

OpenAI-ის გენერალური დირექტორის, სემ ალტმანის თქმით, ChatGPT-ის მომხმარებელთა 1%-ზე ნაკლებს აქვს არაჯანსაღი ურთიერთობა პროდუქტთან. მიუხედავად მცირე პროცენტულობისა, ეს ასობით ათას ადამიანზე შეიძლება აისახოს.

Eleos-ის ყოფილი თანამშრომელი, ლარისა სკიავო არ ეთანხმება სულეიმანის პოზიციას და მიიჩნევს, რომ შესაძლებელია ერთდროულად ვიზრუნოთ როგორც AI მოდელების კეთილდღეობაზე, ისე ადამიანებზე მათი გავლენის შემცირებაზე.

სულეიმანი დარწმუნებულია, რომ ცნობიერება ვერ განვითარდება ჩვეულებრივ AI მოდელებში და ამტკიცებს, რომ ზოგიერთი კომპანია სპეციალურად ცდილობს შექმნას ემოციების მქონე ჩეთბოტები. მისი აზრით, AI უნდა შეიქმნას ადამიანებისთვის და არა იმისთვის, რომ თავად გახდეს ადამიანი.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

ილონ მასკმა დაადასტურა, რომ xAI-მ Grok-ის მოსამზადებლად OpenAI-ის მოდელები გამოიყენა
ხელოვნური ინტელექტი

ილონ მასკმა დაადასტურა, რომ xAI-მ Grok-ის მოსამზადებლად OpenAI-ის მოდელები გამოიყენა

ილონ მასკმა სასამართლო პროცესზე აღიარა, რომ xAI-მ Grok-ის მოსამზადებლად ნაწილობრივ OpenAI-ის მოდელები გამოიყენა, რაც AI ინდუსტრიაში გავრცელებული პრაქტიკაა.

30.4.2026
OpenAI-მ ChatGPT-ის ანგარიშების უსაფრთხოების ახალი სისტემა და Yubico-სთან პარტნიორობა დააანონსა
ხელოვნური ინტელექტი

OpenAI-მ ChatGPT-ის ანგარიშების უსაფრთხოების ახალი სისტემა და Yubico-სთან პარტნიორობა დააანონსა

OpenAI-მ წარადგინა „ანგარიშის გაძლიერებული უსაფრთხოების“ (AAS) პროგრამა და Yubico-სთან პარტნიორობით ფიზიკური უსაფრთხოების გასაღებები გამოუშვა ChatGPT-ის მომხმარებელთა დასაცავად.

30.4.2026
OpenAI ზღუდავს წვდომას ახალ კიბერინსტრუმენტზე, მიუხედავად Anthropic-ის მსგავსი ნაბიჯის ადრინდელი კრიტიკისა
ხელოვნური ინტელექტი

OpenAI ზღუდავს წვდომას ახალ კიბერინსტრუმენტზე, მიუხედავად Anthropic-ის მსგავსი ნაბიჯის ადრინდელი კრიტიკისა

სემ ალტმანმა დაადასტურა, რომ OpenAI ზღუდავს წვდომას GPT-5.5 Cyber-ზე, მიუხედავად იმისა, რომ ადრე Anthropic-ს მსგავსი ქმედების გამო „შიშზე დაფუძნებულ მარკეტინგში“ ადანაშაულებდა.

30.4.2026