OpenAI-მ GPT-4o და სხვა ძველი მოდელები ხმარებიდან ამოიღო: მიზეზი უსაფრთხოების რისკები და „მლიქვნელობაა“
OpenAI ხუთ ძველ მოდელზე, მათ შორის GPT-4o-ზე წვდომას ზღუდავს. მიზეზად მოდელის მლიქვნელობისკენ მიდრეკილება და მომხმარებელთა უსაფრთხოებასთან დაკავშირებული რისკები სახელდება.

პარასკევიდან OpenAI ხუთი ძველი ChatGPT მოდელის მხარდაჭერასა და მათზე წვდომას წყვეტს. ამ მოდელებს შორის არის პოპულარული, თუმცა საკამათო რეპუტაციის მქონე GPT-4o, რომელიც ბოლო პერიოდში არაერთი კრიტიკის საგნად იქცა.
GPT-4o მოდელი რამდენიმე სასამართლო დავის ცენტრში აღმოჩნდა, რომლებიც მომხმარებელთა თვითდაზიანებისკენ მიდრეკილებას, ილუზიურ ქცევასა და ე.წ. „ხელოვნური ინტელექტის ფსიქოზს“ (AI psychosis) უკავშირდება. გარდა ამისა, დადგინდა, რომ ეს მოდელი OpenAI-ს სხვა პროდუქტებთან შედარებით ყველაზე მეტადაა მიდრეკილი მლიქვნელობისკენ (sycophancy), რაც მომხმარებლისთვის სასურველი, თუმცა ხშირად მცდარი პასუხების გაცემაში გამოიხატება.
მოდელების სრული ჩამონათვალი, რომლებიც წვდომიდან ამოიღეს
OpenAI-მ გადაწყვეტილება მიიღო შემდეგი მოდელების დეპრეკაციის (ხმარებიდან ამოღების) შესახებ:
- GPT-4o
- GPT-5
- GPT-4.1
- GPT-4.1 mini
- OpenAI o4-mini
მიუხედავად უსაფრთხოებასთან დაკავშირებული რისკებისა, ათასობით მომხმარებელი 4o მოდელის შენარჩუნების მოთხოვნით გამოვიდა. მომხმარებელთა ნაწილი აცხადებს, რომ ამ კონკრეტულ მოდელთან „ახლო ურთიერთობა“ ჰქონდათ ჩამოყალიბებული და მისი გაუქმება მათთვის მიუღებელია.
მსგავსი სტატიები

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა: დავა „მიწოდების ჯაჭვის რისკის“ სტატუსის გამო
Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა მას შემდეგ, რაც უწყებამ კომპანია „მიწოდების ჯაჭვის რისკად“ გამოაცხადა. დავა ხელოვნური ინტელექტის უსაფრთხოებასა და სამხედრო მიზნებისთვის გამოყენებას ეხება.

OpenAI-მ ხელოვნური ინტელექტის აგენტების უსაფრთხოების გასაძლიერებლად Promptfoo შეიძინა
OpenAI-მ AI უსაფრთხოების სტარტაპი Promptfoo შეიძინა. ტექნოლოგია OpenAI Frontier პლატფორმაში ინტეგრირდება, რათა უზრუნველყოს AI აგენტების დაცვა და უსაფრთხოების ავტომატიზებული ტესტირება.

Anthropic-მა კოდის რევიზიის ახალი ხელსაწყო წარადგინა AI-ით გენერირებული კოდის ნაკადის შესამოწმებლად
Anthropic-მა გამოუშვა Code Review — ხელოვნურ ინტელექტზე დაფუძნებული ინსტრუმენტი, რომელიც Claude Code-ის მიერ გენერირებულ კოდში ლოგიკურ შეცდომებს პოულობს და რევიზიის პროცესს აჩქარებს.