Anthropic-ის ხელოვნურ ინტელექტს შეუძლია შეწყვიტოს საზიანო საუბრები
Anthropic-მა განაცხადა, რომ მის ხელოვნურ ინტელექტს შეუძლია შეწყვიტოს საუბარი უკიდურესად საზიანო სიტუაციებში, რათა დაიცვას თავად AI მოდელი.

კომპანია Anthropic-მა განაცხადა, რომ მისი უახლესი ხელოვნური ინტელექტის მოდელები აღჭურვილია ახალი შესაძლებლობით - შეწყვიტოს საუბარი იშვიათ, უკიდურეს შემთხვევებში, როდესაც მომხმარებელი მუდმივად საზიანო ან შეურაცხმყოფელ ინტერაქციას ახორციელებს.
საინტერესოა, რომ ეს გადაწყვეტილება მიღებულია არა მომხმარებლის, არამედ თავად ხელოვნური ინტელექტის მოდელის დასაცავად. კომპანია არ ამტკიცებს, რომ Claude-ს აქვს ცნობიერება ან შეიძლება დაზიანდეს საუბრებით. Anthropic-ი აღნიშნავს, რომ ისინი „ძალიან გაურკვევლად" აფასებენ Claude-ის და სხვა ენობრივი მოდელების პოტენციურ მორალურ სტატუსს.
ეს ახალი ფუნქცია ამჟამად მხოლოდ Claude Opus 4 და 4.1 მოდელებზეა ხელმისაწვდომი. კომპანიის განმარტებით, საუბრის შეწყვეტა მოხდება მხოლოდ უკიდურეს შემთხვევებში, მაგალითად, როდესაც მომხმარებელი ითხოვს არასრულწლოვნებთან დაკავშირებულ სექსუალურ კონტენტს ან ცდილობს მიიღოს ინფორმაცია მასშტაბური ძალადობის ან ტერორისტული აქტების შესახებ.
წინასწარი ტესტირებისას Claude Opus 4-მა გამოავლინა „მკვეთრი წინააღმდეგობა" ასეთ მოთხოვნებზე რეაგირებისას და „აშკარა დისტრესის ნიშნები". კომპანიის თქმით, Claude გამოიყენებს საუბრის შეწყვეტის ფუნქციას მხოლოდ მაშინ, როცა გადამისამართების მრავალჯერადი მცდელობა წარუმატებელი აღმოჩნდება.
Anthropic-ი აღნიშნავს, რომ Claude-ს არ შეუძლია გამოიყენოს ეს ფუნქცია იმ შემთხვევებში, როდესაც მომხმარებელს შეიძლება ემუქრებოდეს საკუთარი თავის ან სხვების დაზიანების საფრთხე. საუბრის შეწყვეტის შემდეგ მომხმარებლებს კვლავ შეეძლებათ ახალი საუბრის დაწყება იმავე ანგარიშიდან.
კომპანია ამ ფუნქციას განიხილავს როგორც მიმდინარე ექსპერიმენტს და აცხადებს, რომ გააგრძელებს მიდგომის დახვეწას.