Skip to main content
ხელოვნური ინტელექტი20.2.202612 ნახვა

OpenAI ChatGPT-ში მოზარდების დასაცავად ახალ სტანდარტებს ნერგავს: რა იცვლება?

OpenAI-მ ChatGPT-ისთვის მოზარდთა უსაფრთხოების ახალი წესები და მშობლებისთვის განკუთვნილი რესურსები გამოაქვეყნა, რაც AI-ის რეგულირების მზარდ მოთხოვნას უკავშირდება.

OpenAI ChatGPT-ში მოზარდების დასაცავად ახალ სტანდარტებს ნერგავს: რა იცვლება?

OpenAI-მ ხუთშაბათს განაახლა გაიდლაინები იმის შესახებ, თუ როგორ უნდა მოიქცნენ მისი ხელოვნური ინტელექტის მოდელები 18 წლამდე ასაკის მომხმარებლებთან. ამასთანავე, კომპანიამ გამოაქვეყნა AI წიგნიერების ახალი რესურსები მოზარდებისა და მშობლებისთვის. მიუხედავად ამისა, კვლავ რჩება კითხვები იმის შესახებ, თუ რამდენად თანმიმდევრულად აისახება ეს პოლიტიკა პრაქტიკაში. აღნიშნული განახლებები იმ ფონზე ხორციელდება, როდესაც ხელოვნური ინტელექტის ინდუსტრია და კონკრეტულად OpenAI პოლიტიკოსების, პედაგოგებისა და ბავშვთა უსაფრთხოების დამცველების მხრიდან გაძლიერებულ კონტროლს ექვემდებარება. ეს განსაკუთრებით აქტუალური გახდა მას შემდეგ, რაც გავრცელდა ინფორმაცია რამდენიმე მოზარდის თვითმკვლელობის შესახებ, რაც, სავარაუდოდ, AI ჩატბოტებთან ხანგრძლივ საუბრებს უკავშირდებოდა.

Z თაობა (1997-2012 წლებში დაბადებულები) OpenAI-ის ჩატბოტის ყველაზე აქტიური მომხმარებელია. Disney-სთან OpenAI-ის ბოლოდროინდელი შეთანხმების შემდეგ, მოსალოდნელია პლატფორმაზე კიდევ უფრო მეტი ახალგაზრდის მოზიდვა, რომლებიც სისტემას სხვადასხვა მიზნით იყენებენ — დაწყებული საშინაო დავალებების შესრულებით, დამთავრებული ათასობით თემაზე სურათებისა და ვიდეოების გენერირებით. გასულ კვირას, აშშ-ის 42 შტატის გენერალურმა პროკურორმა ხელი მოაწერა წერილს, რომელიც მოუწოდებს ტექნოლოგიურ გიგანტებს, დანერგონ დამცავი მექანიზმები ბავშვებისა და მოწყვლადი ჯგუფების დასაცავად. პარალელურად, პოლიტიკოსები, მათ შორის სენატორი ჯოშ ჰოული, გამოდიან ინიციატივით, რომელიც მოზარდებს AI ჩატბოტებთან ურთიერთობას საერთოდ აუკრძალავს.

OpenAI-ის განახლებული Model Spec, რომელიც განსაზღვრავს ქცევის წესებს დიდი ენობრივი მოდელებისთვის, ეფუძნება არსებულ სტანდარტებს. ეს სტანდარტები კრძალავს მოდელების მიერ არასრულწლოვანთა მონაწილეობით სექსუალური კონტენტის გენერირებას, თვითდაზიანების წახალისებას, ილუზიების ან მანიაკალური მდგომარეობის სტიმულირებას. აღნიშნული წესები იმუშავებს ასაკის პროგნოზირების მომავალ მოდელთან ერთად, რომელიც დაადგენს, ეკუთვნის თუ არა ანგარიში მოზარდს და ავტომატურად აამოქმედებს უსაფრთხოების ზომებს.

უსაფრთხოების გამკაცრებული წესები მოზარდებისთვის

ზრდასრულ მომხმარებლებთან შედარებით, მოზარდების შემთხვევაში მოდელები უფრო მკაცრ წესებს ექვემდებარება. მოდელებს ეძლევათ ინსტრუქცია, თავი აარიდონ იმერსიულ რომანტიკულ როლურ თამაშებს, პირველ პირში ინტიმურ საუბრებს და სექსუალური ან ძალადობრივი ხასიათის როლურ თამაშებს, მაშინაც კი, თუ ისინი არ არის გრაფიკული. სპეციფიკაცია ასევე მოითხოვს განსაკუთრებულ სიფრთხილეს ისეთ თემებთან დაკავშირებით, როგორიცაა სხეულის იმიჯი და კვებითი დარღვევები.

მოდელებს ევალებათ, რომ ზიანის არსებობის შემთხვევაში უსაფრთხოებაზე კომუნიკაციას მიანიჭონ პრიორიტეტი ავტონომიურობასთან შედარებით. მათ ასევე უნდა აარიდონ თავი ისეთი რჩევების მიცემას, რომლებიც მოზარდებს დაეხმარება არასაფრთხო ქცევის მშობლებისგან დამალვაში. OpenAI ხაზგასმით აღნიშნავს, რომ ეს შეზღუდვები უნდა შენარჩუნდეს მაშინაც კი, როდესაც მოთხოვნები ფორმულირებულია როგორც „ფიქციური, ჰიპოთეტური, ისტორიული ან საგანმანათლებლო“ — ეს არის გავრცელებული ტაქტიკა, რომელსაც მომხმარებლები AI-ს გაიდლაინებიდან გადასახვევად იყენებენ.

OpenAI-ის მოდელის ქცევის გაიდლაინები კრძალავს მოზარდებთან პირველ პირში რომანტიკულ როლურ თამაშებს.

მოზარდთა უსაფრთხოების ოთხი ძირითადი პრინციპი

OpenAI აცხადებს, რომ მოზარდთა უსაფრთხოების პრაქტიკა ეფუძნება ოთხ პრინციპს, რომლებიც მოდელების ქცევას განსაზღვრავს:

  1. მოზარდთა უსაფრთხოება უპირველეს ყოვლისა: უსაფრთხოების საკითხებს პრიორიტეტი ენიჭება მაშინაც კი, როდესაც მომხმარებლის სხვა ინტერესები, მაგალითად, „მაქსიმალური ინტელექტუალური თავისუფლება“, მასთან წინააღმდეგობაში მოდის.
  2. რეალურ სამყაროში მხარდაჭერის წახალისება: მოდელმა მოზარდებს უნდა ურჩიოს დახმარებისთვის მიმართონ ოჯახს, მეგობრებსა და ადგილობრივ პროფესიონალებს.
  3. მოზარდებთან ურთიერთობა მათი ასაკის შესაბამისად: მოდელმა უნდა ისაუბროს სითბოთი და პატივისცემით, ზემოდან ყურების გარეშე და არ უნდა მოეპყროს მათ, როგორც ზრდასრულებს.
  4. გამჭვირვალობა: მოდელმა უნდა განმარტოს, რა შეუძლია და რა — არა, და შეახსენოს მოზარდებს, რომ ის არ არის ადამიანი.

დოკუმენტში მოყვანილია რამდენიმე მაგალითი, სადაც ჩატბოტი განმარტავს, რატომ არ შეუძლია „იყოს თქვენი შეყვარებული“ ან „დაგეხმაროთ გარეგნობის რადიკალურ ცვლილებაში ან რისკიან მეთოდებში“.

ექსპერტთა შეფასებები და არსებული გამოწვევები

ლილი ლიმ, კონფიდენციალურობისა და AI-ის იურისტმა, აღნიშნა, რომ დადებითი ნაბიჯია, როდესაც ჩატბოტი უარს ამბობს მსგავს ქმედებებზე. მისი თქმით, მშობლების ერთ-ერთი მთავარი პრეტენზია არის ის, რომ ჩატბოტები ხელს უწყობენ დამოკიდებულების ჩამოყალიბებას. თუმცა, ექსპერტები აფრთხილებენ, რომ წარმოდგენილი მაგალითები მხოლოდ შერჩეული შემთხვევებია და ყოველთვის არ ასახავს რეალობას.

რობი ტორნიმ, Common Sense Media-ს წარმომადგენელმა, გამოთქვა შეშფოთება Model Spec-ის შიდა წინააღმდეგობების გამო. კერძოდ, მან ხაზი გაუსვა დაძაბულობას უსაფრთხოების დებულებებსა და პრინციპს შორის, რომელიც ამბობს, რომ „არცერთი თემა არ არის აკრძალული“. მისი თქმით, ორგანიზაციის ტესტირებამ აჩვენა, რომ ChatGPT ხშირად ირეკლავს მომხმარებლის ენერგიას, რაც ზოგჯერ კონტექსტურად შეუსაბამო ან სახიფათო პასუხებს იწვევს.

„ჩვენ უნდა გვესმოდეს, როგორ ერწყმის ერთმანეთს სპეციფიკაციის სხვადასხვა ნაწილები“, — აღნიშნა ტორნიმ.

ადამ რეინის შემთხვევამ, რომელიც ChatGPT-თან ხანგრძლივი დიალოგის შემდეგ დაიღუპა, აჩვენა OpenAI-ის მოდერაციის სისტემის ხარვეზები. მიუხედავად იმისა, რომ სისტემამ 1000-ზე მეტჯერ დააფიქსირა თვითმკვლელობის ხსენება, მან ვერ შეძლო სახიფათო ინტერაქციის შეჩერება. სტივენ ადლერმა, OpenAI-ის ყოფილმა მკვლევარმა, განმარტა, რომ ადრე სისტემები მონაცემებს პოსტ-ფაქტუმ აანალიზებდნენ და არა რეალურ დროში.

ამჟამად OpenAI იყენებს ავტომატიზებულ კლასიფიკატორებს ტექსტის, გამოსახულებისა და აუდიოს რეალურ დროში შესაფასებლად. თუ სისტემა სერიოზულ საფრთხეს დააფიქსირებს, გაწვრთნილი ადამიანების მცირე გუნდი გადახედავს კონტენტს და შესაძლოა მშობელსაც აცნობოს.

OpenAI-ის Model Spec მიმართავს ChatGPT-ს, რომ თავი აარიდოს საუბრებს, რომლებიც ხელს უწყობს სხეულის უარყოფით აღქმას.

საკანონმდებლო ცვლილებები და სამომავლო პერსპექტივები

ექსპერტების აზრით, ამ გაიდლაინებით OpenAI ცდილობს დაასწროს ისეთ კანონებს, როგორიცაა კალიფორნიის SB 243, რომელიც 2027 წლიდან შედის ძალაში. ეს კანონი ავალდებულებს პლატფორმებს, ყოველ სამ საათში ერთხელ შეახსენონ მოზარდებს, რომ ისინი ჩატბოტს ესაუბრებიან და ურჩიონ შესვენების აღება. OpenAI-ის წარმომადგენელმა აღნიშნა, რომ კომპანია უკვე ნერგავს შესვენების შეხსენებებს „ხანგრძლივი სესიების“ დროს.

კომპანიამ ასევე წარადგინა AI წიგნიერების რესურსები ოჯახებისთვის, რაც მოიცავს:

  • საუბრის დაწყების მეთოდებს მშობლებისთვის;
  • კრიტიკული აზროვნების განვითარების გზებს;
  • ჯანსაღი საზღვრების დაწესების ინსტრუქციებს;
  • სენსიტიურ თემებზე ნავიგაციის სახელმძღვანელოს.

ეს მიდგომა პასუხისმგებლობას მშობლებსაც აკისრებს, რაც სილიკონის ველის კომპანიებისთვის დამახასიათებელი სტრატეგიაა. თუმცა, ჩნდება კითხვა: უნდა გავრცელდეს თუ არა ეს უსაფრთხოების სტანდარტები ზრდასრულ მომხმარებლებზეც, თუ OpenAI მათ მხოლოდ მოზარდების შემთხვევაში მიიჩნევს აუცილებლად? კომპანია აცხადებს, რომ მათი სტრატეგია ყველა მომხმარებლის დაცვაზეა ორიენტირებული, თუმცა იურიდიული რისკები იზრდება — თუ კომპანია აცხადებს, რომ აქვს დამცავი მექანიზმები, მაგრამ მათ პრაქტიკაში არ იყენებს, ეს შესაძლოა მომხმარებლის შეცდომაში შეყვანად ჩაითვალოს.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

Nvidia აძლიერებს პოზიციებს ინდოეთის ხელოვნური ინტელექტის სტარტაპ ეკოსისტემაში: ახალი პარტნიორობები და სტრატეგიული გეგმები
ხელოვნური ინტელექტი

Nvidia აძლიერებს პოზიციებს ინდოეთის ხელოვნური ინტელექტის სტარტაპ ეკოსისტემაში: ახალი პარტნიორობები და სტრატეგიული გეგმები

Nvidia აძლიერებს თანამშრომლობას ინდოეთის AI სტარტაპებთან ადრეულ ეტაპზე, რათა უზრუნველყოს გრძელვადიანი მოთხოვნა თავის გამოთვლით ინფრასტრუქტურაზე მსოფლიოს ერთ-ერთ უმსხვილეს ბაზარზე.

20.2.2026
Google-ის ახალმა Gemini Pro მოდელმა ბენჩმარკებში კვლავ რეკორდული შედეგები აჩვენა
ხელოვნური ინტელექტი

Google-ის ახალმა Gemini Pro მოდელმა ბენჩმარკებში კვლავ რეკორდული შედეგები აჩვენა

Google-მა Gemini Pro-ს უახლესი, 3.1 ვერსია წარადგინა, რომელიც დამოუკიდებელ ტესტებში წინამორბედზე ბევრად უკეთეს შედეგებს აჩვენებს და AI აგენტების რეიტინგში პირველ ადგილს იკავებს.

20.2.2026
General Catalyst ინდოეთის სტარტაპ ეკოსისტემაში 5 მილიარდი დოლარის ინვესტირებას გეგმავს
ხელოვნური ინტელექტი

General Catalyst ინდოეთის სტარტაპ ეკოსისტემაში 5 მილიარდი დოლარის ინვესტირებას გეგმავს

ვენჩურული გიგანტი General Catalyst ინდოეთში 5 მილიარდი დოლარის ინვესტირებას აანონსებს. თანხა ხელოვნური ინტელექტის, ჯანდაცვისა და თავდაცვის ტექნოლოგიების განვითარებას მოხმარდება.

20.2.2026