ვინ წყვეტს, რას გვეუბნება ხელოვნური ინტელექტი? Meta-ს საინფორმაციო სამსახურის ყოფილი ხელმძღვანელის ახალი პროექტი
Meta-ს ყოფილი მაღალჩინოსანი კემპბელ ბრაუნი Forum AI-ს მეშვეობით ცდილობს ხელოვნური ინტელექტის მოდელებში სიზუსტისა და ობიექტურობის პრობლემა გადაჭრას და ექსპერტული შეფასების სისტემა დანერგოს.

კემპბელ ბრაუნმა მთელი კარიერა ზუსტი ინფორმაციის ძიებას მიუძღვნა — ჯერ როგორც ცნობილმა ტელეჟურნალისტმა, შემდეგ კი Facebook-ის პირველმა და ერთადერთმა საინფორმაციო მიმართულების ხელმძღვანელმა. დღეს, როდესაც ხელოვნური ინტელექტი (AI) ინფორმაციის მოხმარების წესებს ცვლის, ის ხედავს საფრთხეს, რომ ისტორია განმეორდეს. თუმცა, ამჯერად ის სხვისგან პრობლემის მოგვარებას არ ელოდება.
მისი კომპანია, Forum AI, აფასებს, თუ როგორ ართმევენ თავს ფუნდამენტური მოდელები ე.წ. „მაღალი რისკის თემებს“ — გეოპოლიტიკას, ფსიქიკურ ჯანმრთელობას, ფინანსებსა და დასაქმებას. ეს არის სფეროები, სადაც არ არსებობს ცალსახა პასუხები და სადაც საკითხები კომპლექსური და ნიუანსებით აღსავსეა. იდეა მდგომარეობს მსოფლიოს წამყვანი ექსპერტების მოძიებაში, რომლებიც შექმნიან შეფასების კრიტერიუმებს (benchmarks), რის შემდეგაც AI მოსამართლეები გაიწვრთნებიან მოდელების მასშტაბურად შესაფასებლად.
გეოპოლიტიკის მიმართულებით მუშაობისთვის ბრაუნმა ისეთი გავლენიანი ფიგურები მოიზიდა, როგორებიც არიან ნიალ ფერგიუსონი, ფარიდ ზაქარია, აშშ-ის ყოფილი სახელმწიფო მდივანი ტონი ბლინკენი, წარმომადგენელთა პალატის ყოფილი სპიკერი კევინ მაკკარტი და ენ ნიუბერგერი, რომელიც ობამას ადმინისტრაციაში კიბერუსაფრთხოებას ხელმძღვანელობდა. მიზანია, რომ AI მოსამართლეებმა ადამიან ექსპერტებთან დაახლოებით 90%-იან კონსენსუსს მიაღწიონ — ბრაუნის თქმით, Forum AI-მ ამ ზღვრის გადალახვა უკვე შეძლო.
Forum AI-ს შექმნის ისტორია და მოტივაცია
Forum AI 17 თვის წინ ნიუ-იორკში დაარსდა. ბრაუნი იხსენებს კონკრეტულ მომენტს, როდესაც ChatGPT საჯაროდ ხელმისაწვდომი გახდა: „მაშინ Meta-ში ვმუშაობდი და მალევე გავაცნობიერე, რომ ეს იქნებოდა ის ძაბრი, რომელშიც მთელი ინფორმაცია გაივლიდა. თუმცა, ეს სისტემა არც ისე კარგი იყო“. საკუთარი შვილების მომავალზე ფიქრმა ეს მომენტი მისთვის ეგზისტენციალურ საკითხად აქცია — ის შიშობდა, რომ თუ პრობლემა არ მოგვარდებოდა, მომავალი თაობის ინტელექტუალური განვითარება საფრთხის ქვეშ დადგებოდა.
ბრაუნის იმედგაცრუებას იწვევდა ის ფაქტი, რომ ინფორმაციის სიზუსტე არავისთვის ჩანდა პრიორიტეტული. მისი თქმით, ფუნდამენტური მოდელების შემქმნელი კომპანიები „უკიდურესად ორიენტირებულნი არიან კოდირებასა და მათემატიკაზე“, მაშინ როცა ახალი ამბები და ინფორმაცია გაცილებით რთული სფეროა. თუმცა, სირთულე არ ნიშნავს, რომ ამ საკითხის უგულებელყოფა დასაშვებია.
კვლევის შედეგები და გამოვლენილი ხარვეზები
როდესაც Forum AI-მ წამყვანი მოდელების შეფასება დაიწყო, შედეგები არცთუ ისე დამაიმედებელი აღმოჩნდა. ბრაუნმა რამდენიმე პრობლემური შემთხვევა გამოყო:
- Gemini-ს წყაროები: მოდელი იყენებდა ჩინეთის კომუნისტური პარტიის ვებგვერდებს ისეთი ამბებისთვის, რომლებსაც ჩინეთთან კავშირი არ ჰქონდა.
- პოლიტიკური მიკერძოება: თითქმის ყველა მოდელში შეინიშნებოდა მემარცხენე პოლიტიკური გადახრა.
- კონტექსტის ნაკლებობა: ხშირია შემთხვევები, როდესაც აკლია საჭირო პერსპექტივები ან ხდება არგუმენტების დამახინჯება (straw-manning) სათანადო აღიარების გარეშე.
„წინ დიდი გზაა გასავლელი, თუმცა ვფიქრობ, არსებობს მარტივი გამოსავლებიც, რომლებიც შედეგებს მნიშვნელოვნად გააუმჯობესებს“, — აღნიშნავს ბრაუნი.
სოციალური მედიის გაკვეთილები და ბიზნესის როლი
Facebook-ში მუშაობისას ბრაუნი წლების განმავლობაში აკვირდებოდა, რა ხდება, როდესაც პლატფორმა არასწორ ინდიკატორებზე ახდენს ოპტიმიზაციას. მისი თქმით, ბევრი მცდელობა წარუმატებლად დასრულდა და მის მიერ შექმნილი ფაქტების გადამოწმების (fact-checking) პროგრამაც აღარ არსებობს. მთავარი გაკვეთილი ისაა, რომ ჩართულობაზე (engagement) ორიენტირება საზოგადოებისთვის საზიანო აღმოჩნდა და ადამიანები ნაკლებად ინფორმირებულნი დატოვა.
ბრაუნს იმედი აქვს, რომ AI ამ ციკლს გაწყვეტს. კომპანიებს აქვთ არჩევანი: მისცენ მომხმარებელს ის, რაც მათ სურთ, ან მისცენ ის, რაც რეალური, პატიოსანი და ჭეშმარიტია. მიუხედავად იმისა, რომ „სიმართლეზე ორიენტირებული AI“ შესაძლოა გულუბრყვილოდ ჟღერდეს, ბრაუნი მიიჩნევს, რომ ბიზნეს სექტორი ამაში მოკავშირე იქნება. კომპანიები, რომლებიც AI-ს იყენებენ საკრედიტო გადაწყვეტილებების, დაზღვევისა თუ დასაქმებისთვის, უფრთხიან სამართლებრივ პასუხისმგებლობას და მათთვის კრიტიკულად მნიშვნელოვანია სიზუსტე.
შესაბამისობისა და აუდიტის პრობლემები
ბრაუნი აკრიტიკებს არსებულ „შესაბამისობის ლანდშაფტს“ და მას „ხუმრობას“ უწოდებს. მაგალითად, როდესაც ნიუ-იორკმა მიიღო კანონი დასაქმებისას AI მიკერძოების აუდიტის შესახებ, აღმოჩნდა, რომ დარღვევების ნახევარზე მეტი შეუმჩნეველი დარჩა. რეალური შეფასება მოითხოვს დარგობრივ ექსპერტიზას და არა მხოლოდ სტანდარტულ ტესტებს. „უბრალოდ ნიჭიერი ზოგადი პროფილის სპეციალისტები ამ საქმეს ვერ გაუმკლავდებიან“, — ამბობს ის.
Forum AI-მ გასულ შემოდგომაზე 3 მილიონი დოლარის ინვესტიცია მოიზიდა Lerer Hippeau-ს ხელმძღვანელობით. ბრაუნი ხედავს დიდ უფსკრულს ინდუსტრიის თვითაღქმასა და რეალობას შორის. სანამ ტექნოლოგიური ლიდერები საუბრობენ იმაზე, რომ AI კიბოს განკურნავს და სამყაროს შეცვლის, რიგითი მომხმარებელი ჩატბოტებისგან ხშირად მცდარ და უხარისხო პასუხებს იღებს. ნდობა ხელოვნური ინტელექტის მიმართ უკიდურესად დაბალია და ბრაუნის აზრით, ეს სკეპტიციზმი სრულად გამართლებულია.
მსგავსი სტატიები

Notion-ი AI აგენტების ჰაბად იქცა: ახალი პლატფორმა დეველოპერებისთვის
Notion-მა დეველოპერებისთვის ახალი პლატფორმა წარადგინა, რომელიც სამუშაო სივრცეს AI აგენტების ჰაბად აქცევს. სიახლე მოიცავს Workers-ს, მონაცემთა ბაზების სინქრონიზაციას და გარე AI აგენტებთან ინტეგრაციას.

Clio-ს 500 მილიონიანი მიღწევა და Anthropic-ის გააქტიურება იურიდიული ტექნოლოგიების ბაზარზე
Clio-ს წლიურმა შემოსავალმა 500 მილიონ დოლარს მიაღწია, რაც იურიდიულ ტექნოლოგიებში AI-ს მზარდ გავლენაზე მიუთითებს. Anthropic-ის ახალი ფუნქციები კი ბაზარზე კონკურენციას კიდევ უფრო ამძაფრებს.

ვინ ენდობა სემ ალტმანს? OpenAI-ის ხელმძღვანელის სანდოობა სასამართლო განხილვის ცენტრშია
OpenAI-ის აღმასრულებელი დირექტორის, სემ ალტმანის სანდოობა სასამართლო განხილვის მთავარი თემა გახდა. ილონ მასკის ადვოკატები და ყოფილი საბჭოს წევრები მას ინფორმაციის დამალვასა და მანიპულირებაში ადანაშაულებენ.