Amazon-ი კონკურენციას ამძაფრებს: Nvidia-სთან ერთად შექმნილი „AI ფაბრიკები“ მონაცემთა სუვერენიტეტისთვის
Amazon-მა ახალი სერვისი, „AI ფაბრიკები“, წარადგინა, რომელიც კომპანიებს საშუალებას აძლევს, ხელოვნური ინტელექტი საკუთარ მონაცემთა ცენტრებში მართონ.

Amazon-მა სამშაბათს ახალი პროდუქტი, სახელწოდებით „AI Factories“ (ხელოვნური ინტელექტის ფაბრიკები), წარადგინა. ეს სერვისი მსხვილ კორპორაციებსა და სამთავრობო უწყებებს საშუალებას აძლევს, Amazon-ის ხელოვნური ინტელექტის სისტემები საკუთარ მონაცემთა ცენტრებში, ლოკალურად ამუშაონ.
AWS-ის განმარტებით, მოდელი მარტივია: მომხმარებელი უზრუნველყოფს ფიზიკურ სივრცესა და ენერგომომარაგებას, ხოლო AWS ადგილზე ამონტაჟებს და მართავს ხელოვნური ინტელექტის სისტემას. ამასთან, შესაძლებელია მისი ინტეგრაცია AWS-ის სხვა ღრუბლოვან სერვისებთანაც.
ეს მიდგომა განსაკუთრებით აქტუალურია იმ კომპანიებისა და მთავრობებისთვის, რომლებისთვისაც პრიორიტეტულია მონაცემთა სუვერენიტეტი — ანუ, სრული კონტროლი საკუთარ ინფორმაციაზე, რათა ის კონკურენტის ან უცხო ქვეყნის ხელში არ აღმოჩნდეს. ლოკალური „AI ფაბრიკა“ ნიშნავს, რომ მონაცემები არ იგზავნება მოდელის შემქმნელთან და აპარატურაც კი არ არის საზიარო.
პროდუქტის სახელი, „AI Factory“, ნაცნობად ჟღერს, რადგან სწორედ ასე უწოდებს Nvidia საკუთარ აპარატურულ სისტემებს, რომლებიც ხელოვნური ინტელექტის გასაშვებად საჭირო ყველა კომპონენტს აერთიანებს — GPU ჩიპებიდან დაწყებული, ქსელური ტექნოლოგიებით დამთავრებული. AWS-ის ახალი პროდუქტი, ფაქტობრივად, Nvidia-სთან თანამშრომლობის შედეგია.
AWS-ის „ფაბრიკა“ Amazon-ისა და Nvidia-ს ტექნოლოგიების კომბინაციას იყენებს. მომხმარებლებს შეუძლიათ აირჩიონ Nvidia-ს უახლესი Blackwell GPU-ები ან Amazon-ის ახალი Trainium3 ჩიპი. სისტემა ასევე მოიცავს AWS-ის საკუთარ ქსელურ გადაწყვეტილებებს, მონაცემთა საცავებს, ბაზებს, უსაფრთხოების სისტემებს და უკავშირდება Amazon Bedrock-სა და AWS SageMaker AI-ს.
აღსანიშნავია, რომ AWS ერთადერთი ღრუბლოვანი გიგანტი არაა, რომელიც Nvidia-ს „AI ფაბრიკებს“ ნერგავს. ჯერ კიდევ ოქტომბერში, Microsoft-მა წარმოადგინა თავისი პირველი ასეთი სისტემა, რომელსაც გლობალურ მონაცემთა ცენტრებში OpenAI-ს სამუშაო პროცესებისთვის იყენებს.
თავდაპირველად Microsoft-ს არ განუცხადებია, რომ ეს მძლავრი სისტემები კერძო ღრუბლებისთვისაც იქნებოდა ხელმისაწვდომი. კომპანია ფოკუსირებული იყო იმაზე, თუ როგორ იყენებდა Nvidia-ს ტექნოლოგიას საკუთარი „ხელოვნური ინტელექტის სუპერფაბრიკების“ ასაშენებლად ვისკონსინისა და ჯორჯიის შტატებში. თუმცა, გასულ თვეს Microsoft-მა მონაცემთა სუვერენიტეტის საკითხის გადასაჭრელად ლოკალური მონაცემთა ცენტრებისა და სერვისების გეგმებიც წარადგინა, მათ შორის „Azure Local“, რომელიც მომხმარებლის ობიექტზე ინსტალირებულ აპარატურას გულისხმობს.
ირონიულია, რომ ხელოვნური ინტელექტის განვითარება უმსხვილეს ღრუბლოვან პროვაიდერებს აიძულებს, კვლავ დიდი ინვესტიციები განახორციელონ კორპორატიულ კერძო მონაცემთა ცენტრებსა და ჰიბრიდულ ღრუბლებში. ეს ვითარება ძალიან ჰგავს 2009 წლის ტენდენციებს.
მსგავსი სტატიები

ტრამპის ადმინისტრაციის წარმომადგენლები ბანკებს Anthropic-ის Mythos მოდელის გამოცდისკენ მოუწოდებენ
აშშ-ის მაღალჩინოსნები მსხვილ ბანკებს Anthropic-ის ახალი AI მოდელის, Mythos-ის გამოყენებისკენ მოუწოდებენ, მიუხედავად კომპანიასა და მთავრობას შორის არსებული სასამართლო დავისა.

კოსმოსში ყველაზე დიდი გამოთვლითი კლასტერი ამოქმედდა: ორბიტალური მონაცემთა ცენტრების ეპოქა იწყება
კანადურმა Kepler Communications-მა ორბიტაზე 40 Nvidia-ს პროცესორისგან შემდგარი ყველაზე დიდი გამოთვლითი კლასტერი აამუშავა, რაც კოსმოსური მონაცემთა ცენტრების განვითარებაში ახალ ეტაპს ნიშნავს.

HumanX კონფერენციაზე ყურადღების ცენტრში Claude მოექცა: რატომ კარგავს OpenAI ლიდერის პოზიციას?
სან-ფრანცისკოში გამართულ HumanX კონფერენციაზე Anthropic-ის ჩატბოტი Claude მთავარ ფავორიტად დასახელდა, ხოლო OpenAI-ის მიმართ კრიტიკა და კონკურენცია გაიზარდა.