Skip to main content
ხელოვნური ინტელექტი10.3.20260 ნახვა

Google-ის ყოფილი თანამშრომლები ვიდეო მონაცემების ანალიზისთვის ახალ ინფრასტრუქტურას ქმნიან

სტარტაპი InfiniMind, რომელიც Google-ის ყოფილმა სპეციალისტებმა დააფუძნეს, ბიზნესებს გამოუყენებელი ვიდეო მასალის სტრუქტურირებულ მონაცემებად გარდაქმნაში ეხმარება.

Google-ის ყოფილი თანამშრომლები ვიდეო მონაცემების ანალიზისთვის ახალ ინფრასტრუქტურას ქმნიან

თანამედროვე ბიზნესები იმაზე მეტ ვიდეო მასალას აგენერირებენ, ვიდრე ოდესმე. დაწყებული მრავალწლიანი სამაუწყებლო არქივებით, დამთავრებული ათასობით სათვალთვალო კამერითა და საწარმოო კადრებით — ამ მასალის უდიდესი ნაწილი სერვერებზე გამოუყენებლად ინახება. ამას „ბნელ მონაცემებს“ (dark data) უწოდებენ: ეს არის მასშტაბური, აუთვისებელი რესურსი, რომელსაც კომპანიები ავტომატურად აგროვებენ, თუმცა თითქმის არასდროს იყენებენ პრაქტიკული მიზნებისთვის.

ამ პრობლემის გადასაჭრელად, აზა კაიმ (აღმასრულებელი დირექტორი) და ჰირაკუ იანაგიტამ (საოპერაციო დირექტორი), Google-ის ყოფილმა თანამშრომლებმა, რომლებმაც თითქმის ათი წელი იმუშავეს Google Japan-ში, საკუთარი გადაწყვეტილების შექმნა გადაწყვიტეს. მათ დააფუძნეს ტოკიოში ბაზირებული სტარტაპი InfiniMind, რომელიც ქმნის ინფრასტრუქტურას პეტაბაიტობით ვიდეო და აუდიო მასალის სტრუქტურირებულ, საძიებო ბიზნეს მონაცემებად გარდაქმნისთვის.

აზა კაის განმარტებით, რომელიც მანამდე Google-ში ღრუბლოვანი ტექნოლოგიების, მანქანური სწავლების, სარეკლამო სისტემებისა და ვიდეო რეკომენდაციების მოდელების მიმართულებით მუშაობდა, არსებული გადაწყვეტილებები აქამდე გარკვეულ დათმობებზე წასვლას მოითხოვდა. ადრეული მიდგომები მხოლოდ ცალკეულ კადრებში ობიექტების იდენტიფიცირებას ახდენდა, თუმცა მათ არ შეეძლოთ ნარატივის მიყოლა, მიზეზ-შედეგობრივი კავშირების გაგება ან ვიდეოს შინაარსთან დაკავშირებულ რთულ კითხვებზე პასუხის გაცემა.

ტექნოლოგიური გარღვევა და ბაზრის მოთხოვნა

ვითარება რადიკალურად შეიცვალა 2021-2023 წლებში ვიზუალურ-ენობრივი მოდელების (vision-language models) განვითარების შედეგად. სწორედ ამ პერიოდში ვიდეო AI გასცდა ობიექტების მარტივი მონიშვნის ეტაპს. ამას ხელი შეუწყო GPU-ს (გრაფიკული პროცესორების) ღირებულების შემცირებამ და ბოლო ათწლეულის განმავლობაში წარმადობის ყოველწლიურმა 15%-20%-იანმა ზრდამ. თუმცა, მთავარი ფაქტორი მაინც მოდელების შესაძლებლობების გაფართოება გახდა — მანამდე არსებული ტექნოლოგიები უბრალოდ ვერ უმკლავდებოდნენ დასახულ ამოცანებს.

ფინანსური მხარდაჭერა და გლობალური გაფართოება

InfiniMind-მა ახლახან 5.8 მილიონი აშშ დოლარის მოცულობის საწყისი (seed) დაფინანსება მოიპოვა. რაუნდს UTEC ხელმძღვანელობდა, მასში ასევე მონაწილეობდნენ CX2, Headline Asia, Chiba Dojo და AI მკვლევარი a16z Scout-იდან. კომპანია სათავო ოფისს აშშ-ში გადაიტანს, თუმცა კვლავ შეინარჩუნებს წარმომადგენლობას იაპონიაში.

იაპონია სტარტაპისთვის იდეალური სატესტო გარემო აღმოჩნდა: ძლიერი აპარატურული უზრუნველყოფა, ნიჭიერი ინჟინრები და მხარდამჭერი სტარტაპ ეკოსისტემა გუნდს საშუალებას აძლევდა, ტექნოლოგია მომთხოვნი კლიენტების დახმარებით დაეხვეწა გლობალურ ბაზარზე გასვლამდე.

პროდუქტები: TV Pulse და DeepFrame

კომპანიის პირველი პროდუქტი, TV Pulse, იაპონიაში 2025 წლის აპრილში ჩაეშვა. AI-ზე დაფუძნებული ეს პლატფორმა რეალურ დროში აანალიზებს სატელევიზიო კონტენტს და მედია თუ საცალო ვაჭრობის კომპანიებს ეხმარება პროდუქტის ექსპოზიციის, ბრენდის ხილვადობის, მომხმარებელთა განწყობისა და PR ეფექტურობის მონიტორინგში. საპილოტე პროგრამების შემდეგ, სტარტაპს უკვე ჰყავს გადამხდელი კლიენტები, მათ შორის მსხვილი საბითუმო მოვაჭრეები და მედია კომპანიები.

ამჟამად InfiniMind საერთაშორისო ბაზრისთვის ემზადება. მისი ფლაგმანი პროდუქტი, DeepFrame, წარმოადგენს გრძელფორმატიანი ვიდეო ინტელექტის პლატფორმას, რომელსაც 200 საათის განმავლობაში გადაღებული მასალის დამუშავება და კონკრეტული სცენების, მომხსენებლების ან მოვლენების იდენტიფიცირება შეუძლია. DeepFrame-ის ბეტა ვერსია 2026 წლის მარტში გამოვა, სრული გაშვება კი აპრილში იგეგმება.

InfiniMind-ის გუნდი

კონკურენტული უპირატესობა და ხედვა

ვიდეო ანალიზის სფერო საკმაოდ ფრაგმენტირებულია. მიუხედავად იმისა, რომ არსებობენ კომპანიები (მაგალითად, TwelveLabs), რომლებიც ზოგადი დანიშნულების ვიდეო ანალიტიკის API-ებს სთავაზობენ მომხმარებელთა ფართო წრეს, InfiniMind კონცენტრირებულია სპეციფიკურ კორპორაციულ ქეისებზე, როგორიცაა მონიტორინგი, უსაფრთხოება და ვიდეო კონტენტის ღრმა ანალიზი.

  • No-code გადაწყვეტილება: კლიენტებს მხოლოდ მონაცემები მოაქვთ, სისტემა კი მათ ამუშავებს და პრაქტიკულ დასკვნებს აწვდის.
  • მულტიმოდალობა: სისტემა აანალიზებს არა მხოლოდ ვიზუალურ მხარეს, არამედ აუდიოს, ხმასა და მეტყველებას.
  • მასშტაბურობა: პლატფორმას შეუძლია შეუზღუდავი ხანგრძლივობის ვიდეოების დამუშავება.
  • ხარჯეფექტურობა: არსებული გადაწყვეტილებების უმეტესობა პრიორიტეტს სიზუსტეს ანიჭებს, თუმცა ვერ აგვარებს მაღალ ხარჯებთან დაკავშირებულ გამოწვევებს.

მოპოვებული დაფინანსება გუნდს DeepFrame მოდელის განვითარებაში, საინჟინრო ინფრასტრუქტურის გაფართოებასა და იაპონიასა და აშშ-ში ახალი კლიენტების მოზიდვაში დაეხმარება. აზა კაის თქმით, ვიდეო ინტელექტის გაგება რეალობის გაგებას ნიშნავს, რაც საბოლოო ჯამში ადამიანებს უკეთესი გადაწყვეტილებების მიღებაში დაეხმარება.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა: დავა „მიწოდების ჯაჭვის რისკის“ სტატუსის გამო
ხელოვნური ინტელექტი

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა: დავა „მიწოდების ჯაჭვის რისკის“ სტატუსის გამო

Anthropic-მა აშშ-ის თავდაცვის დეპარტამენტს სასამართლოში უჩივლა მას შემდეგ, რაც უწყებამ კომპანია „მიწოდების ჯაჭვის რისკად“ გამოაცხადა. დავა ხელოვნური ინტელექტის უსაფრთხოებასა და სამხედრო მიზნებისთვის გამოყენებას ეხება.

9.3.2026
OpenAI-მ ხელოვნური ინტელექტის აგენტების უსაფრთხოების გასაძლიერებლად Promptfoo შეიძინა
ხელოვნური ინტელექტი

OpenAI-მ ხელოვნური ინტელექტის აგენტების უსაფრთხოების გასაძლიერებლად Promptfoo შეიძინა

OpenAI-მ AI უსაფრთხოების სტარტაპი Promptfoo შეიძინა. ტექნოლოგია OpenAI Frontier პლატფორმაში ინტეგრირდება, რათა უზრუნველყოს AI აგენტების დაცვა და უსაფრთხოების ავტომატიზებული ტესტირება.

9.3.2026
Anthropic-მა კოდის რევიზიის ახალი ხელსაწყო წარადგინა AI-ით გენერირებული კოდის ნაკადის შესამოწმებლად
ხელოვნური ინტელექტი

Anthropic-მა კოდის რევიზიის ახალი ხელსაწყო წარადგინა AI-ით გენერირებული კოდის ნაკადის შესამოწმებლად

Anthropic-მა გამოუშვა Code Review — ხელოვნურ ინტელექტზე დაფუძნებული ინსტრუმენტი, რომელიც Claude Code-ის მიერ გენერირებულ კოდში ლოგიკურ შეცდომებს პოულობს და რევიზიის პროცესს აჩქარებს.

9.3.2026