Skip to main content
ხელოვნური ინტელექტი10.5.20260 ნახვა

ხელოვნური ინტელექტის ტერმინოლოგია: გზამკვლევი მათთვის, ვისაც გაგება სურს

გაეცანით ხელოვნური ინტელექტის ძირითად ტერმინებს: AGI-დან და LLM-დან დაწყებული, რამაგედონითა და ვალიდაციის დანაკარგით დასრულებული. სრული გზამკვლევი AI სამყაროში უკეთ ორიენტირებისთვის.

ხელოვნური ინტელექტის ტერმინოლოგია: გზამკვლევი მათთვის, ვისაც გაგება სურს

ხელოვნური ინტელექტი (AI) სამყაროს ცვლის და პარალელურად ქმნის სრულიად ახალ ენას თავისი მოქმედებების აღსაწერად. AI-ს შესახებ კითხვისას ხშირად შეხვდებით ისეთ აბრევიატურებს, როგორიცაა LLM, RAG, RLHF და სხვა მრავალი, რაც ტექნოლოგიურ სფეროში კარგად ჩახედულ ადამიანებსაც კი შეიძლება დააბნიოს.

წინამდებარე ლექსიკონი სწორედ ამ ხარვეზის გამოსასწორებლად შეიქმნა. სფეროს განვითარებასთან ერთად, ეს დოკუმენტიც რეგულარულად ახლდება და ასახავს იმ ცვლილებებს, რომლებსაც თავად AI სისტემები განიცდიან.

AGI (ზოგადი ხელოვნური ინტელექტი)

ხელოვნური ზოგადი ინტელექტი, ანუ AGI, საკმაოდ ბუნდოვანი ტერმინია. თუმცა, ზოგადად ის გულისხმობს AI-ს, რომელიც საშუალო ადამიანზე მეტად უნარიანია მრავალი, თუ არა უმეტესი ამოცანის შესრულებაში. OpenAI-ს აღმასრულებელმა დირექტორმა, სემ ალტმანმა, AGI ერთხელ აღწერა, როგორც „საშუალო ადამიანის ეკვივალენტი, რომელიც შეგიძლიათ თანამშრომლად დაიქირაოთ“. ამავდროულად, OpenAI-ს წესდება AGI-ს განმარტავს, როგორც „მაღალავტონომიურ სისტემებს, რომლებიც ადამიანებს სჯობნიან ეკონომიკურად ღირებული სამუშაოების უმეტესობაში“. Google DeepMind-ის ხედვა ოდნავ განსხვავებულია; ლაბორატორია AGI-ს განიხილავს, როგორც „AI-ს, რომელიც სულ მცირე ისეთივე უნარიანია, როგორც ადამიანი შემეცნებითი ამოცანების უმეტესობაში“. ექსპერტებს შორის აზრთა სხვადასხვაობა მიუთითებს იმაზე, რომ ტერმინი ჯერ კიდევ ჩამოყალიბების პროცესშია.

AI აგენტი

AI აგენტი არის ინსტრუმენტი, რომელიც იყენებს ხელოვნური ინტელექტის ტექნოლოგიებს მომხმარებლის სახელით სხვადასხვა დავალების შესასრულებლად. ეს სცილდება ჩვეულებრივი ჩატბოტის შესაძლებლობებს და მოიცავს ისეთ ქმედებებს, როგორიცაა ხარჯების აღრიცხვა, ბილეთების დაჯავშნა, რესტორანში მაგიდის რეზერვაცია ან კოდის წერა და მისი მხარდაჭერა. ვინაიდან ეს სფერო ახალია, „AI აგენტის“ მნიშვნელობა შეიძლება განსხვავდებოდეს კონტექსტის მიხედვით. ძირითადი კონცეფცია გულისხმობს ავტონომიურ სისტემას, რომელიც მრავალსაფეხურიანი ამოცანების შესასრულებლად შესაძლოა რამდენიმე სხვადასხვა AI სისტემას იყენებდეს.

API ენდპოინტები (API endpoints)

API ენდპოინტები შეიძლება წარმოვიდგინოთ, როგორც „ღილაკები“ პროგრამული უზრუნველყოფის უკანა მხარეს, რომლებსაც სხვა პროგრამები აჭერენ გარკვეული მოქმედებების შესასრულებლად. დეველოპერები ამ ინტერფეისებს ინტეგრაციების შესაქმნელად იყენებენ — მაგალითად, ერთი აპლიკაციის მიერ მეორიდან მონაცემების გამოსათხოვად ან AI აგენტისთვის მესამე მხარის სერვისების პირდაპირი მართვის უფლების მისაცემად. ჭკვიანი სახლის მოწყობილობების უმეტესობას აქვს ეს ფარული ღილაკები, თუმცა რიგითი მომხმარებლები მათ ვერ ხედავენ. AI აგენტების განვითარებასთან ერთად, ისინი სულ უფრო ხშირად ახერხებენ ამ ენდპოინტების დამოუკიდებლად პოვნასა და გამოყენებას, რაც ავტომატიზაციის ახალ შესაძლებლობებს აჩენს.

აზროვნების ჯაჭვი (Chain of thought)

მარტივ კითხვებზე ადამიანის ტვინი გაუაზრებლად პასუხობს, თუმცა რთული ამოცანებისას ხშირად შუალედური ნაბიჯების ჩაწერა ხდება საჭირო. მაგალითად, მათემატიკური ამოცანის ამოსახსნელად საჭიროა ლოგიკური თანმიმდევრობის დაცვა. AI კონტექსტში, „აზროვნების ჯაჭვი“ დიდი ენობრივი მოდელებისთვის ნიშნავს პრობლემის დაშლას მცირე, შუალედურ ნაბიჯებად საბოლოო შედეგის ხარისხის გასაუმჯობესებლად. პასუხის მიღებას მეტი დრო სჭირდება, თუმცა ის უფრო ზუსტია, განსაკუთრებით ლოგიკურ ან პროგრამირების ამოცანებში. ასეთი მოდელები ოპტიმიზებულია სწავლების განმტკიცების (reinforcement learning) მეთოდით.

პროგრამირების აგენტები (Coding agents)

ეს არის AI აგენტის სპეციალიზებული ვერსია, რომელიც გამოიყენება პროგრამული უზრუნველყოფის შემუშავებაში. ნაცვლად იმისა, რომ უბრალოდ შესთავაზოს კოდის ფრაგმენტი ადამიანს, პროგრამირების აგენტს შეუძლია ავტონომიურად დაწეროს, დატესტოს და გაასწოროს ხარვეზები (debug). მათ შეუძლიათ მთლიან კოდის ბაზებთან მუშაობა, შეცდომების პოვნა და შესწორებების შეტანა მინიმალური ზედამხედველობით. ეს ჰგავს ძალიან სწრაფი სტაჟიორის აყვანას, რომელსაც არასდროს სძინავს, თუმცა ადამიანის მიერ მისი ნამუშევრის გადამოწმება მაინც აუცილებელია.

გამოთვლითი სიმძლავრე (Compute)

ეს ტერმინი ზოგადად აღნიშნავს გამოთვლით რესურსებს, რომლებიც აუცილებელია AI მოდელების მუშაობისთვის. ეს არის ინდუსტრიის „საწვავი“, რომელიც მოდელების წვრთნისა და მუშაობის საშუალებას იძლევა. ხშირად ამ ტერმინით მოიხსენიებენ აპარატურულ ნაწილსაც — GPU-ებს, CPU-ებს, TPU-ებს და სხვა ინფრასტრუქტურას, რომელიც თანამედროვე AI ინდუსტრიის საფუძველს წარმოადგენს.

ღრმა სწავლება (Deep learning)

ეს არის მანქანური სწავლების ქვესიმრავლე, სადაც ალგორითმები აგებულია მრავალშრიანი ხელოვნური ნეირონული ქსელების (ANN) სტრუქტურით. ეს საშუალებას აძლევს მათ დაამყარონ უფრო რთული კავშირები, ვიდრე მარტივ სისტემებს. სტრუქტურა შთაგონებულია ადამიანის ტვინის ნეირონული გზებით. ღრმა სწავლების მოდელებს შეუძლიათ თავად ამოიცნონ მონაცემებში მნიშვნელოვანი მახასიათებლები, ადამიანის ჩარევის გარეშე. თუმცა, ასეთ სისტემებს კარგი შედეგისთვის მილიონობით მონაცემი და დიდი დრო სჭირდება, რაც განვითარების ხარჯებს ზრდის.

დიფუზია (Diffusion)

დიფუზია არის ტექნოლოგია, რომელიც საფუძვლად უდევს ხელოვნების, მუსიკისა და ტექსტის გენერირების ბევრ მოდელს. ფიზიკით შთაგონებული ეს სისტემები თანდათან „ანადგურებენ“ მონაცემთა სტრუქტურას (მაგალითად, ფოტოს) ხმაურის დამატებით, სანამ არაფერი დარჩება. AI სისტემები სწავლობენ „უკუდიფუზიის“ პროცესს, რათა ხმაურიდან აღადგინონ ან შექმნან ახალი მონაცემები.

დისტილაცია (Distillation)

ეს არის ტექნიკა, რომელიც გამოიყენება დიდი AI მოდელიდან ცოდნის გამოსაყოფად „მასწავლებელი-მოსწავლის“ მოდელის მეშვეობით. დეველოპერები აგზავნიან მოთხოვნებს მასწავლებელ მოდელთან და იწერენ პასუხებს, რომლებითაც შემდეგ წვრთნიან უფრო მცირე, „მოსწავლე“ მოდელს. დისტილაცია საშუალებას იძლევა შეიქმნას უფრო სწრაფი და ეფექტური მოდელი მინიმალური დანაკარგებით. სავარაუდოდ, სწორედ ასე შეიქმნა GPT-4 Turbo.

ფაინ-თუნინგი (Fine-tuning)

ეს გულისხმობს უკვე არსებული AI მოდელის დამატებით წვრთნას კონკრეტული ამოცანის ან სფეროსთვის. ამ დროს მოდელს აწვდიან ახალ, სპეციალიზებულ მონაცემებს. ბევრი სტარტაპი იღებს დიდ ენობრივ მოდელებს და ფაინ-თუნინგის მეშვეობით მათ კონკრეტული ინდუსტრიის საჭიროებებზე არგებს.

GAN (გენერაციული შეჯიბრებითი ქსელი)

GAN არის მანქანური სწავლების ჩარჩო, რომელიც გამოიყენება რეალისტური მონაცემების, მათ შორის „დიფფეიკების“ შესაქმნელად. ის მოიცავს ორ ნეირონულ ქსელს: გენერატორს და დისკრიმინატორს. გენერატორი ცდილობს შექმნას ისეთი პროდუქტი, რომელსაც დისკრიმინატორი ნამდვილისგან ვერ გაარჩევს. ეს „შეჯიბრი“ აუმჯობესებს შედეგს ადამიანის ჩარევის გარეშე.

ჰალუცინაცია

ეს არის ტერმინი, რომლითაც AI ინდუსტრია აღწერს შემთხვევებს, როდესაც მოდელი იგონებს მცდარ ინფორმაციას. ეს სერიოზული პრობლემაა ხარისხისა და უსაფრთხოებისთვის, რადგან მცდარმა პასუხებმა შესაძლოა რეალური რისკები შექმნას (მაგალითად, სამედიცინო რჩევებისას). ჰალუცინაციები ხშირად გამოწვეულია საწვრთნელ მონაცემებში არსებული ხარვეზებით.

ინფერენცია (Inference)

ინფერენცია არის AI მოდელის მუშაობის პროცესი, როდესაც ის აკეთებს პროგნოზებს ან გამოაქვს დასკვნები ნასწავლი მონაცემების საფუძველზე. ინფერენცია შეუძლებელია წვრთნის გარეშე. სხვადასხვა აპარატურას (სმარტფონის პროცესორიდან დაწყებულ GPU-მდე) ინფერენციის სხვადასხვა სიჩქარე აქვს.

დიდი ენობრივი მოდელი (LLM)

LLM-ები არის მოდელები, რომლებსაც იყენებენ პოპულარული ასისტენტები, როგორიცაა ChatGPT, Claude, Gemini და სხვები. ეს არის ღრმა ნეირონული ქსელები მილიარდობით პარამეტრით (წონით), რომლებიც სწავლობენ კავშირებს სიტყვებსა და ფრაზებს შორის. მოდელები იქმნება მილიარდობით წიგნის, სტატიისა და ტრანსკრიპტის საფუძველზე.

მეხსიერების ქეშირება (Memory cache)

ეს არის ოპტიმიზაციის ტექნიკა, რომელიც ინფერენციას უფრო ეფექტურს ხდის. AI მუშაობს რთული მათემატიკური გამოთვლებით, რაც დიდ ენერგიას მოითხოვს. ქეშირება ინახავს გარკვეულ გამოთვლებს მომავალი მოთხოვნებისთვის, რაც ამცირებს პასუხის გაცემის დროს და დახარჯულ რესურსს.

ნეირონული ქსელი

ეს არის მრავალშრიანი ალგორითმული სტრუქტურა, რომელიც საფუძვლად უდევს ღრმა სწავლებას. მიუხედავად იმისა, რომ იდეა 1940-იან წლებში გაჩნდა, მისი რეალური პოტენციალი მხოლოდ გრაფიკული პროცესორების (GPU) განვითარების შემდეგ გამოვლინდა. ეს ჩიპები იდეალური აღმოჩნდა მრავალშრიანი ალგორითმების საწვრთნელად.

ღია კოდი (Open source)

ეს ეხება პროგრამულ უზრუნველყოფას ან AI მოდელებს, რომელთა კოდიც საჯაროა. მაგალითად, Meta-ს Llama მოდელები ღიაა, რაც მკვლევარებს საშუალებას აძლევს მათზე დაშენებით იმუშაონ. ამის საპირისპიროა „დახურული კოდი“ (მაგალითად, OpenAI-ს მოდელები), სადაც კოდი პრივატულია.

პარალელიზაცია

ეს ნიშნავს მრავალი მოქმედების ერთდროულად შესრულებას. AI-ში პარალელიზაცია ფუნდამენტურია: თანამედროვე GPU-ები შექმნილია ათასობით გამოთვლის პარალელურად შესასრულებლად. ეს განსაზღვრავს, რამდენად სწრაფად და იაფად შეიძლება მოდელის აგება და დანერგვა.

რამაგედონი (RAMageddon)

ეს ტერმინი აღწერს ოპერატიული მეხსიერების (RAM) ჩიპების მზარდ დეფიციტს. AI ბუმის გამო, გიგანტური კომპანიები იმდენ მეხსიერებას ყიდულობენ მონაცემთა ცენტრებისთვის, რომ სხვა ინდუსტრიებს (გეიმინგი, სმარტფონები) რესურსი აღარ ჰყოფნით, რაც ფასების ზრდას იწვევს.

სწავლება განმტკიცებით (Reinforcement learning)

ეს არის მეთოდი, სადაც სისტემა სწავლობს ცდისა და შეცდომის გზით და იღებს „ჯილდოს“ სწორი პასუხისთვის. ეს მიდგომა განსაკუთრებით ეფექტურია თამაშებში, რობოტების მართვასა და ენობრივი მოდელების აზროვნების უნარის გასაუმჯობესებლად (მაგალითად, RLHF მეთოდი).

ტოკენი (Token)

ტოკენები არის ადამიანსა და AI-ს შორის კომუნიკაციის ძირითადი ერთეულები. ტექსტი იშლება მცირე ნაწილებად (ტოკენებად), რათა მოდელმა მისი დამუშავება შეძლოს. ბიზნეს გარემოში ტოკენები ასევე განსაზღვრავს ღირებულებას — კომპანიების უმეტესობა მომხმარებელს საფასურს სწორედ გამოყენებული ტოკენების რაოდენობის მიხედვით ართმევს.

ტოკენების გამტარუნარიანობა (Token throughput)

ეს არის საზომი, რომელიც აჩვენებს, თუ რა მოცულობის სამუშაოს შესრულება შეუძლია AI სისტემას დროის გარკვეულ მონაკვეთში. მაღალი გამტარუნარიანობა ნიშნავს, რომ სისტემას შეუძლია ერთდროულად ბევრ მომხმარებელს მოემსახუროს და პასუხები სწრაფად გასცეს.

წვრთნა (Training)

მანქანური სწავლების AI-ს შექმნა მოიცავს წვრთნის პროცესს, რაც გულისხმობს მოდელისთვის დიდი მოცულობის მონაცემების მიწოდებას კანონზომიერებების სასწავლად. წვრთნა ძვირადღირებული პროცესია, რის გამოც ხშირად გამოიყენება ჰიბრიდული მიდგომები ხარჯების დასაზოგად.

ტრანსფერული სწავლება (Transfer learning)

ეს არის ტექნიკა, როდესაც წინასწარ გაწვრთნილი მოდელი გამოიყენება ახალი, მსგავსი ამოცანის შესასრულებლად. ეს ზოგავს რესურსებს და სასარგებლოა მაშინ, როდესაც ახალი ამოცანისთვის მონაცემები შეზღუდულია.

წონები (Weights)

წონები არის რიცხვითი პარამეტრები, რომლებიც განსაზღვრავენ, თუ რა მნიშვნელობა ენიჭება სხვადასხვა მახასიათებელს მონაცემებში. წვრთნის პროცესში ეს წონები მუდმივად კორექტირდება, რათა მოდელმა მაქსიმალურად ზუსტი შედეგი მიიღოს.

ვალიდაციის დანაკარგი (Validation loss)

ეს რიცხვი აჩვენებს, თუ რამდენად კარგად სწავლობს მოდელი წვრთნის პროცესში — რაც უფრო დაბალია ეს მაჩვენებელი, მით უკეთესია შედეგი. მკვლევარები ამ მონაცემს იყენებენ იმის დასადგენად, თუ როდის უნდა შეწყვიტონ წვრთნა, რათა თავიდან აიცილონ „გადამეტებული მორგება“ (overfitting), როდესაც მოდელი უბრალოდ იზეპირებს მონაცემებს ნაცვლად მათი გააზრებისა.

წყარო: TechCrunch AI
გაზიარება:

მსგავსი სტატიები

Nvidia-მ წელს ხელოვნური ინტელექტის სფეროში უკვე 40 მილიარდი დოლარის ინვესტიცია განახორციელა
ხელოვნური ინტელექტი

Nvidia-მ წელს ხელოვნური ინტელექტის სფეროში უკვე 40 მილიარდი დოლარის ინვესტიცია განახორციელა

Nvidia-მ 2026 წლის დასაწყისში AI ეკოსისტემაში 40 მილიარდ დოლარზე მეტი დააბანდა, მათ შორის 30 მილიარდი OpenAI-ში, რაც კომპანიის გლობალურ გავლენას კიდევ უფრო ზრდის.

9.5.2026
Intel-ის აღზევების ისტორია იმაზე შთამბეჭდავია, ვიდრე ერთი შეხედვით ჩანს
ხელოვნური ინტელექტი

Intel-ის აღზევების ისტორია იმაზე შთამბეჭდავია, ვიდრე ერთი შეხედვით ჩანს

Intel-ის აქციების ფასი 490%-ით გაიზარდა, თუმცა კომპანიის შიდა პრობლემები და წარმოების ეფექტურობა კვლავ დიდ გამოწვევად რჩება.

9.5.2026
Oracle-ის დათხოვნილმა თანამშრომლებმა კომპენსაციის პირობების გაუმჯობესება სცადეს, თუმცა კომპანიამ უარი თქვა
ხელოვნური ინტელექტი

Oracle-ის დათხოვნილმა თანამშრომლებმა კომპენსაციის პირობების გაუმჯობესება სცადეს, თუმცა კომპანიამ უარი თქვა

Oracle-მა 30,000-მდე თანამშრომელი დაითხოვა. სტატია მიმოიხილავს კომპენსაციის პირობებს, აქციების დაკარგვის რისკებს და თანამშრომლების წარუმატებელ მცდელობას, ეწარმოებინათ მოლაპარაკებები კომპანიასთან.

9.5.2026