- RAG pomeni Retrieval-Augmented Generation, hibridni pristop umetne inteligence, ki združuje velik jezikovni model z iskalnikom ali bazo podatkov za pridobivanje zunanjega znanja za utemeljene, ažurne odgovore.
- Leta 2025 je RAG postal strateška nuja za sodobno umetno inteligenco, saj poganja inteligentne klepetalne bote, poslovne asistente in druge aplikacije, ki se zavedajo konteksta.
- V praksi sistem RAG najprej pridobi ustrezne dokumente iz vira znanja, nato pa najboljše odlomke doda uporabnikovemu vprašanju, preden LLM ustvari končni odgovor.
- Patrick Lewis, ki je vodil ekipo, ki je skovala izraz “RAG” v Facebook AI članku leta 2020, opisuje RAG kot rastočo družino metod, ki predstavljajo prihodnost generativne umetne inteligence.
- Kot pravi Patrick Lewis, lahko pristop z razširjenim iskanjem implementirate z le petimi vrsticami kode.
- Številni RAG sistemi poleg odgovora vrnejo tudi vire, pri čemer navedejo naslove dokumentov ali URL-je za omogočanje preverjanja in zaupanja.
- RAG omogoča ažurne odgovore, saj ob času poizvedbe pridobi sveže informacije, kar omogoča natančne odgovore o nedavnih dogodkih ali novih politikah.
- Znižuje tekoče stroške, saj se izogne popolnemu ponovnemu učenju; namesto tega organizacije vzdržujejo iskalni indeks podatkov in modelu omogočijo, da ga po potrebi uporablja.
- Izrazit primer uporabe je Mayo Clinic-ov AI asistent za zdravnike, ki uporablja RAG za povezovanje dialoga na osnovi GPT s trenutno medicinsko literaturo in podatki o pacientih, skupaj z referencami virov.
- Do leta 2025 glavni tehnološki igralci ponujajo RAG rešitve (OpenAI-jev prevzem Rockset leta 2024, Microsoft Azure OpenAI, Google Vertex AI Search, Amazon Bedrock) in uspešen ekosistem orodij, kot sta LangChain in Pinecone.
Generativna umetna inteligenca je navdušila domišljijo, vendar retrieval-augmented generation – bolj znan kot RAG – prinaša merljiv, utemeljen vpliv v različnih panogah [1]. Preprosto povedano, RAG je hibridni pristop umetne inteligence, ki združuje velik jezikovni model (LLM) z iskalnikom ali bazo podatkov. Rezultat je, kot bi izjemno pametnemu klepetalnemu botu dali dostop do prilagojene knjižnice ali spleta: lahko “na hitro poišče” dejstva in uporabi te informacije za ustvarjanje natančnejših, ažurnih odgovorov. Ta kombinacija iskanja in generiranja pomaga zmanjšati halucinacije, zasidra AI odgovore v resničnih virih in zmanjša potrebo po dragem ponovnem učenju modela [2], [3]. Leta 2025 je RAG postal strateška nuja za sodobno umetno inteligenco – poganja inteligentne klepetalne bote, poslovne asistente in druge aplikacije, ki zahtevajo zanesljivo, kontekstualno znanje.
Kaj je RAG in kako deluje?
Pridobivanjem podprta generacija (RAG) je okvir umetne inteligence, ki temelji na zunanjih virih znanja za model, ki generira besedilo [4]. Z drugimi besedami, nadgradi LLM (kot je GPT-4 ali podoben) z dodajanjem koraka iskanja: ko AI prejme poizvedbo, najprej poišče zbirko dokumentov ali podatkovno bazo za ustrezne informacije, nato pa uporabi to gradivo za pomoč pri generiranju odgovora [5]. Ta pristop zapolnjuje ključno vrzel v delovanju običajnih LLM-jev. Samostojen LLM je kot zelo izobražena oseba, ki opravlja izpit brez pripomočkov – zanaša se le na to, kar ima v spominu (svojih naučenih parametrih). Nasprotno pa je RAG sistem kot izpit z odprto knjigo: model lahko “v živo” preverja zunanje besedilo pred odgovorom [6].
Kako RAG deluje v praksi je preprosto. Najprej uporabnik postavi vprašanje ali poda navodilo. Nato sistem pridobi ustrezne informacije iz vira znanja – to je lahko indeks spletnega iskanja, vektorska baza podatkov podjetja, wiki članki ali katerikoli drug besedilni korpus. Na primer, če postavite podrobno vprašanje klepetalnemu botu za podporo strankam, lahko RAG sistem poišče ključne besede in povezano vsebino v internih pravilnikih, priročnikih ali bazi znanja za podporo. Potem se najbolj ustrezni odlomki ali dokumenti vključijo v poziv podan LLM-ju (pogosto tako, da se jih doda uporabniškemu vprašanju). Na koncu LLM ustvari odgovor, ki vključi pridobljena dejstva s svojim razumevanjem jezika [7], [8]. V bistvu LLM “prebere” pridobljeno gradivo in oblikuje sestavljen odgovor, podobno kot študent navaja vire v eseju. Ta postopek zagotavlja, da je izhod utemeljen na resničnih podatkih in ne le na parametričnem spominu modela [9]. Številni RAG sistemi poleg odgovora vrnejo tudi vire (npr. naslove dokumentov ali URL-je), da lahko uporabniki preverijo in zaupajo informacijam [10].
Za ponazoritev Rick Merritt iz podjetja NVIDIA ponuja uporabno analogijo: sodnik ima lahko odlično splošno pravno znanje, vendar za določen primer pošlje sodnega referenta v pravno knjižnico, da poišče ustrezne primere in precedense [11]. Tukaj je LLM sodnik, RAG pa vestni referent, ki priskrbi natančna dejstva, ki so potrebna. Patrick Lewis – raziskovalec, ki je vodil ekipo, ki je skovala izraz “RAG” v Facebook AI članku leta 2020 – opisuje RAG kot “rastočo družino metod”, za katere verjame, da predstavlja prihodnost generativne umetne inteligence [12]. S povezovanjem zmogljivih generativnih modelov z zunanjim znanjem RAG omogoča umetni inteligenci, da preseže zgolj ponavljanje učnih podatkov in namesto tega dinamično pridobiva nove informacije po potrebi [13]. Skratka, RAG spremeni LLM iz vsevednega zaprtega sistema v strokovnjaka z odprto knjigo, ki lahko navaja vire in sledi najnovejšim informacijam.
Zakaj je RAG pomemben?
RAG je postal pomemben, ker neposredno naslavlja nekatere največje omejitve samostojnih jezikovnih modelov umetne inteligence. Halucinacije – nagnjenost LLM-jev, da izmišljajo prepričljive, a napačne odgovore – so omejene, ko ima model na voljo resnične dokumente za referenco. Z utemeljevanjem odgovorov na dejstvih RAG povečuje natančnost in zanesljivost. “Dve najpomembnejši stvari, ki jih RAG omogoča za podjetja, sta, da lahko izsledimo odgovore in da je to sledljivo,” pravi Dennis Perpetua, globalni CTO pri Kyndryl [14]. Z drugimi besedami, dobro implementiran RAG sistem lahko ne le najde pravilen odgovor, ampak tudi pokaže vir, iz katerega izhaja – kar uporabnikom daje zaupanje, da je odgovor mogoče preveriti in mu zaupati [15]. Luis Lastras, direktor jezikovnih tehnologij pri IBM Research, prav tako primerja to z odprto knjigo: “V RAG sistemu modelu naročite, naj odgovori na vprašanje tako, da prebrska vsebino v knjigi, namesto da bi si poskušal zapomniti dejstva iz spomina.” [16] To pomeni, da imajo uporabniki (in razvijalci) preglednost glede zakaj je umetna inteligenca odgovorila tako, kot je, kar je ključno za vzpostavljanje zaupanja v rezultate umetne inteligence.
Druga velika prednost je, da RAG ohranja AI posodobljenega. Tradicionalni LLM-ji so trenirani na fiksnem naboru podatkov, ki lahko postane zastarel – so kot enciklopedije, ki se po objavi ne morejo več posodabljati [17]. RAG to reši tako, da modelu omogoči, da pri iskanju odgovora pridobi sveže informacije iz zaupanja vrednih virov [18]. Ta zmožnost je neprecenljiva na hitro spreminjajočih se področjih. Na primer, asistent, ki ga poganja RAG, lahko odgovarja na vprašanja o nedavnih dogodkih, novih raziskavah ali posodobljenih pravilih podjetja z 95–99 % natančnostjo, saj se sklicuje na posodobljene, preverjene informacije in ne na zastarele učne podatke [19]. Odgovori so kontekstualno relevantni za trenutek, kar je prelomno za primere uporabe, kot so poizvedbe o novicah, vprašanja strank v živo ali podpora pri odločanju v realnem času.
Stroški in učinkovitost so prav tako ključni razlogi, zakaj je RAG pomemben. Namesto da bi zamudno prilagajali ogromen LLM za vsak nov dokument ali področje (kar je drago in zamudno), RAG omogoča veliko lažji pristop: vzdržujte iskalni indeks svojih podatkov in dovolite modelu, da ga uporablja po potrebi. »Postopek lahko izvedemo z le petimi vrsticami kode,« poudarja Patrick Lewis in izpostavlja, da je nadgradnja obstoječega modela z iskanjem pogosto hitrejša in cenejša kot ponovno učenje modela na novih podatkih [20]. To pomeni, da lahko organizacije »v živo« zamenjajo vire znanja[21]. Na primer, fintech podjetje lahko v svoj iskalni nabor za klepetalnika doda podatke o trgu iz prejšnjega tedna in bot bo takoj odgovarjal na vprašanja o najnovejših borznih trendih – brez ponovnega učenja modela. RAG tako znižuje tekoče stroške vzdrževanja LLM-jev in jih naredi veliko bolj prilagodljive spreminjajočim se informacijam [22].
Enako pomembno za podjetja je, da RAG ponuja način za varno odklepanje lastniških podatkov. Podjetju specifične in zaupne informacije pogosto ni mogoče uporabiti za učenje javnih modelov zaradi razlogov zasebnosti. Z RAG modelu ni treba vsrkati zaupnih podatkov v svoje uteži; preprosto jih pridobi, ko jih potrebuje. To podjetjem omogoča, da izkoristijo interno znanje (iz wikijev, baz podatkov, PDF-jev itd.) za pridobivanje prilagojenih AI odgovorov brez razkrivanja teh podatkov ali njihove predaje modelu tretje osebe [23]. Pravzaprav je bil eden od glavnih izzivov pri uporabi LLM-jev za poslovne potrebe zagotavljanje ustreznega, natančnega znanja iz obsežnih korporativnih baz podatkov modelu brez potrebe po dodatnem učenju samega LLM-ja [24]. RAG to elegantno reši: z integracijo domensko specifičnih podatkov v času pridobivanja zagotovi, da so AI odgovori natančno prilagojeni vašemu kontekstu (na primer vašemu katalogu izdelkov ali priročniku s pravili), medtem ko jedrni model ostaja splošnonamenski [25]. Podjetje ohrani popoln nadzor nad svojimi lastniškimi podatki in lahko uveljavlja skladnost, varnost in nadzore dostopa na strani pridobivanja. Kot pravi Jan Overney, CTO podjetja Squirro, »Leta 2025 pridobitveno-razširjena generacija ni le rešitev; je strateška nuja, ki se neposredno loteva teh ključnih izzivov podjetij,« in premošča vrzel med zmogljivimi LLM-ji in nenehno rastočim znanjem organizacije [26].
Povzetek, zakaj je RAG pomemben: omogoča, da je AI natančnejši, zanesljivejši, ažurnejši in prilagodljivejši. Uporabniki dobijo boljše odgovore (z dokazi, ki jih podpirajo), organizacije pa lahko uvedejo AI pomočnike, ki resnično poznajo njihovo lastniško znanje brez kršenja proračuna ali pravil. To je pristop, ki koristi vsem in generativni AI spremeni iz zanimivega trika v zanesljivo orodje za resnične naloge.
Ključni primeri uporabe in aplikacije
Zmožnost RAG za vnos domenskega znanja in podatkov v realnem času je odklenila širok nabor visoko učinkovitih primerov uporabe za AI sisteme. Nekatere najpomembnejše aplikacije vključujejo:
- Inteligentni klepetalni roboti in virtualni asistenti: Klepetalni roboti, ki jih poganja RAG, lahko obravnavajo veliko bolj zapletena vprašanja kot običajni boti. Odgovore črpajo iz zbirk znanja, dokumentacije ali spleta v realnem času, kar omogoča agentom za podporo strankam, IT helpdesk botom in virtualnim asistentom, da nudijo zelo natančne, na kontekst vezane odgovore. Na primer, interni HR klepetalni robot, ki uporablja RAG, lahko takoj pridobi najnovejši dokument s politiko podjetja in odgovori na vprašanje zaposlenega o ugodnostih, namesto da poda splošen odgovor. Podobno lahko klepetalni robot za stranke na spletni trgovini poišče specifikacije izdelka ali podatke o zalogi za odgovor na konkretno vprašanje o izdelku. Ti klepetalni roboti učinkovito »klepetajo« s podatki podjetja in zagotavljajo ustrezne odgovore, kar vodi do večjega zadovoljstva uporabnikov. V praksi so AI klepetalni roboti na osnovi RAG pokazali merljive koristi – kot so povečanje angažiranosti strank in konverzije prodaje v maloprodaji ter znatno izboljšanje časa odziva na vprašanja zaposlenih v HR oddelku [27].
- Upravljanje znanja v podjetjih: Podjetja uporabljajo RAG za gradnjo AI sistemov, ki delujejo kot izkušeni notranji svetovalci. Asistenta, ki ga poganja RAG, je mogoče usmeriti na obsežne zbirke dokumentov podjetja – wike, priročnike, poročila, e-pošto – in zaposlenim omogočiti poizvedovanje v naravnem jeziku. To ima velik vpliv na produktivnost in podporo pri odločanju. Inženirji lahko sistemskega klepetalnega robota vprašajo za zahteve iz preteklih projektnih dokumentov; pravniki lahko poizvedujejo AI, usposobljenega na preteklih primerih in predpisih; novi zaposleni se lahko hitro vključijo z vprašanji notranjemu wiki botu. V bistvu RAG spremeni organizacijske podatke v poizvedljivo AI bazo znanja in razbija informacijske silose. Do leta 2025 mnoga podjetja poročajo, da RAG postaja hrbtenica dostopa do znanja v podjetju – zagotavlja, da zaposleni dobijo natančne, ažurne odgovore iz množice podatkov podjetja, ob upoštevanju dovoljenj za dostop in skladnosti [28].
- Podpora strankam in tehnični helpdeski: RAG spreminja potek dela v podpori. Predstavljajte si agenta tehnične podpore, ki rešuje zapleteno programsko težavo prek klepeta – z RAG lahko asistent v realnem času preišče priročnike, pogosta vprašanja in celo trenutna poročila o napakah [29]. AI lahko poišče ustrezen vodič za odpravljanje težav ali interni ticket, ki ustreza kodi napake, in nato predlaga rešitev po korakih. To bistveno skrajša čas do rešitve, saj imata tako AI kot človeški agent takoj na voljo točne informacije, ki jih potrebujeta. Prav tako zagotavlja, da so nasveti dosledni in pravilni (temeljijo na uradni dokumentaciji). Zato podjetja, kot so banke, telekomi in programska podjetja, uvajajo podporne bote na osnovi RAG za izboljšanje izkušnje strank in razbremenitev klicnih centrov. Ti sistemi so odlični pri obravnavi redkih vprašanj in zapletenih, večstopenjskih težav, saj lahko po potrebi pridobijo nišne informacije.
- Raziskovanje in ustvarjanje vsebin: Drugo področje so naloge, ki zahtevajo poglobljeno raziskovanje ali sintezo vsebin. RAG sistemi lahko pomagajo piscem, analitikom ali študentom z iskanjem dejstev in referenc v velikih količinah besedil. Na primer, pravne raziskovalne asistente, ki jih poganja RAG, lahko poiščejo ustrezno sodno prakso in zakone za pomoč pri pripravi pravnega mnenja. Medicinski AI asistenti lahko pridobijo najnovejše članke iz revij ali podatke o pacientih, ko zdravnik postavi diagnostično vprašanje, s čimer pomagajo pri kliničnih odločitvah. Finančni analitiki lahko poizvedujejo po tržnih podatkih ali poročilih in prejmejo AI-generiran povzetek, ki temelji na teh virih. Pomembno je, da AI navaja vire, zato lahko strokovnjaki preverijo informacije. Ta uporaba RAG kot raziskovalnega asistenta pospešuje delovne procese, ki vključujejo prebiranje velikih količin besedil za specifične odgovore ali vpoglede.
- Personalizirana priporočila in podatkovne poizvedbe: Nekatere aplikacije združujejo RAG z uporabniško specifičnimi podatki za personalizirane rezultate. Na primer, osebni AI e-poštni asistent lahko pri pripravi povzetka ali odgovora poišče podrobnosti iz vašega koledarja, preteklih e-poštnih sporočil ali datotek. Ali pa lahko prodajni AI orodje pridobi podatke o podjetju potencialne stranke in najnovejše novice, da prodajalcu pomaga oblikovati prilagojeno ponudbo. To so v bistvu specializirani primeri RAG: iskanje poteka v osebnih ali kontekstno specifičnih podatkovnih zbirkah, generiranje pa ustvari prilagojen rezultat (kot je personalizirano priporočilo ali povzetek). Ta vzorec se širi celo na agenske AI sisteme – večstopenjske AI »agente«, ki uporabljajo RAG kot obliko spomina. Leta 2025 številni eksperimentalni AI agenti uporabljajo RAG mehanizem za shranjevanje in priklic informacij skozi daljše naloge ali pogovore (na primer, da si zapomnijo uporabnikove preference ali prejšnja navodila) [30]. Ta sinergija med RAG in AI agenti omogoča bolj zapletene, večkrožne interakcije, ki ostajajo koherentne in informirane skozi čas.
- Strokovni sistemi za specifična področja: Podjetja vse pogosteje združujejo LLM-je s svojimi lastniškimi podatki za ustvarjanje strokovnih AI za posamezne panoge. CIO Goldman Sachs Marco Argenti poudarja, da bodo podjetja povezala AI s svojimi zasebnimi podatkovnimi zbirkami z RAG (ali fine-tuningom), da bodo ustvarila »velike strokovne modele« – AI specialiste za medicino, finance, pravo itd., ki poznajo najnovejše strokovno znanje [31]. Na primer, farmacevtsko podjetje lahko uvede RAG-model, ki ima dostop do internih raziskovalnih člankov in rezultatov eksperimentov, s čimer postane strokovni asistent za znanstvenike pri razvoju novih zdravil. Ta koncept LLM-jev kot strokovnjakov temelji predvsem na iskanju: model ostaja splošnonamenski, vendar je nadgrajen z globokim virom strokovno specifičnih informacij pri odgovarjanju. Rezultat je AI, ki tekoče uporablja žargon in dejstva s področja. To že vidimo pri specializiranih klepetalnikih, kot sta BloombergGPT za finance ali klinični asistenti v zdravstvu, ki uporabljajo RAG tehnike za vključevanje lastniških podatkov (tržni podatki, medicinska literatura itd.) in zagotavljajo zelo natančne, relevantne odgovore.
Ti primeri so le površinski prikaz. Praktično vsaka aplikacija umetne inteligence, ki zahteva dejstveno natančnost, ažurno znanje ali prilagoditev določenemu naboru podatkov, lahko izkoristi RAG [32]. Od interaktivnih iskalnikov (npr. novi val iskalnih botov, kot so Bing Chat, YouChat ali Brave’s Summarizer, ki odgovarjajo na poizvedbe s citiranimi spletnimi rezultati) do kreativnih orodij (kot so asistenti za programiranje, ki med generiranjem kode pridobijo dokumentacijo API), se RAG izkazuje kot vsestranski okvir. Omogoča, da umetna inteligenca ne le generira vsebino, temveč tudi pridobiva, sklepa in nato odgovarja, kar odpira večkrat več aplikacij kot uporaba izoliranega modela [33]. Kot je zapisano v enem izmed člankov NVIDIA, lahko z RAG »uporabniki v bistvu vodijo pogovore z podatkovnimi repozitoriji,« kar pomeni, da so možni primeri uporabe tako široki, kot so široki viri podatkov, ki jih povežete [34].
Prednosti pristopa RAG
Hitro sprejemanje generacije, podprte z iskanjem, poganja več jasnih prednosti v primerjavi z uporabo zgolj LLM-jev:
- Boljša natančnost in manj halucinacij: Ker so odgovori utemeljeni na pridobljenih dokazih, je sistem RAG veliko manj verjetno, da bo izmišljeval stvari. Model primerja svoj generativni izhod z resničnimi podatki, kar vodi do dejstveno pravilnih in relevantnih odgovorov. Študije in industrijska poročila kažejo na dramatičen padec stopnje halucinacij – nekateri RAG klepetalniki za podjetja dosegajo natančnost v razponu 95–99 % pri poizvedbah s specifičnega področja, kjer bi osnovni model pogosto zašel s poti [35]. Uporabniki so lahko prepričani, da so odgovori osnovani na resničnih podatkih, ne le na domišljiji umetne inteligence [36].
- Ažurne informacije: RAG omogoča umetni inteligenci, da ostaja na tekočem z novimi informacijami. Sistem lahko pridobi najnovejše razpoložljive podatke (naj bo to današnja novica, podatkovna baza, posodobljena danes zjutraj, ali dokument, dodan pred nekaj minutami), s čimer zaobide zastarelost znanja, ki je značilna za mnoge LLM-je. To je ključno za področja, kot so finance, novice, predpisi ali tehnologija, kjer se informacije pogosto spreminjajo. Ni več umetne inteligence, zamrznjene v času – RAG bot, povezan z živim indeksom, lahko odgovarja na vprašanja o včerajšnjem dogodku prav tako dobro kot o zgodovinskih.
- Strokovno znanje na zahtevo: RAG omogoča t. i. takojšnjo specializacijo. Ni vam treba imeti posebej izurjenega modela za vsako področje – en sam LLM je mogoče prilagoditi kateremukoli področju z zagotavljanjem ustreznega referenčnega gradiva ob času poizvedbe. To pomeni, da lahko AI storitev podpira več področij znanja (na primer, bazo znanja za zavarovanja in bazo znanja za medicino) s preklapljanjem konteksta iskanja, namesto da bi vzdrževali ločene modele. Prav tako to pomeni, da lahko podjetje uvede zmogljive AI pomočnike brez učenja modela na občutljivih internih podatkih – model se uči v realnem času iz pridobljenih dokumentov. Odgovori so natančno prilagojeni kontekstu, ki ga zagotavljajo ti dokumenti [37], zaradi česar je AI dejansko tako dober, kot je skupno znanje v viru podatkov.
- Transparentnost in sledljivost: Za razliko od modela črne škatle, ki preprosto poda odgovor, sistemi RAG pogosto prikažejo vir resnice za odgovorom. Številne implementacije prikazujejo citate ali reference (tako kot ta članek). To močno poveča zaupanje uporabnikov in je velika prednost za skladnost in revizijsko sledljivost[38]. Če virtualni agent reče “garancija traja 2 leti,” lahko prav tako poda povezavo do točnega dokumenta in razdelka, ki to trditev potrjuje. Za regulirane panoge ali katerokoli situacijo, kjer morate preveriti delo AI, je ta sledljivost neprecenljiva. Učinkovito pretvori AI v koristnega vodiča, ki vas usmeri do vira odgovora, namesto v orakelj, kateremu bi morali slepo verjeti.
- Ni potrebe po stalnem ponovnem učenju: Ker je mogoče nove podatke kadarkoli dodati v indeks iskanja, ni treba ponovno učiti osnovnega LLM vsakič, ko se vaše znanje spremeni. To bistveno zmanjša vzdrževalna prizadevanja. Fino prilagajanje velikega modela ob vsaki posodobitvi podatkov ni le drago – lahko prinese nove napake ali zahteva izpad delovanja. RAG to prepreči. Kot ugotavljajo raziskovalci IBM, utemeljevanje modela na zunanjih dejstvih “zmanjšuje potrebo po stalnem učenju modela na novih podatkih”, kar znižuje tako računske kot finančne stroške [39]. Nadgradnja znanja vašega AI postane tako preprosta kot posodobitev iskalnega indeksa ali nalaganje novih dokumentov v bazo podatkov.
- Učinkovitost in razširljivost: RAG je lahko tudi bolj učinkovit pri izvajanju. Zahtevno iskanje po podatkovni bazi je mogoče optimizirati s specializirano iskalno infrastrukturo (kot so vektorske baze podatkov, predpomnjenje itd.), kar je pogosto ceneje in hitreje kot, da bi vse nekritično pošiljali v kontekst LLM. In ker LLM vidi le osredotočen povzetek relevantnih informacij (namesto da bi poskušal v svoj poziv ali parametre stlačiti vse mogoče znanje), lahko svoj kontekstni okvir uporablja bolj učinkovito. To omogoča obvladovanje velikih baz znanja – morda imate indeksiranih milijone dokumentov, a model za vsak poizvedbo prejme le najboljših 5 ali 10 odlomkov. Pristop je po naravi razširljiv: ko vaši podatki rastejo, posodobite indeks, ne modela. Pravzaprav so tehnološka podjetja zgradila celotne vektorske iskalnike in platforme (Pinecone, Weaviate, FAISS itd.), ki služijo kot iskalna hrbtenica za RAG sisteme in zagotavljajo, da je mogoče tudi med milijardami podatkov hitro najti prave.
- Nadzorovano znanje in varnost: Pri RAG, še posebej v podjetniškem okolju, lahko eksplicitno nadzorujete, do katerih informacij ima AI dostop. Če so določeni dokumenti zaupni ali če nekateri viri niso zaupanja vredni, jih preprosto ne vključite v iskalni korpus. To je v ostrem nasprotju z velikim vnaprej naučenim modelom, ki je morda zaužil vse mogoče neznano besedilo z interneta (in ga lahko tudi ponovi). RAG omogoča organizacijam uveljavljanje upravljanja podatkov: npr. AI ostane brez povezave, razen kadar poizveduje po odobrenem internem repozitoriju. Prav tako se zmanjša možnost, da bi model nenamerno “izdal” učne podatke, saj se model ne zanaša na zapomnjeno vsebino, temveč pridobiva iz preverjene shrambe. Kot poudarjajo strokovnjaki IBM, z utemeljevanjem odgovorov na preverljivih zunanjih podatkih ima RAG sistem manj možnosti, da bi iz svojih notranjih parametrov potegnil občutljive ali neprimerne informacije [40]. V bistvu AI pove le tisto, kar mu je dovoljeno najti.
Te prednosti naredijo RAG privlačno rešitev povsod, kjer so natančnost, ažurnost informacij in zaupanje najvišje prioritete – zato ga tudi toliko organizacij sprejema. Združuje prednosti velikih LLM-jev (tekoč jezik in sklepanje) ter jih dopolnjuje s prednostmi iskalnikov (natančnost in dejstvena utemeljenost). Rezultat je AI, ki je hkrati pameten in zanesljiv.
Omejitve in izzivi
Čeprav je RAG zmogljiv, ni čudežna rešitev. Integracija iskanja in generacije prinaša svoje izzive in kompromise, na katere morajo biti praktiki pozorni:
- Kakovost iskanja je pomembna: RAG sistem je dober le toliko, kot so dobre informacije, ki jih pridobi. Če iskalna komponenta odpove – npr. spregleda pomemben dokument ali pridobi nekaj nepovezanega s temo – bo odgovor modela slabši. V nekaterih primerih lahko AI celo poskuša “zapolniti” vrzeli, kar vodi v napake. Zagotavljanje, da iskalnik vrne zelo relevantne, pravilne rezultate (in dovolj le-teh), je področje aktivnega razvoja. To je odvisno od dobrih vdelav, ažurnih indeksov in včasih tudi pametne obdelave poizvedb. Težke “nišne” poizvedbe ali dvoumna vprašanja lahko še vedno zmedejo RAG, če ni dovolj konteksta. Skratka, smeti noter, smeti ven: generacija bo le toliko dejanska, kot so dokumenti, ki jih prejme.
- Pristranskosti in napake v virih podatkov: RAG podeduje prednosti in slabosti svojih virov podatkov. Če vaša baza znanja vsebuje zastarele ali pristranske informacije, jih lahko AI predstavi kot resnico. Na primer, če interna wiki podjetja ni posodobljena ali vsebuje napačen vnos, lahko RAG asistent to napako ponovi v svojem odgovoru. Za razliko od čistega LLM, ki lahko poda uravnotežen splošen pogled, lahko RAG sistem preveč zaupa enemu viru. Da bi to omilili, morajo organizacije vzdrževati visokokakovostne, preverjene vire znanja. Pristranskost v dokumentih (npr. zgodovinski podatki, ki odražajo družbene pristranskosti) lahko prav tako vpliva na odgovore. Kuratorka korpusa in raznolikost virov sta pomembni za reševanje tega izziva [41].
- Zakasnitev in kompleksnost: Uvedba iskalnega koraka lahko doda nekaj zakasnitve pri odgovorih. Tipičen RAG proces lahko vključuje iskanje vdelav ali klic iskalnega API-ja, kar traja nekaj sto milisekund ali več, še posebej pri zelo velikih korpusih ali če je opravljenih več iskanj (za večstopenjska vprašanja). To je na splošno sprejemljivo za večino aplikacij klepetalnikov, lahko pa je težava pri zahtevah po izjemno nizki zakasnitvi. Poleg tega gradnja in vzdrževanje infrastrukture – indeksov, vektorskih baz podatkov, procesnih tokov – doda kompleksnost sistema v primerjavi s samostojnim modelom. Več je delov, ki jih je treba usklajevati (čeprav so se pojavili ogrodja, kot sta LangChain ali LlamaIndex, ki pri tem pomagajo). Skaliranje te arhitekture (za obravnavo številnih sočasnih poizvedb ali zelo velikih podatkov) zahteva inženirski napor. Vendar pa ponudniki v oblaku in nova orodja hitro izboljšujejo enostavnost uvajanja RAG v večjem obsegu.
- Omejitve Top-K in kontekstnega okna: Model lahko obdela le določeno količino pridobljenega besedila. Odločitev, koliko dokumentov (in katere njihove dele) vključiti v LLM, ni trivialen problem. Če zagotovite premalo, lahko odgovor izpusti ključne podrobnosti; če preveč, tvegate preobremenitev kontekstnega okna ali zmanjšanje relevantnosti (da ne omenjamo višjih stroškov žetonov). Pogosto gre za iskanje ravnovesja med vključitvijo dovolj konteksta in ostajanjem znotraj omejitev modela. Tehnike, kot je razdeljevanje na kose (deljenje dokumentov na dele), pomagajo, vendar če en sam odgovor resnično zahteva informacije iz, recimo, 50 strani besedila, bodo trenutni modeli težko vse to vključili naenkrat. Pojavljajo se modeli z dolgim kontekstom (z okni več deset tisoč žetonov), kar to olajša, vendar prinašajo višje računske stroške. Odločanje o optimalnih “top-K” dokumentih za pridobitev pri vsaki poizvedbi ostaja področje za optimizacijo [42].
- Zahtevnost integracije in vzdrževanja: Uvedba RAG zahteva več osnovne infrastrukture kot uporaba že pripravljenega klepetalnega robota. Ekipe morajo poskrbeti za vnos podatkov (vnos vse relevantne vsebine v sistem), vektorizacijo (vgnezdenje dokumentov), indeksiranje in redno posodabljanje baze znanja. Vsak od teh korakov – kot tudi končna kakovost odgovorov – lahko zahteva spremljanje in prilagajanje. Na primer, morda boste morali posodobiti vektorje, če dodate veliko novih podatkov, ali prilagoditi iskalni algoritem, če ugotovite, da izpušča rezultate. Izziv je tudi usklajevanje poteka dela med iskalnikom in LLM, zlasti v zapletenih primerih ali pri uporabi agentskega vedenja (iterativno iskanje). Razhroščevanje RAG sistema je lahko tudi težje – preveriti morate, ali je težava na strani iskanja ali generiranja. Vse to pomeni, da ima implementacija RAG določeno učno krivuljo, majhne ekipe pa morajo pretehtati, ali bodo uporabile upravljano storitev ali vlagale v znanje za pravilno izgradnjo sistema.
- Skrbi glede zasebnosti in varnosti: Če iskanje pridobiva podatke iz zunanjih virov (kot je spletno iskanje) ali uporablja zunanjo oblačno vektorsko bazo, lahko pride do varnostnih vprašanj. V poslovnih primerih je ključno zagotoviti, da lastniške poizvedbe ali podatki ne uhajajo. Tudi znotraj organizacije lahko RAG asistent nenamerno razkrije informacije uporabniku, ki do njih ne bi smel imeti dostopa (če nadzor dostopa do dokumentov ni ustrezno urejen). Zato morajo biti vzpostavljene dodatne varovalke in preverjanja dovoljenj. Nekatera podjetja to rešujejo tako, da celotno RAG rešitev izvajajo lokalno ali v zasebnem oblaku. Zasebnost je manjša težava, kadar RAG uporablja zaprt repozitorij, vendar je to treba upoštevati, če zasnova vključuje spletno iskanje ali deljeno infrastrukturo [43].
- Preostale halucinacije ali napake pri sintezi: Čeprav RAG močno zmanjša halucinacije, jih ne odpravi popolnoma. Model lahko napačno interpretira pridobljeno besedilo ali ga nepravilno združi. Na primer, če imata dva dokumenta nekoliko nasprotujoče si informacije, jih lahko LLM združi v zmeden odgovor. Ali pa model navede vir, vendar iz njega vseeno izpelje napačen zaključek. Zagotavljanje, da je ustvarjen odgovor zvest izvirnemu gradivu, ostaja stalen izziv. Tehnike, kot so navodila modelu, naj uporablja le podane informacije, ali celo dodatno učenje na naboru podatkov z razširjenim iskanjem, lahko pomagajo. Nekatere napredne implementacije RAG vključujejo končni korak preverjanja, kjer se odgovor preveri glede na vire (včasih z drugim AI ali z eksplicitnimi pravili), da se ujamejo nepodprte trditve. Kljub temu naj bodo uporabniki previdni in naj odgovore RAG obravnavajo kot asistirane izhode, ne kot absolutno resnico.
Kljub tem izzivom je soglasje v industriji in raziskavah, da koristi RAG v večini primerov močno presegajo težave. Veliko omejitev se aktivno rešuje z novimi raziskavami (npr. boljši algoritmi iskanja, hibridno iskanje s ključnimi besedami + vektorji, večja kontekstna okna itd.) [44]. Na primer, raziskuje se grafovno razširjeni RAG (uporaba znanjskih grafov za izboljšanje konteksta iskanja) in “adaptivno” iskanje, kjer lahko LLM po potrebi postavi dodatna vprašanja [45]. Ti napori želijo narediti RAG bolj robusten tudi za kompleksna, večstopenjska vprašanja. Omeniti velja tudi, da nekateri kritiki menijo, da bodo prihodnji LLM-ji vključevali toliko znanja ali sprotnega sklepanja, da eksplicitno iskanje ne bo več potrebno (“RAG je anti-vzorec,” kot je zapisal provokativen naslov bloga [46]). Vendar pa je leta 2025 RAG še vedno najbolj praktična metoda za zagotavljanje, da imajo AI sistemi tako možgane kot ažurno znanje. Dodatna kompleksnost je majhna cena za AI, ki lahko podpre svoje trditve in obvladuje potrebe po informacijah iz resničnega sveta.
Razvoj in trendi v industriji (stanje 2025)
V zadnjih dveh letih smo bili priča eksplozivni rasti sistemov na osnovi RAG v tehnološki industriji. Kar se je leta 2020 začelo kot raziskovalna ideja, je leta 2025 postalo glavni tok, saj velika podjetja in zagonska podjetja tekmujejo, kdo bo v svoje AI rešitve vključil generiranje z razširjenim iskanjem. Tukaj je nekaj pomembnih novosti in trenutnih trendov:
- Sprejemanje s strani velikih tehnoloških podjetij: Vsi veliki ponudniki umetne inteligence in oblaka zdaj ponujajo RAG rešitve. OpenAI je predstavil funkcije za pridobivanje znanja (ki omogočajo, da se ChatGPT poveže s podatki podjetja ali spletom), Microsoft je vgradil RAG v svoji storitvi Azure Cognitive Search in Azure OpenAI, Google je lansiral Vertex AI Search za podjetja, Amazonova platforma Bedrock pa vključuje upravljane Knowledge Bases – vse z namenom, da podjetjem olajšajo dodajanje iskanja v generativno umetno inteligenco [47]. Microsoftov Bing Chat, izdan v začetku leta 2023, je bil eden prvih odmevnih klepetalnikov na osnovi RAG, ki je združeval GPT-4 z iskanjem po spletu v živo z odličnim učinkom. Google je sledil z Bardom in nato s svojo Search Generative Experience (SGE), ki prav tako uporablja LLM-je na vrhu rezultatov iskanja Google. Ti izdelki so učinkovito spremenili iskalnike v AI klepetalnike, ki uporabljajo RAG za odgovarjanje na poizvedbe s citati. Kot je zapisal en članek, “Danes ga vidite v uporabi v vseh vrstah AI izdelkov” – res je, od iskanja do produktivnostnih aplikacij, RAG je povsod [48][49].
- Podjetniške platforme in storitve: Obstaja rastoči ekosistem podjetniško usmerjenih RAG platform. Na primer, Microsoft Azure AI Search (v kombinaciji z Azure OpenAI) ponuja predlogo za RAG: usmerite ga na svoje podatke (SharePoint, baze podatkov itd.), on pa poskrbi za indeksiranje in iskanje, da lahko LLM generira odgovore [50]. IBM-ova platforma Watsonx prav tako izpostavlja RAG zmogljivosti, IBM Research pa je objavil vodiče za gradnjo RAG procesov za podjetja [51]. Startupi kot so Glean (podjetniško iskanje), Elastic in Lucidworks so integrirali generiranje odgovorov z LLM na vrhu svoje iskalne tehnologije. Tudi podjetja z bazami podatkov se pridružujejo: Pinecone (startup z vektorsko bazo podatkov) je postal ključni omogočevalec za RAG, tradicionalne baze podatkov kot so Redis, Postgres (s pgvector) in OpenSearch pa so dodale funkcije vektorskega iskanja za podporo tem delovnim obremenitvam. Industrija se približuje ideji, da bo vsako podjetje želelo klepetalnik, ki lahko komunicira z njihovimi lastniškimi podatki, in več ponudnikov se poteguje za to, da bi zagotovili orodja za to.
- Pomembne združitve in naložbe: Pomen tehnologije iskanja podatkov poudarjajo nekateri veliki premiki – na primer, OpenAI (podjetje za ChatGPT) je sredi leta 2024 prevzelo Rockset, podatkovno bazo za analitiko in iskanje v realnem času [52]. To je bilo splošno razumljeno kot poteza za okrepitev OpenAI-jeve infrastrukture za iskanje podatkov za svoje modele (kar omogoča hitrejše in zmogljivejše RAG-zmožnosti za izdelke, kot je ChatGPT Enterprise). Leta 2025 je OpenAI investiral tudi v Supabase, odprtokodno podatkovno bazo v ozadju, kar nakazuje, da tudi podjetja za AI modele vidijo shranjevanje/iskanje podatkov kot strateško področje [53]. V letih 2023–2024 smo bili priča tudi velikim krogom financiranja za podjetja z vektorskimi podatkovnimi bazami (Pinecone, Weaviate, Chroma itd.), ki v bistvu poganjajo “spominski sloj” umetne inteligence. Prevzemi in naložbe poudarjajo trend: ponudniki LLM se pomikajo nižje v tehnološkem skladu, da bi obvladali plast iskanja podatkov, podatkovne platforme pa se pomikajo navzgor, da bi integrirale LLM-je – vsi se srečujejo na sredini pri RAG.
- Razmah orodij in ogrodij: Skupnosti odprte kode so razvile številna orodja za poenostavitev gradnje RAG-aplikacij. LangChain, odprtokodno ogrodje, je postalo zelo priljubljeno za povezovanje LLM-jev z iskanjem podatkov in drugimi dejanji. LlamaIndex (GPT Index) je drugo orodje, ki posebej pomaga povezati LLM-je z vašimi viri podatkov z ustvarjanjem indeksov. Meta (Facebook) je izdala LLM.nsys / Retrieval Augmentation Toolkit in druga orodja kot odprto kodo. Medtem je NVIDIA objavila celotno referenčno arhitekturo za RAG (“RAG AI Blueprint”), da bi podjetjem pomagala učinkovito uvajati te sisteme [54]. Pojavljajo se celo rešitve “RAG-kot-storitev” – na primer, nekatera svetovalna podjetja in zagonska podjetja ponujajo storitve, kjer vzamejo podatke stranke in hitro vzpostavijo RAG klepetalnika zanjo [55]. Vse to pomeni, da ima podjetje, ki želi uvesti RAG v letu 2025, na voljo bogat nabor možnosti: od lastne izdelave z odprto kodo, do oblačnih API-jev in že pripravljenih rešitev, odvisno od želene mere prilagoditve ali udobja [56]. Napredno raziskovanje RAG: Na raziskovalnem področju so leta 2024 in 2025 še naprej izpopolnjevali tehnike RAG. Nekatere pomembne smeri vključujejo Graph RAG (vključevanje znanjskih grafov v iskanje za ohranjanje odnosov med dejstvi) [57], hibridno iskanje (združevanje iskanja po ključnih besedah in vektorjih za boljše razumevanje poizvedb) ter modularne RAG cevovode, ki obravnavajo kompleksne poizvedbe v več korakih [58]. Raziskovalci preučujejo tudi dinamično iskanje, kjer lahko LLM po potrebi večkrat zahteva dodatne informacije (s čimer se RAG spremeni v konverzacijsko iskanje). Druga zanimiva novost je tesnejša integracija med iskanjem in generiranjem na arhitekturni ravni – na primer pristopi, kjer do iskanja pride med inferenco modela (kot so Retro, Retriever-augmented attention ipd.), kar zabriše mejo med iskanjem in generiranjem [59]. Čeprav so ti pristopi trenutno večinoma eksperimentalni, obetajo še učinkovitejše in inteligentnejše sisteme. Multimodalni RAG je še ena nova smer – uporaba slik ali drugih podatkov v procesu iskanja (predstavljajte si AI, ki lahko poleg besedila “poišče” tudi diagram ali zvočni posnetek). In končno, razprave o RAG so pogosto prepletene z vzponom AI agentov: kot omenjeno, je leta 2025 veliko govora o sistemih, ki načrtujejo naloge in uporabljajo orodja. Ti agenti pogosto uporabljajo RAG kot svoj spomin za shranjevanje informacij med posameznimi koraki [60]. Na primer, agent, ki rešuje kompleksen problem, lahko poišče dokumente, zabeleži vmesne rezultate (v vektorsko shrambo), nato pa te zapiske kasneje ponovno pridobi. Ta sinergija nakazuje, da bo RAG temeljna komponenta ne le za Q&A bote, temveč tudi za bolj avtonomne AI sisteme, ki jih načrtujejo.
- Zgodbe o uspehu iz resničnega sveta: Do sredine leta 2025 smo videli uvedbo RAG v številnih panogah. Na primer v zdravstvu je Mayo Clinic preizkusila “AI pomočnika zdravnika”, ki uporablja RAG za povezovanje dialoga na osnovi GPT z najnovejšo medicinsko literaturo in podatki o pacientih ter tako zdravnikom pomaga do odgovorov s sklici na vire. Startup podjetja v pravni tehnologiji ponujajo AI odvetnike, ki poiščejo relevantno sodno prakso za vsako zastavljeno vprašanje. Banke so uporabile RAG za notranja orodja za oceno tveganja, ki črpajo besedila o politikah in skladnosti, da zagotovijo, da so odgovori skladni s predpisi. Na strani potrošnikov so aplikacije, kot je Perplexity.ai, postale priljubljene z nudenjem izkušnje “Google + ChatGPT”, kjer vsako vprašanje prinese pogovorni odgovor s citati, zahvaljujoč RAG v ozadju [61]. Tudi družbena omrežja so se vključila – konec leta 2023 je X (Twitter) napovedal Grok, AI klepetalnik, integriran z aktualnimi Twitter trendi in znanjem (Elon Musk ga je označil kot “zelo natančnega” z najnovejšimi informacijami prek multi-agentnega RAG pristopa) [62]. Ti primeri kažejo, kako se je RAG premaknil iz teorije v prakso: skoraj vsi “AI kopiloti”, ki potrebujejo specifično znanje, ga uporabljajo. Kot je povzel en strokovnjak: RAG “izboljšuje natančnost AI modelov z iskanjem relevantnih informacij iz več zunanjih virov”, in svojo vrednost dokazuje povsod – od oglaševanja do financ in podpore strankam [63].
Če pogledamo stanje avgusta 2025, je jasno, da je RAG “dozorel”. Daleč od tega, da bi bil le nišni trik, je zdaj osrednja arhitektura za uvedbo AI. Podjetja, ki želijo zanesljiv, na področje usmerjen AI, vse pogosteje ugotavljajo, da je pridobivanje + generacija prava pot [64]. Posledično se baze znanja in LLM-ji zbližujejo: iskalniki dodajajo generativne zmožnosti, generativni modeli pa se povezujejo z iskalnimi sposobnostmi. Ta hibridni pristop poganja naslednjo generacijo klepetalnikov, virtualnih pomočnikov in AI agentov, s katerimi se vsakodnevno srečujemo.
Zaključek
Retrieval-Augmented Generation predstavlja močno združitev tehnologije iskalnikov z naprednimi jezikovnimi modeli AI. S tem, ko AI sisteme naučimo, da “odprejo knjigo” in pridobijo točno tisto znanje, ki ga potrebujejo, RAG naredi te sisteme veliko bolj uporabne in vredne zaupanja. Prekine prepad med surovo AI genialnostjo in informacijami iz resničnega sveta, kar zagotavlja, da naši klepetalniki in pomočniki ne zvenijo le pametno – ampak so pametni, z dejstvi, ki to podpirajo. Od podjetij, ki uvajajo notranje svetovalce na osnovi GPT, do potrošnikov, ki postavljajo zapletena vprašanja iskalnim botom, je RAG skriti delovni konj, ki zagotavlja potrebna dejstva in kontekst. Kot smo raziskali, ta pristop prinaša pomembne prednosti v natančnosti, relevantnosti in prilagodljivosti, čeprav uvaja tudi nove tehnične izzive za reševanje.
Leta 2025 je RAG v središču premika k umetni inteligenci, ki je globoko povezana z znanjem. Strokovnjaki ga vidijo kot temelj za gradnjo “ekspertnih AI” sistemov, prilagojenih vsakemu področju [65]. In z nenehnimi inovacijami lahko pričakujemo, da bo RAG postal še bolj brezhiben – morda bo nekega dne preprosto samoumevno, da ima vsak zmogljiv AI asistent vgrajene zmožnosti iskanja informacij. Zaenkrat bi moral vsak, ki želi izkoristiti AI za zanesljive, informirane odgovore, resno razmisliti o RAG paradigmi. To je odličen primer, kako lahko združevanje dveh tehnologij – iskanja in generacije – prinese nekaj večjega od vsote posameznih delov. Kot so predlagali Patrick Lewis in drugi, je generacija, okrepljena z iskanjem, morda res prihodnost generativne umetne inteligence, kjer naši AI modeli ne imajo le znanja, ampak natančno vedo, kje ga najti, ko ga potrebujemo [66].
Viri:
- InfoWorld – “Retrieval-augmented generation refined and reinforced”[67]
- NVIDIA Blog – “What Is Retrieval-Augmented Generation, aka RAG?”[68]
- Squirro Blog – “The State of RAG in 2025: Bridging Knowledge and Generative AI” [69]
- Forbes Tech Council preko BestOfAI – “The Rise Of Retrieval-Augmented Generation” [70]
- Ken Yeung, The AI Economy newsletter – Intervju z Dennisom Perpetuo [71]
- IBM Research Blog – “What is retrieval-augmented generation?” [72]
- Signity Solutions – “Top RAG Chatbot AI Systems… in 2025”[73]
- Goldman Sachs (Marco Argenti) – “Kaj pričakovati od umetne inteligence v letu 2025” [74]
References
1. medium.com, 2. medium.com, 3. blogs.nvidia.com, 4. research.ibm.com, 5. www.elumenotion.com, 6. research.ibm.com, 7. squirro.com, 8. learn.microsoft.com, 9. www.elumenotion.com, 10. blogs.nvidia.com, 11. blogs.nvidia.com, 12. blogs.nvidia.com, 13. blogs.nvidia.com, 14. thelettertwo.com, 15. thelettertwo.com, 16. research.ibm.com, 17. dataforest.ai, 18. dataforest.ai, 19. www.signitysolutions.com, 20. blogs.nvidia.com, 21. blogs.nvidia.com, 22. research.ibm.com, 23. www.infoworld.com, 24. www.infoworld.com, 25. www.infoworld.com, 26. squirro.com, 27. bestofai.com, 28. squirro.com, 29. dataforest.ai, 30. ragflow.io, 31. www.goldmansachs.com, 32. bestofai.com, 33. blogs.nvidia.com, 34. blogs.nvidia.com, 35. www.signitysolutions.com, 36. blogs.nvidia.com, 37. www.infoworld.com, 38. www.signitysolutions.com, 39. research.ibm.com, 40. research.ibm.com, 41. bestofai.com, 42. www.infoworld.com, 43. bestofai.com, 44. www.infoworld.com, 45. medium.com, 46. www.elumenotion.com, 47. www.infoworld.com, 48. dev.to, 49. github.blog, 50. learn.microsoft.com, 51. research.ibm.com, 52. ragflow.io, 53. ragflow.io, 54. blogs.nvidia.com, 55. www.prismetric.com, 56. www.infoworld.com, 57. medium.com, 58. www.infoworld.com, 59. ragflow.io, 60. ragflow.io, 61. www.signitysolutions.com, 62. www.signitysolutions.com, 63. bestofai.com, 64. squirro.com, 65. www.goldmansachs.com, 66. blogs.nvidia.com, 67. www.infoworld.com, 68. blogs.nvidia.com, 69. squirro.com, 70. bestofai.com, 71. thelettertwo.com, 72. research.ibm.com, 73. www.signitysolutions.com, 74. www.goldmansachs.com