- RAG znamená Retrieval-Augmented Generation, hybridný AI prístup, ktorý kombinuje veľký jazykový model s vyhľadávačom alebo databázou na získavanie externých znalostí pre podložené, aktuálne odpovede.
- V roku 2025 sa RAG stal strategickou nevyhnutnosťou pre modernú AI, poháňajúc inteligentné chatboty, podnikové asistentky a ďalšie kontextovo uvedomelé aplikácie.
- V praxi systém RAG najprv vyhľadá relevantné dokumenty zo zdroja znalostí, potom pripojí najlepšie úryvky k dotazu používateľa predtým, než LLM vygeneruje finálnu odpoveď.
- Patrick Lewis, ktorý viedol tím, ktorý vytvoril pojem „RAG“ v článku Facebook AI z roku 2020, opisuje RAG ako rastúcu rodinu metód predstavujúcich budúcnosť generatívnej AI.
- Ako hovorí Patrick Lewis, retrieval-augmented prístup môžete implementovať už v piatich riadkoch kódu.
- Mnohé RAG systémy vracajú spolu s odpoveďou aj zdroje, poskytujú názvy dokumentov alebo URL adresy na overenie a dôveru.
- RAG umožňuje aktuálne odpovede tým, že pri dopyte získava čerstvé informácie, čo umožňuje presné odpovede o nedávnych udalostiach alebo nových politikách.
- Znižuje priebežné náklady tým, že sa vyhýba úplnému pretrénovaniu; namiesto toho organizácie udržiavajú vyhľadávateľný index dát a model ho konzultuje podľa potreby.
- Významným príkladom použitia je AI asistent pre klinikov v Mayo Clinic, ktorý využíva RAG na prepojenie GPT-dialógu s aktuálnou medicínskou literatúrou a údajmi o pacientoch, so zdrojovými odkazmi.
- Do roku 2025 hlavní technologickí hráči ponúkajú RAG riešenia (akvizícia Rockset spoločnosťou OpenAI v roku 2024, Microsoft Azure OpenAI, Google Vertex AI Search, Amazon Bedrock) a prosperujúci ekosystém nástrojov ako LangChain a Pinecone.
Generatívna AI uchvátila predstavivosť, ale retrieval-augmented generation – známejšia ako RAG – prináša merateľný, podložený vplyv naprieč odvetviami [1]. Jednoducho povedané, RAG je hybridný AI prístup, ktorý kombinuje veľký jazykový model (LLM) s vyhľadávačom alebo databázou. Výsledok je ako keby ste super-inteligentnému chatbotovi dali prístup k vlastnej knižnici alebo webu: môže „vyhľadávať“ fakty v reálnom čase a použiť tieto informácie na vytváranie presnejších, aktuálnych odpovedí. Táto kombinácia vyhľadávania a generovania pomáha zmierniť halucinácie, ukotviť AI odpovede v reálnych zdrojoch a znížiť potrebu nákladného pretrénovania modelu [2], [3]. V roku 2025 sa RAG stal strategickou nevyhnutnosťou pre modernú AI – poháňajúc inteligentné chatboty, podnikových asistentov a ďalšie aplikácie, ktoré vyžadujú dôveryhodné, kontextovo uvedomelé znalosti.
Čo je RAG a ako funguje?
Retrieval-Augmented Generation (RAG) je AI rámec, ktorý zakotvuje model generujúci text na externých zdrojoch poznatkov [4]. Inými slovami, rozširuje LLM (ako GPT-4 alebo podobné) pridaním kroku vyhľadávania: keď AI dostane dotaz, najprv vyhľadá v kolekcii dokumentov alebo databáze relevantné informácie a potom použije tento materiál na pomoc pri generovaní svojej odpovede [5]. Tento prístup vypĺňa kritickú medzeru v tom, ako fungujú bežné LLM. Samostatný LLM je ako veľmi vzdelaný človek, ktorý píše skúšku bez pomôcok – spolieha sa iba na to, čo má v pamäti (vo svojich trénovaných parametroch). Naopak, RAG systém je ako skúška s povolenými materiálmi: model môže priebežne konzultovať externé texty pred odpovedaním [6].
Ako RAG funguje v praxi je jednoduché. Najprv používateľ položí otázku alebo zadá výzvu. Ďalej systém vyhľadá relevantné informácie zo zdroja poznatkov – môže to byť index webového vyhľadávania, vektorová databáza podnikových dokumentov, wiki články alebo akýkoľvek iný textový korpus. Napríklad, ak sa opýtate chatbota zákazníckej podpory na podrobnú otázku, RAG systém môže prehľadať interné súbory s politikami, príručky alebo znalostnú databázu podpory na kľúčové slová a súvisiaci obsah. Potom sú najrelevantnejšie úryvky alebo dokumenty vložené do výzvy, ktorá sa dá LLM (často ich pripojí k dotazu používateľa). Nakoniec LLM vygeneruje odpoveď, ktorá integruje získané fakty so svojím vlastným jazykovým porozumením [7], [8]. V podstate LLM „číta“ získaný materiál a vytvára zloženú odpoveď, podobne ako študent cituje zdroje v eseji. Tento proces zabezpečuje, že výstup je založený na reálnych údajoch, nie len na parametričnej pamäti modelu [9]. Mnohé RAG systémy tiež vracajú zdroje (napr. názvy dokumentov alebo URL) spolu s odpoveďou, aby si používatelia mohli informácie overiť a dôverovať im [10].
Na ilustráciu, Rick Merritt z NVIDIA ponúka užitočnú analógiu: sudca môže mať skvelé všeobecné znalosti práva, ale pri konkrétnom prípade pošle sudca koncipienta do právnickej knižnice, aby priniesol relevantné prípady a precedensy [11]. Tu je LLM sudcom a RAG je usilovný koncipient, ktorý dodáva presné potrebné fakty. Patrick Lewis – výskumník, ktorý viedol tím, ktorý vymyslel pojem „RAG“ v článku Facebook AI z roku 2020 – opisuje RAG ako „rastúcu rodinu metód“, o ktorej verí, že predstavuje budúcnosť generatívnej AI [12]. Prepojením výkonných generatívnych modelov s externými znalosťami umožňuje RAG AI prekročiť hranice opakovania trénovacích dát a namiesto toho dynamicky získavať nové informácie na požiadanie [13]. Stručne povedané, RAG mení LLM z uzavretej „všetko-vie“ knihy na odborníka s otvorenou knihou, ktorý vie citovať zdroje a držať krok s najnovšími informáciami.
Prečo je RAG dôležitý?
RAG sa dostal do popredia, pretože priamo rieši niektoré z najväčších obmedzení samostatných jazykových modelov AI. Halucinácie – tendencia LLM vymýšľať si odpovede, ktoré znejú vierohodne, ale sú nesprávne – sú obmedzené, keď má model k dispozícii skutočné dokumenty na odkazovanie. Ukotvením odpovedí vo faktoch RAG zvyšuje presnosť a dôveryhodnosť. „Dve najdôležitejšie veci, ktoré RAG robí v porovnaní s podnikovým využitím, sú, že nám umožňuje získať odpovede a mať ich dohľadateľné,“ hovorí Dennis Perpetua, globálny CTO v Kyndryl [14]. Inými slovami, dobre implementovaný systém RAG dokáže nielen nájsť správnu odpoveď, ale aj ukázať vám zdroj, z ktorého pochádza – čím dáva používateľom istotu, že odpoveď je možné overiť a dôverovať jej [15]. Luis Lastras, riaditeľ jazykových technológií v IBM Research, to podobne prirovnáva k prístupu s otvorenou knihou: „V systéme RAG žiadate model, aby odpovedal na otázku prehliadaním obsahu v knihe, namiesto toho, aby sa snažil spomenúť si fakty z pamäti.“ [16] To znamená, že používatelia (a vývojári) získavajú transparentnosť ohľadom prečo AI povedala to, čo povedala, čo je kľúčový faktor pri budovaní dôvery v AI výstupy.
Ďalšou veľkou výhodou je, že RAG udržiava AI aktuálnu. Tradičné LLM sú trénované na pevne danom datasete, ktorý môže časom zastarať – sú ako encyklopédie, ktoré sa po vydaní už nevedia aktualizovať [17]. RAG to rieši tým, že modelu umožňuje načítavať čerstvé informácie z dôveryhodných zdrojov v čase dopytu [18]. Táto schopnosť je neoceniteľná v rýchlo sa meniacich oblastiach. Napríklad asistent poháňaný RAG dokáže odpovedať na otázky o nedávnych udalostiach, novom výskume alebo aktualizovaných firemných politikách s presnosťou 95–99 %, pretože čerpá z aktuálnych, overených informácií namiesto zastaraných tréningových dát [19]. Odpovede sú kontextovo relevantné k danému momentu, čo je prelomové pre prípady použitia ako sú otázky na správy, živé zákaznícke dopyty alebo podpora rozhodovania v reálnom čase.Náklady a efektivita sú tiež kľúčovými dôvodmi, prečo je RAG dôležitý. Namiesto zdĺhavého dolaďovania obrovského LLM na každý nový dokument alebo doménu (čo je drahé a časovo náročné), RAG umožňuje oveľa ľahší prístup: udržiavajte si vyhľadávateľný index vašich dát a nechajte model, aby ho konzultoval podľa potreby. „Proces vieme implementovať už s piatimi riadkami kódu,“ poznamenáva Patrick Lewis a zdôrazňuje, že rozšírenie existujúceho modelu o retrieval je často rýchlejšie a lacnejšie ako pretrénovanie modelu na nové dáta [20]. To znamená, že organizácie môžu „za pochodu“ vymieňať nové zdroje znalostí[21]. Napríklad fintech spoločnosť môže pridať minulotýždňové trhové dáta do retrieval poolu svojho chatbota a okamžite tak umožniť botovi odpovedať na otázky o najnovších trendoch na burze – bez potreby pretrénovania modelu. RAG tak znižuje priebežné náklady na údržbu LLM nasadení a robí ich oveľa prispôsobivejšími na meniace sa informácie [22].
Rovnako dôležité pre podniky je, že RAG ponúka spôsob, ako bezpečne sprístupniť proprietárne dáta. Firemne špecifické a dôverné informácie často nie je možné použiť na trénovanie verejných modelov z dôvodu ochrany súkromia. S RAG model nemusí absorbovať dôverné dáta do svojich váh; jednoducho ich vyhľadá, keď je to potrebné. To umožňuje podnikom využívať interné znalosti (z wiki, databáz, PDF atď.) na získanie prispôsobených AI odpovedí bez toho, aby tieto dáta vystavili alebo ich odovzdali modelu tretej strany [23]. V skutočnosti jednou z hlavných výziev pri aplikovaní LLM na potreby biznisu bolo poskytnúť relevantné, presné znalosti z rozsiahlych firemných databáz modelu bez nutnosti dolaďovať samotný LLM [24]. RAG toto elegantne rieši: integráciou doménovo špecifických dát v čase vyhľadávania zabezpečuje, že odpovede AI sú presne prispôsobené vášmu kontextu (napríklad váš produktový katalóg alebo interný manuál), pričom jadro modelu zostáva všeobecné [25]. Podnik si zachováva plnú kontrolu nad svojimi proprietárnymi dátami a môže uplatňovať compliance, bezpečnostné a prístupové pravidlá na strane vyhľadávania. Ako hovorí CTO spoločnosti Squirro Jan Overney, „V roku 2025 nie je retrieval augmented generation len riešením; je to strategická nevyhnutnosť, ktorá priamo rieši tieto kľúčové podnikové výzvy,“ čím preklenuje priepasť medzi výkonnými LLM a neustále rastúcimi znalosťami organizácie [26].
Zhrnutie, prečo je RAG dôležitý: robí AI presnejšou, dôveryhodnejšou, aktuálnou a prispôsobiteľnou. Používatelia dostávajú lepšie odpovede (s dôkazmi na ich podporu) a organizácie môžu nasadiť AI asistentov, ktorí skutočne poznajú ich proprietárne informácie bez porušenia rozpočtu alebo pravidiel. Je to prístup výhodný pre obe strany, ktorý posúva generatívnu AI z vychytávky na spoľahlivý nástroj pre reálne úlohy.
Kľúčové použitia a aplikácie
Schopnosť RAG vkladať doménové znalosti a dáta v reálnom čase otvorila širokú škálu vysoko efektívnych použití pre AI systémy. Medzi najdôležitejšie aplikácie patria:
- Inteligentné chatboty a virtuálni asistenti: Chatboty poháňané RAG dokážu zvládnuť oveľa sofistikovanejšie otázky než štandardné boty. Odpovede čerpajú z databáz znalostí, dokumentácie alebo webu v reálnom čase, čo umožňuje zákazníckym servisným agentom, IT helpdesk botom a virtuálnym asistentom poskytovať mimoriadne presné, na kontext zamerané odpovede. Napríklad interný HR chatbot využívajúci RAG by mohol okamžite vyhľadať najnovší dokument o politike, aby odpovedal zamestnancovi na otázku o benefitoch, namiesto poskytnutia všeobecnej odpovede. Rovnako tak chatbot pre zákazníkov na e-commerce stránke by mohol vyhľadať špecifikácie produktu alebo údaje o zásobách, aby odpovedal na konkrétnu otázku o produkte. Tieto chatboty efektívne „chatujú“ s firemnými dátami, aby poskytli relevantné odpovede, čo vedie k vyššej spokojnosti používateľov. V praxi AI chatboty založené na RAG preukázali merateľné prínosy – ako napríklad zvýšenie zapojenia zákazníkov a konverzie predaja v maloobchode a výrazné zlepšenie času odozvy na HR otázky zamestnancov [27].
- Podnikové riadenie znalostí: Firmy využívajú RAG na budovanie AI systémov, ktoré fungujú ako šikovní interní konzultanti. Asistent s podporou RAG môže byť nasmerovaný na rozsiahle podnikové úložiská dokumentov – wiky, príručky, správy, e-maily – a umožniť zamestnancom klásť otázky v prirodzenom jazyku. To má obrovský vplyv na produktívnosť a podporu rozhodovania. Inžinieri sa môžu pýtať chatbota na návrh systému na požiadavky z minulých projektových dokumentov; právnici môžu klásť otázky AI trénovanej na minulých prípadoch a reguláciách; noví zamestnanci sa môžu rýchlo zorientovať kladením podrobných otázok internému wiki botovi. V podstate RAG premieňa organizačné dáta na dotazovateľnú AI databázu znalostí, čím rozbíja informačné silá. Do roku 2025 mnohé firmy uvádzajú, že RAG sa stáva chrbtovou kosťou prístupu k podnikovým znalostiam – zabezpečuje, že zamestnanci dostávajú presné, aktuálne odpovede z obrovského množstva firemných dát, pričom sú rešpektované prístupové oprávnenia a súlad s predpismi [28].
- Zákaznícka podpora a technické helpdesky: RAG mení pracovné postupy podpory. Predstavte si technického agenta, ktorý rieši zložitý softvérový problém cez chat – s RAG môže asistent vyhľadávať v príručkách, FAQ a dokonca aj v aktuálnych hláseniach o chybách v reálnom čase [29]. AI môže vyhľadať relevantný návod na riešenie problémov alebo interný tiket, ktorý zodpovedá chybovému kódu, a potom navrhnúť riešenie krok za krokom. To dramaticky skracuje čas na vyriešenie problému, pretože AI aj ľudský agent majú okamžite k dispozícii presné informácie, ktoré potrebujú. Zároveň to zaručuje, že poskytované rady sú konzistentné a správne (zakotvené v oficiálnej dokumentácii). Výsledkom je, že firmy ako banky, telekomunikácie a softvérové spoločnosti nasadzujú podporné boty založené na RAG na zlepšenie zákazníckej skúsenosti a zníženie zaťaženia call centier. Tieto systémy vynikajú v riešení špecifických otázok a zložitých, viacstupňových problémov, pretože dokážu podľa potreby vyhľadať špecifické informácie.
- Výskum a tvorba obsahu: Ďalšou oblasťou je akákoľvek úloha vyžadujúca hĺbkový výskum alebo syntézu obsahu. Systémy RAG môžu pomáhať spisovateľom, analytikom alebo študentom vyhľadávaním faktov a referencií z veľkých textových korpusov. Napríklad právni výskumní asistenti poháňaní RAG môžu vyhľadávať relevantné judikáty a zákony na pomoc pri tvorbe právneho podania. Medicínsky AI asistenti môžu vyhľadávať najnovšie články z časopisov alebo záznamy pacientov, keď sa lekár pýta diagnostickú otázku, čím pomáhajú pri klinických rozhodnutiach. Finanční analytici môžu dopytovať trhové dáta alebo správy a získať AI-generované zhrnutie podložené týmito zdrojmi. Dôležité je, že AI uvádza zdroje, takže profesionáli si môžu informácie overiť. Toto využitie RAG ako výskumného asistenta urýchľuje pracovné postupy, ktoré zahŕňajú prehľadávanie veľkého množstva textu za účelom nájdenia konkrétnych odpovedí alebo poznatkov.
- Personalizované odporúčania a dátové dopyty: Niektoré aplikácie kombinujú RAG s údajmi špecifickými pre používateľa na poskytovanie personalizovaných výstupov. Napríklad osobný AI emailový asistent môže pri písaní zhrnutia alebo odpovede pre vás vyhľadávať detaily z vášho kalendára, minulých emailov alebo súborov. Alebo AI nástroj pre predaj môže získať informácie o spoločnosti potenciálneho klienta a najnovšie správy, aby pomohol obchodníkovi pripraviť šitú ponuku na mieru. Toto sú v podstate špecializované prípady RAG: vyhľadávanie prebieha z osobných alebo kontextovo špecifických dátových úložísk a generovanie vytvára vlastný výstup (napríklad personalizované odporúčanie alebo zhrnutie). Tento vzorec sa dokonca rozširuje na agentné AI systémy – viacstupňové AI „agenty“, ktoré používajú RAG ako formu pamäte. V roku 2025 mnohé experimentálne AI agenty používajú mechanizmus RAG na ukladanie a vybavovanie informácií počas dlhých úloh alebo konverzácií (napríklad zapamätanie si preferencií používateľa alebo predchádzajúcich inštrukcií) [30]. Táto synergia medzi RAG a AI agentmi umožňuje zložitejšie, viackolové interakcie, ktoré zostávajú koherentné a informované v priebehu času.
- Odborovo špecifické expertné systémy: Firmy čoraz viac integrujú LLM s ich vlastnými dátami na vytváranie expertných AI pre konkrétne odvetvia. CIO Goldman Sachs Marco Argenti poznamenáva, že podniky prepoja AI so svojimi súkromnými datasetmi pomocou RAG (alebo doladenia), aby vytvorili „veľké expertné modely“ – AI špecialistov v medicíne, financiách, práve atď., ktorí poznajú najnovšie poznatky v odbore [31]. Napríklad farmaceutická spoločnosť môže nasadiť model založený na RAG, ktorý má prístup k interným výskumným prácam a výsledkom experimentov, čím sa stáva expertným asistentom pre vedcov vyvíjajúcich nové lieky. Tento koncept LLM ako expertov sa silno opiera o vyhľadávanie: model zostáva všeobecného zamerania, ale je obohatený o hlboké odborové informácie pri odpovedaní. Výsledkom je AI, ktorá plynule ovláda žargón a fakty daného odboru. Už teraz to vidíme pri špecializovaných chatbot-och ako BloombergGPT pre financie alebo klinických asistentoch v zdravotníctve, ktoré využívajú RAG techniky na zapojenie vlastných dát (trhové dáta, medicínska literatúra atď.) a poskytujú veľmi presné, relevantné odpovede.
Tieto príklady sú len špičkou ľadovca. Prakticky každá AI aplikácia, ktorá vyžaduje faktickú presnosť, aktuálne znalosti alebo prispôsobenie konkrétnemu datasetu, môže ťažiť z RAG [32]. Od interaktívnych vyhľadávačov (napr. nová vlna vyhľadávacích botov ako Bing Chat, YouChat alebo Brave’s Summarizer, ktoré odpovedajú na otázky s citovanými webovými výsledkami) po kreatívne nástroje (napríklad asistenti pre kódovanie, ktorí počas generovania kódu vyhľadávajú API dokumentáciu), RAG sa ukazuje ako všestranný rámec. Umožňuje AI nielen generovať obsah, ale aj vyhľadávať, uvažovať a potom odpovedať, čo otvára násobne viac aplikácií než použitie izolovaného modelu [33]. Ako to vyjadril jeden článok od NVIDIA, s RAG „používatelia môžu v podstate viesť rozhovory s dátovými úložiskami,“ čo znamená, že potenciálne použitia sú také široké, ako sú široké zdroje dát, ktoré pripojíte [34].
Výhody prístupu RAG
Rýchle prijatie retrieval-augmented generation je poháňané viacerými jasnými výhodami oproti používaniu samotných LLM:
- Lepšia presnosť & menej halucinácií: Tým, že zakladá svoje odpovede na získaných dôkazoch, je systém RAG oveľa menej náchylný si veci vymýšľať. Model porovnáva svoj generatívny výstup so skutočnými dátami, čo vedie k fakticky správnym a relevantným odpovediam. Štúdie a priemyselné správy ukazujú dramatický pokles miery halucinácií – niektoré podnikové RAG chatboty dosahujú presnosť v rozmedzí 95–99 % pri doménovo špecifických otázkach, kde by bežný model často zlyhal [35]. Používatelia sa môžu spoľahnúť, že odpovede sú založené na niečom skutočnom, nie len na predstavivosti AI [36].
- Aktuálne informácie: RAG umožňuje AI zostať aktuálna s novými informáciami. Systém dokáže vyhľadať najnovšie dostupné dáta (či už sú to dnešné správy, databáza aktualizovaná dnes ráno alebo dokument pridaný pred pár minútami), čím obchádza zastaraný knowledge cutoff, ktorý majú mnohé LLM. To je kľúčové pre oblasti ako financie, správy, regulácie alebo technológie, kde sa informácie často menia. Už žiadna AI zamrznutá v čase – RAG bot pripojený k živému indexu dokáže odpovedať na otázky o včerajšej udalosti rovnako dobre ako na historické.
- Odbornosť na požiadanie: RAG umožňuje to, čo by ste mohli nazvať okamžitá špecializácia. Nepotrebujete špeciálne trénovaný model pre každú tému – jeden LLM sa dá prispôsobiť akejkoľvek oblasti poskytnutím správnych referenčných materiálov v čase dopytu. To znamená, že AI služba môže podporovať viacero vedomostných oblastí (napríklad poisťovnícku a medicínsku vedomostnú databázu) prepínaním kontextu vyhľadávania, namiesto udržiavania samostatných modelov. Tiež to znamená, že podnik môže nasadiť výkonných AI asistentov bez trénovania modelu na citlivých interných dátach – model sa učí v reálnom čase z načítaných dokumentov. Odpovede sú presne prispôsobené kontextu, ktorý poskytujú tieto dokumenty [37], vďaka čomu je AI v podstate taká dobrá, ako je kombinované poznanie v zdrojových dátach.
- Transparentnosť a sledovateľnosť: Na rozdiel od black-box modelu, ktorý len vypľuje odpoveď, RAG systémy často zobrazujú zdroj pravdy za odpoveďou. Mnohé implementácie zobrazujú citácie alebo odkazy (podobne ako tento článok). To buduje obrovskú dôveru u používateľov a je to veľké plus pre súlad a auditovateľnosť[38]. Ak virtuálny agent povie „záruka trvá 2 roky,“ môže tiež poskytnúť odkaz na presný dokument a sekciu politiky, ktorá toto tvrdenie podporuje. Pre regulované odvetvia alebo akúkoľvek situáciu, kde potrebujete dvojitú kontrolu práce AI, je táto sledovateľnosť neoceniteľná. Efektívne mení AI na užitočného sprievodcu, ktorý vás nasmeruje na zdroj odpovede, namiesto orákula, ktorému musíme slepo veriť.
- Nie je potrebné neustále preučiť model: Pretože nové dáta možno kedykoľvek pridať do vyhľadávacieho indexu, nemusíte preučiť základný LLM vždy, keď sa vaše vedomosti zmenia. To výrazne znižuje nároky na údržbu. Doladenie veľkého modelu pri každej aktualizácii dát je nielen nákladné – môže zaviesť nové chyby alebo vyžadovať odstávku. RAG sa tomu vyhýba. Ako poznamenávajú výskumníci IBM, ukotvenie modelu v externých faktoch „znižuje potrebu neustále trénovať model na nových dátach“, čím sa znižujú výpočtové aj finančné náklady [39]. Aktualizácia vedomostí vašej AI je taká jednoduchá, ako aktualizovať vyhľadávací index alebo nahrať nové dokumenty do databázy.
- Efektivita a škálovateľnosť: RAG môže byť efektívnejší aj počas behu. Náročné vyhľadávanie v databáze sa dá optimalizovať pomocou špecializovanej vyhľadávacej infraštruktúry (ako sú vektorové databázy, cache a pod.), čo je často lacnejšie a rýchlejšie, než bezhlavo vkladať všetko do kontextu LLM. A keďže LLM vidí len zamerané zhrnutie relevantných informácií (namiesto snahy natlačiť všetky možné znalosti do promptu alebo parametrov), dokáže efektívnejšie využiť svoje kontextové okno. To umožňuje zvládať veľké znalostné bázy – môžete mať indexované milióny dokumentov, ale modelu sa pre každý dopyt pošle len 5 alebo 10 najrelevantnejších úryvkov. Tento prístup je od základu škálovateľný: keď vaše dáta rastú, aktualizujete index, nie model. Technologické firmy dokonca vybudovali celé vektorové vyhľadávacie enginy a platformy (Pinecone, Weaviate, FAISS, atď.), ktoré slúžia ako vyhľadávacie jadro pre RAG systémy a zabezpečujú, že aj pri miliardách dátových položiek sa tie správne nájdu rýchlo.
- Kontrolované znalosti & bezpečnosť: Pri RAG, najmä v podnikových prostrediach, môžete presne kontrolovať, ku ktorým informáciám má AI prístup. Ak sú niektoré dokumenty dôverné alebo niektoré zdroje nespoľahlivé, jednoducho ich nezahrniete do vyhľadávacieho korpusu. To je zásadný rozdiel oproti obrovskému predtrénovanému modelu, ktorý mohol absorbovať všemožné neznáme internetové texty (a môže ich opäť „vypľuť“). RAG umožňuje organizáciám presadzovať správu dát: napr. udržiavať AI offline okrem prístupu k schválenému internému úložisku. Znižuje sa aj riziko, že model neúmyselne „unikne“ trénovacie dáta, keďže model sa nespolieha na zapamätaný obsah, ale čerpá z overeného úložiska. Ako uvádzajú experti IBM, uzemnením odpovedí na overiteľné externé dáta má RAG systém menej príležitostí vytiahnuť citlivé alebo nevhodné informácie zo svojich interných parametrov [40]. V podstate AI povie len to, čo má povolené nájsť.
Tieto výhody robia z RAG atraktívne riešenie všade tam, kde sú presnosť, aktuálnosť informácií a dôvera najvyššou prioritou – preto ho toľko organizácií prijíma. Využíva silné stránky veľkých LLM (plynulý jazyk a uvažovanie) a dopĺňa ich o silné stránky vyhľadávačov (presnosť a faktickosť). Výsledkom je AI, ktorá je inteligentná aj spoľahlivá.
Obmedzenia a výzvy
Aj keď je RAG silný, nie je to všeliek. Integrácia vyhľadávania s generovaním prináša vlastné výzvy a kompromisy, o ktorých by si mali byť odborníci vedomí:
- Na kvalite vyhľadávania záleží: RAG systém je len taký dobrý, aké dobré sú informácie, ktoré vyhľadá. Ak zlyhá vyhľadávacia zložka – napr. vynechá relevantný dokument alebo vyhľadá niečo mimo tému – odpoveď modelu tým utrpí. V niektorých prípadoch sa môže AI dokonca pokúsiť „doplniť“ chýbajúce informácie, čo vedie k chybám. Zabezpečiť, aby vyhľadávač vracal vysoko relevantné, správne výsledky (a dostatočný počet) je aktívnou oblasťou výskumu. Závisí to od kvalitných embeddingov, aktuálnych indexov a niekedy aj šikovného spracovania dopytov. Ťažké „niche“ dopyty alebo nejednoznačné otázky môžu RAG stále zmiasť, ak sa nenájde dostatok kontextu. Stručne: odpadky dnu, odpadky von: generovanie bude len tak faktické, aké sú dokumenty, ktoré dostane.
- Zaujatosti a chyby zdrojových dát: RAG preberá silné aj slabé stránky svojich zdrojových dát. Ak vaša znalostná báza obsahuje zastarané alebo zaujaté informácie, AI ich môže prezentovať ako pravdu. Napríklad, ak interná wiki firmy nebola aktualizovaná alebo obsahuje nesprávny záznam, RAG asistent môže túto chybu šíriť vo svojej odpovedi. Na rozdiel od čistého LLM, ktorý môže poskytnúť vyvážený všeobecný pohľad, RAG systém môže príliš dôverovať jedinému zdroju. Na zmiernenie tohto rizika musia organizácie udržiavať kvalitné, overené znalostné zdroje. Zaujatosti v dokumentoch (napr. historické dáta odrážajúce spoločenské predsudky) môžu tiež ovplyvniť odpovede. Kurátorstvo korpusu a rozmanitosť zdrojov sú dôležité na riešenie tejto výzvy [41].
- Oneskorenie a zložitosť: Zavedenie vyhľadávacieho kroku môže pridať určitú latenciu do odpovedí. Typická RAG pipeline môže zahŕňať vyhľadávanie embeddingov alebo volanie search API, ktoré trvá niekoľko stoviek milisekúnd alebo viac, najmä pri veľmi veľkých korpusoch alebo ak sa vykonáva viacero vyhľadávaní (pri multi-hop otázkach). Vo väčšine chatbot aplikácií je to akceptovateľné, ale môže to byť problém pri požiadavkách na ultra nízku latenciu. Okrem toho budovanie a údržba infraštruktúry – indexy, vektorové databázy, pipeline – pridáva zložitosť systému v porovnaní so samostatným modelom. Je tu viac pohyblivých častí, ktoré treba koordinovať (hoci frameworky ako LangChain alebo LlamaIndex už s týmto pomáhajú). Škálovanie tejto architektúry (na zvládnutie mnohých súbežných dopytov alebo veľmi veľkých dát) si vyžaduje inžinierske úsilie. Cloudoví poskytovatelia a nové nástroje však rýchlo zlepšujú jednoduchosť nasadenia RAG vo veľkom.
- Limity Top-K a kontextového okna: Model dokáže spracovať len obmedzené množstvo získaného textu. Rozhodnúť sa, koľko dokumentov (a ktoré ich časti) poskytnúť LLM, nie je triviálny problém. Ak poskytnete príliš málo, odpoveď môže postrádať kľúčové detaily; ak príliš veľa, riskujete preťaženie kontextového okna alebo zníženie relevantnosti (nehovoriac o vyšších nákladoch na tokeny). Často ide o kompromis medzi dostatočným množstvom kontextu a dodržaním limitov modelu. Techniky ako chunking (rozdelenie dokumentov na časti) pomáhajú, ale ak jedna odpoveď naozaj vyžaduje informácie napríklad z 50 strán textu, súčasné modely môžu mať problém všetko naraz zahrnúť. Objavujú sa modely s dlhým kontextom (s oknami s desiatkami tisíc tokenov), čo tento problém zmierňuje, no prináša vyššie výpočtové náklady. Určenie optimálneho počtu „top-K“ dokumentov na získanie pre každý dopyt zostáva oblasťou optimalizácie [42].
- Náročnosť integrácie a údržby: Zavedenie RAG si vyžaduje viac plumbing než použitie hotového chatbota. Tímy musia riešiť ingestiu dát (dostať všetok relevantný obsah do systému), vektorizáciu (embedding dokumentov), indexovanie a pravidelnú aktualizáciu znalostnej bázy. Každý z týchto krokov – ako aj kvalita finálnej odpovede – môže vyžadovať monitorovanie a ladenie. Napríklad možno budete musieť aktualizovať embeddingy, ak pridáte veľa nových dát, alebo upraviť vyhľadávací algoritmus, ak zistíte, že niečo vynecháva. Výzvou je aj orchestrácia workflowu medzi retrieverom a LLM, najmä v zložitejších prípadoch alebo pri použití agent-like správania (iteratívne vyhľadávanie). Ladenie systému RAG môže byť niekedy náročnejšie – musíte zistiť, či problém vznikol na strane vyhľadávania alebo generovania. To všetko znamená, že implementácia RAG má svoju krivku učenia a malé tímy musia zvážiť, či využijú spravovanú službu alebo investujú do odbornosti na správnu výstavbu systému.
- Obavy o súkromie a bezpečnosť: Ak vyhľadávanie smeruje na externé zdroje (napríklad webové vyhľadávanie) alebo používa cloudovú vektorovú DB tretej strany, môžu vzniknúť bezpečnostné problémy. V podnikových prípadoch je kľúčové zabezpečiť, aby sa dôverné dopyty alebo dáta nedostali von. Aj v rámci organizácie môže RAG asistent neúmyselne odhaliť informácie používateľovi, ktorý by k nim nemal mať prístup (ak nie je správne nastavená kontrola prístupu k dokumentom). Preto by mali byť zavedené ďalšie ochranné opatrenia a kontroly oprávnení. Niektoré firmy to riešia tým, že celý RAG pipeline prevádzkujú on-premises alebo vo svojom privátnom cloude. Súkromie je menším problémom, ak RAG používa uzavreté úložisko, no treba na to myslieť, ak návrh zahŕňa internetové vyhľadávanie alebo zdieľanú infraštruktúru [43].
- Zvyškové halucinácie alebo syntetické chyby: Aj keď RAG výrazne znižuje halucinácie, úplne ich neodstraňuje. Model môže nesprávne interpretovať získaný text alebo ho nesprávne skombinovať. Napríklad, ak dva dokumenty obsahujú mierne protichodné informácie, LLM ich môže zlúčiť do zmätenej odpovede. Alebo model môže citovať zdroj, no aj tak z neho vyvodiť nesprávny záver. Zabezpečiť, aby vygenerovaná odpoveď zostala verná zdrojovému materiálu, je neustálou výzvou. Pomôcť môžu techniky ako inštruovanie modelu, aby používal iba poskytnuté informácie, alebo dokonca doladenie na trénovacej množine s retrieval-augmented prístupom. Niektoré pokročilé implementácie RAG zahŕňajú záverečný verifikačný krok, kde je odpoveď porovnaná so zdrojmi (niekedy inou AI alebo explicitnými pravidlami), aby sa zachytili nepodložené tvrdenia. Napriek tomu by používatelia mali zostať opatrní a brať odpovede RAG ako asistované výstupy, nie ako absolútnu pravdu.
Napriek týmto výzvam panuje v priemysle aj výskume zhoda, že prínosy RAG ďaleko prevyšujú ťažkosti vo väčšine scenárov. Mnohé z obmedzení sú aktívne riešené novým výskumom (napr. lepšie algoritmy vyhľadávania, hybridné vyhľadávanie využívajúce kľúčové slová + vektory, väčšie kontextové okná atď.) [44]. Napríklad, skúma sa Graph-augmented RAG (využitie znalostných grafov na rozšírenie kontextu vyhľadávania) a „adaptívne“ vyhľadávanie, kde LLM môže v prípade potreby položiť doplňujúce otázky [45]. Tieto snahy majú za cieľ urobiť RAG robustnejším aj pre zložité, viacstupňové otázky. Za zmienku stojí aj to, že niektorí kritici tvrdia, že budúce LLM môžu obsahovať také rozsiahle znalosti alebo schopnosť priebežného uvažovania, že explicitné vyhľadávanie už nebude potrebné („RAG je anti-vzor“, ako znie provokatívny názov jedného blogu [46]). Avšak k roku 2025 zostáva RAG najpraktickejšou metódou, ako zabezpečiť, že AI systémy majú aj rozum, aj aktuálne znalosti. Táto dodatočná zložitosť je malou cenou za AI, ktorá vie podložiť svoje tvrdenia a zvládať potreby reálneho sveta.
Vývoj a trendy v priemysle (k roku 2025)
Za posledné dva roky sme boli svedkami explozívneho rastu systémov založených na RAG v celom technologickom priemysle. To, čo začalo ako výskumný nápad v roku 2020, je v roku 2025 už bežnou praxou, pričom veľké firmy aj startupy súťažia o začlenenie retrieval-augmented generation do svojich AI produktov. Tu sú niektoré z významných noviniek a aktuálnych trendov:
- Prijatie zo strany veľkých technologických firiem: Všetci veľkí hráči v oblasti AI a cloudu teraz ponúkajú RAG riešenia. OpenAI predstavilo funkcie na získavanie znalostí (umožňujúce ChatGPT pripojiť sa k firemným dátam alebo webu), Microsoft zabudoval RAG do svojich služieb Azure Cognitive Search a Azure OpenAI, Google spustil Vertex AI Search pre podniky a Amazonova platforma Bedrock zahŕňa spravované Knowledge Bases – všetko zamerané na to, aby firmám uľahčili pridanie retrievalu do generatívnej AI [47]. Microsoftov Bing Chat, uvedený začiatkom roku 2023, bol jedným z prvých vysoko profilovaných chatbotov poháňaných RAG, kombinujúc GPT-4 so živým webovým vyhľadávaním s veľkým efektom. Google nasledoval s Bardom a potom so svojím Search Generative Experience (SGE), ktorý tiež používa LLM nad výsledkami Google Search. Tieto produkty efektívne premenili vyhľadávače na AI chatboty, ktoré používajú RAG na odpovedanie na otázky s citáciami. Ako poznamenal jeden článok, „Dnes to vidíte vo všetkých druhoch AI produktov“ – skutočne, od vyhľadávania po produktivitu, RAG je všade [48][49].
- Podnikové platformy a služby: Vzniká rozvíjajúci sa ekosystém platforiem RAG zameraných na podniky. Napríklad Microsoft Azure AI Search (v kombinácii s Azure OpenAI) poskytuje šablónu pre RAG: nasmerujete ho na svoje dáta (SharePoint, databázy atď.) a on sa postará o indexovanie a vyhľadávanie, aby LLM mohol generovať odpovede [50]. Platforma IBM’s Watsonx podobne propaguje RAG schopnosti a IBM Research publikoval návody na budovanie RAG pipeline pre firmy [51]. Startupy ako Glean (podnikové vyhľadávanie), Elastic a Lucidworks integrovali generovanie odpovedí pomocou LLM na vrch svojich vyhľadávacích technológií. Dokonca aj databázové firmy sa zapájajú: Pinecone (startup s vektorovou databázou) sa stal kľúčovým umožňovateľom pre RAG a tradičné databázy ako Redis, Postgres (s pgvector) a OpenSearch pridali funkcie vektorového vyhľadávania na podporu týchto pracovných záťaží. Odvetvie sa zhoduje na myšlienke, že každý podnik bude chcieť chatbota, ktorý dokáže komunikovať s ich vlastnými dátami, a viacerí dodávatelia sa snažia poskytnúť na to nástroje.
- Významné fúzie a investície: Význam retrieval technológií podčiarkujú aj veľké kroky – napríklad OpenAI (spoločnosť stojaca za ChatGPT) v polovici roku 2024 získala Rockset, databázu pre real-time analytiku a vyhľadávanie [52]. Tento krok bol všeobecne vnímaný ako snaha posilniť retrieval infraštruktúru OpenAI pre svoje modely (umožňujúcu rýchlejšie a výkonnejšie RAG schopnosti pre produkty ako ChatGPT Enterprise). V roku 2025 OpenAI tiež investovala do Supabase, open-source databázového backendu, čo naznačuje, že aj spoločnosti vyvíjajúce AI modely považujú ukladanie/načítavanie dát za strategické [53]. V rokoch 2023-2024 sme tiež videli obrovské investičné kolá pre spoločnosti s vektorovými databázami (Pinecone, Weaviate, Chroma, atď.), ktoré v podstate poháňajú „pamäťovú vrstvu“ AI. Tieto akvizície a investície podčiarkujú trend: poskytovatelia LLM sa posúvajú nižšie v stacku, aby vlastnili retrieval vrstvu, a dátové platformy sa posúvajú vyššie v stacku, aby integrovali LLM – všetci sa stretávajú v strede pri RAG.
- Rozmach nástrojov a frameworkov: Open-source komunity vytvorili množstvo nástrojov na zjednodušenie vývoja RAG aplikácií. LangChain, open-source framework, sa stal veľmi populárnym na prepojovanie LLM s retrieval a ďalšími akciami. LlamaIndex (GPT Index) je ďalší, ktorý špecificky pomáha prepojiť LLM s vašimi dátovými zdrojmi vytváraním indexov. Meta (Facebook) vydala LLM.nsys / Retrieval Augmentation Toolkit a ďalšie ako open source. Medzitým NVIDIA publikovala celú RAG referenčnú architektúru („RAG AI Blueprint“) na pomoc podnikom s efektívnou implementáciou týchto systémov [54]. Objavujú sa dokonca aj hotové „RAG-as-a-Service“ ponuky – napríklad niektoré konzultačné firmy a startupy ponúkajú služby, ktoré zoberú dáta klienta a rýchlo mu nasadia RAG chatbot [55]. To všetko znamená, že pre firmu, ktorá chce v roku 2025 zaviesť RAG, je k dispozícii bohatá ponuka možností: od DIY s open source, cez cloudové API, až po hotové riešenia – podľa toho, koľko prispôsobenia oproti pohodliu je žiadané [56].
- Pokročilý výskum RAG: Na výskumnej úrovni sa v rokoch 2024 a 2025 naďalej zdokonaľovali techniky RAG. Medzi pozoruhodné smery patrí Graph RAG (vkladanie znalostných grafov do vyhľadávania na zachovanie vzťahov medzi faktami) [57], hybridné vyhľadávanie (kombinácia kľúčových slov a vektorového vyhľadávania pre lepšie pochopenie dopytu) a modulárne RAG pipeline, ktoré zvládajú zložité dopyty vo viacerých krokoch [58]. Výskumníci sa tiež zaoberajú dynamickým vyhľadávaním, kde LLM môže iteratívne žiadať o ďalšie informácie, ak je to potrebné (čím sa RAG mení na konverzačné vyhľadávanie). Ďalším zaujímavým vývojom je užšia integrácia medzi vyhľadávaním a generovaním na úrovni architektúry – napríklad prístupy, kde vyhľadávanie prebieha počas inferencie modelu (ako Retro, Retriever-augmented attention a pod.), čím sa stiera hranica medzi tým, kde končí vyhľadávanie a začína generovanie [59]. Hoci sú tieto prístupy zatiaľ prevažne experimentálne, sľubujú ešte efektívnejšie a inteligentnejšie systémy. Multimodálny RAG je ďalšou hranicou – využívanie obrázkov alebo iných dát vo vyhľadávacom procese (predstavte si AI, ktorá dokáže „vyhľadať“ schému alebo zvukovú ukážku okrem textu). A napokon, diskusie o RAG sa často prelínajú s nástupom AI agentov: ako už bolo spomenuté, v roku 2025 sa hovorí o systémoch, ktoré plánujú úlohy a používajú nástroje. Títo agenti často využívajú RAG ako svoju pamäť na uchovávanie informácií medzi jednotlivými krokmi [60]. Napríklad agent riešiaci zložitý problém môže vyhľadávať dokumenty, zapisovať si priebežné výsledky (do vektorového úložiska) a tieto poznámky si neskôr opäť vyhľadať. Táto synergia naznačuje, že RAG bude základnou súčasťou nielen pre Q&A botov, ale aj pre autonómnejšie AI systémy, ktoré sa v súčasnosti navrhujú.
- Príbehy úspechu z reálneho sveta: Do polovice roku 2025 sme videli nasadenie RAG v mnohých odvetviach. Napríklad v zdravotníctve Mayo Clinic pilotovala „AI asistenta lekára“, ktorý využíva RAG na prepojenie GPT-dialogu s aktuálnou medicínskou literatúrou a údajmi o pacientoch, čím pomáha lekárom získať odpovede s uvedením zdrojov. Startupy v oblasti právnych technológií ponúkajú AI právnikov, ktorí vyhľadávajú relevantné judikáty pre akúkoľvek otázku. Banky využili RAG pre interné nástroje hodnotenia rizík, ktoré čerpajú z textov politík a predpisov, aby zabezpečili súlad odpovedí s reguláciami. Na strane spotrebiteľov sa aplikácie ako Perplexity.ai stali populárnymi vďaka ponuke „Google + ChatGPT“ zážitku, kde na akúkoľvek otázku dostanete konverzačnú odpoveď s citáciami, vďaka RAG v pozadí [61]. Dokonca aj sociálne médiá sa zapojili – koncom roka 2023 X (Twitter) oznámil Grok, AI chatbota integrovaného s aktuálnymi trendmi a znalosťami z Twitteru (Elon Musk ho propagoval ako nástroj s „veľmi presnými“ informáciami v reálnom čase cez multi-agentný RAG prístup) [62]. Tieto príklady ukazujú, ako sa RAG presunul z teórie do praxe: prakticky všetky „AI copiloti“, ktorí potrebujú špecifické znalosti, ho využívajú. Ako to jeden expert výstižne zhrnul: RAG „zvyšuje presnosť AI modelov vyhľadávaním relevantných informácií z viacerých externých zdrojov“, a svoju hodnotu dokazuje vo všetkom od reklamy cez financie až po zákaznícky servis [63].
Pri pohľade na situáciu v auguste 2025 je jasné, že RAG „dospel“. Už dávno nejde o okrajový trik, dnes je jadrovou architektúrou pre AI nasadenia. Firmy, ktoré chcú spoľahlivú, na doménu orientovanú AI, čoraz viac dochádzajú k záveru, že vyhľadávanie + generovanie je cesta, ako to dosiahnuť [64]. Výsledkom je, že znalostné databázy a LLM sa zbližujú: vyhľadávače pridávajú generatívne schopnosti a generatívne modely sa spájajú s vyhľadávacími schopnosťami. Tento hybridný prístup poháňa ďalšiu generáciu chatbotov, virtuálnych asistentov a AI agentov, s ktorými denne komunikujeme.
Záver
Retrieval-Augmented Generation predstavuje silné spojenie technológie vyhľadávačov s pokročilými AI jazykovými modelmi. Tým, že AI systémy „učíme otvoriť knihu“ a získať presne tie znalosti, ktoré potrebujú, robí RAG tieto systémy oveľa užitočnejšími a dôveryhodnejšími. Preklenuje priepasť medzi surovou AI brilantnosťou a reálnymi informáciami, čím zabezpečuje, že naši chatboti a asistenti nielen znejú múdro – oni sú múdri, s faktickými odpoveďami na podporu. Od firiem nasadzujúcich interných GPT-poradcov až po spotrebiteľov, ktorí sa pýtajú vyhľadávacích botov na zložité otázky, RAG je skrytý ťažný kôň, ktorý poskytuje potrebné fakty a kontext. Ako sme ukázali, tento prístup prináša významné výhody v presnosti, relevantnosti a prispôsobivosti, hoci zároveň prináša aj nové technické výzvy na riešenie.
V roku 2025 je RAG v centre posunu smerom k AI, ktorá je hlboko integrovaná s poznaním. Odborníci ho považujú za základný kameň pri budovaní „expertnej AI“ systémov prispôsobených pre každú oblasť [65]. A s prebiehajúcimi inováciami môžeme očakávať, že RAG bude ešte bezproblémovejší – možno raz bude predpokladané, že každý silný AI asistent má zabudované retrieval schopnosti. Zatiaľ by mal každý, kto chce využiť AI na spoľahlivé, informované odpovede, vážne zvážiť RAG paradigmu. Je to ukážkový príklad toho, ako kombinácia dvoch technológií – vyhľadávania a generovania – môže priniesť niečo väčšie než len súčet ich častí. Ako naznačil Patrick Lewis a ďalší, retrieval-augmented generation môže byť budúcnosťou generatívnej AI, kde naše AI modely nielenže majú poznatky, ale presne vedia, kde ich nájsť, keď ich potrebujeme [66].
Zdroje:
- InfoWorld – „Retrieval-augmented generation refined and reinforced“[67]
- NVIDIA Blog – „What Is Retrieval-Augmented Generation, aka RAG?“[68]
- Squirro Blog – „The State of RAG in 2025: Bridging Knowledge and Generative AI“ [69]
- Forbes Tech Council cez BestOfAI – „The Rise Of Retrieval-Augmented Generation“ [70]
- Ken Yeung, The AI Economy newsletter – Rozhovor s Dennisom Perpetuom [71]
- IBM Research Blog – „What is retrieval-augmented generation?“ [72]
- Signity Solutions – „Top RAG Chatbot AI Systems… in 2025“[73]
- Goldman Sachs (Marco Argenti) – „Čo očakávať od AI v roku 2025“ [74]
References
1. medium.com, 2. medium.com, 3. blogs.nvidia.com, 4. research.ibm.com, 5. www.elumenotion.com, 6. research.ibm.com, 7. squirro.com, 8. learn.microsoft.com, 9. www.elumenotion.com, 10. blogs.nvidia.com, 11. blogs.nvidia.com, 12. blogs.nvidia.com, 13. blogs.nvidia.com, 14. thelettertwo.com, 15. thelettertwo.com, 16. research.ibm.com, 17. dataforest.ai, 18. dataforest.ai, 19. www.signitysolutions.com, 20. blogs.nvidia.com, 21. blogs.nvidia.com, 22. research.ibm.com, 23. www.infoworld.com, 24. www.infoworld.com, 25. www.infoworld.com, 26. squirro.com, 27. bestofai.com, 28. squirro.com, 29. dataforest.ai, 30. ragflow.io, 31. www.goldmansachs.com, 32. bestofai.com, 33. blogs.nvidia.com, 34. blogs.nvidia.com, 35. www.signitysolutions.com, 36. blogs.nvidia.com, 37. www.infoworld.com, 38. www.signitysolutions.com, 39. research.ibm.com, 40. research.ibm.com, 41. bestofai.com, 42. www.infoworld.com, 43. bestofai.com, 44. www.infoworld.com, 45. medium.com, 46. www.elumenotion.com, 47. www.infoworld.com, 48. dev.to, 49. github.blog, 50. learn.microsoft.com, 51. research.ibm.com, 52. ragflow.io, 53. ragflow.io, 54. blogs.nvidia.com, 55. www.prismetric.com, 56. www.infoworld.com, 57. medium.com, 58. www.infoworld.com, 59. ragflow.io, 60. ragflow.io, 61. www.signitysolutions.com, 62. www.signitysolutions.com, 63. bestofai.com, 64. squirro.com, 65. www.goldmansachs.com, 66. blogs.nvidia.com, 67. www.infoworld.com, 68. blogs.nvidia.com, 69. squirro.com, 70. bestofai.com, 71. thelettertwo.com, 72. research.ibm.com, 73. www.signitysolutions.com, 74. www.goldmansachs.com