·  ·  · 

Generiranje potpomognuto pretraživanjem (RAG): Revolucija AI-a s poboljšanim pretraživanjem u chatbotovima i poslovnim aplikacijama

11 listopada, 2025
Retrieval-Augmented Generation (RAG): The Search‑Enhanced AI Revolution in Chatbots and Enterprise Applications
Retrieval-Augmented Generation - RAG
  • RAG označava Retrieval-Augmented Generation, hibridni AI pristup koji kombinira veliki jezični model s tražilicom ili bazom podataka kako bi dohvatila vanjsko znanje za utemeljene, ažurirane odgovore.
  • Godine 2025. RAG se pojavio kao strateški imperativ za modernu umjetnu inteligenciju, pokrećući inteligentne chatbotove, poslovne asistente i druge aplikacije svjesne konteksta.
  • U praksi, RAG sustav prvo dohvaća relevantne dokumente iz izvora znanja, zatim dodaje najvažnije isječke korisničkom upitu prije nego što LLM generira konačan odgovor.
  • Patrick Lewis, koji je vodio tim koji je skovao izraz “RAG” u Facebook AI radu iz 2020., opisuje RAG kao rastuću obitelj metoda koje predstavljaju budućnost generativne umjetne inteligencije.
  • Kako kaže Patrick Lewis, pristup s proširenim dohvatom možete implementirati s tek pet linija koda.
  • Mnogi RAG sustavi vraćaju izvore uz odgovor, pružajući naslove dokumenata ili URL-ove radi provjere i povjerenja.
  • RAG omogućuje ažurirane odgovore povlačenjem svježih informacija u trenutku upita, omogućujući točne odgovore o nedavnim događajima ili novim politikama.
  • Smanjuje tekuće troškove izbjegavanjem potpunog ponovnog treniranja; umjesto toga, organizacije održavaju pretraživi indeks podataka i dopuštaju modelu da ga konzultira po potrebi.
  • Istaknuti slučaj upotrebe je AI asistent za kliničare Mayo Clinic koji koristi RAG za povezivanje GPT-temeljenog dijaloga s aktualnom medicinskom literaturom i podacima o pacijentima, s referencama na izvore.
  • Do 2025. glavni tehnološki igrači nude RAG rješenja (OpenAI-jeva akvizicija Rockseta 2024., Microsoft Azure OpenAI, Google Vertex AI Search, Amazon Bedrock) i uspješan ekosustav alata poput LangChain i Pinecone.

Generativna umjetna inteligencija je zaokupila maštu, ali retrieval-augmented generation – poznatija kao RAG – donosi mjerljiv, utemeljen utjecaj u raznim industrijama [1]. Jednostavno rečeno, RAG je hibridni AI pristup koji kombinira veliki jezični model (LLM) s tražilicom ili bazom podataka. Rezultat je kao da super-pametnom chatbotu date pristup prilagođenoj knjižnici ili webu: može “pretraživati” činjenice u hodu i koristiti te informacije za davanje točnijih, ažuriranih odgovora. Ova kombinacija dohvaćanja i generiranja pomaže smanjiti halucinacije, usidriti AI odgovore na stvarne izvore i smanjiti potrebu za skupim ponovnim treniranjem modela [2], [3]. Godine 2025. RAG se pojavio kao strateški imperativ za modernu umjetnu inteligenciju – pokrećući inteligentne chatbotove, poslovne asistente i druge aplikacije koje zahtijevaju pouzdano, kontekstualno svjesno znanje.

Što je RAG i kako funkcionira?

Retrieval-Augmented Generation (RAG) je AI okvir koji temelji model za generiranje teksta na vanjskim izvorima znanja [4]. Drugim riječima, on poboljšava LLM (poput GPT-4 ili sličnog) dodavanjem koraka pretraživanja: kada AI primi upit, prvo pretražuje zbirku dokumenata ili bazu podataka za relevantne informacije, a zatim koristi taj materijal kako bi pomogao u generiranju odgovora [5]. Ovaj pristup popunjava ključnu prazninu u načinu na koji rade obični LLM-ovi. Samostalni LLM je poput vrlo obrazovane osobe koja polaže ispit bez knjige – oslanja se samo na ono što mu je u memoriji (njegovi trenirani parametri). Suprotno tome, RAG sustav je poput polaganja ispita s knjigom: model može konzultirati vanjski tekst “u hodu” prije odgovaranja [6].

Kako RAG funkcionira u praksi je jednostavno. Prvo, korisnik postavi pitanje ili da upit. Zatim, sustav pronalazi relevantne informacije iz izvora znanja – to može biti indeks web pretrage, vektorska baza podataka dokumenata poduzeća, wiki članci ili bilo koji drugi tekstualni korpus. Na primjer, ako pitate chatbot korisničke podrške detaljno pitanje, RAG sustav može pretražiti interne pravilnike, priručnike ili bazu znanja podrške za ključne riječi i povezani sadržaj. Nakon toga, najrelevantniji isječci ili dokumenti ubacuju se u upit koji se daje LLM-u (često tako da se dodaju korisničkom upitu). Na kraju, LLM generira odgovor koji integrira pronađene činjenice sa svojim razumijevanjem jezika [7], [8]. U suštini, LLM “čita” pronađeni materijal i sastavlja složen odgovor, slično kao što student navodi reference u eseju. Ovaj proces osigurava da je izlaz utemeljen na stvarnim podacima, a ne samo na parametarskoj memoriji modela [9]. Mnogi RAG sustavi također vraćaju izvore (npr. naslove dokumenata ili URL-ove) uz odgovor, kako bi korisnici mogli provjeriti i vjerovati informacijama [10].

Za ilustraciju, Rick Merritt iz NVIDIE nudi korisnu analogiju: sudac može imati odlično opće znanje o pravu, ali za određeni slučaj sudac šalje zapisničara u pravnu knjižnicu da pronađe relevantne slučajeve i presedane [11]. Ovdje je LLM sudac, a RAG je marljivi zapisničar koji dostavlja točne potrebne činjenice. Patrick Lewis – istraživač koji je vodio tim koji je skovao izraz “RAG” u Facebook AI radu iz 2020. – opisuje RAG kao “rastuću obitelj metoda” za koju vjeruje da predstavlja budućnost generativne umjetne inteligencije [12]. Povezujući snažne generativne modele s vanjskim znanjem, RAG omogućuje AI-u da prijeđe granicu pukog ponavljanja podataka iz treninga i umjesto toga dinamički dohvaća nove informacije na zahtjev [13]. Ukratko, RAG pretvara LLM iz “zatvorene knjige” koja sve zna u stručnjaka s otvorenom knjigom koji može navoditi izvore i pratiti najnovije informacije.

Zašto je RAG važan?

RAG je postao važan jer izravno rješava neka od najvećih ograničenja samostalnih AI jezičnih modela. Halucinacije – sklonost LLM-ova da izmišljaju odgovore koji zvuče uvjerljivo, ali su netočni – smanjuju se kada model ima stvarne dokumente na koje se može pozvati. Utemeljujući odgovore na činjenicama, RAG povećava točnost i pouzdanost. “Dvije najvažnije stvari koje RAG čini, u odnosu na poduzeća, su to što nam omogućuje da pronađemo izvore odgovora i da to bude moguće pratiti,” kaže Dennis Perpetua, globalni CTO u Kyndrylu [14]. Drugim riječima, dobro implementiran RAG sustav može ne samo pronaći točan odgovor, već i pokazati vam izvor iz kojeg dolazi – dajući korisnicima povjerenje da se odgovor može provjeriti i da mu se može vjerovati [15]. Luis Lastras, direktor za jezične tehnologije u IBM Researchu, slično to uspoređuje s pristupom otvorene knjige: “U RAG sustavu, od modela tražite da odgovori na pitanje pretražujući sadržaj u knjizi, umjesto da pokušava zapamtiti činjenice iz sjećanja.” [16] To znači da korisnici (i programeri) dobivaju transparentnost u vezi s razlogom zašto je AI rekao to što je rekao, što je ključni faktor za izgradnju povjerenja u AI rezultate.

Još jedna velika prednost je što RAG održava AI ažurnim. Tradicionalni LLM-ovi treniraju se na fiksnom skupu podataka koji može zastarjeti – oni su poput enciklopedija koje se ne mogu ažurirati nakon objave [17]. RAG to rješava tako što modelu omogućuje da pribavi svježe informacije iz pouzdanih izvora u trenutku upita [18]. Ova mogućnost je neprocjenjiva u brzorastućim područjima. Na primjer, asistent pokretan RAG-om može odgovarati na pitanja o nedavnim događajima, novim istraživanjima ili ažuriranim pravilima tvrtke s 95–99% točnosti jer se oslanja na ažurirane, provjerene informacije, a ne na zastarjele podatke iz treniranja [19]. Odgovori su kontekstualno relevantni za trenutak, što je revolucionarno za slučajeve upotrebe poput upita o vijestima, korisničkih upita uživo ili podrške za donošenje odluka u stvarnom vremenu.

Trošak i učinkovitost također su ključni razlozi zašto je RAG važan. Umjesto mukotrpnog fino podešavanja ogromnog LLM-a za svaki novi dokument ili područje (što je skupo i zahtijeva puno vremena), RAG omogućuje mnogo lakši pristup: održavajte pretraživi indeks svojih podataka i dopustite modelu da ga konzultira po potrebi. “Proces možemo implementirati s tek pet linija koda,” napominje Patrick Lewis, naglašavajući da je nadogradnja postojećeg modela pretraživanjem često brža i jeftinija od ponovnog treniranja modela na novim podacima [20]. To znači da organizacije mogu “vruće zamijeniti” izvore znanja u hodu[21]. Na primjer, fintech tvrtka može prošlotjedne podatke s tržišta uključiti u bazen za pretraživanje svog chatbota i odmah omogućiti botu odgovaranje na pitanja o najnovijim trendovima dionica – bez potrebe za ponovnim treniranjem modela. RAG tako smanjuje stalne troškove održavanja LLM implementacija i čini ih znatno prilagodljivijima promjenjivim informacijama [22].

Jednako važno za poduzeća, RAG nudi način za sigurno otključavanje vlasničkih podataka. Informacije specifične za tvrtku i povjerljive informacije često se ne mogu koristiti za treniranje javnih modela iz razloga privatnosti. Uz RAG, model ne mora upiti povjerljive podatke u svoje težine; jednostavno ih dohvaća kada su potrebni. Ovo omogućuje poduzećima da iskoriste interno znanje (iz wikija, baza podataka, PDF-ova itd.) kako bi dobili prilagođene AI odgovore bez izlaganja tih podataka ili predaje trećem modelu [23]. Zapravo, jedan od glavnih izazova u primjeni LLM-ova na poslovne potrebe bio je pružanje relevantnog, točnog znanja iz golemih korporativnih baza podataka modelu bez potrebe za dodatnim podešavanjem samog LLM-a [24]. RAG to elegantno rješava: integriranjem podataka specifičnih za domenu u trenutku dohvaćanja, osigurava da su AI odgovori precizno prilagođeni vašem kontekstu (npr. vašem katalogu proizvoda ili priručniku za politike) dok osnovni model ostaje opće namjene [25]. Poduzeće zadržava potpunu kontrolu nad svojim vlasničkim podacima i može provoditi usklađenost, sigurnost i kontrole pristupa na strani dohvaćanja. Kako kaže Squirro CTO Jan Overney, “Godine 2025. retrieval augmented generation nije samo rješenje; to je strateški imperativ koji izravno rješava ove ključne izazove poduzeća,” premošćujući jaz između moćnih LLM-ova i sve većeg znanja organizacije [26].

U sažetku, zašto je RAG važan: čini AI točnijim, pouzdanijim, ažurnijim i prilagodljivijim. Korisnici dobivaju bolje odgovore (s dokazima koji ih podupiru), a organizacije mogu implementirati AI asistente koji zaista poznaju njihove vlasničke informacije bez kršenja budžeta ili pravila. To je pristup u kojem svi dobivaju i koji generativni AI pretvara iz zgodnog trika u pouzdan alat za zadatke iz stvarnog svijeta.

Ključni slučajevi upotrebe i primjene

RAG-ova sposobnost unošenja domenskog znanja i podataka u stvarnom vremenu otvorila je širok raspon visokoutjecajnih slučajeva upotrebe za AI sustave. Neke od najvažnijih primjena uključuju:

  • Inteligentni chatbotovi i virtualni asistenti: Chatbotovi pokretani RAG-om mogu odgovarati na mnogo sofisticiranija pitanja od standardnih botova. Odgovore povlače iz baza znanja, dokumentacije ili interneta u stvarnom vremenu, omogućujući agentima korisničke podrške, IT helpdesk botovima i virtualnim asistentima da daju vrlo točne, kontekstualno svjesne odgovore. Na primjer, interni HR chatbot koji koristi RAG može trenutno dohvatiti najnoviji dokument o pravilima kako bi odgovorio na pitanje zaposlenika o beneficijama, umjesto da daje generički odgovor. Isto tako, chatbot za korisnike na e-commerce stranici može potražiti specifikacije proizvoda ili podatke o zalihama kako bi odgovorio na konkretan upit o proizvodu. Ovi chatbotovi učinkovito “razgovaraju” s podacima tvrtke kako bi pružili relevantne odgovore, što dovodi do većeg zadovoljstva korisnika. U praksi, AI chatbotovi temeljeni na RAG-u pokazali su mjerljive koristi – poput povećanja angažmana korisnika i konverzije prodaje u maloprodaji te značajnog poboljšanja vremena odgovora na HR upite zaposlenika [27].
  • Upravljanje znanjem u poduzeću: Tvrtke koriste RAG za izgradnju AI sustava koji djeluju kao pametni interni konzultanti. Asistent s RAG-om može biti usmjeren na ogromne repozitorije dokumenata poduzeća – wikiji, priručnici, izvještaji, e-mailovi – i omogućiti zaposlenicima da ih pretražuju prirodnim jezikom. Ovo ima ogroman utjecaj na produktivnost i podršku pri donošenju odluka. Inženjeri mogu pitati chatbot za dizajn sustava o zahtjevima iz prošlih projektnih dokumenata; pravnici mogu pretraživati AI obučen na prošlim slučajevima i regulativama; novi zaposlenici mogu brzo naučiti postavljajući detaljna pitanja internom wiki botu. U suštini, RAG pretvara organizacijske podatke u AI bazu znanja koja se može pretraživati, razbijajući informacijske silose. Do 2025. mnoge tvrtke izvještavaju da RAG postaje okosnica pristupa znanju u poduzeću – osiguravajući da zaposlenici dobivaju precizne, ažurirane odgovore iz ogromnih količina podataka tvrtke, uz poštivanje dozvola pristupa i usklađenosti [28].
  • Korisnička podrška i tehnički helpdeskovi: RAG transformira procese podrške. Zamislite agenta tehničke podrške koji rješava složen softverski problem putem chata – s RAG-om, asistent može pretraživati priručnike, FAQ-ove, pa čak i trenutna izvješća o greškama u stvarnom vremenu [29]. AI može pronaći relevantan vodič za rješavanje problema ili interni tiket koji odgovara šifri greške, a zatim predložiti rješenje korak po korak. Ovo značajno skraćuje vrijeme rješavanja problema, jer i AI i ljudski agent odmah imaju točne informacije koje su im potrebne. Također osigurava da su savjeti dosljedni i točni (temeljeni na službenoj dokumentaciji). Kao rezultat toga, tvrtke poput banaka, telekoma i softverskih firmi uvode RAG-bazirane botove za podršku kako bi poboljšale korisničko iskustvo i smanjile opterećenje pozivnih centara. Ovi sustavi izvrsno rješavaju rijetke upite i složene, višestepene probleme jer mogu dohvatiti specifične informacije po potrebi.
  • Istraživanje i izrada sadržaja: Drugo područje su svi zadaci koji zahtijevaju dubinsko istraživanje ili sintezu sadržaja. RAG sustavi mogu se koristiti za pomoć piscima, analitičarima ili studentima tako što pronalaze činjenice i reference iz velikih količina teksta. Na primjer, pravni istraživački asistenti pokretani RAG-om mogu pronaći relevantnu sudsku praksu i zakone kako bi pomogli u izradi pravnog podneska. Medicinski AI asistenti mogu dohvatiti najnovije članke iz časopisa ili evidenciju pacijenata kada liječnik postavi dijagnostičko pitanje, pomažući u donošenju kliničkih odluka. Financijski analitičari mogu pretraživati tržišne podatke ili izvješća i dobiti AI-generirani sažetak temeljen na tim izvorima. Važno je da, budući da AI navodi izvore, profesionalci mogu provjeriti informacije. Ova upotreba RAG-a kao istraživačkog asistenta ubrzava radne procese koji uključuju pretraživanje velikih količina teksta u potrazi za specifičnim odgovorima ili uvidima.
  • Personalizirane preporuke i upiti na podacima: Neke aplikacije kombiniraju RAG s korisnički specifičnim podacima kako bi isporučile personalizirane rezultate. Na primjer, osobni AI asistent za e-poštu može dohvatiti detalje iz vašeg kalendara, prošlih e-poruka ili datoteka prilikom izrade sažetka ili odgovora za vas. Ili AI alat za prodaju može prikupiti podatke o tvrtki potencijalnog klijenta i najnovije vijesti kako bi prodavaču pomogao sastaviti prilagođenu ponudu. Ovo su u biti specijalizirani slučajevi RAG-a: dohvaćanje je iz osobnih ili kontekstualno specifičnih spremišta podataka, a generiranje stvara prilagođeni rezultat (poput personalizirane preporuke ili sažetka). Ovaj obrazac se čak proširuje na agenske AI sustave – višekoračne AI “agente” koji koriste RAG kao oblik memorije. U 2025. mnogi eksperimentalni AI agenti koriste RAG mehanizam za pohranu i prisjećanje informacija tijekom dugog zadatka ili razgovora (na primjer, pamteći korisničke preferencije ili prethodne upute) [30]. Ova sinergija između RAG-a i AI agenata omogućuje složenije, višekratne interakcije koje ostaju koherentne i informirane kroz vrijeme.
  • Stručni sustavi specifični za domenu: Tvrtke sve više integriraju LLM-ove sa svojim vlasničkim podacima kako bi stvorile stručne AI sustave za određene industrije. CIO Goldman Sachsa Marco Argenti napominje da će poduzeća povezivati AI sa svojim privatnim skupovima podataka putem RAG-a (ili fine-tuninga) kako bi proizvela “velike stručne modele” – AI specijaliste za medicinu, financije, pravo itd., koji poznaju najnovija znanja iz domene [31]. Na primjer, farmaceutska tvrtka može implementirati model temeljen na RAG-u koji ima pristup internim istraživačkim radovima i rezultatima eksperimenata, čime postaje stručni asistent znanstvenicima u formuliranju novih lijekova. Ovaj koncept LLM-ova kao stručnjaka uvelike se oslanja na dohvaćanje: model ostaje opće namjene, ali je obogaćen dubokim izvorom informacija specifičnih za domenu prilikom odgovaranja. Rezultat je AI koji tečno govori žargon i činjenice iz tog područja. To već vidimo sa specijaliziranim chatbotovima poput BloombergGPT za financije ili kliničkih asistenata u zdravstvu, koji koriste RAG tehnike za uključivanje vlasničkih podataka (tržišni podaci, medicinska literatura itd.) i pružaju vrlo precizne, relevantne odgovore.

Ovi primjeri samo zagrebu površinu. Praktički svaka AI aplikacija koja zahtijeva činjeničnu točnost, ažurno znanje ili prilagodbu određenom skupu podataka može imati koristi od RAG-a [32]. Od interaktivnih tražilica (npr. novi val tražilica poput Bing Chat, YouChat ili Brave’s Summarizer koji odgovaraju na upite s citiranim web rezultatima) do kreativnih alata (poput asistenata za kodiranje koji dohvaćaju API dokumentaciju dok generiraju kod), RAG se pokazuje kao svestran okvir. Omogućuje AI-u ne samo generiranje sadržaja, već i dohvaćanje, zaključivanje i zatim odgovaranje, što otvara više puta više primjena nego korištenje izoliranog modela [33]. Kako je jedan NVIDIA članak naveo, s RAG-om “korisnici u biti mogu voditi razgovore s repozitorijima podataka,” što znači da su potencijalni slučajevi upotrebe široki koliko i izvori podataka koje povežete [34].

Prednosti RAG pristupa

Brzo usvajanje generiranja potpomognutog dohvaćanjem potaknuto je brojnim jasnim prednostima u odnosu na korištenje samo LLM-ova:

  • Bolja točnost i manje halucinacija: Temeljenjem odgovora na dohvaćenim dokazima, RAG sustav je mnogo manje sklon izmišljanju stvari. Model uspoređuje svoj generativni izlaz sa stvarnim podacima, što rezultira činjenično točnim i relevantnim odgovorima. Studije i industrijska izvješća pokazuju dramatičan pad stope halucinacija – neki enterprise RAG chatbotovi postižu točnost u rasponu od 95–99% na domenskim upitima, gdje bi običan model često zalutao [35]. Korisnici mogu vjerovati da su odgovori temeljeni na nečemu stvarnom, a ne samo na AI-ovoj mašti [36].
  • Ažurne informacije: RAG omogućuje AI-u da ostane u tijeku s novim informacijama. Sustav može dohvatiti najnovije dostupne podatke (bilo da su to današnje vijesti, baza podataka ažurirana jutros ili dokument dodan prije nekoliko minuta), zaobilazeći zastarjelu granicu znanja koju mnogi LLM-ovi imaju. Ovo je ključno za područja poput financija, vijesti, regulative ili tehnologije, gdje se informacije često mijenjaju. Nema više AI-a zamrznutog u vremenu – RAG bot povezan na živi indeks može odgovarati na pitanja o jučerašnjem događaju jednako dobro kao i o povijesnim.
  • Stručno znanje na zahtjev: RAG omogućuje ono što biste mogli nazvati trenutnom specijalizacijom. Ne trebate posebno treniran model za svaku temu – jedan LLM može se prilagoditi bilo kojoj domeni pružanjem odgovarajućeg referentnog materijala u trenutku upita. To znači da AI usluga može podržavati više područja znanja (na primjer, bazu znanja o osiguranju i medicinsku bazu znanja) promjenom konteksta dohvaćanja, umjesto održavanja odvojenih modela. Također znači da poduzeće može implementirati moćne AI asistente bez treniranja modela na osjetljivim internim podacima – model uči u stvarnom vremenu iz dohvaćenih dokumenata. Odgovori su precizno prilagođeni kontekstu koji pružaju ti dokumenti [37], čineći AI učinkovito dobrim koliko i ukupno znanje u izvoru podataka.
  • Transparentnost i sljedivost: Za razliku od modela crne kutije koji samo daje odgovor, RAG sustavi često prikazuju izvor istine iza odgovora. Mnoge implementacije prikazuju citate ili reference (baš kao i ovaj članak). To gradi veliko povjerenje kod korisnika i predstavlja veliku prednost za usklađenost i mogućnost revizije[38]. Ako virtualni agent kaže “jamstvo traje 2 godine,” može također pružiti poveznicu na točan dokument i odjeljak politike koji podupiru tu tvrdnju. Za regulirane industrije ili bilo koju situaciju u kojoj trebate dvostruko provjeriti rad AI-a, ova sljedivost je neprocjenjiva. To učinkovito pretvara AI u korisnog vodiča koji vas upućuje na izvor odgovora, umjesto u proročanstvo kojem moramo slijepo vjerovati.
  • Nema potrebe za stalnim ponovnim treniranjem: Budući da se novi podaci mogu dodati u indeks za dohvaćanje u bilo kojem trenutku, ne morate ponovno trenirati osnovni LLM svaki put kad se vaše znanje promijeni. To drastično smanjuje napore za održavanje. Fino podešavanje velikog modela pri svakoj nadogradnji podataka nije samo skupo – može uvesti nove pogreške ili zahtijevati prekid rada. RAG to izbjegava. Kako napominju IBM-ovi istraživači, utemeljenje modela na vanjskim činjenicama “smanjuje potrebu za kontinuiranim treniranjem modela na novim podacima”, smanjujući i računalne i financijske troškove [39]. Nadogradnja znanja vašeg AI-a postaje jednostavna kao ažuriranje indeksa pretraživanja ili učitavanje novih dokumenata u bazu podataka.
  • Učinkovitost i skalabilnost: RAG također može biti učinkovitiji u radu. Težak posao pretraživanja baze podataka može se optimizirati pomoću namjenske infrastrukture za pretraživanje (poput vektorskih baza podataka, predmemoriranja itd.), što je često jeftinije i brže nego ubacivati sve u kontekst LLM-a bez razlike. I budući da LLM vidi samo fokusirani sažetak relevantnih informacija (umjesto da pokušava ugurati svo moguće znanje u svoj prompt ili parametre), može učinkovitije koristiti svoj prozor konteksta. To omogućuje obradu velikih baza znanja – možete imati milijune dokumenata indeksiranih, ali samo 5 ili 10 najboljih isječaka se šalje modelu za svaki upit. Pristup je inherentno skalabilan: kako vaši podaci rastu, ažurirate indeks, a ne model. Zapravo, tehnološke tvrtke su izgradile cijele vektorske tražilice i platforme (Pinecone, Weaviate, FAISS itd.) koje služe kao okosnica za dohvat u RAG sustavima, osiguravajući da se čak i među milijardama podataka, pravi mogu brzo pronaći.
  • Kontrolirano znanje i sigurnost: S RAG-om, posebno u poslovnom okruženju, možete eksplicitno kontrolirati kojoj informaciji AI može pristupiti. Ako su neki dokumenti povjerljivi ili su neki izvori nepouzdani, jednostavno ih ne uključite u korpus za dohvat. Ovo je velika razlika u odnosu na golemi unaprijed istrenirani model koji je možda progutao razne nepoznate internetske tekstove (i mogao bi ih ponovo izbaciti). RAG omogućuje organizacijama provođenje upravljanja podacima: npr. AI ostaje offline osim za upite prema odobrenom internom repozitoriju. Također smanjuje mogućnost da model nenamjerno “procuri” podatke iz treninga, jer se model ne oslanja na zapamćeni sadržaj već dohvaća iz provjerene baze. Kako ističu IBM-ovi stručnjaci, oslanjanjem odgovora na provjerljive vanjske podatke, RAG sustav ima manje prilika da izvuče osjetljive ili neprikladne informacije iz svojih internih parametara [40]. U suštini, AI govori samo ono što mu je dopušteno pronaći.

Ove prednosti čine RAG privlačnim rješenjem kad su točnost, ažurnost informacija i povjerenje glavni prioriteti – zbog čega ga mnoge organizacije prihvaćaju. On uzima snage velikih LLM-ova (tečnoća jezika i zaključivanje) i nadopunjuje ih snagama tražilica (preciznost i činjenična utemeljenost). Rezultat je AI koji je i pametan i pouzdan.

Ograničenja i izazovi

Iako je RAG moćan, nije čarobno rješenje. Integracija dohvaćanja i generiranja uvodi vlastite izazove i kompromise na koje praktičari moraju obratiti pažnju:

  • Kvaliteta pronalaženja je važna: RAG sustav je dobar onoliko koliko su dobre informacije koje pronalazi. Ako pretraživačka komponenta zakaže – npr. propusti relevantan dokument ili pronađe nešto nevezano – odgovor modela će biti lošiji. U nekim slučajevima, AI bi čak mogao pokušati “popuniti” praznine, što dovodi do pogrešaka. Osiguravanje da pretraživač vraća vrlo relevantne, točne rezultate (i dovoljno njih) je područje aktivnog rada. To ovisi o dobrim ugradnjama (embeddings), ažurnim indeksima i ponekad pametnoj obradi upita. Teški “nišni” upiti ili dvosmislena pitanja i dalje mogu zbuniti RAG ako nema dovoljno konteksta. Ukratko, smeće unutra, smeće van: generirani odgovor bit će činjenično točan samo koliko i dokumenti koje dobije.
  • Pristranosti i pogreške izvora podataka: RAG nasljeđuje snage i slabosti svojih izvora podataka. Ako vaša baza znanja sadrži zastarjele ili pristrane informacije, AI bi ih mogao prikazati kao istinu. Na primjer, ako interna wiki tvrtke nije ažurirana ili sadrži netočan unos, RAG asistent bi mogao prenijeti tu pogrešku u svom odgovoru. Za razliku od čistog LLM-a koji može dati uravnotežen generički pogled, RAG sustav bi mogao previše vjerovati jednom izvoru. Kako bi to ublažile, organizacije moraju održavati visokokvalitetne, provjerene izvore znanja. Pristranost u dokumentima (npr. povijesni podaci koji odražavaju društvene pristranosti) također može utjecati na odgovore. Kuratiranje korpusa i raznolikost izvora važni su za rješavanje ovog izazova [41].
  • Latencija i složenost: Uvođenje koraka pronalaženja može dodati određenu latenciju odgovorima. Tipičan RAG proces može uključivati pretragu u embedding bazi ili poziv search API-ja koji traje nekoliko stotina milisekundi ili više, osobito na vrlo velikim korpusima ili ako se radi više pretraga (za višekoračna pitanja). Ovo je uglavnom prihvatljivo za većinu chatbot aplikacija, ali može biti problem za ultra niske zahtjeve latencije. Također, izgradnja i održavanje infrastrukture – indeksa, vektorskih baza podataka, pipelineova – dodaje složenost sustava u odnosu na samostalni model. Više je komponenti koje treba uskladiti (iako su se pojavili okviri poput LangChain ili LlamaIndex koji pomažu u tome). Skaliranje ove arhitekture (za obradu mnogih istovremenih upita ili vrlo velikih podataka) zahtijeva inženjerski trud. Međutim, cloud pružatelji i novi alati brzo poboljšavaju jednostavnost implementacije RAG-a u velikom opsegu.
  • Top-K i ograničenja kontekstnog prozora: Model može obraditi samo određenu količinu dohvaćenog teksta. Odlučivanje koliko dokumenata (i koje njihove dijelove) poslati u LLM nije trivijalan problem. Ako date premalo, odgovor može propustiti ključne detalje; previše, i riskirate preopterećenje kontekstnog prozora ili razvodnjavanje relevantnosti (da ne spominjemo veće troškove tokena). Često postoji kompromis između uključivanja dovoljno konteksta i ostajanja unutar ograničenja modela. Tehnike poput chunking (razbijanje dokumenata na dijelove) pomažu, ali ako jedan odgovor zaista zahtijeva informacije, recimo, s 50 stranica teksta, trenutni modeli bi mogli imati poteškoća uključiti sve to odjednom. Modeli s dugim kontekstom (s prozorima od desetaka tisuća tokena) pojavljuju se, što olakšava ovaj problem, ali dolaze s većim računalnim troškovima. Odlučivanje o optimalnim “top-K” dokumentima za dohvat za svaki upit i dalje je područje za optimizaciju [42].
  • Integracija i održavanje: Uvođenje RAG-a zahtijeva više plumbing nego korištenje gotovog chatbota. Timovi moraju upravljati unosom podataka (unošenje relevantnog sadržaja u sustav), vektorizacijom (ugrađivanje dokumenata), indeksiranjem i redovitim ažuriranjem baze znanja. Svaki od tih koraka – kao i konačna kvaliteta odgovora – može zahtijevati nadzor i podešavanje. Na primjer, možda ćete morati ažurirati ugradnje ako dodate puno novih podataka ili prilagoditi algoritam pretraživanja ako primijetite da propušta rezultate. Tu je i izazov orchestrating the workflow između retrievera i LLM-a, posebno u složenim slučajevima ili kada se koristi agent-like ponašanje (iterativno dohvaćanje). Debugiranje RAG sustava ponekad može biti i teže – morate provjeriti dolazi li problem s dohvatne ili generativne strane. Sve to znači da implementacija RAG-a ima krivulju učenja, a mali timovi moraju odvagnuti hoće li koristiti upravljanu uslugu ili ulagati u stručnost za ispravnu izgradnju.
  • Pitanja privatnosti i sigurnosti: Ako dohvat upita vanjske izvore (poput web pretrage) ili koristi vanjsku cloud vektorsku bazu podataka, mogu postojati security issues. Za poslovne slučajeve, ključno je osigurati da vlasnički upiti ili podaci ne “procuruju” van. Čak i unutar organizacije, RAG asistent može nenamjerno otkriti informacije korisniku kojem ne bi smio (ako pristup dokumentima nije pravilno kontroliran). Stoga bi trebale postojati dodatne zaštite i permission checks. Neke tvrtke to rješavaju tako da cijeli RAG sustav drže lokalno ili na privatnom cloudu. Privatnost je manji problem kada RAG koristi zatvoreni repozitorij, ali to je nešto o čemu treba voditi računa ako dizajn uključuje internetsku pretragu ili dijeljenu infrastrukturu [43].
  • Preostale halucinacije ili pogreške u sintezi: Iako RAG uvelike smanjuje halucinacije, ne eliminira ih u potpunosti. Model može pogrešno protumačiti dohvaćeni tekst ili ga nepravilno kombinirati. Na primjer, ako dva dokumenta sadrže blago proturječne informacije, LLM ih može spojiti u zbunjujući odgovor. Ili model može navesti izvor, ali ipak izvući pogrešan zaključak iz njega. Osiguravanje da generirani odgovor ostane vjern izvornom materijalu je stalan izazov. Tehnike poput davanja uputa modelu da koristi samo pružene informacije, ili čak fino podešavanje na skupu podataka s nadopunjenim dohvatom, mogu pomoći. Neke napredne RAG implementacije uključuju završni korak provjere, gdje se odgovor provjerava u odnosu na izvore (ponekad od strane drugog AI-a ili prema eksplicitnim pravilima) kako bi se uhvatile nepodržane tvrdnje. Ipak, korisnici bi trebali ostati oprezni i tretirati RAG odgovore kao asistirane rezultate, a ne apsolutnu istinu.

Unatoč ovim izazovima, konsenzus u industriji i istraživanju je da prednosti RAG-a daleko nadmašuju poteškoće u većini scenarija. Mnoge od ograničenja se aktivno rješavaju novim istraživanjima (npr. boljim algoritmima za dohvat, hibridnim pretraživanjem koje koristi ključne riječi+vektore, većim prozorima konteksta itd.) [44]. Na primjer, istražuje se RAG proširen grafovima (korištenje grafova znanja za poboljšanje konteksta dohvaćanja) i “adaptivni” dohvat gdje LLM može odlučiti postaviti dodatna pitanja ako je potrebno [45]. Ovi napori imaju za cilj učiniti RAG robusnijim čak i za složena, višekoračna pitanja. Također vrijedi napomenuti da neki kritičari tvrde da bi budući LLM-ovi mogli uključivati toliko znanja ili sposobnosti rezoniranja u hodu da eksplicitni dohvat postane manje potreban (“RAG je anti-uzorak,” kako glasi provokativan naslov jednog bloga [46]). Međutim, od 2025. godine, RAG ostaje najpraktičnija metoda za osiguranje da AI sustavi imaju i “mozak” i ažurno znanje. Dodatna složenost je mala cijena za AI koji može potkrijepiti svoje tvrdnje i nositi se s potrebama za informacijama iz stvarnog svijeta.

Razvoj i trendovi u industriji (od 2025.)

Posljednje dvije godine bilježe eksplozivan rast RAG-sustava u tehnološkoj industriji. Ono što je 2020. započelo kao istraživačka ideja, sada je 2025. postalo mainstream, a velike tvrtke i startupi utrkuju se u ugradnji generiranja s nadopunjenim dohvatom u svoje AI proizvode. Evo nekih značajnih razvoja i trenutnih trendova:

  • Prihvaćanje od strane velikih tehnoloških tvrtki: Svi veliki AI i cloud igrači sada nude RAG rješenja. OpenAI je uveo značajke za dohvat znanja (omogućujući ChatGPT-u povezivanje s podacima tvrtke ili webom), Microsoft je ugradio RAG u svoje Azure Cognitive Search i Azure OpenAI usluge, Google je lansirao Vertex AI Search za poduzeća, a Amazonova Bedrock platforma uključuje upravljane Knowledge Bases – sve s ciljem da se tvrtkama olakša dodavanje dohvaćanja generativnoj AI [47]. Microsoftov Bing Chat, objavljen početkom 2023., bio je jedan od prvih poznatih chatbota pokretanih RAG-om, kombinirajući GPT-4 s pretraživanjem weba uživo s velikim učinkom. Google je slijedio s Bardom, a zatim i sa svojom Search Generative Experience (SGE), koja također koristi LLM-ove na vrhu Google Search rezultata. Ovi proizvodi su učinkovito pretvorili tražilice u AI chatbote koji koriste RAG za odgovaranje na upite s citatima. Kako je jedan članak duhovito primijetio, “Danas ga vidite u svim vrstama AI proizvoda” – doista, od pretraživanja do aplikacija za produktivnost, RAG je posvuda [48][49].
  • Platforme i usluge za poduzeća: Postoji rastući ekosustav RAG platformi usmjerenih na poduzeća. Na primjer, Microsoft Azure AI Search (u kombinaciji s Azure OpenAI) pruža predložak za RAG: usmjerite ga na svoje podatke (SharePoint, baze podataka itd.), a on upravlja indeksiranjem i dohvatom tako da LLM može generirati odgovore [50]. IBM-ova Watsonx platforma također ističe RAG mogućnosti, a IBM Research je objavio vodiče za izgradnju RAG sustava za poslovanje [51]. Startupi poput Glean (pretraživanje za poduzeća), Elastic i Lucidworks integrirali su generiranje odgovora LLM-ova na vrhu svoje pretraživačke tehnologije. Čak se i tvrtke za baze podataka priključuju: Pinecone (startup za vektorske baze podataka) postao je ključni pokretač za RAG, a tradicionalne baze poput Redis, Postgres (s pgvectorom) i OpenSearch dodale su značajke vektorskog pretraživanja kako bi podržale ove radne zadatke. Industrija se usklađuje s idejom da će svako poduzeće htjeti chatbota koji može razgovarati s njihovim vlasničkim podacima, a više dobavljača natječe se tko će ponuditi najbolji alat za to.
  • Značajna spajanja i ulaganja: Važnost retrieval tehnologije naglašena je nekim velikim potezima – primjerice, OpenAI (tvrtka iza ChatGPT-a) preuzela je Rockset, bazu podataka za analitiku u stvarnom vremenu i pretraživanje, sredinom 2024. [52]. Ovo se široko tumačilo kao potez za jačanje OpenAI-ove retrieval infrastrukture za svoje modele (omogućujući brže i snažnije RAG mogućnosti za proizvode poput ChatGPT Enterprise). U 2025. OpenAI je također uložio u Supabase, open-source backend baze podataka, što signalizira da čak i tvrtke koje razvijaju AI modele vide pohranu/povlačenje podataka kao strateško [53]. Također smo svjedočili velikim investicijskim rundama za tvrtke koje razvijaju vektorske baze podataka (Pinecone, Weaviate, Chroma itd.) u 2023.-2024., što u suštini pokreće “memorijski sloj” AI-ja. Akvizicije i ulaganja naglašavaju trend: pružatelji LLM-a spuštaju se niže u stack kako bi preuzeli retrieval sloj, a podatkovne platforme idu prema gore kako bi integrirale LLM-ove – svi se susreću u sredini na RAG-u.
  • Proliferacija alata i okvira: Open-source zajednice proizvele su mnoge alate za pojednostavljenje izgradnje RAG aplikacija. LangChain, open-source okvir, postao je vrlo popularan za povezivanje LLM-ova s retrievalom i drugim radnjama. LlamaIndex (GPT Index) je još jedan koji posebno pomaže povezati LLM-ove s vašim izvorima podataka stvaranjem indeksa. Meta (Facebook) je izdao LLM.nsys / Retrieval Augmentation Toolkit i druge u open sourceu. U međuvremenu, NVIDIA je objavila cijelu RAG referentnu arhitekturu (“RAG AI Blueprint”) kako bi pomogla poduzećima da učinkovito implementiraju ove sustave [54]. Pojavljuju se čak i gotova “RAG-as-a-Service” rješenja – primjerice, neke konzultantske tvrtke i startupi nude usluge preuzimanja podataka klijenata i brzog postavljanja RAG chatbota za njih [55]. Sve to znači da za tvrtku koja želi usvojiti RAG u 2025. postoji bogat izbor opcija: od DIY s open sourceom, preko cloud API-ja, do gotovih rješenja, ovisno o željenoj razini prilagodbe u odnosu na praktičnost [56].
  • Napredno RAG istraživanje: Na istraživačkom planu, 2024. i 2025. godina nastavile su usavršavati RAG tehnike. Neki značajni smjerovi uključuju Graph RAG (uvođenje grafova znanja u dohvat radi očuvanja odnosa između činjenica) [57], hibridno pretraživanje (kombinacija pretraživanja po ključnim riječima i vektorskom pretraživanju za bolje razumijevanje upita) i modularne RAG cjevovode koji obrađuju složene upite kroz više koraka [58]. Istraživači također proučavaju dinamičko dohvaćanje, gdje LLM može iterativno tražiti više informacija po potrebi (pretvarajući RAG u konverzacijsku pretragu). Još jedan uzbudljiv razvoj je čvršća integracija između dohvaćanja i generiranja na razini arhitekture – na primjer, pristupi gdje dohvaćanje nastupa tijekom izvođenja modela (poput Retro, Retriever-augmented attention i sl.), čime se briše granica između mjesta gdje pretraga završava i generiranje počinje [59]. Iako su ovo zasad uglavnom eksperimentalni pristupi, obećavaju još učinkovitije i inteligentnije sustave. Multimodalni RAG je još jedna nova granica – korištenje slika ili drugih podataka u procesu dohvaćanja (zamislite AI koji može “pronaći” dijagram ili audio isječak uz tekst). I na kraju, rasprave o RAG-u često se isprepliću s usponom AI agenata: kao što je spomenuto, 2025. godine postoji uzbuđenje oko sustava koji planiraju zadatke i koriste alate. Ti agenti često koriste RAG kao svoju memoriju za pohranu informacija između koraka [60]. Na primjer, agent koji rješava složen problem može dohvatiti dokumente, zapisati međurezultate (u vektorsku bazu), a zatim kasnije dohvatiti te bilješke. Ova sinergija sugerira da će RAG biti temeljna komponenta ne samo za Q&A botove, već i za autonomnije AI sustave koji se zamišljaju.
  • Priče o uspjehu iz stvarnog svijeta: Do sredine 2025. svjedočili smo implementaciji RAG-a u mnogim industrijama. U zdravstvu je, primjerice, Mayo Clinic pilotirala “AI asistent za kliničare” koji koristi RAG za povezivanje GPT-baziranog dijaloga s najnovijom medicinskom literaturom i podacima o pacijentima, pomažući liječnicima da dobiju odgovore s referencama na izvore. Startupi iz pravne tehnologije nude AI odvjetnike koji pronalaze relevantnu sudsku praksu za svako postavljeno pitanje. Banke su koristile RAG za interne alate za procjenu rizika koji povlače tekstove o politikama i usklađenosti kako bi osigurali da su odgovori u skladu s propisima. S potrošačke strane, aplikacije poput Perplexity.ai postale su popularne nudeći “Google + ChatGPT” iskustvo, gdje svako pitanje daje konverzacijski odgovor s citatima, zahvaljujući RAG-u u pozadini [61]. Čak se i društvene mreže uključile – krajem 2023., X (Twitter) je najavio Grok, AI chatbota integriranog s trendovima i znanjem s Twittera u stvarnom vremenu (Elon Musk ga je promovirao kao izvor “vrlo točnih” informacija u stvarnom vremenu putem multi-agentnog RAG pristupa) [62]. Ovi primjeri pokazuju kako je RAG prešao iz teorije u praksu: gotovo svi “AI kopiloti” koji trebaju specifično znanje koriste ga. Kako je jedan stručnjak sažeo: RAG “poboljšava preciznost AI modela pronalaženjem relevantnih informacija iz više vanjskih izvora”, i dokazuje svoju vrijednost u svemu, od oglašavanja do financija i korisničke podrške [63].

Gledajući krajolik u kolovozu 2025., jasno je da je RAG “odrastao”. Daleko od toga da je trik za nišu, sada je temeljna arhitektura za AI implementacije. Tvrtke koje žele pouzdan, domenski svjestan AI sve češće zaključuju da je povlačenje + generiranje pravi put [64]. Kao rezultat toga, baze znanja i LLM-ovi se konvergiraju: tražilice dodaju generativne mogućnosti, a generativni modeli se uparuju s mogućnostima pretraživanja. Ovaj hibridni pristup pokreće sljedeću generaciju chatbota, virtualnih asistenata i AI agenata s kojima svakodnevno komuniciramo.

Zaključak

Retrieval-Augmented Generation predstavlja snažan spoj tehnologije tražilica i naprednih AI jezičnih modela. Učeći AI sustave da “otvore knjigu” i pronađu točno ono znanje koje im treba, RAG čini te sustave daleko korisnijima i pouzdanijima. On prelazi jaz između sirove AI briljantnosti i informacija iz stvarnog svijeta, osiguravajući da naši chatbotovi i asistenti ne zvuče samo pametno – oni jesu pametni, s činjeničnim odgovorima koji to podupiru. Od poduzeća koja implementiraju interne GPT-savjetnike, do potrošača koji postavljaju složena pitanja tražilicama, RAG je skriveni radni konj koji pruža potrebne činjenice i kontekst. Kao što smo vidjeli, ovaj pristup donosi značajne prednosti u točnosti, relevantnosti i prilagodljivosti, iako uvodi i nove tehničke izazove koje treba riješiti.

Godine 2025. RAG je u središtu pomaka prema AI-u koji je duboko integriran sa znanjem. Stručnjaci ga vide kao temelj za izgradnju “ekspertnih AI” sustava prilagođenih svakom području [65]. Uz stalne inovacije, možemo očekivati da će RAG postati još besprijekorniji – moguće je da će jednog dana jednostavno biti pretpostavljeno da svaki snažan AI asistent ima ugrađene mogućnosti pretraživanja. Za sada, svatko tko želi iskoristiti AI za pouzdane, informirane odgovore trebao bi ozbiljno razmotriti RAG paradigmu. To je izvrstan primjer kako kombinacija dviju tehnologija – pretraživanja i generiranja – može dati nešto veće od zbroja njihovih dijelova. Kao što su Patrick Lewis i drugi sugerirali, generiranje potpomognuto pretraživanjem moglo bi biti budućnost generativnog AI-ja, budućnost u kojoj naši AI modeli ne samo da imaju znanje, već točno znaju gdje ga pronaći kad nam zatreba [66].

Izvori:

  • InfoWorld – “Retrieval-augmented generation refined and reinforced”[67]
  • NVIDIA Blog – “What Is Retrieval-Augmented Generation, aka RAG?”[68]
  • Squirro Blog – “The State of RAG in 2025: Bridging Knowledge and Generative AI” [69]
  • Forbes Tech Council preko BestOfAI – “The Rise Of Retrieval-Augmented Generation” [70]
  • Ken Yeung, The AI Economy newsletter – Intervju s Dennisom Perpetuom [71]
  • IBM Research Blog – “What is retrieval-augmented generation?” [72]
  • Signity Solutions – “Top RAG Chatbot AI Systems… in 2025”[73]
  • Goldman Sachs (Marco Argenti) – “Što očekivati od umjetne inteligencije 2025.” [74]

How RAG Turns AI Chatbots Into Something Practical

References

1. medium.com, 2. medium.com, 3. blogs.nvidia.com, 4. research.ibm.com, 5. www.elumenotion.com, 6. research.ibm.com, 7. squirro.com, 8. learn.microsoft.com, 9. www.elumenotion.com, 10. blogs.nvidia.com, 11. blogs.nvidia.com, 12. blogs.nvidia.com, 13. blogs.nvidia.com, 14. thelettertwo.com, 15. thelettertwo.com, 16. research.ibm.com, 17. dataforest.ai, 18. dataforest.ai, 19. www.signitysolutions.com, 20. blogs.nvidia.com, 21. blogs.nvidia.com, 22. research.ibm.com, 23. www.infoworld.com, 24. www.infoworld.com, 25. www.infoworld.com, 26. squirro.com, 27. bestofai.com, 28. squirro.com, 29. dataforest.ai, 30. ragflow.io, 31. www.goldmansachs.com, 32. bestofai.com, 33. blogs.nvidia.com, 34. blogs.nvidia.com, 35. www.signitysolutions.com, 36. blogs.nvidia.com, 37. www.infoworld.com, 38. www.signitysolutions.com, 39. research.ibm.com, 40. research.ibm.com, 41. bestofai.com, 42. www.infoworld.com, 43. bestofai.com, 44. www.infoworld.com, 45. medium.com, 46. www.elumenotion.com, 47. www.infoworld.com, 48. dev.to, 49. github.blog, 50. learn.microsoft.com, 51. research.ibm.com, 52. ragflow.io, 53. ragflow.io, 54. blogs.nvidia.com, 55. www.prismetric.com, 56. www.infoworld.com, 57. medium.com, 58. www.infoworld.com, 59. ragflow.io, 60. ragflow.io, 61. www.signitysolutions.com, 62. www.signitysolutions.com, 63. bestofai.com, 64. squirro.com, 65. www.goldmansachs.com, 66. blogs.nvidia.com, 67. www.infoworld.com, 68. blogs.nvidia.com, 69. squirro.com, 70. bestofai.com, 71. thelettertwo.com, 72. research.ibm.com, 73. www.signitysolutions.com, 74. www.goldmansachs.com

Technology News

  • DX Coding: The Forgotten Film-Era Innovations Digital Photography Forgot
    October 11, 2025, 5:50 PM EDT. Long before face detection, cameras learned to read a film's speed with DX coding. Kodak introduced this 1983 standard, using a checkerboard of conductive squares on the canister to let cameras auto-set ISO via simple camera auto sensing contacts. It solved the era's most common mistake: forgetting to match ISO when loading a new roll, which could ruin an entire shoot. The system also spoke to exposure latitude and count, with barcodes for lab workflows. The elegance lay in a low-tech, reliable solution—no microprocessors required. DX-compatible cameras proliferated in the 80s, gradually fading as digital sensors gained true ISO flexibility. This feature shows how film-era design addressed real problems with simple engineering, a contrast to today's computational wonders.
  • SOM: Breakthrough mission-aware battery metric predicts whether an EV can finish a trip
    October 11, 2025, 5:32 PM EDT. Researchers at UC Riverside have developed the State of Mission (SOM), a mission-aware diagnostic metric that goes beyond traditional battery state functions. Unlike SOC or SOH, SOM predicts whether a battery can complete a specific task—such as powering an EV over a mountain pass, a drone in wind, or a home through a cloudy day—under real-world conditions. By fusing physics-based models with machine learning, SOM combines battery data with factors like temperature, terrain, and traffic to move from reactive readings to proactive, goal-based guidance. This could help electric vehicles plan routes, optimize energy use, and reduce range anxiety. The work by Mihri and Cengiz Ozkan at UC Riverside envisions a new class of battery management that answers: can I finish this trip?
  • RIP Clips: Apple pulls the plug on its quirky short-form video app
    October 11, 2025, 4:46 PM EDT. Apple has pulled the plug on Clips, its quirky short-form video app launched in 2017. A new support document confirms Clips is no longer receiving updates and has been removed from the App Store. Affected users can still redownload it on an iOS 26 device to export videos into another app, but there are no guarantees it will work past iOS 26. With Clips dead, Apple still offers iMovie for iPhone, though it hasn’t seen major updates since 2023 and 2024 bug fixes. Other core apps like Pages, Keynote, and Numbers in the iWork suite remain aging, and related acquisitions Pixelmator Pro and Photomator are awaiting a Liquid Glass update.
  • Samsung W26: The Luxury Foldable for China's Elite
    October 11, 2025, 4:45 PM EDT. Samsung's W26 is a luxury foldable designed for China's elite, pairing gold accents with a premium build and a price north of $2,300. When folded, it's 8.9mm thick and 215g; unfolded, a slim 4.2mm hinge enables a dual-screen setup with a 6.5-inch cover and an 8-inch inner display at 120Hz. The chassis features armored metal and gold rings around a triple-camera array, available in Danxi Red or Xuan Yao Black. Inside are a Snapdragon 8 Elite, 16GB RAM, up to 1TB, and Android 16 on One UI 8. The camera system includes a 50MP main with OIS, 12MP ultra-wide, and 10MP telephoto, plus 10MP outer and 4MP under-display selfies. IP48 water resistance and a side fingerprint sensor complete the package.
  • How to Add Your State ID to Google Wallet on Android (And Why It Matters)
    October 11, 2025, 4:15 PM EDT. With TSA rolling out Digital ID verification at airports, you can now add a state-issued ID to Google Wallet on Android in supported states (Arizona, California, Colorado, Georgia, Iowa, Maryland, Montana, New Mexico, North Dakota). To set up, open Google Wallet, tap the blue Plus icon, choose ID > Driver's license or state ID, select your state, and follow prompts. You'll upload photos of the front and back of your ID and a short video for facial verification. It can take a few minutes for verification. If your state isn’t supported yet, you can add a passport to Google Wallet via ID pass > United States. Digital IDs can speed checkpoints, though you should still carry a physical ID.

Don't Miss