Retrieval-Augmented Generation (RAG) with LLMs (IT025)
Deskripsi Training
Training ini membahas konsep, arsitektur, dan implementasi Retrieval-Augmented Generation (RAG) dengan memanfaatkan Large Language Models (LLMs).
Peserta akan mempelajari bagaimana menggabungkan teknologi pencarian informasi (retrieval) dengan kemampuan generatif model bahasa besar
untuk menghasilkan jawaban yang relevan, kontekstual, dan akurat. Materi mencakup pengenalan RAG, pipeline arsitektur, integrasi dengan berbagai
sumber data terstruktur dan tidak terstruktur, serta penerapan dalam skenario bisnis nyata.
Daftar Sekarang
Silabus Training
- Modul 1: Pengenalan RAG dan LLMs
Definisi RAG, manfaatnya dalam NLP, dan perbedaannya dengan pendekatan LLM murni.
- Modul 2: Arsitektur dan Komponen RAG
Pipeline RAG: query understanding, document retrieval, context augmentation, hingga text generation oleh LLM.
- Modul 3: Integrasi Sumber Data
Integrasi data terstruktur (SQL/NoSQL) dan tidak terstruktur (dokumen teks, API, multimedia) untuk kebutuhan retrieval.
- Modul 4: Implementasi dengan Framework Populer
Praktik membangun sistem RAG menggunakan LangChain, Haystack, atau LlamaIndex.
- Modul 5: Optimisasi dan Fine-Tuning
Meningkatkan relevansi retrieval, mengurangi hallucination pada LLM, serta strategi fine-tuning.
- Modul 6: Studi Kasus dan Deployment
Penerapan RAG untuk chatbot customer service, sistem penjawab dokumen legal, dan knowledge assistant perusahaan.
Contoh Kasus
Sebuah perusahaan layanan hukum ingin membangun asisten virtual yang dapat menjawab pertanyaan terkait regulasi dan dokumen hukum internal.
Sistem RAG digunakan untuk mengambil pasal-pasal relevan dari database hukum internal dan publik, lalu menggabungkannya dengan LLM
untuk menghasilkan jawaban yang lengkap, akurat, dan mudah dipahami oleh pengguna.