Büyük dil modellerini (LLM) kurum içi verilerle zenginleştirerek daha akıllı sistemler kurmayı sağlayan RAG (Retrieval Augmented Generation) mimarisi bu eğitimin odak noktasıdır. Katılımcılar; doküman işleme, metin parçalama (chunking) ve embedding tekniklerini öğrenerek verilerini vektör veritabanlarına (Pinecone, Chroma vb.) nasıl aktaracaklarını deneyimler. Sonuçta, kurum dokümanları üzerinden soru-cevap yapabilen asistanlar geliştirmek için LangChain ile uçtan uca bir yapı kurulur.
•Retrieval Augmented Generation nedir?
•RAG vs fine-tuning karşılaştırması
•Temel RAG pipeline bileşenleri
•Use case'ler: Chatbot, Q&A sistemleri, doküman asistanları
•Doküman yükleme ve parsing (PDF, Word, HTML)
•Text chunking stratejileri
•Embedding modelleri (OpenAI, Sentence Transformers)
•Vector similarity ve semantic search
•Vector database seçenekleri (Pinecone, Chroma, Weaviate)
•Index oluşturma ve veri yükleme
•Similarity search ve hybrid search
•Retrieval optimization teknikleri
•LangChain ile RAG pipeline kurulumu
•Prompt engineering for RAG
•Response generation ve citation
•Evaluation ve quality metrics
•Capstone: Kurumsal doküman asistanı geliştirme
