Materi 12 · Deep Learning · ⭐ Featured

Generative AI & Large Language Models

Era baru AI sejak ChatGPT 2022. Pelajari cara LLM bekerja, prompt engineering, RAG (Retrieval Augmented Generation), fine-tuning, dan diffusion models untuk image generation.

⏱ 35 Menit🎯 Advanced📚 Module 12/15

1. Apa Itu Generative AI?

Generative AI = sistem yang membuat konten baru (text, image, audio, video, code) yang belum pernah ada sebelumnya. Berbeda dengan discriminative AI yang hanya mengklasifikasi/memprediksi label dari input.

Tipe Generative AI Modern

Text: ChatGPT, Claude, Gemini, Llama. Image: DALL-E, Midjourney, Stable Diffusion. Audio: ElevenLabs, Suno. Video: Sora, Runway. Code: GitHub Copilot, Cursor, Claude Code. 3D: Meshy, Luma AI.

2. Cara LLM Bekerja

LLM = neural network besar (miliaran parameter) yang dilatih memprediksi token berikutnya dari konteks sebelumnya. Surprisingly simple objective, tapi muncul kemampuan emergent yang kompleks.

Next Token Prediction P(token_next | token_1, token_2, ..., token_n)
// Probabilitas token berikutnya given semua token sebelumnya
Generation Strategies greedy: pilih token dengan prob tertinggi
sampling: random sample dari distribusi
top-k: sample dari top-k tokens
top-p: sample dari tokens yang akumulasi prob ≥ p
temperature: control "kreativitas" (0=deterministik, 1=normal, >1=kreatif)

3. Prompt Engineering

📝

Zero-shot

Berikan task langsung tanpa contoh. Model harus paham dari instruksi.

🎯

Few-shot

Berikan 1-5 contoh input-output. Model belajar pola dari context.

🧠

Chain-of-Thought

Minta model "berpikir step-by-step". Hasil lebih akurat untuk reasoning.

Best Practices

4. RAG — Retrieval Augmented Generation

Solve Hallucination dengan External Knowledge

LLM punya knowledge cutoff dan bisa "halusinasi". RAG = ambil dokumen relevan dari knowledge base sendiri, masukkan ke prompt sebagai context. Model menjawab berdasarkan context, bukan hanya training data.

RAG Pipeline 1. Embedding documents → vector database
2. User query → embed → similarity search top-K
3. Append retrieved docs to prompt context
4. LLM generate answer based on context

5. Fine-tuning vs Prompt Engineering vs RAG

PendekatanPakai SaatCost
Prompt EngineeringDefault. Coba dulu.Murah, instant
Few-shot PromptingButuh format/style spesifikMurah, sedang
RAGButuh knowledge eksternal/privateSedang, infra cost
Fine-tuningButuh perilaku/style sangat khususMahal, butuh data
Pre-trainingHampir tidak pernahSangat mahal (jutaan $)

6. AI Agents — Beyond Chat

Agent = LLM dengan kemampuan execute tools (search web, call API, run code, file system) untuk multi-step task.

7. Diffusion Models — Image Generation

Cara Kerja Stable Diffusion / DALL-E

Forward process: tambahkan noise pada gambar bertahap sampai jadi pure noise.
Reverse process: train neural network untuk denoise — predict step demi step gambar asli.
Conditioning: pakai text encoder (CLIP) untuk guide generation berdasarkan prompt.

8. Studi Kasus

🌟 Real World

Klinik Pintar: AI Medical Assistant Indonesia

Klinik Pintar membangun AI medical assistant berbasis LLM Indonesia + RAG dari guidelines kedokteran lokal. Dokter bisa tanya diagnosis dan obat dengan konteks pasien.

Pelajaran: RAG + domain expertise > vanilla GPT untuk vertical use case. Investasi knowledge base lokal jadi competitive moat.

📝 Tugas

Build RAG Application

  1. Pakai Python + LangChain + OpenAI API (atau Claude API).
  2. Pilih 5-10 PDF (mis. paper, dokumen kuliah).
  3. Build pipeline: chunk → embed → store di Chroma/FAISS.
  4. Implement query: retrieve top-3 chunks → prompt LLM dengan context.
  5. Evaluasi: 10 pertanyaan, bandingkan jawaban RAG vs vanilla LLM.
  6. Bonus: build simple Streamlit UI untuk chat interface.

Rangkuman