CH04 - Model
Perkiraan waktu belajar: 1.5 Hari
Tingkat kesulitan: Mudah
Fase model atau Large Language Model (LLM) adalah proses memanfaatkan model bahasa yang besar untuk menghasilkan respons berdasarkan input yang dibangun pada fase prompt sebelumnya. Fase ini adalah bagian penting dari sistem RAG, yang memanfaatkan sepenuhnya kemampuan model bahasa untuk menghasilkan jawaban yang akurat dan alami atas pertanyaan pengguna.
Kebutuhan akan LLM
- Memahami maksud pengguna: LLM memiliki pemahaman yang mendalam tentang struktur dan makna bahasa yang berbeda, yang memungkinkan mereka untuk menjawab pertanyaan yang kompleks. Dikombinasikan dengan kemampuan pemahaman bahasa alami (NLU) dan pembuatan bahasa alami (NLG), LLM dapat memberikan respons yang lebih alami dan informatif.
- Kemampuan beradaptasi secara kontekstual: LLM menghasilkan respons yang mempertimbangkan konteks yang diberikan. Hal ini memungkinkannya untuk merespons pertanyaan pengguna dengan lebih akurat, dan memberikan jawaban yang sesuai konteks berdasarkan informasi yang diberikan oleh pengguna di luar pengetahuan yang telah dipelajari sebelumnya.
Pentingnya LLM
Fase LLM merupakan faktor kunci dalam menentukan kualitas dan kealamian jawaban atas pertanyaan pengguna. Di sinilah LLM mensintesis semua data dan informasi yang telah dikumpulkan untuk menghasilkan jawaban yang dioptimalkan atas pertanyaan pengguna. Kinerja LLM secara langsung memengaruhi kinerja keseluruhan sistem RAG dan kepuasan pengguna, yang sangat penting bagi banyak aplikasi yang menggunakan sistem RAG.
Code
Menggunakan GPT-4o
dari OpenAI
# Membuat model bahasa (LLM)
# Menggunakan model GPT-4o dari OpenAI.
llm = ChatOpenAI(model_name="gpt-4o")
Menggunakan Claude3 Sonnect
dari Anthropic
from langchain_anthropic import ChatAnthropic
# Membuat model bahasa (LLM)
# Menggunakan model Claude dari Anthropic.
llm = ChatAnthropic(model="claude-3-sonnet-20240229")
Menggunakan model lokal llama3-8b
from langchain_community.chat_models import ChatOllama
# Membuat model bahasa (LLM)
# Menggunakan model Ollama (lokal) yang didukung oleh LangChain.
llm = ChatOllama(model="llama3:8b")