Temperatura w modelach LLM i SLM
Świetne pytanie 🙂
Parametr temperatury to jedno z kluczowych ustawień w dużych modelach językowych (LLM – Large Language Models) i mniejszych (SLM – Small Language Models).
🔥 Co oznacza temperatura?
Temperatura kontroluje losowość wyboru tokenów podczas generowania odpowiedzi.
👉 Wysoka temperatura (>1.0):
rozkład prawdopodobieństwa jest bardziej „spłaszczony”,
model częściej wybiera mniej oczywiste słowa,
tekst jest bardziej kreatywny, zróżnicowany, ale też chaotyczny.
👉 Niska temperatura (<1.0, np. 0.2–0.5):
model wybiera najpewniejsze słowa,
odpowiedzi są bardziej przewidywalne, spójne i zachowawcze,
mniejsze ryzyko błędów, ale też mniej oryginalności.
👉 Temperatura = 0:
model zachowuje się deterministycznie – zawsze wybiera najbardziej prawdopodobne słowo,
odpowiedzi będą niemal identyczne przy tym samym promptcie.
📌 Przykład (uproszczony)
Model ma do wyboru następne słowo po „Kawa jest…” z rozkładem prawdopodobieństwa:
„dobra” – 60%
„czarna” – 25%
„gorąca” – 15%
Temperatura = 0 → zawsze „dobra”.
Temperatura = 0.7 → najczęściej „dobra”, ale czasem „czarna”.
Temperatura = 1.5 → znacznie częściej „czarna” albo „gorąca”.
🧩 Zastosowanie w praktyce
Niska temperatura (0–0.5) – gdy zależy na faktach, stabilności, kodzie, analizie danych.
Średnia (0.7–1.0) – balans między kreatywnością a spójnością.
Wysoka (>1.0) – do generowania pomysłów, poezji, opowieści, burzy mózgów.
Co to znaczy Temperatura w modelach LLM i SLM?
Dowiedz się co oznacza „Temperatura w modelach LLM i SLM” razem z opisem definicji tego wyrażenia. Jak stosować ten zwrot, oraz jak się nim poprawnie posługiwać.
O tym, co to jest Temperatura w modelach LLM i SLM przeczytasz w tym materiale.
tagi:
- co to znaczy
- co jest znaczy
- co oznacza
Wszystkie publikowane materiały są weryfikowane przez naszą redakcję.