Ugrás a fő tartalomhoz
UseAIEasily Logó
UseAIEasily
LLM finomhangolás

Amikor a prompt engineering már nem elég — saját hangon tanítjuk a modelled

Van, amikor a GPT-4 vagy a Claude egyszerűen nem érti a céged nyelvét. A jogi zsargont, a márkahangodat, a magyar ragozás finomságait. Ilyenkor jön a fine-tuning: a modell a saját adataidon tanul, és onnantól úgy ír, ahogy ti szoktatok — megbízhatóan, formátum-stabilan, és sokszor olcsóbban, mint GPT-4-et prompt-olni.

Mikor érdemes finomhangolni?

  • Magyar szakmai nyelvi kontextus, amit a base modellek nem kezelnek jól
  • Márkahang, tone-of-voice, amit következetesen kell tartani
  • Strukturált output (JSON, XML) amit minden alkalommal pontosan kell generálni
  • Domain-specifikus feladat (jog, orvos, pénzügy) ahol a base modell 'általános' marad
  • Költségoptimalizálás: egy fine-tuned kisebb modell olcsóbb, mint GPT-4 prompt engineering-gel

Mit szállítunk

Adathalmaz előkészítés

Training data gyűjtés, tisztítás, címkézés, augmentation, train/val/test split. Magyar, angol, német nyelvi corpus kezelés.

Modell választás

OpenAI (GPT-4o-mini, GPT-4.1 fine-tuning), Anthropic (context engineering Claude-dal), open-source (Llama 3.1, Mistral, Qwen) Together vagy saját vLLM-en.

Training és kiértékelés

LoRA vagy full fine-tune, hyperparameter tuning, evaluation suite a valós use-case alapján. Nem 'loss csökken' — üzleti metrika alapján mérünk.

Deployment

Managed (OpenAI, Together) vagy self-hosted vLLM EU régióban. A/B tesztelés a base modellhez képest, monitoring.

Időzítés és költség

PoC fine-tuning (1 task, 1 modell): 3–4 hét, €10.000–€20.000. Production fine-tuning (többszörös iteráció, eval suite, deployment): 6–10 hét, €25.000–€60.000 (GPU compute külön).

Hangoljuk finomra a modelled

30 perces hívásban átnézzük az adataidat, a célod és a költségkorlátot. Ha a prompt engineering is elég, azt is megmondjuk.

Foglalj discovery hívást

További olvasnivaló