Amikor a prompt engineering már nem elég — saját hangon tanítjuk a modelled
Van, amikor a GPT-4 vagy a Claude egyszerűen nem érti a céged nyelvét. A jogi zsargont, a márkahangodat, a magyar ragozás finomságait. Ilyenkor jön a fine-tuning: a modell a saját adataidon tanul, és onnantól úgy ír, ahogy ti szoktatok — megbízhatóan, formátum-stabilan, és sokszor olcsóbban, mint GPT-4-et prompt-olni.
Mikor érdemes finomhangolni?
- Magyar szakmai nyelvi kontextus, amit a base modellek nem kezelnek jól
- Márkahang, tone-of-voice, amit következetesen kell tartani
- Strukturált output (JSON, XML) amit minden alkalommal pontosan kell generálni
- Domain-specifikus feladat (jog, orvos, pénzügy) ahol a base modell 'általános' marad
- Költségoptimalizálás: egy fine-tuned kisebb modell olcsóbb, mint GPT-4 prompt engineering-gel
Mit szállítunk
Adathalmaz előkészítés
Training data gyűjtés, tisztítás, címkézés, augmentation, train/val/test split. Magyar, angol, német nyelvi corpus kezelés.
Modell választás
OpenAI (GPT-4o-mini, GPT-4.1 fine-tuning), Anthropic (context engineering Claude-dal), open-source (Llama 3.1, Mistral, Qwen) Together vagy saját vLLM-en.
Training és kiértékelés
LoRA vagy full fine-tune, hyperparameter tuning, evaluation suite a valós use-case alapján. Nem 'loss csökken' — üzleti metrika alapján mérünk.
Deployment
Managed (OpenAI, Together) vagy self-hosted vLLM EU régióban. A/B tesztelés a base modellhez képest, monitoring.
Időzítés és költség
PoC fine-tuning (1 task, 1 modell): 3–4 hét, €10.000–€20.000. Production fine-tuning (többszörös iteráció, eval suite, deployment): 6–10 hét, €25.000–€60.000 (GPU compute külön).
Hangoljuk finomra a modelled
30 perces hívásban átnézzük az adataidat, a célod és a költségkorlátot. Ha a prompt engineering is elég, azt is megmondjuk.
Foglalj discovery hívástTovábbi olvasnivaló