Token kalkulátor
Számold ki az AI nyelvi modellek használatának költségét. Becsüld meg a tokeneket szövegből, és hasonlítsd össze a GPT-4, Claude, Gemini és más modellek árait.
Mi az a token az AI nyelvi modelleknél?
Hogyan számítsd ki az AI API token költségét?
AI token költség képlet
- = Az API-hívás teljes költsége (USD-ben)
- = Bemeneti tokenek száma (prompt, rendszer-prompt és kontextus)
- = Kimeneti tokenek száma (a modell által generált válasz)
- = Az 1 millió bemeneti token ára a választott modellnél
- = Az 1 millió kimeneti token ára a választott modellnél
Gyakorlati példák: AI API token költségek forintban
Magyar nyelvű ügyfélszolgálati chatbot: havi 30 000 beszélgetés
Dokumentum-összefoglalás egy budapesti ügyvédi irodánál
AI kódolási asszisztens egy 10 fős fejlesztőcsapatnak
Tippek az AI API token költségek csökkentéséhez
- Válaszd ki a feladathoz legmegfelelőbb modellt. Egyszerű feladatokhoz (osztályozás, kivonat, összefoglalás) használj budget modelleket: GPT-4.1 mini, Gemini 2.5 Flash-Lite, Claude Haiku, DeepSeek V3.2, Grok 4.1 Fast vagy Amazon Nova Micro. A prémium modelleket (Claude Opus/Sonnet, GPT-5.4, Gemini 2.5 Pro, Grok 4) tartsd fenn a komplex elemzésekhez és kódoláshoz. Feladatalapú modell-routing alkalmazásával akár 40-60%-kal csökkenthetők a költségek.
- Használj prompt gyorsítótárazást (prompt caching). Ha az alkalmazásod minden kérésnél ugyanazt a rendszer-promptot küldi, a gyorsítótárazás akár 90%-kal csökkentheti a bemeneti token költségeket. Az OpenAI automatikusan alkalmazza, az Anthropic explicit cache_control fejléc beállítást igényel.
- Használd a Batch API-t nem sürgős feladatokhoz. Az OpenAI és az Anthropic 50%-os kedvezményt ad a kötegelt (batch) feldolgozásra. Tömeges elemzések, riportok és adatfeldolgozás esetén érdemes kihasználni.
- Rövidítsd a promptjaidat. Minden felesleges token pénzbe kerül. Távolítsd el a redundáns utasításokat és a túl részletes kontextust. Egy jól megfogalmazott 500 tokenes prompt gyakran jobb eredményt ad, mint egy 2000 tokenes -- és 75%-kal kevesebbe kerül.
- Korlátozd a kimeneti token számot. Állítsd be a max_tokens paramétert a ténylegesen szükséges értékre. Ha egymondatos választ vársz, állítsd 100 tokenre a limitet, ne engedd, hogy a modell bekezdéseket generáljon.
- Magyar szövegeknél figyelj a tokenizálási felárra. A magyar nyelv agglutináló jellegéből adódóan ugyanaz a tartalom 50-100%-kal több tokent igényel, mint angolul. Ha lehetséges, a rendszer-promptot és a fix utasításokat írd angolul, a felhasználói interakciót pedig hagyd magyarul -- ez akár 20-30%-ot spórolhat a bemeneti költségeken.
- Monitorozd és állíts be költségriasztást. Használd a szolgáltató költségfigyelő felületét vagy külső eszközöket (pl. Helicone) a tokenfogyasztás nyomon követésére. Állíts be havi költségkorlátot a nem várt túllépések megelőzésére.
Gyakran ismételt kérdések az AI tokenekről és árazásról
Hány token egy magyar szó?
Egy magyar szó átlagosan 1,3-1,5 tokenből áll, szemben az angol szavak 1,0-1,3 tokenes átlagával. A különbség oka, hogy a tokenizáló algoritmusok (BPE) túlnyomórészt angol szövegeken lettek betanítva, így a magyar ragozott, toldalékolt szavakat több kisebb egységre bontják. Rövid, gyakori szavak ("a", "és", "nem") általában 1 token, de hosszabb összetett szavak, mint a "költségvetés" vagy "összehasonlítás", 3-5 tokent is igényelhetnek. Összességében egy 1000 szavas magyar szöveg jellemzően 1300-1500 token.
Miért drágább a magyar szöveg feldolgozása, mint az angolé?
A magyar szöveg feldolgozása átlagosan 50-100%-kal drágább, mint az azonos tartalmú angol szövegé. Ennek fő oka a tokenizálás hatékonysága: a magyar agglutináló nyelv, ami azt jelenti, hogy ragokkal, jelekkel és képzőkkel fejezzük ki a nyelvtani viszonyokat. A tokenizáló ezeket a hosszú, összetett szavakat több kisebb tokenre bontja. Az újabb modellek (pl. GPT-4o és újabb) javítottak ezen: a GPT-4o tokenizálója körülbelül 1,16-szor hatékonyabb magyar szövegen, mint a korábbi GPT-4 változaté, de a különbség az angolhoz képest továbbra is fennáll.
Mennyibe kerül egy ChatGPT API-hívás forintban?
Egy tipikus API-hívás GPT-4.1-gyel (500 bemeneti + 300 kimeneti token) körülbelül 0,0034 USD-be kerül, ami 375 Ft-os árfolyamon kb. 1,3 Ft. Napi 1000 ilyen kérésnél ez havi kb. 38 000 Ft. A budget GPT-4.1 mini modellel ugyanez mindössze kb. 0,0007 USD (0,26 Ft) kérésenként, azaz havi kb. 5800 Ft a 1000 napi kérésre. A prémium GPT-5.4 modellel viszont ugyanez a mennyiség havi kb. 200 000 Ft-ba kerülne.
Melyik a legolcsóbb AI modell API-használatra 2026-ban?
2026 márciusában a legolcsóbb API-modellek (bemenet/kimenet 1M tokenre): Amazon Nova Micro (0,035/0,14 USD), GPT-5 Nano (0,05/0,40 USD), Gemini 2.0 Flash-Lite (0,075/0,30 USD), Mistral Small (0,10/0,30 USD), GPT-4.1 Nano (0,10/0,40 USD), Llama 4 Scout Groq-on (0,11/0,34 USD), Grok 4.1 Fast (0,20/0,50 USD), DeepSeek V3.2 (0,28/0,42 USD). A közép kategóriában: GPT-4.1 Mini (0,40/1,60 USD), Gemini 2.5 Flash (0,30/2,50 USD), Claude Haiku 4.5 (1/5 USD). A prémium szegmensben: GPT-4.1 (2/8 USD), Claude Sonnet 4.6 (3/15 USD), Grok 4 (3/15 USD), Claude Opus 4.6 (5/25 USD). A legjobb választás a feladat összetettségétől függ.
Mi a különbség a token és a szó között?
A szó nyelvi egység, amelyet szóközök választanak el. A token viszont a modell tokenizáló algoritmusa által meghatározott feldolgozási egység -- lehet teljes szó, szótöredék, egyetlen karakter vagy írásjel. Az angol "hello" egy token, de az "unbelievable" szó három tokenre bomlik: "un", "believ", "able". A magyar nyelven a helyzet még összetettebb: a "megváltoztathatatlanság" szó akár 5-6 tokenre is széteshet. Ezért a token-alapú árazás nem feleltethető meg közvetlenül a szószámnak.
Hogyan csökkenthetem a prompt gyorsítótárazással a költségeimet?
A prompt gyorsítótárazás (prompt caching) a rendszeresen ismétlődő prompt-részek (pl. rendszer-prompt) előre kiszámított kulcs-érték vektorait tárolja, így azokat nem kell minden kérésnél újra feldolgozni. A gyorsítótárazott tokenekre 10-50%-os kedvezményes árazás érvényes a normál bemeneti token árhoz képest. Ha az alkalmazásod minden kéréshez ugyanazt a 500 tokenes rendszer-promptot küldi, a gyorsítótárazás akár 90%-kal csökkentheti a bemeneti költségeket erre a részre. Az OpenAI automatikusan alkalmazza, az Anthropic-nál és a Google-nál explicit beállítás szükséges.
Hogyan hasonlíthatom össze a GPT, Claude és Gemini árazását?
2026 márciusában az árak (1M token, bemenet/kimenet): Prémium kategória -- Claude Opus 4.6: 5/25 USD, Grok 4: 3/15 USD, Claude Sonnet 4.6: 3/15 USD, GPT-5.4: 2,50/15 USD, GPT-4.1: 2/8 USD, Gemini 2.5 Pro: 1,25/10 USD. Közép kategória -- o4-mini: 1,10/4,40 USD, Claude Haiku 4.5: 1/5 USD, Gemini 2.5 Flash: 0,30/2,50 USD, GPT-4.1 Mini: 0,40/1,60 USD. Budget -- DeepSeek V3.2: 0,28/0,42 USD, Grok 4.1 Fast: 0,20/0,50 USD, Mistral Small: 0,10/0,30 USD, GPT-4.1 Nano: 0,10/0,40 USD, Amazon Nova Micro: 0,035/0,14 USD. Az árak 2024 óta kb. 80%-kal csökkentek.
Mennyibe kerül egy 10 000 szavas dokumentum feldolgozása?
Egy 10 000 szavas magyar dokumentum nagyjából 13 000-15 000 bemeneti token (az angol megfelelőjénél kb. 30%-kal több). GPT-4.1-gyel (2 USD / 1M bemenet) a bemeneti költség kb. 0,030 USD. Ha a modell 500 szavas összefoglalást generál (kb. 700 kimeneti token, 8 USD / 1M kimenet), a kimeneti költség 0,006 USD. Összesen: kb. 0,036 USD, azaz mintegy 13,5 Ft dokumentumonként. 1000 dokumentum feldolgozása kb. 13 500 Ft-ba kerülne. A budget GPT-4.1 mini modellel ez csupán kb. 2700 Ft lenne -- ötödannyi.
Melyik AI modell a legjobb kódolásra, elemzésre és kreatív írásra?
Kódolás: Claude Opus 4.6 és Claude Sonnet 4.6 vezeti a kódolási rangsorokat, amelyeket a GPT-5.4, GPT-4.1 és a Codestral (Mistral) követ. A GPT-4.1 1 millió tokenes kontextusablaka ideális nagy kódbázisokhoz. Elemzés és logika: az o3 és o4-mini (OpenAI) láncolatos gondolkodást (chain-of-thought) alkalmaz, a DeepSeek R1 (0,55/2,19 USD) a budget reasoning bajnok, a Gemini 2.5 Pro komplex analízisekhez kiváló. Kreatív írás: Claude Sonnet 4.6 a minőség és ár egyensúlyát kínálja, a Grok 4 valós idejű adathozzáféréssel rendelkezik. Tömeges feldolgozás: DeepSeek V3.2, Amazon Nova Micro, Mistral Small és Llama 4 Groq-on a legalacsonyabb költségűek.
Fogalomtár: AI tokenek és kapcsolódó kifejezések
Token
A nagy nyelvi modellek (LLM-ek) legkisebb szövegfeldolgozási egysége. Lehet teljes szó, szórészlet, karakter vagy írásjel. Az API-költségek token-alapúak: a szolgáltatók 1 millió tokenre vetítve adják meg az árakat.
Tokenizáló (Tokenizer)
Az az algoritmus, amely a nyers szöveget tokenekre bontja. Különböző modellek különböző tokenizálókat használnak (pl. tiktoken az OpenAI-nál, SentencePiece a Google-nál), ezért ugyanaz a szöveg eltérő tokenszámot eredményezhet szolgáltatónként.
BPE (Byte Pair Encoding)
A legelterjedtebb tokenizálási algoritmus, amelyet a modern LLM-ek használnak. A leggyakrabban előforduló karakterpárokat iteratívan összevonja, így építi fel a szókészletet. A GPT, Claude és Llama modellek mind BPE-variánsokat alkalmaznak.
Kontextusablak (Context Window)
Az a maximális tokenszám, amelyet egy modell egyetlen kérésben (bemenet + kimenet együtt) feldolgozhat. 2026-ban a kontextusablakok mérete 128K és 2M token között mozog: a Grok 4.1 Fast 2M tokent, a GPT-4.1 és Claude Opus/Sonnet 4.6 egyaránt 1M tokent támogat.
Bemeneti és kimeneti tokenek
A bemeneti (input) tokenek a modellnek küldött szöveg tokenizált formája (prompt, rendszer-prompt, kontextus). A kimeneti (output) tokenek a modell által generált válasz. A kimeneti tokenek jellemzően 3-8-szor drágábbak, mivel a szekvenciális generálás nagyobb számítási kapacitást igényel.
Prompt gyorsítótárazás (Prompt Caching)
Költségoptimalizálási technika, amely az ismétlődő prompt-részek előre kiszámított kulcs-érték párjait tárolja. A gyorsítótárazott bemeneti tokenek a normál ár 10-50%-áért számlázódnak, ami akár 90%-os megtakarítást jelent az ismétlődő prompt-részeknél.
LLM (Large Language Model)
Nagy nyelvi modell -- hatalmas szövegkorpuszon betanított mesterségesintelligencia-rendszer, amely emberi szintű szöveget képes megérteni és generálni. A legfontosabb LLM-ek 2026-ban: GPT-5.4 (OpenAI), Claude Opus 4.6 (Anthropic), Gemini 2.5 Pro (Google), Grok 4 (xAI), Llama 4 (Meta), DeepSeek V3.2 és Mistral Large.
