Smart Calculators

Smart

Calculators

Token kalkulátor

Számold ki az AI nyelvi modellek használatának költségét. Becsüld meg a tokeneket szövegből, és hasonlítsd össze a GPT-4, Claude, Gemini és más modellek árait.

Token kalkulátor. AI token számolás és API költségbecslés LLM modellekhez.
A token kalkulátor megbecsüli a tokenek számát a szövegben, és kiszámítja az API-költséget GPT, Claude, Gemini, Grok és DeepSeek modellekhez. A szöveg hosszát tokenekre alakítja a szabványos, körülbelül 4 karakterenkénti 1 token arány alapján, majd alkalmazza az egyes modellek millió tokenenkénti árát, hogy azonnal megmutassa a bemeneti és kimeneti költségeket.

Mi az a token az AI nyelvi modelleknél?

A token a mesterséges intelligencia nyelvi modelljei (LLM-ek) által használt legkisebb szövegegység, amelyre a rendszer a bemeneti szöveget felbontja feldolgozás előtt. Egy token lehet egy teljes szó, szótöredék, egyetlen karakter vagy írásjel -- a pontos felosztás a modell tokenizáló algoritmusától függ. Az angol nyelvben 1 token nagyjából 4 karakternek vagy 0,75 szónak felel meg, tehát 1000 angol szó körülbelül 1333 tokent jelent.
A magyar nyelv esetében a helyzet lényegesen eltér: mivel a tokenizálók túlnyomórészt angol szövegeken lettek betanítva, a magyar szöveg jellemzően 1,5-2-szer annyi tokent igényel, mint az ugyanolyan hosszúságú angol szöveg. Ennek oka a magyar nyelv agglutináló jellege -- a ragok, jelek és képzők miatt az olyan szavakat, mint a "költségvetés" vagy a "összehasonlítás", a tokenizáló több kisebb egységre bontja. Ez azt jelenti, hogy a magyar nyelvű API-hívások akár 50-100%-kal drágábbak lehetnek, mint az angol megfelelőik.
Az AI API-szolgáltatók (OpenAI, Anthropic, Google, xAI, DeepSeek, Mistral, Meta) a felhasznált tokenek alapján számláznak, külön áron a bemeneti tokenekre (a küldött prompt) és a kimeneti tokenekre (a modell válasza). A token kalkulátorunk segítségével azonnal kiszámíthatod a szöveged tokenszámát és a várható költségeket több mint 30 modell árazásával összevetve.

Hogyan számítsd ki az AI API token költségét?

Az AI API-hívás költségének kiszámításához három adatra van szükséged: a bemeneti tokenek száma, a kimeneti tokenek száma, és a választott modell token-árazása.
Íme a lépésenkénti útmutató:
1. Becsüld meg a bemeneti tokenek számát. Illeszd be a prompt szövegedet a token számlálónkba, vagy használd a közelítő képletet: magyar szöveg esetén 1 szó átlagosan 1,3-1,5 token (angol szövegnél 1,0-1,3 token).
2. Becsüld meg a kimeneti tokenek számát. Ez a modell válaszának várható hossza. Egy rövid válasz 100-300 token, egy részletes magyarázat 1000-2000 token.
3. Keresd ki a választott modell árazását. Az AI-szolgáltatók az árat 1 millió tokenre vetítve adják meg, külön a bemenethez és a kimenethez.
4. Alkalmazd az alábbi költségképletet.
Példa: Ha egy 2000 tokenes promptot küldesz a Claude Sonnet 4.6 modellnek (3 USD / 1M bemeneti token) és 500 tokenes választ kapsz (15 USD / 1M kimeneti token), a költség: (2000 / 1 000 000 x 3) + (500 / 1 000 000 x 15) = 0,006 + 0,0075 = 0,0135 USD, azaz hozzávetőleg 5 Ft egyetlen API-hívásért. Napi 10 000 kérésnél ez 50 000 Ft naponta, vagyis nagyjából 1 500 000 Ft havonta.
Fontos tudni, hogy a kimeneti tokenek jellemzően 3-8-szor drágábbak, mint a bemeneti tokenek. Ennek oka, hogy a bemeneti tokeneket a modell párhuzamosan, egyetlen előrecsatolási lépésben dolgozza fel, míg a kimeneti tokenek egyenként, szekvenciálisan generálódnak -- ez lényegesen nagyobb számítási kapacitást igényel.

AI token költség képlet

K=Tbe×Pbe1,000,000+Tki×Pki1,000,000K = \frac{T_{be} \times P_{be}}{1{,}000{,}000} + \frac{T_{ki} \times P_{ki}}{1{,}000{,}000}
  • KK = Az API-hívás teljes költsége (USD-ben)
  • TbeT_{be} = Bemeneti tokenek száma (prompt, rendszer-prompt és kontextus)
  • TkiT_{ki} = Kimeneti tokenek száma (a modell által generált válasz)
  • PbeP_{be} = Az 1 millió bemeneti token ára a választott modellnél
  • PkiP_{ki} = Az 1 millió kimeneti token ára a választott modellnél
Havi költségek kiszámításához bővítsd ki a képletet a kérések számával:
Khavi=(Tbe×Pbe+Tki×Pki1,000,000)×N×30K_{havi} = \left(\frac{T_{be} \times P_{be} + T_{ki} \times P_{ki}}{1{,}000{,}000}\right) \times N \times 30
Ahol N a napi API-kérések száma. Ha prompt gyorsítótárazást (prompt caching) használsz -- amelyet az OpenAI, Anthropic és a Google is kínál --, a gyorsítótárazott bemeneti tokenek a normál bemeneti ár 10-50%-áért számlázódnak, ami jelentősen csökkenti az ismétlődő rendszer-prompttal működő alkalmazások költségeit.
Magyar nyelvű alkalmazásoknál fontos a tokenszám-korrekció: mivel a magyar szöveg átlagosan 1,5-2x annyi tokent igényel, mint az angol, a költségkalkulációban érdemes a nyers szószámot 1,5-ös szorzóval korrigálni a pontosabb becsléshez.

Gyakorlati példák: AI API token költségek forintban

Magyar nyelvű ügyfélszolgálati chatbot: havi 30 000 beszélgetés

Egy magyar webáruház AI-chatbotot üzemeltet az ügyfélszolgálaton GPT-4.1 mini modellel (0,40 USD / 1M bemeneti token, 1,60 USD / 1M kimeneti token). Minden beszélgetés átlagosan 1000 bemeneti tokent (rendszer-prompt + vásárlói kérdés + előzmények -- magyar szövegnél magasabb tokenszám) és 500 kimeneti tokent tartalmaz.
Bemeneti költség: 30 000 x 1000 / 1 000 000 x 0,40 = 12,00 USD Kimeneti költség: 30 000 x 500 / 1 000 000 x 1,60 = 24,00 USD Havi összköltség: 36,00 USD, azaz nagyjából 13 500 Ft
Ha a vállalkozás prémium modellre, például Claude Sonnet 4.6-ra (3/15 USD / 1M token) váltana, a havi költség 315 USD-re (kb. 118 000 Ft-ra) ugrana -- több mint 8-szoros különbség. Egyszerűbb ügyfélszolgálati feladatokhoz a budget modell kiváló ár-érték arányt kínál.

Dokumentum-összefoglalás egy budapesti ügyvédi irodánál

Egy budapesti ügyvédi iroda napi 15 magyar nyelvű szerződést elemeztet AI-val. Egy átlagos szerződés magyar szövege 4500 bemeneti tokent igényel (angolul ugyanez kb. 3000 token lenne), az összefoglalás pedig kb. 600 kimeneti token. Havi szinten (22 munkanap) ez 330 API-kérést jelent.
Gemini 2.5 Flash modellel (0,30 USD / 1M bemenet, 2,50 USD / 1M kimenet): Bemeneti költség: 330 x 4500 / 1 000 000 x 0,30 = 0,45 USD Kimeneti költség: 330 x 600 / 1 000 000 x 2,50 = 0,50 USD Havi összköltség: 0,95 USD, azaz mindössze kb. 360 Ft
Az AI-elemzés havi 360 Ft-ért órákat takarít meg a jogászoknak. Claude Opus 4.6 modellel (5/25 USD / 1M) a minőség magasabb lenne, de a költség is emelkedne kb. 12 350 Ft-ra -- az iroda méretétől és a minőségi igényektől függően ez is megérheti.

AI kódolási asszisztens egy 10 fős fejlesztőcsapatnak

Egy magyar szoftvercsapat 10 fejlesztője AI kódsegédet használ Claude Sonnet 4.6 modellel (3 USD / 1M bemenet, 15 USD / 1M kimenet). Minden fejlesztő naponta átlagosan 35 kérést indít, kérésenként 2500 bemeneti tokennel (kódkontextus + kérdés) és 700 kimeneti tokennel (kódjavaslat + magyarázat).
Napi kérésszám: 10 x 35 = 350 Napi bemeneti költség: 350 x 2500 / 1 000 000 x 3,00 = 2,63 USD Napi kimeneti költség: 350 x 700 / 1 000 000 x 15,00 = 3,68 USD Napi összesen: 6,31 USD | Havi (22 munkanap): 138,82 USD, kb. 52 000 Ft
Ez fejlesztőnként havi kb. 5200 Ft -- nagyjából egy ebéd ára. A produktivitásnövekedéshez képest ez kiváló befektetés. Prompt gyorsítótárazással a közös rendszer-prompt és kódkontextus költsége további 15-25%-kal csökkenthető.

Tippek az AI API token költségek csökkentéséhez

  • Válaszd ki a feladathoz legmegfelelőbb modellt. Egyszerű feladatokhoz (osztályozás, kivonat, összefoglalás) használj budget modelleket: GPT-4.1 mini, Gemini 2.5 Flash-Lite, Claude Haiku, DeepSeek V3.2, Grok 4.1 Fast vagy Amazon Nova Micro. A prémium modelleket (Claude Opus/Sonnet, GPT-5.4, Gemini 2.5 Pro, Grok 4) tartsd fenn a komplex elemzésekhez és kódoláshoz. Feladatalapú modell-routing alkalmazásával akár 40-60%-kal csökkenthetők a költségek.
  • Használj prompt gyorsítótárazást (prompt caching). Ha az alkalmazásod minden kérésnél ugyanazt a rendszer-promptot küldi, a gyorsítótárazás akár 90%-kal csökkentheti a bemeneti token költségeket. Az OpenAI automatikusan alkalmazza, az Anthropic explicit cache_control fejléc beállítást igényel.
  • Használd a Batch API-t nem sürgős feladatokhoz. Az OpenAI és az Anthropic 50%-os kedvezményt ad a kötegelt (batch) feldolgozásra. Tömeges elemzések, riportok és adatfeldolgozás esetén érdemes kihasználni.
  • Rövidítsd a promptjaidat. Minden felesleges token pénzbe kerül. Távolítsd el a redundáns utasításokat és a túl részletes kontextust. Egy jól megfogalmazott 500 tokenes prompt gyakran jobb eredményt ad, mint egy 2000 tokenes -- és 75%-kal kevesebbe kerül.
  • Korlátozd a kimeneti token számot. Állítsd be a max_tokens paramétert a ténylegesen szükséges értékre. Ha egymondatos választ vársz, állítsd 100 tokenre a limitet, ne engedd, hogy a modell bekezdéseket generáljon.
  • Magyar szövegeknél figyelj a tokenizálási felárra. A magyar nyelv agglutináló jellegéből adódóan ugyanaz a tartalom 50-100%-kal több tokent igényel, mint angolul. Ha lehetséges, a rendszer-promptot és a fix utasításokat írd angolul, a felhasználói interakciót pedig hagyd magyarul -- ez akár 20-30%-ot spórolhat a bemeneti költségeken.
  • Monitorozd és állíts be költségriasztást. Használd a szolgáltató költségfigyelő felületét vagy külső eszközöket (pl. Helicone) a tokenfogyasztás nyomon követésére. Állíts be havi költségkorlátot a nem várt túllépések megelőzésére.

Gyakran ismételt kérdések az AI tokenekről és árazásról

Hány token egy magyar szó?

Egy magyar szó átlagosan 1,3-1,5 tokenből áll, szemben az angol szavak 1,0-1,3 tokenes átlagával. A különbség oka, hogy a tokenizáló algoritmusok (BPE) túlnyomórészt angol szövegeken lettek betanítva, így a magyar ragozott, toldalékolt szavakat több kisebb egységre bontják. Rövid, gyakori szavak ("a", "és", "nem") általában 1 token, de hosszabb összetett szavak, mint a "költségvetés" vagy "összehasonlítás", 3-5 tokent is igényelhetnek. Összességében egy 1000 szavas magyar szöveg jellemzően 1300-1500 token.

Miért drágább a magyar szöveg feldolgozása, mint az angolé?

A magyar szöveg feldolgozása átlagosan 50-100%-kal drágább, mint az azonos tartalmú angol szövegé. Ennek fő oka a tokenizálás hatékonysága: a magyar agglutináló nyelv, ami azt jelenti, hogy ragokkal, jelekkel és képzőkkel fejezzük ki a nyelvtani viszonyokat. A tokenizáló ezeket a hosszú, összetett szavakat több kisebb tokenre bontja. Az újabb modellek (pl. GPT-4o és újabb) javítottak ezen: a GPT-4o tokenizálója körülbelül 1,16-szor hatékonyabb magyar szövegen, mint a korábbi GPT-4 változaté, de a különbség az angolhoz képest továbbra is fennáll.

Mennyibe kerül egy ChatGPT API-hívás forintban?

Egy tipikus API-hívás GPT-4.1-gyel (500 bemeneti + 300 kimeneti token) körülbelül 0,0034 USD-be kerül, ami 375 Ft-os árfolyamon kb. 1,3 Ft. Napi 1000 ilyen kérésnél ez havi kb. 38 000 Ft. A budget GPT-4.1 mini modellel ugyanez mindössze kb. 0,0007 USD (0,26 Ft) kérésenként, azaz havi kb. 5800 Ft a 1000 napi kérésre. A prémium GPT-5.4 modellel viszont ugyanez a mennyiség havi kb. 200 000 Ft-ba kerülne.

Melyik a legolcsóbb AI modell API-használatra 2026-ban?

2026 márciusában a legolcsóbb API-modellek (bemenet/kimenet 1M tokenre): Amazon Nova Micro (0,035/0,14 USD), GPT-5 Nano (0,05/0,40 USD), Gemini 2.0 Flash-Lite (0,075/0,30 USD), Mistral Small (0,10/0,30 USD), GPT-4.1 Nano (0,10/0,40 USD), Llama 4 Scout Groq-on (0,11/0,34 USD), Grok 4.1 Fast (0,20/0,50 USD), DeepSeek V3.2 (0,28/0,42 USD). A közép kategóriában: GPT-4.1 Mini (0,40/1,60 USD), Gemini 2.5 Flash (0,30/2,50 USD), Claude Haiku 4.5 (1/5 USD). A prémium szegmensben: GPT-4.1 (2/8 USD), Claude Sonnet 4.6 (3/15 USD), Grok 4 (3/15 USD), Claude Opus 4.6 (5/25 USD). A legjobb választás a feladat összetettségétől függ.

Mi a különbség a token és a szó között?

A szó nyelvi egység, amelyet szóközök választanak el. A token viszont a modell tokenizáló algoritmusa által meghatározott feldolgozási egység -- lehet teljes szó, szótöredék, egyetlen karakter vagy írásjel. Az angol "hello" egy token, de az "unbelievable" szó három tokenre bomlik: "un", "believ", "able". A magyar nyelven a helyzet még összetettebb: a "megváltoztathatatlanság" szó akár 5-6 tokenre is széteshet. Ezért a token-alapú árazás nem feleltethető meg közvetlenül a szószámnak.

Hogyan csökkenthetem a prompt gyorsítótárazással a költségeimet?

A prompt gyorsítótárazás (prompt caching) a rendszeresen ismétlődő prompt-részek (pl. rendszer-prompt) előre kiszámított kulcs-érték vektorait tárolja, így azokat nem kell minden kérésnél újra feldolgozni. A gyorsítótárazott tokenekre 10-50%-os kedvezményes árazás érvényes a normál bemeneti token árhoz képest. Ha az alkalmazásod minden kéréshez ugyanazt a 500 tokenes rendszer-promptot küldi, a gyorsítótárazás akár 90%-kal csökkentheti a bemeneti költségeket erre a részre. Az OpenAI automatikusan alkalmazza, az Anthropic-nál és a Google-nál explicit beállítás szükséges.

Hogyan hasonlíthatom össze a GPT, Claude és Gemini árazását?

2026 márciusában az árak (1M token, bemenet/kimenet): Prémium kategória -- Claude Opus 4.6: 5/25 USD, Grok 4: 3/15 USD, Claude Sonnet 4.6: 3/15 USD, GPT-5.4: 2,50/15 USD, GPT-4.1: 2/8 USD, Gemini 2.5 Pro: 1,25/10 USD. Közép kategória -- o4-mini: 1,10/4,40 USD, Claude Haiku 4.5: 1/5 USD, Gemini 2.5 Flash: 0,30/2,50 USD, GPT-4.1 Mini: 0,40/1,60 USD. Budget -- DeepSeek V3.2: 0,28/0,42 USD, Grok 4.1 Fast: 0,20/0,50 USD, Mistral Small: 0,10/0,30 USD, GPT-4.1 Nano: 0,10/0,40 USD, Amazon Nova Micro: 0,035/0,14 USD. Az árak 2024 óta kb. 80%-kal csökkentek.

Mennyibe kerül egy 10 000 szavas dokumentum feldolgozása?

Egy 10 000 szavas magyar dokumentum nagyjából 13 000-15 000 bemeneti token (az angol megfelelőjénél kb. 30%-kal több). GPT-4.1-gyel (2 USD / 1M bemenet) a bemeneti költség kb. 0,030 USD. Ha a modell 500 szavas összefoglalást generál (kb. 700 kimeneti token, 8 USD / 1M kimenet), a kimeneti költség 0,006 USD. Összesen: kb. 0,036 USD, azaz mintegy 13,5 Ft dokumentumonként. 1000 dokumentum feldolgozása kb. 13 500 Ft-ba kerülne. A budget GPT-4.1 mini modellel ez csupán kb. 2700 Ft lenne -- ötödannyi.

Melyik AI modell a legjobb kódolásra, elemzésre és kreatív írásra?

Kódolás: Claude Opus 4.6 és Claude Sonnet 4.6 vezeti a kódolási rangsorokat, amelyeket a GPT-5.4, GPT-4.1 és a Codestral (Mistral) követ. A GPT-4.1 1 millió tokenes kontextusablaka ideális nagy kódbázisokhoz. Elemzés és logika: az o3 és o4-mini (OpenAI) láncolatos gondolkodást (chain-of-thought) alkalmaz, a DeepSeek R1 (0,55/2,19 USD) a budget reasoning bajnok, a Gemini 2.5 Pro komplex analízisekhez kiváló. Kreatív írás: Claude Sonnet 4.6 a minőség és ár egyensúlyát kínálja, a Grok 4 valós idejű adathozzáféréssel rendelkezik. Tömeges feldolgozás: DeepSeek V3.2, Amazon Nova Micro, Mistral Small és Llama 4 Groq-on a legalacsonyabb költségűek.


Fogalomtár: AI tokenek és kapcsolódó kifejezések

Token

A nagy nyelvi modellek (LLM-ek) legkisebb szövegfeldolgozási egysége. Lehet teljes szó, szórészlet, karakter vagy írásjel. Az API-költségek token-alapúak: a szolgáltatók 1 millió tokenre vetítve adják meg az árakat.

Tokenizáló (Tokenizer)

Az az algoritmus, amely a nyers szöveget tokenekre bontja. Különböző modellek különböző tokenizálókat használnak (pl. tiktoken az OpenAI-nál, SentencePiece a Google-nál), ezért ugyanaz a szöveg eltérő tokenszámot eredményezhet szolgáltatónként.

BPE (Byte Pair Encoding)

A legelterjedtebb tokenizálási algoritmus, amelyet a modern LLM-ek használnak. A leggyakrabban előforduló karakterpárokat iteratívan összevonja, így építi fel a szókészletet. A GPT, Claude és Llama modellek mind BPE-variánsokat alkalmaznak.

Kontextusablak (Context Window)

Az a maximális tokenszám, amelyet egy modell egyetlen kérésben (bemenet + kimenet együtt) feldolgozhat. 2026-ban a kontextusablakok mérete 128K és 2M token között mozog: a Grok 4.1 Fast 2M tokent, a GPT-4.1 és Claude Opus/Sonnet 4.6 egyaránt 1M tokent támogat.

Bemeneti és kimeneti tokenek

A bemeneti (input) tokenek a modellnek küldött szöveg tokenizált formája (prompt, rendszer-prompt, kontextus). A kimeneti (output) tokenek a modell által generált válasz. A kimeneti tokenek jellemzően 3-8-szor drágábbak, mivel a szekvenciális generálás nagyobb számítási kapacitást igényel.

Prompt gyorsítótárazás (Prompt Caching)

Költségoptimalizálási technika, amely az ismétlődő prompt-részek előre kiszámított kulcs-érték párjait tárolja. A gyorsítótárazott bemeneti tokenek a normál ár 10-50%-áért számlázódnak, ami akár 90%-os megtakarítást jelent az ismétlődő prompt-részeknél.

LLM (Large Language Model)

Nagy nyelvi modell -- hatalmas szövegkorpuszon betanított mesterségesintelligencia-rendszer, amely emberi szintű szöveget képes megérteni és generálni. A legfontosabb LLM-ek 2026-ban: GPT-5.4 (OpenAI), Claude Opus 4.6 (Anthropic), Gemini 2.5 Pro (Google), Grok 4 (xAI), Llama 4 (Meta), DeepSeek V3.2 és Mistral Large.