Smart Calculators

Smart

Calculators

टोकन कैलकुलेटर

AI भाषा मॉडल का उपयोग करने की लागत की गणना करें। टेक्स्ट से टोकन का अनुमान लगाएं और GPT-4, Claude और Gemini जैसे मॉडलों के मूल्य की तुलना करें।

टोकन कैलकुलेटर। AI टोकन गणना और LLM मॉडल के लिए API लागत अनुमान।
टोकन कैलकुलेटर किसी भी टेक्स्ट में टोकन की संख्या अनुमानित करता है और GPT, Claude, Gemini, Grok व DeepSeek जैसे AI मॉडल की API लागत गणना करता है। यह लगभग 4 अक्षरों प्रति 1 टोकन के मानक अनुपात से टेक्स्ट को टोकन में बदलता है और प्रत्येक मॉडल की प्रति दस लाख टोकन कीमत लगाकर इनपुट व आउटपुट लागत तुरंत दिखाता है।

AI टोकन क्या है?

AI टोकन वह सबसे छोटी इकाई है जिसे GPT, Claude, Gemini, Grok, DeepSeek, Mistral और Llama जैसे लार्ज लैंग्वेज मॉडल (LLM) टेक्स्ट को प्रोसेस करने के लिए उपयोग करते हैं। एक टोकन एक पूरा शब्द, शब्द का हिस्सा, या विराम चिह्न हो सकता है। अंग्रेज़ी में, लगभग 750 शब्द 1,000 टोकन के बराबर होते हैं, यानी 1 शब्द लगभग 1.33 टोकन।
OpenAI, Anthropic, Google, xAI, DeepSeek, Mistral और Meta जैसे AI प्रोवाइडर्स अपनी API की कीमत टोकन के आधार पर तय करते हैं। हर API कॉल में दो तरह के टोकन खर्च होते हैं: इनपुट टोकन (आपका प्रॉम्प्ट) और आउटपुट टोकन (मॉडल का जवाब)। आउटपुट टोकन आमतौर पर 2-4 गुना महंगे होते हैं क्योंकि मॉडल को नया टेक्स्ट जनरेट करना पड़ता है।
भारतीय डेवलपर्स के लिए एक महत्वपूर्ण बात: हिन्दी और अन्य भारतीय भाषाओं में वही बात कहने के लिए अंग्रेज़ी की तुलना में 2-5 गुना ज़्यादा टोकन लगते हैं। इसका मतलब है कि हिन्दी में AI एप्लिकेशन बनाने की लागत काफ़ी अधिक हो सकती है। यह कैलकुलेटर आपको विभिन्न AI मॉडल्स की लागत का सटीक अनुमान लगाने में मदद करता है।

AI टोकन की लागत कैसे कैलकुलेट करें

AI API की लागत कैलकुलेट करने के लिए आपको तीन चीज़ों की ज़रूरत है: इनपुट टोकन की संख्या, आउटपुट टोकन की संख्या, और चुने हुए मॉडल की प्रति-टोकन कीमत।
चरण-दर-चरण प्रक्रिया:
1. अपने टेक्स्ट में शब्दों की संख्या गिनें।
2. शब्दों को टोकन में बदलें — अंग्रेज़ी के लिए शब्द संख्या को 1.33 से गुणा करें। हिन्दी टेक्स्ट के लिए 2.5-4 से गुणा करें (टोकनाइज़र पर निर्भर)।
3. इनपुट और आउटपुट टोकन अलग-अलग गिनें।
4. प्रत्येक को संबंधित प्रति-मिलियन-टोकन दर से गुणा करें।
5. दोनों राशियों को जोड़ें।
उदाहरण: मान लीजिए आप GPT-4o का उपयोग कर रहे हैं (इनपुट: $2.50/1M टोकन, आउटपुट: $10/1M टोकन)। यदि आपका प्रॉम्प्ट 500 टोकन का है और जवाब 1,000 टोकन का है, तो लागत होगी: (500 x $2.50/1M) + (1,000 x $10/1M) = $0.00125 + $0.01 = $0.01125, यानी लगभग ₹0.95 प्रति कॉल।
यदि आप रोज़ाना 10,000 ऐसी कॉल करते हैं, तो मासिक लागत लगभग ₹2,85,000 होगी। इसीलिए मॉडल चुनने से पहले लागत का अनुमान लगाना बेहद ज़रूरी है।

AI टोकन लागत का सूत्र

C=Tin×Pin+Tout×Pout1,000,000C = \frac{T_{in} \times P_{in} + T_{out} \times P_{out}}{1{,}000{,}000}
  • CC = कुल API कॉल लागत (USD या INR में)
  • TinT_{in} = इनपुट टोकन की संख्या (आपका प्रॉम्प्ट)
  • PinP_{in} = इनपुट की प्रति-मिलियन-टोकन कीमत
  • ToutT_{out} = आउटपुट टोकन की संख्या (मॉडल का जवाब)
  • PoutP_{out} = आउटपुट की प्रति-मिलियन-टोकन कीमत
अगर आप कैशिंग का उपयोग करते हैं, तो सूत्र इस प्रकार बदलता है:
C=Tin×Pin+Tout×PoutTcached×Pcached1,000,000C = \frac{T_{in} \times P_{in} + T_{out} \times P_{out} - T_{cached} \times P_{cached}}{1{,}000{,}000}
जहाँ $Tcached$ कैश किए गए टोकन हैं और $Pcached$ कैशिंग छूट की दर है। OpenAI में कैश किए गए टोकन पर 90% तक की छूट मिलती है।
टोकन अनुमान के लिए सामान्य नियम: अंग्रेज़ी में 1 शब्द लगभग 1.33 टोकन, हिन्दी में 1 शब्द लगभग 3-4 टोकन, और कोड में 1 लाइन लगभग 10-15 टोकन। ये अनुमानित संख्याएँ हैं — सटीक गणना के लिए हमारा कैलकुलेटर उपयोग करें।

AI टोकन लागत के व्यावहारिक उदाहरण

चैटबॉट स्टार्टअप: मासिक API लागत का अनुमान

एक भारतीय स्टार्टअप कस्टमर सर्विस चैटबॉट बना रहा है जो रोज़ाना 5,000 बातचीत हैंडल करता है। हर बातचीत में औसतन 800 इनपुट टोकन और 1,200 आउटपुट टोकन लगते हैं। GPT-4o ($2.50/$10 प्रति 1M टोकन) पर मासिक लागत: इनपुट = 5,000 x 30 x 800 = 12 करोड़ टोकन = ₹2,520। आउटपुट = 5,000 x 30 x 1,200 = 18 करोड़ टोकन = ₹15,120। कुल: लगभग ₹17,640/माह। अगर वही काम GPT-4o Mini ($0.15/$0.60 प्रति 1M) से करें, तो लागत घटकर मात्र ₹1,134/माह हो जाती है — 93% की बचत, और साधारण ग्राहक प्रश्नों के लिए गुणवत्ता में बहुत कम अंतर आता है।

हिन्दी बनाम अंग्रेज़ी: टोकन लागत में अंतर

मान लीजिए आप एक ही प्रॉम्प्ट भेज रहे हैं — "इस उत्पाद की विशेषताओं का वर्णन करें" बनाम "Describe the features of this product"। अंग्रेज़ी संस्करण GPT-4o टोकनाइज़र में लगभग 8 टोकन लेता है, जबकि हिन्दी संस्करण लगभग 25-30 टोकन ले सकता है — 3 गुना से ज़्यादा। Claude Sonnet ($3/$15 प्रति 1M) पर अगर आप रोज़ाना 50,000 हिन्दी प्रॉम्प्ट भेजते हैं, तो मासिक लागत अंग्रेज़ी की तुलना में ₹25,000-₹40,000 ज़्यादा हो सकती है। यही कारण है कि भारतीय भाषाओं में AI ऐप्स बनाते समय Sarvam AI जैसे इंडिक-ऑप्टिमाइज़्ड मॉडल्स पर भी विचार करना चाहिए।

फ्रीलांस डेवलपर: प्रोजेक्ट लागत का बजट

एक फ्रीलांस डेवलपर क्लाइंट के लिए AI-पावर्ड कंटेंट जनरेटर बना रहा है। प्रोजेक्ट में रोज़ाना 200 आर्टिकल जनरेट करने हैं, हर आर्टिकल में 500 इनपुट टोकन और 2,000 आउटपुट टोकन। Gemini 1.5 Flash ($0.075/$0.30 प्रति 1M) पर मासिक लागत: इनपुट = 200 x 30 x 500 = 30 लाख टोकन = ₹0.19। आउटपुट = 200 x 30 x 2,000 = 1.2 करोड़ = ₹3.02। कुल: मात्र ₹270/माह। लेकिन अगर क्लाइंट GPT-4o क्वालिटी चाहता है, तो लागत बढ़कर ₹10,710/माह हो जाती है। क्लाइंट को दोनों विकल्प दिखाकर सही मॉडल चुनने में मदद करें।

AI API लागत कम करने के सुझाव

  • मॉडल राउटिंग अपनाएँ: साधारण प्रश्नों (FAQ, वर्गीकरण) के लिए GPT-4.1 mini, Gemini 2.5 Flash-Lite, Claude Haiku, DeepSeek V3.2, Grok 4.1 Fast, Amazon Nova Micro या Mistral Small जैसे बजट मॉडल का उपयोग करें, और जटिल रीज़निंग के लिए GPT-5.4, GPT-4.1, Claude Sonnet/Opus, Gemini 2.5 Pro, Grok 4 या Mistral Large जैसे प्रीमियम मॉडल रिज़र्व रखें। इससे 40-60% लागत बचत संभव है।
  • प्रॉम्प्ट कैशिंग सक्रिय करें। OpenAI और Anthropic दोनों प्रॉम्प्ट कैशिंग ऑफर करते हैं जो बार-बार भेजे जाने वाले सिस्टम प्रॉम्प्ट पर 90% तक छूट देता है।
  • प्रॉम्प्ट को संक्षिप्त रखें। "इसका सारांश दें" अक्सर उतना ही प्रभावी होता है जितना एक लंबा, विस्तृत निर्देश। JSON फ़ॉर्मेट में आउटपुट माँगने से भी 15% तक टोकन बचत होती है।
  • max_tokens पैरामीटर ज़रूर सेट करें। बिना सीमा के मॉडल ज़रूरत से ज़्यादा लंबे जवाब दे सकता है, जिससे अनावश्यक खर्च होता है।
  • हिन्दी या भारतीय भाषाओं में काम करते समय Sarvam AI जैसे इंडिक-ऑप्टिमाइज़्ड मॉडल्स पर विचार करें, जो इन भाषाओं के लिए कम टोकन उपयोग करते हैं।
  • बैच प्रोसेसिंग का लाभ उठाएँ। OpenAI का Batch API रियल-टाइम की ज़रूरत न होने वाले कामों पर 50% छूट देता है।
  • RAG (Retrieval-Augmented Generation) में चंकिंग ऑप्टिमाइज़ करें। पूरे डॉक्यूमेंट भेजने की बजाय सिर्फ़ प्रासंगिक पैराग्राफ़ भेजें — इससे 60-80% टोकन बचते हैं।

AI टोकन और API लागत: अक्सर पूछे जाने वाले प्रश्न

1 टोकन कितने शब्दों या अक्षरों के बराबर होता है?

अंग्रेज़ी में 1 टोकन लगभग 4 अक्षर या 0.75 शब्द (¾ शब्द) के बराबर होता है। दूसरे शब्दों में, 1,000 टोकन लगभग 750 अंग्रेज़ी शब्दों के बराबर हैं। हिन्दी में यह अनुपात अलग है — 1 हिन्दी शब्द GPT-4o टोकनाइज़र में 3-4 टोकन ले सकता है क्योंकि ये मॉडल्स मुख्य रूप से अंग्रेज़ी डेटा पर प्रशिक्षित हैं।

हिन्दी टेक्स्ट में अंग्रेज़ी से ज़्यादा टोकन क्यों लगते हैं?

LLM टोकनाइज़र (जैसे BPE — Byte Pair Encoding) उन भाषाओं को ज़्यादा कुशलता से एनकोड करते हैं जो ट्रेनिंग डेटा में अधिक मात्रा में थीं। चूँकि GPT-4, Claude और Gemini का ट्रेनिंग डेटा 60-80% अंग्रेज़ी है, अंग्रेज़ी शब्दों को कम टोकन में दर्शाया जाता है। हिन्दी जैसी भाषाओं में वही सामग्री 2-5 गुना ज़्यादा टोकन लेती है, जिससे API लागत उतनी ही गुना बढ़ जाती है।

2026 में सबसे सस्ता AI मॉडल कौन सा है?

2026 की कीमतों के अनुसार, सबसे सस्ते मॉडल्स इस क्रम में हैं: Amazon Nova Micro ($0.035/$0.14 प्रति 1M टोकन), GPT-5 Nano ($0.05/$0.40), Gemini 2.0 Flash-Lite ($0.075/$0.30), Mistral Small ($0.10/$0.30), DeepSeek V3.2 ($0.14/$0.28), GPT-4.1 mini ($0.15/$0.60), Grok 4.1 Fast ($0.20/$0.80), और Claude Haiku ($0.25/$1.25)। मिड-रेंज मॉडल्स में GPT-5 Mini ($0.25/$2.00) और GPT-5.2 ($0.875/$7.00) बेहतरीन विकल्प हैं। प्रीमियम मॉडल्स में GPT-5 ($1.25/$10), GPT-5.1 ($1.25/$10), Gemini 2.5 Pro ($1.25/$10) सबसे किफ़ायती हैं, उसके बाद GPT-5.3 ($1.75/$14), GPT-4.1 ($2/$8), GPT-5.4 ($2.50/$15), Claude Sonnet ($3/$15), Grok 4 ($3/$15), और Mistral Large ($2/$6)। सही मॉडल सिर्फ़ कीमत पर नहीं, बल्कि आपके use case की ज़रूरतों पर निर्भर करता है।

भारत में AI API की लागत INR में कैसे कैलकुलेट करें?

AI API प्रोवाइडर्स (OpenAI, Anthropic, Google) अपनी कीमतें USD में रखते हैं। INR में लागत जानने के लिए: पहले ऊपर दिए गए सूत्र से USD में कुल लागत निकालें, फिर मौजूदा USD-INR दर (लगभग ₹84-85) से गुणा करें। उदाहरण: $100/माह API खर्च = लगभग ₹8,500/माह। हमारा कैलकुलेटर यह रूपांतरण स्वचालित रूप से करता है।

इनपुट टोकन और आउटपुट टोकन में क्या अंतर है?

इनपुट टोकन वो टेक्स्ट है जो आप AI मॉडल को भेजते हैं — आपका प्रॉम्प्ट, सिस्टम इंस्ट्रक्शन, और कॉन्टेक्स्ट। आउटपुट टोकन वो टेक्स्ट है जो मॉडल जवाब में जनरेट करता है। आउटपुट टोकन 2-6 गुना महंगे होते हैं क्योंकि मॉडल को हर शब्द कम्प्यूटेशनल रूप से जनरेट करना पड़ता है, जबकि इनपुट को सिर्फ़ पढ़ना और समझना होता है।

क्या ओपन-सोर्स मॉडल्स (Llama 4, DeepSeek V3.2, Mistral) API लागत से बचने का तरीका हैं?

हाँ, लेकिन ट्रेड-ऑफ़ हैं। Meta का Llama 4, DeepSeek V3.2, या Mistral Small को अपने सर्वर पर चलाने से प्रति-टोकन API शुल्क नहीं लगता, लेकिन GPU सर्वर की लागत आती है। AWS पर एक A100 GPU लगभग ₹1,50,000-₹2,50,000/माह में मिलता है। एक किफ़ायती विकल्प Groq जैसे इन्फ़्रेंस प्रोवाइडर्स हैं जो ओपन-सोर्स मॉडल्स $0.11-$0.50/1M टोकन पर ऑफर करते हैं — यह सेल्फ-होस्टिंग से कहीं सरल है। यदि आपका मासिक API खर्च ₹3,00,000 से ज़्यादा है, तो सेल्फ-होस्टिंग किफ़ायती हो सकती है। छोटे प्रोजेक्ट्स के लिए API या Groq जैसे प्रोवाइडर्स ही बेहतर विकल्प हैं।

AI API का बजट बनाते समय क्या-क्या शामिल करना चाहिए?

सिर्फ़ टोकन लागत ही पूरी तस्वीर नहीं है। पूरे बजट में शामिल करें: (1) इनपुट + आउटपुट टोकन लागत। (2) रीट्राई और एरर हैंडलिंग — 5-10% अतिरिक्त कॉल्स। (3) टेस्टिंग और डेवलपमेंट — प्रोडक्शन की 20-30% लागत। (4) ट्रैफ़िक स्पाइक — पीक टाइम में 2-3x ज़्यादा कॉल्स। (5) USD-INR रेट उतार-चढ़ाव — 5% बफ़र रखें। कुल मिलाकर, अनुमानित टोकन लागत पर 40-50% अतिरिक्त बजट रखना सुरक्षित है।

टोकनाइज़ेशन (Tokenization) क्या है और यह कैसे काम करता है?

टोकनाइज़ेशन वह प्रक्रिया है जिसमें AI मॉडल टेक्स्ट को छोटे टुकड़ों (टोकन) में तोड़ता है। आधुनिक LLM मुख्यतः BPE (Byte Pair Encoding) या SentencePiece एल्गोरिदम का उपयोग करते हैं। ये एल्गोरिदम बार-बार आने वाले अक्षर-जोड़ों को एक टोकन में मिला देते हैं। 'hello' एक टोकन हो सकता है, लेकिन 'tokenization' को 'token' + 'ization' में तोड़ा जा सकता है। हिन्दी में 'नमस्ते' को कई UTF-8 बाइट्स में तोड़ा जाता है, इसलिए ज़्यादा टोकन लगते हैं।

OpenAI, Anthropic, Google, xAI, DeepSeek और Mistral — कौन सा AI प्रोवाइडर सबसे अच्छा है?

हर प्रोवाइडर की अपनी ताकत है। OpenAI (GPT-5.4, GPT-4.1, GPT-5 Nano) सबसे बड़ा इकोसिस्टम और टूलिंग ऑफर करता है। Anthropic (Claude Opus, Sonnet, Haiku) कोडिंग और लंबे डॉक्यूमेंट एनालिसिस में उत्कृष्ट है, साथ ही 200K-1M टोकन कॉन्टेक्स्ट विंडो प्रदान करता है। Google (Gemini 2.5 Pro, Flash-Lite) सबसे बड़ी कॉन्टेक्स्ट विंडो (2M टोकन) और किफ़ायती कीमत देता है। xAI (Grok 4, 4.1 Fast) रियल-टाइम जानकारी और X/Twitter इंटीग्रेशन में आगे है। DeepSeek (V3.2) बहुत कम कीमत पर प्रतिस्पर्धी प्रदर्शन देता है। Mistral (Large, Small) यूरोपीय डेटा गोपनीयता और बहुभाषी क्षमता में अग्रणी है। भारतीय डेवलपर्स के लिए सुझाव: पहले बजट मॉडल्स से शुरू करें और ज़रूरत अनुसार प्रीमियम पर जाएँ।

किस काम के लिए कौन सा AI मॉडल सबसे उपयुक्त है?

काम के अनुसार सर्वश्रेष्ठ मॉडल: (1) कोडिंग और प्रोग्रामिंग — Claude Opus/Sonnet या GPT-5.4 और GPT-4.1, ये कोड जनरेशन और डिबगिंग में सबसे आगे हैं। (2) क्रिएटिव राइटिंग और कंटेंट — GPT-4.1 या Claude Sonnet, दोनों उच्च गुणवत्ता का टेक्स्ट लिखते हैं। (3) डेटा एनालिसिस और लंबे डॉक्यूमेंट — Gemini 2.5 Pro (2M कॉन्टेक्स्ट) या Claude Opus (1M कॉन्टेक्स्ट), बड़ी फ़ाइलें प्रोसेस कर सकते हैं। (4) सरल चैटबॉट और FAQ — GPT-4.1 mini, Gemini 2.5 Flash-Lite, या DeepSeek V3.2, कम लागत में बेहतर प्रदर्शन। (5) रियल-टाइम जानकारी — Grok 4, लाइव डेटा एक्सेस के साथ। (6) बहुभाषी ऐप्स — Mistral Large या Gemini 2.5 Pro, कई भाषाओं में मज़बूत प्रदर्शन। (7) बजट-सीमित प्रोजेक्ट्स — Amazon Nova Micro ($0.035/$0.14) या GPT-5 Nano ($0.05/$0.40) सबसे सस्ते विकल्प हैं।


प्रमुख शब्दावली

टोकन (Token)

टेक्स्ट की सबसे छोटी इकाई जिसे LLM प्रोसेस करता है। एक टोकन एक शब्द, शब्द का हिस्सा, या विराम चिह्न हो सकता है।

BPE (Byte Pair Encoding)

सबसे लोकप्रिय टोकनाइज़ेशन एल्गोरिदम जो बार-बार आने वाले अक्षर-जोड़ों को मिलाकर एक टोकन बनाता है। GPT, Claude, Grok, DeepSeek और Mistral इसका उपयोग करते हैं।

कॉन्टेक्स्ट विंडो (Context Window)

एक बार में मॉडल जितने टोकन प्रोसेस कर सकता है उसकी अधिकतम सीमा। GPT-4.1 में 1M टोकन, Claude Opus में 1M टोकन, Claude Sonnet में 200K टोकन, Gemini 2.5 Pro में 2M टोकन, Grok 4 में 256K टोकन, और DeepSeek V3.2 में 128K टोकन की कॉन्टेक्स्ट विंडो है।

प्रॉम्प्ट कैशिंग (Prompt Caching)

एक तकनीक जिसमें बार-बार भेजे जाने वाले सिस्टम प्रॉम्प्ट को कैश किया जाता है, जिससे उन टोकन पर 90% तक छूट मिलती है।

मॉडल राउटिंग (Model Routing)

अलग-अलग कठिनाई के प्रश्नों को अलग-अलग मॉडल्स पर भेजने की रणनीति। सरल कामों के लिए सस्ते मॉडल, जटिल कामों के लिए महंगे मॉडल।

प्रति-मिलियन-टोकन कीमत (Price per Million Tokens)

AI API मूल्य निर्धारण की मानक इकाई। उदाहरण: GPT-4.1 की इनपुट कीमत $2/1M टोकन है, यानी 10 लाख टोकन भेजने पर $2 लगते हैं।

बैच API (Batch API)

OpenAI द्वारा प्रदान की जाने वाली सेवा जिसमें गैर-तत्काल (non-real-time) अनुरोधों को एक साथ भेजकर 50% छूट प्राप्त की जा सकती है।