টোকেন ক্যালকুলেটর
AI ভাষা মডেল ব্যবহারের খরচ গণনা করুন। টেক্সট থেকে টোকেন অনুমান করুন এবং GPT-4, Claude ও Gemini-এর মতো মডেলের মূল্য তুলনা করুন।
AI টোকেন ক্যালকুলেটর কী?
AI টোকেন খরচ কীভাবে হিসাব করবেন
AI টোকেন খরচের সূত্র
- = API কলের মোট খরচ (USD-এ, BDT-তে রূপান্তরের জন্য বর্তমান বিনিময় হার দিয়ে গুণ করুন)
- = ইনপুট টোকেনের সংখ্যা (প্রম্পট, সিস্টেম মেসেজ, কনটেক্সট)
- = আউটপুট টোকেনের সংখ্যা (মডেলের তৈরি করা উত্তর)
- = প্রতি ১০ লাখ ইনপুট টোকেনের দাম (USD)
- = প্রতি ১০ লাখ আউটপুট টোকেনের দাম (USD)
AI টোকেন খরচের বাস্তব উদাহরণ
বাংলাদেশি স্টার্টআপের গ্রাহক সেবা চ্যাটবট: মাসিক খরচ
বাংলা বনাম ইংরেজি: একই কাজে টোকেন খরচে কত পার্থক্য?
ফ্রিল্যান্স ডেভেলপার: ক্লায়েন্ট প্রজেক্টের API বাজেট
AI API টোকেন খরচ কমানোর কৌশল
- প্রতিটি কাজের জন্য সঠিক মডেল বেছে নিন। সরল কাজ (শ্রেণীবিভাজন, FAQ, তথ্য নিষ্কাশন) GPT-4.1 mini, Gemini 2.5 Flash-Lite, Claude Haiku, DeepSeek V3.2, Grok 4.1 Fast, বা Amazon Nova Micro দিয়ে করুন। জটিল রিজনিং-এর জন্য GPT-5.4, Claude Sonnet/Opus, Gemini 2.5 Pro, বা Grok 4 রাখুন। মডেল রাউটিং-এ ৪০-৬০% খরচ সাশ্রয় সম্ভব।
- প্রম্পট ক্যাশিং চালু করুন। OpenAI ও Anthropic উভয়ই প্রম্পট ক্যাশিং সমর্থন করে — বারবার পাঠানো সিস্টেম প্রম্পটে ৯০% পর্যন্ত ছাড় মেলে। OpenAI স্বয়ংক্রিয়ভাবে ক্যাশ করে, Anthropic-এ cache_control হেডার যোগ করতে হয়।
- প্রম্পট সংক্ষিপ্ত রাখুন। প্রতিটি অতিরিক্ত টোকেন = অতিরিক্ত খরচ। অপ্রয়োজনীয় নির্দেশনা, দীর্ঘ সিস্টেম প্রম্পট এবং পুনরাবৃত্ত কনটেক্সট বাদ দিন। ভালোভাবে লেখা ৫০০ টোকেনের প্রম্পট প্রায়ই ২,০০০ টোকেনের এলোমেলো প্রম্পটের চেয়ে ভালো ফল দেয় — আর ৭৫% কম খরচ হয়।
- max_tokens প্যারামিটার সেট করুন। সীমা না দিলে মডেল অপ্রয়োজনীয় দীর্ঘ উত্তর দিতে পারে। এক লাইনের উত্তর চাইলে আউটপুট ১০০ টোকেনে সীমাবদ্ধ করুন।
- Batch API ব্যবহার করুন। রিয়েল-টাইম প্রয়োজন না হলে OpenAI ও Anthropic-এর Batch API-তে ৫০% ছাড় পাওয়া যায়। বাল্ক ডেটা প্রসেসিং, রিপোর্ট তৈরি বা বিশ্লেষণের কাজে এটি আদর্শ।
- বাংলা টেক্সটের বেশি টোকেন খরচ মাথায় রাখুন। বাংলায় AI অ্যাপ তৈরি করলে ইংরেজির তুলনায় ৩-৫ গুণ বেশি টোকেন বাজেট রাখুন। যেখানে সম্ভব, সিস্টেম প্রম্পট ও নির্দেশনা ইংরেজিতে রাখুন এবং শুধু ব্যবহারকারীর দিকে মুখ করা আউটপুট বাংলায় রাখুন — এতে ইনপুট টোকেন উল্লেখযোগ্যভাবে কমে।
- খরচ মনিটরিং ও সতর্কতা সেট করুন। প্রোভাইডারের ব্যবহার ড্যাশবোর্ড বা Helicone-এর মতো থার্ড-পার্টি টুল ব্যবহার করে প্রতিটি এন্ডপয়েন্ট ও মডেলের টোকেন ব্যবহার ট্র্যাক করুন। বাগ বা অপ্রত্যাশিত ট্রাফিক থেকে রক্ষা পেতে ব্যয়সীমা নির্ধারণ করুন।
AI টোকেন ও API খরচ: সচরাচর জিজ্ঞাসা
১ টোকেন কত শব্দ বা অক্ষরের সমান?
ইংরেজিতে ১ টোকেন প্রায় ৪ অক্ষর বা ০.৭৫ শব্দের সমান। অর্থাৎ ১,০০০ ইংরেজি শব্দ প্রায় ১,৩৩৩ টোকেন। তবে বাংলায় অনুপাত একেবারে আলাদা — ১ বাংলা শব্দ GPT-4o টোকেনাইজারে ৩-৫ টোকেন নিতে পারে। এর মানে, ১,০০০ বাংলা শব্দে ৩,০০০-৫,০০০ টোকেন লাগতে পারে। কোড, বিশেষ চিহ্ন এবং মিশ্র ভাষার টেক্সটেও প্রতি শব্দে বেশি টোকেন লাগে।
বাংলা টেক্সটে ইংরেজির চেয়ে বেশি টোকেন কেন লাগে?
LLM টোকেনাইজার (যেমন BPE — Byte Pair Encoding) সেই ভাষাগুলোকে বেশি দক্ষতার সাথে এনকোড করে যেগুলো প্রশিক্ষণ ডেটায় বেশি পরিমাণে ছিল। GPT-4, Claude ও Gemini-র প্রশিক্ষণ ডেটার ৬০-৮০% ইংরেজি, তাই ইংরেজি শব্দগুলো কম টোকেনে প্রকাশ করা যায়। বাংলা লিপি UTF-8-এ প্রতি অক্ষরে একাধিক বাইট নেয় এবং টোকেনাইজারের ভোকাবুলারিতে বাংলা সাবওয়ার্ড কম থাকায়, প্রতিটি শব্দ অনেকগুলো ছোট ছোট খণ্ডে ভাগ হয়ে যায়। নতুন GPT-4o-এর o200k_base টোকেনাইজারে এটি কিছুটা উন্নত হয়েছে (প্রায় ২-৩ গুণ), তবে মৌলিক সমস্যাটি রয়ে গেছে।
২০২৬ সালে সবচেয়ে সস্তা AI মডেল কোনটি?
২০২৬ সালের মার্চ পর্যন্ত, সবচেয়ে সস্তা মডেলগুলো হলো: Amazon Nova Micro ($0.035/$0.14 প্রতি 1M টোকেন), GPT-5 Nano ($0.05/$0.40), Gemini 2.0 Flash-Lite ($0.075/$0.30), Mistral Small ($0.10/$0.30), GPT-4.1 Nano ($0.10/$0.40), Groq-hosted Llama 4 Scout ($0.11/$0.34), Grok 4.1 Fast ($0.20/$0.50), DeepSeek V3.2 ($0.28/$0.42)। মধ্য-পরিসরে: Gemini 2.5 Flash ($0.30/$2.50), GPT-4.1 Mini ($0.40/$1.60), Claude Haiku 4.5 ($1/$5)। প্রিমিয়ামে: Gemini 2.5 Pro ($1.25/$10), GPT-4.1 ($2/$8), Claude Sonnet 4.6 ($3/$15), Claude Opus 4.6 ($5/$25)। সঠিক মডেল শুধু দামের ওপর নয়, আপনার কাজের জটিলতার ওপরও নির্ভর করে।
বাংলাদেশে AI API-এর খরচ টাকায় কীভাবে হিসাব করবেন?
AI API প্রোভাইডাররা (OpenAI, Anthropic, Google) তাদের মূল্য USD-এ নির্ধারণ করে। টাকায় খরচ জানতে: প্রথমে উপরের সূত্র দিয়ে USD-এ মোট খরচ বের করুন, তারপর বর্তমান USD-BDT বিনিময় হার (প্রায় ৳১২০) দিয়ে গুণ করুন। যেমন: $100/মাস API খরচ = প্রায় ৳১২,০০০/মাস। বাংলাদেশ থেকে পেমেন্ট সাধারণত আন্তর্জাতিক ক্রেডিট/ডেবিট কার্ড, Payoneer, অথবা রিসেলার সার্ভিসের মাধ্যমে করা হয়। bKash বা Nagad দিয়ে সরাসরি পেমেন্ট এখনো সম্ভব নয়, তবে স্থানীয় রিসেলাররা এই সুবিধা দিচ্ছে।
ইনপুট টোকেন ও আউটপুট টোকেনের মধ্যে পার্থক্য কী?
ইনপুট টোকেন হলো সেই টেক্সট যা আপনি মডেলে পাঠান — প্রম্পট, সিস্টেম নির্দেশনা ও কনটেক্সট। আউটপুট টোকেন হলো মডেলের তৈরি করা উত্তর। আউটপুট টোকেন ৩-৫ গুণ বেশি দামি, কারণ মডেলকে প্রতিটি আউটপুট টোকেন ক্রমানুসারে একটি একটি করে তৈরি করতে হয় (প্রতিটির জন্য আলাদা forward pass), যেখানে ইনপুট টোকেনগুলো একবারে সমান্তরালভাবে প্রসেস হয়। যেমন Claude Sonnet 4.6-এ ইনপুট $3/1M কিন্তু আউটপুট $15/1M — ৫:১ অনুপাত।
প্রম্পট ক্যাশিং কীভাবে AI খরচ কমায়?
প্রম্পট ক্যাশিং বারবার পাঠানো প্রম্পট প্রিফিক্সের (যেমন সিস্টেম প্রম্পট) key-value ভেক্টর সংরক্ষণ করে, ফলে প্রতিটি রিকোয়েস্টে সেগুলো নতুন করে গণনা করতে হয় না। ক্যাশ করা টোকেন স্বাভাবিক দরের ১০-৫০%-এ বিল হয়। চ্যাটবট, কোডিং অ্যাসিস্ট্যান্ট বা ডকুমেন্ট প্রসেসরের মতো অ্যাপ যেখানে প্রতিটি রিকোয়েস্টে একই সিস্টেম প্রম্পট যায়, সেখানে ক্যাশিং মোট ইনপুট খরচ ৯০% পর্যন্ত কমাতে পারে। OpenAI স্বয়ংক্রিয়ভাবে ক্যাশিং করে, Anthropic ও Google-এ নির্দিষ্ট কনফিগারেশন প্রয়োজন।
ওপেন সোর্স মডেল (Llama 4, DeepSeek V3.2, Mistral) কি API খরচ এড়ানোর উপায়?
হ্যাঁ, তবে ট্রেড-অফ আছে। Meta-র Llama 4, DeepSeek V3.2, বা Mistral Small নিজের সার্ভারে চালালে প্রতি-টোকেন চার্জ নেই, কিন্তু GPU সার্ভারের খরচ আসে — AWS-এ একটি A100 GPU প্রায় ৳১,৮০,০০০-৳৩,০০,০০০/মাস। একটি সহজ বিকল্প হলো Groq বা Together AI-এর মতো ইনফারেন্স প্রোভাইডার, যারা ওপেন সোর্স মডেল $0.11-$0.50/1M টোকেনে অফার করে। মাসিক API খরচ ৳৩,৬০,০০০-এর বেশি হলে সেলফ-হোস্টিং লাভজনক হতে পারে; তার নিচে Groq-এর মতো প্রোভাইডার বা সরাসরি API-ই ভালো।
কোন কাজের জন্য কোন AI মডেল সবচেয়ে উপযুক্ত?
কোডিং ও প্রোগ্রামিং: Claude Opus 4.6/Sonnet 4.6 এবং GPT-5.4 — কোড জেনারেশন ও ডিবাগিং-এ সেরা। ডেটা বিশ্লেষণ ও বড় ডকুমেন্ট: Gemini 2.5 Pro (2M কনটেক্সট) বা Claude Opus (1M কনটেক্সট)। সাধারণ চ্যাটবট ও FAQ: GPT-4.1 mini, Gemini 2.5 Flash-Lite, বা DeepSeek V3.2 — কম খরচে ভালো পারফরম্যান্স। রিয়েল-টাইম তথ্য: Grok 4, লাইভ ডেটা অ্যাক্সেসসহ। বহুভাষিক অ্যাপ: Mistral Large বা Gemini 2.5 Pro। অতি কম বাজেট: Amazon Nova Micro ($0.035/$0.14) বা GPT-5 Nano ($0.05/$0.40)।
মূল পরিভাষা
টোকেন (Token)
LLM যে ক্ষুদ্রতম একক হিসেবে টেক্সট প্রসেস করে। একটি টোকেন একটি শব্দ, শব্দের অংশ, অক্ষর বা বিরাম চিহ্ন হতে পারে। ইংরেজিতে বেশিরভাগ শব্দ ১-২ টোকেন, বাংলায় প্রতি শব্দ ৩-৫ টোকেন হতে পারে।
টোকেনাইজার (Tokenizer)
যে অ্যালগরিদম কাঁচা টেক্সটকে টোকেনে রূপান্তর করে। বিভিন্ন মডেল ভিন্ন টোকেনাইজার ব্যবহার করে (OpenAI-এর tiktoken, Google-এর SentencePiece), তাই একই টেক্সটের টোকেন সংখ্যা প্রোভাইডারভেদে আলাদা হতে পারে।
BPE (Byte Pair Encoding)
আধুনিক LLM-এ সবচেয়ে বহুল ব্যবহৃত টোকেনাইজেশন অ্যালগরিদম। এটি বারবার আসা অক্ষর-জোড়াকে ক্রমান্বয়ে একটি টোকেনে মিলিয়ে একটি ভোকাবুলারি তৈরি করে। GPT, Claude, Grok ও DeepSeek সবাই BPE-র বিভিন্ন রূপ ব্যবহার করে।
কনটেক্সট উইন্ডো (Context Window)
একটি রিকোয়েস্টে মডেল সর্বোচ্চ যত টোকেন প্রসেস করতে পারে (ইনপুট ও আউটপুট মিলিয়ে)। GPT-4.1-এ 1M, Claude Opus 4.6-এ 1M, Gemini 2.5 Pro-তে 1M এবং Grok 4.1 Fast-এ 2M টোকেন কনটেক্সট উইন্ডো রয়েছে।
প্রম্পট ক্যাশিং (Prompt Caching)
বারবার পাঠানো প্রম্পট প্রিফিক্সের গণনা সংরক্ষণ করার পদ্ধতি, যা ক্যাশ করা অংশের লেটেন্সি ও খরচ ৯০% পর্যন্ত কমায়।
ইনপুট ও আউটপুট টোকেন
ইনপুট টোকেন হলো মডেলে পাঠানো প্রম্পট। আউটপুট টোকেন হলো মডেলের তৈরি করা উত্তর। ক্রমানুসারে তৈরি করার গণনাগত জটিলতার কারণে আউটপুট টোকেন ৩-৫ গুণ বেশি দামি।
প্রতি মিলিয়ন টোকেন মূল্য (Cost per Million Tokens)
LLM API মূল্যনির্ধারণের আদর্শ একক। প্রোভাইডাররা ইনপুট ও আউটপুটের জন্য আলাদাভাবে প্রতি ১০ লাখ টোকেনের দাম ($/1M tokens) উল্লেখ করে।
