Smart Calculators

Smart

Calculators

คำนวณ Token AI

คำนวณต้นทุนการใช้โมเดลภาษา AI ประมาณ Token จากข้อความและเปรียบเทียบราคาระหว่างโมเดลเช่น GPT-4, Claude, Gemini

คำนวณ Token AI. นับจำนวน Token และประมาณค่าใช้จ่าย API สำหรับโมเดล LLM.
เครื่องคำนวณ Token ประมาณจำนวน Token ในข้อความและคำนวณต้นทุน API ของโมเดล AI เช่น GPT, Claude, Gemini, Grok และ DeepSeek. เครื่องมือแปลงความยาวข้อความเป็น Token ตามอัตราส่วนมาตรฐานประมาณ 1 Token ต่อ 4 อักขระ แล้วนำราคาต่อล้าน Token ของแต่ละโมเดลมาคำนวณเพื่อแสดงค่าใช้จ่ายอินพุตและเอาต์พุตทันที.

Token ใน AI คืออะไร? หน่วยวัดต้นทุนของ LLM API

Token คือหน่วยย่อยที่สุดที่โมเดล AI อย่าง GPT, Claude, Gemini, Grok, DeepSeek, Mistral และ Llama ใช้ในการอ่านและสร้างข้อความ โดย 1 token อาจเป็นคำทั้งคำ ส่วนหนึ่งของคำ หรือแม้แต่ตัวอักษรเดียว ทุกครั้งที่เรียกใช้ API จะถูกคิดค่าบริการตามจำนวน token ที่ประมวลผล
สำหรับภาษาอังกฤษ หลักการทั่วไปคือ 1 token เท่ากับประมาณ 4 ตัวอักษร หรือราว 0.75 คำ ดังนั้น 1,000 คำภาษาอังกฤษจะมีประมาณ 1,333 token แต่สำหรับภาษาไทยสถานการณ์แตกต่างอย่างมาก เนื่องจาก tokenizer ของ LLM ส่วนใหญ่ถูกฝึกจากข้อมูลภาษาอังกฤษเป็นหลัก ตัวอักษรไทยจึงถูกแบ่งอย่างไม่มีประสิทธิภาพ โดย OpenAI คิด 1 ตัวอักษรไทย เท่ากับ 1 token ซึ่งหมายความว่า ข้อความภาษาไทยที่มีความหมายเดียวกันกับภาษาอังกฤษจะใช้ token มากกว่า 2-4 เท่า และค่าใช้จ่าย API ก็จะสูงขึ้นตามสัดส่วนเดียวกัน
สำหรับนักพัฒนาและสตาร์ทอัพในไทยที่กำลังสร้างแอปพลิเคชัน AI การเข้าใจระบบ token เป็นสิ่งสำคัญอันดับแรกในการควบคุมงบประมาณ การเรียก API ครั้งเดียวอาจมีต้นทุนเพียงเศษสตางค์ แต่เมื่อขยายเป็นหมื่นหรือแสนคำขอต่อวัน ค่า token จะกลายเป็นต้นทุนหลักที่ต้องวางแผนอย่างรอบคอบ

วิธีคำนวณค่าใช้จ่าย Token สำหรับ AI API

การคำนวณค่าใช้จ่าย AI API ต้องอาศัยข้อมูล 3 อย่าง ได้แก่ จำนวน input token (ข้อความที่ส่งไป) จำนวน output token (คำตอบที่โมเดลสร้าง) และราคาต่อ token ของโมเดลที่เลือกใช้
ขั้นตอนการคำนวณมีดังนี้:
1. ประมาณจำนวน input token ของข้อความที่จะส่ง สำหรับภาษาไทย ให้ใช้สูตรประมาณ "จำนวนตัวอักษร x 1" สำหรับ OpenAI (เพราะ 1 ตัวอักษรไทย ประมาณ 1 token) หรือใช้เครื่องมือนับ token ด้านบน
2. ประมาณจำนวน output token คำตอบสั้นอาจมี 100-300 token ส่วนคำอธิบายละเอียดอาจมี 1,000-2,000 token
3. เปิดดูราคาของโมเดลที่ต้องการ ผู้ให้บริการ AI จะตั้งราคาเป็น "ดอลลาร์ต่อ 1 ล้าน token" โดยแยกราคา input และ output
4. แทนค่าลงในสูตรคำนวณ (ดูหัวข้อถัดไป)
ตัวอย่าง: ส่งข้อความภาษาไทย 500 ตัวอักษร (ประมาณ 500 token) ไปยัง Claude Sonnet 4.6 (input $3/1M token) และได้คำตอบ 300 token (output $15/1M token) จะคิดเป็น (500 / 1,000,000 x $3) + (300 / 1,000,000 x $15) = $0.0015 + $0.0045 = $0.006 หรือประมาณ 0.21 บาทต่อคำขอ หากใช้งาน 1,000 ครั้งต่อวัน จะมีค่าใช้จ่ายราว 210 บาทต่อวัน หรือ 6,300 บาทต่อเดือน
ข้อสังเกตสำคัญ: output token มีราคาแพงกว่า input token ราว 3-5 เท่า เนื่องจากการสร้างข้อความต้องประมวลผลทีละ token ตามลำดับ ขณะที่ input token ทั้งหมดถูกประมวลผลพร้อมกันในรอบเดียว

สูตรคำนวณค่าใช้จ่าย AI Token

C=Tin×Pin1,000,000+Tout×Pout1,000,000C = \frac{T_{in} \times P_{in}}{1{,}000{,}000} + \frac{T_{out} \times P_{out}}{1{,}000{,}000}
  • CC = ค่าใช้จ่ายรวมของการเรียก API หนึ่งครั้ง (ดอลลาร์สหรัฐ)
  • TinT_{in} = จำนวน input token (prompt, system message และ context ทั้งหมด)
  • ToutT_{out} = จำนวน output token (คำตอบที่โมเดลสร้าง)
  • PinP_{in} = ราคา input ต่อ 1 ล้าน token ของโมเดลที่เลือก
  • PoutP_{out} = ราคา output ต่อ 1 ล้าน token ของโมเดลที่เลือก
เมื่อต้องการคำนวณต้นทุนรายเดือนสำหรับการใช้งานขนาดใหญ่ ให้ขยายสูตรดังนี้:
Cmonthly=(Tin×Pin+Tout×Pout1,000,000)×R×30C_{monthly} = \left(\frac{T_{in} \times P_{in} + T_{out} \times P_{out}}{1{,}000{,}000}\right) \times R \times 30
โดย $R$ คือจำนวนคำขอต่อวัน
สำหรับการประมาณ token ภาษาไทยโดยเฉพาะ ใช้หลักการดังนี้: สำหรับ OpenAI (tiktoken) ตัวอักษรไทย 1 ตัว ประมาณ 1 token เนื่องจาก UTF-8 encoding ของอักษรไทยใช้ 3 byte และ BPE tokenizer ไม่มี vocabulary ที่ครอบคลุมภาษาไทยดีพอ สำหรับ Gemini บน Vertex AI จะคิดตามจำนวนตัวอักษร (UTF-8 code points) ซึ่งมีประสิทธิภาพมากกว่าสำหรับภาษาไทย หากใช้ prompt caching (ที่ OpenAI, Anthropic และ Google รองรับ) token ที่ cache แล้วจะถูกคิดเพียง 10-50% ของราคาปกติ ช่วยลดต้นทุนได้มากสำหรับแอปพลิเคชันที่ส่ง system prompt ซ้ำทุกคำขอ

ตัวอย่างการคำนวณค่า Token สำหรับธุรกิจไทย

แชทบอทบริการลูกค้าภาษาไทย: 30,000 สนทนาต่อเดือน

บริษัทอีคอมเมิร์ซไทยสร้างแชทบอทตอบคำถามลูกค้าด้วย GPT-4.1 mini ($0.40/1M input, $1.60/1M output) แต่ละสนทนามี system prompt 300 token + ข้อความลูกค้าภาษาไทย 200 ตัวอักษร (ประมาณ 200 token) + ประวัติสนทนา 500 token รวม input 1,000 token คำตอบของบอทเฉลี่ย 400 token
ค่า input: 30,000 x 1,000 / 1,000,000 x $0.40 = $12.00 (420 บาท) ค่า output: 30,000 x 400 / 1,000,000 x $1.60 = $19.20 (672 บาท) รวมต่อเดือน: $31.20 (1,092 บาท)
หากเปลี่ยนมาใช้ Claude Sonnet 4.6 ($3/$15 ต่อ 1M token) เพื่อคุณภาพคำตอบที่ดีขึ้น ต้นทุนจะเพิ่มเป็น $270 (9,450 บาท) ต่อเดือน ซึ่งแพงกว่า 8.7 เท่า การเลือกโมเดลที่เหมาะสมกับงานจึงสำคัญมากสำหรับการควบคุมต้นทุน

ระบบสรุปข่าวภาษาไทย: 500 บทความต่อวัน

สำนักข่าวออนไลน์ต้องการสรุปข่าว 500 บทความต่อวัน แต่ละบทความมีเนื้อหาภาษาไทยเฉลี่ย 2,000 ตัวอักษร (ประมาณ 2,000 token สำหรับ OpenAI) สรุปออกมาเฉลี่ย 200 token ใช้ Gemini 2.5 Flash ($0.30/1M input, $2.50/1M output)
ค่า input ต่อวัน: 500 x 2,000 / 1,000,000 x $0.30 = $0.30 (10.50 บาท) ค่า output ต่อวัน: 500 x 200 / 1,000,000 x $2.50 = $0.25 (8.75 บาท) รวมต่อวัน: $0.55 (19.25 บาท) | รวมต่อเดือน: $16.50 (577 บาท)
หากใช้ Gemini บน Vertex AI ที่คิดตามตัวอักษร (characters) แทน token ต้นทุนอาจถูกลงอีก เพราะ Gemini นับตัวอักษรไทย 1 ตัว เป็น 1 UTF-8 code point เท่ากับภาษาอังกฤษ ไม่มีส่วนต่างราคาเพราะภาษา

AI ช่วยเขียนโค้ดสำหรับทีม 10 คนในกรุงเทพฯ

ทีมพัฒนาซอฟต์แวร์ 10 คนในกรุงเทพฯ ใช้ AI ช่วยเขียนโค้ดผ่าน Claude Sonnet 4.6 ($3/1M input, $15/1M output) นักพัฒนาแต่ละคนใช้งานเฉลี่ย 30 ครั้งต่อวัน แต่ละครั้งส่งโค้ด + คำถามเฉลี่ย 2,000 input token และรับคำแนะนำ 600 output token
คำขอต่อวัน: 10 x 30 = 300 ค่า input ต่อวัน: 300 x 2,000 / 1,000,000 x $3.00 = $1.80 (63 บาท) ค่า output ต่อวัน: 300 x 600 / 1,000,000 x $15.00 = $2.70 (94.50 บาท) รวมต่อวัน: $4.50 (157.50 บาท) | รวมต่อเดือน (22 วันทำงาน): $99.00 (3,465 บาท)
คิดเป็นคนละ 346.50 บาทต่อเดือน ซึ่งถูกกว่าค่ากาแฟหนึ่งแก้วต่อสัปดาห์ เมื่อเทียบกับ productivity ที่เพิ่มขึ้น ถือว่าคุ้มค่ามาก หากเปิด prompt caching สำหรับ system prompt ที่ใช้ร่วมกัน สามารถลดต้นทุนได้อีก 15-25%

เคล็ดลับลดค่าใช้จ่าย AI API สำหรับนักพัฒนาไทย

  • เลือกโมเดลให้เหมาะกับงาน ใช้โมเดลราคาประหยัด (GPT-4.1 mini, Gemini 2.5 Flash-Lite, Claude Haiku, DeepSeek V3.2, Grok 4.1 Fast, Amazon Nova Micro, Mistral Small) สำหรับงานง่ายอย่างการจำแนกข้อความ สรุปเนื้อหา หรือตอบคำถามทั่วไป สงวนโมเดลพรีเมียม (GPT-5.4, Claude Sonnet/Opus, Gemini 2.5 Pro, Grok 4) ไว้สำหรับงานที่ต้องการเหตุผลซับซ้อน การแบ่งระดับโมเดลตามความยากของงานช่วยลดต้นทุนได้ 40-60%
  • เขียน prompt ภาษาไทยให้กระชับ เนื่องจากภาษาไทยใช้ token มากกว่าภาษาอังกฤษ 2-4 เท่า ทุกตัวอักษรที่ตัดออกได้จะช่วยประหยัดค่าใช้จ่าย พิจารณาเขียน system prompt และคำสั่งเป็นภาษาอังกฤษ แล้วให้โมเดลตอบเป็นภาษาไทย วิธีนี้ช่วยลด token ในส่วน input ได้ 30-50%
  • เปิดใช้ prompt caching สำหรับ context ที่ซ้ำกัน หากแอปพลิเคชันส่ง system prompt เดิมทุกคำขอ prompt caching ลดค่า input token ของส่วนที่ cache ได้สูงสุด 90% OpenAI ใช้ cache อัตโนมัติ ส่วน Anthropic ต้องตั้งค่า cache_control header
  • ใช้ Batch API สำหรับงานที่ไม่ต้องการผลทันที OpenAI และ Anthropic ให้ส่วนลด 50% สำหรับ batch processing เหมาะกับงานวิเคราะห์ข้อมูล สร้างรายงาน หรือประมวลผลจำนวนมากที่รอได้ 24 ชั่วโมง
  • จำกัดจำนวน output token ด้วย max_tokens ป้องกันไม่ให้โมเดลสร้างคำตอบยาวเกินจำเป็น เนื่องจาก output token แพงกว่า input 3-5 เท่า การกำหนดขีดจำกัดที่เหมาะสมช่วยประหยัดได้มาก
  • พิจารณาใช้ Gemini สำหรับงานภาษาไทยจำนวนมาก เพราะ Gemini บน Vertex AI คิดค่าบริการตามจำนวนตัวอักษร (characters) ไม่ใช่ token และนับตัวอักษรไทย 1 ตัวเป็น 1 UTF-8 code point เท่ากับภาษาอังกฤษ จึงไม่มีส่วนต่างราคาเพราะภาษา ต่างจาก OpenAI ที่ภาษาไทยใช้ token มากกว่า
  • ติดตามการใช้งานและตั้งแจ้งเตือนงบประมาณ ใช้ dashboard ของผู้ให้บริการหรือเครื่องมืออย่าง Helicone เพื่อติดตามปริมาณ token ตาม endpoint, โมเดล และผู้ใช้ ตั้งวงเงินสูงสุดเพื่อป้องกันค่าใช้จ่ายพุ่งจาก bug หรือ traffic ที่เพิ่มขึ้นกะทันหัน

คำถามที่พบบ่อยเกี่ยวกับ Token AI และราคา API

ภาษาไทยใช้ token มากกว่าภาษาอังกฤษกี่เท่า?

ภาษาไทยใช้ token มากกว่าภาษาอังกฤษประมาณ 2-4 เท่า สำหรับข้อความที่มีความหมายเดียวกัน สาเหตุหลักคือ BPE tokenizer ของ LLM ส่วนใหญ่ถูกฝึกจากข้อมูลภาษาอังกฤษเป็นหลัก ทำให้คำภาษาอังกฤษถูกบีบอัดเป็น 1-2 token ได้อย่างมีประสิทธิภาพ แต่ตัวอักษรไทยซึ่งใช้ UTF-8 encoding 3 byte ต่อตัวอักษร กลับถูกแบ่งเป็น 1 token ต่อ 1 ตัวอักษร (ในกรณี OpenAI) ตัวอย่างเช่น คำว่า "สวัสดี" ใช้ 6 token แต่ "Hello" ใช้เพียง 1 token ซึ่งหมายความว่าค่า API ภาษาไทยแพงกว่าภาษาอังกฤษตามสัดส่วนเดียวกัน

Token คืออะไรใน AI ต่างจากคำ (word) อย่างไร?

Token คือหน่วยย่อยที่ AI ใช้ประมวลผลข้อความ ซึ่งไม่เหมือนกับ "คำ" ในภาษาปกติ token อาจเป็นคำทั้งคำ ส่วนหนึ่งของคำ ตัวอักษรเดียว หรือเครื่องหมายวรรคตอน คำที่พบบ่อยอย่าง "the" หรือ "is" มักเป็น 1 token แต่คำยาวหรือไม่ค่อยพบจะถูกแบ่งเป็นหลาย token เช่น "unbelievable" อาจถูกแบ่งเป็น "un", "believ", "able" (3 token) สำหรับภาษาไทยที่ไม่มีช่องว่างระหว่างคำ tokenizer จะแบ่งตามตัวอักษรหรือกลุ่มตัวอักษรแทน ทำให้ 1 คำภาษาไทยอาจใช้ 3-8 token

โมเดล AI ที่ถูกที่สุดสำหรับใช้งาน API ในปี 2026 คือตัวไหน?

ในเดือนมีนาคม 2026 โมเดลที่ถูกที่สุดเรียงตามราคา (input/output ต่อ 1M token) คือ Amazon Nova Micro ($0.035/$0.14), GPT-5 Nano ($0.05/$0.40), Gemini 2.0 Flash-Lite ($0.075/$0.30), Mistral Small ($0.10/$0.30), GPT-4.1 Nano ($0.10/$0.40), Llama 4 Scout ผ่าน Groq ($0.11/$0.34), Grok 4.1 Fast ($0.20/$0.50) และ DeepSeek V3.2 ($0.28/$0.42) สำหรับงานระดับกลาง มี Gemini 2.5 Flash ($0.30/$2.50), GPT-4.1 Mini ($0.40/$1.60), Claude Haiku 4.5 ($1/$5) และ o4-mini ($1.10/$4.40) ระดับพรีเมียม ได้แก่ Gemini 2.5 Pro ($1.25/$10), GPT-5 ($1.25/$10), GPT-4.1 ($2/$8), Claude Sonnet 4.6 ($3/$15) และ Claude Opus 4.6 ($5/$25)

ChatGPT API ราคาเท่าไหร่ คิดเงินยังไง?

ChatGPT API คิดค่าบริการแบบ pay-per-use ตามจำนวน token ที่ใช้ ไม่ใช่ค่ารายเดือนแบบ ChatGPT Plus (699 บาท/เดือน) ราคาแยกตามโมเดล เช่น GPT-4.1 mini คิด $0.40 ต่อ 1M input token และ $1.60 ต่อ 1M output token ส่วน GPT-4.1 คิด $2/$8 ต่อ 1M token ในทางปฏิบัติ หากส่งข้อความภาษาไทย 500 ตัวอักษรและรับคำตอบ 300 token ด้วย GPT-4.1 mini จะมีค่าใช้จ่ายประมาณ $0.00068 (0.024 บาท) ต่อคำขอ ซึ่งหมายความว่า งบ 350 บาท (10 ดอลลาร์) สามารถเรียก API ได้ราว 14,700 ครั้ง

Prompt caching คืออะไร ช่วยลดค่าใช้จ่ายได้อย่างไร?

Prompt caching คือเทคโนโลยีที่เก็บ key-value vectors ของส่วน prompt ที่ถูกส่งซ้ำ (เช่น system prompt) ไว้ในหน่วยความจำ เพื่อไม่ต้องคำนวณใหม่ทุกครั้ง token ที่ cache แล้วจะถูกคิดเพียง 10-50% ของราคาปกติ ขึ้นอยู่กับผู้ให้บริการ สำหรับแอปพลิเคชันที่ส่ง system prompt เดิมกับทุกคำขอ เช่น แชทบอท ผู้ช่วยเขียนโค้ด หรือ RAG pipeline prompt caching สามารถลดค่า input ได้สูงสุด 90% OpenAI เปิด cache อัตโนมัติ ส่วน Anthropic และ Google ต้องตั้งค่าเอง

ข้อความภาษาไทย 1,000 ตัวอักษรใช้กี่ token?

สำหรับ OpenAI (GPT series) ข้อความภาษาไทย 1,000 ตัวอักษรใช้ประมาณ 800-1,200 token ขึ้นอยู่กับเนื้อหา ข้อความที่มีสระ วรรณยุกต์ และตัวเลขผสมจะใช้ token มากกว่าข้อความพยัญชนะล้วน สำหรับ Gemini บน Vertex AI ที่คิดตามตัวอักษร 1,000 ตัวอักษรไทยจะถูกนับเป็น 1,000 characters เท่ากับภาษาอังกฤษ ซึ่งประหยัดกว่ามาก เปรียบเทียบกัน: ข้อความภาษาอังกฤษ 1,000 ตัวอักษรใช้เพียง 250-333 token (OpenAI) ดังนั้นภาษาไทยจึงใช้ token มากกว่า 3-4 เท่า

เปรียบเทียบ Claude API กับ GPT API อันไหนคุ้มกว่า?

ขึ้นอยู่กับงานและปริมาณการใช้ สำหรับงานทั่วไปปริมาณมาก GPT-4.1 mini ($0.40/$1.60) ถูกกว่า Claude Haiku 4.5 ($1/$5) ประมาณ 2.5 เท่า สำหรับงานคุณภาพสูง Claude Sonnet 4.6 ($3/$15) และ GPT-5.4 ($2.50/$15) มีราคาใกล้เคียงกัน แต่ Claude โดดเด่นด้านการเขียนโค้ดและเข้าใจบริบทยาว ส่วน GPT-4.1 ($2/$8) มี context window 1 ล้าน token เหมาะกับ codebase ขนาดใหญ่ สำหรับนักพัฒนาไทย แนะนำเริ่มจากโมเดลถูก (GPT-4.1 mini หรือ Gemini 2.5 Flash) ทดสอบคุณภาพก่อน แล้วค่อยเลื่อนขึ้นมาใช้โมเดลพรีเมียมเฉพาะงานที่ต้องการ

รูปภาพและไฟล์ใช้ token อย่างไรในโมเดล AI แบบ multimodal?

รูปภาพจะถูกแปลงเป็น token ตามความละเอียด สำหรับ GPT-4o รูปขนาด 1024x1024 พิกเซลใช้ประมาณ 765 token คำนวณจากการแบ่งรูปเป็น tile ขนาด 512x512 (170 token ต่อ tile) บวกค่าฐาน 85 token รูปที่ละเอียดสูงกว่าจะใช้ token มากขึ้น โหมด "high detail" แพงกว่า "low detail" อย่างมาก PDF และเอกสารอื่นจะถูกแปลงเป็นข้อความก่อนแล้วค่อยนับ token ตามปกติ แอปพลิเคชันที่รับรูปภาพจำนวนมากควรประมาณค่า token ของรูปภาพเป็นพิเศษ


คำศัพท์สำคัญเกี่ยวกับ Token และ AI API

Token

หน่วยย่อยที่สุดที่ LLM ใช้ประมวลผลข้อความ อาจเป็นคำ ส่วนของคำ ตัวอักษร หรือเครื่องหมาย คำภาษาอังกฤษทั่วไปใช้ 1-2 token แต่ตัวอักษรไทย 1 ตัวอาจใช้ 1 token ทั้งตัว

Tokenizer

อัลกอริทึมที่แปลงข้อความดิบเป็น token แต่ละโมเดลใช้ tokenizer ต่างกัน เช่น OpenAI ใช้ tiktoken, Google ใช้ SentencePiece ทำให้ข้อความเดียวกันอาจมีจำนวน token ต่างกันในแต่ละผู้ให้บริการ

BPE (Byte Pair Encoding)

อัลกอริทึม tokenization ที่นิยมใช้มากที่สุดใน LLM สมัยใหม่ สร้าง vocabulary โดยการรวมคู่ byte ที่พบบ่อยที่สุดซ้ำไปเรื่อย ๆ GPT, Claude, Llama และ Mistral ล้วนใช้รูปแบบของ BPE

Context Window

จำนวน token สูงสุดที่โมเดลรับได้ในคำขอเดียว รวมทั้ง input และ output ตัวอย่าง: GPT-4.1 รองรับ 1 ล้าน token, Claude Opus 4.6 รองรับ 1 ล้าน token, Grok 4.1 Fast รองรับ 2 ล้าน token

Prompt Caching

ฟีเจอร์ลดต้นทุนที่เก็บ key-value pairs ของ prompt prefix ที่ซ้ำกันไว้ใช้ใหม่ ลดทั้ง latency และค่า token ได้สูงสุด 90% สำหรับส่วนที่ cache แล้ว

Input Token / Output Token

Input token คือ token ใน prompt ที่ส่งไปยังโมเดล Output token คือ token ที่โมเดลสร้างเป็นคำตอบ Output แพงกว่า input 3-5 เท่า เพราะต้องสร้างทีละ token ตามลำดับ

ราคาต่อล้าน Token (Cost per Million Tokens)

หน่วยมาตรฐานในการตั้งราคา LLM API ผู้ให้บริการจะระบุราคาเป็นดอลลาร์ต่อ 1 ล้าน token ($/1M tokens) โดยแยก input และ output ตัวอย่าง: Claude Sonnet 4.6 คิด $3/1M input และ $15/1M output