Smart Calculators

Smart

Calculators

Υπολογιστής tokens

Υπολόγισε το κόστος χρήσης μοντέλων γλώσσας AI. Εκτίμησε τα tokens από κείμενο και σύγκρινε τιμές GPT-4, Claude, Gemini και άλλων μοντέλων.

Υπολογιστής tokens. Μέτρηση AI tokens και εκτίμηση κόστους API για μοντέλα LLM.
Ο υπολογιστής tokens εκτιμά τον αριθμό tokens σε κείμενο και υπολογίζει το κόστος API για μοντέλα AI όπως GPT, Claude, Gemini, Grok και DeepSeek. Μετατρέπει το μήκος κειμένου σε tokens χρησιμοποιώντας την τυπική αναλογία περίπου 1 token ανά 4 χαρακτήρες και εφαρμόζει την τιμή κάθε μοντέλου ανά εκατομμύριο tokens για να εμφανίσει άμεσα τα κόστη εισόδου και εξόδου.

Τι Είναι ο Υπολογιστής Tokens AI;

Ο υπολογιστής tokens AI είναι ένα εργαλείο που εκτιμά τον αριθμό των tokens σε ένα κείμενο και υπολογίζει το κόστος επεξεργασίας μέσω APIs μεγάλων γλωσσικών μοντέλων (LLM) όπως GPT, Claude, Gemini, Grok, DeepSeek, Mistral και Llama. Τα tokens είναι οι θεμελιώδεις μονάδες που χρησιμοποιούν τα μοντέλα τεχνητής νοημοσύνης για να διαβάζουν και να παράγουν κείμενο -- ένα token μπορεί να είναι μια ολόκληρη λέξη, τμήμα λέξης ή ακόμα και ένας μεμονωμένος χαρακτήρας.
Για developers και επιχειρήσεις που αναπτύσσουν εφαρμογές AI στην Ελλάδα, η κατανόηση του κόστους tokens είναι κρίσιμη για τον προϋπολογισμό και τον έλεγχο δαπανών. Κάθε κλήση API σε ένα LLM χρεώνεται με βάση τον αριθμό των input tokens (το prompt σας) και των output tokens (η απάντηση του μοντέλου). Μια μεμονωμένη κλήση μπορεί να κοστίζει κλάσματα λεπτού, αλλά σε κλίμακα -- χιλιάδες ή εκατομμύρια αιτήματα ημερησίως -- το κόστος tokens μπορεί να γίνει σημαντικό κονδύλι.
Ο γενικός κανόνας είναι ότι 1 token αντιστοιχεί περίπου σε 4 χαρακτήρες αγγλικού κειμένου ή 0,75 λέξεις. Για ελληνικά κείμενα, η αναλογία είναι λιγότερο ευνοϊκή: λόγω της μορφολογικής πολυπλοκότητας και των τονισμένων χαρακτήρων, ένα ελληνικό κείμενο παράγει τυπικά 20-40% περισσότερα tokens από το αντίστοιχο αγγλικό. Αυτό συμβαίνει επειδή οι tokenizers των μεγάλων μοντέλων (tiktoken της OpenAI, SentencePiece της Google) εκπαιδεύτηκαν κυρίως σε αγγλικά δεδομένα.

Πώς Υπολογίζεται το Κόστος AI Tokens;

Για να υπολογίσετε το κόστος μιας κλήσης API σε ένα γλωσσικό μοντέλο AI, χρειάζεστε τρία στοιχεία: τον αριθμό input tokens, τον αριθμό output tokens και την τιμή ανά token του μοντέλου που επιλέξατε.
Ακολουθήστε τα παρακάτω βήματα:
1. Εκτιμήστε τα input tokens σας. Επικολλήστε το κείμενο στον υπολογιστή tokens, ή χρησιμοποιήστε την προσέγγιση 1 token ανά 4 χαρακτήρες (περίπου 1.333 tokens ανά 1.000 αγγλικές λέξεις). Για ελληνικά, υπολογίστε 1,3-1,5 tokens ανά λέξη.
2. Εκτιμήστε τα output tokens. Αυτό εξαρτάται από το αναμενόμενο μήκος απάντησης: μια σύντομη απάντηση είναι 100-300 tokens, μια λεπτομερής εξήγηση 1.000-2.000 tokens.
3. Αναζητήστε τις τιμές του μοντέλου. Οι πάροχοι δημοσιεύουν τιμές ως κόστος ανά 1 εκατομμύριο tokens, με ξεχωριστές τιμές για input και output.
4. Εφαρμόστε τον τύπο κόστους (βλ. παρακάτω).
Παράδειγμα: στέλνετε ένα prompt 2.000 tokens στο Claude Sonnet 4.6 (3 $ ανά 1 εκ. input tokens) και λαμβάνετε απάντηση 500 tokens (15 $ ανά 1 εκ. output tokens). Το κόστος είναι: (2.000 / 1.000.000 x 3 $) + (500 / 1.000.000 x 15 $) = 0,006 $ + 0,0075 $ = 0,0135 $ ανά αίτημα, δηλαδή περίπου 0,012 EUR. Σε 10.000 αιτήματα ημερησίως, αυτό ανέρχεται σε 120 EUR ημερησίως ή περίπου 3.600 EUR τον μήνα.
Τα output tokens είναι τυπικά 3-5 φορές ακριβότερα από τα input tokens, επειδή η παραγωγή κάθε output token απαιτεί ξεχωριστό πέρασμα μέσα από το μοντέλο (sequentially), ενώ τα input tokens επεξεργάζονται παράλληλα σε ένα μόνο πέρασμα.

Τύπος Υπολογισμού Κόστους AI Tokens

C=Tin×Pin1,000,000+Tout×Pout1,000,000C = \frac{T_{in} \times P_{in}}{1{,}000{,}000} + \frac{T_{out} \times P_{out}}{1{,}000{,}000}
  • CC = Συνολικό κόστος κλήσης API (σε USD ή EUR)
  • TinT_{in} = Αριθμός input tokens (prompt, system message και context)
  • ToutT_{out} = Αριθμός output tokens (η απάντηση που παράγει το μοντέλο)
  • PinP_{in} = Τιμή ανά 1 εκατομμύριο input tokens για το επιλεγμένο μοντέλο
  • PoutP_{out} = Τιμή ανά 1 εκατομμύριο output tokens για το επιλεγμένο μοντέλο
Για τον υπολογισμό μηνιαίου ή ετήσιου κόστους σε κλίμακα, ο τύπος επεκτείνεται ώστε να λαμβάνει υπόψη τον όγκο αιτημάτων:
Cμην=(Tin×Pin+Tout×Pout1,000,000)×R×30C_{\mu\eta\nu} = \left(\frac{T_{in} \times P_{in} + T_{out} \times P_{out}}{1{,}000{,}000}\right) \times R \times 30
όπου R είναι ο αριθμός κλήσεων API ανά ημέρα. Αν χρησιμοποιείτε prompt caching (διαθέσιμο από OpenAI, Anthropic και Google), τα cached input tokens χρεώνονται στο 10-50% της κανονικής τιμής, μειώνοντας σημαντικά το κόστος για εφαρμογές με επαναλαμβανόμενα system prompts ή context.

Παραδείγματα Κόστους AI Tokens

Chatbot Εξυπηρέτησης Πελατών: 30.000 Συνομιλίες τον Μήνα

Ένα ελληνικό e-shop αναπτύσσει chatbot εξυπηρέτησης πελατών χρησιμοποιώντας GPT-4.1 mini (0,40 $ ανά 1 εκ. input tokens, 1,60 $ ανά 1 εκ. output tokens). Κάθε συνομιλία περιλαμβάνει κατά μέσο όρο 900 input tokens (system prompt + μήνυμα πελάτη + ιστορικό) και 450 output tokens (απάντηση bot). Μηνιαίος όγκος: 30.000 συνομιλίες.
Κόστος input: 30.000 x 900 / 1.000.000 x 0,40 $ = 10,80 $ Κόστος output: 30.000 x 450 / 1.000.000 x 1,60 $ = 21,60 $ Συνολικό μηνιαίο κόστος: 32,40 $ -- περίπου 30 EUR
Με prompt caching για το system prompt 350 tokens (50% έκπτωση), το κόστος input μειώνεται κατά περίπου 2 EUR τον μήνα. Αν αντί αυτού χρησιμοποιούσαν Claude Sonnet 4.6 (3 $/15 $ ανά 1 εκ. tokens), το ίδιο φορτίο εργασίας θα κόστιζε περίπου 283 EUR/μήνα -- 9 φορές ακριβότερο. Η επιλογή μοντέλου είναι ο σημαντικότερος μοχλός βελτιστοποίησης κόστους.

Ανάλυση Εγγράφων σε Δικηγορικό Γραφείο Αθηνών

Ένα δικηγορικό γραφείο στην Αθήνα χρησιμοποιεί AI για να αναλύει 25 συμβόλαια ημερησίως. Κάθε συμβόλαιο αντιστοιχεί κατά μέσο όρο σε 3.500 input tokens (ελληνικά κείμενα παράγουν περισσότερα tokens), και η περίληψη περιλαμβάνει 400 output tokens. Χρησιμοποιούν Gemini 2.5 Flash (0,30 $ ανά 1 εκ. input, 2,50 $ ανά 1 εκ. output).
Ημερήσιο κόστος input: 25 x 3.500 / 1.000.000 x 0,30 $ = 0,026 $ Ημερήσιο κόστος output: 25 x 400 / 1.000.000 x 2,50 $ = 0,025 $ Ημερήσιο σύνολο: 0,051 $ | Μηνιαίο σύνολο (22 εργάσιμες): 1,12 $ -- λιγότερο από 1 EUR
Η AI εξοικονομεί ώρες χειρωνακτικής εργασίας για κόστος μικρότερο από έναν καφέ τον μήνα. Αν ήθελαν υψηλότερη ποιότητα με Claude Opus 4.6 (5 $/25 $ ανά 1 εκ. tokens), το μηνιαίο κόστος θα ανερχόταν σε περίπου 15 EUR -- εξακολουθεί να είναι εξαιρετικά οικονομικό.

AI Coding Assistant για Ομάδα 10 Developers σε Ελληνικό Startup

Ένα startup τεχνολογίας στη Θεσσαλονίκη χρησιμοποιεί AI coding assistant βασισμένο στο Claude Sonnet 4.6 (3 $ ανά 1 εκ. input, 15 $ ανά 1 εκ. output). Κάθε developer κάνει περίπου 35 αιτήματα ημερησίως, με μέσο όρο 2.000 input tokens (κώδικας + ερώτηση) και 700 output tokens (προτάσεις κώδικα + εξήγηση).
Ημερήσια αιτήματα: 10 x 35 = 350 Ημερήσιο κόστος input: 350 x 2.000 / 1.000.000 x 3,00 $ = 2,10 $ Ημερήσιο κόστος output: 350 x 700 / 1.000.000 x 15,00 $ = 3,68 $ Ημερήσιο σύνολο: 5,78 $ | Μηνιαίο σύνολο (22 εργάσιμες): 127 $ -- περίπου 117 EUR
Αυτό αντιστοιχεί σε περίπου 11,70 EUR ανά developer τον μήνα -- λιγότερο από δύο φρέντο εσπρέσο την εβδομάδα. Σε σύγκριση με την αύξηση παραγωγικότητας που προσφέρει η AI-assisted ανάπτυξη κώδικα, η απόδοση επένδυσης είναι εξαιρετική. Με prompt caching για το κοινό system prompt και code context, το κόστος μπορεί να μειωθεί κατά 15-25%.

Συμβουλές για Μείωση του Κόστους AI API Tokens

  • Επιλέξτε το σωστό μοντέλο για κάθε εργασία. Χρησιμοποιήστε οικονομικά μοντέλα (GPT-4.1 mini, Gemini 2.5 Flash-Lite, Claude Haiku, DeepSeek V3.2, Grok 4.1 Fast, Amazon Nova Micro) για απλές εργασίες όπως ταξινόμηση, εξαγωγή δεδομένων και σύνοψη. Κρατήστε τα premium μοντέλα (GPT-5.4, Claude Sonnet/Opus, Gemini 2.5 Pro, Grok 4) για εργασίες που απαιτούν πραγματικά ανώτερο reasoning. Ένα έξυπνο model routing μπορεί να μειώσει το κόστος κατά 40-60%.
  • Ενεργοποιήστε prompt caching για επαναλαμβανόμενο context. Αν η εφαρμογή σας στέλνει το ίδιο system prompt με κάθε αίτημα, το prompt caching μπορεί να μειώσει το κόστος input tokens έως και 90%. Η OpenAI το εφαρμόζει αυτόματα, ενώ η Anthropic απαιτεί ρητά cache_control headers.
  • Χρησιμοποιήστε το Batch API για μη επείγοντα φορτία εργασίας. Η OpenAI και η Anthropic προσφέρουν batch processing με 50% έκπτωση στις τιμές tokens. Αν η εργασία σας δεν απαιτεί αποτελέσματα σε πραγματικό χρόνο (reports, μαζική ανάλυση, επεξεργασία δεδομένων), η batch επεξεργασία εξοικονομεί τα μισά.
  • Περικόψτε τα prompts σας αποφασιστικά. Κάθε token στο input κοστίζει. Αφαιρέστε περιττές οδηγίες, φλύαρα system prompts και πλεονάζον context. Ένα καλοδουλεμένο prompt 500 tokens συχνά αποδίδει καλύτερα από ένα χαλαρό 2.000 tokens -- και κοστίζει 75% λιγότερο.
  • Ορίστε μέγιστο μήκος output. Χρησιμοποιήστε την παράμετρο max_tokens για να αποτρέψετε το μοντέλο από αχρείαστα μακροσκελείς απαντήσεις. Αν χρειάζεστε μια πρόταση, ορίστε 100 tokens αντί να αφήνετε το μοντέλο να γράψει παραγράφους.
  • Παρακολουθήστε τις δαπάνες και ορίστε ειδοποιήσεις. Χρησιμοποιήστε το dashboard κατανάλωσης του παρόχου σας ή εργαλεία τρίτων όπως Helicone για παρακολούθηση κατανάλωσης tokens ανά endpoint, μοντέλο και χρήστη. Ορίστε αυστηρά spending limits για αποφυγή ξεφεύγουσας δαπάνης από bugs ή απρόσμενα traffic spikes.
  • Εξετάστε open-source μοντέλα για μεγάλο όγκο. Self-hosted μοντέλα όπως Llama 4 (Meta), Mistral Small ή DeepSeek V3.2 δεν έχουν κόστος ανά token. Hosting providers όπως Groq και Together AI προσφέρουν Llama 4 και DeepSeek inference στα 0,11-0,50 $ ανά εκατομμύριο tokens -- πολύ φθηνότερα από τα proprietary APIs. Σε πολύ υψηλούς όγκους (εκατομμύρια αιτήματα/ημέρα), το self-hosting μπορεί να είναι 5-10 φορές φθηνότερο.

Συχνές Ερωτήσεις για Tokens AI και Τιμολόγηση

Πόσα tokens αντιστοιχούν σε 1.000 λέξεις ελληνικού κειμένου;

Περίπου 1.500-1.800 tokens. Τα ελληνικά κείμενα παράγουν 20-40% περισσότερα tokens σε σύγκριση με αγγλικά κείμενα ίδιου μήκους, επειδή οι tokenizers των μεγάλων μοντέλων (tiktoken, SentencePiece) εκπαιδεύτηκαν κυρίως σε αγγλικά δεδομένα. Αυτό σημαίνει ότι η επεξεργασία ελληνικού κειμένου είναι ελαφρώς ακριβότερη. Για αγγλικά, η αναλογία είναι περίπου 1.333 tokens ανά 1.000 λέξεις. Αυτή η διαφορά πρέπει να λαμβάνεται υπόψη στον προϋπολογισμό εφαρμογών που εξυπηρετούν ελληνόφωνο κοινό.

Γιατί τα output tokens είναι ακριβότερα από τα input tokens;

Τα output tokens κοστίζουν 3-5 φορές περισσότερο λόγω του τρόπου που τα LLM παράγουν κείμενο. Τα input tokens επεξεργάζονται σε ένα μόνο forward pass μέσα από το μοντέλο, με όλα τα tokens να υπολογίζονται παράλληλα. Τα output tokens, όμως, πρέπει να δημιουργηθούν ένα-ένα σειριακά -- κάθε νέο token απαιτεί ξεχωριστό forward pass. Αυτή η σειριακή παραγωγή είναι πολύ πιο υπολογιστικά ακριβή. Για παράδειγμα, το Claude Sonnet 4.6 χρεώνει 3 $ ανά εκατομμύριο input tokens αλλά 15 $ ανά εκατομμύριο output tokens -- αναλογία 5:1.

Ποιο είναι το φθηνότερο μοντέλο AI API το 2026;

Τον Μάρτιο 2026, οι φθηνότερες επιλογές API (input/output ανά 1 εκ. tokens) είναι: Amazon Nova Micro (0,035 $/0,14 $), GPT-5 Nano (0,05 $/0,40 $), Gemini 2.0 Flash-Lite (0,075 $/0,30 $), Mistral Small (0,10 $/0,30 $), GPT-4.1 Nano (0,10 $/0,40 $), Llama 4 Scout μέσω Groq (0,11 $/0,34 $). Στη μεσαία κατηγορία: Gemini 2.5 Flash (0,30 $/2,50 $), GPT-4.1 Mini (0,40 $/1,60 $), Claude Haiku 4.5 (1 $/5 $), o4-mini (1,10 $/4,40 $). Για premium ποιότητα: GPT-5.4 (2,50 $/15 $), Claude Sonnet 4.6 (3 $/15 $), Grok 4 (3 $/15 $), Claude Opus 4.6 (5 $/25 $). Η καλύτερη επιλογή εξαρτάται από τις απαιτήσεις ποιότητας.

Πώς μειώνει το prompt caching το κόστος AI;

Το prompt caching αποθηκεύει τα key-value vectors επαναλαμβανόμενων τμημάτων prompt (όπως system prompts), ώστε να μην χρειάζεται επανυπολογισμός σε κάθε αίτημα. Τα cached tokens χρεώνονται στο 10-50% της κανονικής τιμής input. Για εφαρμογές που στέλνουν το ίδιο system prompt -- chatbots, coding assistants, document processors -- το prompt caching μπορεί να μειώσει το κόστος input έως και 90%. Η OpenAI εφαρμόζει caching αυτόματα, ενώ η Anthropic και η Google απαιτούν ρητή ρύθμιση.

Τα ελληνικά κείμενα κοστίζουν περισσότερο στο AI API;

Ναι, τυπικά 20-40% περισσότερο σε σύγκριση με αγγλικά κείμενα. Αυτό συμβαίνει επειδή οι BPE tokenizers εκπαιδεύτηκαν σε αγγλοκεντρικά δεδομένα και σπάνε τις ελληνικές λέξεις σε περισσότερα υπο-tokens. Λέξεις όπως «αποτελεσματικότητα» μπορεί να γίνουν 4-5 tokens, ενώ μια αγγλική λέξη αντίστοιχου μήκους θα ήταν 2-3 tokens. Οι τονισμένοι χαρακτήρες (ά, έ, ή, ί, ό, ύ, ώ) μπορεί επίσης να αυξήσουν τον αριθμό tokens. Developers που δημιουργούν ελληνόγλωσσες εφαρμογές AI πρέπει να υπολογίζουν αυτή την επιβάρυνση.

Πώς μετράω τα tokens στο κείμενό μου πριν το στείλω σε API;

Υπάρχουν τρεις βασικοί τρόποι. Πρώτον, χρησιμοποιήστε τη βιβλιοθήκη tiktoken σε Python (import tiktoken; encoding = tiktoken.encoding_for_model('gpt-4'); len(encoding.encode(text))). Δεύτερον, χρησιμοποιήστε έναν online υπολογιστή tokens όπως το εργαλείο μας -- επικολλήστε το κείμενο και δείτε αμέσως τον αριθμό tokens. Τρίτον, χρησιμοποιήστε την προσέγγιση 1 token ανά 4 χαρακτήρες για αγγλικά (για ελληνικά, υπολογίστε περίπου 1 token ανά 3 χαρακτήρες). Για production εφαρμογές, η programmatic μέτρηση με tiktoken ή το SDK του παρόχου είναι η πιο αξιόπιστη.

Τι είναι η διαφορά μεταξύ tokens και λέξεων;

Μια λέξη είναι μια γλωσσική μονάδα που χωρίζεται με κενά. Ένα token είναι μια αλγοριθμική μονάδα που ορίζεται από τον tokenizer του μοντέλου -- μπορεί να είναι μια ολόκληρη λέξη, τμήμα λέξης, μεμονωμένος χαρακτήρας ή σημείο στίξης. Συνηθισμένες λέξεις όπως «the» ή «is» στα αγγλικά είναι συνήθως ένα token. Μακρύτερες ή λιγότερο κοινές λέξεις σπάνε σε πολλά tokens: η λέξη «unbelievable» γίνεται «un», «believ», «able» (3 tokens). Στα ελληνικά, η αναλογία είναι ακόμα λιγότερο ευνοϊκή: η λέξη «πολυπλοκότητα» μπορεί να γίνει 3-5 tokens.

Πώς συγκρίνονται οι τιμές όλων των παρόχων AI API το 2026;

Αναλυτική σύγκριση τιμών (input/output ανά 1 εκ. tokens, Μάρτιος 2026): Οικονομικά: Amazon Nova Micro (0,035 $/0,14 $), GPT-5 Nano (0,05 $/0,40 $), Gemini 2.0 Flash-Lite (0,075 $/0,30 $), Mistral Small (0,10 $/0,30 $), GPT-4.1 Nano (0,10 $/0,40 $), Llama 4 Scout μέσω Groq (0,11 $/0,34 $), Grok 4.1 Fast (0,20 $/0,50 $), DeepSeek V3.2 (0,28 $/0,42 $). Μεσαία: GPT-5 Mini (0,25 $/2,00 $), Gemini 2.5 Flash (0,30 $/2,50 $), GPT-4.1 Mini (0,40 $/1,60 $), Mistral Medium 3 (0,40 $/2,00 $), Gemini 3 Flash (0,50 $/3,00 $), Claude Haiku 4.5 (1 $/5 $), o4-mini (1,10 $/4,40 $). Premium: Gemini 2.5 Pro (1,25 $/10 $), GPT-5 (1,25 $/10 $), GPT-4.1 (2 $/8 $), GPT-5.4 (2,50 $/15 $), Claude Sonnet 4.6 (3 $/15 $), Grok 4 (3 $/15 $), Claude Opus 4.6 (5 $/25 $). Οι τιμές αναφέρονται σε USD. Πολλοί πάροχοι προσφέρουν επιπλέον εκπτώσεις για batch processing (έως 50%) και prompt caching (έως 90%).


Βασικοί Όροι

Token

Η μικρότερη μονάδα κειμένου που επεξεργάζεται ένα LLM. Ένα token μπορεί να είναι λέξη, τμήμα λέξης, χαρακτήρας ή σημείο στίξης. Οι περισσότερες αγγλικές λέξεις αντιστοιχούν σε 1-2 tokens, ενώ οι ελληνικές σε 1,3-1,5 tokens κατά μέσο όρο.

Tokenizer (Τοκενοποιητής)

Ο αλγόριθμος που μετατρέπει ακατέργαστο κείμενο σε tokens. Διαφορετικά μοντέλα χρησιμοποιούν διαφορετικούς tokenizers (tiktoken για OpenAI, SentencePiece για Google), που σημαίνει ότι το ίδιο κείμενο μπορεί να έχει διαφορετικό αριθμό tokens ανάλογα με τον πάροχο.

BPE (Byte Pair Encoding)

Ο πιο διαδεδομένος αλγόριθμος tokenization στα σύγχρονα LLM. Δημιουργεί λεξιλόγιο συγχωνεύοντας επαναληπτικά τα πιο συχνά ζεύγη χαρακτήρων ή υπολέξεων. Τα GPT, Claude, Gemini και Llama χρησιμοποιούν παραλλαγές BPE.

Παράθυρο Πλαισίου (Context Window)

Ο μέγιστος αριθμός tokens που μπορεί να επεξεργαστεί ένα μοντέλο σε ένα αίτημα, συμπεριλαμβανομένων input και output. Κυμαίνεται από 128K έως 2M tokens: GPT-4.1 υποστηρίζει 1M, Claude Opus 4.6 υποστηρίζει 1M, Grok 4.1 Fast φτάνει τα 2M, Gemini 2.5 Pro υποστηρίζει 1M tokens.

Prompt Caching

Τεχνική βελτιστοποίησης κόστους που αποθηκεύει και επαναχρησιμοποιεί τα υπολογισμένα key-value vectors επαναλαμβανόμενων τμημάτων prompt, μειώνοντας τόσο την καθυστέρηση όσο και το κόστος tokens κατά 50-90% για το cached τμήμα.

Input vs. Output Tokens

Τα input tokens είναι τα tokens στο prompt που στέλνετε στο μοντέλο. Τα output tokens είναι τα tokens που παράγει το μοντέλο στην απάντησή του. Τα output tokens κοστίζουν 3-5 φορές περισσότερο λόγω του σειριακού υπολογισμού που απαιτείται για τη δημιουργία τους.

LLM (Large Language Model)

Μεγάλο γλωσσικό μοντέλο εκπαιδευμένο σε τεράστιο όγκο κειμένων. Τα σημαντικότερα LLM (2026): GPT-5.4 (OpenAI), Claude Opus 4.6 (Anthropic), Gemini 2.5 Pro (Google), Grok 4 (xAI), Llama 4 (Meta), DeepSeek V3.2, Mistral Large και το ελληνικό Meltemi (ΙΕΛ Αθηνά).