Κάθε φορά που ανοίγουμε το ChatGPT, το Google Gemini ή το Claude και «πετάμε» μια ερώτηση, η διαδικασία μοιάζει αβίαστη: γράφεις, πατάς enter, παίρνεις απάντηση. Στο παρασκήνιο όμως δεν συμβαίνει κάτι αόρατο και ανέξοδο. Κάθε prompt είναι μια μικρή πράξη κατανάλωσης: υπολογιστική ισχύς σε data centers, ενέργεια για να κινηθούν οι υπολογισμοί, νερό για να πέσουν οι θερμοκρασίες, φθορά υλικού που κάποτε θα αντικατασταθεί, αλλά και ένα σύνολο επιπτώσεων που δεν χωρά σε ένα απλό τιμολόγιο. Γι’ αυτό και το ερώτημα «πόσο κοστίζει ένα query;» δεν καταλήγει σε έναν αριθμό. Καταλήγει σε έναν ορισμό: τι εννοούμε “κόστος” και ποιος το πληρώνει.

Αυτή η ανάλυση επιχειρεί να βάλει τάξη σε όλα όσα συνθέτουν το κόστος ανά ερώτημα, ώστε ο όρος «κόστος χρήσης AI» να αποκτήσει πραγματικό περιεχόμενο: οικονομικό, τεχνικό, περιβαλλοντικό και κοινωνικό. Στις ενότητες που ακολουθούν εξετάζονται διαδοχικά: το οικονομικό κόστος, το περιβαλλοντικό αποτύπωμα, το κόστος υποδομής και υλικού, οι κοινωνικές και ηθικές συνέπειες, το ευκαιριακό κόστος και, τέλος, τα μακροπρόθεσμα ρίσκα της διαρκούς κλιμάκωσης.

Οικονομικό κόστος

Η απάντηση ενός μεγάλου γλωσσικού μοντέλου έχει άμεσο μεταβλητό κόστος, επειδή προκύπτει από βαριά υπολογιστική εργασία. Τα LLMs “τρέχουν” πάνω σε συστοιχίες GPUs ή TPUs σε data centers υψηλής πυκνότητας. Το κόστος ενός ερωτήματος έχει εκτιμηθεί κατά καιρούς σε πολύ διαφορετικές κλίμακες: από περίπου 0,36 δολάρια ανά ερώτημα σε πιο «βαριά» σενάρια εκτιμήσεων, έως 0,01 δολάρια όταν υποτεθεί ότι η απάντηση είναι μικρή, με λίγες δεκάδες λέξεις. Ο Σαμ Άλτμαν έχει δηλώσει ότι «κάθε prompt πιθανότατα κοστίζει μερικά σεντ», ενώ ως ανώτατο σενάριο έχει ακουστεί τάξη μεγέθους περίπου 0,09 δολαρίων για πιο προηγμένα μοντέλα.

Οι αποκλίσεις δεν είναι τυχαίες. Το κόστος ανά ερώτημα μεταβάλλεται ανάλογα με το μέγεθος του μοντέλου, τα tokens που επεξεργάζεται και παράγει, την αποδοτικότητα του hardware, τον τρόπο που γίνεται η εξυπηρέτηση (batching, parallelization) και το πόσο «γεμάτη» είναι η υποδομή σε κάθε στιγμή. Η OpenAI έχει αναφέρει ως πρακτικό κανόνα ότι ένα token αντιστοιχεί περίπου σε 0,75 λέξεις. Κάθε token όμως απαιτεί τεράστιο αριθμό πράξεων σε δισεκατομμύρια παραμέτρους, κι αυτό μεταφράζεται σε κατανάλωση χρόνου GPU και σε χρήμα.

Υποδομή cloud και κόστος GPU

Οι πάροχοι cloud, όπως η Azure της Microsoft, χρεώνουν ωριαία χρήση ισχυρών servers. Αν ένας server μπορεί, για παράδειγμα, να παράγει περίπου 10 απαντήσεις το δευτερόλεπτο, ο καθαρός υπολογιστικός χρόνος για μία απάντηση φαίνεται μικρός σε απόλυτο νούμερο. Στην πράξη, όμως, τα μεγάλα μοντέλα συχνά απαιτούν πολλαπλές GPUs ταυτόχρονα, είτε για να “χωρέσουν” (model parallelism) είτε για να μειωθεί ο χρόνος απόκρισης. Επιπλέον, το πραγματικό κόστος ανά ερώτημα μπορεί να ανεβαίνει όταν η ζήτηση πέφτει και οι μονάδες μένουν μερικώς αδρανείς, ενώ σε ώρες αιχμής το batching μπορεί να ρίχνει το κόστος ανά απάντηση, βελτιώνοντας την αξιοποίηση.

Συνοπτικά, το άμεσο μεταβλητό κόστος inference σήμερα συχνά περιγράφεται σε εύρος της τάξης 0,01–0,1 δολάρια ανά query, ανάλογα με μοντέλο και μέγεθος απάντησης. Όμως αυτό είναι μόνο η «κινούμενη» πλευρά του κόστους. Υπάρχει και το σταθερό/επενδυτικό σκέλος: η εκπαίδευση των μοντέλων και το κόστος ανάπτυξης της υποδομής που τα στηρίζει. Εκτιμήσεις για παλαιότερα μοντέλα αναφέρουν ότι η εκπαίδευση του GPT-3 κόστισε περίπου 12 εκατ. δολάρια σε υπολογιστικούς πόρους, ενώ για το GPT-4 έχουν αναφερθεί τάξεις μεγέθους γύρω στα 100 εκατ. δολάρια. Αν αυτό το ποσό «αποσβεστεί» σε όλη τη διάρκεια ζωής του μοντέλου, μπορεί να προσθέτει αισθητά στο κόστος ανά ερώτημα: αν μια εκπαίδευση 100 εκατ. δολαρίων “μοιραστεί” σε 1 δισ. queries, μόνο αυτό το σκέλος αντιστοιχεί σε 0,10 δολάρια ανά ερώτημα.

Το κόστος δεν σταματά στο hardware. Η ανάπτυξη, η συντήρηση και η βελτίωση ενός LLM στηρίζονται σε ομάδες μηχανικών, επιστημόνων δεδομένων, τεχνικών υποστήριξης και προσωπικού ασφάλειας. Υπάρχει και η ανθρώπινη εργασία που «εκπαιδεύει» τη συμπεριφορά του μοντέλου, όπως η αξιολόγηση και βαθμολόγηση απαντήσεων σε διαδικασίες ανθρώπινης ανάδρασης. Αυτή η εργασία είναι συχνά αόρατη στον τελικό χρήστη, αλλά αποτελεί μέρος του λειτουργικού κόστους.

Περιβαλλοντικό κόστος

Ακόμη κι αν το οικονομικό κόστος ανά ερώτημα μοιάζει μικρό, το περιβαλλοντικό αποτύπωμα υπενθυμίζει ότι το AI δεν είναι άυλο. Οι GPUs καταναλώνουν ρεύμα και παράγουν θερμότητα. Η θερμότητα πρέπει να απομακρυνθεί μέσω ψύξης, πολλές φορές με υδρόψυκτα συστήματα. Και η ηλεκτροπαραγωγή, ανάλογα με το ενεργειακό μίγμα, μεταφράζεται σε εκπομπές CO₂.

Ανεξάρτητες μετρήσεις και στοιχεία που έχουν κυκλοφορήσει υποδεικνύουν ότι ένα τυπικό αίτημα σε σύγχρονο LLM μπορεί να καταναλώνει περίπου 0,2–0,5 Wh ηλεκτρικής ενέργειας. Για σύγκριση, μια αναζήτηση στη Google έχει εκτιμηθεί γύρω στα 0,04 Wh κατά μέσο όρο. Η διαφορά εξηγείται από τη φύση της εργασίας: η αναζήτηση ανακτά και κατατάσσει ήδη αποθηκευμένη πληροφορία, ενώ το LLM συνθέτει απάντηση λέξη-λέξη, μέσω διαδοχικών υπολογισμών.

Το κρίσιμο σημείο δεν είναι το αποτύπωμα ενός query, αλλά ο όγκος. Λίγα γραμμάρια CO₂ ανά ερώτημα φαίνονται αμελητέα όταν μιλάμε για έναν χρήστη. Όταν όμως τα ερωτήματα γίνονται δισεκατομμύρια την ημέρα, το συνολικό φορτίο σε ενέργεια και εκπομπές γίνεται μετρήσιμο και πολιτικά σημαντικό.

Ψύξη, νερό και τοπικές πιέσεις

Η ψύξη ανοίγει ένα δεύτερο μέτωπο: την κατανάλωση νερού. Έχει δημοσιευθεί εκτίμηση από το University of California ότι το ChatGPT μπορεί να «αντιστοιχεί» σε περίπου 500 ml νερού ανά 5 έως 50 ερωτήματα, ανάλογα με συνθήκες και υποδομές, ένα εύρος που οδηγεί σε 10–100 ml ανά query. Η αβεβαιότητα είναι μεγάλη, αλλά το μήνυμα είναι καθαρό: σε ορισμένα κλιματικά και υδρολογικά περιβάλλοντα, το νερό γίνεται κρίσιμος πόρος για την κλιμάκωση της AI. Παράλληλα, έχουν αναφερθεί αυξήσεις στη συνολική χρήση νερού από μεγάλους παρόχους, όπως η Microsoft, καθώς η AI εντείνει τη λειτουργία και την επέκταση των data centers.

Συχνά ξεχνιέται και το «ενσωματωμένο» αποτύπωμα κατασκευής. Η παραγωγή προηγμένων ημιαγωγών είναι ενεργοβόρα και απαιτεί καθαρά υλικά, χημικές ουσίες και πολύ νερό στα εργοστάσια. Σε αξιολογήσεις κύκλου ζωής, το ανθρακικό αποτύπωμα κατασκευής μιας ισχυρής GPU έχει περιγραφεί στην τάξη 150–200 κιλών CO₂e. Αυτό σημαίνει ότι πριν καν αρχίσει να απαντά ερωτήματα, το hardware κουβαλά ήδη σημαντικό «χρέος» εκπομπών. Και όταν ο κύκλος ζωής είναι 3–5 χρόνια για πολλούς servers, η ανανέωση παράγει επιπλέον ηλεκτρονικά απόβλητα (e-waste) και πιέσεις στις αλυσίδες σπάνιων γαιών.

Κόστος υποδομής και υλικού

Η χρήση LLMs απαιτεί όχι μόνο ρεύμα, αλλά και ένα τεράστιο «πάγιο κεφάλαιο»: κτήρια, γραμμές, γεννήτριες, UPS, δικτυακή συνδεσιμότητα, συστήματα ψύξης, ασφάλεια, συντήρηση. Υπάρχουν εκτιμήσεις ότι μέχρι το 2028 οι παγκόσμιες δαπάνες για νέα data centers που σχετίζονται άμεσα με AI μπορεί να φτάσουν σε κλίμακα τρισεκατομμυρίων δολαρίων. Αυτό δείχνει ότι η AI χτίζεται πάνω σε μια υλική βάση που θυμίζει βαριά βιομηχανία, όχι απλή «υπηρεσία λογισμικού».

Το κόστος υποδομής διαχέεται στο κόστος ανά query με δύο τρόπους: μέσω απόσβεσης (το hardware «καίει» αξία όσο λειτουργεί) και μέσω λειτουργικών δαπανών (ρεύμα, προσωπικό, ανταλλακτικά, downtime). Εδώ εμφανίζεται και η συζήτηση περί κινδύνου υπερεπένδυσης: αν ο ρυθμός τεχνολογικής απαξίωσης είναι ταχύτερος από την παραγωγή εσόδων, μπορεί να δημιουργηθεί πίεση σε χρηματοροές, ειδικά όταν η ανάπτυξη χρηματοδοτείται με μόχλευση.

Ένα πρόσθετο δομικό αποτέλεσμα είναι η συγκέντρωση ισχύος. Οι απαιτήσεις κεφαλαίου είναι τόσο υψηλές που λίγοι παίκτες μπορούν να σηκώσουν το βάρος ιδιόκτητης υποδομής. Αυτό λειτουργεί ως φραγμός εισόδου, ενισχύει την εξάρτηση μικρότερων οργανισμών από cloud των μεγάλων και μετατρέπει το «κόστος υποδομής» σε μηχανισμό αγοράς: όποιος έχει τα data centers, γράφει τους όρους.

Κοινωνικό και ηθικό κόστος

Ακόμη κι αν μετρήσουμε σωστά τα χρήματα, τα kWh και τα λίτρα, μένει το κόστος που δεν αποτυπώνεται σε μετρητή.

Τα ισχυρότερα μοντέλα συγκεντρώνονται σε λίγες εταιρείες και χώρες. Αυτό γεννά ένα νέο “AI divide”: όσοι έχουν πρόσβαση σε εργαλεία, υποδομές και δεξιότητες κερδίζουν παραγωγικότητα, ενώ οι υπόλοιποι κινδυνεύουν να μείνουν πίσω. Η ανισότητα εμφανίζεται και μέσα στις ανεπτυγμένες οικονομίες: μεγάλες επιχειρήσεις μπορούν να «αγοράσουν» παραγωγικότητα, μικρότεροι παίκτες όχι, κι έτσι η ψαλίδα ανοίγει.

Τα LLMs κάνουν φθηνότερη και ταχύτερη την παραγωγή πειστικού, αλλά ψευδούς περιεχομένου. Το κόστος εδώ είναι η εμπιστοσύνη: στα μέσα, στους θεσμούς, στις αγορές, στην ίδια την έννοια της κοινής αλήθειας. Έχουν υπάρξει εκτιμήσεις ότι η παραπληροφόρηση κοστίζει δεκάδες δισ. δολάρια ετησίως σε οικονομική ζημία. Με generative AI, ο “θόρυβος” αυξάνεται, άρα ανεβαίνει και το κόστος φιλτραρίσματος, επιβεβαίωσης και άμυνας.

Αγορά εργασίας και ανάγκη επανεκπαίδευσης

Η αυτοματοποίηση γνωστικών εργασιών φέρνει μετασχηματισμό: ορισμένες δουλειές συρρικνώνονται, άλλες αλλάζουν χαρακτήρα. Το κοινωνικό κόστος δεν είναι μόνο πιθανές απολύσεις, αλλά και η μεταβατική τριβή: ανάγκη reskilling, άγχος εργαζομένων, προσωρινή ανεργία, πίεση σε συστήματα πρόνοιας. Ακόμη κι αν το ισοζύγιο μακροπρόθεσμα είναι θετικό, το «ποιος πληρώνει τη μετάβαση» είναι κεντρικό πολιτικό ζήτημα.

Η υπερ-εξάρτηση από έτοιμες απαντήσεις μπορεί να υπονομεύσει δεξιότητες κριτικής σκέψης, ενώ η χρήση AI για στοχευμένη προπαγάνδα ή εξατομικευμένη χειραγώγηση αυξάνει την επιβάρυνση της δημοκρατικής διαδικασίας. Η κοινωνία χρειάζεται να επενδύσει σε παιδεία, έλεγχο, ανίχνευση και κανόνες, άρα πληρώνει «κόστος άμυνας» απέναντι στις ίδιες τις δυνατότητες της τεχνολογίας.

Κάθε δισεκατομμύριο που πάει σε AI δεν πάει αλλού. Κάθε κορυφαίος ερευνητής που δουλεύει σε scaling δεν δουλεύει σε άλλο επιστημονικό πεδίο. Σε πανεπιστήμια, επιχειρήσεις και κράτη, η κατανομή πόρων αναδιατάσσεται: περισσότερα κονδύλια για AI hubs, λιγότερα για άλλες προτεραιότητες. Το ευκαιριακό κόστος δεν είναι εύκολο να αποτιμηθεί, αλλά είναι στρατηγικό: τι θυσιάζεις για να κερδίσεις τα υποσχόμενα οφέλη της AI.

Η μέχρι τώρα πρόοδος στα LLMs βασίστηκε σε κλιμάκωση: περισσότερα δεδομένα, περισσότερες παράμετροι, περισσότερη ισχύς. Αυτό όμως έχει εκθετικό κόστος και εγείρει το ερώτημα βιωσιμότητας. Αν τα οριακά οφέλη αρχίσουν να μειώνονται ενώ το κόστος αυξάνεται, δημιουργείται «εθισμός στην κλιμάκωση»: πληρώνεις όλο και περισσότερο για όλο και μικρότερη βελτίωση.

Παράλληλα, η AI γίνεται πεδίο γεωπολιτικού ανταγωνισμού. Η κούρσα υποδομών και chips μπορεί να αποσπά πόρους από άλλες ανάγκες, να αυξήσει την πόλωση και να οδηγήσει σε εξαρτήσεις μικρότερων χωρών από λίγους τεχνολογικούς πόλους. Και σε καθαρά κοινωνικό επίπεδο, η σταδιακή ανάθεση κρίσιμων λειτουργιών στην AI γεννά κίνδυνο διάβρωσης δεξιοτήτων, θεσμικής αυτονομίας και διαφάνειας.

Το query ενός LLM δεν κοστίζει μόνο “μερικά σεντ”. Κοστίζει σε kWh και λίτρα, σε απόσβεση hardware και σε νέα data centers, σε εργατοώρες ανθρώπων που εκπαιδεύουν και συντηρούν το σύστημα, σε κινδύνους ανισότητας και παραπληροφόρησης, σε ανάγκη επανεκπαίδευσης, σε χαμένες εναλλακτικές επενδύσεις και σε γεωπολιτική ένταση. Το πραγματικό κόστος είναι ένα άθροισμα υλικών, οικονομικών και κοινωνικών χρεώσεων που καταλήγουν σε όλους μας – όχι πάντα άμεσα, αλλά σχεδόν πάντα συλλογικά.

Διαβάστε ακόμη 

H συμφωνία-έκπληξη των Τραμπ και Μόντι γεφυρώνει τις σχέσεις των δύο χωρών (γράφημα)

O Mασκ έγινε ο πρώτος άνθρωπος στην ιστορία με περιουσία άνω των $800 δισ. μετά τη συγχώνευση SpaceX και xAI

Ασήμι: Το τοπίο μετά τη μεγάλη βουτιά – Πώς θα κινηθεί η αγορά, τι προβλέπουν οι αναλυτές

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα