Υπάρχει, λένε, μια «μυστική λίστα» λέξεων που δεν πρέπει να λες στα social media — ή τουλάχιστον αυτό πιστεύουν πάρα πολλοί χρήστες.
Ίσως να το έχετε παρατηρήσει: οι άνθρωποι αποφεύγουν συγκεκριμένες λέξεις. Αντί για «killed» γράφουν «unalived». Τα όπλα γίνονται «pew pews». Οι ενήλικες έχουν «seggs». Οι χρήστες το παραδέχονται: ακούγεται γελοίο. Αλλά είναι πεπεισμένοι πως… δεν έχουν επιλογή.
Η πρακτική αυτή αποκαλείται algospeak: μια κωδικοποιημένη γλώσσα βασισμένη στην ιδέα ότι οι αλγόριθμοι «θάβουν» περιεχόμενο που χρησιμοποιεί συγκεκριμένες λέξεις — είτε για να προωθήσουν πολιτικές ατζέντες των εταιρειών, είτε για να κρατούν τις πλατφόρμες «καθαρές» για τους διαφημιστές, σύμφωνα με το BBC.
Οι εταιρείες της τεχνολογίας απορρίπτουν κατηγορηματικά αυτή τη θεωρία. Εκπρόσωπος του YouTube, ο Μπουτ Μπουλγουίνκλ, το περιγράφει ξεκάθαρα: «Το YouTube δεν έχει λίστα απαγορευμένων λέξεων. Οι πολιτικές μας βασίζονται στο ότι το πλαίσιο έχει σημασία και οι λέξεις μπορεί να έχουν διαφορετικές εννοίες». Τα ίδια δηλώνουν Meta και TikTok: «Δεν το κάνουμε ποτέ. Είναι μύθος».
Η πραγματικότητα όμως είναι πολύ πιο περίπλοκη.
Όταν η ιστορία διαψεύδει τις πλατφόρμες
Το παρελθόν είναι γεμάτο παραδείγματα όπου οι πλατφόρμες χειραγώγησαν σιωπηλά τι προβάλλεται και τι εξαφανίζεται — συχνά σε πλήρη αντίθεση με τα περί «διαφάνειας» και «ουδετερότητας». Ακόμη κι αν δεν πρόκειται για απαγορευμένες λέξεις, ειδικοί λένε ότι οι εταιρείες παρεμβαίνουν διακριτικά για να περιορίσουν συγκεκριμένο περιεχόμενο.
Το μεγαλύτερο πρόβλημα;
Κανείς δεν γνωρίζει ποτέ γιατί αποτυγχάνει ένα post.
Φταίει μια λέξη; Φταίει ο αλγόριθμος; Ή απλώς ήταν κακό βίντεο;
Αυτή η αβεβαιότητα έχει δημιουργήσει ένα καθεστώς διάχυτης αυτολογοκρισίας. Στις πιο ήπιες εκδοχές του, οι χρήστες μιλούν για σοβαρά θέματα με γελοίες λέξεις. Στα πιο ακραία, αποφεύγουν εντελώς συγκεκριμένες θεματικές.
Και σε έναν κόσμο όπου τα social media είναι η βασική πηγή ενημέρωσης για ολοένα μεγαλύτερο μέρος του κοινού, αυτό σημαίνει ότι ορισμένες ιδέες ίσως δεν φτάνουν ποτέ στους χρήστες.
Η περίπτωση του Alex Pearlman – και ο «Island Man»
Ρωτήστε τον Άλεξ Πέρλμαν. Με εκατομμύρια followers σε TikTok, Instagram και YouTube, είναι γνωστός για τη σάτιρα και τα πολιτικά του σχόλια. Ο Πέρλμαν λέει ότι η αλγοριθμική λογοκρισία είναι διαρκής πραγματικότητα.
«Για αρχή μόνο στο TikTok, σπάνια λέω τη λέξη “YouTube”», εξηγεί. «Από την εμπειρία μου, άμα πω “πηγαίνετε στο κανάλι μου στο YouTube”, το βίντεο απλώς θα αποτύχει». Πιστεύει ότι η πλατφόρμα δεν θέλει να στέλνεις χρήστες σε ανταγωνιστές.
Μερικά περιστατικά ήταν ακόμη πιο ανησυχητικά. Ο Πέρλμαν έχει φτιάξει πολλά βίντεο για τον Τζέφρι Έπσταϊν. Όμως πέρυσι τον Αύγουστο, εν μέσω έντονης επικαιρότητας γύρω από την υπόθεση, πολλαπλά βίντεό του αφαιρέθηκαν από το TikTok την ίδια μέρα — χωρίς σαφή εξήγηση. Στο Instagram και στο YouTube έμειναν ανέγγιχτα.
Οι ενστάσεις του απορρίφθηκαν. Οι «strikes» παρέμειναν στον λογαριασμό του.
Σύντομα, όπως λέει, άρχισε να βλέπει λιγότερους μεγάλους creators να μιλούν ανοιχτά για τον Έπσταϊν. Ο ίδιος συνέχισε, αλλά άλλαξε γλώσσα: τον αποκαλούσε «Island Man», από το διαβόητο ιδιωτικό νησί του Έπσταϊν.
«Το πρόβλημα με τον κώδικα είναι ότι μεγάλο μέρος του κοινού δεν καταλαβαίνει για ποιον μιλάς».
Αποκαλύψεις δείχνουν μυστικούς κανόνες
Υπάρχουν όμως στοιχεία ότι τέτοιες πρακτικές υπήρξαν στο παρελθόν:
– 2019 διαρροές: το TikTok καθοδηγούσε moderators να κρύβουν περιεχόμενο από «άσχημους», φτωχούς, ΑμεΑ ή LGBTQ+ χρήστες, για να φαίνεται πιο «ελκυστικό το περιβάλλον».
– Το ίδιο έγγραφο έδειξε απαγόρευση streams που επέκριναν κυβερνήσεις.
– Το 2023: το TikTok παραδέχτηκε ότι είχε μυστικό heating button που έκανε επιλεγμένα βίντεο viral — με αναφορές κατάχρησης από εργαζόμενους.
– Έρευνες του BBC και της Human Rights Watch έδειξαν ότι το Facebook και το Instagram περιόρισαν συστηματικά φιλοπαλαιστινιακό περιεχόμενο μετά τις επιθέσεις της Χαμάς.
– Δημιουργοί LGBTQ+ έχουν κατηγορήσει το YouTube για υποβάθμιση των βίντεό τους.
Οι εταιρείες επιμένουν ότι δεν υπάρχει στοχευμένη λογοκρισία. Αλλά τα δεδομένα ενισχύουν τη δυσπιστία των χρηστών.
Το «μουσικό φεστιβάλ» που δεν έγινε ποτέ
Τον Αύγουστο του 2025, χιλιάδες χρήστες μιλούσαν για ένα «συναρπαστικό μουσικό φεστιβάλ» στο Λος Άντζελες. Αναφορές σε εμφανίσεις της Sabrina Carpenter, stories για φώτα και σκηνές.
Δεν υπήρχε φεστιβάλ.
Ήταν κώδικας.
Εκείνη την περίοδο, διαδηλώσεις ξεσπούσαν σε όλη τη χώρα μετά από εφόδους της ICE. Οι χρήστες πίστευαν ότι οι πλατφόρμες «έκρυβαν» τα βίντεο των διαμαρτυριών — και έτσι άρχισαν να χρησιμοποιούν «μουσικό φεστιβάλ» ως algospeak.
Το παράδοξο;
Δεν υπήρχαν ενδείξεις ότι οι πλατφόρμες λογόκριναν τις διαδηλώσεις.
Ο γλωσσολόγος Άνταμ Αλεξιτς εξηγεί ότι η ανάγκη των χρηστών να «νικήσουν» τον αλγόριθμο δημιούργησε ένα φαινόμενο υπερδιόρθωσης. Και επειδή τα βίντεο με τον κώδικα έγιναν πιο δημοφιλή, πολλοί πίστεψαν ότι «απέδειξαν» τη λογοκρισία.
Οι ερευνητές το ονομάζουν algorithmic imaginary:
Οι χρήστες αλλάζουν συμπεριφορά με βάση ό,τι πιστεύουν ότι κάνει ο αλγόριθμος — και τελικά αλλάζουν και τον αλγόριθμο.
Πραγματική λογοκρισία ή ψευδαίσθηση; Ή και τα δύο;
Το algospeak δεν είναι νέο. Χιλιάδες βίντεο για Έπσταϊν, Γάζα και άλλα ευαίσθητα θέματα κυκλοφορούν κανονικά. Και αν το TikTok ήθελε να λογοκρίνει τη λέξη «murder», δεν θα απέκλειε και το «unalive»;
Η Ariana Jasmine Afshar, δημοφιλής creator, λέει: «Κανείς μας δεν ξέρει τι δουλεύει και τι όχι. Πετάμε τα πάντα στον τοίχο να δούμε τι θα κολλήσει».
Δεν αρνείται ότι οι εταιρείες παίζουν ρόλο στο shaping του δημόσιου διαλόγου. Από το 2023 έως το 2025, η Meta περιόριζε ανοιχτά πολιτικό περιεχόμενο. Μετά την επανεκλογή Τραμπ, ανέστρεψε την πολιτική. Είναι πιθανό κάποια σύγχυση να προήλθε από πραγματικές αλλαγές.
Παρά τα παράπονα, η Afshar σημειώνει ότι η ίδια αναπτύχθηκε μέσα σε αυτό το περιβάλλον — και ότι Instagram επικοινώνησε μαζί της για να τη βοηθήσει να αναπτυχθεί ακόμη περισσότερο.
«Ειλικρινά με μπερδεύουν. Δεν ξέρω πια τι ισχύει».
Τελικά, όλα καταλήγουν στο χρήμα
Όπως λέει η καθηγήτρια Σάρα Ρόμπερτς του UCLA, οι εταιρείες έχουν κοινό στόχο:
να διατηρήσουν εφαρμογές που όλοι χρησιμοποιούν, να προσφέρουν περιεχόμενο που δεν ενοχλεί τους διαφημιστές και να αποφεύγουν τις ρυθμιστικές παρεμβάσεις.
Κάθε αλλαγή στον αλγόριθμο, κάθε απόφαση moderation, συνδέεται με το επιχειρηματικό μοντέλο.
Οι εταιρείες λένε ότι σκοπός τους είναι η «ασφάλεια». «Και τις περισσότερες φορές αυτό ευθυγραμμίζεται με τα συμφέροντα των χρηστών», λέει η Ρόμπερτς. «Όμως όταν πρέπει να παρεκκλίνουν, θα το κάνουν».
Και θέτει το βασικό ερώτημα:
«Αν διαφωνούμε με όσα συμβαίνουν στη δημόσια ζωή, είναι λύση να χανόμαστε μέσα σε πλατφόρμες που κερδίζουν από αυτή τη δυσαρέσκεια; Ή μήπως ήρθε η ώρα να αναρωτηθούμε αν αυτός είναι ο καλύτερος τρόπος για να συμμετέχουμε ως κοινωνία στον δημόσιο διάλογο;»
Διαβάστε ακόμη
Όλα τα μέτρα για μισθούς, φόρους και συντάξεις που περιλαμβάνει ο προϋπολογισμός 2026 (πίνακες)
Ενα ορεινό design καταφύγιο που δεν μοιάζει με κανένα
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
Σχολίασε εδώ
Για να σχολιάσεις, χρησιμοποίησε ένα ψευδώνυμο.