Η OpenAI παρουσίασε το Sora 2, τη νέα έκδοση της εφαρμογής τεχνητής νοημοσύνης για δημιουργία βίντεο, προσθέτοντας ένα κοινωνικό feed όπου οι χρήστες μπορούν να μοιράζονται τα έργα τους.

Μέσα σε λίγες ώρες, ωστόσο, η πλατφόρμα γέμισε με σκηνές βίας, ρατσισμού και παραπληροφόρησης. Πολλά βίντεο έδειχναν πυροβολισμούς, πανικό σε δημόσιους χώρους και σκηνές από πολεμικές ζώνες, ενώ άλλα παρουσίαζαν χαρακτήρες με πνευματικά δικαιώματα σε προσβλητικές ή επικίνδυνες καταστάσεις.

Σύμφωνα με την Guardian, προτροπές όπως “Ethiopia footage civil war news style” ή “Charlottesville rally” παρήγαγαν βίντεο με εμφύλιες συγκρούσεις, ψεύτικους ρεπόρτερ και αντιρατσιστικά συνθήματα διαστρεβλωμένα από την AI.

Η OpenAI απαγορεύει ρητά περιεχόμενο που «προάγει τη βία» ή «προκαλεί βλάβη». Όμως οι ερευνητές παραπληροφόρησης προειδοποιούν πως τέτοιες ρεαλιστικές σκηνές θολώνουν τη διάκριση μεταξύ πραγματικότητας και ψευδούς και μπορούν να χρησιμοποιηθούν για απάτες, εκφοβισμό ή πολιτική προπαγάνδα.

«Όταν τέτοια εργαλεία πέφτουν σε λάθος χέρια, χρησιμοποιούνται για μίσος, παρενόχληση και υποκίνηση βίας», προειδοποίησε η ερευνήτρια Τζόαν Ντόνοβαν από το Πανεπιστήμιο της Βοστώνης.

«ChatGPT για δημιουργικότητα» ή μηχανή παραπληροφόρησης;

Ο CEO της OpenAI, Σαμ Άλτμαν, περιέγραψε το Sora 2 ως «το ChatGPT της δημιουργικότητας», παραδεχόμενος ωστόσο ότι φοβάται την κατάχρηση. Όπως είπε, η ομάδα του έβαλε «πολλή φροντίδα» για να αποφύγει τον «κατακλυσμό κακής ποιότητας περιεχομένου».

Παρόλα αυτά, λίγες μέρες μετά την κυκλοφορία, οι χρήστες κατάφεραν να δημιουργήσουν βίντεο με fake εγκλήματα, προπαγάνδα και σεξουαλικά προσβλητικές σκηνές. Ο δημοσιογράφος Drew Harwell της Washington Post κατάφερε να φτιάξει βίντεο του ίδιου του Άλτμαν ως στρατηγού του Β΄ Παγκοσμίου Πολέμου, αλλά και «ψεύτικες» ειδήσεις με γυναίκες σε εξευτελιστικές καταστάσεις.

Το feed του Sora γέμισε με χαρακτήρες όπως ο SpongeBob, ο Pikachu και ο Rick and Morty, να συμμετέχουν σε διαδηλώσεις, κυβερνητικά σκάνδαλα ή πολέμους. Σε ένα βίντεο, ο SpongeBob εμφανίζεται ντυμένος σαν Χίτλερ, ενώ σε άλλο κηρύσσει πόλεμο στις ΗΠΑ.

Ο καθηγητής Ντέιβιντ Κάρπφ από το Πανεπιστήμιο George Washington δήλωσε:

«Αν ήδη βλέπουμε πειραγμένους χαρακτήρες να προωθούν ψεύτικα crypto scams, τότε οι λεγόμενες “δικλίδες ασφαλείας” δεν υπάρχουν στην πράξη».

Αντιδράσεις από εταιρείες και καλλιτέχνες

Πριν την κυκλοφορία του Sora 2, η OpenAI ενημέρωσε τα στούντιο και τα πρακτορεία ότι, εάν δεν επιθυμούν τα έργα τους να χρησιμοποιηθούν, θα πρέπει να επιλέξουν ενεργά την εξαίρεση (opt-out).

Η εταιρεία δήλωσε ότι οι δημιουργοί μπορούν να καταθέτουν φόρμα παραβίασης πνευματικών δικαιωμάτων, όμως δεν υπάρχει γενικό μπλοκάρισμα για καλλιτέχνες ή εταιρείες.

Η καθηγήτρια Έμιλι Μπέντερ από το Πανεπιστήμιο της Ουάσιγκτον προειδοποίησε ότι το Sora υπονομεύει την εμπιστοσύνη στις πηγές πληροφόρησης.

«Τα μέσα συνθετικής παραγωγής είναι σαν πετρελαιοκηλίδες μέσα στο οικοσύστημα πληροφόρησης — εξαπλώνονται και διαβρώνουν τη σχέση εμπιστοσύνης μεταξύ κοινωνίας και αλήθειας», είπε χαρακτηριστικά.

Το Sora ως καθρέφτης των κοινωνικών κινδύνων της AI

Παρά το γεγονός ότι η εφαρμογή είναι ακόμη σε φάση πρόσκλησης, έχει ήδη κατακτήσει την πρώτη θέση στο App Store της Apple. Η επιτυχία αυτή όμως συνοδεύεται από κύμα ανησυχίας για τη χρήση ρεαλιστικών βίντεο χωρίς έλεγχο.

Η υπόθεση αναδεικνύει ένα κρίσιμο ερώτημα για το μέλλον της ΤΝ: πώς μπορεί να συνδυαστεί η δημιουργικότητα με την ευθύνη. Αν οι πλατφόρμες αδυνατούν να εφαρμόσουν κανόνες ασφαλείας, τότε τα όρια μεταξύ τέχνης και παραπληροφόρησης μπορεί σύντομα να εξαφανιστούν.

Διαβάστε ακόμη

Τέιλορ Σουίφτ: Πώς η «Showgirl» των δισεκατομμυρίων άλλαξε τη μουσική βιομηχανία

Χαμηλές εισφορές: Οκτώ στους 10 μη μισθωτούς απειλούν τις συντάξεις

Η Θεσσαλονίκη της επόμενης δεκαετίας – Τα έργα που αλλάζουν ριζικά την εικόνα της πόλης

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα