Η εφαρμογή Character.AI δημιουργεί ψηφιακούς χαρακτήρες που βασίζονται σε οποιοδήποτε πρόσωπο επιθυμούμε εμείς, χωρίς να είναι απαραίτητη η συγκατάθεσή του.
Με την «έκρηξη» της τεχνολογίας τεχνητής νοημοσύνης, πλατφόρμες όπως η Character AI επιτρέπουν πλέον στους χρήστες να δημιουργούν εξατομικευμένα chatbots που προσομοιώνουν πραγματικές ανθρώπινες συνομιλίες. Σκεφτείτε να συνομιλείτε, για παράδειγμα, με τον αγαπημένο σας ηθοποιό, τραγουδιστή, συγγραφέα κ.λ.π. Αυτά τα εργαλεία προσφέρουν τεράστιες προοπτικές και ανοίγουν όντως συναρπαστικές πόρτες για δημιουργικότητα, ψυχαγωγία και πρακτικές εφαρμογές.
Ωστόσο, η ίδια η παντοδυναμία αυτών των πλατφόρμων, είναι που εγείρει ταυτόχρονα μεγάλες ανησυχίες για την ασφάλεια των χρηστών στο διαδίκτυο, την προστασία των προσωπικών μας δεδομένων, που μοιάζουν πιο εκτεθειμένα από ποτέ, και την ηθική χρήση αυτής της τεχνολογίας, η οποία πολλές φορές βασίζεται στην μη συγκατάθεσή μας.
AI Chatbots: Τα εργαλεία του επαγγέλματος
Οι διαδικτυακές πλατφόρμες AI Chatbot, όπως οι Character AI, Replika και ChatGPT, προσφέρουν στους χρήστες τη δυνατότητα να δημιουργούν ψηφιακές προσωπικότητες με διάφορους βαθμούς προσαρμογής. Αυτές οι πλατφόρμες έχουν αυξηθεί σε δημοτικότητα λόγω της ικανότητάς τους να δημιουργούν ελκυστικές, ρεαλιστικές συνομιλίες που τροφοδοτούνται από μοντέλα μηχανικής μάθησης που εκπαιδεύονται σε τεράστιες ποσότητες κειμένου. Αυτό λοιπόν που κάποτε περιοριζόταν σε σεναριακές ή προκαθορισμένες αλληλεπιδράσεις chatbot, έχει πλέον εξελιχθεί σε συστήματα, ικανά να διεξάγουν πλούσιους σε περιεχόμενο διαλόγους.
–Character AI: Ένα εξέχον παράδειγμα είναι το Character AI, το οποίο επιτρέπει στους χρήστες να δημιουργούν χαρακτήρες τεχνητής νοημοσύνης παρέχοντας μια περιγραφή προσωπικότητας, ορίζοντας παραμέτρους συνομιλίας και συμμετέχοντας σε συνομιλίες με βάση το κείμενο. Οι χρήστες μπορούν να σχεδιάσουν chatbots για ψυχαγωγία, εκπαίδευση ή παιχνίδια ρόλων, μεταξύ άλλων χρήσεων. Ενώ αυτό μπορεί να φαίνεται αβλαβές ή διασκεδαστικό, οι υποκείμενες συνέπειες της χρήσης των ταυτοτήτων πραγματικών ανθρώπων για τη δημιουργία χαρακτήρων ΤΝ χωρίς τη συγκατάθεσή τους μπορεί να είναι προβληματικές.
–DeepBrain AI, D-ID και πέρα από αυτό: Αρκετές εφαρμογές, συμπεριλαμβανομένων των DeepBrain και D-ID, έχουν προχωρήσει ένα βήμα παραπέρα, ενσωματώνοντας ομοιότητες της πραγματικής ζωής, όπως πρόσωπα, φωνές και προσωπικότητες, σε συστήματα chatbot. Αυτές οι πλατφόρμες που χρησιμοποιούν την τεχνολογία deepfake για την εμψύχωση προσώπων και τη δημιουργία άβαταρ που μοιάζουν με τη ζωή, συχνά δεν απαιτούν τίποτα περισσότερο από μια μόνο εικόνα. Αυτή η δυνατότητα σημαίνει ότι ο καθένας μπορεί δυνητικά να ανεβάσει μια φωτογραφία ενός άλλου ατόμου και να δημιουργήσει έναν ρεαλιστικό ψηφιακό σωσία, εγείροντας σοβαρές ηθικές κόκκινες σημαίες.
Πόσο κακό μπορεί να μας κάνει το ΑΙ;
Μία από τις πιο βαθιές ανησυχίες με αυτές τις πλατφόρμες τεχνητής νοημοσύνης είναι η πιθανότητα να χρησιμοποιηθούν τα πρόσωπα, οι φωνές ή η εικόνες μας από άλλους, χωρίς την άδειά μας. Για παράδειγμα, με τις εφαρμογές που κινούν πρόσωπα ή μετατρέπουν φωτογραφίες σε avatars που καθοδηγούνται από την ΤΝ, είναι απολύτως πιθανό κάποιος να ανεβάσει μια εικόνα ενός άλλου ατόμου και να δημιουργήσει ένα ρομπότ ΤΝ που να μοιάζει και να συμπεριφέρεται σαν τον ίδιο. Αυτό θα μπορούσε να οδηγήσει σε κλοπή ταυτότητας, πλαστοπροσωπία ή ακόμα και τη δημιουργία εκδόσεων τεχνητής νοημοσύνης ανθρώπων που χρησιμοποιούνται σε ακατάλληλα ή επιβλαβή πλαίσια. Χαρακτηριστικό παράδειγμα τα deepfakes, τα πορνογραφικά βίντεο που δημιουργούνται από ΑΙ και βασίζονται σε εικόνες και φωνές πραγματικών προσώπων.
Όμως πέρα από τα deepfakes, αυτές οι πλατφόρμες τεχνητής νοημοσύνης συχνά συλλέγουν τεράστιες ποσότητες δεδομένων τόσο από τους χρήστες που αλληλεπιδρούν με τα ρομπότ όσο και από τις αρχικές φωτογραφίες ή περιγραφές που χρησιμοποιούνται για τη δημιουργία των ρομπότ. Πολλοί χρήστες μάλιστα, αγνοούν το ενδεχόμενο κακής χρήσης αυτών των δεδομένων. Σε ακραίες περιπτώσεις όμως, τα avatars που δημιουργούνται από ΤΝ θα μπορούσαν να χρησιμοποιηθούν σε σενάρια διαδικτυακού εκφοβισμού, εκβιασμού ή παρενόχλησης, όπου η εικόνα ενός ατόμου χρησιμοποιείται για να προκαλέσει βλάβη χωρίς να το γνωρίζει.
Σε ποιον λοιπόν ανήκει μια ΑΙ εικόνα που μοιάζει με πραγματικό πρόσωπο; Εάν οι συνομιλίες ενός AI bot μοιράζονται ή πωλούνται, ποιος κερδίζει από αυτά τα δεδομένα; Αυτά τα ερωτήματα παραμένουν σε μεγάλο βαθμό αναπάντητα.
Μπορώ να προστατευτώ;
Η ραγδαία εξάπλωση και εξέλιξη της ΤΝ, αν και συναρπαστική, απαιτεί παράλληλα και έναν μετριασμό στην χρήση της, καθώς αυτή η ανεξέλεγκτη δυνατότητα δημιουργίας ρομπότ τεχνητής νοημοσύνης που χρησιμοποιούν τα πρόσωπα και τις ταυτότητες άλλων ανθρώπων, ενέχει μεγάλους κινδύνους. Μέχρι λοιπόν η νομοθεσία να γίνει πιο προστατευτική και τα διαδικτυακά περιβάλλοντα πιο ελεγχόμενα, παραμένουμε εκτεθειμένοι. Μπορούμε άραγε να κάνουμε κάτι για αυτό; Η προστασία μας από την κατάχρηση των εικόνων και των δεδομένων μας για τη δημιουργία deepfake βίντεο ή chatbots απαιτεί ορισμένα προληπτικά βήματα, όπως η διασφάλιση της διαδικτυακής μας παρουσίας, η προσοχή στις ρυθμίσεις απορρήτου και η ενημέρωση για τις αναδυόμενες απειλές, όπως:
–Βεβαιωθείτε ότι τα προφίλ σας είναι ιδιωτικά και μοιραστείτε προσωπικές πληροφορίες, φωτογραφίες ή βίντεο μόνο με αξιόπιστες συνδέσεις. Αποφύγετε τη δημόσια ανάρτηση εικόνων που θα μπορούσαν εύκολα να συλλεχθούν για κακή χρήση.
–Ελαχιστοποιήστε την κοινοποίηση selfies ή βίντεο υψηλής ανάλυσης σε δημόσια φόρουμ ή μέσα κοινωνικής δικτύωσης, καθώς η τεχνολογία Deepfake βασίζεται συνήθως σε καθαρές, υψηλής ποιότητας εικόνες του προσώπου σας.
–Εξετάστε το ενδεχόμενο χρήσης υδατογραφήματος σε δημόσιες φωτογραφίες, ειδικά για επαγγελματικό ή δημόσιο περιεχόμενο. Τα υδατογραφήματα μπορούν να καταστήσουν πιο δύσκολη τη χρήση της εικόνας σας χωρίς άδεια.
-Βεβαιωθείτε ότι οι λογαριασμοί σας στα μέσα κοινωνικής δικτύωσης διαθέτουν αυστηρές ρυθμίσεις απορρήτου, επιτρέποντας μόνο σε έμπιστους φίλους ή οπαδούς να βλέπουν τις φωτογραφίες σας. Ελέγχετε τακτικά ποιος μπορεί να βλέπει, να κατεβάζει ή να μοιράζεται το περιεχόμενό σας.
-Χρησιμοποιήστε κρυπτογραφημένη επικοινωνία. Όταν μοιράζεστε φωτογραφίες ή προσωπικά δεδομένα, επιλέξτε κρυπτογραφημένες πλατφόρμες ανταλλαγής μηνυμάτων όπως η Signal, οι οποίες προσφέρουν μεγαλύτερη ιδιωτικότητα από τα μέσα κοινωνικής δικτύωσης.
-Χρησιμοποιείτε τακτικά εργαλεία όπως το Google Reverse Image Search ή το TinEye για να ελέγχετε αν οι εικόνες σας χρησιμοποιούνται χωρίς άδεια στο διαδίκτυο. Αυτό μπορεί να σας βοηθήσει να ανακαλύψετε αν κάποιος έχει χρησιμοποιήσει την εικόνα σας για να δημιουργήσει ένα deepfake ή μη εξουσιοδοτημένο περιεχόμενο.
-Εγγραφείτε σε υπηρεσίες προστασίας ταυτότητας. Ορισμένες υπηρεσίες προσφέρουν την παρακολούθηση του διαδικτύου, του σκοτεινού διαδικτύου και των κοινωνικών πλατφορμών για τυχόν μη εξουσιοδοτημένη χρήση των εικόνων ή των προσωπικών σας δεδομένων. Μπορούν να σας ειδοποιήσουν εάν το ομοίωμά σας ή τα στοιχεία σας εμφανιστούν σε απροσδόκητα μέρη. Ρυθμίστε επίσης ειδοποιήσεις Google Alerts για το όνομά σας ή άλλες προσωπικές πληροφορίες. Αυτό μπορεί να σας βοηθήσει να παρακολουθείτε οποιοδήποτε νέο περιεχόμενο δημοσιεύεται με το όνομα ή τα στοιχεία σας.
-Αναφέρετε την κακή χρήση της εικόνας. Εάν διαπιστώσετε ότι κάποιος έχει χρησιμοποιήσει την εικόνα σας για ένα deepfake ή chatbot χωρίς την άδειά σας, μπορείτε να το αναφέρετε στην πλατφόρμα όπου εμφανίζεται το περιεχόμενο. Πολλές πλατφόρμες, συμπεριλαμβανομένων των ιστότοπων κοινωνικής δικτύωσης, έχουν πολιτικές κατά των μη συναινετικών deepfake βίντεο και περιεχομένου. Σε περίπτωση σοβαρής κατάχρησης, συμβουλευτείτε έναν δικηγόρο για να διερευνήσετε τις νομικές επιλογές. Οι νόμοι σχετικά με την τεχνολογία deepfake εξακολουθούν να εξελίσσονται, αλλά πολλές δικαιοδοσίες έχουν αρχίσει να εισάγουν κανονισμούς για την ποινικοποίηση της μη εξουσιοδοτημένης δημιουργίας και διανομής περιεχομένου deepfake.
Η ραγδαία εξέλιξη της τεχνητής νοημοσύνης απαιτεί, από ότι φαίνεται, μια νέα εποχή ψηφιακής υπευθυνότητας. Καθώς υιοθετούμε αυτές τις τεχνολογίες, είναι ζωτικής σημασίας να καθορίσουμε σαφή ηθικά όρια, να εφαρμόσουμε νομικές διασφαλίσεις και να διασφαλίσουμε ότι το ΑΙ χρησιμοποιείται για να βελτιώσει και όχι για να εκμεταλλευτεί, την ψηφιακή μας ζωή.
Εξωτερική Φωτογραφία: Getty Images / Ideal Image