Αύξηση καταγράφεται στις ψηφιακές επιθέσεις, καθώς τα εργαλεία τεχνητής νοημοσύνης και συγκεκριμένα της μηχανικής μάθησης, εισέρχονται καθημερινά όλο και πιο συστηματικά στην επιχειρηματική καθημερινότητα.

Οι αναλυτές επισημαίνουν ότι όσο χρησιμοποιούμε την τεχνητή νοημοσύνη, πρέπει να θυμόμαστε ότι τα δεδομένα που εισάγουμε στα εργαλεία παύουν να μας ανήκουν, μόλις πατήσουμε το κουμπί αποστολής.

«Μία από τις κύριες ανησυχίες κατά τη χρήση μεγάλων γλωσσικών μοντέλων (LLM), όπως το ChatGPT, είναι ότι μοιραζόμαστε ευαίσθητα δεδομένα με μεγάλες πολυεθνικές εταιρείες. Αυτά τα μοντέλα είναι διαδικτυακά κείμενα, που τους επιτρέπουν να ερμηνεύουν αποτελεσματικά και να απαντούν σε ερωτήματα χρηστών», διαπιστώνει η ESET.

Όπως υπογραμμίζει, κάθε φορά που αλληλοεπιδρούμε με ένα chatbot και ζητάμε πληροφορίες ή βοήθεια, μπορεί να μοιραστούμε ακούσια δεδομένα σχετικά με εμάς ή την εταιρεία μας.

Όταν γράφουμε μια εντολή για ένα chatbot, τα δεδομένα που εισάγουμε γίνονται δημόσια. Αυτό δεν σημαίνει ότι τα chatbots θα χρησιμοποιήσουν αμέσως αυτές τις πληροφορίες ως βάση για απαντήσεις σε άλλους χρήστες. Αλλά ο πάροχος LLM ή οι συνεργάτες του, μπορεί να έχουν πρόσβαση σε αυτά τα ερωτήματα και θα μπορούσαν να τα ενσωματώσουν σε μελλοντικές εκδόσεις της τεχνολογίας.

Έλεγχος δεδομένων

Η OpenAI, ο οργανισμός που βρίσκεται πίσω από το ChatGPT, εισήγαγε την επιλογή απενεργοποίησης του ιστορικού συνομιλιών, η οποία αποτρέπει τη χρήση των δεδομένων των χρηστών για την εκπαίδευση και τη βελτίωση των μοντέλων τεχνητής νοημοσύνης του OpenAI.

Με αυτόν τον τρόπο, οι χρήστες αποκτούν μεγαλύτερο έλεγχο των δεδομένων τους. Οι ειδικοί επισημαίνουν ότι εφόσον οι εργαζόμενοι σε μια εταιρεία θέλουν να χρησιμοποιήσουν εργαλεία, όπως το ChatGPT, η απενεργοποίηση του ιστορικού συνομιλιών θα πρέπει να είναι το πρώτο τους βήμα.

Αλλά ακόμη και με απενεργοποιημένο το ιστορικό συνομιλίας, όλα τα δεδομένα των εντολών εξακολουθούν να αποθηκεύονται στους διακομιστές του chatbot. Με την αποθήκευση όλων των εντολών σε εξωτερικούς διακομιστές, υπάρχει πιθανή απειλή μη εξουσιοδοτημένης πρόσβασης από χάκερ.

Επιπλέον, τα τεχνικά σφάλματα μπορούν περιστασιακά να επιτρέψουν σε μη εξουσιοδοτημένα άτομα να έχουν πρόσβαση σε δεδομένα που ανήκουν σε άλλους χρήστες chatbot.

Συνηθισμένα λάθη

Το πρώτο κοινό λάθος που κάνουν οι εργαζόμενοι, όταν χρησιμοποιούν LLMs, είναι να μοιράζονται χωρίς να το συνειδητοποιούν ευαίσθητες πληροφορίες σχετικά με τους πελάτες της εταιρείας τους. «Εκπαιδεύστε τους υπαλλήλους να ανωνυμοποιούν τα ερωτήματά τους, πριν τα εισάγουν στα chatbots. Για την προστασία της ιδιωτικής ζωής των πελατών, ενθαρρύνετέ τους να αναθεωρούν και να αφαιρούν προσεκτικά ευαίσθητα στοιχεία, όπως ονόματα, διευθύνσεις ή αριθμούς λογαριασμών», τονίζει η ESET.

Στο μεταξύ, οι ειδικοί της εταιρείας σχολιάζουν ότι τα chatbots μπορούν να αποτελέσουν πολύτιμα εργαλεία για τη γρήγορη περίληψη μεγάλου όγκου δεδομένων και τη δημιουργία σχεδίων, παρουσιάσεων ή εκθέσεων. Παρ’ όλα αυτά, η μεταφόρτωση εγγράφων σε εργαλεία, όπως το ChatGPT μπορεί να σημαίνει ότι είναι εκτεθειμένα τα δεδομένα της εταιρείας ή των πελατών, που είναι αποθηκευμένα σε αυτά.

«Αν και μπορεί να είναι δελεαστικό να αντιγράψετε έγγραφα και να ζητήσετε από το εργαλείο να δημιουργήσει περιλήψεις ή προτάσεις για διαφάνειες παρουσιάσεων, δεν είναι ένας ασφαλής τρόπος για την ασφάλεια των δεδομένων», σημειώνει η εταιρεία.

Διαβάστε ακόμη

ΔΝΤ: «Πρωταθλήτρια» η Ελλάδα στη μείωση του χρέους – Κάτω από 150% του ΑΕΠ ως το 2027

Exxon Mobil: Ανακοινώθηκε το deal της 20ετίας – Εξαγοράζει την Pioneer

Τουρκία: Οι τουρίστες «κλείνουν την ψαλίδα» στο ισοζύγιο τρεχουσών συναλλαγών (γράφημα)

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο ΘΕΜΑ