Δείτε περισσότερα άρθρα μας στα αποτελέσματα αναζήτησης

Add Newmoney.gr on Google

Αμερικανοί επιστήμονες παρουσίασαν στους New York Times συνομιλίες τους με chatbots, στις οποίες τα συστήματα τεχνητής νοημοσύνης περιέγραφαν με λεπτομέρεια τρόπους συναρμολόγησης θανατηφόρων παθογόνων και πιθανούς τρόπους απελευθέρωσής τους σε δημόσιους χώρους.

Ένα βράδυ το περασμένο καλοκαίρι, ο Δρ. Ντέιβιντ Ρέλμαν έμεινε άναυδος μπροστά στον υπολογιστή του, όταν ένα chatbot τεχνητής νοημοσύνης τού ανέλυσε πώς θα μπορούσε να σχεδιάσει μια μαζική επίθεση.

Ο Δρ. Ρέλμαν, μικροβιολόγος και ειδικός στη βιοασφάλεια στο Πανεπιστήμιο Στάνφορντ, είχε αναλάβει για λογαριασμό εταιρείας τεχνητής νοημοσύνης να δοκιμάσει το προϊόν της πριν αυτό διατεθεί στο ευρύ κοινό. Εκείνο το βράδυ, το chatbot εξηγούσε πώς θα μπορούσε να τροποποιηθεί ένα γνωστό παθογόνο σε εργαστηριακό περιβάλλον ώστε να καταστεί ανθεκτικό στις υπάρχουσες θεραπείες.

Ταυτόχρονα, το σύστημα ανέλυε με ακρίβεια πώς θα μπορούσε να διασπαρεί το μικρόβιο, εντοπίζοντας κενά ασφαλείας σε μεγάλο δίκτυο δημόσιων μεταφορών και προτείνοντας τρόπους μεγιστοποίησης των θυμάτων και ελαχιστοποίησης του κινδύνου σύλληψης. Ο Ρέλμαν δήλωσε ότι ένιωσε έντονη αναστάτωση και αναγκάστηκε να βγει για περίπατο ώστε να ηρεμήσει.

Όπως ανέφερε, το chatbot έδινε απαντήσεις ακόμη και σε ερωτήματα που ο ίδιος δεν είχε σκεφτεί να θέσει, με έναν τρόπο που του φάνηκε ιδιαίτερα ανησυχητικός και ψυχρά υπολογιστικός. Ο Ρέλμαν δεν αποκάλυψε ποιο σύστημα παρείχε αυτές τις πληροφορίες, λόγω συμφωνίας εμπιστευτικότητας με την εταιρεία. Ανήκει σε μια μικρή ομάδα ειδικών που αξιολογούν συστήματα τεχνητής νοημοσύνης για πιθανούς καταστροφικούς κινδύνους. Όπως και εκείνος, και άλλοι επιστήμονες παρέδωσαν στους New York Times συνομιλίες στις οποίες τα chatbots φέρονται να περιγράφουν βήμα προς βήμα διαδικασίες απόκτησης γενετικού υλικού, μετατροπής του σε όπλο και χρήσης του σε δημόσιους χώρους, ακόμη και με ιδέες αποφυγής εντοπισμού.

Τα σενάρια

Η αμερικανική κυβέρνηση έχει κατά το παρελθόν προετοιμαστεί για πιθανά σενάρια βιολογικών επιθέσεων. Από τη δεκαετία του 1970 έχουν καταγραφεί λίγα περιστατικά μικρής κλίμακας, όπως οι επιστολές με άνθρακα το 2001 που προκάλεσαν θανάτους. Ωστόσο, οι περισσότεροι ειδικοί εκτιμούν ότι ένα μεγάλο περιστατικό παραμένει σχετικά απίθανο.

Παρόλα αυτά, ακόμη και μια χαμηλή πιθανότητα συνοδεύεται από δυνητικά καταστροφικές συνέπειες, με εκατομμύρια πιθανά θύματα. Πολλοί ειδικοί υποστηρίζουν ότι η τεχνητή νοημοσύνη αυξάνει τον κίνδυνο, καθώς καθιστά πιο προσβάσιμες πληροφορίες που στο παρελθόν ήταν περιορισμένες. Ορισμένοι επιστήμονες, όπως ο Κέβιν Εσβέλτ από το MIT, έχουν δοκιμάσει chatbots ζητώντας υποθετικά σενάρια για βιολογικά όπλα. Σε ορισμένες περιπτώσεις, τα συστήματα παρείχαν λεπτομερείς απαντήσεις, περιλαμβάνοντας ακόμη και λίστες προμηθειών ή τρόπους διασποράς.

Οι εταιρείες τεχνητής νοημοσύνης, όπως η OpenAI, η Google και η Anthropic, δηλώνουν ότι ενισχύουν διαρκώς τα συστήματα ασφαλείας τους και ότι οι απαντήσεις δεν παρέχουν επαρκείς πληροφορίες για πραγματική ζημιά. Παρ’ όλα αυτά, ειδικοί επισημαίνουν ότι τα μοντέλα μπορούν να παρακαμφθούν μέσω τεχνικών που ξεγελούν τα φίλτρα ασφαλείας.

Ορισμένοι ερευνητές προειδοποιούν ότι η τεχνολογία μπορεί να διευκολύνει την πρόσβαση σε επικίνδυνες πληροφορίες ακόμη και για άτομα χωρίς εξειδικευμένη εκπαίδευση, γεγονός που ενισχύει την ανάγκη για αυστηρότερη εποπτεία. Από την άλλη πλευρά, υποστηρικτές της τεχνολογίας τονίζουν ότι τα ίδια εργαλεία μπορούν να αξιοποιηθούν για θετικές εφαρμογές, όπως η ανάπτυξη νέων φαρμάκων και η πρόοδος στη βιοϊατρική έρευνα.

Διαβάστε ακόμη

ΙΝΣΕΤΕ: Ανθεκτικός ο ελληνικός τουρισμός – «Αγκάθι» η συρρίκνωση της μέσης διάρκειας παραμονής

Η κατάρρευση της Spirit Airlines και οι 17.000 νέοι άνεργοι

9 κοινές καθημερινές συνήθειες που έχουν άνθρωποι με μεγάλη επιτυχία – CEOs, ηγέτες και δημόσια πρόσωπα (pics)

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα