Δεκάδες προσωπικότητες υψηλού κύρους από τον επιχειρηματικό και πολιτικό χώρο καλούν τους παγκόσμιους ηγέτες να αντιμετωπίσουν τους υπαρξιακούς κινδύνους της τεχνητής νοημοσύνης και της κλιματικής κρίσης.

Ο ιδρυτής του ομίλου Virgin, Ρίτσαρντ Μπράνσον, μαζί με τον πρώην Γενικό Γραμματέα των Ηνωμένων Εθνών, Ban Ki-moon, και τον Τσάρλς Οπενχάιμερ – εγγονό του Αμερικανού φυσικού Τζ. Ρόμπερτ Οπενχάιμερ- υπέγραψαν ανοιχτή επιστολή με την οποία καλούν σε δράση ενάντια στους κλιμακούμενους κινδύνους της κλιματικής κρίσης, των πανδημιών, των πυρηνικών όπλων και της ανεξέλεγκτης τεχνητής νοημοσύνης.

Στο μήνυμά του ζητά από τους παγκόσμιους ηγέτες να υιοθετήσουν μια μακροπρόθεσμη στρατηγική και «την αποφασιστικότητα να επιλύουν δυσεπίλυτα προβλήματα, όχι απλώς να τα διαχειρίζονται, τη σοφία να λαμβάνουν αποφάσεις με βάση τα επιστημονικά στοιχεία και τη λογική και την ταπεινότητα να ακούν όλους όσους επηρεάζονται», όπως μεταδίδει το CNBC.

Οι υπογράφοντες ζήτησαν επείγουσα πολυμερή δράση, μεταξύ άλλων μέσω της χρηματοδότησης της μετάβασης από τα ορυκτά καύσιμα, της υπογραφής μιας δίκαιης συνθήκης για την πανδημία, της επανέναρξης των συνομιλιών για τα πυρηνικά όπλα και της οικοδόμησης της παγκόσμιας διακυβέρνησης που απαιτείται για να καταστεί η Τεχνητή Νοημοσύνη μια δύναμη για το καλό.

Η επιστολή δόθηκε την Πέμπτη στη δημοσιότητα από τους The Elders, μια μη κυβερνητική οργάνωση που ιδρύθηκε από τον πρώην πρόεδρο της Νότιας Αφρικής Νέλσον Μαντέλα και τον Μπράνσον για να αντιμετωπίσει παγκόσμια ζητήματα ανθρωπίνων δικαιωμάτων και να υπερασπιστεί την παγκόσμια ειρήνη.

Το μήνυμα υποστηρίζεται επίσης από το Future of Life Institute, έναν μη κερδοσκοπικό οργανισμό που ιδρύθηκε από τον κοσμολόγο του MIT Max Tegmark και τον συνιδρυτή του Skype Jaan Tallinn, ο οποίος έχει ως στόχο να κατευθύνει τη μετασχηματιστική τεχνολογία όπως η τεχνητή νοημοσύνη προς όφελος της ζωής και μακριά από κινδύνους μεγάλης κλίμακας.

Ο Tegmark δήλωσε ότι οι The Elders και η οργάνωσή του ήθελαν να μεταφέρουν ότι, αν και δεν είναι από μόνη της “κακή”, η τεχνολογία παραμένει ένα “εργαλείο” που θα μπορούσε να οδηγήσει σε ορισμένες τρομερές συνέπειες, αν αφεθεί να εξελιχθεί γρήγορα στα χέρια των λάθος ανθρώπων.

«Η παλιά στρατηγική για την καθοδήγηση προς καλές χρήσεις [όταν πρόκειται για νέα τεχνολογία] ήταν πάντα η μάθηση από τα λάθη», δήλωσε ο Tegmark στο CNBC σε συνέντευξή του. «Ανακαλύψαμε τη φωτιά, και αργότερα ανακαλύψαμε τον πυροσβεστήρα. Εφευρέσαμε το αυτοκίνητο, μετά μάθαμε από τα λάθη μας και εφεύραμε τη ζώνη ασφαλείας και τα φανάρια και τα όρια ταχύτητας».

Μηχανική ασφαλείας

«Αλλά όταν το πράγμα ξεπερνάει ήδη το όριο και την ισχύ, αυτή η στρατηγική εκμάθησης από τα λάθη γίνεται… λοιπόν, τα λάθη θα είναι απαίσια», πρόσθεσε ο Tegmark.

«Ως σπασίκλας ο ίδιος, το σκέφτομαι ως μηχανική ασφαλείας. Στέλνουμε ανθρώπους στο φεγγάρι, σκεφτήκαμε πολύ προσεκτικά όλα τα πράγματα που θα μπορούσαν να πάνε στραβά όταν βάζεις ανθρώπους σε εκρηκτικές δεξαμενές καυσίμων και τους στέλνεις κάπου όπου κανείς δεν μπορεί να τους βοηθήσει. Και γι’ αυτό τελικά πήγε καλά».

Και συνέχισε λέγοντας: «Αυτό δεν ήταν “δολοφονία”. Αυτό ήταν μηχανική ασφαλείας. Και χρειαζόμαστε αυτού του είδους τη μηχανική ασφαλείας και για το μέλλον μας, με τα πυρηνικά όπλα, με τη συνθετική βιολογία, με την ολοένα και πιο ισχυρή τεχνητή νοημοσύνη».

Η επιστολή εκδόθηκε πριν από τη Διάσκεψη του Μονάχου για την Ασφάλεια, όπου κυβερνητικοί αξιωματούχοι, στρατιωτικοί ηγέτες και διπλωμάτες θα συζητήσουν τη διεθνή ασφάλεια εν μέσω κλιμακούμενων παγκόσμιων ένοπλων συγκρούσεων, συμπεριλαμβανομένων των πολέμων Ρωσίας-Ουκρανίας και Ισραήλ-Χαμάς. Ο Tegmark θα παρευρεθεί στην εκδήλωση για να υποστηρίξει το μήνυμα της επιστολής.

Το Future of Life Institute δημοσίευσε πέρυσι επίσης μια ανοιχτή επιστολή που υποστηρίχθηκε από κορυφαίες προσωπικότητες, όπως το αφεντικό της Tesla Έλον Μασκ και ο συνιδρυτής της Apple Steve Wozniak, η οποία καλούσε τα εργαστήρια τεχνητής νοημοσύνης όπως το OpenAI να διακόψουν τις εργασίες για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης που είναι πιο ισχυρά από το GPT-4 – επί του παρόντος το πιο προηγμένο μοντέλο τεχνητής νοημοσύνης από το OpenAI του Sam Altman.

Οι τεχνολόγοι ζήτησαν μια τέτοια παύση στην ανάπτυξη της τεχνητής νοημοσύνης για να αποφευχθεί μια “απώλεια ελέγχου” του πολιτισμού, η οποία θα μπορούσε να οδηγήσει σε μαζική εξάλειψη των θέσεων εργασίας και σε υπεροπλία των ανθρώπων από τους υπολογιστές.

Διαβάστε ακόμη

Κομισιόν: Ανάπτυξη 2,3% φέτος στην Ελλάδα – Στο 2% ο πληθωρισμός

Στο 3,1% ο ετήσιος πληθωρισμός τον Ιανουάριο – Αύξηση 67,4% στο ελαιόλαδο

Επιχείρηση «σκούπα» της Κομισιόν για τους influencers

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο ΘΕΜΑ