Τί θα γίνει αν όλα αυτά τα χρήματα και οι προσπάθειες που καταβάλλουν όλοι για την τεχνητή νοημοσύνη, επειδή είναι πεπεισμένοι ότι είναι μια τεχνολογία που θα αλλάξει τα πάντα, είναι δικαιολογημένα;
Αυτή είναι μια αρκετά δίκαιη περίληψη ενός blogpost στο Substack που έγινε viral πρόσφατα και στη συνέχεια μετατράπηκε σε φαινόμενο της Wall Street, όταν πολλές μετοχές τεχνολογικών εταιρειών έχασαν την αξία τους λόγω των φόβων για την τεχνητή νοημοσύνη.
H ανάρτηση της Citrini Research, δεν αποτελούσε απλώς μία υπόθεση αλλά μια προειδοποίηση. Η αντίδραση των επενδυτών ήταν σημαντική, αλλά ορισμένοι υποστηρικτές της τεχνητής νοημοσύνης αποκαλούν την ανάρτηση της Citrini «καταστροφολογική για την τεχνητή νοημοσύνη» και επικρίνουν μερικά από τα σενάρια που περιγράφει.
Σύμφωνα με το Business Insider και τον αναλυτή Πίτερ Κάφκα, ίσως οι λεπτομέρειες να είναι λανθασμένες, αλλά η γενική εικόνα είναι σημαντική: αν το μέλλον της τεχνητής νοημοσύνης που μας υπόσχονται οι CEOs των τεχνολογικών κολοσσών γίνει πραγματικότητα, θα μπορούσε να έχει τεράστιο αντίκτυπο στην οικονομία μας, και μέρος αυτού του αντίκτυπου θα μπορούσε να είναι η σημαντική ανεργία.
Αυτό δεν είναι απλώς μια παράλογη θέση, αλλά μια λογική προσέγγιση. Εξηγεί τις τεράστιες επενδύσεις που κάνουν οι εταιρείες τεχνολογίας στην τεχνητή νοημοσύνη και τις τρελές αποτιμήσεις για εταιρείες όπως η Anthropic (380 δισεκατομμύρια δολάρια) και η OpenAI (850 δισεκατομμύρια δολάρια).
Με λίγα λόγια, ο μόνος τρόπος με τον οποίο αυτές οι εταιρείες έχουν τέτοια αξία είναι μόνο αν η επίδρασή τους είναι τόσο σημαντική. Ναι, μέρος της αξίας μπορεί να δικαιολογείται από την εκπληκτική καινοτομία που θα μπορούσε να ξεκλειδώσει η τεχνητή νοημοσύνη, όπως τα θαυματουργά φάρμακα. Αλλά μεγάλο μέρος της αξίας θα προέλθει από το γεγονός ότι η τεχνητή νοημοσύνη θα επιτρέψει στους υπολογιστές να κάνουν πολλές από τις εργασίες που κάνουν τώρα οι άνθρωποι. Ο Κάφκα τονίζει πως κανείς δεν μπορεί να έχει τα πλεονεκτήματα αυτής της τεχνολογίας χωρίς τα μειονεκτήματα.
Είναι εύκολο να φανταστεί κανείς όλους τους τρόπους με τους οποίους αυτό θα επηρεάσει την οικονομία μας. Αυτή τη στιγμή, για παράδειγμα, η αγορά προσπαθεί να κατανοήσει την ιδέα ότι η τεχνητή νοημοσύνη μπορεί να πλήξει δραματικά τον κλάδο του επιχειρηματικού λογισμικού. Αλλά μπορεί κανείς να κάνει το ίδιο για όλα τα είδη εργασίας, σε όλους τους κλάδους: Δικηγόροι. Σύμβουλοι. Σεναριογράφοι. Οδηγοί φορτηγών και ούτω καθεξής, όπως τόνισε ο Κάφκα.
Δεν χρειάζεται να είστε «καταστροφολόγος» της τεχνητής νοημοσύνης για να σκέφτεστε με αυτόν τον τρόπο — είναι ενσωματωμένο στο σλόγκαν των μεγαλύτερων εταιρειών τεχνητής νοημοσύνης. «Υπάρχουν περιπτώσεις όπου ολόκληρες κατηγορίες θέσεων εργασίας θα εξαφανιστούν», δήλωσε πέρυσι ο Σαμ Άλτμαν της OpenAI. Ο αντίπαλός του, ο διευθύνων σύμβουλος της Anthropic, Ντάριο Αμοντέι, είναι πιο ευθύς και πιο απαισιόδοξος, προβλέποντας ότι η τεχνητή νοημοσύνη θα εξαλείψει το ήμισυ των θέσεων εργασίας υπαλλήλων γραφείου και θα οδηγήσει σε εκτίναξη της ανεργίας.
Είναι λίγο περίεργο να βλέπεις τη Wall Street να ταλαντεύεται καθώς σκέφτεται πώς θα εξελιχθούν όλα αυτά. Την επομένη του sell-off, οι μετοχές των τεχνολογικών εταιρειών σημείωσαν ξανά άνοδο, πιθανώς επειδή οι επενδυτές αποφάσισαν ότι αντέδρασαν υπερβολικά. Αλλά δε θα προκαλέσει έκπληξη σε κανέναν αν οι αγορές ξανακυλήσουν προς τα κάτω όταν κάποιος άλλος παρουσιάσει πειστικά επιχειρήματα ότι η τεχνολογία αυτή θα αναστατώσει άλλο έναν κλάδο.
Ίσως η Citrini να κάνει λάθος για το DoorDash και να έχει δίκιο για τους δικηγόρους. Ίσως είναι το αντίθετο. Αλλά η γενική μορφή του προβλήματος παραμένει η ίδια σύμφωνα με τον αναλυτή: Όσο περισσότερο η τεχνητή νοημοσύνη ανταποκρίνεται στις προσδοκίες, τόσο περισσότερο θα επηρεάσει τον τρόπο με τον οποίο εργάζονται οι άνθρωποι — ή αν εργάζονται καθόλου.
Μπορείτε να είστε αισιόδοξοι για αυτή την προοπτική ή να τρομοκρατηθείτε. Αλλά δεν μπορείτε να την αγνοήσετε, τόνισε ο Κάφκα.
Διαβάστε ακόμη
Διαζύγιο: Μήπως ο σύζυγος σάς κρύβει κρυπτονομίσματα;
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο Θέμα
Σχολίασε εδώ
Για να σχολιάσεις, χρησιμοποίησε ένα ψευδώνυμο.