search icon

Τεχνολογία

Τεχνητή Νοημοσύνη: Ο πρώτος δυτικός νόμος ήρθε από την Ευρώπη

Ο νόμος για την Τεχνητή Νοημοσύνη κατηγοριοποιεί τις εφαρμογές της  σε τέσσερα επίπεδα κινδύνου

«Πράσινο φως» από την επιτροπή νομοθετών πήρε ο νέος ευρωπαϊκός κανονισμός για την Τεχνητή Νοημοσύνη (ΤΝ) και οδεύει στο να γίνει ευρωπαϊκός νόμος.

Πρόκεται για μία εξέλιξη ορόσημο σε μια εποχή που οι κυβερνήσεις προσπαθούν να βάλουν το νομικό πλαίσιο σε αυτό το τεχνολογικό επίτευγμα που εξελίσσεται με ασύλληπτη ταχύτητα.

Ο νόμος, γνωστός ως Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη (AI Act), είναι ο πρώτος νόμος για τα συστήματα Τεχνητής Νοημοσύνης στη Δύση. Η Κίνα έχει ήδη αναπτύξει σχέδια κανόνων που αποσκοπούν στη διαχείριση του τρόπου με τον οποίο οι εταιρείες αναπτύσσουν προϊόντα ΤΝ, όπως είναι το ChatGPT.

Ο νόμος υιοθετεί μια προσέγγιση που βασίζεται στον κίνδυνο για τη ρύθμιση της ΤΝ, όπου οι υποχρεώσεις για ένα σύστημα είναι ανάλογες με το επίπεδο κινδύνου που ενέχει.

Οι κανόνες καθορίζουν επίσης τις απαιτήσεις για τους παρόχους των λεγόμενων «μοντέλων θεμελίωσης», όπως το ChatGPT, τα οποία αποτελούν πηγή βασικής ανησυχίας για τις ρυθμιστικές αρχές, δεδομένου του πόσο προηγμένα γίνονται και των φόβων ότι θα μπορούσαν να  εκτοπίσουν ακόμη και εξειδικευμένους εργαζόμενους.

Ο νόμος για την ΤΝ κατηγοριοποιεί τις εφαρμογές της  σε τέσσερα επίπεδα κινδύνου: μη αποδεκτός κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος ή μηδενικός κίνδυνος.

Οι εφαρμογές μη αποδεκτού κινδύνου απαγορεύονται εξ ορισμού και δεν μπορούν να αναπτυχθούν στην Ευρωπαϊκή Ένωση.

Αφορούν:

Αρκετοί νομοθέτες είχαν ζητήσει να γίνουν τα μέτρα πιο ακριβή για να διασφαλιστεί ότι θα καλύπτουν το ChatGPT.

Για τον σκοπό αυτό, έχουν επιβληθεί απαιτήσεις για «μοντέλα θεμελίωσης», όπως τα μεγάλα γλωσσικά μοντέλα και η γενεσιουργός ΤΝ.

Οι προγραμματιστές των θεμελιωδών μοντέλων θα πρέπει να εφαρμόζουν ελέγχους ασφαλείας, μέτρα διακυβέρνησης δεδομένων και μετριασμούς κινδύνου πριν δημοσιοποιήσουν τα μοντέλα τους.

Θα πρέπει επίσης να διασφαλίζουν ότι τα δεδομένα εκπαίδευσης που χρησιμοποιούνται για την ενημέρωση των συστημάτων τους δεν παραβιάζουν τη νομοθεσία περί πνευματικών δικαιωμάτων.

«Οι πάροχοι τέτοιων μοντέλων τεχνητής νοημοσύνης θα πρέπει να λαμβάνουν μέτρα για την αξιολόγηση και τον μετριασμό των κινδύνων για τα θεμελιώδη δικαιώματα, την υγεία και την ασφάλεια και το περιβάλλον, τη δημοκρατία και το κράτος δικαίου», δήλωσε στο CNBC ο Ceyhun Pehlivan, σύμβουλος της Linklaters και συν-επικεφαλής της ομάδας πρακτικής τηλεπικοινωνιών, μέσων ενημέρωσης και τεχνολογίας και πνευματικής ιδιοκτησίας της δικηγορικής εταιρείας στη Μαδρίτη.

«Θα υπόκεινται επίσης σε απαιτήσεις διακυβέρνησης δεδομένων, όπως η εξέταση της καταλληλότητας των πηγών δεδομένων και των πιθανών προκαταλήψεων».

Είναι σημαντικό να τονιστεί ότι, ενώ ο νόμος έχει ψηφιστεί από τους νομοθέτες του Ευρωπαϊκού Κοινοβουλίου, απέχει πολύ από το να γίνει νόμος.

Οι ιδιωτικές εταιρείες αναπτύσσουν την τεχνολογία ΤΝ με ιλιγγιώδη ταχύτητα, δημιουργώντας συστήματα όπως η Microsoft υποστήριξε το ChatGPT της OpenAI και το Bard της Google.

Η Google ανακοίνωσε την περασμένη εβδομάδα μια σειρά από νέες ενημερώσεις AI, συμπεριλαμβανομένου ενός προηγμένου γλωσσικού μοντέλου που ονομάζεται PaLM 2, το οποίο η εταιρεία υποστηρίζει ότι ξεπερνάει άλλα κορυφαία συστήματα σε ορισμένες εργασίες.

Τα καινοτόμα chatbots τεχνητής νοημοσύνης όπως το ChatGPT έχουν συναρπάσει πολλούς τεχνολόγους και ακαδημαϊκούς με την ικανότητά τους να παράγουν ανθρωποειδείς απαντήσεις σε προτροπές χρηστών που τροφοδοτούνται από μεγάλα γλωσσικά μοντέλα που εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων.

Αλλά η τεχνολογία AI υπάρχει εδώ και χρόνια και έχει ενσωματωθεί σε περισσότερες εφαρμογές και συστήματα από ό,τι νομίζετε. Καθορίζει, για παράδειγμα, ποια viral βίντεο ή φωτογραφίες φαγητού θα δείτε στο TikTok ή στο Instagram feed σας.

Στόχος των προτάσεων της ΕΕ είναι να παράσχει ορισμένους κανόνες «οδικής» συμπεριφοράς για τις εταιρείες και τους οργανισμούς που χρησιμοποιούν τεχνητή νοημοσύνη.

Πώς αντιδρά η τεχνολογική βιομηχανία

Οι κανόνες προκάλεσαν ανησυχίες στον κλάδο της τεχνολογίας.

Ο Σύνδεσμος Βιομηχανίας Υπολογιστών και Επικοινωνιών δήλωσε ότι ανησυχεί για το γεγονός ότι το πεδίο εφαρμογής του νόμου για την ΤΝ έχει διευρυνθεί υπερβολικά και ότι μπορεί να συλλάβει μορφές ΤΝ που είναι ακίνδυνες.«Είναι ανησυχητικό να βλέπουμε ότι ευρείες κατηγορίες χρήσιμων εφαρμογών τεχνητής νοημοσύνης – οι οποίες ενέχουν πολύ περιορισμένους ή και καθόλου κινδύνους – θα αντιμετωπίζουν τώρα αυστηρές απαιτήσεις ή θα μπορούσαν ακόμη και να απαγορευτούν στην Ευρώπη», εξηγεί στο CNBC ο Boniface de Champris, υπεύθυνος πολιτικής στην CCIA Europe.

«Η αρχική πρόταση της Ευρωπαϊκής Επιτροπής για τον νόμο περί τεχνητής νοημοσύνης υιοθετεί μια προσέγγιση με βάση τον κίνδυνο, ρυθμίζοντας συγκεκριμένα συστήματα τεχνητής νοημοσύνης που ενέχουν σαφή κίνδυνο», πρόσθεσε.

«Οι ευρωβουλευτές έχουν τώρα εισάγει κάθε είδους τροποποιήσεις που αλλάζουν την ίδια τη φύση του νόμου για την ΤΝ, ο οποίος τώρα υποθέτει ότι πολύ ευρείες κατηγορίες ΤΝ είναι εγγενώς επικίνδυνες.

Διαβάστε ακόμη

ΗΠΑ: «Καμπανάκι» για τον αντίκτυπο που έχουν τα μέσα κοινωνικής δικτύωσης στη ψυχολογία των νέων

«Θετική ψήφος» και από τους θεσμούς για τη μετα-μνημονιακή πρόοδο της οικονομίας

Αγγελίνα Τερλάκη (Red Dot Analytics): H Ελληνίδα από τη λίστα “30 Under 30 Asia” του Forbes μιλάει στο newmoney (pics)

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο ΘΕΜΑ

Exit mobile version