
Οι νομοθέτες που βοήθησαν να σχηματίσουν ένα σημάδι της Ευρωπαϊκής Ένωσης ανησυχούν ότι ένα μπλοκ 27 μελών θεωρεί το ζήτημα της ανύψωσης πτυχών των κανόνων ενόψει της άσκησης πιέσεων για τις τεχνολογικές εταιρείες των ΗΠΑ και της πίεσης της διοίκησης του Trump.
Ο νόμος περί τεχνητής νοημοσύνης της ΕΕ εγκρίθηκε λίγο πριν από ένα χρόνο, αλλά οι κανόνες της για μοντέλα γενικής χρήσης, όπως το GPT-4O OpenAI, θα τεθούν σε ισχύ μόνο τον Αύγουστο. Την παραμονή αυτού, η Ευρωπαϊκή Επιτροπή, η οποία είναι η εκτελεστική ομάδα της ΕΕ, την εμπόδισε το νέο Γραφείο Τεχνητής Νοημοσύνης με την προετοιμασία του κώδικα πρακτικής για μεγάλες εταιρείες τεχνητής νοημοσύνης, λέγοντας πώς ακριβώς θα πρέπει να συμμορφωθούν με τη νομοθεσία.
Τώρα, όμως, μια ομάδα ευρωπαίων νομοθετών, η οποία βοήθησε να διευκρινιστεί η γλώσσα του νόμου όταν πέρασε τη νομοθετική διαδικασία, προκαλεί ανησυχία ότι το Γραφείο Τεχνητής Νοημοσύνης θα εξασθενίσει την επιρροή του νόμου της ΕΕ σε «επικίνδυνες, αντιδημοκρατικές» μεθόδους. Οι κορυφαίοι Αμερικανοί προμηθευτές της ΑΙ αύξησαν πρόσφατα την άσκηση πίεσης εναντίον των μονάδων του νόμου της ΕΕ και οι νομοθέτες ανησυχούν επίσης ότι η Επιτροπή μπορεί να υπολογίζει στην ακρόαση της διοίκησης του Trump, η οποία έχει ήδη καταστήσει σαφές ότι ο νόμος του ΑΙ πιστεύει ότι ο νόμος για το ΑΙ.
Οι νομοθέτες της ΕΕ αναφέρουν ότι το τρίτο σχέδιο του κώδικα, το οποίο το Γραφείο Τεχνητής Νοημοσύνης που δημοσιεύθηκε νωρίτερα αυτό το μήνα, δέχεται υποχρεώσεις που είναι υποχρεωτικές σύμφωνα με το νόμο του ΑΙ και τους αντιπροσωπεύουν ανακριβώς ως “εντελώς εθελοντικά”. Αυτές οι υποχρεώσεις περιλαμβάνουν μοντέλα δοκιμών για να δουν πώς μπορούν να επιτρέψουν πράγματα όπως οι μεγάλες διακρίσεις και η παραπληροφόρηση.
Σε επιστολή που στάλθηκε την Τρίτη, αντιπρόεδρος της Ευρωπαϊκής Επιτροπής και επικεφαλής της τεχνολογίας HNU, Virkkunen, ανέφερε για πρώτη φορά Οικονομικοί χρόνοι Ωστόσο, για πρώτη φορά δημοσιεύθηκε πλήρως, οι σημερινοί και πρώην νομοθέτες δήλωσαν ότι αυτές οι δοκιμές μοντέλων μπορούν να επιτρέψουν οικειοθελώς τους προμηθευτές της ΑΙ που «δέχονται πιο ακραίες πολιτικές θέσεις» για την παραμόρφωση των ευρωπαϊκών εκλογών, περιορίζουν την ελευθερία της πληροφόρησης και καταστρέφουν την οικονομία της ΕΕ.
“Στην τρέχουσα γεωπολιτική κατάσταση, περισσότερο από ό, τι όταν είναι σημαντικό η ΕΕ να προσεγγίζει την κλήση και εμπλέκεται ενεργά στα θεμελιώδη δικαιώματα και τη δημοκρατία”, έγραψαν.
Ο Brando Benifie, ο οποίος ήταν ένας από τους κορυφαίους διαπραγματευτές του Ευρωπαϊκού Κοινοβουλίου στο κείμενο του νόμου για την τεχνητή νοημοσύνη και ο πρώτος υπογράφηκε σε επιστολή αυτή την εβδομάδα, είπε Τύχη Το περιβάλλον που το πολιτικό κλίμα μπορεί να έχει κάτι να κάνει με το πότισμα του κώδικα πρακτικής. Η δεύτερη διοίκηση του Trump είναι ανταγωνιστική για την ευρωπαϊκή τεχνολογική ρύθμιση. Τον Φεβρουάριο, ο αντιπρόεδρος JD Wence προειδοποίησε για τη φλογερή ομιλία στην κορυφή της δράσης του Παρισιού AI ότι “σφίγγοντας τις βίδες για αμερικανικές τεχνολογικές εταιρείες” θα είναι ένα “τρομερό λάθος” για τις ευρωπαϊκές χώρες.
“Νομίζω ότι οι Ηνωμένες Πολιτείες προέρχονται από πίεση, αλλά θα ήταν πολύ αφελές [to think] Το γεγονός ότι μπορούμε να κάνουμε τη διοίκηση του Trump Happy κινείται προς αυτή την κατεύθυνση, γιατί αυτό δεν θα είναι ποτέ αρκετό “, δήλωσε ο Benifey, ο οποίος είναι επί του παρόντος η αντιπροσωπεία του Ευρωπαϊκού Κοινοβουλίου στις σχέσεις με τις Ηνωμένες Πολιτείες
Η Benifey δήλωσε ότι αυτός και άλλες προηγούμενες διαπραγματεύσεις βάσει του νόμου AI συναντήθηκαν με εμπειρογνώμονες στην Επιτροπή II, οι οποίοι καταρτίζουν έναν κώδικα πρακτικής την Τρίτη. Με βάση αυτή τη συνάντηση, εξέφρασε την αισιοδοξία ότι οι διαταραγμένες αλλαγές μπορούν να μεταδοθούν στην ολοκλήρωση του κώδικα.
“Νομίζω ότι τα προβλήματα που δημιουργήσαμε εξετάστηκαν και επομένως υπάρχει ένας τόπος βελτίωσης”, είπε. “Θα το δούμε αυτό τις επόμενες εβδομάδες.”
Ο Virkkunin δεν έδωσε απάντηση στην επιστολή ούτε στο σχόλιο της Benifa για την πίεση σε εμάς, κατά τη στιγμή της δημοσίευσης. Παρόλα αυτά, επέμεινε προηγουμένως ότι οι τεχνικοί κανόνες της ΕΕ εφαρμόζονται σωστά και σταθερά σε εταιρείες από οποιαδήποτε χώρα. Ο ανταγωνισμός Commissar Teresa Ribera ισχυρίστηκε επίσης ότι η ΕΕ “δεν μπορεί να κάνει συναλλαγές ανθρωπίνων δικαιωμάτων [or] Δημοκρατία και αξίες “για να καθησυχάσουμε τις Ηνωμένες Πολιτείες
Μεταβαλλόμενες υποχρεώσεις
Το βασικό μέρος του νόμου AI είναι το άρθρο 55, το οποίο δίνει σημαντικές υποχρεώσεις για τους παρόχους μοντέλων γενικής χρήσης, τα οποία έχουν «συστηματικό κίνδυνο», τα οποία ο νόμος ορίζει ως νόημα, το μοντέλο μπορεί να έχει σημαντικό αντίκτυπο στην οικονομία της ΕΕ ή να έχει «πραγματικές ή λογικά προβλέψιμες αρνητικές συνέπειες για τη δημόσια υγειονομική περίθαλψη, την ασφάλεια, τα θεμελιώδη δικαιώματα, τα βασικά δικαιώματα ή την κοινωνία ως σύνολο, τα οποία μπορούν να επεκταθούν σύμφωνα με την κλίμακα».
Ο νόμος λέει ότι το μοντέλο μπορεί να υποθέσει ότι έχει συστηματικό κίνδυνο εάν η υπολογιστική ισχύς που χρησιμοποιείται στην εκπαίδευσή του “μετράται σε λειτουργίες με πλωτό κόμμα [FLOPs] Περισσότερο από 1025. Αυτό πιθανότατα περιλαμβάνει πολλά από τα πιο ισχυρά μοντέλα AI σήμερα, αν και η Ευρωπαϊκή Επιτροπή μπορεί επίσης να διορίσει οποιοδήποτε μοντέλο γενικού σκοπού ως έχει συστηματικό κίνδυνο εάν οι επιστημονικοί σύμβουλοι του συνιστούν να το κάνουν αυτό.
Σύμφωνα με το νόμο, οι προμηθευτές τέτοιων μοντέλων πρέπει να τους αξιολογήσουν “προκειμένου να εντοπίσουν και να μετριάσουν” τους κινδύνους του συστήματος. Αυτή η αξιολόγηση θα πρέπει να περιλαμβάνει αντιφατικές δοκιμές – με άλλα λόγια, προσπαθώντας να κάνει το μοντέλο να κάνει κακά πράγματα για να μάθει τι πρέπει να προστατεύσει από. Στη συνέχεια, θα πρέπει να πουν στην Ευρωπαϊκή Επιτροπή ΑΙ για την αξιολόγηση και τι βρήκε.
Είναι εδώ ότι η τρίτη έκδοση του έργου του κώδικα πρακτικής γίνεται προβληματική.
Η πρώτη έκδοση του κώδικα κατέστη σαφές ότι οι τεχνητές εταιρείες τέχνης θα πρέπει να θεωρούν την παραβίαση ή την παραπληροφόρηση μεγάλης κλίμακας ως συστημικούς κινδύνους κατά την αξιολόγηση των μοντέλων τους λόγω της απειλής τους για τις δημοκρατικές αξίες και τις δυνατότητές τους για παρεμβολές εκλογών. Η δεύτερη έκδοση δεν μιλούσε συγκεκριμένα για παραπληροφόρηση ή παραπληροφόρηση, αλλά ανέφερε ότι «οι μεγάλοι χειρισμοί με τους κινδύνους για θεμελιώδη δικαιώματα ή δημοκρατικές αξίες», όπως η παρέμβαση στις εκλογές, ήταν συστηματικός κίνδυνος.
Τόσο η πρώτη όσο και η δεύτερη εκδοχή ήταν επίσης σαφείς ότι οι προμηθευτές μοντέλων θα πρέπει να εξετάσουν τη δυνατότητα μεγάλης διακρίσεων ως συστηματικού κινδύνου.
Αλλά η τρίτη έκδοση απαριθμεί μόνο τους κινδύνους για δημοκρατικές διαδικασίες και θεμελιώδη ευρωπαϊκά δικαιώματα, όπως η μη διάκριση, όπως “για πιθανή εξέταση κατά την επιλογή συστημικών κινδύνων”. Το επίσημο βιογραφικό σημείωμα του τρίτου έργου ισχυρίζεται ότι πρόκειται για “πρόσθετους κινδύνους που οι προμηθευτές μπορούν να λύσουν μια αξιολόγηση και μαλάκυνση στο μέλλον”.
Σε επιστολή αυτή την εβδομάδα, οι νομοθέτες, οι οποίοι συμφώνησαν με την Επιτροπή σχετικά με το τελικό κείμενο του νόμου, επέμεινε ότι «αυτό δεν ήταν ποτέ πρόθεση» της συμφωνίας που συνήψαν.
“Οι κίνδυνοι για θεμελιώδη δικαιώματα και δημοκρατία είναι συστηματικοί κίνδυνοι που οι πιο αποτελεσματικοί προμηθευτές της ΑΙ πρέπει να αξιολογήσουν και να μετριάσουν”, λέει η επιστολή. “Αυτό είναι επικίνδυνο, μη δημοκρατικό και δημιουργεί νομική αβεβαιότητα για να ξανασκεφτεί πλήρως και να περιορίσει το νομικό κείμενο με το οποίο οι κώδικες συμφωνήθηκαν μέσω του κώδικα πρακτικής”.
Αυτή η ιστορία παρουσιάστηκε αρχικά στο Fortune.com