Η Ευρώπη υποχωρεί στις αυστηρές ρυθμίσεις τεχνολογίας που επί χρόνια επέβαλε, καθώς οι Βρυξέλλες προτείνουν σημαντικές αλλαγές στο GDPR και στον νόμο για την τεχνητή νοημοσύνη.
Μετά από χρόνια αυστηρής ρύθμισης των μεγαλύτερων τεχνολογικών εταιρειών παγκοσμίως, η Ευρώπη κάνει ένα βήμα πίσω. Υπό έντονη πίεση από τη βιομηχανία και την κυβέρνηση των ΗΠΑ, οι Βρυξέλλες αφαιρούν ορισμένες προστασίες από τον Γενικό Κανονισμό Προστασίας Δεδομένων (GDPR) και χαλαρώνουν ή αναβάλλουν σημαντικούς κανόνες για την τεχνητή νοημοσύνη, σε μια προσπάθεια περιορισμού της γραφειοκρατίας και τόνωσης της οικονομικής ανάπτυξης.
Οι αλλαγές που προτείνει η Ευρωπαϊκή Επιτροπή, το εκτελεστικό όργανο της ΕΕ, τροποποιούν βασικά στοιχεία του GDPR, διευκολύνοντας τις εταιρείες να μοιράζονται ανωνυμοποιημένα και ψευδωνυμοποιημένα προσωπικά δεδομένα. Παράλληλα, θα επιτρέπουν στις εταιρείες τεχνητής νοημοσύνης να χρησιμοποιούν νόμιμα προσωπικά δεδομένα για την εκπαίδευση μοντέλων AI, υπό την προϋπόθεση ότι η εκπαίδευση συμμορφώνεται με τις λοιπές απαιτήσεις του GDPR.
Η πρόταση επίσης «χαλαρώνει» ένα κρίσιμο τμήμα του AI Act — της ευρωπαϊκής νομοθεσίας για την τεχνητή νοημοσύνη που τέθηκε σε ισχύ το 2024 αλλά περιλάμβανε πολλές διατάξεις με μεταγενέστερη εφαρμογή. Η αλλαγή επεκτείνει την περίοδο χάριτος για τους κανόνες που αφορούν τα συστήματα AI υψηλού κινδύνου, τα οποία θεωρείται ότι ενέχουν «σοβαρούς κινδύνους» για την υγεία, την ασφάλεια ή τα θεμελιώδη δικαιώματα. Οι συγκεκριμένοι κανόνες, που επρόκειτο να ισχύσουν το επόμενο καλοκαίρι, θα εφαρμόζονται πλέον μόνο όταν επιβεβαιωθεί ότι «τα απαραίτητα πρότυπα και εργαλεία υποστήριξης είναι διαθέσιμα» στις εταιρείες AI.
Μια αλλαγή που αναμένεται να ευχαριστήσει σχεδόν όλους είναι η μείωση των πανταχού παρόντων ευρωπαϊκών banner και αναδυόμενων παραθύρων cookies. Με τη νέα πρόταση, ορισμένα «χαμηλού κινδύνου» cookies δεν θα ενεργοποιούν πλέον pop-ups, ενώ οι χρήστες θα μπορούν να ελέγχουν άλλα κεντρικά μέσω του browser τους.
Άλλες τροποποιήσεις στο νέο Digital Omnibus περιλαμβάνουν απλοποιημένες απαιτήσεις τεκμηρίωσης AI για μικρότερες εταιρείες, μία ενοποιημένη διεπαφή για την αναφορά περιστατικών κυβερνοασφάλειας και τη συγκέντρωση της εποπτείας της τεχνητής νοημοσύνης στο AI Office της ΕΕ.
«Έχουμε όλα τα συστατικά για να πετύχουμε στην Ευρώπη. Όμως οι εταιρείες μας, ειδικά οι νεοφυείς και οι μικρές επιχειρήσεις, συχνά εμποδίζονται από στρώματα άκαμπτων κανόνων», δήλωσε η Henna Virkkunen, εκτελεστική αντιπρόεδρος για την τεχνολογική κυριαρχία της Ευρωπαϊκής Επιτροπής. «Μειώνοντας τη γραφειοκρατία, απλοποιώντας τους νόμους της ΕΕ, ανοίγοντας την πρόσβαση σε δεδομένα και εισάγοντας ένα κοινό ευρωπαϊκό Επιχειρηματικό Πορτοφόλι, δίνουμε τον χώρο ώστε η καινοτομία να συμβεί και να φτάσει στην αγορά — με τον ευρωπαϊκό τρόπο: διασφαλίζοντας ότι τα θεμελιώδη δικαιώματα των χρηστών παραμένουν πλήρως προστατευμένα».
Η πρόταση περνά τώρα στο Ευρωπαϊκό Κοινοβούλιο και τα 27 κράτη-μέλη, όπου θα χρειαστεί ειδική πλειοψηφία για να εγκριθεί — μια διαδικασία που μπορεί να διαρκέσει μήνες και ενδέχεται να επιφέρει σημαντικές αλλαγές. Αναμένεται πάντως να προκαλέσει αντιδράσεις στις Βρυξέλλες. Το GDPR θεωρείται ακρογωνιαίος λίθος της ευρωπαϊκής τεχνολογικής στρατηγικής και είναι, πολιτικά, όσο «ιερό» μπορεί να είναι ένας νόμος. Διαρροές σχεδίων έχουν ήδη προκαλέσει έντονες αντιδράσεις μεταξύ οργανώσεων πολιτικών δικαιωμάτων και πολιτικών, που κατηγορούν την Επιτροπή ότι υποχωρεί σε πιέσεις των μεγάλων εταιρειών τεχνολογίας και αποδυναμώνει κρίσιμες προστασίες.
Η απόφαση έρχεται μετά από μήνες έντονης πίεσης από μεγάλες τεχνολογικές εταιρείες και τον Donald Trump, καθώς και από εξέχουσες εσωτερικές προσωπικότητες όπως ο πρώην Ιταλός πρωθυπουργός και πρώην επικεφαλής της ΕΚΤ Mario Draghi, οι οποίοι έχουν καλέσει την ΕΕ να υιοθετήσει πιο ευέλικτη προσέγγιση στη ρύθμιση της τεχνολογίας. Η Επιτροπή, από την πλευρά της, προσπαθεί να παρουσιάσει τις αλλαγές ως «απλοποίηση» των τεχνολογικών κανόνων της ΕΕ — όχι ως αποδυνάμωσή τους. Με λίγες εξαιρέσεις, η Ευρώπη εξακολουθεί να στερείται ανταγωνιστών στον παγκόσμιο αγώνα της τεχνητής νοημοσύνης, που κυριαρχείται από αμερικανικές και κινεζικές εταιρείες όπως η DeepSeek, η Google και η OpenAI.
Πηγή/Αναδημοσίευση : insomnia.gr
Ευρωπαϊκή Ένωση: Συμφωνία με ολοκληρωμένους κανόνες για αξιόπιστη τεχνητή νοημοσύνη με πλαίσιο προστασίας και καινοτομία
Σε μια κίνηση ορόσημο που θα αποτελέσει τη βάση για το μέλλον της τεχνητής νοημοσύνης (ΤΝ) στην Ευρώπη, το Ευρωπαϊκό Κοινοβούλιο και το Συμβούλιο κατέληξαν -μετά από έντονες διαπραγματεύσεις- σε καταρχήν συμφωνία σχετικά με την πολυαναμενόμενη Πράξη για την τεχνητή νοημοσύνη (AI Act).
Η πρωτοποριακή αυτή νομοθεσία που είναι στα σκαριά από το 2021, έχει σχεδιαστεί για να δημιουργήσει ένα πλαίσιο που διασφαλίζει ότι τα συστήματα τεχνητής νοημοσύνης όπως τα ChatGPT, Midjourney, Bard κ.α, αναπτύσσονται και χρησιμοποιούνται με τρόπο ασφαλή και με σεβασμό των θεμελιωδών ανθρωπίνων δικαιωμάτων, ενώ παράλληλα ενθαρρύνει την καινοτομία και την ανάπτυξη στον τομέα.
Η συμφωνία σηματοδοτεί ένα σημαντικό βήμα προς την κατεύθυνση της θέσπισης νομικών ορίων για τις εφαρμογές τεχνητής νοημοσύνης, ιδίως εκείνων που έχουν προκαλέσει ανησυχίες σχετικά με το ενδεχόμενο να παραβιάζουν τα ατομικά δικαιώματα και τις αρχές της δημοκρατίας. Σε μια αποφασιστική στάση, η νομοθεσία απαγορεύει ευθέως ορισμένες χρήσεις της τεχνητής νοημοσύνης που θεωρούνται απαράδεκτοι κίνδυνοι για τις προσωπικές ελευθερίες. Αυτοί είναι σχεδόν ίδιοι με αυτούς που είχαν συμπεριληφθεί στο προσχέδιο κανόνων του AI Act τον περασμένο Ιούνιο και είναι οι εξής:
- συστήματα βιομετρικής κατηγοριοποίησης που χρησιμοποιούν ευαίσθητα χαρακτηριστικά (π.χ. πολιτικές, θρησκευτικές, φιλοσοφικές πεποιθήσεις, σεξουαλικός προσανατολισμός, φυλή),
- την προγνωστική αστυνόμευση,
- τη μη στοχευμένη απόσπαση εικόνων προσώπου από το διαδίκτυο ή βίντεο από κάμερες κλειστού κυκλώματος παρακολούθησης για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου,
- αναγνώριση συναισθημάτων στο χώρο εργασίας και σε εκπαιδευτικά ιδρύματα,
- κοινωνική βαθμολόγηση βάσει κοινωνικής συμπεριφοράς ή προσωπικών χαρακτηριστικών,
- συστήματα τεχνητής νοημοσύνης που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούλησή τους,
- Τεχνητή νοημοσύνη που χρησιμοποιείται για την εκμετάλλευση των τρωτών σημείων των ανθρώπων (λόγω ηλικίας, αναπηρίας, κοινωνικής ή οικονομικής κατάστασης).
Ωστόσο, η νομοθεσία δεν στερείται εξαιρέσεων. Αναγνωρίζοντας τα δυνητικά οφέλη και τις ανάγκες της ΤΝ σε ορισμένα πλαίσια, η συμφωνία προβλέπει συγκεκριμένες εξαιρέσεις για τις υπηρεσίες επιβολής του νόμου. Οι υπηρεσίες αυτές μπορούν, υπό αυστηρές προϋποθέσεις και με την κατάλληλη δικαστική εποπτεία, να αναπτύσσουν συστήματα βιομετρικής ταυτοποίησης σε δημόσιους χώρους. Η παραχώρηση αυτή ρυθμίζεται αυστηρά ώστε να αποτραπεί η κατάχρηση και να διασφαλιστεί ότι τα ισχυρά αυτά εργαλεία χρησιμοποιούνται με υπευθυνότητα και μόνο όταν είναι απολύτως απαραίτητο.
Για τα συστήματα ΤΝ που εμπίπτουν στην κατηγορία “υψηλού κινδύνου”, η νομοθεσία επιβάλλει μια σειρά αυστηρών υποχρεώσεων για τη διασφάλιση της αξιοπιστίας και της ασφάλειάς τους. Τα συστήματα αυτά, τα οποία θα μπορούσαν να επηρεάσουν σημαντικά τη ζωή των ανθρώπων, πρέπει να υποβάλλονται σε ενδελεχή αξιολόγηση των επιπτώσεων στα θεμελιώδη δικαιώματα πριν από την ανάπτυξή τους. Η διαδικασία αυτή αποσκοπεί στον εντοπισμό και τον μετριασμό τυχόν δυνητικών κινδύνων για τα ατομικά δικαιώματα. Επιπλέον, η νομοθεσία ενισχύει τους πολίτες, παρέχοντάς τους το δικαίωμα να υποβάλλουν καταγγελίες και να ζητούν εξηγήσεις για τις αποφάσεις που λαμβάνονται από τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου και τους επηρεάζουν. Η μη συμμόρφωση με τους κανόνες μπορεί να οδηγήσει σε τσουχτερά πρόστιμα που κυμαίνονται από 35 εκατομμύρια ευρώ ή 7% του παγκόσμιου κύκλου εργασιών έως 7,5 εκατομμύρια ευρώ, ή 1,5% του κύκλου εργασιών, ανάλογα με την παράβαση και το μέγεθος της εταιρείας.
Όπως αναφέρεται στην ανακοίνωση, η προσωρινή συμφωνία σχετικά με την Πράξη για την Τεχνητή Νοημοσύνη αποτελεί απόδειξη της δέσμευσης της Ευρώπης να «εξισορροπήσει τη ζυγαριά» μεταξύ της τεχνολογικής προόδου και της προστασίας των δικαιωμάτων των πολιτών της. Αντανακλά τη βαθιά κατανόηση της πολύπλοκης αλληλεπίδρασης μεταξύ καινοτομίας και ηθικής στην ψηφιακή εποχή. Καθώς οι λεπτομέρειες της νομοθεσίας βελτιώνονται και εφαρμόζονται, η Πράξη της Ε.Ε αναμένεται να επηρεάσει την παγκόσμια συζήτηση για την υπεύθυνη χρήση της τεχνητής νοημοσύνης και θα χρησιμεύσει ως πρότυπο για άλλες περιοχές που έχουν παρόμοιες προκλήσεις.
Οι επιπτώσεις της νομοθεσίας είναι εκτεταμένες, όχι μόνο για τους προγραμματιστές και τους χρήστες AI συστημάτων αλλά και για την κοινωνία στο σύνολό της. Το AI Act θα μπορούσε κάλλιστα να αποτελέσει ίσως το σημαντικότερο κομμάτι σ’ αυτό που πολλοί ονομάζουν “ψηφιακή ηθική”, δημιουργώντας προηγούμενο για τον τρόπο με τον οποίο θα πρέπει να διέπονται οι αναδυόμενες τεχνολογίες στον 21ο αιώνα.
Αν και το σχέδιο νόμου χρειάζεται ακόμη επίσημη έγκριση από τα κράτη μέλη της ΕΕ και το Ευρωπαϊκό Κοινοβούλιο, η σημερινή συμφωνία αποτελεί ίσως το καθοριστικότερο βήμα προς μία νομοθεσία ορόσημο για την τεχνητή νοημοσύνη.
Πηγή/Αναδημοσίευση : insomnia.gr
Το Ευρωπαϊκό Κοινοβούλιο ψηφίζει το AI Act και θέτει κανόνες για την τεχνητή νοημοσύνη
Το παράδειγμα στον υπόλοιπο κόσμο -τουλάχιστον τον δυτικό- θέλει να δώσει η Ευρώπη, με το Ευρωπαϊκό Κοινοβούλιο να ψηφίζει σήμερα με ευρεία πλειοψηφία το προσχέδιο κανόνων για τη ρύθμιση της τεχνητής νοημοσύνης, γνωστή ως ΑΙ Act.
Η Ευρώπη αποτελεί την πρώτη ένωση κρατών (ή μεμονωμένο κράτος) που δημιουργεί κανόνες για την ανάπτυξη, λειτουργία και ενσωμάτωση συστημάτων τεχνητής νοημοσύνης σε επιχειρήσεις και στην κοινωνία. Και μάλιστα με μια αυξημένη ταχύτητα σε σχέση με προηγούμενες παρεμβάσεις της (π.χ. η περίπτωση του ενιαίου φορτιστή), κατανοώντας και την ταχύτητα εξέλιξης της ίδιας της τεχνολογίας.
Μετά τη σημερινή ψήφιση από το Ευρωπαϊκό Κοινοβούλιο, ανοίγει η διαδικασία του τριμερούς διαλόγου με το Συμβούλιο και την Επιτροπή, προκειμένου να καταλήξουν στην τελική συμφωνία για τη μορφή που θα έχει η νομοθεσία που θα υιοθετηθεί από τα κράτη-μέλη. Στόχος του Ευρωπαϊκού Κοινοβουλίου, όπως μας τονίστηκε από παράγοντες, αλλά και ευρωβουλευτές εδώ στο Στρασβούργο, είναι να έχουμε τελική συμφωνία πριν τις επόμενες Ευρωεκλογές, τον Ιούνιο του 2024. Επιπρόσθετα, όπως επισημάνθηκε, θα δοθεί και η συνήθης σε τέτοιες ρυθμίσεις, διορία δύο χρόνων για την υιοθέτηση της νομοθεσίας. Άρα, το 2026 θα έχουμε καλώς εχόντων των πραγμάτων την πλήρη εφαρμογή των νέων κανόνων.
Οι νέοι κανόνες θα χωρίζουν τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζουν υποχρεώσεις, για τους παρόχους αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες. Σύμφωνα με το προσχέδιο της νομοθεσίας, τα συστήματα τεχνητής νοημοσύνης που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια θα απαγορεύονται πλήρως, όπως σε περιπτώσεις «κοινωνικής βαθμολόγησης». Οι ευρωβουλευτές διεύρυναν την συγκεκριμένη κατηγορία, συμπεριλαμβάνοντας επίσης τις χρήσεις της τεχνολογίας αυτής που αποτελούν παραβιάσεις της ιδιωτικής ζωής ή οδηγούν σε διακρίσεις, όπως οι εξής
- Εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο , σε δημόσιους χώρους
- Eκ των υστέρων βιομετρική ταυτοποίηση, εκτός εάν υπάρχει νόμιμη άδεια από τις αρμόδιες αρχές και είναι απολύτως αναγκαία σε συνάρτηση με συγκεκριμένο σοβαρό ποινικό αδίκημα
- Βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός)
- Προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων)
- Αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα
- Μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων (κατά παράβαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).
Οι εταιρείες προγραμματισμού που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα «foundation models») θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της ΕΕ, πριν τις διαθέσουν στην ευρωπαϊκή αγορά.
Θα πρέπει να μεριμνούν ώστε όλες οι εφαρμογές παραγωγικής τεχνητής νοημοσύνης που στηρίζονται σε τέτοια μοντέλα, όπως το ChatGPT, να συμμορφώνονται με τις απαιτήσεις διαφάνειας της ΕΕ (γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για την δημιουργία ενός προϊόντος τεχνητής νοημοσύνης, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων, ενώ θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την «εκπαίδευση» των συστημάτων τους.
Προκειμένου να ενθαρρύνουν την καινοτομία και να στηρίξουν τις μικρομεσαίες επιχειρήσεις, οι ευρωβουλευτές προτείνουν να εξαιρούνται από αυτές τις υποχρεώσεις οι ερευνητικές δραστηριότητες και τα λογισμικά τεχνητής νοημοσύνης που παρέχονται βάσει αδειών ανοικτού κώδικα.
Η νέα νομοθεσία καλεί να δημιουργηθούν επίσης ορισμένα «ρυθμιστικά δοκιμαστήρια», όπως αποκαλούνται, τα οποία θα θεσπίζονται από τις δημόσιες αρχές της κάθε χώρας για να δοκιμάζονται σε πραγματικές συνθήκες όλες οι εφαρμογές τεχνητής νοημοσύνης, πριν διατεθούν προς χρήση του κοινού.
Πηγή/Αναδημοσίευση : insomnia.gr
