Η Ευρώπη υποχωρεί: Έρχονται σημαντικές αλλαγές στο GDPR και τους κανόνες τεχνητής νοημοσύνης

Η Ευρώπη υποχωρεί στις αυστηρές ρυθμίσεις τεχνολογίας που επί χρόνια επέβαλε, καθώς οι Βρυξέλλες προτείνουν σημαντικές αλλαγές στο GDPR και στον νόμο για την τεχνητή νοημοσύνη.

Μετά από χρόνια αυστηρής ρύθμισης των μεγαλύτερων τεχνολογικών εταιρειών παγκοσμίως, η Ευρώπη κάνει ένα βήμα πίσω. Υπό έντονη πίεση από τη βιομηχανία και την κυβέρνηση των ΗΠΑ, οι Βρυξέλλες αφαιρούν ορισμένες προστασίες από τον Γενικό Κανονισμό Προστασίας Δεδομένων (GDPR) και χαλαρώνουν ή αναβάλλουν σημαντικούς κανόνες για την τεχνητή νοημοσύνη, σε μια προσπάθεια περιορισμού της γραφειοκρατίας και τόνωσης της οικονομικής ανάπτυξης.

Οι αλλαγές που προτείνει η Ευρωπαϊκή Επιτροπή, το εκτελεστικό όργανο της ΕΕ, τροποποιούν βασικά στοιχεία του GDPR, διευκολύνοντας τις εταιρείες να μοιράζονται ανωνυμοποιημένα και ψευδωνυμοποιημένα προσωπικά δεδομένα. Παράλληλα, θα επιτρέπουν στις εταιρείες τεχνητής νοημοσύνης να χρησιμοποιούν νόμιμα προσωπικά δεδομένα για την εκπαίδευση μοντέλων AI, υπό την προϋπόθεση ότι η εκπαίδευση συμμορφώνεται με τις λοιπές απαιτήσεις του GDPR.

Η πρόταση επίσης «χαλαρώνει» ένα κρίσιμο τμήμα του AI Act — της ευρωπαϊκής νομοθεσίας για την τεχνητή νοημοσύνη που τέθηκε σε ισχύ το 2024 αλλά περιλάμβανε πολλές διατάξεις με μεταγενέστερη εφαρμογή. Η αλλαγή επεκτείνει την περίοδο χάριτος για τους κανόνες που αφορούν τα συστήματα AI υψηλού κινδύνου, τα οποία θεωρείται ότι ενέχουν «σοβαρούς κινδύνους» για την υγεία, την ασφάλεια ή τα θεμελιώδη δικαιώματα. Οι συγκεκριμένοι κανόνες, που επρόκειτο να ισχύσουν το επόμενο καλοκαίρι, θα εφαρμόζονται πλέον μόνο όταν επιβεβαιωθεί ότι «τα απαραίτητα πρότυπα και εργαλεία υποστήριξης είναι διαθέσιμα» στις εταιρείες AI.

Μια αλλαγή που αναμένεται να ευχαριστήσει σχεδόν όλους είναι η μείωση των πανταχού παρόντων ευρωπαϊκών banner και αναδυόμενων παραθύρων cookies. Με τη νέα πρόταση, ορισμένα «χαμηλού κινδύνου» cookies δεν θα ενεργοποιούν πλέον pop-ups, ενώ οι χρήστες θα μπορούν να ελέγχουν άλλα κεντρικά μέσω του browser τους.

Άλλες τροποποιήσεις στο νέο Digital Omnibus περιλαμβάνουν απλοποιημένες απαιτήσεις τεκμηρίωσης AI για μικρότερες εταιρείες, μία ενοποιημένη διεπαφή για την αναφορά περιστατικών κυβερνοασφάλειας και τη συγκέντρωση της εποπτείας της τεχνητής νοημοσύνης στο AI Office της ΕΕ.

«Έχουμε όλα τα συστατικά για να πετύχουμε στην Ευρώπη. Όμως οι εταιρείες μας, ειδικά οι νεοφυείς και οι μικρές επιχειρήσεις, συχνά εμποδίζονται από στρώματα άκαμπτων κανόνων», δήλωσε η Henna Virkkunen, εκτελεστική αντιπρόεδρος για την τεχνολογική κυριαρχία της Ευρωπαϊκής Επιτροπής. «Μειώνοντας τη γραφειοκρατία, απλοποιώντας τους νόμους της ΕΕ, ανοίγοντας την πρόσβαση σε δεδομένα και εισάγοντας ένα κοινό ευρωπαϊκό Επιχειρηματικό Πορτοφόλι, δίνουμε τον χώρο ώστε η καινοτομία να συμβεί και να φτάσει στην αγορά — με τον ευρωπαϊκό τρόπο: διασφαλίζοντας ότι τα θεμελιώδη δικαιώματα των χρηστών παραμένουν πλήρως προστατευμένα».

Η πρόταση περνά τώρα στο Ευρωπαϊκό Κοινοβούλιο και τα 27 κράτη-μέλη, όπου θα χρειαστεί ειδική πλειοψηφία για να εγκριθεί — μια διαδικασία που μπορεί να διαρκέσει μήνες και ενδέχεται να επιφέρει σημαντικές αλλαγές. Αναμένεται πάντως να προκαλέσει αντιδράσεις στις Βρυξέλλες. Το GDPR θεωρείται ακρογωνιαίος λίθος της ευρωπαϊκής τεχνολογικής στρατηγικής και είναι, πολιτικά, όσο «ιερό» μπορεί να είναι ένας νόμος. Διαρροές σχεδίων έχουν ήδη προκαλέσει έντονες αντιδράσεις μεταξύ οργανώσεων πολιτικών δικαιωμάτων και πολιτικών, που κατηγορούν την Επιτροπή ότι υποχωρεί σε πιέσεις των μεγάλων εταιρειών τεχνολογίας και αποδυναμώνει κρίσιμες προστασίες.

Η απόφαση έρχεται μετά από μήνες έντονης πίεσης από μεγάλες τεχνολογικές εταιρείες και τον Donald Trump, καθώς και από εξέχουσες εσωτερικές προσωπικότητες όπως ο πρώην Ιταλός πρωθυπουργός και πρώην επικεφαλής της ΕΚΤ Mario Draghi, οι οποίοι έχουν καλέσει την ΕΕ να υιοθετήσει πιο ευέλικτη προσέγγιση στη ρύθμιση της τεχνολογίας. Η Επιτροπή, από την πλευρά της, προσπαθεί να παρουσιάσει τις αλλαγές ως «απλοποίηση» των τεχνολογικών κανόνων της ΕΕ — όχι ως αποδυνάμωσή τους. Με λίγες εξαιρέσεις, η Ευρώπη εξακολουθεί να στερείται ανταγωνιστών στον παγκόσμιο αγώνα της τεχνητής νοημοσύνης, που κυριαρχείται από αμερικανικές και κινεζικές εταιρείες όπως η DeepSeek, η Google και η OpenAI.

Πηγή/Αναδημοσίευση : insomnia.gr

Ευρωπαϊκή Ένωση: Συμφωνία με ολοκληρωμένους κανόνες για αξιόπιστη τεχνητή νοημοσύνη με πλαίσιο προστασίας και καινοτομία

Σε μια κίνηση ορόσημο που θα αποτελέσει τη βάση για το μέλλον της τεχνητής νοημοσύνης (ΤΝ) στην Ευρώπη, το Ευρωπαϊκό Κοινοβούλιο και το Συμβούλιο κατέληξαν -μετά από έντονες διαπραγματεύσεις- σε καταρχήν συμφωνία σχετικά με την πολυαναμενόμενη Πράξη για την τεχνητή νοημοσύνη (AI Act).

Η πρωτοποριακή αυτή νομοθεσία που είναι στα σκαριά από το 2021, έχει σχεδιαστεί για να δημιουργήσει ένα πλαίσιο που διασφαλίζει ότι τα συστήματα τεχνητής νοημοσύνης όπως τα ChatGPT, Midjourney, Bard κ.α, αναπτύσσονται και χρησιμοποιούνται με τρόπο ασφαλή και με σεβασμό των θεμελιωδών ανθρωπίνων δικαιωμάτων, ενώ παράλληλα ενθαρρύνει την καινοτομία και την ανάπτυξη στον τομέα.

Η συμφωνία σηματοδοτεί ένα σημαντικό βήμα προς την κατεύθυνση της θέσπισης νομικών ορίων για τις εφαρμογές τεχνητής νοημοσύνης, ιδίως εκείνων που έχουν προκαλέσει ανησυχίες σχετικά με το ενδεχόμενο να παραβιάζουν τα ατομικά δικαιώματα και τις αρχές της δημοκρατίας. Σε μια αποφασιστική στάση, η νομοθεσία απαγορεύει ευθέως ορισμένες χρήσεις της τεχνητής νοημοσύνης που θεωρούνται απαράδεκτοι κίνδυνοι για τις προσωπικές ελευθερίες. Αυτοί είναι σχεδόν ίδιοι με αυτούς που είχαν συμπεριληφθεί στο προσχέδιο κανόνων του AI Act τον περασμένο Ιούνιο και είναι οι εξής:

  • συστήματα βιομετρικής κατηγοριοποίησης που χρησιμοποιούν ευαίσθητα χαρακτηριστικά (π.χ. πολιτικές, θρησκευτικές, φιλοσοφικές πεποιθήσεις, σεξουαλικός προσανατολισμός, φυλή),
  • την προγνωστική αστυνόμευση,
  • τη μη στοχευμένη απόσπαση εικόνων προσώπου από το διαδίκτυο ή βίντεο από κάμερες κλειστού κυκλώματος παρακολούθησης για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου,
  • αναγνώριση συναισθημάτων στο χώρο εργασίας και σε εκπαιδευτικά ιδρύματα,
  • κοινωνική βαθμολόγηση βάσει κοινωνικής συμπεριφοράς ή προσωπικών χαρακτηριστικών,
  • συστήματα τεχνητής νοημοσύνης που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούλησή τους,
  • Τεχνητή νοημοσύνη που χρησιμοποιείται για την εκμετάλλευση των τρωτών σημείων των ανθρώπων (λόγω ηλικίας, αναπηρίας, κοινωνικής ή οικονομικής κατάστασης).

Ωστόσο, η νομοθεσία δεν στερείται εξαιρέσεων. Αναγνωρίζοντας τα δυνητικά οφέλη και τις ανάγκες της ΤΝ σε ορισμένα πλαίσια, η συμφωνία προβλέπει συγκεκριμένες εξαιρέσεις για τις υπηρεσίες επιβολής του νόμου. Οι υπηρεσίες αυτές μπορούν, υπό αυστηρές προϋποθέσεις και με την κατάλληλη δικαστική εποπτεία, να αναπτύσσουν συστήματα βιομετρικής ταυτοποίησης σε δημόσιους χώρους. Η παραχώρηση αυτή ρυθμίζεται αυστηρά ώστε να αποτραπεί η κατάχρηση και να διασφαλιστεί ότι τα ισχυρά αυτά εργαλεία χρησιμοποιούνται με υπευθυνότητα και μόνο όταν είναι απολύτως απαραίτητο. 

Για τα συστήματα ΤΝ που εμπίπτουν στην κατηγορία “υψηλού κινδύνου”, η νομοθεσία επιβάλλει μια σειρά αυστηρών υποχρεώσεων για τη διασφάλιση της αξιοπιστίας και της ασφάλειάς τους. Τα συστήματα αυτά, τα οποία θα μπορούσαν να επηρεάσουν σημαντικά τη ζωή των ανθρώπων, πρέπει να υποβάλλονται σε ενδελεχή αξιολόγηση των επιπτώσεων στα θεμελιώδη δικαιώματα πριν από την ανάπτυξή τους. Η διαδικασία αυτή αποσκοπεί στον εντοπισμό και τον μετριασμό τυχόν δυνητικών κινδύνων για τα ατομικά δικαιώματα. Επιπλέον, η νομοθεσία ενισχύει τους πολίτες, παρέχοντάς τους το δικαίωμα να υποβάλλουν καταγγελίες και να ζητούν εξηγήσεις για τις αποφάσεις που λαμβάνονται από τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου και τους επηρεάζουν. Η μη συμμόρφωση με τους κανόνες μπορεί να οδηγήσει σε τσουχτερά πρόστιμα που κυμαίνονται από 35 εκατομμύρια ευρώ ή 7% του παγκόσμιου κύκλου εργασιών έως 7,5 εκατομμύρια ευρώ, ή 1,5% του κύκλου εργασιών, ανάλογα με την παράβαση και το μέγεθος της εταιρείας.

Όπως αναφέρεται στην ανακοίνωση, η προσωρινή συμφωνία σχετικά με την Πράξη για την Τεχνητή Νοημοσύνη αποτελεί απόδειξη της δέσμευσης της Ευρώπης να «εξισορροπήσει τη ζυγαριά» μεταξύ της τεχνολογικής προόδου και της προστασίας των δικαιωμάτων των πολιτών της. Αντανακλά τη βαθιά κατανόηση της πολύπλοκης αλληλεπίδρασης μεταξύ καινοτομίας και ηθικής στην ψηφιακή εποχή. Καθώς οι λεπτομέρειες της νομοθεσίας βελτιώνονται και εφαρμόζονται, η Πράξη της Ε.Ε αναμένεται να επηρεάσει την παγκόσμια συζήτηση για την υπεύθυνη χρήση της τεχνητής νοημοσύνης και θα χρησιμεύσει ως πρότυπο για άλλες περιοχές που έχουν παρόμοιες προκλήσεις.

Οι επιπτώσεις της νομοθεσίας είναι εκτεταμένες, όχι μόνο για τους προγραμματιστές και τους χρήστες AI συστημάτων αλλά και για την κοινωνία στο σύνολό της. Το AI Act θα μπορούσε κάλλιστα να αποτελέσει ίσως το σημαντικότερο κομμάτι σ’ αυτό που πολλοί ονομάζουν “ψηφιακή ηθική”, δημιουργώντας προηγούμενο για τον τρόπο με τον οποίο θα πρέπει να διέπονται οι αναδυόμενες τεχνολογίες στον 21ο αιώνα.

Αν και το σχέδιο νόμου χρειάζεται ακόμη επίσημη έγκριση από τα κράτη μέλη της ΕΕ και το Ευρωπαϊκό Κοινοβούλιο, η σημερινή συμφωνία αποτελεί ίσως το καθοριστικότερο βήμα προς μία νομοθεσία ορόσημο για την τεχνητή νοημοσύνη. 

Πηγή/Αναδημοσίευση : insomnia.gr

Το Ευρωπαϊκό Κοινοβούλιο ψηφίζει το AI Act και θέτει κανόνες για την τεχνητή νοημοσύνη

Το παράδειγμα στον υπόλοιπο κόσμο -τουλάχιστον τον δυτικό- θέλει να δώσει η Ευρώπη, με το Ευρωπαϊκό Κοινοβούλιο να ψηφίζει σήμερα με ευρεία πλειοψηφία το προσχέδιο κανόνων για τη ρύθμιση της τεχνητής νοημοσύνης, γνωστή ως ΑΙ Act.

Η Ευρώπη αποτελεί την πρώτη ένωση κρατών (ή μεμονωμένο κράτος) που δημιουργεί κανόνες για την ανάπτυξη, λειτουργία και ενσωμάτωση συστημάτων τεχνητής νοημοσύνης σε επιχειρήσεις και στην κοινωνία. Και μάλιστα με μια αυξημένη ταχύτητα σε σχέση με προηγούμενες παρεμβάσεις της (π.χ. η περίπτωση του ενιαίου φορτιστή), κατανοώντας και την ταχύτητα εξέλιξης της ίδιας της τεχνολογίας.

Μετά τη σημερινή ψήφιση από το Ευρωπαϊκό Κοινοβούλιο, ανοίγει η διαδικασία του τριμερούς διαλόγου με το Συμβούλιο και την Επιτροπή, προκειμένου να καταλήξουν στην τελική συμφωνία για τη μορφή που θα έχει η νομοθεσία που θα υιοθετηθεί από τα κράτη-μέλη. Στόχος του Ευρωπαϊκού Κοινοβουλίου, όπως μας τονίστηκε από παράγοντες, αλλά και ευρωβουλευτές εδώ στο Στρασβούργο, είναι να έχουμε τελική συμφωνία πριν τις επόμενες Ευρωεκλογές, τον Ιούνιο του 2024. Επιπρόσθετα, όπως επισημάνθηκε, θα δοθεί και η συνήθης σε τέτοιες ρυθμίσεις, διορία δύο χρόνων για την υιοθέτηση της νομοθεσίας. Άρα, το 2026 θα έχουμε καλώς εχόντων των πραγμάτων την πλήρη εφαρμογή των νέων κανόνων.

Οι νέοι κανόνες θα χωρίζουν τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζουν υποχρεώσεις, για τους παρόχους αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες. Σύμφωνα με το προσχέδιο της νομοθεσίας, τα συστήματα τεχνητής νοημοσύνης που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια θα απαγορεύονται πλήρως, όπως σε περιπτώσεις «κοινωνικής βαθμολόγησης». Οι ευρωβουλευτές διεύρυναν την συγκεκριμένη κατηγορία, συμπεριλαμβάνοντας επίσης τις χρήσεις της τεχνολογίας αυτής που αποτελούν παραβιάσεις της ιδιωτικής ζωής ή οδηγούν σε διακρίσεις, όπως οι εξής

  • Εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο , σε δημόσιους χώρους
  • Eκ των υστέρων βιομετρική ταυτοποίηση, εκτός εάν υπάρχει νόμιμη άδεια από τις αρμόδιες αρχές και είναι απολύτως αναγκαία σε συνάρτηση με συγκεκριμένο σοβαρό ποινικό αδίκημα
  • Βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός)
  • Προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων)
  • Αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα
  • Μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων (κατά παράβαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).

Οι εταιρείες προγραμματισμού που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα «foundation models») θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της ΕΕ, πριν τις διαθέσουν στην ευρωπαϊκή αγορά.

Θα πρέπει να μεριμνούν ώστε όλες οι εφαρμογές παραγωγικής τεχνητής νοημοσύνης που στηρίζονται σε τέτοια μοντέλα, όπως το ChatGPT, να συμμορφώνονται με τις απαιτήσεις διαφάνειας της ΕΕ (γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για την δημιουργία ενός προϊόντος τεχνητής νοημοσύνης, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων, ενώ θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την «εκπαίδευση» των συστημάτων τους.

Προκειμένου να ενθαρρύνουν την καινοτομία και να στηρίξουν τις μικρομεσαίες επιχειρήσεις, οι ευρωβουλευτές προτείνουν να εξαιρούνται από αυτές τις υποχρεώσεις οι ερευνητικές δραστηριότητες και τα λογισμικά τεχνητής νοημοσύνης που παρέχονται βάσει αδειών ανοικτού κώδικα.

Η νέα νομοθεσία καλεί να δημιουργηθούν επίσης ορισμένα «ρυθμιστικά δοκιμαστήρια», όπως αποκαλούνται, τα οποία θα θεσπίζονται από τις δημόσιες αρχές της κάθε χώρας για να δοκιμάζονται σε πραγματικές συνθήκες όλες οι εφαρμογές τεχνητής νοημοσύνης, πριν διατεθούν προς χρήση του κοινού.

Πηγή/Αναδημοσίευση : insomnia.gr

We use cookies to personalise content and ads, to provide social media features and to analyse our traffic. We also share information about your use of our site with our social media, advertising and analytics partners. View more
Cookies settings
Accept
Decline
Privacy & Cookie policy
Privacy & Cookies policy
Cookie name Active

Who we are

Our website address is: https://www.theinternetworld.org.

Comments

When visitors leave comments on the site we collect the data shown in the comments form, and also the visitor’s IP address and browser user agent string to help spam detection. An anonymized string created from your email address (also called a hash) may be provided to the Gravatar service to see if you are using it. The Gravatar service privacy policy is available here: https://automattic.com/privacy/. After approval of your comment, your profile picture is visible to the public in the context of your comment.

Media

If you upload images to the website, you should avoid uploading images with embedded location data (EXIF GPS) included. Visitors to the website can download and extract any location data from images on the website.

Cookies

If you leave a comment on our site you may opt-in to saving your name, email address and website in cookies. These are for your convenience so that you do not have to fill in your details again when you leave another comment. These cookies will last for one year. If you visit our login page, we will set a temporary cookie to determine if your browser accepts cookies. This cookie contains no personal data and is discarded when you close your browser. When you log in, we will also set up several cookies to save your login information and your screen display choices. Login cookies last for two days, and screen options cookies last for a year. If you select "Remember Me", your login will persist for two weeks. If you log out of your account, the login cookies will be removed. If you edit or publish an article, an additional cookie will be saved in your browser. This cookie includes no personal data and simply indicates the post ID of the article you just edited. It expires after 1 day.

Embedded content from other websites

Articles on this site may include embedded content (e.g. videos, images, articles, etc.). Embedded content from other websites behaves in the exact same way as if the visitor has visited the other website. These websites may collect data about you, use cookies, embed additional third-party tracking, and monitor your interaction with that embedded content, including tracking your interaction with the embedded content if you have an account and are logged in to that website.

Who we share your data with

If you request a password reset, your IP address will be included in the reset email.

How long we retain your data

If you leave a comment, the comment and its metadata are retained indefinitely. This is so we can recognize and approve any follow-up comments automatically instead of holding them in a moderation queue. For users that register on our website (if any), we also store the personal information they provide in their user profile. All users can see, edit, or delete their personal information at any time (except they cannot change their username). Website administrators can also see and edit that information.

What rights you have over your data

If you have an account on this site, or have left comments, you can request to receive an exported file of the personal data we hold about you, including any data you have provided to us. You can also request that we erase any personal data we hold about you. This does not include any data we are obliged to keep for administrative, legal, or security purposes.

Where your data is sent

Visitor comments may be checked through an automated spam detection service.
Save settings
Cookies settings