Κοινή δήλωση 18 οργανώσεων σχετικά με τη Λευκή Βίβλο της ΕΕ με θέμα "Πώς να αντιμετωπιστούν οι ανάγκες της Ευρώπης σε ψηφιακές υποδομές"
Η Homo Digitalis ενώνει τη φωνή της με την epicenter.works και άλλες 16 οργανώσεις, υποστηρίζοντας ένα ανοιχτό διαδίκτυο και μια ανταγωνιστική αγορά τηλεπικοινωνιών στην Ευρωπαϊκή Ένωση!
Με τη κοινή μας δήλωσή εκφράζουμε τις ανησυχίες και τις παρατηρήσεις μας σχετικά με τις τρέχουσες συζητήσεις για το μέλλον του ρυθμιστικού πλαισίου του τομέα των τηλεπικοινωνιών της ΕΕ. Μετά τη δημοσίευση της Λευκής Βίβλου της Ευρωπαϊκής Επιτροπής με θέμα “Πώς να κυριαρχήσουν οι ανάγκες της Ευρώπης σε ψηφιακές υποδομές” (η “Λευκή Βίβλος”) και ενόψει του επικείμενου Συμβουλίου Τηλεπικοινωνιών της 21ης Μαΐου 2024, καλούμε τα κράτη μέλη της ΕΕ να υιοθετήσουν μια προσέγγιση που θα ενισχύει τον ανταγωνισμό των εταιριών και θα έχει στο κέντρο της προσοχής της τον καταναλωτή, και εκφράζουμε την έντονη διαφωνία μας για οποιεσδήποτε προτάσεις για πρόωρες και αδικαιολόγητες αλλαγές στο ρυθμιστικό πλαίσιο της ΕΕ στον τομέα των τηλεπικοινωνιών.
Ανησυχούμε ιδιαίτερα για το γεγονός ότι η Λευκή Βίβλος της Ευρωπαϊκής Επιτροπής, κάνει αναφορά σε προτεινόμενα μέτρα που θα οδηγούσαν σε μείωση του ανταγωνισμού και θα περιόριζαν τη διαθεσιμότητα προσιτών επιλογών για τους ευρωπαίους καταναλωτές και τις επιχειρήσεις.
Ως εκ τούτου, εκφράζουμε τη λύπη μας για τις εκτιμήσεις της Ευρωπαϊκής Επιτροπής στη Λευκή Βίβλο και σε διάφορες δημόσιες δηλώσεις μετά τη δημοσίευσή της.
Καλούμε τους υπουργούς της ΕΕ να υιοθετήσουν μια προσέγγιση υπέρ του ανταγωνισμού, της θετικής καινοτομίας και με επίκεντρο τον καταναλωτή, αντιτιθέμενοι σθεναρά σε κάθε σενάριο πολιτικής που μπορεί να οδηγήσει σε νομική αβεβαιότητα και επιζήμιες συνέπειες για τους Ευρωπαίους καταναλωτές, τις επιχειρήσεις και το ανοικτό διαδίκτυο.
Μπορείτε να διαβάσετε την κοινή μας δήλωση εδώ.
Η νέα Πράξη για την Τεχνητή Νοημοσύνη: οι απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης
Γράφει η Κατερίνα Μεζίνη*
Τα συστήματα τεχνητής νοημοσύνης («συστήματα ΤΝ») μπορούν εύκολα να χρησιμοποιηθούν σε πολλούς τομείς της οικονομίας και της κοινωνίας, μεταξύ άλλων και σε διασυνοριακό επίπεδο, και να κυκλοφορούν σε ολόκληρη την Ένωση. Η Τεχνητή Νοημοσύνη αποτελεί μία διαρκώς εξελισσόμενη τεχνολογία που μπορεί να αποφέρει πολλά κοινωνικά και οικονομικά οφέλη. Παράλληλα όμως, ανάλογα με τον τρόπο και τον σκοπό για τον οποίον χρησιμοποιείται μπορεί να χρησιμοποιηθεί καταχρηστικά, να δημιουργήσει κινδύνους και να παραβιάσει τα προστατευόμενα ατομικά δικαιώματα. Για παράδειγμα, η ΤΝ μπορεί να χρησιμοποιηθεί- και έχει χρησιμοποιηθεί- προκειμένου να εντείνει τη διαρκή παρακολούθηση των πολιτών, την καταστολή, τον κοινωνικό έλεγχο, τη χειραγώγηση, τη λογοκρισία και την εκμετάλλευση ανθρώπου από άνθρωπο παραβιάζοντας με αυτό τον τρόπο θεμελιώδη δικαιώματα των πολιτών όπως την ανθρώπινη αξιοπρέπεια, την προστασία της ιδιωτικής ζωής, των προσωπικών δεδομένων και την ελευθερία της έκφρασης.
Ως μέρος της ψηφιακής στρατηγικής της, η ΕΕ θέλησε να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της τεχνολογίας. Τον Απρίλιο του 2021, η Ευρωπαϊκή Επιτροπή υπέβαλε Πρόταση Κανονισμού για την τεχνητή νοημοσύνη. Στις 9 Δεκεμβρίου 2023, το Κοινοβούλιο κατέληξε σε προσωρινή συμφωνία με το Συμβούλιο σχετικά με την πράξη Τεχνητής Νοημοσύνης. Το συμφωνηθέν κείμενο θα πρέπει τώρα να εγκριθεί επίσημα τόσο από το Κοινοβούλιο όσο και από το Συμβούλιο για να γίνει δίκαιο της ΕΕ.
Σύμφωνα με τον ορισμό που περιλαμβάνει στο κείμενο της πρότασης ως Σύστημα Τεχνητής Νοημοσύνης ορίζεται: «το λογισμικό που αναπτύσσεται με μία ή περισσότερες από τις τεχνικές και προσεγγίσεις που παρατίθενται στο παράρτημα I και μπορεί, για ένα δεδομένο σύνολο στόχων που έχουν καθοριστεί από τον άνθρωπο, να παράγει στοιχεία εξόδου όπως περιεχόμενο, προβλέψεις, συστάσεις ή αποφάσεις που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλεπιδρά».
Η ΕΕ επέλεξε να ρυθμίσει τα ζητήματα με μορφή Κανονισμού προκειμένου οι κανόνες του να έχουν άμεση ισχύ σε όλα τα κράτη-μέλη, συνεπής προς το στόχο της δημιουργίας «ενιαίας ψηφιακής αγοράς». Ο Κανονισμός περιλαμβάνει εν ολίγοις κανόνες που ρυθμίζουν τη διάθεση στην αγορά και τη θέση σε λειτουργία ορισμένων συστημάτων ΤΝ. Ο Κανονισμός ακολουθεί μία προσέγγιση «βάσει κινδύνου». Μέσω αυτής της προσέγγισης, το είδος και το περιεχόμενο των εν λόγω κανόνων αναμένεται να προσαρμοστούν στην ένταση και την έκταση των κινδύνων που μπορούν να δημιουργήσουν τα εκάστοτε συστήματα ΤΝ.
Η Ευρωπαϊκή Επιτροπή, μέσω της πρότασης Κανονισμού και σε σχέση με τις πρακτικές ΤΝ, διακρίνει τέσσερα διαφορετικά επίπεδα κινδύνου και ειδικότερα τον i) μη αποδεκτό κίνδυνο, ii) τον υψηλό κίνδυνο, iii) τον περιορισμένο κίνδυνο και iv) τον ελάχιστο κίνδυνο. Τα συστήματα ΤΝ που εντάσσονται στην κατηγορία μη αποδεκτού κινδύνου απαγορεύονται πλήρως, τα συστήματα υψηλού κινδύνου πρέπει να συμμορφώνονται με ειδικές απαιτήσεις ενώ τα συστήματα περιορισμένου ή χαμηλού κινδύνου πρέπει να συμμορφώνονται με λιγότερες ή καθόλου απαιτήσεις.
Το άρθρο 5 (τίτλος ΙΙ) καθορίζει τις «απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης», δηλαδή περιλαμβάνει όλα τα συστήματα ΤΝ των οποίων η χρήση θεωρείται μη αποδεκτή διότι αντιβαίνει στις αξίες της Ένωσης, για παράδειγμα παραβιάζοντας θεμελιώδη δικαιώματα. Σύμφωνα λοιπόν με το άρθρο 5 απαγορεύονται οι ακόλουθες πρακτικές στον τομέα της τεχνητής νοημοσύνης:
- Η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση συστημάτων ΤΝ που αποσκοπούν στη στρέβλωση της ανθρώπινης συμπεριφοράς, με την οποία είναι πιθανόν να προκληθούν σωματικές ή ψυχολογικές βλάβες. Αυτά τα συστήματα ΤΝ χρησιμοποιούν κατασκευαστικά στοιχεία που απευθύνονται στο υποσυνείδητο και τα οποία τα άτομα δεν μπορούν να αντιληφθούν, ή εκμεταλλεύονται ευάλωτα χαρακτηριστικά παιδιών και ανθρώπων λόγω της ηλικίας τους ή λόγω της σωματικής ή της διανοητικής αναπηρίας τους.
- Η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση ορισμένων συστημάτων ΤΝ που παρέχουν κοινωνική βαθμολόγηση των φυσικών προσώπων για γενική χρήση από τις δημόσιες αρχές ή για λογαριασμό τους. Τα συστήματα αυτά μπορεί να οδηγήσουν σε διακρίσεις και στον αποκλεισμό ορισμένων ομάδων. Αυτά τα συστήματα αξιολογούν ή ταξινομούν την αξιοπιστία των φυσικών προσώπων με βάση την κοινωνική τους συμπεριφορά ή με βάση τα γνωστά ή προβλεπόμενα προσωπικά χαρακτηριστικά τους ή χαρακτηριστικά της προσωπικότητάς τους.
- Η χρήση συστημάτων ΤΝ για την εξ αποστάσεως βιομετρική ταυτοποίηση φυσικών προσώπων σε «πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου. Ο Κανονισμός προβλέπει εξαίρεση σε τρεις εξαντλητικά απαριθμούμενες και αυστηρά καθορισμένες περιπτώσεις: σε περίπτωση αναζήτησης δυνητικών θυμάτων εγκληματικών πράξεων, συμπεριλαμβανομένων των αγνοούμενων παιδιών, σε ορισμένες απειλές κατά της ζωής ή της σωματικής ακεραιότητας φυσικών προσώπων ή απειλές τρομοκρατικής επίθεσης και στον εντοπισμό, την ταυτοποίηση ή τη δίωξη δραστών ή υπόπτων για τα ποινικά αδικήματα που αναφέρονται στην απόφαση-πλαίσιο 2002/584/ΔΕΥ του Συμβουλίου, εφόσον τα εν λόγω ποινικά αδικήματα τιμωρούνται στο οικείο κράτος μέλος με στερητική της ελευθερίας ποινή ή στερητικό της ελευθερίας μέτρο ασφάλειας ανώτατης διάρκειας τουλάχιστον τριών ετών και όπως ορίζονται στο δίκαιο του εν λόγω κράτους μέλους.
Επισημαίνεται ότι κάθε χρήση συστήματος εξ αποστάσεως βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου θα πρέπει να υπόκειται σε ρητή και ειδική άδεια που χορηγείται από δικαστική αρχή ή από ανεξάρτητη διοικητική αρχή κράτους μέλους. Επιπρόσθετα, ο Κανονισμός ορίζει ότι η εν λόγω χρήση στην επικράτεια κράτους μέλους θα πρέπει να είναι δυνατή μόνο εφόσον το εν λόγω κράτος μέλος έχει αποφασίσει να προβλέψει ρητά τη δυνατότητα να επιτρέπεται η χρήση αυτή στο πλαίσιο των ειδικότερων κανόνων του εθνικού του δικαίου. Συνεπώς, τα κράτη μέλη έχουν την ευχέρεια να μην προβλέψουν καθόλου αυτή τη δυνατότητα.
Οι παραπάνω πρακτικές είναι ιδιαίτερα επιβλαβείς και απαγορεύτηκαν διότι έρχονται σε αντίθεση με τις ενωσιακές αξίες του σεβασμού της ανθρώπινης αξιοπρέπειας, της ελευθερίας, της ισότητας, της δημοκρατίας και του κράτους δικαίου, καθώς και με τα θεμελιώδη δικαιώματα της Ένωσης, συμπεριλαμβανομένου του δικαιώματος στη μη διακριτική μεταχείριση, στην προστασία των δεδομένων και της ιδιωτικότητας, καθώς και στα δικαιώματα του παιδιού.
Ωστόσο, ο Κανονισμός αφήνει μεγάλα περιθώρια στα Κράτη Μέλη να «νομιμοποιήσουν» τη χρήση συστημάτων βιομετρικής ταυτοποίησης για σκοπούς επιβολής του νόμου. Οι «εξαιρέσεις» που προβλέπει ο Κανονισμός στην πραγματικότητα είναι ευρείες και ανοίγουν τον δρόμο για τη χρήση των συστημάτων για σκοπούς μαζικής παρακολούθησης. Όπως πολύ εύστοχα παρατήρησε και η Access Now, οι εξαιρέσεις που θέτει θυμίζουν περισσότερο έναν «Οδηγό χρήσης μίας τεχνολογίας που δεν έχει θέση σε μία δημοκρατική και βασισμένη στα δικαιώματα κοινωνία». Επιπρόσθετα, προβληματικό είναι το γεγονός ότι τα συστήματα που χρησιμοποιούνται για «προβλεπτική» ή «προληπτική» αστυνόμευση (predictive policing) εντάσσονται στα συστήματα «υψηλού κινδύνου» και όχι στις απαγορευμένες πρακτικές. Συνεπώς, επιτρέπεται- υπό ορισμένες μόνο προϋποθέσεις- η χρήση συστημάτων τα οποία αξιολογούν ορισμένα ατομικά χαρακτηριστικά ή καταστάσεις και καταλήγουν σε ένα συμπέρασμα σχετικά με την πιθανότητα διάπραξης εγκλήματος από ορισμένο πρόσωπο ή σε ορισμένη γεωγραφική περιοχή, δίνοντας τη δυνατότητα στις αστυνομικές αρχές να παρακολουθούν προληπτικά ορισμένα πρόσωπα ή περιοχές [1]. Τα συστήματα αυτά, όπως έχει αποδειχθεί από πολλές έρευνες, αναπαράγουν διακρίσεις και διαιωνίζουν στερεότυπα και προκαταλήψεις έναντι κοινωνικών ομάδων, είναι επικίνδυνα για τις ατομικές ελευθερίες των πολιτών και θα έπρεπε να απαγορευτούν.
Αναμένεται να δούμε τον τρόπο με τον οποίον θα εφαρμοστούν οι κανόνες που περιλαμβάνει ο νέος Κανονισμός καθώς και εάν θα επιτευχθεί αποτελεσματική εποπτεία από τις αρμόδιες αρχές των κρατών μελών προκειμένου να προστατευτούν πραγματικά και στην ουσία τους τα δικαιώματα των πολιτών από την τεχνολογική αυτή δυνατότητα.
[1]Βλ. παράρτημα ΙΙΙ του Κανονισμού όπου εντάσσει στα συστήματα υψηλού κινδύνου: «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για τη διενέργεια ατομικών εκτιμήσεων κινδύνου όσον αφορά φυσικά πρόσωπα, προκειμένου να εκτιμηθεί ο κίνδυνος διάπραξης αδικήματος ή υποτροπής ή ο κίνδυνος για δυνητικά θύματα ποινικών αδικημάτων», «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για την πρόβλεψη της τέλεσης ή εκ νέου τέλεσης ποινικού αδικήματος, πραγματικού ή δυνητικού, με βάση την κατάρτιση προφίλ φυσικών προσώπων όπως αναφέρεται στο άρθρο 3 σημείο 4) της οδηγίας (ΕΕ) 2016/680 ή την αξιολόγηση των γνωρισμάτων και χαρακτηριστικών της προσωπικότητας ή προηγούμενης εγκληματικής συμπεριφοράς φυσικών προσώπων ή ομάδων, «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για την κατάρτιση προφίλ φυσικών προσώπων όπως αναφέρεται στο άρθρο 3 σημείο 4) της οδηγίας (ΕΕ) 2016/680 στο πλαίσιο της ανίχνευσης, της διερεύνησης ή της δίωξης ποινικών αδικημάτων»
ΠΗΓΕΣ:
https://edri.org/our-work/eu-ai-act-deal-reached-but-too-soon-to-celebrate/
https://europeanaifund.org/newspublications/european-civil-society-on-the-ai-act-deal/
*Η Κατερίνα Μεζίνη είναι Δικηγόρος, απόφοιτη του τμήματος Νομικής του ΕΚΠΑ και του ΠΜΣ «Δίκαιο και Τεχνολογίες Πληροφορικής και Επικοινωνιών» του Πανεπιστημίου Πειραιώς.