Πράξη Ψηφιακών Υπηρεσιών: Ασφάλεια στο Διαδίκτυο και Ελεύθερη Έκφραση
Γράφει ο Τάσος Αραμπατζής
Η Πράξη Ψηφιακών Υπηρεσιών (DSA) της Ευρωπαϊκής Ένωσης αποτελεί ορόσημο στην προσπάθεια να μπει μεγαλύτερη τάξη στο συχνά χαοτικό πεδίο του διαδικτύου. Η νομοθεσία αποσκοπεί στη θέσπιση σαφών κανόνων και αρμοδιοτήτων για τις διαδικτυακές πλατφόρμες, αντιμετωπίζοντας ένα φάσμα προβλημάτων από την προστασία των καταναλωτών έως την καταπολέμηση του επιβλαβούς περιεχομένου. Ωστόσο, μέσα στις καλοπροαίρετες διατάξεις του DSA υπάρχει μια θεμελιώδης ένσταση που εξακολουθεί να αποτελεί πρόκληση για τις δημοκρατίες παγκοσμίως: πώς εξασφαλίζουμε ένα ασφαλέστερο, πιο πολιτισμένο διαδικτυακό περιβάλλον χωρίς να παραβιάζουμε τις θεμελιώδεις αρχές της ελεύθερης έκφρασης;
Αυτό το άρθρο εξετάζει την πολυπλοκότητα των διατάξεων της DSA σχετικά με τις συνομιλίες και τον έλεγχο του περιεχομένου. Θα διερευνήσουμε πώς η καταπολέμηση των διαδικτυακών κινδύνων, συμπεριλαμβανομένης της εξάπλωσης της παραπληροφόρησης και των deepfakes, πρέπει να σταθμίζεται προσεκτικά έναντι των κινδύνων της λογοκρισίας και της καταστολής του νόμιμου λόγου. Πρόκειται για μια πράξη εξισορρόπησης με εκτεταμένες συνέπειες για το μέλλον της ψηφιακής μας κοινωνίας.
Διαδικτυακοί κίνδυνοι και η απάντηση της DSA
Το ψηφιακό πεδίο, παρ’ όλη την υπόσχεσή του για σύνδεση και γνώση, έχει μετατραπεί σε εκτροφείο για ένα ευρύ φάσμα διαδικτυακών κινδύνων. Οι εκστρατείες παραπληροφόρησης διαβρώνουν την εμπιστοσύνη απέναντι στους δημοκρατικούς θεσμούς και σπέρνουν τη διχόνοια, ενώ η ρητορική μίσους τροφοδοτεί τις διακρίσεις και τη βία κατά περιθωριοποιημένων ομάδων. Ο διαδικτυακός εκφοβισμός καταστρέφει ζωές, ιδίως των ευάλωτων νέων.
Για την αντιμετώπιση αυτών των κινδύνων, η DSA θέτει νέες υποχρεώσεις στις διαδικτυακές πλατφόρμες, ιδίως στις Πολύ Μεγάλες Διαδικτυακές Πλατφόρμες (VLOP). Οι απαιτήσεις έχουν σημαντική εμβέλεια και περιλαμβάνουν:
- Αυξημένη διαφάνεια: Οι πλατφόρμες πρέπει να εξηγούν τον τρόπο λειτουργίας των αλγορίθμων τους και τα κριτήρια που χρησιμοποιούν για τη σύσταση και τον έλεγχο του περιεχομένου.
- Λογοδοσία: Οι εταιρείες θα αντιμετωπίσουν πιθανά πρόστιμα και κυρώσεις για την αποτυχία τους να αντιμετωπίσουν αποτελεσματικά το παράνομο και επιβλαβές περιεχόμενο.
- Μετριασμός περιεχομένου: Οι πλατφόρμες πρέπει να αναφέρουν με σαφήνεια τις πολιτικές για την αφαίρεση περιεχομένου και να εφαρμόζουν αποτελεσματικά και φιλικά προς τον χρήστη συστήματα αναφοράς προβληματικού περιεχομένου.
Στόχος αυτών των διατάξεων της DSA είναι η δημιουργία ενός πιο υπεύθυνου ψηφιακού οικοσυστήματος όπου το επιβλαβές περιεχόμενο είναι λιγότερο πιθανό να ανθίσει και όπου οι χρήστες έχουν περισσότερα εργαλεία για να προστατευθούν.
Ο κίνδυνος της λογοκρισίας
Ενώ οι προθέσεις της DSA είναι αξιοθαύμαστες, τα μέτρα για την καταπολέμηση των διαδικτυακών κινδύνων εγείρουν εύλογες ανησυχίες σχετικά με τη λογοκρισία και την πιθανή καταστολή της ελευθερίας του λόγου. Η ιστορία είναι γεμάτη από περιπτώσεις όπου η καταπολέμηση του επιβλαβούς περιεχομένου χρησίμευσε ως πρόσχημα για να φιμωθούν οι αντίθετες φωνές, να ασκηθεί κριτική στους κυβερνώντες ή να κατασταλούν περιθωριοποιημένες ομάδες.
Οι οργανώσεις της κοινωνίας των πολιτών έχουν τονίσει την ανάγκη να συμπεριλάβει η DSA σαφείς εγγυήσεις για να αποτρέψει το ενδεχόμενο οι καλοπροαίρετες διατάξεις της να μετατραπούν σε εργαλεία λογοκρισίας. Είναι απαραίτητο να υπάρχουν ακριβείς ορισμοί του “παράνομου” ή “επιβλαβούς” περιεχομένου – εκείνου που υποκινεί άμεσα τη βία ή παραβιάζει τους ισχύοντες νόμους. Οι υπερβολικά ευρείς ορισμοί κινδυνεύουν να συμπεριλάβουν τη σάτιρα, την πολιτική διαφωνία και την καλλιτεχνική έκφραση, οι οποίες αποτελούν όλες προστατευόμενες μορφές λόγου.
Η καταστολή αυτών των μορφών λόγου υπό το πρόσχημα της ασφάλειας μπορεί να έχει ανασταλτικό αποτέλεσμα, αποθαρρύνοντας τη δημιουργικότητα, την καινοτομία και την ανοιχτή ανταλλαγή ιδεών που είναι ζωτικής σημασίας για μια υγιή δημοκρατία. Είναι σημαντικό να θυμόμαστε ότι αυτό που προσβάλλει ένα άτομο μπορεί να είναι βαθιά σημαντικό για ένα άλλο. Η DSA πρέπει να βαδίσει προσεκτικά για να αποφύγει την εξουσιοδότηση κυβερνήσεων ή πλατφορμών να αποφασίζουν μονομερώς τι συνιστά αποδεκτό διάλογο.
Deepfakes και η καταπολέμηση της παραπληροφόρησης
Τα deepfakes, τα συνθετικά μέσα που χρησιμοποιούνται για την παραποίηση της πραγματικότητας, αποτελούν μια ιδιαίτερα ύπουλη απειλή για την ακεραιότητα της πληροφόρησης. Η ικανότητά τους να κάνουν να φαίνεται ότι κάποιος είπε ή έκανε κάτι που δεν έκανε ποτέ, έχει τη δυνατότητα να καταστρέψει τη φήμη, να υπονομεύσει την εμπιστοσύνη σε θεσμούς, ακόμη και να αποσταθεροποιήσει πολιτικές διαδικασίες.
Η DSA αναγνωρίζει δικαίως τον κίνδυνο των deepfakes και θέτει την υποχρέωση στις πλατφόρμες να καταβάλλουν προσπάθειες για την καταπολέμηση της επιβλαβούς χρήσης τους. Ωστόσο, πρόκειται για έναν πολύπλοκο τομέα όπου η γραμμή μεταξύ της επιβλαβούς χειραγώγησης και των νόμιμων χρήσεων μπορεί να θολώσει. Η τεχνολογία deepfake μπορεί επίσης να αξιοποιηθεί για σκοπούς σάτιρας, παρωδίας ή καλλιτεχνικούς σκοπούς.
Η πρόκληση για την DSA έγκειται στον εντοπισμό των deepfakes που δημιουργούνται με κακόβουλη πρόθεση, προστατεύοντας παράλληλα αυτά που δημιουργούνται για νόμιμες μορφές έκφρασης. Οι πλατφόρμες θα πρέπει πιθανότατα να αναπτύξουν έναν συνδυασμό τεχνολογικών εργαλείων ανίχνευσης και ανθρώπινων μηχανισμών αναθεώρησης για να κάνουν αυτές τις διακρίσεις αποτελεσματικά.
Η ευθύνη των τεχνολογικών κολοσσών
Όταν πρόκειται για τη διάδοση επιβλαβούς περιεχομένου και τη δυνατότητα διαδικτυακής λογοκρισίας, μεγάλο μέρος της ευθύνης πέφτει εξ ολοκλήρου στους ώμους των μεγάλων διαδικτυακών πλατφορμών. Αυτοί οι τεχνολογικοί γίγαντες διαδραματίζουν κεντρικό ρόλο στη διαμόρφωση του περιεχομένου που βλέπουμε και του τρόπου με τον οποίο αλληλεπιδρούμε στο διαδίκτυο.
Η DSA αντιμετωπίζει άμεσα αυτή την τεράστια δύναμη επιβάλλοντας αυστηρότερες απαιτήσεις στις μεγαλύτερες πλατφόρμες, αυτές που θεωρούνται πολύ μεγάλες διαδικτυακές πλατφόρμες. Οι απαιτήσεις αυτές έχουν σχεδιαστεί για να προωθήσουν μεγαλύτερη υπευθυνότητα και να ωθήσουν αυτές τις πλατφόρμες να αναλάβουν πιο ενεργό ρόλο στον περιορισμό του επιβλαβούς περιεχομένου.
Βασικό στοιχείο της DSA είναι η προώθηση της διαφάνειας. Οι πλατφόρμες θα πρέπει να παρέχουν λεπτομερείς εξηγήσεις για τις πρακτικές τους σχετικά με τη συγκράτηση του περιεχομένου, συμπεριλαμβανομένων των αλγορίθμων που χρησιμοποιούνται για το φιλτράρισμα και τη σύσταση περιεχομένου. Αυτή η αυξημένη ορατότητα αποσκοπεί στην αποφυγή αυθαίρετων ή μεροληπτικών αποφάσεων και προσφέρει στους χρήστες καλύτερη κατανόηση των μηχανισμών που διέπουν τις διαδικτυακές τους εμπειρίες.
Προστασία της ελευθερίας του λόγου – Πού είναι το όριο;
Η προστασία της ελευθερίας του λόγου αποτελεί θεμελιώδη αρχή κάθε δημοκρατικής κοινωνίας. Επιτρέπει τη δυναμική ανταλλαγή ιδεών, την αμφισβήτηση της εξουσίας και παρέχει φωνή σε όσους βρίσκονται στο περιθώριο. Ωστόσο, καθώς εξελίσσεται ο ψηφιακός κόσμος, τα όρια της ελευθερίας του λόγου αμφισβητούνται όλο και περισσότερο.
Η DSA αντιπροσωπεύει μια ειλικρινή προσπάθεια να πλοηγηθούμε σε αυτό το πολύπλοκο πεδίο, αλλά είναι ζωτικής σημασίας να αναγνωρίσουμε ότι δεν υπάρχουν εύκολες απαντήσεις. Το όριο μεταξύ επιβλαβούς περιεχομένου και προστατευόμενων μορφών έκφρασης είναι συχνά δύσκολο να διακριθεί. Η εφαρμογή της DSA πρέπει να περιλαμβάνει ισχυρές εγγυήσεις που να βασίζονται στις θεμελιώδεις αρχές των ανθρωπίνων δικαιωμάτων, ώστε να διασφαλίζεται χώρος για ποικίλες απόψεις και κριτική.
Στην προσπάθεια αυτή, θα πρέπει να δώσουμε προτεραιότητα στην ενδυνάμωση των χρηστών. Η επένδυση στην εκπαίδευση για τον γραμματισμό στα μέσα ενημέρωσης και η προώθηση εργαλείων για κριτική σκέψη είναι ουσιώδεις για να βοηθηθούν τα άτομα να γίνουν πιο απαιτητικοί καταναλωτές των διαδικτυακών πληροφοριών.
Συμπέρασμα
Ο νόμος για τις ψηφιακές υπηρεσίες σηματοδοτεί μια σημαντική καμπή στη ρύθμιση του διαδικτυακού κόσμου. Ο αγώνας για την εξισορρόπηση της διαδικτυακής ασφάλειας και της ελευθερίας της έκφρασης δεν έχει ακόμη τελειώσει. Η DSA παρέχει ένα ισχυρό θεμέλιο, αλλά πρέπει να θεωρηθεί ως ένα βήμα σε μια συνεχή διαδικασία και όχι ως τελική λύση. Για να εξασφαλίσουμε ένα πραγματικά ανοικτό, δημοκρατικό και ασφαλές διαδίκτυο, χρειαζόμαστε συνεχή επαγρύπνηση, στιβαρή συζήτηση και την ενεργό συμμετοχή τόσο των ατόμων όσο και της κοινωνίας των πολιτών.
Φίλτρα Προσώπου στα Μέσα Κοινωνικής Δικτύωσης
Γράφει η Αυγή Σαουλίδου*
Στο πλαίσιο της ψηφιακής επανάστασης που χαρακτηρίζει την εποχή μας, τα μέσα κοινωνικής δικτύωσης έχουν αναδειχθεί σε ένα ισχυρό μέσο που διαμορφώνει τον τρόπο με τον οποίο συνδεόμαστε, μοιραζόμαστε εμπειρίες και εκφραζόμαστε στην καθημερινότητά μας. Εντός αυτού του δυναμικού και συνεχώς εξελισσόμενου τοπίου, όπου η εικόνα πρωταγωνιστεί, έχουν γίνει εξαιρετικά δημοφιλή και χρησιμοποιούντα μαζικά από τους χρήστες των social media τα φίλτρα προσώπου (AR Filters). Ενώ αυτά τα φίλτρα συχνά προσδίδουν μία ανάλαφρη και διασκεδαστική διάθεση στις ψηφιακές μας αλληλεπιδράσεις, οι συνέπειες της χρήσης τους δημιουργούν ένα πολύπλευρο ζήτημα που χρήζει προσεκτικής εξέτασης.
Η χρήση των φίλτρων προσώπου (AR Filters) στα μέσα κοινωνικής δικτύωσης
Η ταχύτητα με την οποία εναλλάσσονται οι πληροφορίες σήμερα, έχει αναδείξει σε βασικό στοιχείο επικοινωνίας την εικόνα. Μια εικόνα είναι ικανή να εκφράσει συναισθηματικές καταστάσεις, να αναδείξει μηνύματα και να προκαλέσει συναισθήματα πολύ πιο άμεσα και έντονα από ένα κείμενο. Ενώ οι λέξεις λοιπόν μπορούν να μεταδώσουν συγκεκριμένες πληροφορίες, η εικόνα υπερέχει στην απεικόνιση σύνθετων εννοιών προσφέροντας μια ολοκληρωμένη εμπειρία. Όπως συνηθίζουμε να λέμε «μία εικόνα, χίλιες λέξεις». Επιπλέον, η ανάγκη για αποδοχή στα social media, η οποία αποτυπώνεται μέσω των likes στις αναρτήσεις των χρηστών, δημιούργησε την ανάγκη για ψηφιακή επεξεργασία των εικόνων/φωτογραφιών με σκοπό τη βελτίωσή τους. Έτσι οδηγηθήκαμε στην εκτεταμένη χρήση των εργαλείων ψηφιακής επεξεργασίας εικόνας και αργότερα η τάση αυτή επεκτάθηκε στην ευρεία χρήση φίλτρων επαυξημένης πραγματικότητας (AR Filters) που εφαρμόζουν στο πρόσωπο των χρηστών στα μέσα κοινωνικής δικτύωσης (Facebook, Instagram, TikTok κ.α.). Η μαζική χρήση των φίλτρων προσώπου όμως έχει πολλαπλές συνέπειες, αρχικά στην ιδιωτικότητα των χρηστών και αν προχωρήσουμε λίγο βαθύτερα, έχει κοινωνικές και ψυχολογικές επιπτώσεις τόσο στους ίδιους τους χρήστες των φίλτρων προσώπου, όσο και στους αποδέκτες των ψηφιακά αλλοιωμένων εικόνων.
Οι επιπτώσεις στην ιδιωτικότητα και στην ψυχική υγεία των χρηστών
Η χρήση των φίλτρων προσώπου συνιστά μία νέα πρόκληση για την προστασία της ιδιωτικότητας. Οι εφαρμογές φίλτρων προσώπου, αξιοποιώντας προηγμένη τεχνολογία αναγνώρισης προσώπου, ανιχνεύουν χαρακτηριστικά προσώπου και τα τροποποιούν. Σε πρώτο επίπεδο, η συλλογή δεδομένων προσώπου εγείρει βάσιμες ανησυχίες που αφορούν τον τρόπο διαχείρισης, δυνητικής εκμετάλλευσης ή ακόμη και κατάχρησης αυτών των δεδομένων, χωρίς την ενημέρωση και συγκατάθεση των χρηστών. Οι χρήστες, λόγω μη επαρκούς πληροφόρησης και παρασυρμένοι από την παιγνιώδη διάθεση που τους καταλαμβάνει όταν χρησιμοποιούν τέτοιου είδους εφαρμογές, είναι πιθανό να εκθέσουν ακούσια τα προσωπικά τους δεδομένα. Ακόμη, οι επιπτώσεις της ευρείας χρήσης τεχνολογίας αναγνώρισης προσώπου επεκτείνονται πέρα από το άτομο, συμβάλλοντας στην ανάπτυξη και αποδοχή μίας κουλτούρας παρακολούθησης.
Σε δεύτερο επίπεδο, ενώ τα φίλτρα προσώπου στοχεύουν είτε να βελτιώσουν αισθητικά τις εικόνες είτε να διασκεδάσουν τους χρήστες, συμβάλλουν επίσης στην ανάπτυξη ενός ψηφιακού τοπίου, όπου διαστρεβλώνονται ολοένα και περισσότερο οι αντιλήψεις για την ταυτότητα και την ομορφιά. Η συνεχής έκθεση των χρηστών των μέσων κοινωνικής δικτύωσης σε εξιδανικευμένες, ψηφιακά αλλοιωμένες εικόνες έχει παρατηρηθεί ότι επηρεάζει σημαντικά την αυτοεκτίμηση και δημιουργεί στρεβλή αντίληψη για την εικόνα των ατόμων. Ιδίως οι χρήστες νεότερων ηλικιών συνιστούν πιο ευάλωτες και επιρρεπείς ομάδες. Μάλιστα έρευνες των τελευταίων ετών έχουν συσχετίσει την εκτεταμένη χρήση φίλτρων προσώπου με την αύξηση των αισθητικών επεμβάσεων στις νεαρές ηλικίες. Ενδεικτικός του φαινομένου είναι ο όρος “Snapchat Dysmorphia”, ο οποίος περιγράφει την αίσθηση αποσύνδεσης που βιώνουν κάποιοι χρήστες μεταξύ της πραγματικής τους εμφάνισης και των εικόνων που μοιράζονται με τον κόσμο. Οι σημαντικές αυτές κοινωνικές επιπτώσεις της καθιέρωσης μη ρεαλιστικών προτύπων ομορφιάς αναδεικνύουν την ευθύνη των μέσων κοινωνικής δικτύωσης αναφορικά με την χρήση νέων τεχνολογιών.
Νομοθετικές Ρυθμίσεις και Εταιρική Κοινωνική Ευθύνη
Σε απάντηση στις προκλήσεις που θέτουν τα φίλτρα προσώπου, κυβερνήσεις και φορείς ενεργούν για την καθιέρωση νομοθεσίας που αφορά στην τους στο διαδίκτυο, στην χρήση τεχνολογίας αναγνώρισης προσώπου και στην προστασία των προσωπικών δεδομένων. Αυτή η νομοθεσία αντικατοπτρίζει την αναγνώριση της ανάγκης ισορροπίας μεταξύ της καινοτομίας και της προστασίας των ψηφιακών δικαιωμάτων.
Ενδεικτικά, σύμφωνα με τον Γενικό Κανονισμό για την Προστασία Δεδομένων (GDPR), τα βιομετρικά δεδομένα, τα οποία συλλέγονται κατά τη χρήση τεχνολογίας αναγνώρισης προσώπου, συνιστούν ευαίσθητα δεδομένα, η επεξεργασία των οποίων επιτρέπεται μόνο κατ’ εξαίρεση. Επιπλέον, σχετικά με την χρήση τεχνολογίας αναγνώρισης προσώπου, η Συμβουλευτική Επιτροπή της Σύμβασης για την προστασία των φυσικών προσώπων έναντι της αυτόματης επεξεργασίας δεδομένων προσωπικού χαρακτήρα έχει εκδώσει σχετικές κατευθυντήριες γραμμές το 2021 (Guidelines on facial recognition, 2021). Σχετικά με τον αντίκτυπο στην ψυχική υγεία των χρηστών, κάποιες ευρωπαϊκές χώρες όπως η Νορβηγία και η Γαλλία έχουν θεσπίσει ήδη νομοθεσία, σύμφωνα με την οποία οι influencers, εφόσον χρησιμοποιούν φίλτρα προσώπου, είναι υποχρεωμένοι/ες να κάνουν σχετική αναφορά στις αναρτήσεις τους προκειμένου να μην παραπλανούν τους αποδέκτες του περιεχομένου τους.
Ωστόσο, τα μέσα κοινωνικής ως κύριοι πάροχοι αυτών των τεχνολογιών έχουν σημαντική ευθύνη και οφείλουν να αναλάβουν ενεργό ρόλο για τη διασφάλιση της ενημέρωσης των χρηστών και της υπεύθυνης χρήσης των φίλτρων προσώπου, υιοθετώντας διαφανείς πολιτικές, ισχυρούς μηχανισμούς συναίνεσης και διασφαλίσεις κατά της κατάχρησης. Στόχος θα πρέπει να είναι η επαρκής ενημέρωση των χρηστών και η προώθηση ενός ψηφιακού περιβάλλοντος που δίνει προτεραιότητα στην ευημερία των χρηστών.
Συμπέρασμα
Παρά το γεγονός ότι τα φίλτρα προσώπου των μέσων κοινωνικής δικτύωσης έχουν αδιαμφισβήτητα φέρει επανάσταση στην ψηφιακή αυτοέκφραση, ο αντίκτυπός τους στα ψηφιακά δικαιώματα δεν μπορεί να υποτιμηθεί. Η προστασία της ιδιωτικής ζωής, η συναίνεση, η παραπλάνηση, η ανάπτυξη μη ρεαλιστικών προτύπων ομορφιάς και η επίδραση αυτών στην ψυχολογία των χρηστών συνιστούν περίπλοκα ζητήματα με πολλές προεκτάσεις, τα οποία απαιτούν ανάλυση και αντιμετώπιση.
Η εύρεση ισορροπίας μεταξύ της προώθησης της καινοτομίας και της εφαρμογής αποτελεσματικών κανονιστικών μέτρων είναι κρίσιμη κατά την περιήγησή μας στον δυναμικό χώρο των μέσων κοινωνικής δικτύωσης. Καθώς εξερευνούμε τις δυνατότητες της επαυξημένης πραγματικότητας και της ψηφιακής αυτοέκφρασης, είναι επιτακτικό να δοθεί προτεραιότητα στην προστασία των ατομικών δικαιωμάτων αλλά και στην διαφύλαξη της ψυχικής υγείας των χρηστών. Έτσι θα διασφαλιστεί ότι ο ψηφιακός χώρος παραμένει ένας τόπος όπου οι χρήστες μπορούν ελεύθερα να εκφράζονται χωρίς να θέτουν σε κίνδυνο την ιδιωτικότητά, την αυτονομία και την ευημερία τους.
*Η Αυγή Σαουλίδου είναι Νομικός και Υπεύθυνη Προστασίας Δεδομένων στο Ελληνικό Ίδρυμα Έρευνας και Καινοτομίας.
Η νέα Πράξη για την Τεχνητή Νοημοσύνη: οι απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης
Γράφει η Κατερίνα Μεζίνη*
Τα συστήματα τεχνητής νοημοσύνης («συστήματα ΤΝ») μπορούν εύκολα να χρησιμοποιηθούν σε πολλούς τομείς της οικονομίας και της κοινωνίας, μεταξύ άλλων και σε διασυνοριακό επίπεδο, και να κυκλοφορούν σε ολόκληρη την Ένωση. Η Τεχνητή Νοημοσύνη αποτελεί μία διαρκώς εξελισσόμενη τεχνολογία που μπορεί να αποφέρει πολλά κοινωνικά και οικονομικά οφέλη. Παράλληλα όμως, ανάλογα με τον τρόπο και τον σκοπό για τον οποίον χρησιμοποιείται μπορεί να χρησιμοποιηθεί καταχρηστικά, να δημιουργήσει κινδύνους και να παραβιάσει τα προστατευόμενα ατομικά δικαιώματα. Για παράδειγμα, η ΤΝ μπορεί να χρησιμοποιηθεί- και έχει χρησιμοποιηθεί- προκειμένου να εντείνει τη διαρκή παρακολούθηση των πολιτών, την καταστολή, τον κοινωνικό έλεγχο, τη χειραγώγηση, τη λογοκρισία και την εκμετάλλευση ανθρώπου από άνθρωπο παραβιάζοντας με αυτό τον τρόπο θεμελιώδη δικαιώματα των πολιτών όπως την ανθρώπινη αξιοπρέπεια, την προστασία της ιδιωτικής ζωής, των προσωπικών δεδομένων και την ελευθερία της έκφρασης.
Ως μέρος της ψηφιακής στρατηγικής της, η ΕΕ θέλησε να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της τεχνολογίας. Τον Απρίλιο του 2021, η Ευρωπαϊκή Επιτροπή υπέβαλε Πρόταση Κανονισμού για την τεχνητή νοημοσύνη. Στις 9 Δεκεμβρίου 2023, το Κοινοβούλιο κατέληξε σε προσωρινή συμφωνία με το Συμβούλιο σχετικά με την πράξη Τεχνητής Νοημοσύνης. Το συμφωνηθέν κείμενο θα πρέπει τώρα να εγκριθεί επίσημα τόσο από το Κοινοβούλιο όσο και από το Συμβούλιο για να γίνει δίκαιο της ΕΕ.
Σύμφωνα με τον ορισμό που περιλαμβάνει στο κείμενο της πρότασης ως Σύστημα Τεχνητής Νοημοσύνης ορίζεται: «το λογισμικό που αναπτύσσεται με μία ή περισσότερες από τις τεχνικές και προσεγγίσεις που παρατίθενται στο παράρτημα I και μπορεί, για ένα δεδομένο σύνολο στόχων που έχουν καθοριστεί από τον άνθρωπο, να παράγει στοιχεία εξόδου όπως περιεχόμενο, προβλέψεις, συστάσεις ή αποφάσεις που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλεπιδρά».
Η ΕΕ επέλεξε να ρυθμίσει τα ζητήματα με μορφή Κανονισμού προκειμένου οι κανόνες του να έχουν άμεση ισχύ σε όλα τα κράτη-μέλη, συνεπής προς το στόχο της δημιουργίας «ενιαίας ψηφιακής αγοράς». Ο Κανονισμός περιλαμβάνει εν ολίγοις κανόνες που ρυθμίζουν τη διάθεση στην αγορά και τη θέση σε λειτουργία ορισμένων συστημάτων ΤΝ. Ο Κανονισμός ακολουθεί μία προσέγγιση «βάσει κινδύνου». Μέσω αυτής της προσέγγισης, το είδος και το περιεχόμενο των εν λόγω κανόνων αναμένεται να προσαρμοστούν στην ένταση και την έκταση των κινδύνων που μπορούν να δημιουργήσουν τα εκάστοτε συστήματα ΤΝ.
Η Ευρωπαϊκή Επιτροπή, μέσω της πρότασης Κανονισμού και σε σχέση με τις πρακτικές ΤΝ, διακρίνει τέσσερα διαφορετικά επίπεδα κινδύνου και ειδικότερα τον i) μη αποδεκτό κίνδυνο, ii) τον υψηλό κίνδυνο, iii) τον περιορισμένο κίνδυνο και iv) τον ελάχιστο κίνδυνο. Τα συστήματα ΤΝ που εντάσσονται στην κατηγορία μη αποδεκτού κινδύνου απαγορεύονται πλήρως, τα συστήματα υψηλού κινδύνου πρέπει να συμμορφώνονται με ειδικές απαιτήσεις ενώ τα συστήματα περιορισμένου ή χαμηλού κινδύνου πρέπει να συμμορφώνονται με λιγότερες ή καθόλου απαιτήσεις.
Το άρθρο 5 (τίτλος ΙΙ) καθορίζει τις «απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης», δηλαδή περιλαμβάνει όλα τα συστήματα ΤΝ των οποίων η χρήση θεωρείται μη αποδεκτή διότι αντιβαίνει στις αξίες της Ένωσης, για παράδειγμα παραβιάζοντας θεμελιώδη δικαιώματα. Σύμφωνα λοιπόν με το άρθρο 5 απαγορεύονται οι ακόλουθες πρακτικές στον τομέα της τεχνητής νοημοσύνης:
- Η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση συστημάτων ΤΝ που αποσκοπούν στη στρέβλωση της ανθρώπινης συμπεριφοράς, με την οποία είναι πιθανόν να προκληθούν σωματικές ή ψυχολογικές βλάβες. Αυτά τα συστήματα ΤΝ χρησιμοποιούν κατασκευαστικά στοιχεία που απευθύνονται στο υποσυνείδητο και τα οποία τα άτομα δεν μπορούν να αντιληφθούν, ή εκμεταλλεύονται ευάλωτα χαρακτηριστικά παιδιών και ανθρώπων λόγω της ηλικίας τους ή λόγω της σωματικής ή της διανοητικής αναπηρίας τους.
- Η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση ορισμένων συστημάτων ΤΝ που παρέχουν κοινωνική βαθμολόγηση των φυσικών προσώπων για γενική χρήση από τις δημόσιες αρχές ή για λογαριασμό τους. Τα συστήματα αυτά μπορεί να οδηγήσουν σε διακρίσεις και στον αποκλεισμό ορισμένων ομάδων. Αυτά τα συστήματα αξιολογούν ή ταξινομούν την αξιοπιστία των φυσικών προσώπων με βάση την κοινωνική τους συμπεριφορά ή με βάση τα γνωστά ή προβλεπόμενα προσωπικά χαρακτηριστικά τους ή χαρακτηριστικά της προσωπικότητάς τους.
- Η χρήση συστημάτων ΤΝ για την εξ αποστάσεως βιομετρική ταυτοποίηση φυσικών προσώπων σε «πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου. Ο Κανονισμός προβλέπει εξαίρεση σε τρεις εξαντλητικά απαριθμούμενες και αυστηρά καθορισμένες περιπτώσεις: σε περίπτωση αναζήτησης δυνητικών θυμάτων εγκληματικών πράξεων, συμπεριλαμβανομένων των αγνοούμενων παιδιών, σε ορισμένες απειλές κατά της ζωής ή της σωματικής ακεραιότητας φυσικών προσώπων ή απειλές τρομοκρατικής επίθεσης και στον εντοπισμό, την ταυτοποίηση ή τη δίωξη δραστών ή υπόπτων για τα ποινικά αδικήματα που αναφέρονται στην απόφαση-πλαίσιο 2002/584/ΔΕΥ του Συμβουλίου, εφόσον τα εν λόγω ποινικά αδικήματα τιμωρούνται στο οικείο κράτος μέλος με στερητική της ελευθερίας ποινή ή στερητικό της ελευθερίας μέτρο ασφάλειας ανώτατης διάρκειας τουλάχιστον τριών ετών και όπως ορίζονται στο δίκαιο του εν λόγω κράτους μέλους.
Επισημαίνεται ότι κάθε χρήση συστήματος εξ αποστάσεως βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου θα πρέπει να υπόκειται σε ρητή και ειδική άδεια που χορηγείται από δικαστική αρχή ή από ανεξάρτητη διοικητική αρχή κράτους μέλους. Επιπρόσθετα, ο Κανονισμός ορίζει ότι η εν λόγω χρήση στην επικράτεια κράτους μέλους θα πρέπει να είναι δυνατή μόνο εφόσον το εν λόγω κράτος μέλος έχει αποφασίσει να προβλέψει ρητά τη δυνατότητα να επιτρέπεται η χρήση αυτή στο πλαίσιο των ειδικότερων κανόνων του εθνικού του δικαίου. Συνεπώς, τα κράτη μέλη έχουν την ευχέρεια να μην προβλέψουν καθόλου αυτή τη δυνατότητα.
Οι παραπάνω πρακτικές είναι ιδιαίτερα επιβλαβείς και απαγορεύτηκαν διότι έρχονται σε αντίθεση με τις ενωσιακές αξίες του σεβασμού της ανθρώπινης αξιοπρέπειας, της ελευθερίας, της ισότητας, της δημοκρατίας και του κράτους δικαίου, καθώς και με τα θεμελιώδη δικαιώματα της Ένωσης, συμπεριλαμβανομένου του δικαιώματος στη μη διακριτική μεταχείριση, στην προστασία των δεδομένων και της ιδιωτικότητας, καθώς και στα δικαιώματα του παιδιού.
Ωστόσο, ο Κανονισμός αφήνει μεγάλα περιθώρια στα Κράτη Μέλη να «νομιμοποιήσουν» τη χρήση συστημάτων βιομετρικής ταυτοποίησης για σκοπούς επιβολής του νόμου. Οι «εξαιρέσεις» που προβλέπει ο Κανονισμός στην πραγματικότητα είναι ευρείες και ανοίγουν τον δρόμο για τη χρήση των συστημάτων για σκοπούς μαζικής παρακολούθησης. Όπως πολύ εύστοχα παρατήρησε και η Access Now, οι εξαιρέσεις που θέτει θυμίζουν περισσότερο έναν «Οδηγό χρήσης μίας τεχνολογίας που δεν έχει θέση σε μία δημοκρατική και βασισμένη στα δικαιώματα κοινωνία». Επιπρόσθετα, προβληματικό είναι το γεγονός ότι τα συστήματα που χρησιμοποιούνται για «προβλεπτική» ή «προληπτική» αστυνόμευση (predictive policing) εντάσσονται στα συστήματα «υψηλού κινδύνου» και όχι στις απαγορευμένες πρακτικές. Συνεπώς, επιτρέπεται- υπό ορισμένες μόνο προϋποθέσεις- η χρήση συστημάτων τα οποία αξιολογούν ορισμένα ατομικά χαρακτηριστικά ή καταστάσεις και καταλήγουν σε ένα συμπέρασμα σχετικά με την πιθανότητα διάπραξης εγκλήματος από ορισμένο πρόσωπο ή σε ορισμένη γεωγραφική περιοχή, δίνοντας τη δυνατότητα στις αστυνομικές αρχές να παρακολουθούν προληπτικά ορισμένα πρόσωπα ή περιοχές [1]. Τα συστήματα αυτά, όπως έχει αποδειχθεί από πολλές έρευνες, αναπαράγουν διακρίσεις και διαιωνίζουν στερεότυπα και προκαταλήψεις έναντι κοινωνικών ομάδων, είναι επικίνδυνα για τις ατομικές ελευθερίες των πολιτών και θα έπρεπε να απαγορευτούν.
Αναμένεται να δούμε τον τρόπο με τον οποίον θα εφαρμοστούν οι κανόνες που περιλαμβάνει ο νέος Κανονισμός καθώς και εάν θα επιτευχθεί αποτελεσματική εποπτεία από τις αρμόδιες αρχές των κρατών μελών προκειμένου να προστατευτούν πραγματικά και στην ουσία τους τα δικαιώματα των πολιτών από την τεχνολογική αυτή δυνατότητα.
[1]Βλ. παράρτημα ΙΙΙ του Κανονισμού όπου εντάσσει στα συστήματα υψηλού κινδύνου: «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για τη διενέργεια ατομικών εκτιμήσεων κινδύνου όσον αφορά φυσικά πρόσωπα, προκειμένου να εκτιμηθεί ο κίνδυνος διάπραξης αδικήματος ή υποτροπής ή ο κίνδυνος για δυνητικά θύματα ποινικών αδικημάτων», «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για την πρόβλεψη της τέλεσης ή εκ νέου τέλεσης ποινικού αδικήματος, πραγματικού ή δυνητικού, με βάση την κατάρτιση προφίλ φυσικών προσώπων όπως αναφέρεται στο άρθρο 3 σημείο 4) της οδηγίας (ΕΕ) 2016/680 ή την αξιολόγηση των γνωρισμάτων και χαρακτηριστικών της προσωπικότητας ή προηγούμενης εγκληματικής συμπεριφοράς φυσικών προσώπων ή ομάδων, «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για την κατάρτιση προφίλ φυσικών προσώπων όπως αναφέρεται στο άρθρο 3 σημείο 4) της οδηγίας (ΕΕ) 2016/680 στο πλαίσιο της ανίχνευσης, της διερεύνησης ή της δίωξης ποινικών αδικημάτων»
ΠΗΓΕΣ:
https://edri.org/our-work/eu-ai-act-deal-reached-but-too-soon-to-celebrate/
https://europeanaifund.org/newspublications/european-civil-society-on-the-ai-act-deal/
*Η Κατερίνα Μεζίνη είναι Δικηγόρος, απόφοιτη του τμήματος Νομικής του ΕΚΠΑ και του ΠΜΣ «Δίκαιο και Τεχνολογίες Πληροφορικής και Επικοινωνιών» του Πανεπιστημίου Πειραιώς.