H Homo Digitalis μιλάει για την Ημέρα Ασφαλούς Διαδικτύου 2024 στο Γυμνάσιο και Λύκειο Πυργετού
Mέρος Α’
Σήμερα είναι η Ημέρα Ασφαλούς Πλοήγησης στο Διαδίκτυο και η Ηοmo Digitalis βρέθηκε για ακόμη μία χρονιά σε πολλά και διαφορετικά σχολεία στην Ελλάδα, εντελώς εθελοντικά, για να μιλήσει με μαθητές/τριες και καθηγητές/τριες για τα ψηφιακά μας δικαιώματα με τις παρουσιάσεις “ψηφιακό αποτύπωμα” και “διαδικτυακός εκφοβισμός”.
Η Homo Digitalis και το μέλος μας Αναστάσιος Αραμπατζής επισκέφθηκε το Γυμνάσιο και Λύκειο Πυργετού και μείναμε έκπληκτοι από την ενεργή συμμετοχή και το ενδιαφέρον του κοινού στις δράσεις μας.
Φίλτρα Προσώπου στα Μέσα Κοινωνικής Δικτύωσης
Γράφει η Αυγή Σαουλίδου*
Στο πλαίσιο της ψηφιακής επανάστασης που χαρακτηρίζει την εποχή μας, τα μέσα κοινωνικής δικτύωσης έχουν αναδειχθεί σε ένα ισχυρό μέσο που διαμορφώνει τον τρόπο με τον οποίο συνδεόμαστε, μοιραζόμαστε εμπειρίες και εκφραζόμαστε στην καθημερινότητά μας. Εντός αυτού του δυναμικού και συνεχώς εξελισσόμενου τοπίου, όπου η εικόνα πρωταγωνιστεί, έχουν γίνει εξαιρετικά δημοφιλή και χρησιμοποιούντα μαζικά από τους χρήστες των social media τα φίλτρα προσώπου (AR Filters). Ενώ αυτά τα φίλτρα συχνά προσδίδουν μία ανάλαφρη και διασκεδαστική διάθεση στις ψηφιακές μας αλληλεπιδράσεις, οι συνέπειες της χρήσης τους δημιουργούν ένα πολύπλευρο ζήτημα που χρήζει προσεκτικής εξέτασης.
Η χρήση των φίλτρων προσώπου (AR Filters) στα μέσα κοινωνικής δικτύωσης
Η ταχύτητα με την οποία εναλλάσσονται οι πληροφορίες σήμερα, έχει αναδείξει σε βασικό στοιχείο επικοινωνίας την εικόνα. Μια εικόνα είναι ικανή να εκφράσει συναισθηματικές καταστάσεις, να αναδείξει μηνύματα και να προκαλέσει συναισθήματα πολύ πιο άμεσα και έντονα από ένα κείμενο. Ενώ οι λέξεις λοιπόν μπορούν να μεταδώσουν συγκεκριμένες πληροφορίες, η εικόνα υπερέχει στην απεικόνιση σύνθετων εννοιών προσφέροντας μια ολοκληρωμένη εμπειρία. Όπως συνηθίζουμε να λέμε «μία εικόνα, χίλιες λέξεις». Επιπλέον, η ανάγκη για αποδοχή στα social media, η οποία αποτυπώνεται μέσω των likes στις αναρτήσεις των χρηστών, δημιούργησε την ανάγκη για ψηφιακή επεξεργασία των εικόνων/φωτογραφιών με σκοπό τη βελτίωσή τους. Έτσι οδηγηθήκαμε στην εκτεταμένη χρήση των εργαλείων ψηφιακής επεξεργασίας εικόνας και αργότερα η τάση αυτή επεκτάθηκε στην ευρεία χρήση φίλτρων επαυξημένης πραγματικότητας (AR Filters) που εφαρμόζουν στο πρόσωπο των χρηστών στα μέσα κοινωνικής δικτύωσης (Facebook, Instagram, TikTok κ.α.). Η μαζική χρήση των φίλτρων προσώπου όμως έχει πολλαπλές συνέπειες, αρχικά στην ιδιωτικότητα των χρηστών και αν προχωρήσουμε λίγο βαθύτερα, έχει κοινωνικές και ψυχολογικές επιπτώσεις τόσο στους ίδιους τους χρήστες των φίλτρων προσώπου, όσο και στους αποδέκτες των ψηφιακά αλλοιωμένων εικόνων.
Οι επιπτώσεις στην ιδιωτικότητα και στην ψυχική υγεία των χρηστών
Η χρήση των φίλτρων προσώπου συνιστά μία νέα πρόκληση για την προστασία της ιδιωτικότητας. Οι εφαρμογές φίλτρων προσώπου, αξιοποιώντας προηγμένη τεχνολογία αναγνώρισης προσώπου, ανιχνεύουν χαρακτηριστικά προσώπου και τα τροποποιούν. Σε πρώτο επίπεδο, η συλλογή δεδομένων προσώπου εγείρει βάσιμες ανησυχίες που αφορούν τον τρόπο διαχείρισης, δυνητικής εκμετάλλευσης ή ακόμη και κατάχρησης αυτών των δεδομένων, χωρίς την ενημέρωση και συγκατάθεση των χρηστών. Οι χρήστες, λόγω μη επαρκούς πληροφόρησης και παρασυρμένοι από την παιγνιώδη διάθεση που τους καταλαμβάνει όταν χρησιμοποιούν τέτοιου είδους εφαρμογές, είναι πιθανό να εκθέσουν ακούσια τα προσωπικά τους δεδομένα. Ακόμη, οι επιπτώσεις της ευρείας χρήσης τεχνολογίας αναγνώρισης προσώπου επεκτείνονται πέρα από το άτομο, συμβάλλοντας στην ανάπτυξη και αποδοχή μίας κουλτούρας παρακολούθησης.
Σε δεύτερο επίπεδο, ενώ τα φίλτρα προσώπου στοχεύουν είτε να βελτιώσουν αισθητικά τις εικόνες είτε να διασκεδάσουν τους χρήστες, συμβάλλουν επίσης στην ανάπτυξη ενός ψηφιακού τοπίου, όπου διαστρεβλώνονται ολοένα και περισσότερο οι αντιλήψεις για την ταυτότητα και την ομορφιά. Η συνεχής έκθεση των χρηστών των μέσων κοινωνικής δικτύωσης σε εξιδανικευμένες, ψηφιακά αλλοιωμένες εικόνες έχει παρατηρηθεί ότι επηρεάζει σημαντικά την αυτοεκτίμηση και δημιουργεί στρεβλή αντίληψη για την εικόνα των ατόμων. Ιδίως οι χρήστες νεότερων ηλικιών συνιστούν πιο ευάλωτες και επιρρεπείς ομάδες. Μάλιστα έρευνες των τελευταίων ετών έχουν συσχετίσει την εκτεταμένη χρήση φίλτρων προσώπου με την αύξηση των αισθητικών επεμβάσεων στις νεαρές ηλικίες. Ενδεικτικός του φαινομένου είναι ο όρος “Snapchat Dysmorphia”, ο οποίος περιγράφει την αίσθηση αποσύνδεσης που βιώνουν κάποιοι χρήστες μεταξύ της πραγματικής τους εμφάνισης και των εικόνων που μοιράζονται με τον κόσμο. Οι σημαντικές αυτές κοινωνικές επιπτώσεις της καθιέρωσης μη ρεαλιστικών προτύπων ομορφιάς αναδεικνύουν την ευθύνη των μέσων κοινωνικής δικτύωσης αναφορικά με την χρήση νέων τεχνολογιών.
Νομοθετικές Ρυθμίσεις και Εταιρική Κοινωνική Ευθύνη
Σε απάντηση στις προκλήσεις που θέτουν τα φίλτρα προσώπου, κυβερνήσεις και φορείς ενεργούν για την καθιέρωση νομοθεσίας που αφορά στην τους στο διαδίκτυο, στην χρήση τεχνολογίας αναγνώρισης προσώπου και στην προστασία των προσωπικών δεδομένων. Αυτή η νομοθεσία αντικατοπτρίζει την αναγνώριση της ανάγκης ισορροπίας μεταξύ της καινοτομίας και της προστασίας των ψηφιακών δικαιωμάτων.
Ενδεικτικά, σύμφωνα με τον Γενικό Κανονισμό για την Προστασία Δεδομένων (GDPR), τα βιομετρικά δεδομένα, τα οποία συλλέγονται κατά τη χρήση τεχνολογίας αναγνώρισης προσώπου, συνιστούν ευαίσθητα δεδομένα, η επεξεργασία των οποίων επιτρέπεται μόνο κατ’ εξαίρεση. Επιπλέον, σχετικά με την χρήση τεχνολογίας αναγνώρισης προσώπου, η Συμβουλευτική Επιτροπή της Σύμβασης για την προστασία των φυσικών προσώπων έναντι της αυτόματης επεξεργασίας δεδομένων προσωπικού χαρακτήρα έχει εκδώσει σχετικές κατευθυντήριες γραμμές το 2021 (Guidelines on facial recognition, 2021). Σχετικά με τον αντίκτυπο στην ψυχική υγεία των χρηστών, κάποιες ευρωπαϊκές χώρες όπως η Νορβηγία και η Γαλλία έχουν θεσπίσει ήδη νομοθεσία, σύμφωνα με την οποία οι influencers, εφόσον χρησιμοποιούν φίλτρα προσώπου, είναι υποχρεωμένοι/ες να κάνουν σχετική αναφορά στις αναρτήσεις τους προκειμένου να μην παραπλανούν τους αποδέκτες του περιεχομένου τους.
Ωστόσο, τα μέσα κοινωνικής ως κύριοι πάροχοι αυτών των τεχνολογιών έχουν σημαντική ευθύνη και οφείλουν να αναλάβουν ενεργό ρόλο για τη διασφάλιση της ενημέρωσης των χρηστών και της υπεύθυνης χρήσης των φίλτρων προσώπου, υιοθετώντας διαφανείς πολιτικές, ισχυρούς μηχανισμούς συναίνεσης και διασφαλίσεις κατά της κατάχρησης. Στόχος θα πρέπει να είναι η επαρκής ενημέρωση των χρηστών και η προώθηση ενός ψηφιακού περιβάλλοντος που δίνει προτεραιότητα στην ευημερία των χρηστών.
Συμπέρασμα
Παρά το γεγονός ότι τα φίλτρα προσώπου των μέσων κοινωνικής δικτύωσης έχουν αδιαμφισβήτητα φέρει επανάσταση στην ψηφιακή αυτοέκφραση, ο αντίκτυπός τους στα ψηφιακά δικαιώματα δεν μπορεί να υποτιμηθεί. Η προστασία της ιδιωτικής ζωής, η συναίνεση, η παραπλάνηση, η ανάπτυξη μη ρεαλιστικών προτύπων ομορφιάς και η επίδραση αυτών στην ψυχολογία των χρηστών συνιστούν περίπλοκα ζητήματα με πολλές προεκτάσεις, τα οποία απαιτούν ανάλυση και αντιμετώπιση.
Η εύρεση ισορροπίας μεταξύ της προώθησης της καινοτομίας και της εφαρμογής αποτελεσματικών κανονιστικών μέτρων είναι κρίσιμη κατά την περιήγησή μας στον δυναμικό χώρο των μέσων κοινωνικής δικτύωσης. Καθώς εξερευνούμε τις δυνατότητες της επαυξημένης πραγματικότητας και της ψηφιακής αυτοέκφρασης, είναι επιτακτικό να δοθεί προτεραιότητα στην προστασία των ατομικών δικαιωμάτων αλλά και στην διαφύλαξη της ψυχικής υγείας των χρηστών. Έτσι θα διασφαλιστεί ότι ο ψηφιακός χώρος παραμένει ένας τόπος όπου οι χρήστες μπορούν ελεύθερα να εκφράζονται χωρίς να θέτουν σε κίνδυνο την ιδιωτικότητά, την αυτονομία και την ευημερία τους.
*Η Αυγή Σαουλίδου είναι Νομικός και Υπεύθυνη Προστασίας Δεδομένων στο Ελληνικό Ίδρυμα Έρευνας και Καινοτομίας.
Συμμετοχή μας στο Privacy Camp στις Βρυξέλλες για ακόμη μία χρονιά
Την προηγούμενη εβδομάδα δώσαμε το παρόν στο Privacy Camp στις Βρυξέλλες, μία από τις σημαντικότερες ετήσιες συναντήσεις στον τομέα των ψηφιακών δικαιωμάτων διεθνώς, η οποία διοργανώνεται από την European Digital Rights σε συνεργασία με το Research Group on Law, Science, Technology & Society (LSTS) στο Vrije Universiteit Brussel (VUB), Privacy Salon, Institute for European Studies, ULB (IEE-ULB), Institute for Information Law (IViR) στο UvA και το Racism and Technology Center!
Εκεί είχαμε τη χαρά να συναντηθούμε με οργανώσεις του δικτύου της EDRi και άλλους εκπροσώπους της κοινωνίας των πολιτών, ευρωπαϊκούς θεσμούς, ακαδημαϊκούς φορείς και άλλους συνεργάτες μας!
Τη Homo Digitalis εκπροσώπησε στη συνάντηση η Πρόεδρός μας, Ελπίδα Βαμβακά, ενώ εκεί συναντηθήκαμε και με πολλά μέλη μας που συμμετείχαν στη συνάντηση, μεταξύ των οποίων και οι Αλεξάνδρα Γιαννοπούλου και Αιμιλία Γιβροπούλου.
Οργανώνουμε εργαστήριο για καινοτόμο ψηφιακό πορτοφόλι ταυτότητας στο πλαίσιο του έργου PRIVÉ
Η Homo Digitalis είναι περήφανος συνεργάτης του έργου PRIVÉ!
Στις 13 Φεβρουαρίου στις 18.00, θα φιλοξενήσουμε ένα εργαστήριο για να παρουσιάσουμε τη λύση που αναπτύχθηκε στο πλαίσιο του έργου και να την αξιολογήσουν τελικοί χρήστες με επίγνωση της ιδιωτικής ζωής:
Το πορτοφόλι EUDI θα φέρει επανάσταση στον τρόπο με τον οποίο γίνεται ο χειρισμός της ψηφιακής ταυτότητας στην Ευρώπη. Πώς όμως θα επιτύχουμε ευρεία υιοθέτηση από τους χρήστες; Είναι η ιδιωτικότητα και η εμπιστοσύνη σημαντικοί παράγοντες και λαμβάνονται επαρκώς υπόψη στην τρέχουσα αρχιτεκτονική του EUDI;
Ως απάντηση σε αυτά τα πιεστικά ζητήματα, το έργο PRIVÉ είναι στην ευχάριστη θέση να ανακοινώσει ένα διαδικτυακό σεμινάριο (υβριδικό) στις 13 Φεβρουαρίου 2024. Στην εκδήλωση αυτή θα παρουσιαστεί μια καινοτόμος λύση για ψηφιακά πορτοφόλια ταυτότητας που όχι μόνο δίνει έμφαση σε ισχυρούς μηχανισμούς διατήρησης της ιδιωτικής ζωής, αλλά διαθέτει επίσης απρόσκοπτη ενσωμάτωση με τα πλαίσια eIDAS και GDPR, θέτοντας ένα νέο σημείο αναφοράς για τις λύσεις ψηφιακής ταυτότητας.
13.02.2024, 18:00 ώρα Αθήνας
Τρεις παράλληλες συνεδρίες ταυτόχρονα:
-ΑΘΗΝΑ: Οικονομικό Πανεπιστήμιο Αθηνών, Κτίριο Τρία 2
-ΗΡΑΚΛΕΙΟ: στο Bizrupt, Βικέλα 34-36
-Διαδικτυακή συνεδρία μέσω Zoom
Αυτό το διαδικτυακό σεμινάριο προσφέρει μια μοναδική, πρακτική εμπειρία με το PRIVÉ Wallet, προσκαλώντας τους συμμετέχοντες να ασχοληθούν άμεσα με την τεχνολογία μέσω ενός πραγματικού σεναρίου εφαρμογής. Σας προσκαλούμε να γίνετε μέρος της εξέλιξής του. Τα σχόλιά σας σχετικά με τη χρηστικότητα του πορτοφολιού και οι γνώσεις σας σχετικά με τους παράγοντες που επηρεάζουν την υιοθέτηση των πορτοφολιών EUDI από τους Ευρωπαίους πολίτες θα είναι ανεκτίμητης αξίας.
Ελάτε μαζί μας για να διαμορφώσουμε το μέλλον της ψηφιακής ταυτότητας στην Ευρώπη – ένα μέλλον όπου η ταυτότητά σας θα είναι ασφαλής, η ιδιωτική σας ζωή θα γίνεται σεβαστή και η εμπιστοσύνη σας θα κερδίζεται.
Μπορείτε να μάθετε περισσότερα και να εγγραφείτε εδώ.
Εκπαιδευτική Παρουσίαση στη Σχολή Καραβάνα στη Λάρισα
Η Homo Digitalis συνεχίζει τις ενημερωτικές της ομιλίες στα σχολεία!
Χθες ο Αναστάσιος Αραμπατζής μίλησε στη Σχολή Καραβάνα στη Λάρισα με θέμα το Ψηφιακό Αποτύπωμα. Την ομιλία παρακολούθησαν 60 μαθητές Γυμνασίου.
Ευχαριστούμε θερμά την Διευθύντρια του Γυμνασίου, κ. Λένα Παπακωστούλη, καθώς και την κ. Ζωή Γκουντέλα, καθηγήτρια Πληροφορικής του σχολείου, η οποία συμπαρουσίασε μαζί μας.
Ήταν μία εξαιρετική εμπειρία, με ενεργή συμμετοχή των μαθητών και μαθητριών, στους/στις οποίους/ες αξίζει ένα μεγάλο μπράβο!
Η Ημέρα Προστασίας Προσωπικών Δεδομένων δεν είναι ημέρα ευχών, αλλά ημέρα ευθύνης!
Η 28η Ιανουαρίου είναι η διεθνής ημέρα αφιερωμένη στην Προστασία των Προσωπικών Δεδομένων!
Από τον Μάρτιο του 2018, και για σχεδόν 6 χρόνια τώρα, η Homo Digitalis έχει πραγματοποιήσει σημαντικές ενέργειες για την προστασία των προσωπικών δεδομένων και στους 3 πυλώνες δράσης της, αυτούς της ευαισθητοποίησης, της συνδιαμόρφωσης πολιτικών αποφάσεων και των νομικών δράσεων.
Στην εορταστική μας εκδήλωση τον περασμένο μήνα, αφιερώσαμε περίπου 2 ώρες για να μιλήσουμε για όλες τις επιτυχίες μας. Για σήμερα, ετοιμάσαμε ένα σύντομο βίντεο λίγων δευτερολέπτων προκειμένου να παρουσιάσουμε κάποια highlights αυτών των επιτυχιών μας. Επειδή η σημερινή ημέρα δεν είναι ημέρα ευχών, αλλά ημέρα ευθύνης! Μπορείτε να δείτε το σύντομο βίντεο μας εδώ.
Συμμετοχή της Ηοmo Digitalis στο 3ο LAW FORUM ON DATA PROTECTION
Με μεγάλη χαρά σας ανακοινώνουμε ότι δύο εκπρόσωποι της Homo Digitalis θα μιλήσουν στο 3ο LAW FORUM ON DATA PROTECTION, που διοργανώνει η CLEON Conferences & Communications την Πέμπτη 8/2/2024 στην Αθήνα!
Η Διευθύντριά μας σε θέματα Ανθρωπίνων Δικαιωμάτων & Τεχνητής Νοημοσύνης, Λαμπρινή Γυφτοκώστα, και ο Αντιπρόεδρος του Διοικητικού μας Συμβουλίου Στέφανος Βιτωράτος, θα συμμετάσχουν στις συζητήσεις του πάνελ και θα συνομιλήσουν με τους υπόλοιπους ομιλητές και το κοινό!
Είναι μεγάλη μας τιμή που για τρίτη συνεχή χρονιά το συνέδριο πραγματοποιείται υπό την αιγίδα της Homo Digitalis και άλλων σημαντικών φορέων του χώρου, όπως η Hellenic Association of Data Protection and Privacy , ISC2 Hellenic Chapter, ΠΑ.ΣΥ.Σ.ΔΙ.Κ. HARIMA, Association of Compliance Officers in Greece – ASCO Greece και DPO Network.
Περισσότερες πληροφορίες μπορείτε να βρείτε στην ιστοσελίδα του διοργανωτή εδώ.
Η νέα Πράξη για την Τεχνητή Νοημοσύνη: οι απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης
Γράφει η Κατερίνα Μεζίνη*
Τα συστήματα τεχνητής νοημοσύνης («συστήματα ΤΝ») μπορούν εύκολα να χρησιμοποιηθούν σε πολλούς τομείς της οικονομίας και της κοινωνίας, μεταξύ άλλων και σε διασυνοριακό επίπεδο, και να κυκλοφορούν σε ολόκληρη την Ένωση. Η Τεχνητή Νοημοσύνη αποτελεί μία διαρκώς εξελισσόμενη τεχνολογία που μπορεί να αποφέρει πολλά κοινωνικά και οικονομικά οφέλη. Παράλληλα όμως, ανάλογα με τον τρόπο και τον σκοπό για τον οποίον χρησιμοποιείται μπορεί να χρησιμοποιηθεί καταχρηστικά, να δημιουργήσει κινδύνους και να παραβιάσει τα προστατευόμενα ατομικά δικαιώματα. Για παράδειγμα, η ΤΝ μπορεί να χρησιμοποιηθεί- και έχει χρησιμοποιηθεί- προκειμένου να εντείνει τη διαρκή παρακολούθηση των πολιτών, την καταστολή, τον κοινωνικό έλεγχο, τη χειραγώγηση, τη λογοκρισία και την εκμετάλλευση ανθρώπου από άνθρωπο παραβιάζοντας με αυτό τον τρόπο θεμελιώδη δικαιώματα των πολιτών όπως την ανθρώπινη αξιοπρέπεια, την προστασία της ιδιωτικής ζωής, των προσωπικών δεδομένων και την ελευθερία της έκφρασης.
Ως μέρος της ψηφιακής στρατηγικής της, η ΕΕ θέλησε να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της τεχνολογίας. Τον Απρίλιο του 2021, η Ευρωπαϊκή Επιτροπή υπέβαλε Πρόταση Κανονισμού για την τεχνητή νοημοσύνη. Στις 9 Δεκεμβρίου 2023, το Κοινοβούλιο κατέληξε σε προσωρινή συμφωνία με το Συμβούλιο σχετικά με την πράξη Τεχνητής Νοημοσύνης. Το συμφωνηθέν κείμενο θα πρέπει τώρα να εγκριθεί επίσημα τόσο από το Κοινοβούλιο όσο και από το Συμβούλιο για να γίνει δίκαιο της ΕΕ.
Σύμφωνα με τον ορισμό που περιλαμβάνει στο κείμενο της πρότασης ως Σύστημα Τεχνητής Νοημοσύνης ορίζεται: «το λογισμικό που αναπτύσσεται με μία ή περισσότερες από τις τεχνικές και προσεγγίσεις που παρατίθενται στο παράρτημα I και μπορεί, για ένα δεδομένο σύνολο στόχων που έχουν καθοριστεί από τον άνθρωπο, να παράγει στοιχεία εξόδου όπως περιεχόμενο, προβλέψεις, συστάσεις ή αποφάσεις που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλεπιδρά».
Η ΕΕ επέλεξε να ρυθμίσει τα ζητήματα με μορφή Κανονισμού προκειμένου οι κανόνες του να έχουν άμεση ισχύ σε όλα τα κράτη-μέλη, συνεπής προς το στόχο της δημιουργίας «ενιαίας ψηφιακής αγοράς». Ο Κανονισμός περιλαμβάνει εν ολίγοις κανόνες που ρυθμίζουν τη διάθεση στην αγορά και τη θέση σε λειτουργία ορισμένων συστημάτων ΤΝ. Ο Κανονισμός ακολουθεί μία προσέγγιση «βάσει κινδύνου». Μέσω αυτής της προσέγγισης, το είδος και το περιεχόμενο των εν λόγω κανόνων αναμένεται να προσαρμοστούν στην ένταση και την έκταση των κινδύνων που μπορούν να δημιουργήσουν τα εκάστοτε συστήματα ΤΝ.
Η Ευρωπαϊκή Επιτροπή, μέσω της πρότασης Κανονισμού και σε σχέση με τις πρακτικές ΤΝ, διακρίνει τέσσερα διαφορετικά επίπεδα κινδύνου και ειδικότερα τον i) μη αποδεκτό κίνδυνο, ii) τον υψηλό κίνδυνο, iii) τον περιορισμένο κίνδυνο και iv) τον ελάχιστο κίνδυνο. Τα συστήματα ΤΝ που εντάσσονται στην κατηγορία μη αποδεκτού κινδύνου απαγορεύονται πλήρως, τα συστήματα υψηλού κινδύνου πρέπει να συμμορφώνονται με ειδικές απαιτήσεις ενώ τα συστήματα περιορισμένου ή χαμηλού κινδύνου πρέπει να συμμορφώνονται με λιγότερες ή καθόλου απαιτήσεις.
Το άρθρο 5 (τίτλος ΙΙ) καθορίζει τις «απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης», δηλαδή περιλαμβάνει όλα τα συστήματα ΤΝ των οποίων η χρήση θεωρείται μη αποδεκτή διότι αντιβαίνει στις αξίες της Ένωσης, για παράδειγμα παραβιάζοντας θεμελιώδη δικαιώματα. Σύμφωνα λοιπόν με το άρθρο 5 απαγορεύονται οι ακόλουθες πρακτικές στον τομέα της τεχνητής νοημοσύνης:
- Η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση συστημάτων ΤΝ που αποσκοπούν στη στρέβλωση της ανθρώπινης συμπεριφοράς, με την οποία είναι πιθανόν να προκληθούν σωματικές ή ψυχολογικές βλάβες. Αυτά τα συστήματα ΤΝ χρησιμοποιούν κατασκευαστικά στοιχεία που απευθύνονται στο υποσυνείδητο και τα οποία τα άτομα δεν μπορούν να αντιληφθούν, ή εκμεταλλεύονται ευάλωτα χαρακτηριστικά παιδιών και ανθρώπων λόγω της ηλικίας τους ή λόγω της σωματικής ή της διανοητικής αναπηρίας τους.
- Η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση ορισμένων συστημάτων ΤΝ που παρέχουν κοινωνική βαθμολόγηση των φυσικών προσώπων για γενική χρήση από τις δημόσιες αρχές ή για λογαριασμό τους. Τα συστήματα αυτά μπορεί να οδηγήσουν σε διακρίσεις και στον αποκλεισμό ορισμένων ομάδων. Αυτά τα συστήματα αξιολογούν ή ταξινομούν την αξιοπιστία των φυσικών προσώπων με βάση την κοινωνική τους συμπεριφορά ή με βάση τα γνωστά ή προβλεπόμενα προσωπικά χαρακτηριστικά τους ή χαρακτηριστικά της προσωπικότητάς τους.
- Η χρήση συστημάτων ΤΝ για την εξ αποστάσεως βιομετρική ταυτοποίηση φυσικών προσώπων σε «πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου. Ο Κανονισμός προβλέπει εξαίρεση σε τρεις εξαντλητικά απαριθμούμενες και αυστηρά καθορισμένες περιπτώσεις: σε περίπτωση αναζήτησης δυνητικών θυμάτων εγκληματικών πράξεων, συμπεριλαμβανομένων των αγνοούμενων παιδιών, σε ορισμένες απειλές κατά της ζωής ή της σωματικής ακεραιότητας φυσικών προσώπων ή απειλές τρομοκρατικής επίθεσης και στον εντοπισμό, την ταυτοποίηση ή τη δίωξη δραστών ή υπόπτων για τα ποινικά αδικήματα που αναφέρονται στην απόφαση-πλαίσιο 2002/584/ΔΕΥ του Συμβουλίου, εφόσον τα εν λόγω ποινικά αδικήματα τιμωρούνται στο οικείο κράτος μέλος με στερητική της ελευθερίας ποινή ή στερητικό της ελευθερίας μέτρο ασφάλειας ανώτατης διάρκειας τουλάχιστον τριών ετών και όπως ορίζονται στο δίκαιο του εν λόγω κράτους μέλους.
Επισημαίνεται ότι κάθε χρήση συστήματος εξ αποστάσεως βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου θα πρέπει να υπόκειται σε ρητή και ειδική άδεια που χορηγείται από δικαστική αρχή ή από ανεξάρτητη διοικητική αρχή κράτους μέλους. Επιπρόσθετα, ο Κανονισμός ορίζει ότι η εν λόγω χρήση στην επικράτεια κράτους μέλους θα πρέπει να είναι δυνατή μόνο εφόσον το εν λόγω κράτος μέλος έχει αποφασίσει να προβλέψει ρητά τη δυνατότητα να επιτρέπεται η χρήση αυτή στο πλαίσιο των ειδικότερων κανόνων του εθνικού του δικαίου. Συνεπώς, τα κράτη μέλη έχουν την ευχέρεια να μην προβλέψουν καθόλου αυτή τη δυνατότητα.
Οι παραπάνω πρακτικές είναι ιδιαίτερα επιβλαβείς και απαγορεύτηκαν διότι έρχονται σε αντίθεση με τις ενωσιακές αξίες του σεβασμού της ανθρώπινης αξιοπρέπειας, της ελευθερίας, της ισότητας, της δημοκρατίας και του κράτους δικαίου, καθώς και με τα θεμελιώδη δικαιώματα της Ένωσης, συμπεριλαμβανομένου του δικαιώματος στη μη διακριτική μεταχείριση, στην προστασία των δεδομένων και της ιδιωτικότητας, καθώς και στα δικαιώματα του παιδιού.
Ωστόσο, ο Κανονισμός αφήνει μεγάλα περιθώρια στα Κράτη Μέλη να «νομιμοποιήσουν» τη χρήση συστημάτων βιομετρικής ταυτοποίησης για σκοπούς επιβολής του νόμου. Οι «εξαιρέσεις» που προβλέπει ο Κανονισμός στην πραγματικότητα είναι ευρείες και ανοίγουν τον δρόμο για τη χρήση των συστημάτων για σκοπούς μαζικής παρακολούθησης. Όπως πολύ εύστοχα παρατήρησε και η Access Now, οι εξαιρέσεις που θέτει θυμίζουν περισσότερο έναν «Οδηγό χρήσης μίας τεχνολογίας που δεν έχει θέση σε μία δημοκρατική και βασισμένη στα δικαιώματα κοινωνία». Επιπρόσθετα, προβληματικό είναι το γεγονός ότι τα συστήματα που χρησιμοποιούνται για «προβλεπτική» ή «προληπτική» αστυνόμευση (predictive policing) εντάσσονται στα συστήματα «υψηλού κινδύνου» και όχι στις απαγορευμένες πρακτικές. Συνεπώς, επιτρέπεται- υπό ορισμένες μόνο προϋποθέσεις- η χρήση συστημάτων τα οποία αξιολογούν ορισμένα ατομικά χαρακτηριστικά ή καταστάσεις και καταλήγουν σε ένα συμπέρασμα σχετικά με την πιθανότητα διάπραξης εγκλήματος από ορισμένο πρόσωπο ή σε ορισμένη γεωγραφική περιοχή, δίνοντας τη δυνατότητα στις αστυνομικές αρχές να παρακολουθούν προληπτικά ορισμένα πρόσωπα ή περιοχές [1]. Τα συστήματα αυτά, όπως έχει αποδειχθεί από πολλές έρευνες, αναπαράγουν διακρίσεις και διαιωνίζουν στερεότυπα και προκαταλήψεις έναντι κοινωνικών ομάδων, είναι επικίνδυνα για τις ατομικές ελευθερίες των πολιτών και θα έπρεπε να απαγορευτούν.
Αναμένεται να δούμε τον τρόπο με τον οποίον θα εφαρμοστούν οι κανόνες που περιλαμβάνει ο νέος Κανονισμός καθώς και εάν θα επιτευχθεί αποτελεσματική εποπτεία από τις αρμόδιες αρχές των κρατών μελών προκειμένου να προστατευτούν πραγματικά και στην ουσία τους τα δικαιώματα των πολιτών από την τεχνολογική αυτή δυνατότητα.
[1]Βλ. παράρτημα ΙΙΙ του Κανονισμού όπου εντάσσει στα συστήματα υψηλού κινδύνου: «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για τη διενέργεια ατομικών εκτιμήσεων κινδύνου όσον αφορά φυσικά πρόσωπα, προκειμένου να εκτιμηθεί ο κίνδυνος διάπραξης αδικήματος ή υποτροπής ή ο κίνδυνος για δυνητικά θύματα ποινικών αδικημάτων», «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για την πρόβλεψη της τέλεσης ή εκ νέου τέλεσης ποινικού αδικήματος, πραγματικού ή δυνητικού, με βάση την κατάρτιση προφίλ φυσικών προσώπων όπως αναφέρεται στο άρθρο 3 σημείο 4) της οδηγίας (ΕΕ) 2016/680 ή την αξιολόγηση των γνωρισμάτων και χαρακτηριστικών της προσωπικότητας ή προηγούμενης εγκληματικής συμπεριφοράς φυσικών προσώπων ή ομάδων, «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για την κατάρτιση προφίλ φυσικών προσώπων όπως αναφέρεται στο άρθρο 3 σημείο 4) της οδηγίας (ΕΕ) 2016/680 στο πλαίσιο της ανίχνευσης, της διερεύνησης ή της δίωξης ποινικών αδικημάτων»
ΠΗΓΕΣ:
https://edri.org/our-work/eu-ai-act-deal-reached-but-too-soon-to-celebrate/
https://europeanaifund.org/newspublications/european-civil-society-on-the-ai-act-deal/
*Η Κατερίνα Μεζίνη είναι Δικηγόρος, απόφοιτη του τμήματος Νομικής του ΕΚΠΑ και του ΠΜΣ «Δίκαιο και Τεχνολογίες Πληροφορικής και Επικοινωνιών» του Πανεπιστημίου Πειραιώς.
Συμμετοχή της Homo Digitalis στην Μελέτη του ΕΚΚΕ και του Δημόκριτου για τη χρήση της Παραγωγικής Τεχνητής Νοημοσύνης στην Ελλάδα
Η Ειδική Γραμματεία Μακροπρόθεσμου Σχεδιασμού της Προεδρίας της Κυβέρνησης (Special Secretariat of Foresight, Hellenic Republic), σε συνεργασία με το Εθνικό Κέντρο Κοινωνικών Ερευνών (EKKE) και το Εθνικό Κέντρο Έρευνας Φυσικών Επιστημών «Δημόκριτος» (ΕΚΕΦΕ «Δ» National Center for Scientific Research “Demokritos” ) υλοποίησαν την πρώτη εμπειρική ερευνητική προσέγγιση στρατηγικής προόρασης (strategic foresight) για τη χρήση της Παραγωγικής Τεχνητής Νοημοσύνης (generative artificial intelligence -ΠΤΝ) στην Ελλάδα.
Η έρευνα παρουσιάζει τάσεις, δυνατότητες, προκλήσεις, αβεβαιότητες και πιθανές επιλογές που θα διαμορφώσουν το μέλλον του οικοσυστήματος της ΠΤΝ στη χώρα. Παρέχει ένα πλαίσιο προτεινόμενων στρατηγικών πρωτοβουλιών και συστάσεων πολιτικής. Κύριος στόχος της είναι να αντλήσει από τη συλλογική γνώση και τις προορατικές (foresight) αντιλήψεις ειδικών και εμπειρογνωμόνων όσον αφορά στον αντίκτυπο του εγχώριου οικοσυστήματος της Παραγωγικής Τεχνητής Νοημοσύνης (ΠΤΝ), με χρονικό ορίζοντα το 2030.
Είναι μεγάλη τιμή για την ομάδα της Homo Digitalis που επιλέχθηκε για να βρίσκεται ανάμεσα στους 30 ειδικούς που συμμετείχαν στις συνεντεύξεις με τη χρήση ερωτηματολογίων για την εκπόνηση της έρευνας. Οι ειδικοί εμπειρογνώμονες εκπροσωπούσαν διάφορους εμπλεκόμενους φορείς (δημόσια διοίκηση, ερευνητική-ακαδημαϊκή κοινότητα, επιχειρήσεις-ιδιωτικός τομέας, κοινωνία πολιτών, επαγγελματικοί και επιστημονικοί φορείς) και ασχολούνται συστηματικά με την ΠΤΝ. Την ομάδα μας εκπροσώπησε με παρατηρήσεις ο Γραμματέας του ΔΣ μας Λευτέρης Χελιουδάκης.
Θα θέλαμε να ευχαριστήσουμε τον Δρ. Charalambos Tsekeris, Υπεύθυνο του Ερευνητικού Έργου “GenAI Greece 2030, Αντιπρόεδρο της Εθνικής Επιτροπής Βιοηθικής και Τεχνοηθικής και Κύριο Ερευνητή του ΕΚΚΕ για τη συμπερίληψη και την τιμητική πρόκληση στη Homo Digitalis να συμμετάσχει. Πάντα η οργάνωση μας είναι διαθέσιμη για να δίνει το παρόν σε αντίστοιχες πρωτοβουλίες και να συμμετέχει ενεργά στον δημόσιο διάλογο για τη χρήση τεχνολογιών Τεχνητής Νοημοσύνης.
Μπορείτε να διαβάσετε την πλήρη μελέτη εδώ.