Ολοκληρώθηκε με επιτυχία η συμμετοχή της Homo Digitalis σε συνάντηση της ΕΕΔΑ

Την Παρασκευή 23 Ιανουαρίου βρεθήκαμε δια ζώσης στα γραφεία της Εθνικής Επιτροπής για τα Δικαιώματα του Ανθρώπου, για την ακρόαση προσώπων και φορέων για την Τεχνητή Νοημοσύνη και τα Ανθρώπινα Δικαιώματα. Εκεί, από κοινού με άλλες ΟΚοιΠ, φορείς της Πολιτείας, Ανεξάρτητες Αρχές, Ερευνητικά Κέντρα για την Τεχνητή Νοημοσύνη, και μέλη της ακαδημαϊκής κοινότητας, παραθέσαμε τις απόψεις αναφορικά με τη δέσμη μέτρων Digital Omnibus on AI.

Την οργάνωση εκπροσώπησε ο Λευτέρης Χελιουδάκης.

Ευχαριστούμε πολύ τους διοργανωτές για τη συμπερίληψη και τη δυνατότητα έκφρασης των τοποθετήσεων της Homo Digitalis!


Σε διαρκή ετοιμότητα. Φωνή, ιδιωτικότητα και ελευθερία επιλογής

Γράφει η Αλεξάνδρα Μελισσηνού*

Μια υπόθεση εργασίας

Ας φανταστούμε το εξής: βρισκόμαστε στον καναπέ, έτοιμοι να ξεκινήσουμε την αγαπημένη μας σειρά. Τα φώτα είναι λίγο πιο έντονα απ’ όσο θα θέλαμε, αλλά κανείς δεν σηκώνεται. Αντί γι’ αυτό, απευθυνόμαστε σε μια συσκευή στο σαλόνι και μέσα σε λίγα δευτερόλεπτα ο φωτισμός προσαρμόζεται. Η τεχνολογία λειτουργεί αθόρυβα, αποτελεσματικά, σχεδόν μαγικά. Για την Αλεξάνδρα που μιλά, η εμπειρία μοιάζει απλή. Για τη «Alexa» που ακούει, ξεκινά μια πιο σύνθετη διαδικασία στο παρασκήνιο.

Αυτή είναι η γοητεία των φωνητικών ψηφιακών βοηθών: υπόσχονται ευκολία, ταχύτητα και λιγότερη προσπάθεια. Μαζί με την άνεση, όμως, αναδύεται ένα ερώτημα που σπάνια τίθεται με την ίδια ευκολία. Τι σημαίνει αυτή η διευκόλυνση για την ιδιωτικότητα και τον έλεγχο των προσωπικών μας δεδομένων;

Σε αντίθεση με άλλες ψηφιακές υπηρεσίες, οι φωνητικοί βοηθοί δεν περιορίζονται σε μια οθόνη που ανοίγουμε και κλείνουμε. Βρίσκονται μόνιμα μέσα στο σπίτι, στον πιο προσωπικό μας χώρο και βασίζονται στη φωνή μας για να λειτουργήσουν. Δεν αλληλοεπιδρούμε απλώς μαζί τους, τους επιτρέπουμε να βρίσκονται διαρκώς «σε ετοιμότητα», σε ένα περιβάλλον όπου μιλάμε πιο χαλαρά και αυθόρμητα, συχνά χωρίς να συνειδητοποιούμε ότι η ομιλία μας μπορεί να μετατραπεί σε δεδομένο.

Η συζήτηση για την ιδιωτικότητα συχνά απλοποιείται υπερβολικά και καταλήγει στο επιχείρημα ότι «όποιος δεν έχει κάτι να κρύψει, δεν έχει λόγο να ανησυχεί». Στην πραγματικότητα, όμως, η ιδιωτικότητα δεν αφορά μόνο το αν μας βλέπουν ή μας ακούν. Αφορά τον χώρο μέσα στον οποίο μπορούμε να υπάρχουμε χωρίς αδικαιολόγητη παρέμβαση, να επικοινωνούμε, να κάνουμε επιλογές και, εξίσου σημαντικό, να αλλάζουμε γνώμη.

Γι’ αυτό και η ιδιωτικότητα συνδέεται στενά με την αυτονομία και την ελευθερία επιλογής. Σε ακρόαση στο Κογκρέσο, ο Mark Zuckerberg απέφυγε να απαντήσει στο ερώτημα σε ποιο ξενοδοχείο είχε διανυκτερεύσει το προηγούμενο βράδυ. Η αμηχανία αυτή δεν υποδηλώνει κάτι ύποπτο, αλλά την αναγνώριση ότι ορισμένες πληροφορίες ανήκουν στη σφαίρα του ιδιωτικού.

Το παρόν άρθρο εστιάζει στους φωνητικούς βοηθούς, όπου η συλλογή και επεξεργασία δεδομένων πραγματοποιείται με τη συγκατάθεση του χρήστη, αναδεικνύοντας ωστόσο ότι ο τρόπος σχεδιασμού των συστημάτων και η περαιτέρω αξιοποίηση των δεδομένων μπορούν να επηρεάσουν την ιδιωτικότητα, ακόμη, και χωρίς ευθεία παραβίαση του νόμου. Στο πλαίσιο αυτό, οι φωνητικοί βοηθοί αποτελούν χαρακτηριστικό παράδειγμα της σύγχρονης «ανταλλαγής» μεταξύ ευκολίας και ελέγχου, καθώς η χρήση τους εγείρει συναφή ζητήματα στην Ευρωπαϊκή Ένωση, όχι ως έκφραση τεχνοφοβίας ή αντίθεσης στην καινοτομία, αλλά ως αφορμή για κριτική σκέψη γύρω από τον τρόπο με τον οποίο η τεχνολογία σχεδιάζεται, ενσωματώνεται και ρυθμίζεται.

Τι είναι οι φωνητικοί βοηθοί και γιατί μας αφορούν

Οι φωνητικοί βοηθοί είναι ψηφιακές υπηρεσίες που μας επιτρέπουν να αλληλεπιδρούμε με την τεχνολογία χρησιμοποιώντας μόνο τη φωνή μας. Με μια απλή εντολή μπορούμε να χαμηλώσουμε τα φώτα, να ακούσουμε ειδήσεις ή να ρυθμίσουμε τη θερμοκρασία, χωρίς να αγγίξουμε καμία συσκευή. Στην καθημερινότητα συχνά ταυτίζονται με το αντικείμενο στο οποίο «ζουν», όπως ένα έξυπνο ηχείο ή ένα κινητό τηλέφωνο. Στην πραγματικότητα, όμως, πρόκειται για λογισμικό που λειτουργεί στο παρασκήνιο και συνδέει τη φωνή του χρήστη με ένα ευρύτερο ψηφιακό οικοσύστημα υπηρεσιών. Στην Ευρώπη, οι πιο διαδεδομένοι είναι η Alexa της Amazon, το Google Assistant και η Siri της Apple.

Παρότι ενσωματώνονται σε προσωπικές συσκευές, οι φωνητικοί βοηθοί δεν λειτουργούν ως απομονωμένα συστήματα. Στην πράξη, δεν υπάρχει «η Alexa του σπιτιού μου». Πίσω από κάθε συσκευή βρίσκεται ένα ενιαίο σύστημα στο cloud, ένα κοινό «μυαλό», που τροφοδοτείται από τις αλληλεπιδράσεις εκατομμυρίων χρηστών. Κάθε φωνητική εντολή δεν εξυπηρετεί μόνο τη συγκεκριμένη στιγμή, αλλά συμβάλλει στη συνολική εκμάθηση και εξέλιξη του βοηθού.

Για να ανταποκριθεί σε μια εντολή, ο φωνητικός βοηθός βρίσκεται σε διαρκή ετοιμότητα για τον εντοπισμό της λέξης ενεργοποίησης (wake word). Κατ’ αρχήν, η αποστολή και επεξεργασία φωνητικών δεδομένων ξεκινά μετά την ενεργοποίηση αυτή. Ωστόσο, δεν αποκλείονται ακούσιες ενεργοποιήσεις, ιδίως σε περιβάλλοντα με θόρυβο ή πολλούς ομιλητές, με αποτέλεσμα την καταγραφή ομιλιών που δεν προορίζονταν για τη συσκευή.

Για να προσφέρουν φυσική και εξατομικευμένη εμπειρία, οι φωνητικοί βοηθοί δεν επεξεργάζονται μόνο μεμονωμένες εντολές. Διατηρούν και αναλύουν προηγούμενες αλληλεπιδράσεις, ώστε να προσαρμόζουν τη συμπεριφορά τους στον χρήστη. Εδώ αναδεικνύεται μια κρίσιμη διάκριση. Άλλο η απολύτως αναγκαία επεξεργασία για την εκτέλεση μιας εντολής και άλλο η περαιτέρω αξιοποίηση των δεδομένων για σκοπούς όπως η εκπαίδευση αλγορίθμων, η ανάλυση χρήσης ή η κατάρτιση προφίλ.

Το ζήτημα γίνεται ακόμη πιο σύνθετο επειδή οι φωνητικοί βοηθοί τοποθετούνται σε χώρους της οικίας που χρησιμοποιούνται από περισσότερα άτομα. Εκεί ενδέχεται να βρίσκονται σύντροφοι, παιδιά ή επισκέπτες, οι οποίοι δεν απευθύνονται στη συσκευή, αλλά,  απλώς μιλούν μεταξύ τους ή κινούνται στον χώρο, χωρίς να έχουν επιλέξει οι ίδιοι τη χρήση της, ούτε να είναι ενημερωμένοι για τον τρόπο λειτουργίας της. Έτσι, η τεχνολογία δεν αφορά μόνο τον κύριο χρήστη, αλλά, εκτείνεται σε ένα ευρύτερο κοινωνικό περιβάλλον γύρω από τη συσκευή.

Οι διακρίσεις αυτές δεν είναι θεωρητικές. Το 2019 αποκαλύφθηκε ότι αποσπάσματα ηχογραφήσεων από φωνητικούς βοηθούς μεγάλων τεχνολογικών εταιρειών, όπως η Amazon και η Google, αξιολογούνταν από ανθρώπους για την εκπαίδευση των συστημάτων αναγνώρισης ομιλίας. Οι ηχογραφήσεις δεν περιορίζονταν σε συνειδητές φωνητικές εντολές, αλλά περιλάμβαναν και ακούσιες ενεργοποιήσεις, καταγράφοντας στιγμές της καθημερινής ζωής στο σπίτι, όπως μια συζήτηση, ένα γέλιο ή έναν διαπληκτισμό. Πολλοί χρήστες αγνοούσαν ότι τα δεδομένα αυτά δεν υφίσταντο αποκλειστικά αυτοματοποιημένη επεξεργασία.

Το ευρωπαϊκό νομικό πλαίσιο

Στο ευρωπαϊκό δίκαιο, η λειτουργία των φωνητικών βοηθών διέπεται από τον Γενικό Κανονισμό Προστασίας Δεδομένων (ΓΚΠΔ), ο οποίος επιτρέπει υπό προϋποθέσεις τη συλλογή και επεξεργασία προσωπικών δεδομένων, όπως η φωνή. Παράλληλα, εφαρμόζεται η Οδηγία e-Privacy, η οποία ρυθμίζει την πρόσβαση στον τερματικό εξοπλισμό του χρήστη, δηλαδή, στο μικρόφωνο της συσκευής.

Σύμφωνα με την Οδηγία e-Privacy, η πρόσβαση στο μικρόφωνο επιτρέπεται, κατά κανόνα, μόνο εφόσον ο χρήστης έχει δώσει εκ των προτέρων τη συγκατάθεσή του. Εξαίρεση προβλέπεται μόνο όταν η πρόσβαση είναι απολύτως αναγκαία για την παροχή μιας υπηρεσίας που ο ίδιος ζήτησε ρητά. Έτσι, η καταγραφή φωνής που απαιτείται για την εκτέλεση μιας συγκεκριμένης εντολής μπορεί να θεωρηθεί θεμιτή. Δεν ισχύει όμως το ίδιο για ακούσιες ενεργοποιήσεις ή για την καταγραφή φωνών τρίτων που δεν έχουν συναινέσει.

Ακόμη κι όταν υπάρχει συγκατάθεση ή άλλη νόμιμη βάση, η επεξεργασία δεν είναι άνευ όρων. Ο ΓΚΠΔ θέτει ποιοτικά όρια στη συλλογή και επεξεργασία προσωπικών δεδομένων μέσω των θεμελιωδών αρχών του άρθρου 5, ιδίως του περιορισμού του σκοπού συλλογής των προσωπικών δεδομένων, της απαγόρευσης περαιτέρω επεξεργασίας αυτών και της ελαχιστοποίησης των δεδομένων. Συγκεκριμένα, τα δεδομένα πρέπει να συλλέγονται για σαφείς σκοπούς, γνωστούς στον χρήστη εκ των προτέρων και να περιορίζονται σε όσα είναι πράγματι κατάλληλα, συναφή και αναγκαία για τους σκοπούς αυτούς. Η συλλογή πληροφοριών για μελλοντική χρήση ή επειδή η τεχνολογία το επιτρέπει δεν συμβαδίζει με το πνεύμα του ΓΚΠΔ.

Στην περίπτωση των φωνητικών βοηθών, η εφαρμογή των αρχών αυτών είναι ιδιαίτερα απαιτητική. Η συνεχής εκμάθηση των συστημάτων μπορεί να οδηγήσει στη δημιουργία νέων χρήσεων των δεδομένων, όπως η εξαγωγή συμπερασμάτων για συνήθειες ή συναισθηματικές καταστάσεις. Έτσι, το όριο ανάμεσα στην παροχή της υπηρεσίας και τη διευρυμένη αξιοποίηση των δεδομένων γίνεται ολοένα και πιο δυσδιάκριτο.

Στο ίδιο πλαίσιο εντάσσεται και το άρθρο 22 του ΓΚΠΔ, το οποίο ρυθμίζει την αυτοματοποιημένη λήψη αποφάσεων και την κατάρτιση προφίλ. Αν και η διάταξη επιτρέπει τέτοιες πρακτικές, μεταξύ άλλων όταν στηρίζονται σε ρητή συγκατάθεση, η συγκατάθεση αυτή δεν αναιρεί την υποχρέωση τήρησης των θεμελιωδών αρχών, ούτε απαλλάσσει τον υπεύθυνο επεξεργασίας από την ανάγκη ουσιαστικών εγγυήσεων και διαφάνειας.

Τέλος, αξίζει να σημειώσουμε ότι η προστασία της ιδιωτικότητας δεν αρχίζει τη στιγμή που ο χρήστης μιλά στη συσκευή, αλλά πολύ νωρίτερα, στον τρόπο με τον οποίο η τεχνολογία έχει σχεδιαστεί. Ο ΓΚΠΔ απαιτεί η προστασία των δεδομένων να ενσωματώνεται εξαρχής στη λειτουργία της υπηρεσίας και όχι να ενεργοποιείται εκ των υστέρων μέσω ρυθμίσεων. Στην πράξη, αυτό σημαίνει ότι δεν αρκεί ο χρήστης να μπορεί κάποτε να διαγράψει ηχογραφήσεις. Σημασία έχει αν η ίδια η συσκευή έχει σχεδιαστεί ώστε να συλλέγει όσο το δυνατόν λιγότερα δεδομένα, για όσο το δυνατόν μικρότερο χρονικό διάστημα και μόνο για πολύ συγκεκριμένους σκοπούς. Όταν η συνεχής συλλογή αποτελεί τον κανόνα, η ιδιωτικότητα παύει να είναι προεπιλογή και γίνεται εξαίρεση.

Λίγες σκέψεις ακόμα

Το ερώτημα, τελικά, δεν είναι αν οι φωνητικοί βοηθοί είναι «καλοί» ή «κακοί». Είναι τεχνολογίες που εγκαθίστανται στον πιο προσωπικό μας χώρο και, ακριβώς γι’ αυτό, επηρεάζουν τον τρόπο με τον οποίο κινούμαστε, μιλάμε και επιλέγουμε, συχνά χωρίς να το αντιλαμβανόμαστε.

Συχνά ακούγεται το επιχείρημα: και τι πειράζει; Αν η συσκευή καταλαβαίνει καλύτερα πώς νιώθουμε, αν μας μιλά πιο «ανθρώπινα» ή μας προτείνει πράγματα που μας ταιριάζουν, δεν πρόκειται απλώς για μια πιο άνετη εμπειρία;

Το ζήτημα δεν είναι η άνεση αυτή καθαυτή. Το ζήτημα είναι πότε η προσαρμογή μετατρέπεται σε καθοδήγηση. Πότε η τεχνολογία παύει να απαντά σε ό,τι ζητάμε και αρχίζει, διακριτικά, να διαμορφώνει τι θα ζητήσουμε στη συνέχεια. Όχι με επιβολή, αλλά με μικρές, συνεχείς παρεμβάσεις που δύσκολα γίνονται αντιληπτές.

Σε αυτό το σημείο, η ιδιωτικότητα δεν αφορά απλώς το αν καταγράφεται η φωνή μας. Αφορά το αν διατηρούμε τον έλεγχο των επιλογών μας. Το αν μπορούμε να σκεφτούμε, να μιλήσουμε και να αλλάξουμε γνώμη χωρίς να εντασσόμαστε σιωπηλά σε προφίλ που λειτουργούν στο παρασκήνιο.

Το ευρωπαϊκό νομικό πλαίσιο προσφέρει σημαντικές εγγυήσεις. Η ουσιαστική του αξία, όμως, δεν εξαντλείται στη συγκατάθεση. Κρίνεται στο αν η προστασία της ιδιωτικότητας έχει προβλεφθεί εξαρχής στον σχεδιασμό της τεχνολογίας ή αν μεταφέρεται, εκ των υστέρων, στον χρήστη ως βάρος διαχείρισης.

Σε μια εποχή όπου η τεχνολογία υπόσχεται να μας κάνει τη ζωή πιο εύκολη, το πραγματικό διακύβευμα δεν είναι αν μας ακούει μια συσκευή. Είναι αν παραμένουμε ελεύθεροι να επιλέγουμε τον τρόπο με τον οποίο ζούμε, μιλάμε και υπάρχουμε  ακόμη και όταν απλώς καθόμαστε στον καναπέ και ζητάμε να χαμηλώσουν τα φώτα.

 

*Η Αλεξάνδρα Μελισσηνού είναι νομικός με ειδίκευση στο Δίκαιο Διανοητικής Ιδιοκτησίας. Είναι κάτοχος μεταπτυχιακού τίτλου (LLM in Intellectual Property) από το Queen Mary University of London και τα επαγγελματικά της ενδιαφέροντα εστιάζουν στα άυλα αγαθά και τα ψηφιακά δικαιώματα.


Με επιτυχία ολοκληρώθηκε η συμμετοχή της Homo Digitalis σε εκδήλωση για την DNA και την CAIDA

Στις 19/1, προσκληθήκαμε από την Amazon Web Services (AWS) σε εκδήλωση που αφορούσε νομοθετικές πρωτοβουλίες ψηφιακών ζητημάτων, όπως την Digital Networks Act (DNA) και την Cloud and AI Development Αct (CAIDA), μαζί με εκπροσώπους από θεσμικούς φορείς και δικηγορικές εταιρίες.

Εκεί, είχαμε την ευκαιρία να εκφράσουμε τους έντονους προβληματισμούς μας, αναφορικά με τις τότε επικείμενες προτεινόμενες διατάξεις της DNA, και να προωθήσουμε τις θέσεις του δικτύου μας. Μπορείτε να διαβάσετε έναν σχετικό σχολιασμό των προτεινόμενων διατάξεων από την epicenter.works εδώ .

Την οργάνωση εκπροσώπησε ο Λευτέρης Χελιουδάκης και Κωνσταντίνος Κακαβούλης. Ευχαριστούμε πολύ τους διοργανωτές για τη συμπερίληψη και τη δυνατότητα έκφρασης των τοποθετήσεών μας!


Αόρατες προκαταλήψεις: Η περίπτωση της τεχνητής νοημοσύνης και της έμφυλης διάστασης

Γράφει η Θεοδώρα Τσούτσα*

Η χρήση της τεχνητής νοημοσύνης όπως γίνεται καθημερινά ολοένα και πιο αντιληπτό γίνεται αναπόσπαστο κομμάτι σε πάρα πολλούς τομείς, όπως οι επιχειρήσεις, η εκπαίδευση, η υγεία κτλ. Παρόλα αυτά δεν πρέπει να ξεχνάει κανείς ότι  και η τεχνητή νοημοσύνη (ΤΝ) είναι  κατασκευασμένη και εκπαιδευμένη από ανθρώπους, που μπορεί και οι ίδιοι να  κουβαλάνε προκαταλήψεις, οι οποίες πολλές φορές με ακούσιο τρόπο και αφιλτράριστα περνάνε στους αλγόριθμους.

Αυτή η συνειδητοποίηση ανοίγει χώρο για περισσότερες σκέψεις από ποτέ, σχετικά με το τι αντίκτυπο μπορεί να έχει η ανθρώπινη αντίληψη πάνω στον αλγόριθμο  και υπογραμμίζει την σημασία  μιας ολιστικής και με διαφάνεια προσέγγισης όταν εκπαιδεύουμε εργαλεία. Πιο συγκεκριμένα εάν δεν υπάρχει μια ολοκληρωμένη εποπτεία μπορεί να επηρεάσει μεροληπτικά και να διαιωνίσει προκαταλήψεις σε βάρος κάποιων συγκεκριμένων, συνήθως πιο ευάλωτων ή/και περιθωριοποιημένων κοινοτήτων.  Το συγκεκριμένο άρθρο θα εστιάσει στην διάσταση του φύλου, η οποία πολλές φορές δεν λαμβάνεται υπόψιν σε βάθος, όταν πρόκειται για την δημιουργία ενός αλγόριθμου.

Μελέτες περίπτωσης

1.Ένα χαρακτηριστικό πρώτο παράδειγμα αποτελεί η προσπάθεια της Amazon να αναπτύξει έναν αυτοματοποιημένο αλγόριθμο πρόσληψης. Αυτή ήταν μια αποτυχημένη απόπειρα η οποία δεν διήρκησε αρκετό καιρό καθώς τα δεδομένα εκπαίδευσης αποδείχθηκαν άκρως προκατειλημμένα και σεξιστικά. Πιο συγκεκριμένα ο αλγόριθμος επειδή είχε εκπαιδευτεί με βάση προηγούμενα βιογραφικά υψηλής αξιολόγησης, τα οποία προέρχονταν κυρίως από άντρες, «έμαθε» να ευνοεί άντρες υποψηφίους, αναπαράγοντας ήδη υπάρχουσες ανισορροπίες στον  χώρο της εργασίας, κάτι που οδήγησε στην εγκατάλειψη του έργου. Εδώ παρατηρούμε πως η προκατάληψη απέναντι στο φύλο μέσω συστημάτων ΤΝ μπορεί να είναι δύσκολο να γίνει ευδιάκριτη με αποτέλεσμα τα άτομα να αδικούνται, και να επηρεάζονται οι ευκαιρίες και οι δυνατότητες που έχουν, μέσω αυτής της αναπαραγωγής των στερεοτύπων.

Ακόμα μια τέτοια περίπτωση όπως αυτή της  Amazon αντικατοπτρίζει μια διαχρονική προβληματική, αυτή της ιστορικής ανδροκρατίας στη βιομηχανία και τις επιχειρήσεις και αναδεικνύει πόσο εύκολα κάτι τέτοιο μπορεί να ενσωματωθεί στους αλγόριθμους. Αποτελεί χαρακτηριστικό παράδειγμα της διαιώνισης του κοινωνικού φαινομένου της «γυάλινης οροφής» , των αόρατων δηλαδή εμποδίων που περιορίζουν τις επαγγελματικές προοπτικές των γυναικών.

2.Μία ακόμα περίπτωση στον τομέα του ελέγχου της μετανάστευσης είναι το πιλοτικό σύστημα, αποκλειστικά ερευνητικού χαρακτήρα, iBorderCtrl , ένα εργαλείο ανίχνευσης ψεύδους και αναγνώρισης προσώπου για την είσοδο ταξιδιωτών στην ΕΕ. Ένα ακόμα σύστημα που διακόπηκε, προκαλώντας έντονη ανησυχία σχετικά με την προστασία των ανθρωπίνων δικαιωμάτων. Ιδιαίτερα, έγειρε ανησυχίες σχετικά με προκαταλήψεις απέναντι στο φύλο αλλά και στην φυλή μέσω της ΤΝ , οι οποίες θα μπορούσαν να οδηγήσουν σε διακριτική μεταχείριση των ταξιδιωτών. Συγκεκριμένα, οι αλγόριθμοι θα μπορούσαν να παρερμηνεύσουν τις εκφράσεις του προσώπου των γυναικών, αντανακλώντας κοινωνικές προκαταλήψεις που αντιλαμβάνονται τις γυναίκες ως πιο συναισθηματικές ή λιγότερο αξιόπιστες, αυξάνοντας έτσι την πιθανότητα ψευδώς θετικών ανιχνεύσεων μεταξύ των γυναικών ταξιδιωτών. Ουσιαστικά εδώ η έλλειψη ποικιλομορφίας στα δεδομένα εκπαίδευσης έκανε το iΒorderctrl να ενσωματώνει έμφυλες και φυλετικές προκαταλήψεις, οδηγώντας σε ανακριβείς ή μεροληπτικές αξιολογήσεις απέναντι σε μη Ευρωπαίους, γυναίκες και μη δυαδικά άτομα. Η αδιαφάνεια του συστήματος και οι λανθασμένες υποθέσεις περί καθολικών εκφράσεων συμπεριφοράς ενίσχυσαν τον κίνδυνο διακρίσεων στα σύνορα της ΕΕ. Αυτό αναδεικνύει την ανάγκη της λογοδοσίας και της διαφάνειας στην ανάπτυξη συστημάτων ΤΝ, έτσι ώστε να μην απειλείτε η ισότητα και η προστασία των ανθρωπίνων δικαιωμάτων τόσο στα σύνορα, όσο και γενικότερα.

3.Ένα τελευταίο και μόνιμα πλέον επίκαιρο εργαλείο που αντανακλά το φαινόμενο των προκαταλήψεών, είναι η κατασκευή των chatbots (πχ ChatGpt).Παρότι κατασκευάστηκαν για να είναι άμεσα, αντικειμενικά και αμερόληπτα , δεν πρέπει να ξεχνάμε πως και αυτά χτίζονται πάνω σε ανθρώπινες μεροληψίες με αποτέλεσμα όχι μόνο να αντικατοπτρίζουν υπάρχουσες προκαταλήψεις, αλλά και να τις ενισχύουν.Πιο συγκεκριμένα όσο ένα σύστημα τροφοδοτείτε με προκατειλημμένα στοιχεία  από τον εκπαιδευτή, τα δίνει στον χρήστη και ο χρήστης συνεχίζοντας μια συνομιλία πάνω στα δεδομένα αυτά δημιουργεί ένα φαύλο κύκλο όπου η μεροληψία συνεχίζεται και αναπαράγεται. (bias in – bias out). Έτσι το εργαλείο αυτό, όχι απλά γίνεται εργαλείο μη προόδου, αλλά και μηχανισμός συντήρησης στερεοτύπων σε μεγαλύτερη και ταχύτερη εμβέλεια.

Φυσικά το πρόβλημά αυτό επιτείνεται και από την άνιση εκπροσώπηση των φύλων στον τεχνολογικό τομέα. Το 2019 μόλις το 26% των θέσεων εργασίας στους τομείς των δεδομένων και της τεχνητής νοημοσύνης καταλαμβάνονται από  γυναίκες (World Economic Forum 2019), ενώ το 2025 το ποσοστό αυτό καταφέρνει να φτάσει περίπου στο 35% (World Economic Forum 2025). Η αύξηση αυτή θα μπορούσε να χαρακτηριστεί αργή αλλά και μη αντιπροσωπευτική. Μια τέτοια ανισορροπία στην διαδικασία εκπαίδευσης αλγορίθμων σημαίνει ότι απουσιάζει η απαραίτητη ποικιλομορφία που θα εξασφάλιζε  πιο ισορροπημένα και συμπεριληπτικά συστήματα.

Περνώντας στην νομική διάσταση

Τώρα περνώντας στην νομική διάσταση επισημαίνεται και η ανάγκη για μια πιο διαθεματική προσέγγιση, καθώς δεν πρέπει να ξεχνάμε πως οι γυναίκες δεν υφίστανται προκατάληψη μόνο λόγω φύλου, αλλά συχνά επιβαρύνονται με επιπλέον εμπόδια αν ανήκουν σε φυλετικές, εθνοτικές ή άλλες μειονεκτούσες ομάδες, αυξάνοντας τον κίνδυνο αποκλεισμού.

Τον Ιούλιο του 2024, περνάει σε ισχύ ο πρώτος ολοκληρωμένος Κανονισμός (2024/1689) στην Ευρωπαϊκή Ένωση σχετικά με την Τεχνητή νοημοσύνη, με σκοπό να ρυθμίσει την λειτουργία των συστημάτων ΤΝ μέσα σε διάφορα πλαίσια. Μέσα στην προσπάθεια αυτή ορίζει κάποια συστήματα  και πρακτικές  ως απαγορευμένες, και κάποιες ως υψηλού, μετρίου και χαμηλού κινδύνου.  Παρατηρώντας κανείς  τον κανονισμό αυτό σε βάθος θα εντοπίσει κάποιες ελλείψεις μη συμπερίληψης σχετικά με το φύλο , οι οποίες σχετίζονται κυρίως με την διάσταση της διαθεματικότητας, η οποία αναφέρθηκε και νωρίτερα.

Τα 3 βασικά σημεία που εντοπίζεται αυτό είναι τα άρθρα  5, 6 και 27. Αρχίζοντας  με το άρθρο 5 του Νόμου, το οποίο ορίζει τις απαγορευμένες πρακτικές που μπορεί να θέσουν σε κίνδυνο τα θεμελιώδη ανθρώπινα δικαιώματα αλλά και την ασφάλεια των ατόμων παρατηρούμε ότι απαγορεύονται πρακτικές όπως η κοινωνική βαθμολόγηση και η χειραγώγηση ευάλωτων ατόμων. Παρότι  κάνει σημαντικά βήματα και ρυθμίζει τη χρήση βιομετρικών συστημάτων που βασίζονται σε ευαίσθητα χαρακτηριστικά (π.χ. φυλή, σεξουαλικός προσανατολισμός), παραλείπει την ρητή αναφορά στο φύλο ως τέτοιο χαρακτηριστικό παρά τις σχετικές συστάσεις του Ευρωπαϊκού Συμβουλίου Προστασίας Δεδομένων. Αυτή η παράλειψη υπογραμμίζει ένα σημαντικό κενό στην προστασία της ισότητας των φύλων, αναδεικνύοντας  έντονα την ανάγκη για διατομεακή προσέγγιση που να αντιμετωπίζει τις πολλαπλές μορφές διάκρισης στα συστήματα Τεχνητής Νοημοσύνης.

Το άρθρο 6 τώρα, καθώς ταξινομεί τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, εντοπίζεται να μην απαιτεί κανένα έλεγχο για διακρίσεις λόγω φύλου ή διαθεματικές διακρίσεις. Αντιθέτως, αναφέρεται πολύ γενικά στις αρχές μη διακριτικής μεταχείρισης που δεν εξασφαλίζουν την ουσιαστική ανίχνευση και τον μετριασμό των διακρίσεων λόγω φύλου και των διαρθρωτικών διακρίσεων στην τεχνητή νοημοσύνη υψηλού κινδύνου. Έτσι, η «ουδέτερη ως προς το φύλο» προσέγγιση δεν μπορεί να αποτυπώσει τις πραγματικές  ανισότητες που βιώνουν οι περιθωριοποιημένες ομάδες φύλου.

Ολοκληρώνοντας στο άρθρο 27, ο νόμος τονίζει την ανάγκη για εκτίμηση επιπτώσεων των συστημάτων ΤΝ υψηλού κινδύνου, βασισμένη στο ήδη υπάρχων εργαλείο εκτίμησης επιπτώσεων για τα θεμελιώδη δικαιώματα (FRIA) προκειμένου να αξιολογηθούν και να μετριαστούν οι κίνδυνοι διακρίσεων. Ωστόσο, αυτές οι εκτιμήσεις δεν είναι ρητά προσαρμοσμένες για την αντιμετώπιση των διαθεματικών ευπαθειών ή των συστημικών προκαταλήψεων λόγω φύλου που ενσωματώνονται στα δεδομένα και στα συστήματα τεχνητής νοημοσύνης.

Επομένως, αν κάτι γίνεται αντιληπτό από την ανάλυση αυτή είναι, ότι ο Κανονισμός (2024/1689) σχετικά με τη Τεχνητή Νοημοσύνη  οφείλει να ενσωματώσει ρητές διατάξεις που να ανταποκρίνονται στις ανάγκες των δύο φύλων. Χωρίς την ενσωμάτωση αυτή αλλά και της διαθεματικότητας, ο νόμος κινδυνεύει να μην προστατεύσει επαρκώς περιθωριοποιημένες ομάδες φύλου, οι οποίες επηρεάζονται δυσανάλογα από τις προκατειλημμένες εφαρμογές της ΤΝ. Ενώ ο νόμος διαθέτει μηχανισμούς για την αναγνώριση και τον μετριασμό ορισμένων ευπαθειών που σχετίζονται με το φύλο, δεν καταφέρνει να προστατέψει επαρκώς την δημιουργία συστημάτων σαν αυτά που αναφέρθηκαν νωρίτερα, πράγμα απαραίτητο για την ολοκληρωμένη αντιμετώπιση των συστημικών και δομικών προκαταλήψεων λόγω φύλου στην ΤΝ.

*Ονομάζομαι Θεοδώρα Τσούτσα, και έχω κάνει το μεταπτυχιακό μου πάνω στα ανθρώπινα δικαιώματα, στο οποίο μεταξύ των άλλων έγραψα την διπλωματική μου σχετικά με τα σύνορα και την τεχνητή νοημοσύνη. Πιο συγκεκριμένα το θέμα ήταν: «Convince the algorithm: How the digitalisation of European Union Borders could be a harmful tool for people on the move and their human rightsΗ έρευνα αυτή με έκανε να ανακαλύψω το ενδιαφέρον που έχω γενικότερα για την συσχέτιση των ανθρωπίνων δικαιωμάτων με την τεχνητή νοημοσύνη και τι κινδύνους μπορεί να εγκυμονεί στο μέλλον.


Με επιτυχία ολοκληρώθηκε η ομιλία της Homo Digitalis στο Ετήσιο Συνέδριο της Διεθνούς Διαφάνειας Ελλάδας και της ΕΕΛΛΑΚ

Με επιτυχία ολοκληρώθηκε η συμμετοχή της Homo Digitalis στο Ετήσιο Συνέδριο, που διοργάνωσε η Διεθνής Διαφάνεια – Ελλάς και η ΕΕΛΛΑΚ στις 21 Ιανουαρίου, με τίτλο «Ανοιχτά Δεδομένα και Τεχνητή Νοημοσύνη: Νέες Δυνατότητες & Προκλήσεις στη Διαφάνεια, τις Δημόσιες Συμβάσεις και τους Προϋπολογισμούς».

Την οργάνωση εκπροσώπησε δυναμικά το μέλος μας Τάνια Σκραπαλιώρη, συμμετέχοντας στο 3ο πάνελ της ημερίδας με τίτλο «Διαφάνεια στην Πράξη: Προτάσεις και Καινοτομία που Μεταμορφώνουν τη Διακυβέρνηση».

Ευχαριστούμε πολύ τους διοργανωτές για αυτή την εξαιρετική εκδήλωση καθώς και τη δυνατότητα συμμετοχής της Homo Digitalis σε αυτήν!


Άλλη μία σημαντική νίκη! Η ΑΠΔΠΧ κρίνει παράνομη τη λειτουργία του συστήματος Smart Policing της Ελληνικής Αστυνομίας!

Το 2019, η Ελληνική Αστυνομία υπέγραψε σύμβαση με την εταιρεία Intracom Telecom για την υλοποίηση του προγράμματος Smart Policing, συνολικού ύψους 4 εκατομμυρίων ευρώ. Το έργο αφορούσε την προμήθεια 1.000 «έξυπνων» φορητών συσκευών, οι οποίες θα παρείχαν δυνατότητες αναγνώρισης προσώπου, αναγνώρισης δακτυλικών αποτυπωμάτων, καθώς και σάρωσης εγγράφων και πινακίδων οχημάτων.

Η Homo Digitalis ήταν η πρώτη οργάνωση που ανέδειξε δημόσια την υπόθεση, στο πλαίσιο κοινής ερευνητικής δημοσίευσης με την AlgorithmWatch τον Δεκέμβριο του 2019. Τον ίδιο μήνα, υποβάλαμε αίτημα πρόσβασης σε έγγραφα προς το Υπουργείο Προστασίας του Πολίτη, προκειμένου να διευκρινιστούν κρίσιμα ζητήματα νομιμότητας και προστασίας δεδομένων. Η απάντηση που λάβαμε δεν παρείχε ουσιαστικές απαντήσεις στα ερωτήματά μας.

Ως αποτέλεσμα, τον Μάρτιο του 2020 καταθέσαμε καταγγελία στην Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (ΑΠΔΠΧ), ζητώντας τη διερεύνηση της υπόθεσης. Η Αρχή έκανε δεκτό το αίτημά μας και ξεκίνησε επίσημη έρευνα τον Αύγουστο του 2020. Στο μεταξύ, το Ελληνικό Δημόσιο κατέβαλε το σύνολο των 4 εκατομμυρίων ευρώ (εκ των οποίων το 75% χρηματοδοτήθηκε από ευρωπαϊκούς πόρους), ενώ η εταιρεία παρέδωσε κανονικά τις συσκευές στην ΕΛ.ΑΣ.

Τελικά, στις 31 Δεκεμβρίου 2025, η ΑΠΔΠΧ εξέδωσε την Απόφαση 45/2025, με την οποία προειδοποιεί την ΕΛ.ΑΣ. να μην ενεργοποιήσει το Σύστημα Smart Policing, καθώς, υπό το ισχύον νομικό πλαίσιο, οποιαδήποτε παραγωγική λειτουργία του θα συνιστούσε παράνομη επεξεργασία προσωπικών δεδομένων. Η Αρχή διαπίστωσε ότι δεν υφίσταται νομική βάση για τη σκοπούμενη επεξεργασία μέσω του εν λόγω συστήματος καθώς και ότι δεν είχε διενεργηθεί έγκαιρα η απαιτούμενη εκτίμηση αντικτύπου προσωπικών δεδομένων κατά το στάδιο της πιλοτικής εφαρμογής του συστήματος.

Η εξέλιξη αυτή μας δημιουργεί έντονο αίσθημα δικαίωσης, καθώς επιβεβαιώνεται, έπειτα από έξι χρόνια, ότι οι σοβαρές ανησυχίες που είχαμε διατυπώσει από την πρώτη στιγμή ήταν απολύτως βάσιμες. Ταυτόχρονα, όμως, αναδεικνύει με τον πιο εμφατικό τρόπο την κατασπατάληση δημόσιων πόρων για την ανάπτυξη και προμήθεια τεχνολογιών που δεν μπορούσαν ποτέ να λειτουργήσουν νόμιμα. Τέσσερα εκατομμύρια ευρώ των φορολογουμένων δαπανήθηκαν για ένα σύστημα το οποίο, υπό το ισχύον νομικό πλαίσιο, κρίθηκε παράνομο πριν καν τεθεί σε παραγωγική λειτουργία.

Η υπόθεση αυτή καταδεικνύει την ανάγκη για ουσιαστικό έλεγχο νομιμότητας, διαφάνεια και λογοδοσία πριν από την υιοθέτηση τεχνολογικών λύσεων υψηλού ρίσκου, ιδίως όταν αυτές επηρεάζουν θεμελιώδη δικαιώματα και χρηματοδοτούνται με δημόσιο χρήμα.

Μπορείτε να διαβάσετε την Απόφαση 45/2025 της ΑΠΔΠΧ εδώ.

Μπορείτε να διαβάσετε περισσότερες πληροφορίες για το πρόγραμμα Smart Policing στις σελίδες 51-54 εδώ.


Με επιτυχία ολοκληρώθηκε η εκδήλωσή μας για το GAIN με τις εποπτικές αρχές του Άρθρου 77 ΑΙ Act

Με επιτυχία ολοκληρώθηκε η χθεσινή εκδήλωση που διοργανώνσαμε με το δίκτυο ΟΚοιΠ Greek AI Network – GAIN στα γραφεία του μέλους του δικτύου WHEN Hub!

Η εκδήλωση ξεκίνησε με εισαγωγική ομιλία του Συνιδρυτή και Ταμία του ΔΣ μας Κωνσταντίνου Κακαβούλη. Στη συνέχεια, εκπρόσωποι από δύο αρχές θεμελιωδών δικαιωμάτων του άρθρου 77 της AI Act, και συγκεκριμένα οι Δρ. Ευφροσύνη Σιουγλέ από την Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα και ΔΝ Χρήστος Τσεβάς από την Εθνική Επιτροπή για τα Δικαιώματα του Ανθρώπου, παραχώρησαν εκπαιδευτικές ομιλίες!

Τέλος, στο Members in the Spotlight Session, το μέλος μας & DPO Executive / GDPR Expert, Δήμος Κωστούλας παραχώρησε εκπαιδευτική παρουσίαση σχετικά με την επεξεργασία προσωπικών δεδομένων στον χώρο της υγείας και τη χρήση συστημάτων Τεχνητής Νοημοσύνης σε αυτό το πεδίο!

Ευχαριστούμε θερμά τους ομιλητές, τα μέλη του δικτύου GAIN και τα μέλη της Homo Digitalis που έδωσαν το παρόν διαδικτυακά και δια ζώσης, καθώς και τους άλλους φορείς που μας τίμησαν με την παρουσία τους!

Η εκδήλωση πραγματοποιήθηκε στο πλαίσιο το προγράμματος GAIN με την υποστήριξη του European AI & Society Fund!

 


Λίγες θέσεις έμειναν για τη νέα εκδήλωση του GAIN! Γνώρισε από κοντά τις εποπτικές αρχές του Άρθρου 77 ΑΙ Act

Είσαι Οργάνωση της Κοινωνίας των Πολιτών (ΟΚοιΠ) και ενδιαφέρεσαι για την Προστασία των Δικαιωμάτων του Ανθρώπου στην εποχή της τεχνητής νοημοσύνης;

Έχουν μείνει λίγες δωρεάν θέσεις δια ζώσης συμμετοχής, στην εκδήλωση που διοργανώνουμε αύριο με το δίκτυο ΟΚοιΠ Greek AI Network – GAIN στο WHEN Hub!

Στην εκδήλωση, εκπρόσωποι από δύο αρχές θεμελιωδών δικαιωμάτων του άρθρου 77 της AI Act, και συγκεκριμένα οι Efrosini Siougle από την Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (Hellenic Data Protection Authority) και Christos Tsevas από την Εθνική Επιτροπή για τα Δικαιώματα του Ανθρώπου (Greek National Commission for Human Rights), θα πραγματοποιήσουν 2 ενημερωτικές παρουσιάσεις για την Τεχνητή Νοημοσύνη και θα είναι στη διάθεσή μας, για να απαντήσουν σε ερωτήσεις σχετικά με την αποστολή του φορέα τους.

Ακόμά, στο Members in the Spotlight Session, θα έχουμε τη τιμή το μέλος μας & DPO Executive / GDPR Expert, Dimos Kostoulas, να παραχωρήσει εκπαιδευτική παρουσίαση σχετικά με την επεξεργασία προσωπικών δεδομένων στον χώρο της υγείας και τη χρήση συστημάτων Τεχνητής Νοημοσύνης σε αυτό το πεδίο!

Ο σύνδεσμος για τις εγγραφές για τις περιορισμένες δωρεάν θέσεις συμμετοχής για οργανώσεις της κοινωνίας των πολιτών βρίσκεται εδω.

Η εκδήλωση πραγματοποιείται στο πλαίσιο το προγράμματος GAIN με την υποστήριξη του European AI & Society Fund!

 


Παρουσιάσαμε στο Privacy & Data Protection Conference τη Μελέτη μας για το πακέτο Digital Omnibus

Last Friday, Homo Digitalis was invited to the Privacy & Data Protection Conference, organized by BOUSSIAS.

There, our Executive Director, Eleftherios Chelioudakis, presented our Study on the Digital Omnibus reform packages, highlighting the challenges that the proposed changes pose to our rights in the contemporary digital era.

You can read our Study here.

We would like to warmly thank the conference organizers, and especially Alexandra Varla, for the very honorable invitation. Congratulations as well to all the speakers for their insightful contributions.

.