Οι Έξυπνες κάμερες παραμένουν μη πλήρως λειτουργικές με καθυστερήσεις στη συμμόρφωση με τον νόμο 5256/2025

Μετά από σχετικές νομικές ενέργειες στις οποίες προχώρησε η Homo Digitalis, αναδείχθηκε ότι το Ενιαίο Ηλεκτρονικό Σύστημα καταγραφής και διαχείρισης παραβάσεων Κ.Ο.Κ. και προστίμων (Ε.Η.Σ.) το οποίο θεσπίσθηκε με τον Ν.5256/2025 τον Δεκέμβριο του 2025, παραμένει μη πλήρως λειτουργικό, ενώ υπάρχει ελλιπής συμμόρφωση και με τα χρονοδιαγράμματα αλλά και τις νομικές υποχρεώσεις.

Η οδική ασφάλεια και η προστασία όλων των οδηγών, επιβατών και πεζών, αποτελεί σημαντικό σκοπό, ωστόσο ο τρόπος με τον οποίο εφαρμόζεται το νομικό πλαίσιο που πρόσφατα υιοθετήθηκε και η εγκατάσταση και χρήση των σχετικών συστημάτων επιτήρησης και των αλγορίθμων που τα συνοδεύει, δημιουργεί προκλήσεις τόσο για τη λογοδοσία των αρμόδιων φορέων, όσο και για την προστασία των δικαιωμάτων όλων μας.

Πλήθος δημοσιευμάτων έντυπων, τηλεοπτικών και διαδικτυακών μέσων ενημέρωσης, διακινούσαν ανακριβείς πληροφορίες για μεγάλο χρονικό διάστημα ότι το Ε.Η.Σ. όχι μόνο είναι πλήρως λειτουργικό, αλλά και πως το σύστημα είναι ήδη σε θέση να επιβάλλει αυτοματοποιημένα πρόστιμα για παραβάσεις, όπως η χρήση κινητού τηλεφώνου, η χρήση κράνους, ή η χρήση ζώνης ασφαλείας κατά την οδήγηση.

Τον Φεβρουάριο και τον Μάρτιο του 2026, η Homo Digitalis αποφάσισε να χρησιμοποιήσει κάθε νομικό εργαλείο και όλες τις εγγυήσεις που προβλέπονται στη νομοθεσία, προκειμένου να μάθει τι συμβαίνει με την πορεία υλοποίησης του Ε.Η.Σ., και εάν τα χρονοδιαγράμματα και η υιοθέτηση των σχετικών υπουργικών αποφάσεων και των πρωτοκόλλων συνεργασίας που απαιτεί η νομοθεσία έχουν τηρηθεί.

Ειδικότερα, στις 24 Φεβρουαρίου καταθέσαμε Αίτημα Χορήγησης Εγγράφων στον κ. Ιωάννη Μελά, Διοικητή της Αυτοτελούς Υπηρεσίας με την επωνυμία

«Οδική Υπηρεσία Συστημάτων Εποπτείας και Ασφάλειας (ΟΔ.Υ.Σ.Ε.ΑΣ.), του Υπουργείου Υποδομών και Μεταφορών, με το οποίο αιτηθήκαμε πρόσβαση στην εκτίμηση αντικτύπου για την προστασία προσωπικών δεδομένων και την αλγοριθμική εκτίμηση αντικτύπου σχετικά με την πιλοτική εφαρμογή που φαίνεται με βάση τον ιστότοπο της Διαύγειας να έχουν εκπονηθεί. Μάλιστα, επειδή πολύ πριν από την υιοθέτηση του νομικού πλαισίου, και ειδικότερα από τις 31/07/2025, έχει δημοσιευθεί στη Διαύγεια απευθείας ανάθεση στην Εταιρία με την επωνυμία «ΕΥΡ.ΗΛΕΚ ΕΤΑΙΡΕΙΑ ΠΕΡΙΟΡΙΣΜΕΝΗΣ ΕΥΘΥΝΗΣ» για την Ανάπτυξη Πιλοτικού Πληροφοριακού Συστήματος για την καταγραφή και ανάλυση δεδομένων από τροχαίες παραβάσεις, καλέσαμε την ΟΔ.Υ.Σ.Ε.ΑΣ. να μας παραχωρήσει πρόσβαση και σε αυτή τη Σύμβαση.

Επίσης, καλέσαμε την Υπηρεσία, όπως υποχρεούται με βάση τον Ν.5256/2025, να μας ενημερώσει ως προς τα κριτήρια και τη μεθοδολογία βάσει των οποίων επελέγησαν τα συγκεκριμένα σημεία εγκατάστασης της πιλοτικής εφαρμογής του συστήματος, καθώς και ως προς τα αντικειμενικά και τεχνικά κριτήρια που οδήγησαν στη διαφοροποίηση των χρησιμοποιούμενων τεχνολογιών ανά σημείο εγκατάστασης (ενσωματωμένο radar για έλεγχο ταχύτητας τύπου “Spot Speed”, συστήματα ανίχνευσης μη χρήσης κράνους, μη χρήσης ζώνης ασφαλείας, χρήσης κινητού τηλεφώνου κατά την οδήγηση, καθώς και συστήματα καταγραφής παραβίασης ερυθρού σηματοδότη, κ.ο.κ.).

Ακόμη, καθώς με βάση τις διατάξεις του Άρθρου 23, παρ. 11 του Ν.5256/2025, ορίζεται ότι με κοινή απόφαση των Υπουργών Υποδομών και Μεταφορών, Ψηφιακής Διακυβέρνησης και Προστασίας του Πολίτη, ρυθμίζεται κάθε τεχνικό και λεπτομερειακό θέμα για την προστασία των φυσικών προσώπων έναντι της επεξεργασίας που πραγματοποιείται μέσω του Ε.Η.Σ. σύμφωνα με το άρθρο 16 (Ζητήματα προστασίας δεδομένων προσωπικού χαρακτήρα), αιτηθήκαμε από την ΟΔ.Υ.Σ.Ε.ΑΣ.  να μας χορηγηθεί αντίγραφο της ως άνω Κοινής Υπουργικής Απόφασης ή, εναλλακτικώς, να μας γνωστοποιηθεί η ακριβής διεύθυνση του διαδικτυακού τόπου στον οποίο αυτή έχει νομίμως αναρτηθεί. Επιπροσθέτως, αιτηθήκαμε να ενημερωθούμε και για τον χρόνο έναρξης λειτουργίας του συστήματος.

Τέλος, επειδή με βάση τις διατάξεις του Άρθρου 23, παρ. 12 του Ν.5256/2025,

προβλέπεται ότι με κοινή απόφαση των Υπουργών Ψηφιακής Διακυβέρνησης, Εθνικής Οικονομίας και Οικονομικών, Εσωτερικών, Δικαιοσύνης και του κατά περίπτωση συναρμόδιου Υπουργού, κατόπιν γνώμης της Αρχής Προστασίας Δεδομένων Προσωπικού Χαρακτήρα, για τη λειτουργία του Ε.Η.Σ. του άρθρου 4, καθορίζονται: α) η διαδικασία διαβίβασης, στις αρμόδιες δικαστικές, εισαγγελικές και διοικητικές αρχές, των δεδομένων που αυτές ζητούν νομίμως κατά την άσκηση των καθηκόντων τους, β) ο τρόπος, με τον οποίο ο υπεύθυνος επεξεργασίας ενημερώνει το κοινό ότι πρόκειται να εισέλθει σε χώρο που εμπίπτει στην εμβέλεια εγκατεστημένων ή φορητών συστημάτων επιτήρησης,  το περιεχόμενο της ενημέρωσης και επιπλέον δικαιώματα των υποκειμένων των δεδομένων, πέραν των ήδη κατοχυρωμένων στον Γενικό Κανονισμό για την Προστασία Δεδομένων και στον ν. 4624/2019 και γ) κάθε άλλο ειδικότερο ή τεχνικό θέμα που είναι αναγκαίο για την εφαρμογή του άρθρου 16, ζητήσαμε να ενημερωθούμε εάν έχει παρασχεθεί σχετική Γνώμη από την ΑΠΔΠΧ.

Ωστόσο, η  ΟΔ.Υ.Σ.Ε.ΑΣ. αρνήθηκε σιωπηρώς να απαντήσει στο άνω αίτημά μας.

Παράλληλα, στις 27 Φεβρουαρίου, καταθέσαμε καταγγελία ενώπιον της κας. Αλεξάνδρας Ρογκάκου, Διοικήτριας της Εθνικής Αρχής Διαφάνειας (ΕΑΔ) για παράλειψη σημαντικών υποχρεώσεων διαφάνειας από την ΟΔ.Υ.Σ.Ε.ΑΣ, αναφορικά με την πιλοτική θέση σε λειτουργία και χρήση του Ε.Η.Σ. Πιο συγκεκριμένα,  σύμφωνα με τα Άρθρα 4, 5 του Ν.4961/2022, οι φορείς του δημόσιου τομέα που κατά την άσκηση των αρμοδιοτήτων τους χρησιμοποιούν συστήματα τεχνητής νοημοσύνης για τη διαδικασία λήψης ή την υποστήριξη της διαδικασίας λήψης μιας απόφασης ή την έκδοση πράξης, οι οποίες επηρεάζουν τα δικαιώματα ενός φυσικού ή νομικού προσώπου, έχουν την υποχρέωση να εκπονήσουν Αλγοριθμική εκτίμηση αντικτύπου πριν από την έναρξη λειτουργίας του συστήματος. Επίσης, σύμφωνα με το Άρθρο 6 του Ν.4961/2022, φορέας του δημόσιου τομέα που χρησιμοποιεί σύστημα τεχνητής νοημοσύνης ενέχει υποχρέωση διαφάνειας, δηλαδή πρέπει να παρέχει, δημόσια, πληροφορίες σχετικά με α) τον χρόνο έναρξης λειτουργίας του συστήματος, β) τις παραμέτρους λειτουργίας, τις δυνατότητες και τα τεχνικά χαρακτηριστικά του συστήματος, γ) τις κατηγορίες των αποφάσεων που λαμβάνονται ή των πράξεων που εκδίδονται με τη συμμετοχή του συστήματος ή υποστηρίζονται από αυτό και δ) τη διενέργεια αλγοριθμικής εκτίμησης αντικτύπου. Με βάση τα ανωτέρω, καλέσαμε την ΕΑΔ να εξετάσει τη συμμόρφωσή της ΟΔ.Υ.Σ.Ε.ΑΣ, με τις ως άνω υποχρεώσεις.

Στις 23 Απριλίου, η ΕΑΔ απάντησε επίσημα στην καταγγελία μας, ενημερώνοντάς μας ότι από τη διερεύνηση της αναφοράς μας, τέθηκαν υπόψη της υπηρεσιακές απόψεις της αρμόδιας εμπλεκόμενης υπηρεσίας από τις οποίες προκύπτει ότι δεν έχει εκδοθεί μέχρι σήμερα η κοινή απόφαση των Υπουργών Ψηφιακής Διακυβέρνησης, Εσωτερικών, Προστασίας του Πολίτη και Υποδομών και Μεταφορών, η οποία διαπιστώνει τη πλήρη λειτουργία του Ε.Η.Σ. και των απαραίτητων διασυνδέσεών του» . Επιπλέον, η ΕΑΔ απέστειλε έγγραφο προς την αρμόδια υπηρεσία με το οποίο ζητείται ενημέρωση για την ημερομηνία έναρξης της πλήρους λειτουργίας του ΕΗΣ προκειμένου να εξεταστεί σε μελλοντικό χρόνο και εφόσον εκδοθεί η ανωτέρω διαπιστωτική πράξη, τη συμμόρφωση της υπηρεσίας με τις υποχρεώσεις της.

Στις αρχές του Μαρτίου, είχε προηγηθεί και νέα κατάθεση αιτήματος πρόσβασης σε έγγραφα από τη Homo Digitalis, αυτή τη φορά ενώπιον της Ελληνικής Αστυνομίας. Σύμφωνα με το Άρθρο 16, παρ. 2, περ.β του Ν.5256/2025, εντός τριών (3) μηνών από την έναρξη ισχύος του εν λόγω νόμου, οι από κοινού υπεύθυνοι επεξεργασίας υπογράφουν πρωτόκολλο συνεργασίας, στο οποίο καθορίζονται οι σχέσεις τους έναντι των υποκειμένων των δεδομένων και οι αντίστοιχες ευθύνες τους για συμμόρφωση προς τις υποχρεώσεις που απορρέουν από τον ΓΚΠΔ. Σύμφωνα με το Άρθρο 49 του Ν.5256/2025, η ισχύς του εν λόγω νόμου αρχίζει από τη δημοσίευσή του στην Εφημερίδα της Κυβερνήσεως, ήτοι στις 8 Δεκεμβρίου 2025. Επομένως, η ΕΛ.ΑΣ. από κοινού με τους υπόλοιπους Υπευθύνους Επεξεργασίας θα έπρεπε έως τις 8 Μαρτίου 2026, ήτοι 3 μήνες από τη θέση σε ισχύ του Ν.5256/2025 και του Άρθρου 16 αυτού, να έχει υπογράψει το εν λόγω πρωτόκολλο συνεργασίας. Το πρωτόκολλο αυτό αποτελεί σημαντικό έγγραφο καθώς καθορίζει τις σχέσεις των από κοινού Υπευθύνων με τα υποκείμενα δεδομένα και τις αντίστοιχες ευθύνες τους, σύμφωνα με τις υποχρεώσεις που ανακύπτουν από τις διατάξεις του ΓΚΠΔ.

Ωστόσο, η  ΕΛ.ΑΣ. αρνήθηκε σιωπηρώς να απαντήσει στο άνω αίτημά μας.

Συμπερασματικά, η εφαρμογή του Ε.Η.Σ. όπως θεσπίστηκε με τον Ν. 5256/2025, τελεί σε κατάσταση μη πλήρους λειτουργίας, συνοδευόμενη από ουσιώδεις ελλείψεις ως προς τη συμμόρφωση με τις προβλεπόμενες κανονιστικές και οργανωτικές υποχρεώσεις. Η Homo Digitalis θα συνεχίσει με τις δράσεις τις να ελέγχει την πορεία της συμμόρφωσης με το ισχύον νομοθετικό πλαίσιο, προκειμένου να διασφαλιστεί τόσο η αποτελεσματικότητα του συστήματος όσο και η πλήρης κατοχύρωση των δικαιωμάτων των υποκειμένων των δεδομένων κατά το μελλοντικό στάδιο της θέσης του σε ισχύ.


Με επιτυχία ολοκληρώθηκε η συμμετοχή της Homo Digitalis σε 2 σημαντικές συναντήσεις στα γραφεία του ΕΛΙΑΜΕΠ

Τον Μάρτιο και τον Απρίλιο, η Homo Digitalis είχε τη χαρά να συμμετάσχει σε δύο σημαντικές συναντήσεις στρογγυλής τραπέζης που πραγματοποιήθηκαν στα γραφεία του Ελληνικού Ιδρύματος Ευρωπαϊκής και Εξωτερικής Πολιτικής (ΕΛΙΑΜΕΠ).
Συγκεκριμένα, στις 27 Μαρτίου λάβαμε μέρος στη συνάντηση «Φωνές από την Κοινωνία των Πολιτών: Προκλήσεις και Προοπτικές», που διοργάνωσε το Europe Direct ΕΛΙΑΜΕΠ Αττικής, συμβάλλοντας σε έναν ουσιαστικό διάλογο για τον ρόλο της κοινωνίας των πολιτών σε διαδικασίες δημόσιας διαβούλευσης με ενωσιακούς φορείς, μεταξύ άλλων θεματικών.

Έπειτα, στις 2 Απριλίου συμμετείχαμε σε συζήτηση με αφορμή την δημοσίευση του 10ου κειμένου της σειράς «Κείμενα Ενημέρωσης Ευρωπαϊκής Οικονομίας», με τίτλο «Η Ευρωπαϊκή στρατηγική για την τεχνητή νοημοσύνη: προκλήσεις και ευκαιρίες», του Γιώργου Βέρδη, Επιστημονικού Συνεργάτη στο European Council on Foreign Relations, διαθέσιμη εδώ.

Ευχαριστούμε θερμά την ομάδα και την Γενική Διευθύντρια του ΕΛΙΑΜΕΠ, Έλενα Λαζάρου, για τη διοργάνωση, την πρόσκληση και τη δυνατότητα να συμβάλουμε σε έναν πλουραλιστικό διάλογο με τεκμηριωμένες απόψεις. Τη Homo Digitalis εκπροσώπησε ο Εκτελεστικός Διευθυντής μας, Eleftherios Chelioudakis.


Με επιτυχία ολοκληρώθηκε η συμμετοχή της Homo Digitalis στην ολοήμερη ημερίδα Digital Inclusion Day 2026 του Job Center Δήμου Αθηναίων

Με μεγάλη χαρά η Homo Digitalis έδωσε ενεργά το παρόν στην ολοήμερη ημερίδα Digital Inclusion Day 2026 του Job Center Δήμου Αθηναίων την Πέμπτη 19 Φεβρουαρίου 2026!

Η εκδήλωση ήταν αφιερωμένη στην ψηφιακή συμπερίληψη, την υπεύθυνη αξιοποίηση της Τεχνητής Νοημοσύνης (AI) και την ισότιμη πρόσβαση όλων στην αγορά εργασίας.

Ο Εκτελεστικός Διευθυντής της οργάνωσης, Ελευθέριος Χελιουδάκης παραχώρησε εκπαιδευτικό workshop με τίτλο «Πρακτικοί κανόνες προστασίας για την έκθεση στα social media» , ενώ συμμετείχε και στο πάνελ «AI & Ευάλωτες Ομάδες: Ευκαιρίες, Ρίσκα και Πρακτικές Συμπερίληψης» μιλώντας για τις δράσεις της οργάνωσης σχετικά.

Ευχαριστούμε την Ελισάβετ Γεωργίου, Επιστημονική Υπεύθυνη του Job Center Δήμου Αθηναίων, το Job Center και τον Δήμο Αθηναίων για την τιμητική πρόσκληση και συμπερίληψη.

Μπορείτε να κοινοποιήσετε ή να παρακολουθήσετε ξανά τις ομιλίες στον ακόλουθο σύνδεσμο: https://www.youtube.com/live/8n4y3PuOdvQ


Σε διαρκή ετοιμότητα. Φωνή, ιδιωτικότητα και ελευθερία επιλογής

Γράφει η Αλεξάνδρα Μελισσηνού*

Μια υπόθεση εργασίας

Ας φανταστούμε το εξής: βρισκόμαστε στον καναπέ, έτοιμοι να ξεκινήσουμε την αγαπημένη μας σειρά. Τα φώτα είναι λίγο πιο έντονα απ’ όσο θα θέλαμε, αλλά κανείς δεν σηκώνεται. Αντί γι’ αυτό, απευθυνόμαστε σε μια συσκευή στο σαλόνι και μέσα σε λίγα δευτερόλεπτα ο φωτισμός προσαρμόζεται. Η τεχνολογία λειτουργεί αθόρυβα, αποτελεσματικά, σχεδόν μαγικά. Για την Αλεξάνδρα που μιλά, η εμπειρία μοιάζει απλή. Για τη «Alexa» που ακούει, ξεκινά μια πιο σύνθετη διαδικασία στο παρασκήνιο.

Αυτή είναι η γοητεία των φωνητικών ψηφιακών βοηθών: υπόσχονται ευκολία, ταχύτητα και λιγότερη προσπάθεια. Μαζί με την άνεση, όμως, αναδύεται ένα ερώτημα που σπάνια τίθεται με την ίδια ευκολία. Τι σημαίνει αυτή η διευκόλυνση για την ιδιωτικότητα και τον έλεγχο των προσωπικών μας δεδομένων;

Σε αντίθεση με άλλες ψηφιακές υπηρεσίες, οι φωνητικοί βοηθοί δεν περιορίζονται σε μια οθόνη που ανοίγουμε και κλείνουμε. Βρίσκονται μόνιμα μέσα στο σπίτι, στον πιο προσωπικό μας χώρο και βασίζονται στη φωνή μας για να λειτουργήσουν. Δεν αλληλοεπιδρούμε απλώς μαζί τους, τους επιτρέπουμε να βρίσκονται διαρκώς «σε ετοιμότητα», σε ένα περιβάλλον όπου μιλάμε πιο χαλαρά και αυθόρμητα, συχνά χωρίς να συνειδητοποιούμε ότι η ομιλία μας μπορεί να μετατραπεί σε δεδομένο.

Η συζήτηση για την ιδιωτικότητα συχνά απλοποιείται υπερβολικά και καταλήγει στο επιχείρημα ότι «όποιος δεν έχει κάτι να κρύψει, δεν έχει λόγο να ανησυχεί». Στην πραγματικότητα, όμως, η ιδιωτικότητα δεν αφορά μόνο το αν μας βλέπουν ή μας ακούν. Αφορά τον χώρο μέσα στον οποίο μπορούμε να υπάρχουμε χωρίς αδικαιολόγητη παρέμβαση, να επικοινωνούμε, να κάνουμε επιλογές και, εξίσου σημαντικό, να αλλάζουμε γνώμη.

Γι’ αυτό και η ιδιωτικότητα συνδέεται στενά με την αυτονομία και την ελευθερία επιλογής. Σε ακρόαση στο Κογκρέσο, ο Mark Zuckerberg απέφυγε να απαντήσει στο ερώτημα σε ποιο ξενοδοχείο είχε διανυκτερεύσει το προηγούμενο βράδυ. Η αμηχανία αυτή δεν υποδηλώνει κάτι ύποπτο, αλλά την αναγνώριση ότι ορισμένες πληροφορίες ανήκουν στη σφαίρα του ιδιωτικού.

Το παρόν άρθρο εστιάζει στους φωνητικούς βοηθούς, όπου η συλλογή και επεξεργασία δεδομένων πραγματοποιείται με τη συγκατάθεση του χρήστη, αναδεικνύοντας ωστόσο ότι ο τρόπος σχεδιασμού των συστημάτων και η περαιτέρω αξιοποίηση των δεδομένων μπορούν να επηρεάσουν την ιδιωτικότητα, ακόμη, και χωρίς ευθεία παραβίαση του νόμου. Στο πλαίσιο αυτό, οι φωνητικοί βοηθοί αποτελούν χαρακτηριστικό παράδειγμα της σύγχρονης «ανταλλαγής» μεταξύ ευκολίας και ελέγχου, καθώς η χρήση τους εγείρει συναφή ζητήματα στην Ευρωπαϊκή Ένωση, όχι ως έκφραση τεχνοφοβίας ή αντίθεσης στην καινοτομία, αλλά ως αφορμή για κριτική σκέψη γύρω από τον τρόπο με τον οποίο η τεχνολογία σχεδιάζεται, ενσωματώνεται και ρυθμίζεται.

Τι είναι οι φωνητικοί βοηθοί και γιατί μας αφορούν

Οι φωνητικοί βοηθοί είναι ψηφιακές υπηρεσίες που μας επιτρέπουν να αλληλεπιδρούμε με την τεχνολογία χρησιμοποιώντας μόνο τη φωνή μας. Με μια απλή εντολή μπορούμε να χαμηλώσουμε τα φώτα, να ακούσουμε ειδήσεις ή να ρυθμίσουμε τη θερμοκρασία, χωρίς να αγγίξουμε καμία συσκευή. Στην καθημερινότητα συχνά ταυτίζονται με το αντικείμενο στο οποίο «ζουν», όπως ένα έξυπνο ηχείο ή ένα κινητό τηλέφωνο. Στην πραγματικότητα, όμως, πρόκειται για λογισμικό που λειτουργεί στο παρασκήνιο και συνδέει τη φωνή του χρήστη με ένα ευρύτερο ψηφιακό οικοσύστημα υπηρεσιών. Στην Ευρώπη, οι πιο διαδεδομένοι είναι η Alexa της Amazon, το Google Assistant και η Siri της Apple.

Παρότι ενσωματώνονται σε προσωπικές συσκευές, οι φωνητικοί βοηθοί δεν λειτουργούν ως απομονωμένα συστήματα. Στην πράξη, δεν υπάρχει «η Alexa του σπιτιού μου». Πίσω από κάθε συσκευή βρίσκεται ένα ενιαίο σύστημα στο cloud, ένα κοινό «μυαλό», που τροφοδοτείται από τις αλληλεπιδράσεις εκατομμυρίων χρηστών. Κάθε φωνητική εντολή δεν εξυπηρετεί μόνο τη συγκεκριμένη στιγμή, αλλά συμβάλλει στη συνολική εκμάθηση και εξέλιξη του βοηθού.

Για να ανταποκριθεί σε μια εντολή, ο φωνητικός βοηθός βρίσκεται σε διαρκή ετοιμότητα για τον εντοπισμό της λέξης ενεργοποίησης (wake word). Κατ’ αρχήν, η αποστολή και επεξεργασία φωνητικών δεδομένων ξεκινά μετά την ενεργοποίηση αυτή. Ωστόσο, δεν αποκλείονται ακούσιες ενεργοποιήσεις, ιδίως σε περιβάλλοντα με θόρυβο ή πολλούς ομιλητές, με αποτέλεσμα την καταγραφή ομιλιών που δεν προορίζονταν για τη συσκευή.

Για να προσφέρουν φυσική και εξατομικευμένη εμπειρία, οι φωνητικοί βοηθοί δεν επεξεργάζονται μόνο μεμονωμένες εντολές. Διατηρούν και αναλύουν προηγούμενες αλληλεπιδράσεις, ώστε να προσαρμόζουν τη συμπεριφορά τους στον χρήστη. Εδώ αναδεικνύεται μια κρίσιμη διάκριση. Άλλο η απολύτως αναγκαία επεξεργασία για την εκτέλεση μιας εντολής και άλλο η περαιτέρω αξιοποίηση των δεδομένων για σκοπούς όπως η εκπαίδευση αλγορίθμων, η ανάλυση χρήσης ή η κατάρτιση προφίλ.

Το ζήτημα γίνεται ακόμη πιο σύνθετο επειδή οι φωνητικοί βοηθοί τοποθετούνται σε χώρους της οικίας που χρησιμοποιούνται από περισσότερα άτομα. Εκεί ενδέχεται να βρίσκονται σύντροφοι, παιδιά ή επισκέπτες, οι οποίοι δεν απευθύνονται στη συσκευή, αλλά,  απλώς μιλούν μεταξύ τους ή κινούνται στον χώρο, χωρίς να έχουν επιλέξει οι ίδιοι τη χρήση της, ούτε να είναι ενημερωμένοι για τον τρόπο λειτουργίας της. Έτσι, η τεχνολογία δεν αφορά μόνο τον κύριο χρήστη, αλλά, εκτείνεται σε ένα ευρύτερο κοινωνικό περιβάλλον γύρω από τη συσκευή.

Οι διακρίσεις αυτές δεν είναι θεωρητικές. Το 2019 αποκαλύφθηκε ότι αποσπάσματα ηχογραφήσεων από φωνητικούς βοηθούς μεγάλων τεχνολογικών εταιρειών, όπως η Amazon και η Google, αξιολογούνταν από ανθρώπους για την εκπαίδευση των συστημάτων αναγνώρισης ομιλίας. Οι ηχογραφήσεις δεν περιορίζονταν σε συνειδητές φωνητικές εντολές, αλλά περιλάμβαναν και ακούσιες ενεργοποιήσεις, καταγράφοντας στιγμές της καθημερινής ζωής στο σπίτι, όπως μια συζήτηση, ένα γέλιο ή έναν διαπληκτισμό. Πολλοί χρήστες αγνοούσαν ότι τα δεδομένα αυτά δεν υφίσταντο αποκλειστικά αυτοματοποιημένη επεξεργασία.

Το ευρωπαϊκό νομικό πλαίσιο

Στο ευρωπαϊκό δίκαιο, η λειτουργία των φωνητικών βοηθών διέπεται από τον Γενικό Κανονισμό Προστασίας Δεδομένων (ΓΚΠΔ), ο οποίος επιτρέπει υπό προϋποθέσεις τη συλλογή και επεξεργασία προσωπικών δεδομένων, όπως η φωνή. Παράλληλα, εφαρμόζεται η Οδηγία e-Privacy, η οποία ρυθμίζει την πρόσβαση στον τερματικό εξοπλισμό του χρήστη, δηλαδή, στο μικρόφωνο της συσκευής.

Σύμφωνα με την Οδηγία e-Privacy, η πρόσβαση στο μικρόφωνο επιτρέπεται, κατά κανόνα, μόνο εφόσον ο χρήστης έχει δώσει εκ των προτέρων τη συγκατάθεσή του. Εξαίρεση προβλέπεται μόνο όταν η πρόσβαση είναι απολύτως αναγκαία για την παροχή μιας υπηρεσίας που ο ίδιος ζήτησε ρητά. Έτσι, η καταγραφή φωνής που απαιτείται για την εκτέλεση μιας συγκεκριμένης εντολής μπορεί να θεωρηθεί θεμιτή. Δεν ισχύει όμως το ίδιο για ακούσιες ενεργοποιήσεις ή για την καταγραφή φωνών τρίτων που δεν έχουν συναινέσει.

Ακόμη κι όταν υπάρχει συγκατάθεση ή άλλη νόμιμη βάση, η επεξεργασία δεν είναι άνευ όρων. Ο ΓΚΠΔ θέτει ποιοτικά όρια στη συλλογή και επεξεργασία προσωπικών δεδομένων μέσω των θεμελιωδών αρχών του άρθρου 5, ιδίως του περιορισμού του σκοπού συλλογής των προσωπικών δεδομένων, της απαγόρευσης περαιτέρω επεξεργασίας αυτών και της ελαχιστοποίησης των δεδομένων. Συγκεκριμένα, τα δεδομένα πρέπει να συλλέγονται για σαφείς σκοπούς, γνωστούς στον χρήστη εκ των προτέρων και να περιορίζονται σε όσα είναι πράγματι κατάλληλα, συναφή και αναγκαία για τους σκοπούς αυτούς. Η συλλογή πληροφοριών για μελλοντική χρήση ή επειδή η τεχνολογία το επιτρέπει δεν συμβαδίζει με το πνεύμα του ΓΚΠΔ.

Στην περίπτωση των φωνητικών βοηθών, η εφαρμογή των αρχών αυτών είναι ιδιαίτερα απαιτητική. Η συνεχής εκμάθηση των συστημάτων μπορεί να οδηγήσει στη δημιουργία νέων χρήσεων των δεδομένων, όπως η εξαγωγή συμπερασμάτων για συνήθειες ή συναισθηματικές καταστάσεις. Έτσι, το όριο ανάμεσα στην παροχή της υπηρεσίας και τη διευρυμένη αξιοποίηση των δεδομένων γίνεται ολοένα και πιο δυσδιάκριτο.

Στο ίδιο πλαίσιο εντάσσεται και το άρθρο 22 του ΓΚΠΔ, το οποίο ρυθμίζει την αυτοματοποιημένη λήψη αποφάσεων και την κατάρτιση προφίλ. Αν και η διάταξη επιτρέπει τέτοιες πρακτικές, μεταξύ άλλων όταν στηρίζονται σε ρητή συγκατάθεση, η συγκατάθεση αυτή δεν αναιρεί την υποχρέωση τήρησης των θεμελιωδών αρχών, ούτε απαλλάσσει τον υπεύθυνο επεξεργασίας από την ανάγκη ουσιαστικών εγγυήσεων και διαφάνειας.

Τέλος, αξίζει να σημειώσουμε ότι η προστασία της ιδιωτικότητας δεν αρχίζει τη στιγμή που ο χρήστης μιλά στη συσκευή, αλλά πολύ νωρίτερα, στον τρόπο με τον οποίο η τεχνολογία έχει σχεδιαστεί. Ο ΓΚΠΔ απαιτεί η προστασία των δεδομένων να ενσωματώνεται εξαρχής στη λειτουργία της υπηρεσίας και όχι να ενεργοποιείται εκ των υστέρων μέσω ρυθμίσεων. Στην πράξη, αυτό σημαίνει ότι δεν αρκεί ο χρήστης να μπορεί κάποτε να διαγράψει ηχογραφήσεις. Σημασία έχει αν η ίδια η συσκευή έχει σχεδιαστεί ώστε να συλλέγει όσο το δυνατόν λιγότερα δεδομένα, για όσο το δυνατόν μικρότερο χρονικό διάστημα και μόνο για πολύ συγκεκριμένους σκοπούς. Όταν η συνεχής συλλογή αποτελεί τον κανόνα, η ιδιωτικότητα παύει να είναι προεπιλογή και γίνεται εξαίρεση.

Λίγες σκέψεις ακόμα

Το ερώτημα, τελικά, δεν είναι αν οι φωνητικοί βοηθοί είναι «καλοί» ή «κακοί». Είναι τεχνολογίες που εγκαθίστανται στον πιο προσωπικό μας χώρο και, ακριβώς γι’ αυτό, επηρεάζουν τον τρόπο με τον οποίο κινούμαστε, μιλάμε και επιλέγουμε, συχνά χωρίς να το αντιλαμβανόμαστε.

Συχνά ακούγεται το επιχείρημα: και τι πειράζει; Αν η συσκευή καταλαβαίνει καλύτερα πώς νιώθουμε, αν μας μιλά πιο «ανθρώπινα» ή μας προτείνει πράγματα που μας ταιριάζουν, δεν πρόκειται απλώς για μια πιο άνετη εμπειρία;

Το ζήτημα δεν είναι η άνεση αυτή καθαυτή. Το ζήτημα είναι πότε η προσαρμογή μετατρέπεται σε καθοδήγηση. Πότε η τεχνολογία παύει να απαντά σε ό,τι ζητάμε και αρχίζει, διακριτικά, να διαμορφώνει τι θα ζητήσουμε στη συνέχεια. Όχι με επιβολή, αλλά με μικρές, συνεχείς παρεμβάσεις που δύσκολα γίνονται αντιληπτές.

Σε αυτό το σημείο, η ιδιωτικότητα δεν αφορά απλώς το αν καταγράφεται η φωνή μας. Αφορά το αν διατηρούμε τον έλεγχο των επιλογών μας. Το αν μπορούμε να σκεφτούμε, να μιλήσουμε και να αλλάξουμε γνώμη χωρίς να εντασσόμαστε σιωπηλά σε προφίλ που λειτουργούν στο παρασκήνιο.

Το ευρωπαϊκό νομικό πλαίσιο προσφέρει σημαντικές εγγυήσεις. Η ουσιαστική του αξία, όμως, δεν εξαντλείται στη συγκατάθεση. Κρίνεται στο αν η προστασία της ιδιωτικότητας έχει προβλεφθεί εξαρχής στον σχεδιασμό της τεχνολογίας ή αν μεταφέρεται, εκ των υστέρων, στον χρήστη ως βάρος διαχείρισης.

Σε μια εποχή όπου η τεχνολογία υπόσχεται να μας κάνει τη ζωή πιο εύκολη, το πραγματικό διακύβευμα δεν είναι αν μας ακούει μια συσκευή. Είναι αν παραμένουμε ελεύθεροι να επιλέγουμε τον τρόπο με τον οποίο ζούμε, μιλάμε και υπάρχουμε  ακόμη και όταν απλώς καθόμαστε στον καναπέ και ζητάμε να χαμηλώσουν τα φώτα.

 

*Η Αλεξάνδρα Μελισσηνού είναι νομικός με ειδίκευση στο Δίκαιο Διανοητικής Ιδιοκτησίας. Είναι κάτοχος μεταπτυχιακού τίτλου (LLM in Intellectual Property) από το Queen Mary University of London και τα επαγγελματικά της ενδιαφέροντα εστιάζουν στα άυλα αγαθά και τα ψηφιακά δικαιώματα.


Αόρατες προκαταλήψεις: Η περίπτωση της τεχνητής νοημοσύνης και της έμφυλης διάστασης

Γράφει η Θεοδώρα Τσούτσα*

Η χρήση της τεχνητής νοημοσύνης όπως γίνεται καθημερινά ολοένα και πιο αντιληπτό γίνεται αναπόσπαστο κομμάτι σε πάρα πολλούς τομείς, όπως οι επιχειρήσεις, η εκπαίδευση, η υγεία κτλ. Παρόλα αυτά δεν πρέπει να ξεχνάει κανείς ότι  και η τεχνητή νοημοσύνη (ΤΝ) είναι  κατασκευασμένη και εκπαιδευμένη από ανθρώπους, που μπορεί και οι ίδιοι να  κουβαλάνε προκαταλήψεις, οι οποίες πολλές φορές με ακούσιο τρόπο και αφιλτράριστα περνάνε στους αλγόριθμους.

Αυτή η συνειδητοποίηση ανοίγει χώρο για περισσότερες σκέψεις από ποτέ, σχετικά με το τι αντίκτυπο μπορεί να έχει η ανθρώπινη αντίληψη πάνω στον αλγόριθμο  και υπογραμμίζει την σημασία  μιας ολιστικής και με διαφάνεια προσέγγισης όταν εκπαιδεύουμε εργαλεία. Πιο συγκεκριμένα εάν δεν υπάρχει μια ολοκληρωμένη εποπτεία μπορεί να επηρεάσει μεροληπτικά και να διαιωνίσει προκαταλήψεις σε βάρος κάποιων συγκεκριμένων, συνήθως πιο ευάλωτων ή/και περιθωριοποιημένων κοινοτήτων.  Το συγκεκριμένο άρθρο θα εστιάσει στην διάσταση του φύλου, η οποία πολλές φορές δεν λαμβάνεται υπόψιν σε βάθος, όταν πρόκειται για την δημιουργία ενός αλγόριθμου.

Μελέτες περίπτωσης

1.Ένα χαρακτηριστικό πρώτο παράδειγμα αποτελεί η προσπάθεια της Amazon να αναπτύξει έναν αυτοματοποιημένο αλγόριθμο πρόσληψης. Αυτή ήταν μια αποτυχημένη απόπειρα η οποία δεν διήρκησε αρκετό καιρό καθώς τα δεδομένα εκπαίδευσης αποδείχθηκαν άκρως προκατειλημμένα και σεξιστικά. Πιο συγκεκριμένα ο αλγόριθμος επειδή είχε εκπαιδευτεί με βάση προηγούμενα βιογραφικά υψηλής αξιολόγησης, τα οποία προέρχονταν κυρίως από άντρες, «έμαθε» να ευνοεί άντρες υποψηφίους, αναπαράγοντας ήδη υπάρχουσες ανισορροπίες στον  χώρο της εργασίας, κάτι που οδήγησε στην εγκατάλειψη του έργου. Εδώ παρατηρούμε πως η προκατάληψη απέναντι στο φύλο μέσω συστημάτων ΤΝ μπορεί να είναι δύσκολο να γίνει ευδιάκριτη με αποτέλεσμα τα άτομα να αδικούνται, και να επηρεάζονται οι ευκαιρίες και οι δυνατότητες που έχουν, μέσω αυτής της αναπαραγωγής των στερεοτύπων.

Ακόμα μια τέτοια περίπτωση όπως αυτή της  Amazon αντικατοπτρίζει μια διαχρονική προβληματική, αυτή της ιστορικής ανδροκρατίας στη βιομηχανία και τις επιχειρήσεις και αναδεικνύει πόσο εύκολα κάτι τέτοιο μπορεί να ενσωματωθεί στους αλγόριθμους. Αποτελεί χαρακτηριστικό παράδειγμα της διαιώνισης του κοινωνικού φαινομένου της «γυάλινης οροφής» , των αόρατων δηλαδή εμποδίων που περιορίζουν τις επαγγελματικές προοπτικές των γυναικών.

2.Μία ακόμα περίπτωση στον τομέα του ελέγχου της μετανάστευσης είναι το πιλοτικό σύστημα, αποκλειστικά ερευνητικού χαρακτήρα, iBorderCtrl , ένα εργαλείο ανίχνευσης ψεύδους και αναγνώρισης προσώπου για την είσοδο ταξιδιωτών στην ΕΕ. Ένα ακόμα σύστημα που διακόπηκε, προκαλώντας έντονη ανησυχία σχετικά με την προστασία των ανθρωπίνων δικαιωμάτων. Ιδιαίτερα, έγειρε ανησυχίες σχετικά με προκαταλήψεις απέναντι στο φύλο αλλά και στην φυλή μέσω της ΤΝ , οι οποίες θα μπορούσαν να οδηγήσουν σε διακριτική μεταχείριση των ταξιδιωτών. Συγκεκριμένα, οι αλγόριθμοι θα μπορούσαν να παρερμηνεύσουν τις εκφράσεις του προσώπου των γυναικών, αντανακλώντας κοινωνικές προκαταλήψεις που αντιλαμβάνονται τις γυναίκες ως πιο συναισθηματικές ή λιγότερο αξιόπιστες, αυξάνοντας έτσι την πιθανότητα ψευδώς θετικών ανιχνεύσεων μεταξύ των γυναικών ταξιδιωτών. Ουσιαστικά εδώ η έλλειψη ποικιλομορφίας στα δεδομένα εκπαίδευσης έκανε το iΒorderctrl να ενσωματώνει έμφυλες και φυλετικές προκαταλήψεις, οδηγώντας σε ανακριβείς ή μεροληπτικές αξιολογήσεις απέναντι σε μη Ευρωπαίους, γυναίκες και μη δυαδικά άτομα. Η αδιαφάνεια του συστήματος και οι λανθασμένες υποθέσεις περί καθολικών εκφράσεων συμπεριφοράς ενίσχυσαν τον κίνδυνο διακρίσεων στα σύνορα της ΕΕ. Αυτό αναδεικνύει την ανάγκη της λογοδοσίας και της διαφάνειας στην ανάπτυξη συστημάτων ΤΝ, έτσι ώστε να μην απειλείτε η ισότητα και η προστασία των ανθρωπίνων δικαιωμάτων τόσο στα σύνορα, όσο και γενικότερα.

3.Ένα τελευταίο και μόνιμα πλέον επίκαιρο εργαλείο που αντανακλά το φαινόμενο των προκαταλήψεών, είναι η κατασκευή των chatbots (πχ ChatGpt).Παρότι κατασκευάστηκαν για να είναι άμεσα, αντικειμενικά και αμερόληπτα , δεν πρέπει να ξεχνάμε πως και αυτά χτίζονται πάνω σε ανθρώπινες μεροληψίες με αποτέλεσμα όχι μόνο να αντικατοπτρίζουν υπάρχουσες προκαταλήψεις, αλλά και να τις ενισχύουν.Πιο συγκεκριμένα όσο ένα σύστημα τροφοδοτείτε με προκατειλημμένα στοιχεία  από τον εκπαιδευτή, τα δίνει στον χρήστη και ο χρήστης συνεχίζοντας μια συνομιλία πάνω στα δεδομένα αυτά δημιουργεί ένα φαύλο κύκλο όπου η μεροληψία συνεχίζεται και αναπαράγεται. (bias in – bias out). Έτσι το εργαλείο αυτό, όχι απλά γίνεται εργαλείο μη προόδου, αλλά και μηχανισμός συντήρησης στερεοτύπων σε μεγαλύτερη και ταχύτερη εμβέλεια.

Φυσικά το πρόβλημά αυτό επιτείνεται και από την άνιση εκπροσώπηση των φύλων στον τεχνολογικό τομέα. Το 2019 μόλις το 26% των θέσεων εργασίας στους τομείς των δεδομένων και της τεχνητής νοημοσύνης καταλαμβάνονται από  γυναίκες (World Economic Forum 2019), ενώ το 2025 το ποσοστό αυτό καταφέρνει να φτάσει περίπου στο 35% (World Economic Forum 2025). Η αύξηση αυτή θα μπορούσε να χαρακτηριστεί αργή αλλά και μη αντιπροσωπευτική. Μια τέτοια ανισορροπία στην διαδικασία εκπαίδευσης αλγορίθμων σημαίνει ότι απουσιάζει η απαραίτητη ποικιλομορφία που θα εξασφάλιζε  πιο ισορροπημένα και συμπεριληπτικά συστήματα.

Περνώντας στην νομική διάσταση

Τώρα περνώντας στην νομική διάσταση επισημαίνεται και η ανάγκη για μια πιο διαθεματική προσέγγιση, καθώς δεν πρέπει να ξεχνάμε πως οι γυναίκες δεν υφίστανται προκατάληψη μόνο λόγω φύλου, αλλά συχνά επιβαρύνονται με επιπλέον εμπόδια αν ανήκουν σε φυλετικές, εθνοτικές ή άλλες μειονεκτούσες ομάδες, αυξάνοντας τον κίνδυνο αποκλεισμού.

Τον Ιούλιο του 2024, περνάει σε ισχύ ο πρώτος ολοκληρωμένος Κανονισμός (2024/1689) στην Ευρωπαϊκή Ένωση σχετικά με την Τεχνητή νοημοσύνη, με σκοπό να ρυθμίσει την λειτουργία των συστημάτων ΤΝ μέσα σε διάφορα πλαίσια. Μέσα στην προσπάθεια αυτή ορίζει κάποια συστήματα  και πρακτικές  ως απαγορευμένες, και κάποιες ως υψηλού, μετρίου και χαμηλού κινδύνου.  Παρατηρώντας κανείς  τον κανονισμό αυτό σε βάθος θα εντοπίσει κάποιες ελλείψεις μη συμπερίληψης σχετικά με το φύλο , οι οποίες σχετίζονται κυρίως με την διάσταση της διαθεματικότητας, η οποία αναφέρθηκε και νωρίτερα.

Τα 3 βασικά σημεία που εντοπίζεται αυτό είναι τα άρθρα  5, 6 και 27. Αρχίζοντας  με το άρθρο 5 του Νόμου, το οποίο ορίζει τις απαγορευμένες πρακτικές που μπορεί να θέσουν σε κίνδυνο τα θεμελιώδη ανθρώπινα δικαιώματα αλλά και την ασφάλεια των ατόμων παρατηρούμε ότι απαγορεύονται πρακτικές όπως η κοινωνική βαθμολόγηση και η χειραγώγηση ευάλωτων ατόμων. Παρότι  κάνει σημαντικά βήματα και ρυθμίζει τη χρήση βιομετρικών συστημάτων που βασίζονται σε ευαίσθητα χαρακτηριστικά (π.χ. φυλή, σεξουαλικός προσανατολισμός), παραλείπει την ρητή αναφορά στο φύλο ως τέτοιο χαρακτηριστικό παρά τις σχετικές συστάσεις του Ευρωπαϊκού Συμβουλίου Προστασίας Δεδομένων. Αυτή η παράλειψη υπογραμμίζει ένα σημαντικό κενό στην προστασία της ισότητας των φύλων, αναδεικνύοντας  έντονα την ανάγκη για διατομεακή προσέγγιση που να αντιμετωπίζει τις πολλαπλές μορφές διάκρισης στα συστήματα Τεχνητής Νοημοσύνης.

Το άρθρο 6 τώρα, καθώς ταξινομεί τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, εντοπίζεται να μην απαιτεί κανένα έλεγχο για διακρίσεις λόγω φύλου ή διαθεματικές διακρίσεις. Αντιθέτως, αναφέρεται πολύ γενικά στις αρχές μη διακριτικής μεταχείρισης που δεν εξασφαλίζουν την ουσιαστική ανίχνευση και τον μετριασμό των διακρίσεων λόγω φύλου και των διαρθρωτικών διακρίσεων στην τεχνητή νοημοσύνη υψηλού κινδύνου. Έτσι, η «ουδέτερη ως προς το φύλο» προσέγγιση δεν μπορεί να αποτυπώσει τις πραγματικές  ανισότητες που βιώνουν οι περιθωριοποιημένες ομάδες φύλου.

Ολοκληρώνοντας στο άρθρο 27, ο νόμος τονίζει την ανάγκη για εκτίμηση επιπτώσεων των συστημάτων ΤΝ υψηλού κινδύνου, βασισμένη στο ήδη υπάρχων εργαλείο εκτίμησης επιπτώσεων για τα θεμελιώδη δικαιώματα (FRIA) προκειμένου να αξιολογηθούν και να μετριαστούν οι κίνδυνοι διακρίσεων. Ωστόσο, αυτές οι εκτιμήσεις δεν είναι ρητά προσαρμοσμένες για την αντιμετώπιση των διαθεματικών ευπαθειών ή των συστημικών προκαταλήψεων λόγω φύλου που ενσωματώνονται στα δεδομένα και στα συστήματα τεχνητής νοημοσύνης.

Επομένως, αν κάτι γίνεται αντιληπτό από την ανάλυση αυτή είναι, ότι ο Κανονισμός (2024/1689) σχετικά με τη Τεχνητή Νοημοσύνη  οφείλει να ενσωματώσει ρητές διατάξεις που να ανταποκρίνονται στις ανάγκες των δύο φύλων. Χωρίς την ενσωμάτωση αυτή αλλά και της διαθεματικότητας, ο νόμος κινδυνεύει να μην προστατεύσει επαρκώς περιθωριοποιημένες ομάδες φύλου, οι οποίες επηρεάζονται δυσανάλογα από τις προκατειλημμένες εφαρμογές της ΤΝ. Ενώ ο νόμος διαθέτει μηχανισμούς για την αναγνώριση και τον μετριασμό ορισμένων ευπαθειών που σχετίζονται με το φύλο, δεν καταφέρνει να προστατέψει επαρκώς την δημιουργία συστημάτων σαν αυτά που αναφέρθηκαν νωρίτερα, πράγμα απαραίτητο για την ολοκληρωμένη αντιμετώπιση των συστημικών και δομικών προκαταλήψεων λόγω φύλου στην ΤΝ.

*Ονομάζομαι Θεοδώρα Τσούτσα, και έχω κάνει το μεταπτυχιακό μου πάνω στα ανθρώπινα δικαιώματα, στο οποίο μεταξύ των άλλων έγραψα την διπλωματική μου σχετικά με τα σύνορα και την τεχνητή νοημοσύνη. Πιο συγκεκριμένα το θέμα ήταν: «Convince the algorithm: How the digitalisation of European Union Borders could be a harmful tool for people on the move and their human rightsΗ έρευνα αυτή με έκανε να ανακαλύψω το ενδιαφέρον που έχω γενικότερα για την συσχέτιση των ανθρωπίνων δικαιωμάτων με την τεχνητή νοημοσύνη και τι κινδύνους μπορεί να εγκυμονεί στο μέλλον.


Η Homo Digitalis μιλάει στο ERTnews

Την Πέμπτη 11.12 η Homo Digitalis είχε τη μεγάλη χαρά να βρίσκεται καλεσμένη στην εκπομπή “LIVE NOW” του ΕΡΤnews με τον Γιώργο Κακούση και τη Νικολέττα Κριτικού για να μιλήσουμε για τις επικείμενες αναθεωρήσεις του προγράμματος απαλλαγής VISA των ΗΠΑ, “ESTA”.

Οι προτεινόμενες αλλαγές προβλέπουν τη συλλογή περισσότερων & ιδιαίτερα ευαίσθητων προσωπικών δεδομένων, όπως βιομετρικά στοιχεία, λογαριασμούς email για τα τελευταία 10 έτη, και λογαριασμούς social media για τα τελευταία 5 έτη, μεταξύ άλλων.

Το πλάνο της κυβέρνησης των ΗΠΑ είναι να έχουν ολοκληρώσει τις διαδικασίες συμφωνιών με τις διάφορες χώρες που συμμετέχουν στο πρόγραμμα απαλλαγής visa ΕSΤΑ εως τον Δεκέμβρη του 2026, προκειμένου οι νέοι κανόνες να ξεκινήσουν να ισχύουν από το επόμενο έτος.
Η Ευρωπαϊκή Ένωση έχει ήδη, από το καλοκαίρι, κινήσει τις προβλεπόμενες θεσμικές διαδικασίες, προκειμένου να διαπραγματευθεί σε ενωσιακό επίπεδο με τις ΗΠΑ το πλαίσιο ανταλλαγής και επεξεργασίας των σχετικών δεδομένων. Το πλαίσιο αυτό αναμένεται να αποτελέσει τη βάση μιας συνολικής συμφωνίας μεταξύ ΕΕ & ΗΠΑ, επί της οποίας θα κληθούν εν συνεχεία τα κράτη μέλη, όπως η Ελλάδα, να συνάψουν τις αναγκαίες διμερείς συμφωνίες για την εφαρμογή του νέου καθεστώτος του προγράμματος ESTA.

Στον τομέα της προστασίας προσωπικών δεδομένων, ο Ευρωπαίος Επόπτης Προστασίας Δεδομένων, έχει ήδη από τον Σεπτέμβριο εκδώσει σχετική γνωμοδότηση επί του ζητήματος. Η εν λόγω γνωμοδότηση εστιάζει πρωτίστως στην ανταλλαγή βιομετρικών δεδομένων, καθώς και στις αναγκαίες εγγυήσεις ασφάλειας, ελέγχου και λογοδοσίας που οφείλουν να συνοδεύουν την επεξεργασία τους.

Στην εκπομπή μας εκπροσώπησε ο Εκτελεστικός μας Διευθυντής, Λευτέρης Χελιουδάκης. Ευχαριστούμε θερμά για την πρόσκληση! Μπορείτε να παρακολουθήσετε το σχετικό απόσπασμα εδώ (47:00 επόμενα) εδώ.

 


Η Homo Digitalis δίνει συνέντευξη στον ΑΘΗΝΑ 9.84

Αυτή την Παρασκευή 28/11 στις 19:30 συντονιζόμαστε στον AΘΗΝΑ 9.84!

H Homo Digitalis έχει τη μεγάλη χαρά να βρίσκεται καλεσμένη στη ραδιοφωνική εκπομπή της Ελληνικής Ένωσης για τα Δικαιώματα του Ανθρώπου (ΕλΕΔΑ) για να μιλήσουμε για τις δράσεις μας στον τομέα των ψηφιακών δικαιωμάτων!

Ο Συνιδρυτής και Ταμίας του ΔΣ μας, Κωνσταντίνος Κακαβούλης θα μας εκπροσωπήσει εκεί, ενώ την εκπομπή συντονίζει το Μέλος ΔΣ της ΕλΕΔΑ, Ταϋγέτη Μιχαλακέα! Ευχαριστούμε θερμά για την ευγενική πρόσκληση και το τιμητικό ενδιαφέρον για τις δράσεις μας!

 


Η Homo Digitalis σε εργαστήριο εμπειρογνωμόνων για την αξιολόγηση μοντέλων ΤΝ

Στα μέσα Οκτωβρίου, η Homo Digitalis είχε τη μεγάλη τιμή να συμμετάσχει σε ένα εργαστήριο εμπειρογνωμόνων που πραγματοποιήθηκε στο Weizenbaum Institute, συμβάλλοντας σε μια ιδιαίτερα ενδιαφέρουσα πρωτοβουλία για τη συμμετοχική αξιολόγηση της ΤΝ (AI auditing).

Οι ερευνητές Goda Klumbytė (University of Kassel) και David Hartmann (Technische Universität Berlin) πραγματοποίησαν συνεντεύξεις με φορείς και ένα εργαστήριο συν-σχεδιασμού, με στόχο τη συλλογική ανάπτυξη ενός εργαλείου  που θα υποστηρίζει οργανώσεις της κοινωνίας των πολιτών στην καλύτερη κατανόηση και αξιολόγηση συστημάτων ΤΝ και GenAI.

Η ομάδα μας παρουσίασε τη μεθοδολογία που εφαρμόζουμε για τη διερεύνηση της έλλειψης νομικής συμμόρφωσης σε συστήματα ΤΝ και GenAI, αναδεικνύοντας βασικές επιτυχίες από τις νομικές μας παρεμβάσεις σε εθνικό επίπεδο.

Παράλληλα, συζητήσαμε τη συνεχιζόμενη πρωτοβουλία μας για τη συνδημιουργία ενός δικτύου οργανώσεων της κοινωνίας των πολιτών στην Ελλάδα, με στόχο την ένωση τεχνογνωσίας και πόρων, την οικοδόμηση εμπιστοσύνης και τη συνεργασία για την αντιμετώπιση παρεμβατικών εργαλείων GenAI. Τη Homo Digitalis εκπροσώπησαν στην εκδήλωση η Μαρία Μουχίκα και ο Λευτέρης Χελιουδάκης.

Ευχαριστούμε θερμά τους διοργανωτές για την ευγενική πρόσκληση και για τη δημιουργία ενός συνεργατικού ακαδημαϊκού περιβάλλοντος, όπου οι φωνές της κοινωνίας των πολιτών συμβάλλουν ουσιαστικά στη διαμόρφωση πρακτικών λογοδοσίας και υπευθυνότητας στην Τεχνητή Νοημοσύνη.

 


ΔΤ μας για την σημερινή ανακοίνωση των πακέτων Digital Omnibus

Οι προτεινόμενες διατάξεις του DigitalOmnibus δόθηκαν σήμερα στη δημοσιότητα και τα δικαιώματα καθώς και οι εγγυήσεις προστασίας μας στο ψηφιακό περιβάλλον τίθενται πλέον σε σοβαρό κίνδυνο.

Οι νέες αυτές προτεινόμενες ρυθμίσεις απειλούν τον πυρήνα του ευρωπαϊκού πλαισίου προστασίας δεδομένων και μίας σειράς άλλων δικαιωμάτων στον ψηφιακό χώρο, επηρεάζοντας άμεσα διατάξεις όπως ο GDPR, η Οδηγία ePrivacy και η AIAct.

Η υπάρχουσα, ευρύτερη ατζέντα απορρύθμισης της Ευρωπαϊκής Επιτροπής υπηρετεί κατά κύριο λόγο τα συμφέροντα των μεγάλων εταιριών τεχνολογίας παραμερίζοντας τα θεμελιώδη δικαιώματα. Με αυτές τις επιλογές, η Ευρωπαϊκή Επιτροπή ουσιαστικά παρεκκλίνει από την αποστολή της και αδυνατεί να εκπληρώσει την θεσμική της υποχρέωση!

Καλούμε το Συμβούλιο της Ευρωπαϊκής Ένωσης και το Ευρωπαϊκό Κοινοβούλιο να απορρίψουν αυτή την απόπειρα αποδόμησης του ευρωπαϊκού πλαισίου Ψηφιακών Δικαιωμάτων, και να επικεντρωθούν αντίθετα στη σταθερή και αποτελεσματική εφαρμογή των ήδη υφιστάμενων κανόνων.

Διαβάστε το αναλυτικό δελτίο Τύπου μας εδώ.