Με μεγάλη επιτυχία ολοκληρώθηκε η συμμετοχή μας στο δεύτερο Slam του SNFCC Youth Council για την Τεχνητή Νοημοσύνη

Στις 4 Φλεβάρη είχαμε τη μεγάλη χαρά να δώσουμε το παρόν στο δεύτερο Slam του SNFCC Youth Council (Stavros Niarchos Foundation Cultural Center (SNFCC)) με θέμα την Τεχνητή Νοημοσύνη!

Εκεί, η Διευθύντρια της Homo Digitalis σε ζητήματα Δικαιωμάτων του Ανθρώπου και Τεχνητής Νοημοσύνης, Λαμπρινή Γυφτοκώστα, μίλησε για την Παραγωγική Τεχνητή Νοημοσύνη, νομικά ζητήματα που αφορούν τον τομέα της πνευματικής ιδιοκτησίας, καθώς και ηθικές προκλήσεις που ανακύπτουν!

Ευχαριστούμε θερμά την ομάδα του SNFCC Youth Council για την εξαιρετική διοργάνωση της εκδήλωσης και τη διαχείριση της συζήτησης Stylianos Fragkioudakis Elina Syrri Ifigenia Kortesi !!

 


Φίλτρα Προσώπου στα Μέσα Κοινωνικής Δικτύωσης

Γράφει η Αυγή Σαουλίδου*

Στο πλαίσιο της ψηφιακής επανάστασης που χαρακτηρίζει την εποχή μας, τα μέσα κοινωνικής δικτύωσης έχουν αναδειχθεί σε ένα ισχυρό μέσο που διαμορφώνει τον τρόπο με τον οποίο συνδεόμαστε, μοιραζόμαστε εμπειρίες και εκφραζόμαστε στην καθημερινότητά μας. Εντός αυτού του δυναμικού και συνεχώς εξελισσόμενου τοπίου, όπου η εικόνα πρωταγωνιστεί, έχουν γίνει εξαιρετικά δημοφιλή και χρησιμοποιούντα  μαζικά από τους χρήστες των social media τα φίλτρα προσώπου (AR Filters). Ενώ αυτά τα φίλτρα συχνά προσδίδουν μία ανάλαφρη και διασκεδαστική διάθεση στις ψηφιακές μας αλληλεπιδράσεις, οι συνέπειες της χρήσης τους δημιουργούν ένα πολύπλευρο ζήτημα που χρήζει προσεκτικής εξέτασης.

Η χρήση των φίλτρων προσώπου (AR Filters) στα μέσα κοινωνικής δικτύωσης

Η ταχύτητα με την οποία εναλλάσσονται οι πληροφορίες σήμερα, έχει αναδείξει σε βασικό στοιχείο επικοινωνίας την εικόνα. Μια εικόνα είναι ικανή να εκφράσει συναισθηματικές καταστάσεις, να αναδείξει μηνύματα και να προκαλέσει συναισθήματα πολύ πιο άμεσα και έντονα από ένα κείμενο. Ενώ οι λέξεις λοιπόν μπορούν να μεταδώσουν συγκεκριμένες πληροφορίες, η εικόνα υπερέχει στην απεικόνιση σύνθετων εννοιών προσφέροντας μια ολοκληρωμένη εμπειρία. Όπως συνηθίζουμε να λέμε «μία εικόνα, χίλιες λέξεις». Επιπλέον, η ανάγκη για αποδοχή στα social media, η οποία αποτυπώνεται μέσω των likes στις αναρτήσεις των χρηστών, δημιούργησε την ανάγκη για ψηφιακή επεξεργασία των εικόνων/φωτογραφιών με σκοπό τη βελτίωσή τους. Έτσι οδηγηθήκαμε στην εκτεταμένη χρήση των εργαλείων ψηφιακής επεξεργασίας εικόνας και αργότερα η τάση αυτή επεκτάθηκε στην ευρεία χρήση φίλτρων επαυξημένης πραγματικότητας (AR Filters) που εφαρμόζουν στο πρόσωπο των χρηστών στα μέσα κοινωνικής δικτύωσης (Facebook, Instagram, TikTok κ.α.). Η μαζική χρήση των φίλτρων προσώπου όμως έχει πολλαπλές συνέπειες, αρχικά στην ιδιωτικότητα των χρηστών και αν προχωρήσουμε λίγο βαθύτερα, έχει κοινωνικές και ψυχολογικές επιπτώσεις τόσο στους ίδιους τους χρήστες των φίλτρων προσώπου, όσο και στους αποδέκτες των ψηφιακά αλλοιωμένων εικόνων.

Οι επιπτώσεις στην ιδιωτικότητα και στην ψυχική υγεία των χρηστών

Η χρήση των φίλτρων προσώπου συνιστά μία νέα πρόκληση για την προστασία της ιδιωτικότητας. Οι εφαρμογές φίλτρων προσώπου, αξιοποιώντας προηγμένη τεχνολογία αναγνώρισης προσώπου, ανιχνεύουν χαρακτηριστικά προσώπου και τα τροποποιούν. Σε πρώτο επίπεδο, η συλλογή δεδομένων προσώπου εγείρει βάσιμες ανησυχίες που αφορούν τον τρόπο διαχείρισης, δυνητικής εκμετάλλευσης ή ακόμη και κατάχρησης αυτών των δεδομένων, χωρίς την ενημέρωση και συγκατάθεση των χρηστών. Οι χρήστες, λόγω μη επαρκούς πληροφόρησης και παρασυρμένοι από την παιγνιώδη διάθεση που τους καταλαμβάνει όταν χρησιμοποιούν τέτοιου είδους εφαρμογές, είναι πιθανό να εκθέσουν ακούσια τα προσωπικά τους δεδομένα. Ακόμη, οι επιπτώσεις της ευρείας χρήσης τεχνολογίας αναγνώρισης προσώπου επεκτείνονται πέρα από το άτομο, συμβάλλοντας στην ανάπτυξη και αποδοχή μίας κουλτούρας παρακολούθησης.

Σε δεύτερο επίπεδο, ενώ τα φίλτρα προσώπου στοχεύουν είτε να βελτιώσουν αισθητικά τις εικόνες είτε να διασκεδάσουν τους χρήστες, συμβάλλουν επίσης στην ανάπτυξη ενός ψηφιακού τοπίου, όπου διαστρεβλώνονται ολοένα και περισσότερο οι αντιλήψεις για την ταυτότητα και την ομορφιά. Η συνεχής έκθεση των χρηστών των μέσων κοινωνικής δικτύωσης σε εξιδανικευμένες, ψηφιακά αλλοιωμένες εικόνες έχει παρατηρηθεί ότι επηρεάζει σημαντικά την αυτοεκτίμηση και δημιουργεί στρεβλή αντίληψη για την εικόνα των ατόμων. Ιδίως οι χρήστες νεότερων ηλικιών συνιστούν πιο ευάλωτες και επιρρεπείς ομάδες. Μάλιστα έρευνες των τελευταίων ετών έχουν συσχετίσει την εκτεταμένη χρήση φίλτρων προσώπου με την αύξηση των αισθητικών επεμβάσεων στις νεαρές ηλικίες. Ενδεικτικός του φαινομένου είναι ο όρος “Snapchat Dysmorphia”, ο οποίος περιγράφει την αίσθηση αποσύνδεσης που βιώνουν κάποιοι χρήστες μεταξύ της πραγματικής τους εμφάνισης και των εικόνων που μοιράζονται με τον κόσμο.  Οι σημαντικές αυτές κοινωνικές επιπτώσεις της καθιέρωσης μη ρεαλιστικών προτύπων ομορφιάς αναδεικνύουν την ευθύνη των μέσων κοινωνικής δικτύωσης αναφορικά με την χρήση νέων τεχνολογιών.

Νομοθετικές Ρυθμίσεις και Εταιρική Κοινωνική Ευθύνη

Σε απάντηση στις προκλήσεις που θέτουν τα φίλτρα προσώπου, κυβερνήσεις και φορείς ενεργούν για την καθιέρωση νομοθεσίας που αφορά στην τους στο διαδίκτυο, στην χρήση τεχνολογίας αναγνώρισης προσώπου και στην προστασία των προσωπικών δεδομένων. Αυτή η νομοθεσία αντικατοπτρίζει την αναγνώριση της ανάγκης ισορροπίας μεταξύ της καινοτομίας και της προστασίας των ψηφιακών δικαιωμάτων.

Ενδεικτικά, σύμφωνα με τον Γενικό Κανονισμό για την Προστασία Δεδομένων (GDPR), τα βιομετρικά δεδομένα, τα οποία συλλέγονται κατά τη χρήση τεχνολογίας αναγνώρισης προσώπου, συνιστούν ευαίσθητα δεδομένα, η επεξεργασία των οποίων επιτρέπεται μόνο κατ’ εξαίρεση. Επιπλέον, σχετικά με την χρήση τεχνολογίας αναγνώρισης προσώπου, η  Συμβουλευτική Επιτροπή της Σύμβασης για την προστασία των φυσικών προσώπων έναντι της αυτόματης επεξεργασίας δεδομένων προσωπικού χαρακτήρα έχει εκδώσει σχετικές κατευθυντήριες γραμμές το 2021 (Guidelines on facial recognition, 2021). Σχετικά με τον αντίκτυπο στην ψυχική υγεία των χρηστών, κάποιες ευρωπαϊκές χώρες όπως η Νορβηγία και η Γαλλία έχουν θεσπίσει ήδη νομοθεσία, σύμφωνα με την οποία  οι influencers, εφόσον χρησιμοποιούν φίλτρα προσώπου, είναι υποχρεωμένοι/ες να κάνουν σχετική αναφορά στις αναρτήσεις τους προκειμένου να μην παραπλανούν τους αποδέκτες του περιεχομένου τους.

Ωστόσο, τα μέσα κοινωνικής ως κύριοι πάροχοι αυτών των τεχνολογιών έχουν σημαντική ευθύνη και οφείλουν να αναλάβουν ενεργό ρόλο για τη διασφάλιση της ενημέρωσης των χρηστών και της υπεύθυνης χρήσης των φίλτρων προσώπου, υιοθετώντας διαφανείς πολιτικές, ισχυρούς μηχανισμούς συναίνεσης και διασφαλίσεις κατά της κατάχρησης. Στόχος θα πρέπει να είναι η επαρκής ενημέρωση των χρηστών και η προώθηση ενός ψηφιακού περιβάλλοντος που δίνει προτεραιότητα στην ευημερία των χρηστών.

Συμπέρασμα

Παρά το γεγονός ότι τα φίλτρα προσώπου των μέσων κοινωνικής δικτύωσης έχουν αδιαμφισβήτητα φέρει επανάσταση στην ψηφιακή αυτοέκφραση, ο αντίκτυπός τους στα ψηφιακά δικαιώματα δεν μπορεί να υποτιμηθεί. Η προστασία της ιδιωτικής ζωής, η συναίνεση, η παραπλάνηση, η ανάπτυξη μη ρεαλιστικών προτύπων ομορφιάς και η επίδραση αυτών στην ψυχολογία των χρηστών συνιστούν περίπλοκα ζητήματα με πολλές προεκτάσεις, τα οποία απαιτούν ανάλυση και αντιμετώπιση.

Η εύρεση ισορροπίας μεταξύ της προώθησης της καινοτομίας και της εφαρμογής αποτελεσματικών κανονιστικών μέτρων είναι κρίσιμη κατά την περιήγησή μας στον δυναμικό χώρο των μέσων κοινωνικής δικτύωσης. Καθώς εξερευνούμε τις δυνατότητες της επαυξημένης πραγματικότητας και της ψηφιακής αυτοέκφρασης, είναι επιτακτικό να δοθεί προτεραιότητα στην προστασία των ατομικών δικαιωμάτων αλλά και στην διαφύλαξη της ψυχικής υγείας των χρηστών. Έτσι θα διασφαλιστεί ότι ο ψηφιακός χώρος παραμένει ένας τόπος όπου οι χρήστες μπορούν ελεύθερα να εκφράζονται χωρίς να θέτουν σε κίνδυνο την ιδιωτικότητά, την αυτονομία και την ευημερία τους.

*Η Αυγή Σαουλίδου είναι Νομικός και Υπεύθυνη Προστασίας Δεδομένων στο Ελληνικό Ίδρυμα Έρευνας και Καινοτομίας.


Ομιλία της Homo Digitalis για την Τεχνητή Νοημοσύνη σε εκδήλωση του Youth Council του Κέντρου Πολιτισμού Σταύρος Νιάρχος

Αυτή την Κυριακή 4/2 και Ώρα 17:00-19:00 (ελεύθερη είσοδος χωρίς εγγραφή) το Youth Council του Κέντρου Πολιτισμού Σταύρος Νιάρχος Stavros Niarchos Foundation Cultural Center (SNFCC) διοργανώνει και επιμελείται κύκλο 4 σύντομων ομιλιών για την Τεχνητή Νοημοσύνη στον Πύργο Βιβλίων στην Εθνική Βιβλιοθήκη της Ελλάδας!

Η Homo Digitalis κλήθηκε να μιλήσει για θέματα πνευματικής ιδιοκτησίας και νομικής προσωπικότητας της ΤΝ με βάση και τις τελευταίες εξελίξεις όπου εφημερίδες, καλλιτέχνες και συγγραφείς εγείρουν αγωγή κατά εταιρειών όπως η Open AI.

Στην εκδήλωση θα μας εκπροσωπήσει η Διευθύντρια Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου Λαμπρινή Γυφτοκώστα.

Στόχος της εκδήλωσης είναι μια ανοιχτή συζήτηση με το κοινό και όχι απλά ένας μονόλογος των ομιλητών! Θα χαρούμε να σας δούμε από κοντά και να συζητήσουμε αυτά και άλλα πολλά θέματα με τους:

-Παναγιώτη Κορομηλά, υποψήφιο διδάκτορα στο ΕΚΠΑ και βοηθό έρευνας στο Ινστιτούτο Πληροφορικής και Τηλεπικοινωνιών του Εθνικού Κέντρου Έρευνας Φυσικών Επιστημών «Δημόκριτος» NCSR “DEMOKRITOS”​
-Ορφέα Μενή Μαστρομιχαλάκη, υποψήφιο διδάκτορα και ερευνητή στο εργαστήριο Συστημάτων Τεχνητής Νοημοσύνης και Μάθησης του Εθνικού Μετσόβιου Πολυτεχνείου και
-Μαρία Μαυροπούλου , visual artist/εικαστικό

 


Η νέα Πράξη για την Τεχνητή Νοημοσύνη: οι απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης

Γράφει η Κατερίνα Μεζίνη*

Τα συστήματα τεχνητής νοημοσύνης («συστήματα ΤΝ») μπορούν εύκολα να χρησιμοποιηθούν σε πολλούς τομείς της οικονομίας και της κοινωνίας, μεταξύ άλλων και σε διασυνοριακό επίπεδο, και να κυκλοφορούν σε ολόκληρη την Ένωση. Η Τεχνητή Νοημοσύνη αποτελεί μία διαρκώς εξελισσόμενη τεχνολογία που μπορεί να αποφέρει πολλά κοινωνικά και οικονομικά οφέλη. Παράλληλα όμως, ανάλογα με τον τρόπο και τον σκοπό για τον οποίον χρησιμοποιείται μπορεί να χρησιμοποιηθεί καταχρηστικά, να δημιουργήσει κινδύνους και να παραβιάσει τα προστατευόμενα ατομικά δικαιώματα. Για παράδειγμα, η ΤΝ μπορεί να χρησιμοποιηθεί- και έχει χρησιμοποιηθεί- προκειμένου να εντείνει τη διαρκή παρακολούθηση των πολιτών, την καταστολή, τον κοινωνικό έλεγχο, τη χειραγώγηση, τη λογοκρισία και την εκμετάλλευση ανθρώπου από άνθρωπο  παραβιάζοντας με αυτό τον τρόπο θεμελιώδη δικαιώματα των πολιτών όπως την ανθρώπινη αξιοπρέπεια, την προστασία της ιδιωτικής ζωής, των προσωπικών δεδομένων και την ελευθερία της έκφρασης.

Ως μέρος της ψηφιακής στρατηγικής της, η ΕΕ θέλησε να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της τεχνολογίας. Τον Απρίλιο του 2021, η Ευρωπαϊκή Επιτροπή υπέβαλε Πρόταση Κανονισμού  για την τεχνητή νοημοσύνη. Στις 9 Δεκεμβρίου 2023, το Κοινοβούλιο κατέληξε σε προσωρινή συμφωνία με το Συμβούλιο σχετικά με την πράξη Τεχνητής Νοημοσύνης. Το συμφωνηθέν κείμενο θα πρέπει τώρα να εγκριθεί επίσημα τόσο από το Κοινοβούλιο όσο και από το Συμβούλιο για να γίνει δίκαιο της ΕΕ.

Σύμφωνα με τον ορισμό που περιλαμβάνει στο κείμενο της πρότασης ως Σύστημα Τεχνητής Νοημοσύνης ορίζεται: «το λογισμικό που αναπτύσσεται με μία ή περισσότερες από τις τεχνικές και προσεγγίσεις που παρατίθενται στο παράρτημα I και μπορεί, για ένα δεδομένο σύνολο στόχων που έχουν καθοριστεί από τον άνθρωπο, να παράγει στοιχεία εξόδου όπως περιεχόμενο, προβλέψεις, συστάσεις ή αποφάσεις που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλεπιδρά».

Η ΕΕ επέλεξε να ρυθμίσει τα ζητήματα με μορφή Κανονισμού προκειμένου οι κανόνες του να έχουν άμεση ισχύ σε όλα τα κράτη-μέλη, συνεπής προς το στόχο της δημιουργίας «ενιαίας ψηφιακής αγοράς». Ο Κανονισμός περιλαμβάνει εν ολίγοις κανόνες που ρυθμίζουν τη διάθεση στην αγορά και τη θέση σε λειτουργία ορισμένων συστημάτων ΤΝ. Ο Κανονισμός ακολουθεί μία προσέγγιση «βάσει κινδύνου». Μέσω αυτής της προσέγγισης, το είδος και το περιεχόμενο των εν λόγω κανόνων αναμένεται να προσαρμοστούν στην ένταση και την έκταση των κινδύνων που μπορούν να δημιουργήσουν τα εκάστοτε συστήματα ΤΝ.

Η Ευρωπαϊκή Επιτροπή, μέσω της πρότασης Κανονισμού και σε σχέση με τις πρακτικές ΤΝ, διακρίνει τέσσερα διαφορετικά επίπεδα κινδύνου και ειδικότερα τον i) μη αποδεκτό κίνδυνο, ii) τον υψηλό κίνδυνο, iii) τον περιορισμένο κίνδυνο και iv) τον ελάχιστο κίνδυνο. Τα συστήματα ΤΝ που εντάσσονται στην κατηγορία μη αποδεκτού κινδύνου απαγορεύονται πλήρως, τα συστήματα υψηλού κινδύνου πρέπει να συμμορφώνονται με ειδικές απαιτήσεις ενώ τα συστήματα περιορισμένου ή χαμηλού κινδύνου πρέπει να συμμορφώνονται με λιγότερες ή καθόλου απαιτήσεις.

Το άρθρο 5 (τίτλος ΙΙ) καθορίζει τις «απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης», δηλαδή περιλαμβάνει όλα τα συστήματα ΤΝ των οποίων η χρήση θεωρείται μη αποδεκτή διότι αντιβαίνει στις αξίες της Ένωσης, για παράδειγμα παραβιάζοντας θεμελιώδη δικαιώματα. Σύμφωνα λοιπόν με το άρθρο 5 απαγορεύονται οι ακόλουθες πρακτικές στον τομέα της τεχνητής νοημοσύνης:

  • Η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση συστημάτων ΤΝ που αποσκοπούν στη στρέβλωση της ανθρώπινης συμπεριφοράς, με την οποία είναι πιθανόν να προκληθούν σωματικές ή ψυχολογικές βλάβες. Αυτά τα συστήματα ΤΝ χρησιμοποιούν κατασκευαστικά στοιχεία που απευθύνονται στο υποσυνείδητο και τα οποία τα άτομα δεν μπορούν να αντιληφθούν, ή εκμεταλλεύονται ευάλωτα χαρακτηριστικά παιδιών και ανθρώπων λόγω της ηλικίας τους ή λόγω της σωματικής ή της διανοητικής αναπηρίας τους.
  • Η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση ορισμένων συστημάτων ΤΝ που παρέχουν κοινωνική βαθμολόγηση των φυσικών προσώπων για γενική χρήση από τις δημόσιες αρχές ή για λογαριασμό τους. Τα συστήματα αυτά μπορεί να οδηγήσουν σε διακρίσεις και στον αποκλεισμό ορισμένων ομάδων. Αυτά τα συστήματα αξιολογούν ή ταξινομούν την αξιοπιστία των φυσικών προσώπων με βάση την κοινωνική τους συμπεριφορά ή με βάση τα γνωστά ή προβλεπόμενα προσωπικά χαρακτηριστικά τους ή χαρακτηριστικά της προσωπικότητάς τους.
  • Η χρήση συστημάτων ΤΝ για την εξ αποστάσεως βιομετρική ταυτοποίηση φυσικών προσώπων σε «πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου. Ο Κανονισμός προβλέπει εξαίρεση σε τρεις εξαντλητικά απαριθμούμενες και αυστηρά καθορισμένες περιπτώσεις: σε περίπτωση αναζήτησης δυνητικών θυμάτων εγκληματικών πράξεων, συμπεριλαμβανομένων των αγνοούμενων παιδιών, σε ορισμένες απειλές κατά της ζωής ή της σωματικής ακεραιότητας φυσικών προσώπων ή απειλές τρομοκρατικής επίθεσης και στον εντοπισμό, την ταυτοποίηση ή τη δίωξη δραστών ή υπόπτων για τα ποινικά αδικήματα που αναφέρονται στην απόφαση-πλαίσιο 2002/584/ΔΕΥ του Συμβουλίου, εφόσον τα εν λόγω ποινικά αδικήματα τιμωρούνται στο οικείο κράτος μέλος με στερητική της ελευθερίας ποινή ή στερητικό της ελευθερίας μέτρο ασφάλειας ανώτατης διάρκειας τουλάχιστον τριών ετών και όπως ορίζονται στο δίκαιο του εν λόγω κράτους μέλους.

Επισημαίνεται ότι κάθε χρήση συστήματος εξ αποστάσεως βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου θα πρέπει να υπόκειται σε ρητή και ειδική άδεια που χορηγείται από δικαστική αρχή ή από ανεξάρτητη διοικητική αρχή κράτους μέλους. Επιπρόσθετα, ο Κανονισμός ορίζει ότι η εν λόγω χρήση στην επικράτεια κράτους μέλους θα πρέπει να είναι δυνατή μόνο εφόσον το εν λόγω κράτος μέλος έχει αποφασίσει να προβλέψει ρητά τη δυνατότητα να επιτρέπεται η χρήση αυτή στο πλαίσιο των ειδικότερων κανόνων του εθνικού του δικαίου. Συνεπώς, τα κράτη μέλη έχουν την ευχέρεια να μην προβλέψουν καθόλου αυτή τη δυνατότητα.

Οι παραπάνω πρακτικές είναι ιδιαίτερα επιβλαβείς και απαγορεύτηκαν διότι έρχονται σε αντίθεση με τις ενωσιακές αξίες του σεβασμού της ανθρώπινης αξιοπρέπειας, της ελευθερίας, της ισότητας, της δημοκρατίας και του κράτους δικαίου, καθώς και με τα θεμελιώδη δικαιώματα της Ένωσης, συμπεριλαμβανομένου του δικαιώματος στη μη διακριτική μεταχείριση, στην προστασία των δεδομένων και της ιδιωτικότητας, καθώς και στα δικαιώματα του παιδιού.

Ωστόσο, ο Κανονισμός αφήνει μεγάλα περιθώρια στα Κράτη Μέλη να «νομιμοποιήσουν» τη χρήση συστημάτων βιομετρικής ταυτοποίησης για σκοπούς επιβολής του νόμου. Οι «εξαιρέσεις» που προβλέπει ο Κανονισμός στην πραγματικότητα είναι ευρείες και ανοίγουν τον δρόμο για τη χρήση των συστημάτων για σκοπούς μαζικής παρακολούθησης. Όπως πολύ εύστοχα παρατήρησε και η Access Now, οι εξαιρέσεις που θέτει θυμίζουν περισσότερο έναν «Οδηγό χρήσης μίας τεχνολογίας που δεν έχει θέση σε μία δημοκρατική και βασισμένη στα δικαιώματα κοινωνία». Επιπρόσθετα, προβληματικό είναι το γεγονός ότι τα συστήματα που χρησιμοποιούνται για «προβλεπτική» ή «προληπτική» αστυνόμευση (predictive policing) εντάσσονται στα συστήματα «υψηλού κινδύνου» και όχι στις απαγορευμένες πρακτικές. Συνεπώς, επιτρέπεται- υπό ορισμένες μόνο προϋποθέσεις- η χρήση συστημάτων τα οποία αξιολογούν ορισμένα ατομικά χαρακτηριστικά ή καταστάσεις και καταλήγουν σε ένα συμπέρασμα σχετικά με την πιθανότητα διάπραξης εγκλήματος από ορισμένο πρόσωπο ή σε ορισμένη γεωγραφική περιοχή, δίνοντας τη δυνατότητα στις αστυνομικές αρχές να παρακολουθούν προληπτικά ορισμένα πρόσωπα ή περιοχές [1]. Τα συστήματα αυτά, όπως έχει αποδειχθεί από πολλές έρευνες, αναπαράγουν διακρίσεις και διαιωνίζουν στερεότυπα και προκαταλήψεις έναντι κοινωνικών ομάδων, είναι επικίνδυνα για τις ατομικές ελευθερίες των πολιτών και θα έπρεπε να απαγορευτούν.

Αναμένεται να δούμε τον τρόπο με τον οποίον θα εφαρμοστούν οι κανόνες που περιλαμβάνει ο νέος Κανονισμός καθώς και εάν θα επιτευχθεί αποτελεσματική εποπτεία από τις αρμόδιες αρχές των κρατών μελών προκειμένου να προστατευτούν πραγματικά και στην ουσία τους τα δικαιώματα των πολιτών από την τεχνολογική αυτή δυνατότητα.

 

[1]Βλ. παράρτημα ΙΙΙ του Κανονισμού όπου εντάσσει στα συστήματα υψηλού κινδύνου: «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για τη διενέργεια ατομικών εκτιμήσεων κινδύνου όσον αφορά φυσικά πρόσωπα, προκειμένου να εκτιμηθεί ο κίνδυνος διάπραξης αδικήματος ή υποτροπής ή ο κίνδυνος για δυνητικά θύματα ποινικών αδικημάτων», «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για την πρόβλεψη της τέλεσης ή εκ νέου τέλεσης ποινικού αδικήματος, πραγματικού ή δυνητικού, με βάση την κατάρτιση προφίλ φυσικών προσώπων όπως αναφέρεται στο άρθρο 3 σημείο 4) της οδηγίας (ΕΕ) 2016/680 ή την αξιολόγηση των γνωρισμάτων και χαρακτηριστικών της προσωπικότητας ή προηγούμενης εγκληματικής συμπεριφοράς φυσικών προσώπων ή ομάδων, «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για την κατάρτιση προφίλ φυσικών προσώπων όπως αναφέρεται στο άρθρο 3 σημείο 4) της οδηγίας (ΕΕ) 2016/680 στο πλαίσιο της ανίχνευσης, της διερεύνησης ή της δίωξης ποινικών αδικημάτων»

ΠΗΓΕΣ:

https://edri.org/our-work/eu-ai-act-deal-reached-but-too-soon-to-celebrate/

https://europeanaifund.org/newspublications/european-civil-society-on-the-ai-act-deal/

https://www.amnesty.org/en/latest/news/2023/12/eu-blocs-decision-to-not-ban-public-mass-surveillance-in-ai-act-sets-a-devastating-global-precedent/

https://www.europarl.europa.eu/news/el/press-room/20210930IPR13925/techniti-noimosuni-kai-astunomeusi-to-ek-kata-tis-mazikis-parakolouthisis

*Η Κατερίνα Μεζίνη είναι Δικηγόρος, απόφοιτη του τμήματος Νομικής του ΕΚΠΑ και του ΠΜΣ «Δίκαιο και Τεχνολογίες Πληροφορικής και Επικοινωνιών» του Πανεπιστημίου Πειραιώς.


Συμμετοχή της Homo Digitalis στην Μελέτη του ΕΚΚΕ και του Δημόκριτου για τη χρήση της Παραγωγικής Τεχνητής Νοημοσύνης στην Ελλάδα

Η Ειδική Γραμματεία Μακροπρόθεσμου Σχεδιασμού της Προεδρίας της Κυβέρνησης (Special Secretariat of Foresight, Hellenic Republic), σε συνεργασία με το Εθνικό Κέντρο Κοινωνικών Ερευνών (EKKE) και το Εθνικό Κέντρο Έρευνας Φυσικών Επιστημών «Δημόκριτος» (ΕΚΕΦΕ «Δ» National Center for Scientific Research “Demokritos”​ ) υλοποίησαν την πρώτη εμπειρική ερευνητική προσέγγιση στρατηγικής προόρασης (strategic foresight) για τη χρήση της Παραγωγικής Τεχνητής Νοημοσύνης (generative artificial intelligence -ΠΤΝ) στην Ελλάδα.

Η έρευνα παρουσιάζει τάσεις, δυνατότητες, προκλήσεις, αβεβαιότητες και πιθανές επιλογές που θα διαμορφώσουν το μέλλον του οικοσυστήματος της ΠΤΝ στη χώρα. Παρέχει ένα πλαίσιο προτεινόμενων στρατηγικών πρωτοβουλιών και συστάσεων πολιτικής. Κύριος στόχος της είναι να αντλήσει από τη συλλογική γνώση και τις προορατικές (foresight) αντιλήψεις ειδικών και εμπειρογνωμόνων όσον αφορά στον αντίκτυπο του εγχώριου οικοσυστήματος της Παραγωγικής Τεχνητής Νοημοσύνης (ΠΤΝ), με χρονικό ορίζοντα το 2030.

Είναι μεγάλη τιμή για την ομάδα της Homo Digitalis που επιλέχθηκε για να βρίσκεται ανάμεσα στους 30 ειδικούς που συμμετείχαν στις συνεντεύξεις με τη χρήση ερωτηματολογίων για την εκπόνηση της έρευνας. Οι ειδικοί εμπειρογνώμονες εκπροσωπούσαν διάφορους εμπλεκόμενους φορείς (δημόσια διοίκηση, ερευνητική-ακαδημαϊκή κοινότητα, επιχειρήσεις-ιδιωτικός τομέας, κοινωνία πολιτών, επαγγελματικοί και επιστημονικοί φορείς) και ασχολούνται συστηματικά με την ΠΤΝ. Την ομάδα μας εκπροσώπησε με παρατηρήσεις ο Γραμματέας του ΔΣ μας Λευτέρης Χελιουδάκης.

Θα θέλαμε να ευχαριστήσουμε τον Δρ. Charalambos Tsekeris, Υπεύθυνο του Ερευνητικού Έργου “GenAI Greece 2030, Αντιπρόεδρο της Εθνικής Επιτροπής Βιοηθικής και Τεχνοηθικής και Κύριο Ερευνητή του ΕΚΚΕ για τη συμπερίληψη και την τιμητική πρόκληση στη Homo Digitalis να συμμετάσχει. Πάντα η οργάνωση μας είναι διαθέσιμη για να δίνει το παρόν σε αντίστοιχες πρωτοβουλίες και να συμμετέχει ενεργά στον δημόσιο διάλογο για τη χρήση τεχνολογιών Τεχνητής Νοημοσύνης.

Μπορείτε να διαβάσετε την πλήρη μελέτη εδώ.

 


Πράξη για την Τεχνητή Νοημοσύνη: μια θετική νομοθετική εξέλιξη για την προστασία των πολιτών;

Γράφει η Δανάη Σκεύη*

Καθημερινά ερχόμαστε, εκούσια ή ακουσία, σε επαφή με συστήματα τεχνητής νοημοσύνης (ΤΝ) για ποικίλους σκοπούς∙ από την καθαριότητα του σπιτιού με αυτόνομο ρομποτικό βοηθό, την εξυπηρέτηση πελατών με ψηφιακά bots, την αυτοματοποιημένη αξιολόγηση βιογραφικών, μέχρι τη λήψη ασφάλειας ζωής βάσει συστήματος κατάταξης ασφαλειοληπτών. Στις σταδιακά αυξανόμενες περιπτώσεις πρόκλησης σωματικής βλάβης, βλάβης της υγείας, οικονομικής ζημίας, δυσμενούς μεταχείρισης ή άλλης προσβολής της προσωπικότητας, το ερώτημα που προβάλλει επιτακτικό έχει να κάνει με την επαρκή (ή μη) προστασία των πολιτών κατά την επαφή τους με συστήματα ΤΝ.

Μπορούν να εμπιστεύονται οι πολίτες τα συστήματα ΤΝ; Το θέμα είναι πραγματικά εκτενές και δεν μπορεί να δοθεί μια μονοδιάστατη απάντηση. Ενόψει των κανόνων που αναμένονται να τεθούν σε ισχύ σε λίγο καιρό στην Ευρωπαϊκή Ένωση, στο άρθρο σκιαγραφείται μια πρώτη απάντηση μέσα από τις ρυθμίσεις της Πράξης για την Τεχνητή Νοημοσύνη (εν συντομία Πράξη ΤΝ), αφού πρώτα δοθούν μερικές διευκρινίσεις για τη νέα νομοθεσία.

(i) Τι είναι η Πράξη ΤΝ;

Η Πράξη ΤΝ είναι το νομοθετικό πλαίσιο που πρότεινε η Ευρωπαϊκή Επιτροπή για να αντιμετωπίσει «ολιστικά» τα συστήματα τεχνητής νοημοσύνης ώστε να θεωρούνται ασφαλή και αξιόπιστα. Η Πράξη ΤΝ αποτελεί το επιστέγασμα μιας μακριάς νομοθετικής προσπάθειας, κατά την οποία έλαβαν χώρα πολλές διαβουλεύσεις, πολιτικές πιέσεις και αλληλουποχωρήσεις προκειμένου να επιτευχθεί ο πολιτικός στόχος της δημιουργίας ενός οικοσυστήματος εμπιστοσύνης των πολιτών στην τεχνητή νοημοσύνη (ecosystem of trust) και ενός οικοσυστήματος επιχειρηματικής αριστείας στην τεχνητή νοημοσύνη (ecosystem of excellence). Στις 8 Δεκεμβρίου 2023, μετά από έναν τριήμερο μαραθώνιο διαβουλεύσεων, επιτεύχθηκε η πολιτική συμφωνία για το περιεχόμενο της Πράξης ΤΝ. Τα αρμόδια όργανα, δηλαδή το Συμβούλιο της Ε.Ε. και το Ευρωκοινοβούλιο, πέτυχαν συμφωνία πάνω σε εριζόμενα άρθρα και πλέον έχει ανοίξει ο δρόμος για τη νομοτεχνική επεξεργασία του νόμου και την τελική ψήφιση. Μόλις η Πράξη ψηφισθεί, θα χρειαστούν ακόμα δύο χρόνια για να αποτελέσει δεσμευτικό δίκαιο.

(ii) Σε ποιους απευθύνεται η Πράξη ΤΝ;

Η Πράξη ΤΝ επιβάλλει κανόνες για την ανάπτυξη, κυκλοφορία και χρήση συστημάτων ΤΝ στην Ευρωπαϊκή αγορά. Οι κανόνες απευθύνονται σε όλα τα πρόσωπα που συμμετέχουν στην αλυσίδα αξίας (AI value chain), δηλαδή στα πρόσωπα που είναι υπεύθυνα για την ανάπτυξη, εμπορία, εισαγωγή, διανομή και χρήση συστημάτων ΤΝ, αποκαλούμενα εν συνόλω «φορείς εκμετάλλευσης». Ακριβώς επειδή ο στόχος είναι η Πράξη να ρυθμίσει την ανάπτυξη και εποπτεία των συστημάτων, οι κανόνες επιβάλλονται στους φορείς εκμετάλλευσης επειδή αυτοί έχουν τον έλεγχο των συστημάτων καθόλη τη διάρκεια του κύκλου ζωής τους (AI lifecycle).

(iii) Ποια η προστασία των πολιτών βάσει της Πράξης ΤΝ;

Το ότι οι κανόνες της Πράξης ΤΝ στοχεύουν να ρυθμίσουν τις υποχρεώσεις των φορέων εκμετάλλευσης δεν σημαίνει ότι το νέο νομοθετικό πλαίσιο είναι μικρής σημασίας για πολίτες. Παραμένει εξαιρετικά σημαντικό να υπάρξει εξοικείωση με τις καινούργιες ρυθμίσεις. Τούτο διότι οι πολίτες είναι, εν τέλει,  οι τελικοί αποδέκτες που θα κάνουν χρήση όλων αυτών των καινούργιων εφαρμογών. Αν κάποιος φορέας εκμετάλλευσης δεν συμμορφώνεται πλήρως με τις υποχρεώσεις ασφάλειας ή δεν εποπτεύει επαρκώς το σύστημα που αναπτύσσει, οι τελικά ζημιωθέντες – ηθικά και υλικά –  θα είναι όσοι πολίτες έλθουν σε επαφή με το εν λόγω σύστημα. Κατά δεύτερον, με το να γνωρίζουν οι πολίτες τις υποχρεώσεις των φορέων εκμετάλλευσης θα είναι προετοιμασμένοι για τα χαρακτηριστικά που αναμένουν να δουν κατά την αγορά ή με άλλο τρόπο επαφή με συστήματα ΤΝ. Θα γνωρίζουν και άρα θα μπορούν να ασκήσουν αποτελεσματικά τα δικαιώματα τους, τα οποία θα βασίζουν είτε στην Πράξη ΤΝ (ανάλογα με το τελικό της περιεχόμενο), είτε σε συναφείς προστατευτικούς νόμους όπως τον Γενικό Κανονισμό Προστασίας Προσωπικών Δεδομένων (ΓΚΠΔ) και τους νόμους που παρέχουν αποζημίωση για την πρόκληση ζημίας (άρθρο 6 Ν. 2251/1994, ΑΚ 914 επ.).

Τούτων λεχθέντων, ποιες είναι οι σημαντικότερες ρυθμίσεις της Πράξης ΤΝ;

  1. Απαγορεύσεις: Η Πράξη ΤΝ απαγορεύει εντελώς ορισμένες πρακτικές οι οποίες αντίκεινται στις κοινές Ευρωπαϊκές αξίες. Έτσι, απαγορεύονται συστήματα που απευθύνονται στο υποσυνείδητο των ανθρώπων και συστήματα που εκμεταλλεύονται τρωτά σημεία ευάλωτων ομάδων, όπως των παιδιών και των ηλικιωμένων. Ακόμη, απαγορεύονται  πρακτικές που προβαίνουν σε κοινωνική ταξινόμηση των πολιτών (socialscoring) και πρακτικές βιομετρικής ταυτοποίησης προσώπων (biometrical identification). Ωστόσο, οι τελευταίες απαγορεύσεις δεν θα είναι απόλυτες, αφού προβλέπονται εξαιρέσεις όπως, για παράδειγμα, η βιομετρική ταυτοποίηση σε δημόσιους χώρους για τη διακρίβωση βαρύτατων αδικημάτων (π.χ. τρομοκρατία).
  2. Υποχρεώσεις για συστήματα υψηλού κινδύνου: Η Πράξη ΤΝ επιβάλλει ένα πλέγμα εκτενών υποχρεώσεων στους φορείς εκμετάλλευσης που αναπτύσσουν αρκετά επικίνδυνα συστήματα (high-riskAIsystems). Περιληπτικά, επιβάλλονται υποχρεώσεις διενέργειας εκτίμησης επιπτώσεων στα θεμελιώδη δικαιώματα, διαχείρισης κινδύνου, διακυβέρνησης δεδομένων, τήρησης διαφάνειας, πληροφόρησης χρηστών, ανθρώπινης εποπτείας, τεχνικής ασφάλειας καθώς και άλλες υποχρεώσεις που εξειδικεύονται σε επιμέρους άρθρα της Πράξης.
  3. Υποχρεώσεις για συστήματα γενικού σκοπού και για μοντέλα θεμελίωσης: Νομοθετικό «πονοκέφαλο» έχει προκαλέσει η εμπορική κυκλοφορία συστημάτων που χρησιμοποιούνται για πολλαπλούς σκοπούς και τα οποία μπορεί να ενσωματώνονται σε άλλα συστήματα υψηλού κινδύνου [general-purposeAI (GPAI) systems], με αποτέλεσμα να εμφανίζουν διαφοροποιημένους – και όχι μονοδιάστατους – κινδύνους. Παρόμοιο προβληματισμό έχουν προκαλέσει και τα λεγόμενα μοντέλα θεμελίωσης (foundationmodels), δηλαδή μεγάλα συστήματα ικανά να εκτελούν με επάρκεια ένα ευρύ φάσμα διακριτών εργασιών, όπως το γνωστό πλέον παράδειγμα του ChatGPT. Το τελικό κείμενο της Πράξης αναμένεται να περιέχει υποχρεώσεις διαφάνειας για αυτά τα συστήματα προτού διατεθούν στην αγορά, αλλά και πιο αυστηρούς κανόνες για τα μοντέλα θεμελίωσης με υψηλό αντίκτυπο (high impact) που μπορούν να διαδίδουν συστημικούς κινδύνους κατά μήκος της αλυσίδας αξίας [1].

 

(iv) Πώς αποτιμάται η Πράξη ΤΝ σε σχέση με την προστασία των πολιτών;

Η Πράξη ΤΝ αποτελεί σίγουρα μια θετική νομοθετική εξέλιξη για την κοινή Ευρωπαϊκή αγορά. Αν μάλιστα ανατρέξουμε στις πρωτοβουλίες που έχουν λάβει χώρα παγκοσμίως για τη ρύθμιση της τεχνητής νοημοσύνης θα διαπιστώσουμε ότι η Ε.Ε. είναι η πρώτη χώρα – ή κατ’ ακριβολογία δικαιοδοσία – που θα ψηφίσει δεσμευτικούς κανόνες για την τεχνητή νοημοσύνη καθορίζοντας την «τύχη» 440 εκατομμύρια πολιτών. Η Ε.Ε. έχει, αναμφίβολα, δείξει αποφασιστικότητα σε σύγκριση με άλλες ηγέτιδες χώρες στην τεχνητή νοημοσύνη, όπως οι ΗΠΑ και η Κίνα, με το να απαγορεύσει ρητά ορισμένες αμφιλεγόμενες πρακτικές και να επιβάλλει ένα διαφοροποιημένο πλέγμα κανόνων βάσει του κινδύνου που προκαλούν τα συστήματα ΤΝ. Φαίνεται να αξιοποιεί την ήπια δύναμη (soft power) που διαθέτει στον τομέα της ρύθμισης, λειτουργώντας ως ρυθμιστική κοιτίδα για τρίτες χώρες και αγορές.

Απεναντίας, όταν η συζήτηση στρέφεται στην προστασία των πολιτών, η Πράξη ΤΝ θα πρέπει να αξιολογηθεί υπό το φως της επαρκούς (ή μη) προστασίας των δικαιωμάτων των πολιτών. Σχετικά με αυτό το ζήτημα, οι ενώσεις καταναλωτών έχουν εκφραστεί με επιφυλάξεις. Η Ursula Pachl, αναπληρώτρια γενική διευθύντρια της Ευρωπαϊκής Οργάνωσης Καταναλωτών (BEUC), τον Δεκέμβριο 2023 δήλωσε: «Ο νόμος για την τεχνητή νοημοσύνη περιέχει τόσο καλά όσο και κακά σημεία, αλλά συνολικά τα μέτρα για την προστασία των καταναλωτών δεν είναι ικανοποιητικά […] Πάρα πολλά ζητήματα έχουν αφεθεί υπορυθμιζόμενα, με υπερβολική εξάρτηση από την καλή θέληση των εταιρειών για αυτορρύθμιση. Για παράδειγμα, οι εικονικοί βοηθοί ή τα παιχνίδια που λειτουργούν με τεχνητή νοημοσύνη δεν θα ρυθμιστούν επαρκώς, καθώς δεν θεωρούνται συστήματα υψηλού κινδύνου. Επίσης, συστήματα όπως το ChatGPT ή το Bard δεν θα αποκτήσουν τις προστατευτικές δικλείδες που απαιτούνται για να τα εμπιστευτούν οι καταναλωτές. Υπάρχουν, ωστόσο, ορισμένες σημαντικές διατάξεις που θα επιτρέψουν στους καταναλωτές να αναλάβουν δράση εάν έχουν υποστεί αθέμιτη μεταχείριση ή έχουν υποστεί ζημία» [2].

Συνοψίζοντας, αν και φαίνεται ότι η Πράξη ΤΝ αποτελεί θετική εξέλιξη για την προστασία των πολιτών θα ήταν μάλλον βιαστική η οριστική απάντηση στο ερώτημα του τίτλου. Η κρίση για την επάρκεια (ή μη) του ρυθμιστικού πλαισίου θα περάσει από τριπλή βάσανο. Πρώτον, αναμένουμε την τελική μορφή της Πράξης ΤΝ για την αξιολόγηση των αλλαγών που έχουν μεσολαβήσει από τη στιγμή της αρχικής πρότασης τον Απρίλιο 2021 μέχρι την τελική ψήφιση. Δεύτερον, ελλείψεις προστασίας ενδεχομένως να μπορεί επιλυθούν από τη λοιπή προστατευτική νομοθεσία, κυρίως το δίκαιο προστασίας καταναλωτή, προστασίας προσωπικών δεδομένων και αστικής ευθύνης, τα οποία θα κληθούν να καλύψουν – στο βαθμό του εφικτού – τυχόν ελλείψεις. Τρίτον, η προστασία των πολιτών θα εξαρτηθεί και από την έκταση και την αποτελεσματική εποπτεία της αγοράς συστημάτων ΤΝ από τις Αρχές. Στο μέτρο που ο ρόλος των εποπτικών Αρχών θα είναι περιορισμένος, θα πρέπει οι πολίτες να εξοπλιστούν με επαρκή δικαιώματα για να καλυφθεί το έλλειμμα προστασίας που θα δημιουργηθεί.

 

[1]Council of Europe, Press Release 986/23, Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world, 9/12/2023; European Parliament, Press Release, 20231206IPR15699, Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI, 9/12/2023.

[2]The European Consumer Organization (BEUC),  BEUC-PR-2023-057, EU rules on AI lack punch to sufficiently protect consumers, 9/12/2023

*Η Δανάη Σκεύη είναι Υποψήφια Διδάκτορας της Νομικής Σχολής του Εθνικού Καποδιστριακού Πανεπιστημίου Αθηνών.


Ετοιμάσαμε ένα εύληπτο Infographic για τις εξελίξεις στις τριμερείς διασκέψεις της AI Act

Πώς εξελίσσονται οι τριμερείς διασκέψεις στο πλαίσιο της υιοθέτησης της προτεινόμενης νομοθεσίας της ΕΕ για την Τεχνητή Νοημοσύνη;

Μαζί με την European Digital Rights και άλλες σημαντικές οργανώσεις της κοινωνίας των πολιτών με τις οποίες συνεργαζόμαστε στενά τα τελευταία χρόνια σε αυτόν το νομοθετικό φάκελο ετοιμάσαμε ένα γραφικό για να αναδείξουμε που βρισκόμαστε με την ικανοποίηση των αιτημάτων μας για την προστασία των Δικαιωμάτων του Ανθρώπου.

Έχουμε επιτύχει σημαντικές βελτιώσεις, αλλά δυστυχώς υπάρχουν ακόμα πολλές διατάξεις που δεν ικανοποιούν τα αιτήματά μας. Μπορείς να διαβάσεις περισσότερα στη σχετική εδώ.

 


Συναντηθήκαμε με το Υπουργείο Ψηφιακής Διακυβέρνησης για την ΑΙ Act

Σήμερα, η Λαμπρινή Γυφτοκώστα και ο Κωνσταντίνος Κακαβούλης εκπροσώπησαν τη Homo Digitalis σε συνάντηση με εκπροσώπους του Υπουργείου Ψηφιακής Διακυβέρνησης.
Το θέμα της συζήτησης: Η ρύθμιση της Τεχνητής Νοημοσύνης στην Ευρωπαϊκή Ένωση και στην Ελλάδα.

Ευχαριστούμε θερμά τους εκπροσώπους του Υπουργείου για τον πολύ γόνιμο διάλογο! Συνεχίζουμε να παρακολουθούμε τις εξελίξεις και να συμμετέχουμε ενεργά στη συνδιαμόρφωσή τους.

 


Συμμετοχή της Homo Digitalis σε συνάντηση του LSE στη Λουμπλιάνα

Την Παρασκευή 20 Οκτωβρίου, η Ηοmo Digitalis ήταν προσκεκλημένη του JET Table του The London School of Economics and Political Science (LSE) σε ένα σημαντικό workshop που έλαβε χώρα στην Λιουμπλιάνα της Σλοβενίας!

Εκεί παρουσιάσαμε τις δράσεις μας κατά της χρήσης παρεμβατικών νέων τεχνολογιών τεχνητής νοημοσύνης στον τομέα της αστυνόμευσης και της διαχείρισης συνόρων στην Ελλάδα τα τελευταία 5 χρόνια, και ενημερώσαμε τις οργανώσεις της κοινωνίας των πολιτών που συμμετείχαν για τα σημαντικά εργαλεία που παρέχει η νομοθεσία προστασίας προσωπικών δεδομένων σχετικά.

Το κοινό έδειξε το έντονο ενδιαφέρον και τον θαυμασμό του για τα όσα έχουμε καταφέρει εντελώς εθελοντικά στο παρελθόν, αλλά δεν έκρυψε και τον προβληματισμό του για τις μεγάλες καθυστερήσεις στην λήψη σχετικών αποφάσεων από την Ελληνική Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα.

Τη Ηοmo Digitalis εκπροσώπησε στο workshop ο Γραμματέας του ΔΣ μας, Ελευθέριος Χελιουδάκης.