Συμμετέχουμε στο Infolaw 2024 για να μιλήσουμε για την Τεχνητή Νοημοσύνη και την AI Act

Το Lawspot.gr και η Ευρωπαϊκή Ένωση Νέων Νομικών Ελλάδας ( ELSA Greece), διοργανώνουν το τρίτο συνέδριο InfoLaw με τίτλο «Ρυθμίζοντας την Ψηφιακή Καινοτομία: Τεχνητή Νοημοσύνη, Κυβερνοασφάλεια και Πλατφόρμες» στις 28 Μαρτίου 2024 στο Αμφιθέατρο “Μιλτιάδης Έβερτ” της Τεχνόπολης του Δήμου Αθηναίων. Η φετινή διοργάνωση υποστηρίζεται από την Athens Legal Tech και την Ελληνική Ένωση για την Προστασία των Προσωπικών Δεδομένων και της Ιδιωτικότητας.
Eίναι μεγάλη τιμή για τη Homo Digitalis να δίνει το παρόν, συμμετέχοντας στο Roundtable 1 | ΑΙ: Από τη θεωρία στην Πράξη … για την Τεχνητή Νοημοσύνη! Το συντονισμό του Roundtable έχει αναλάβει η Λίλιαν Μήτρου, Καθηγήτρια Πανεπιστημίου Αιγαίου, Δικηγόρος, και Πρόεδρος του Ινστιτούτου για το Δίκαιο της Ιδιωτικότητας, της Προστασίας Προσωπικών Δεδομένων και την Τεχνολογία με συμμετέχοντες τους:
-Σπύρος Βλαχόπουλος, Καθηγητής Συνταγματικού Δικαίου Νομικής Σχολής ΕΚΠΑ, Δικηγόρος
-Τηλέμαχος Μωραΐτης, Επικεφαλής Κυβερνητικών Σχέσεων της Microsoft για χώρες της Νοτιοανατολικής και Κεντρικής Ανατολικής Ευρώπης
-Δημήτρης Κυριαζής, Εκλεγμένος Επίκουρος Καθηγητής Ευρωπαϊκού Δικαίου Νομικής Σχολής ΑΠΘ​, και
-ο δικός μας Λευτέρης Χελιουδάκης, Συνιδρυτής και Γραμματέας του ΔΣ της Ηomo Digitalis
Ευχαριστούμε θερμά τους διοργανωτές για την ευγενική πρόσκληση, την ευκαιρία να εκφράσουμε τις απόψεις μας και τη συμπερίληψη! Μπορείτε να κάνετε εγγραφή για να παρακολοθήσετε από κοντά τις πολύ ενδιαφέρουσες συζητήσεις, αλλά και να εξερευνήσετε το πλούσιο πρόγραμμα εδώ.

 


Συμμετείχαμε σε συνάντηση του Ινστιτούτου Alan Turing για τη χρήση Τεχνητής Νοημοσύνης στην πρόσληψη και την απασχόληση

Στις 14 Μαρτίου, η Διευθύντρια μας για την Τεχνητή Νοημοσύνη και τα Δικαιώματα του Ανθρώπου, Λαμπρινή Γυφτοκώστα, συμμετείχε σε διαδικτυακή συνάντηση που διοργάνωσε το Ινστιτούτο Alan Turing με θέμα “Προς μια υπεύθυνη διακυβέρνηση της χρήσης της Τεχνητής Νοημοσύνης στην πρόσληψη και την απασχόληση“. Οι ενδιαφερόμενοι από την κοινωνία των πολιτών, την κυβέρνηση, την ακαδημαϊκή κοινότητα και τη βιομηχανία μοιράστηκαν τις απόψεις τους σχετικά με τις βέλτιστες πρακτικές για τη χρήση της τεχνητής νοημοσύνης (AI) στην πρόσληψη και την απασχόληση, συμπεριλαμβανομένης της ανάπτυξης προτύπων στον τομέα αυτό.

Τα πορίσματα του εν λόγω εργαστηρίου θα βοηθήσουν στην εξειδίκευση της κατεύθυνσης και του πεδίου εφαρμογής ενός ερευνητικού έργου AI Standards Hub υπό την ηγεσία ερευνητών του Ινστιτούτου Alan Turing, το οποίο θα έχει ως στόχο να διερευνήσει το ρόλο των προτύπων που βασίζονται σε συναίνεση στη ρύθμιση της χρήσης της τεχνητής νοημοσύνης στην πρόσληψη και την απασχόληση σε διασυνοριακές δικαιοδοσίες.

Στην Ελλάδα, το πιλοτικό έργο “Δημιουργία εργαλείου στρατηγικού σχεδιασμού του εργατικού δυναμικού (βασισμένο σε τεχνολογίες Τεχνητής Νοημοσύνης)”, όπως ανακοίνωσε ο Υπουργός Ψηφιακής Διακυβέρνησης, είναι μια πρωτοβουλία που θα αφορά περισσότερα από 700.000 άτομα όταν ολοκληρωθεί. Όπως υπογράμμισε η Homo Digitalis κατά τη διάρκεια της ημερίδας, τα εναρμονισμένα πρότυπα σε τομείς όπως η πρόσληψη και η απασχόληση, ακόμη και αν είναι προαιρετικά, είναι απαραίτητα για τη δημιουργία μιας κουλτούρας συμμόρφωσης με τους νέους κανόνες ΤΝ.

Ο ρόλος της ελληνικής εποπτικής αρχής στην επιβολή των προτύπων και του νόμου θα είναι υψίστης σημασίας, ιδίως δεδομένου ότι, σύμφωνα με τον ελληνικό νόμο για την εφαρμογή του ΓΚΠΔ, οι εργαζόμενοι δεν μπορούν να εξουσιοδοτήσουν την Homo Digitalis να υποβάλει καταγγελία για λογαριασμό τους χωρίς να αποκαλύψουν τα ονόματά τους, φέρνοντάς τους σε αδύνατη θέση.

 

 


Κοινή Δήλωση Εκστρατείας Protect Not Surveil: Επικίνδυνες οι διατάξεις της AI Act για τις ευάλωτες κοινωνικές ομάδες στον τομέα της μετανάστευσης

Στις 13 Μαρτίου 2024, το Ευρωπαϊκό Κοινοβούλιο ενέκρινε την Πράξη της ΕΕ για την Τεχνητή Νοημοσύνη (AI ACT).

Παρά το γεγονός ότι η νομοθεσία παρουσιάζεται ευρέως ως μία παγκόσμια πρωτοτυπία, η πράξη της ΕΕ για την τεχνητή νοημοσύνη υπολείπεται στον σημαντικό τομέα της μετανάστευσης, καθώς δεν αποτρέπει τους υψηλούς κινδύνους που υπάρχουν και δεν παρέχει το απαραίτητο επίπεδο προστασίας στις ευάλωτες κοινωνικές ομάδες που βρίσκονται στο στόχαστρο παρεμβατικών τεχνολογιών στον τομέα αυτόν.

Στην τελική της εκδοχή, η πράξη της ΕΕ για την τεχνητή νοημοσύνη δημιουργεί ένα επικίνδυνο προηγούμενο. Η νομοθεσία αναπτύσσει ένα ξεχωριστό νομικό πλαίσιο για τη χρήση της ΤΝ από τις αρχές επιβολής του νόμου, τον έλεγχο της μετανάστευσης και την εθνική ασφάλεια, παρέχοντας αδικαιολόγητα “παραθυράκια” στις υποχρεώσεις που προβλέπει το κείμενό της, και ενθαρρύνοντας ακόμη και τη χρήση επικίνδυνων συστημάτων για επιτήρηση των πλέον περιθωριοποιημένων μελών της κοινωνίας.

Η Homo Digitalis έχοντας τα τελευταία 4 χρόνια προχωρήσει σε σημαντικές σχετικές νομικές καταγγελίες ενώπιον της ΑΠΔΠΧ, καθώς και σε μία σειρά εκπαιδευτικών δράσεων, δράσεων ευαισθητοποίησης και δράσεων συνδιαμόρφωσης πολιτικών αποφάσεων σε επίπεδο ΕΕ σχετικά, παρακολουθεί με ιδιαίτερη ανησυχία τις σχετικές εξελίξεις.

Στο πλαίσιο της ενεργούς συμμετοχής μας στην εκστρατεία Protect Not Surveil, μαζί με όλα τα μέλη αυτής, προχωρήσαμε στη δημοσίευση μίας κοινής δήλωσης, η οποία περιγράφει τα κύρια κενά στην προστασία των ευάλωτων κοινωνικών ομάδων στον τομέα της μετανάστευσης που εντοπίζονται στο κείμενο της AI Act.

Μπορείτε να διαβάσετε το κείμενο της κοινής μας δήλωσης εδώ.

 

 


Μιλάμε στο Inside.story για πνευματική ιδιοκτησία και τα μοντέλα παραγωγικής Τεχνητής Νοημοσύνης

Η Διευθύντρια για ζητήματα Δικαιωμάτων του Ανθρώπου & Τεχνητής Νοημοσύνης της Homo Digitalis, Λαμπρινή Γυφτοκώστα, μίλησε στο Inside.story και τη δημοσιογράφο Ειρήνη Σωτηροπούλου για την πνευματική ιδιοκτησία και τα μοντέλα παραγωγικής ΤΝ σε ένα εξαιρετικό άρθρο που έχει ετοιμάσει σχετικά με αφετηρία την υπόθεση των New York Times!!

Μπορείς να διαβάσεις το άρθρο εδώ.

Ευχαριστούμε θερμά τη δημοσιογράφο για τον ενδιαφέρον της στις δράσεις μας.

 

 


Μιλάμε στο Balkan Insight και το News 24/7 για την Τεχνητή Νοημοσύνη και την χρήση της στον τομέα της προστασίας των συνόρων

Η Συνιδρυτής και Γραμματέας του Δ.Σ. της Homo Digitalis, Λευτέρης Χελιουδάκης, μίλησε στη δημοσιογράφο Ευτυχία Σουφλερή για την χρήση συστημάτων τεχνητής νοημοσύνης στον τομέα της μετανάστευσης και διαχείρισης συνόρων, υπογραμμίζοντας τις σημαντικές σχετικές νομικές δράσεις της Ηοmo Digitalis, ενώπιον της Αρχής Προστασίας Δεδομένων Προσωπικού Χαρακτήρα και των άλλων αρμόδιων φορέων.

Μπορείτε να διαβάσετε το άρθρο στην ιστοσελίδα του Balkan Insight στα αγγλικά εδώ ή την ιστοσελίδα του News 24/7 στα ελληνικά εδώ.

Ευχαριστούμε θερμά τη δημοσιογράφο για τον ενδιαφέρον της στις δράσεις μας.

 


Φίλτρα Προσώπου στα Μέσα Κοινωνικής Δικτύωσης

Γράφει η Αυγή Σαουλίδου*

Στο πλαίσιο της ψηφιακής επανάστασης που χαρακτηρίζει την εποχή μας, τα μέσα κοινωνικής δικτύωσης έχουν αναδειχθεί σε ένα ισχυρό μέσο που διαμορφώνει τον τρόπο με τον οποίο συνδεόμαστε, μοιραζόμαστε εμπειρίες και εκφραζόμαστε στην καθημερινότητά μας. Εντός αυτού του δυναμικού και συνεχώς εξελισσόμενου τοπίου, όπου η εικόνα πρωταγωνιστεί, έχουν γίνει εξαιρετικά δημοφιλή και χρησιμοποιούντα  μαζικά από τους χρήστες των social media τα φίλτρα προσώπου (AR Filters). Ενώ αυτά τα φίλτρα συχνά προσδίδουν μία ανάλαφρη και διασκεδαστική διάθεση στις ψηφιακές μας αλληλεπιδράσεις, οι συνέπειες της χρήσης τους δημιουργούν ένα πολύπλευρο ζήτημα που χρήζει προσεκτικής εξέτασης.

Η χρήση των φίλτρων προσώπου (AR Filters) στα μέσα κοινωνικής δικτύωσης

Η ταχύτητα με την οποία εναλλάσσονται οι πληροφορίες σήμερα, έχει αναδείξει σε βασικό στοιχείο επικοινωνίας την εικόνα. Μια εικόνα είναι ικανή να εκφράσει συναισθηματικές καταστάσεις, να αναδείξει μηνύματα και να προκαλέσει συναισθήματα πολύ πιο άμεσα και έντονα από ένα κείμενο. Ενώ οι λέξεις λοιπόν μπορούν να μεταδώσουν συγκεκριμένες πληροφορίες, η εικόνα υπερέχει στην απεικόνιση σύνθετων εννοιών προσφέροντας μια ολοκληρωμένη εμπειρία. Όπως συνηθίζουμε να λέμε «μία εικόνα, χίλιες λέξεις». Επιπλέον, η ανάγκη για αποδοχή στα social media, η οποία αποτυπώνεται μέσω των likes στις αναρτήσεις των χρηστών, δημιούργησε την ανάγκη για ψηφιακή επεξεργασία των εικόνων/φωτογραφιών με σκοπό τη βελτίωσή τους. Έτσι οδηγηθήκαμε στην εκτεταμένη χρήση των εργαλείων ψηφιακής επεξεργασίας εικόνας και αργότερα η τάση αυτή επεκτάθηκε στην ευρεία χρήση φίλτρων επαυξημένης πραγματικότητας (AR Filters) που εφαρμόζουν στο πρόσωπο των χρηστών στα μέσα κοινωνικής δικτύωσης (Facebook, Instagram, TikTok κ.α.). Η μαζική χρήση των φίλτρων προσώπου όμως έχει πολλαπλές συνέπειες, αρχικά στην ιδιωτικότητα των χρηστών και αν προχωρήσουμε λίγο βαθύτερα, έχει κοινωνικές και ψυχολογικές επιπτώσεις τόσο στους ίδιους τους χρήστες των φίλτρων προσώπου, όσο και στους αποδέκτες των ψηφιακά αλλοιωμένων εικόνων.

Οι επιπτώσεις στην ιδιωτικότητα και στην ψυχική υγεία των χρηστών

Η χρήση των φίλτρων προσώπου συνιστά μία νέα πρόκληση για την προστασία της ιδιωτικότητας. Οι εφαρμογές φίλτρων προσώπου, αξιοποιώντας προηγμένη τεχνολογία αναγνώρισης προσώπου, ανιχνεύουν χαρακτηριστικά προσώπου και τα τροποποιούν. Σε πρώτο επίπεδο, η συλλογή δεδομένων προσώπου εγείρει βάσιμες ανησυχίες που αφορούν τον τρόπο διαχείρισης, δυνητικής εκμετάλλευσης ή ακόμη και κατάχρησης αυτών των δεδομένων, χωρίς την ενημέρωση και συγκατάθεση των χρηστών. Οι χρήστες, λόγω μη επαρκούς πληροφόρησης και παρασυρμένοι από την παιγνιώδη διάθεση που τους καταλαμβάνει όταν χρησιμοποιούν τέτοιου είδους εφαρμογές, είναι πιθανό να εκθέσουν ακούσια τα προσωπικά τους δεδομένα. Ακόμη, οι επιπτώσεις της ευρείας χρήσης τεχνολογίας αναγνώρισης προσώπου επεκτείνονται πέρα από το άτομο, συμβάλλοντας στην ανάπτυξη και αποδοχή μίας κουλτούρας παρακολούθησης.

Σε δεύτερο επίπεδο, ενώ τα φίλτρα προσώπου στοχεύουν είτε να βελτιώσουν αισθητικά τις εικόνες είτε να διασκεδάσουν τους χρήστες, συμβάλλουν επίσης στην ανάπτυξη ενός ψηφιακού τοπίου, όπου διαστρεβλώνονται ολοένα και περισσότερο οι αντιλήψεις για την ταυτότητα και την ομορφιά. Η συνεχής έκθεση των χρηστών των μέσων κοινωνικής δικτύωσης σε εξιδανικευμένες, ψηφιακά αλλοιωμένες εικόνες έχει παρατηρηθεί ότι επηρεάζει σημαντικά την αυτοεκτίμηση και δημιουργεί στρεβλή αντίληψη για την εικόνα των ατόμων. Ιδίως οι χρήστες νεότερων ηλικιών συνιστούν πιο ευάλωτες και επιρρεπείς ομάδες. Μάλιστα έρευνες των τελευταίων ετών έχουν συσχετίσει την εκτεταμένη χρήση φίλτρων προσώπου με την αύξηση των αισθητικών επεμβάσεων στις νεαρές ηλικίες. Ενδεικτικός του φαινομένου είναι ο όρος “Snapchat Dysmorphia”, ο οποίος περιγράφει την αίσθηση αποσύνδεσης που βιώνουν κάποιοι χρήστες μεταξύ της πραγματικής τους εμφάνισης και των εικόνων που μοιράζονται με τον κόσμο.  Οι σημαντικές αυτές κοινωνικές επιπτώσεις της καθιέρωσης μη ρεαλιστικών προτύπων ομορφιάς αναδεικνύουν την ευθύνη των μέσων κοινωνικής δικτύωσης αναφορικά με την χρήση νέων τεχνολογιών.

Νομοθετικές Ρυθμίσεις και Εταιρική Κοινωνική Ευθύνη

Σε απάντηση στις προκλήσεις που θέτουν τα φίλτρα προσώπου, κυβερνήσεις και φορείς ενεργούν για την καθιέρωση νομοθεσίας που αφορά στην τους στο διαδίκτυο, στην χρήση τεχνολογίας αναγνώρισης προσώπου και στην προστασία των προσωπικών δεδομένων. Αυτή η νομοθεσία αντικατοπτρίζει την αναγνώριση της ανάγκης ισορροπίας μεταξύ της καινοτομίας και της προστασίας των ψηφιακών δικαιωμάτων.

Ενδεικτικά, σύμφωνα με τον Γενικό Κανονισμό για την Προστασία Δεδομένων (GDPR), τα βιομετρικά δεδομένα, τα οποία συλλέγονται κατά τη χρήση τεχνολογίας αναγνώρισης προσώπου, συνιστούν ευαίσθητα δεδομένα, η επεξεργασία των οποίων επιτρέπεται μόνο κατ’ εξαίρεση. Επιπλέον, σχετικά με την χρήση τεχνολογίας αναγνώρισης προσώπου, η  Συμβουλευτική Επιτροπή της Σύμβασης για την προστασία των φυσικών προσώπων έναντι της αυτόματης επεξεργασίας δεδομένων προσωπικού χαρακτήρα έχει εκδώσει σχετικές κατευθυντήριες γραμμές το 2021 (Guidelines on facial recognition, 2021). Σχετικά με τον αντίκτυπο στην ψυχική υγεία των χρηστών, κάποιες ευρωπαϊκές χώρες όπως η Νορβηγία και η Γαλλία έχουν θεσπίσει ήδη νομοθεσία, σύμφωνα με την οποία  οι influencers, εφόσον χρησιμοποιούν φίλτρα προσώπου, είναι υποχρεωμένοι/ες να κάνουν σχετική αναφορά στις αναρτήσεις τους προκειμένου να μην παραπλανούν τους αποδέκτες του περιεχομένου τους.

Ωστόσο, τα μέσα κοινωνικής ως κύριοι πάροχοι αυτών των τεχνολογιών έχουν σημαντική ευθύνη και οφείλουν να αναλάβουν ενεργό ρόλο για τη διασφάλιση της ενημέρωσης των χρηστών και της υπεύθυνης χρήσης των φίλτρων προσώπου, υιοθετώντας διαφανείς πολιτικές, ισχυρούς μηχανισμούς συναίνεσης και διασφαλίσεις κατά της κατάχρησης. Στόχος θα πρέπει να είναι η επαρκής ενημέρωση των χρηστών και η προώθηση ενός ψηφιακού περιβάλλοντος που δίνει προτεραιότητα στην ευημερία των χρηστών.

Συμπέρασμα

Παρά το γεγονός ότι τα φίλτρα προσώπου των μέσων κοινωνικής δικτύωσης έχουν αδιαμφισβήτητα φέρει επανάσταση στην ψηφιακή αυτοέκφραση, ο αντίκτυπός τους στα ψηφιακά δικαιώματα δεν μπορεί να υποτιμηθεί. Η προστασία της ιδιωτικής ζωής, η συναίνεση, η παραπλάνηση, η ανάπτυξη μη ρεαλιστικών προτύπων ομορφιάς και η επίδραση αυτών στην ψυχολογία των χρηστών συνιστούν περίπλοκα ζητήματα με πολλές προεκτάσεις, τα οποία απαιτούν ανάλυση και αντιμετώπιση.

Η εύρεση ισορροπίας μεταξύ της προώθησης της καινοτομίας και της εφαρμογής αποτελεσματικών κανονιστικών μέτρων είναι κρίσιμη κατά την περιήγησή μας στον δυναμικό χώρο των μέσων κοινωνικής δικτύωσης. Καθώς εξερευνούμε τις δυνατότητες της επαυξημένης πραγματικότητας και της ψηφιακής αυτοέκφρασης, είναι επιτακτικό να δοθεί προτεραιότητα στην προστασία των ατομικών δικαιωμάτων αλλά και στην διαφύλαξη της ψυχικής υγείας των χρηστών. Έτσι θα διασφαλιστεί ότι ο ψηφιακός χώρος παραμένει ένας τόπος όπου οι χρήστες μπορούν ελεύθερα να εκφράζονται χωρίς να θέτουν σε κίνδυνο την ιδιωτικότητά, την αυτονομία και την ευημερία τους.

*Η Αυγή Σαουλίδου είναι Νομικός και Υπεύθυνη Προστασίας Δεδομένων στο Ελληνικό Ίδρυμα Έρευνας και Καινοτομίας.


Ομιλία της Homo Digitalis για την Τεχνητή Νοημοσύνη σε εκδήλωση του Youth Council του Κέντρου Πολιτισμού Σταύρος Νιάρχος

Αυτή την Κυριακή 4/2 και Ώρα 17:00-19:00 (ελεύθερη είσοδος χωρίς εγγραφή) το Youth Council του Κέντρου Πολιτισμού Σταύρος Νιάρχος Stavros Niarchos Foundation Cultural Center (SNFCC) διοργανώνει και επιμελείται κύκλο 4 σύντομων ομιλιών για την Τεχνητή Νοημοσύνη στον Πύργο Βιβλίων στην Εθνική Βιβλιοθήκη της Ελλάδας!

Η Homo Digitalis κλήθηκε να μιλήσει για θέματα πνευματικής ιδιοκτησίας και νομικής προσωπικότητας της ΤΝ με βάση και τις τελευταίες εξελίξεις όπου εφημερίδες, καλλιτέχνες και συγγραφείς εγείρουν αγωγή κατά εταιρειών όπως η Open AI.

Στην εκδήλωση θα μας εκπροσωπήσει η Διευθύντρια Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου Λαμπρινή Γυφτοκώστα.

Στόχος της εκδήλωσης είναι μια ανοιχτή συζήτηση με το κοινό και όχι απλά ένας μονόλογος των ομιλητών! Θα χαρούμε να σας δούμε από κοντά και να συζητήσουμε αυτά και άλλα πολλά θέματα με τους:

-Παναγιώτη Κορομηλά, υποψήφιο διδάκτορα στο ΕΚΠΑ και βοηθό έρευνας στο Ινστιτούτο Πληροφορικής και Τηλεπικοινωνιών του Εθνικού Κέντρου Έρευνας Φυσικών Επιστημών «Δημόκριτος» NCSR “DEMOKRITOS”​
-Ορφέα Μενή Μαστρομιχαλάκη, υποψήφιο διδάκτορα και ερευνητή στο εργαστήριο Συστημάτων Τεχνητής Νοημοσύνης και Μάθησης του Εθνικού Μετσόβιου Πολυτεχνείου και
-Μαρία Μαυροπούλου , visual artist/εικαστικό

 


Η νέα Πράξη για την Τεχνητή Νοημοσύνη: οι απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης

Γράφει η Κατερίνα Μεζίνη*

Τα συστήματα τεχνητής νοημοσύνης («συστήματα ΤΝ») μπορούν εύκολα να χρησιμοποιηθούν σε πολλούς τομείς της οικονομίας και της κοινωνίας, μεταξύ άλλων και σε διασυνοριακό επίπεδο, και να κυκλοφορούν σε ολόκληρη την Ένωση. Η Τεχνητή Νοημοσύνη αποτελεί μία διαρκώς εξελισσόμενη τεχνολογία που μπορεί να αποφέρει πολλά κοινωνικά και οικονομικά οφέλη. Παράλληλα όμως, ανάλογα με τον τρόπο και τον σκοπό για τον οποίον χρησιμοποιείται μπορεί να χρησιμοποιηθεί καταχρηστικά, να δημιουργήσει κινδύνους και να παραβιάσει τα προστατευόμενα ατομικά δικαιώματα. Για παράδειγμα, η ΤΝ μπορεί να χρησιμοποιηθεί- και έχει χρησιμοποιηθεί- προκειμένου να εντείνει τη διαρκή παρακολούθηση των πολιτών, την καταστολή, τον κοινωνικό έλεγχο, τη χειραγώγηση, τη λογοκρισία και την εκμετάλλευση ανθρώπου από άνθρωπο  παραβιάζοντας με αυτό τον τρόπο θεμελιώδη δικαιώματα των πολιτών όπως την ανθρώπινη αξιοπρέπεια, την προστασία της ιδιωτικής ζωής, των προσωπικών δεδομένων και την ελευθερία της έκφρασης.

Ως μέρος της ψηφιακής στρατηγικής της, η ΕΕ θέλησε να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της τεχνολογίας. Τον Απρίλιο του 2021, η Ευρωπαϊκή Επιτροπή υπέβαλε Πρόταση Κανονισμού  για την τεχνητή νοημοσύνη. Στις 9 Δεκεμβρίου 2023, το Κοινοβούλιο κατέληξε σε προσωρινή συμφωνία με το Συμβούλιο σχετικά με την πράξη Τεχνητής Νοημοσύνης. Το συμφωνηθέν κείμενο θα πρέπει τώρα να εγκριθεί επίσημα τόσο από το Κοινοβούλιο όσο και από το Συμβούλιο για να γίνει δίκαιο της ΕΕ.

Σύμφωνα με τον ορισμό που περιλαμβάνει στο κείμενο της πρότασης ως Σύστημα Τεχνητής Νοημοσύνης ορίζεται: «το λογισμικό που αναπτύσσεται με μία ή περισσότερες από τις τεχνικές και προσεγγίσεις που παρατίθενται στο παράρτημα I και μπορεί, για ένα δεδομένο σύνολο στόχων που έχουν καθοριστεί από τον άνθρωπο, να παράγει στοιχεία εξόδου όπως περιεχόμενο, προβλέψεις, συστάσεις ή αποφάσεις που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλεπιδρά».

Η ΕΕ επέλεξε να ρυθμίσει τα ζητήματα με μορφή Κανονισμού προκειμένου οι κανόνες του να έχουν άμεση ισχύ σε όλα τα κράτη-μέλη, συνεπής προς το στόχο της δημιουργίας «ενιαίας ψηφιακής αγοράς». Ο Κανονισμός περιλαμβάνει εν ολίγοις κανόνες που ρυθμίζουν τη διάθεση στην αγορά και τη θέση σε λειτουργία ορισμένων συστημάτων ΤΝ. Ο Κανονισμός ακολουθεί μία προσέγγιση «βάσει κινδύνου». Μέσω αυτής της προσέγγισης, το είδος και το περιεχόμενο των εν λόγω κανόνων αναμένεται να προσαρμοστούν στην ένταση και την έκταση των κινδύνων που μπορούν να δημιουργήσουν τα εκάστοτε συστήματα ΤΝ.

Η Ευρωπαϊκή Επιτροπή, μέσω της πρότασης Κανονισμού και σε σχέση με τις πρακτικές ΤΝ, διακρίνει τέσσερα διαφορετικά επίπεδα κινδύνου και ειδικότερα τον i) μη αποδεκτό κίνδυνο, ii) τον υψηλό κίνδυνο, iii) τον περιορισμένο κίνδυνο και iv) τον ελάχιστο κίνδυνο. Τα συστήματα ΤΝ που εντάσσονται στην κατηγορία μη αποδεκτού κινδύνου απαγορεύονται πλήρως, τα συστήματα υψηλού κινδύνου πρέπει να συμμορφώνονται με ειδικές απαιτήσεις ενώ τα συστήματα περιορισμένου ή χαμηλού κινδύνου πρέπει να συμμορφώνονται με λιγότερες ή καθόλου απαιτήσεις.

Το άρθρο 5 (τίτλος ΙΙ) καθορίζει τις «απαγορευμένες πρακτικές στον τομέα της τεχνητής νοημοσύνης», δηλαδή περιλαμβάνει όλα τα συστήματα ΤΝ των οποίων η χρήση θεωρείται μη αποδεκτή διότι αντιβαίνει στις αξίες της Ένωσης, για παράδειγμα παραβιάζοντας θεμελιώδη δικαιώματα. Σύμφωνα λοιπόν με το άρθρο 5 απαγορεύονται οι ακόλουθες πρακτικές στον τομέα της τεχνητής νοημοσύνης:

  • Η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση συστημάτων ΤΝ που αποσκοπούν στη στρέβλωση της ανθρώπινης συμπεριφοράς, με την οποία είναι πιθανόν να προκληθούν σωματικές ή ψυχολογικές βλάβες. Αυτά τα συστήματα ΤΝ χρησιμοποιούν κατασκευαστικά στοιχεία που απευθύνονται στο υποσυνείδητο και τα οποία τα άτομα δεν μπορούν να αντιληφθούν, ή εκμεταλλεύονται ευάλωτα χαρακτηριστικά παιδιών και ανθρώπων λόγω της ηλικίας τους ή λόγω της σωματικής ή της διανοητικής αναπηρίας τους.
  • Η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση ορισμένων συστημάτων ΤΝ που παρέχουν κοινωνική βαθμολόγηση των φυσικών προσώπων για γενική χρήση από τις δημόσιες αρχές ή για λογαριασμό τους. Τα συστήματα αυτά μπορεί να οδηγήσουν σε διακρίσεις και στον αποκλεισμό ορισμένων ομάδων. Αυτά τα συστήματα αξιολογούν ή ταξινομούν την αξιοπιστία των φυσικών προσώπων με βάση την κοινωνική τους συμπεριφορά ή με βάση τα γνωστά ή προβλεπόμενα προσωπικά χαρακτηριστικά τους ή χαρακτηριστικά της προσωπικότητάς τους.
  • Η χρήση συστημάτων ΤΝ για την εξ αποστάσεως βιομετρική ταυτοποίηση φυσικών προσώπων σε «πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου. Ο Κανονισμός προβλέπει εξαίρεση σε τρεις εξαντλητικά απαριθμούμενες και αυστηρά καθορισμένες περιπτώσεις: σε περίπτωση αναζήτησης δυνητικών θυμάτων εγκληματικών πράξεων, συμπεριλαμβανομένων των αγνοούμενων παιδιών, σε ορισμένες απειλές κατά της ζωής ή της σωματικής ακεραιότητας φυσικών προσώπων ή απειλές τρομοκρατικής επίθεσης και στον εντοπισμό, την ταυτοποίηση ή τη δίωξη δραστών ή υπόπτων για τα ποινικά αδικήματα που αναφέρονται στην απόφαση-πλαίσιο 2002/584/ΔΕΥ του Συμβουλίου, εφόσον τα εν λόγω ποινικά αδικήματα τιμωρούνται στο οικείο κράτος μέλος με στερητική της ελευθερίας ποινή ή στερητικό της ελευθερίας μέτρο ασφάλειας ανώτατης διάρκειας τουλάχιστον τριών ετών και όπως ορίζονται στο δίκαιο του εν λόγω κράτους μέλους.

Επισημαίνεται ότι κάθε χρήση συστήματος εξ αποστάσεως βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου θα πρέπει να υπόκειται σε ρητή και ειδική άδεια που χορηγείται από δικαστική αρχή ή από ανεξάρτητη διοικητική αρχή κράτους μέλους. Επιπρόσθετα, ο Κανονισμός ορίζει ότι η εν λόγω χρήση στην επικράτεια κράτους μέλους θα πρέπει να είναι δυνατή μόνο εφόσον το εν λόγω κράτος μέλος έχει αποφασίσει να προβλέψει ρητά τη δυνατότητα να επιτρέπεται η χρήση αυτή στο πλαίσιο των ειδικότερων κανόνων του εθνικού του δικαίου. Συνεπώς, τα κράτη μέλη έχουν την ευχέρεια να μην προβλέψουν καθόλου αυτή τη δυνατότητα.

Οι παραπάνω πρακτικές είναι ιδιαίτερα επιβλαβείς και απαγορεύτηκαν διότι έρχονται σε αντίθεση με τις ενωσιακές αξίες του σεβασμού της ανθρώπινης αξιοπρέπειας, της ελευθερίας, της ισότητας, της δημοκρατίας και του κράτους δικαίου, καθώς και με τα θεμελιώδη δικαιώματα της Ένωσης, συμπεριλαμβανομένου του δικαιώματος στη μη διακριτική μεταχείριση, στην προστασία των δεδομένων και της ιδιωτικότητας, καθώς και στα δικαιώματα του παιδιού.

Ωστόσο, ο Κανονισμός αφήνει μεγάλα περιθώρια στα Κράτη Μέλη να «νομιμοποιήσουν» τη χρήση συστημάτων βιομετρικής ταυτοποίησης για σκοπούς επιβολής του νόμου. Οι «εξαιρέσεις» που προβλέπει ο Κανονισμός στην πραγματικότητα είναι ευρείες και ανοίγουν τον δρόμο για τη χρήση των συστημάτων για σκοπούς μαζικής παρακολούθησης. Όπως πολύ εύστοχα παρατήρησε και η Access Now, οι εξαιρέσεις που θέτει θυμίζουν περισσότερο έναν «Οδηγό χρήσης μίας τεχνολογίας που δεν έχει θέση σε μία δημοκρατική και βασισμένη στα δικαιώματα κοινωνία». Επιπρόσθετα, προβληματικό είναι το γεγονός ότι τα συστήματα που χρησιμοποιούνται για «προβλεπτική» ή «προληπτική» αστυνόμευση (predictive policing) εντάσσονται στα συστήματα «υψηλού κινδύνου» και όχι στις απαγορευμένες πρακτικές. Συνεπώς, επιτρέπεται- υπό ορισμένες μόνο προϋποθέσεις- η χρήση συστημάτων τα οποία αξιολογούν ορισμένα ατομικά χαρακτηριστικά ή καταστάσεις και καταλήγουν σε ένα συμπέρασμα σχετικά με την πιθανότητα διάπραξης εγκλήματος από ορισμένο πρόσωπο ή σε ορισμένη γεωγραφική περιοχή, δίνοντας τη δυνατότητα στις αστυνομικές αρχές να παρακολουθούν προληπτικά ορισμένα πρόσωπα ή περιοχές [1]. Τα συστήματα αυτά, όπως έχει αποδειχθεί από πολλές έρευνες, αναπαράγουν διακρίσεις και διαιωνίζουν στερεότυπα και προκαταλήψεις έναντι κοινωνικών ομάδων, είναι επικίνδυνα για τις ατομικές ελευθερίες των πολιτών και θα έπρεπε να απαγορευτούν.

Αναμένεται να δούμε τον τρόπο με τον οποίον θα εφαρμοστούν οι κανόνες που περιλαμβάνει ο νέος Κανονισμός καθώς και εάν θα επιτευχθεί αποτελεσματική εποπτεία από τις αρμόδιες αρχές των κρατών μελών προκειμένου να προστατευτούν πραγματικά και στην ουσία τους τα δικαιώματα των πολιτών από την τεχνολογική αυτή δυνατότητα.

 

[1]Βλ. παράρτημα ΙΙΙ του Κανονισμού όπου εντάσσει στα συστήματα υψηλού κινδύνου: «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για τη διενέργεια ατομικών εκτιμήσεων κινδύνου όσον αφορά φυσικά πρόσωπα, προκειμένου να εκτιμηθεί ο κίνδυνος διάπραξης αδικήματος ή υποτροπής ή ο κίνδυνος για δυνητικά θύματα ποινικών αδικημάτων», «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για την πρόβλεψη της τέλεσης ή εκ νέου τέλεσης ποινικού αδικήματος, πραγματικού ή δυνητικού, με βάση την κατάρτιση προφίλ φυσικών προσώπων όπως αναφέρεται στο άρθρο 3 σημείο 4) της οδηγίας (ΕΕ) 2016/680 ή την αξιολόγηση των γνωρισμάτων και χαρακτηριστικών της προσωπικότητας ή προηγούμενης εγκληματικής συμπεριφοράς φυσικών προσώπων ή ομάδων, «Συστήματα ΤΝ που προορίζονται να χρησιμοποιηθούν από αρχές επιβολής του νόμου για την κατάρτιση προφίλ φυσικών προσώπων όπως αναφέρεται στο άρθρο 3 σημείο 4) της οδηγίας (ΕΕ) 2016/680 στο πλαίσιο της ανίχνευσης, της διερεύνησης ή της δίωξης ποινικών αδικημάτων»

ΠΗΓΕΣ:

https://edri.org/our-work/eu-ai-act-deal-reached-but-too-soon-to-celebrate/

https://europeanaifund.org/newspublications/european-civil-society-on-the-ai-act-deal/

https://www.amnesty.org/en/latest/news/2023/12/eu-blocs-decision-to-not-ban-public-mass-surveillance-in-ai-act-sets-a-devastating-global-precedent/

https://www.europarl.europa.eu/news/el/press-room/20210930IPR13925/techniti-noimosuni-kai-astunomeusi-to-ek-kata-tis-mazikis-parakolouthisis

*Η Κατερίνα Μεζίνη είναι Δικηγόρος, απόφοιτη του τμήματος Νομικής του ΕΚΠΑ και του ΠΜΣ «Δίκαιο και Τεχνολογίες Πληροφορικής και Επικοινωνιών» του Πανεπιστημίου Πειραιώς.


Συμμετοχή της Homo Digitalis στην Μελέτη του ΕΚΚΕ και του Δημόκριτου για τη χρήση της Παραγωγικής Τεχνητής Νοημοσύνης στην Ελλάδα

Η Ειδική Γραμματεία Μακροπρόθεσμου Σχεδιασμού της Προεδρίας της Κυβέρνησης (Special Secretariat of Foresight, Hellenic Republic), σε συνεργασία με το Εθνικό Κέντρο Κοινωνικών Ερευνών (EKKE) και το Εθνικό Κέντρο Έρευνας Φυσικών Επιστημών «Δημόκριτος» (ΕΚΕΦΕ «Δ» National Center for Scientific Research “Demokritos”​ ) υλοποίησαν την πρώτη εμπειρική ερευνητική προσέγγιση στρατηγικής προόρασης (strategic foresight) για τη χρήση της Παραγωγικής Τεχνητής Νοημοσύνης (generative artificial intelligence -ΠΤΝ) στην Ελλάδα.

Η έρευνα παρουσιάζει τάσεις, δυνατότητες, προκλήσεις, αβεβαιότητες και πιθανές επιλογές που θα διαμορφώσουν το μέλλον του οικοσυστήματος της ΠΤΝ στη χώρα. Παρέχει ένα πλαίσιο προτεινόμενων στρατηγικών πρωτοβουλιών και συστάσεων πολιτικής. Κύριος στόχος της είναι να αντλήσει από τη συλλογική γνώση και τις προορατικές (foresight) αντιλήψεις ειδικών και εμπειρογνωμόνων όσον αφορά στον αντίκτυπο του εγχώριου οικοσυστήματος της Παραγωγικής Τεχνητής Νοημοσύνης (ΠΤΝ), με χρονικό ορίζοντα το 2030.

Είναι μεγάλη τιμή για την ομάδα της Homo Digitalis που επιλέχθηκε για να βρίσκεται ανάμεσα στους 30 ειδικούς που συμμετείχαν στις συνεντεύξεις με τη χρήση ερωτηματολογίων για την εκπόνηση της έρευνας. Οι ειδικοί εμπειρογνώμονες εκπροσωπούσαν διάφορους εμπλεκόμενους φορείς (δημόσια διοίκηση, ερευνητική-ακαδημαϊκή κοινότητα, επιχειρήσεις-ιδιωτικός τομέας, κοινωνία πολιτών, επαγγελματικοί και επιστημονικοί φορείς) και ασχολούνται συστηματικά με την ΠΤΝ. Την ομάδα μας εκπροσώπησε με παρατηρήσεις ο Γραμματέας του ΔΣ μας Λευτέρης Χελιουδάκης.

Θα θέλαμε να ευχαριστήσουμε τον Δρ. Charalambos Tsekeris, Υπεύθυνο του Ερευνητικού Έργου “GenAI Greece 2030, Αντιπρόεδρο της Εθνικής Επιτροπής Βιοηθικής και Τεχνοηθικής και Κύριο Ερευνητή του ΕΚΚΕ για τη συμπερίληψη και την τιμητική πρόκληση στη Homo Digitalis να συμμετάσχει. Πάντα η οργάνωση μας είναι διαθέσιμη για να δίνει το παρόν σε αντίστοιχες πρωτοβουλίες και να συμμετέχει ενεργά στον δημόσιο διάλογο για τη χρήση τεχνολογιών Τεχνητής Νοημοσύνης.

Μπορείτε να διαβάσετε την πλήρη μελέτη εδώ.