Παρουσιάσαμε με μεγάλη επιτυχία τις δράσεις μας στο InfoRights 2024 στην Κέρκυρα

Η Homo Digitalis είχε τη μεγάλη χαρά να δώσει το παρόν στο Τρίτο Διεπιστημονικό Συνέδριο Info Rights , το οποίο διοργάνωσε η Αναγνωστική Εταιρία Κερκύρας στις 17 & 18 Μαΐου 2024 με τίτλο «Τα Ανθρώπινα Δικαιώματα την Εποχή της Πληροφορίας: Σημεία αναφοράς ιστορίας, δικαίου, δεοντολογίας και πολιτισμού».

Συγκεκριμένα, το Σάββατο 18 Μαΐου, το μέλος μας Χρήστος Ζαγγανάς εκπροσώπησε τη Homo Digitalis παρουσιάζοντας τις σημαντικές δράσεις μας στον τομέα των Ψηφιακών Δικαιωμάτων στους τρεις πυλώνες ενδιαφέροντός μας, Ευαισθητοποίηση, Συνδιαμόρφωση Πολιτικών Αποφάσεων και Στρατηγικές Νομικές Δράσεις!

Ευχαριστούμε θερμά τους διοργανωτές για την ευγενική πρόσκληση!

 


Βραβευτήκαμε στο CPDP για την καμπάνια Reclaim Your Face και τις δράσεις μας στον τομέα της Τεχνητής Νοημοσύνης

Την Τρίτη 21 Μάη στο συνέδριο Computers, Privacy & Data Protection (CPDP) στις Βρυξέλλες έλαβαν χώρα για πρώτη φορά τα βραβεία «Europe AI Policy Leader Awards» από το Center for AI and Digital Policy (CAIDP)!!

Εκεί το δίκτυο της European Digital Rights (EDRi), στο οποίο η Homo Digitalis αποτελεί το μοναδικό μέλος στην Ελλάδα, έλαβε το βραβείο « AI Policy Leader in Civil Society» για την καμπάνια  Reclaim Your Face η οποία είχε ηγετικό ρόλο στη θέσπιση ορίων στη χρήση της βιομετρικής ταυτοποίησης εξ αποστάσεως στην πράξη της ΕΕ για την Τεχνητή Νοημοσύνη!!

Είναι πολύ μεγάλη τιμή για τη Homo Digitalis που αποτελεί συνιδρυτικό μέλος της καμπάνιας αυτής, ενώ αυτό το βραβείο γεμίζει με ενθουσιασμό όλα τα μέλη της καμπάνιας από το δίκτυο της EDRi και άλλους συμμάχους για όλα όσα μπορούμε να κατορθώσουμε όταν δρούμε στρατηγικά κάτω από έναν κοινό στόχο!

Ευχαριστούμε  CAIDP για αυτήν τη σημαντική αναγνώριση!

 


H Homo Digitalis με διπλή εκπροσώπηση στο Digital World Summit Greece

Η Homo Digitalis έχει τη μεγάλη τιμή και χαρά να συμμετέχει με διπλή εκπροσώπηση στο Digital World Summit Greece, την Τρίτη 28 Μαΐου στο Εθνικό Ίδρυμα Ερευνών!

Συγκεκριμένα, ο Αντιπρόεδρος μας και Partner στην Digital Law Experts (DLE), Στέφανος Βιτωράτος, θα συμμετέχει ως συντονιστής στο 1ο πάνελ του συνεδρίου, με θέμα “#ΑΙ: Η τομή ανάμεσα σε ρύθμιση και καινοτομία”, σε μία συναρπαστική συζήτηση που θα συμμετέχουν ως ομιλητές οι Δημήτρης Γερογιάννης (Πρόεδρος ΑΙ Catalyst), Λίλιαν Μήτρου (Καθηγήτρια, Τμήμα Μηχανικών Πληροφοριακών & Επικοινωνιακών Συστημάτων, Πανεπιστημίου Αιγαίου), Χαράλαμπος Τσέκερης (Προεδρεύων της Εθνικής Επιτροπής Βιοηθικής & Τεχνοηθικής), Γιάννης Μαστρογεωργίου (Ειδικός Γραμματέας Μακροπρόθεσμου Σχεδιασμού, Προεδρία της Ελληνικής Κυβέρνησης) και Φώτης Δραγανίδης (Διευθυντής Tεχνολογίας Microsoft Hellas).

Η Διευθύντρια μας για ζητήματα Δικαιωμάτων του Ανθρώπου & Τεχνητής Νοημοσύνης, Λαμπρινή Γυφτοκώστα, θα συμμετέχει ως ομιλήτρια στο 2ο πάνελ του Digital World Summit Greece 2024, με θέμα “#Κυβερνοασφάλεια, Ασφάλεια των Πολιτών και #ΤεχνητήΝοημοσύνη“! To πολύ ενδιαφέρον αυτό πάνελ θα συντονίσει ο Κωνσταντίνος Αναγνωστόπουλος (Co-founder & Director, Athens Legal Tech), ενώ θα δώσουν το παρόν ως ομιλητές και οι Ναταλία Σούλια (Senior Associate | Privacy, Data Protection & Cybersecurity, KG Law FIrm), Θωμάς Δομπρίδης (Προϊστάμενος της Γενικής Διεύθυνσης Κυβερνοασφάλειας του Υπουργείου Ψηφιακής Διακυβέρνησης), Αντώνης Μπρούμας (Επικεφαλής του τομέα δικαίου και τεχνολογίας, EY Πλατής-Αναστασιάδης) και Στέλλα Τσιτσούλα (Founder, RED.comm, Co-Founder | Women4Cyber GR | Founder Hellenic Cybersecurity Institute)!

Μπορείτε να κάνετε εγγραφή και να διαβάσετε περισσότερα για το συνέδριο και το πρόγραμμά του εδώ.

 


Πράξη Ψηφιακών Υπηρεσιών: Ασφάλεια στο Διαδίκτυο και Ελεύθερη Έκφραση

Γράφει ο Τάσος Αραμπατζής

Η Πράξη Ψηφιακών Υπηρεσιών (DSA) της Ευρωπαϊκής Ένωσης αποτελεί ορόσημο στην προσπάθεια να μπει μεγαλύτερη τάξη στο συχνά χαοτικό πεδίο του διαδικτύου. Η νομοθεσία αποσκοπεί στη θέσπιση σαφών κανόνων και αρμοδιοτήτων για τις διαδικτυακές πλατφόρμες, αντιμετωπίζοντας ένα φάσμα προβλημάτων από την προστασία των καταναλωτών έως την καταπολέμηση του επιβλαβούς περιεχομένου. Ωστόσο, μέσα στις καλοπροαίρετες διατάξεις του DSA υπάρχει μια θεμελιώδης ένσταση που εξακολουθεί να αποτελεί πρόκληση για τις δημοκρατίες παγκοσμίως: πώς εξασφαλίζουμε ένα ασφαλέστερο, πιο πολιτισμένο διαδικτυακό περιβάλλον χωρίς να παραβιάζουμε τις θεμελιώδεις αρχές της ελεύθερης έκφρασης;

Αυτό το άρθρο εξετάζει την πολυπλοκότητα των διατάξεων της DSA σχετικά με τις συνομιλίες και τον έλεγχο του περιεχομένου. Θα διερευνήσουμε πώς η καταπολέμηση των διαδικτυακών κινδύνων, συμπεριλαμβανομένης της εξάπλωσης της παραπληροφόρησης και των deepfakes, πρέπει να σταθμίζεται προσεκτικά έναντι των κινδύνων της λογοκρισίας και της καταστολής του νόμιμου λόγου. Πρόκειται για μια πράξη εξισορρόπησης με εκτεταμένες συνέπειες για το μέλλον της ψηφιακής μας κοινωνίας.

Διαδικτυακοί κίνδυνοι και η απάντηση της DSA

Το ψηφιακό πεδίο, παρ’ όλη την υπόσχεσή του για σύνδεση και γνώση, έχει μετατραπεί σε εκτροφείο για ένα ευρύ φάσμα διαδικτυακών κινδύνων.  Οι εκστρατείες παραπληροφόρησης διαβρώνουν την εμπιστοσύνη απέναντι στους δημοκρατικούς θεσμούς και σπέρνουν τη διχόνοια, ενώ η ρητορική μίσους τροφοδοτεί τις διακρίσεις και τη βία κατά περιθωριοποιημένων ομάδων. Ο διαδικτυακός εκφοβισμός καταστρέφει ζωές, ιδίως των ευάλωτων νέων.

Για την αντιμετώπιση αυτών των κινδύνων, η DSA θέτει νέες υποχρεώσεις στις διαδικτυακές πλατφόρμες, ιδίως στις Πολύ Μεγάλες Διαδικτυακές Πλατφόρμες (VLOP). Οι απαιτήσεις έχουν σημαντική εμβέλεια και περιλαμβάνουν:

  • Αυξημένη διαφάνεια: Οι πλατφόρμες πρέπει να εξηγούν τον τρόπο λειτουργίας των αλγορίθμων τους και τα κριτήρια που χρησιμοποιούν για τη σύσταση και τον έλεγχο του περιεχομένου.
  • Λογοδοσία: Οι εταιρείες θα αντιμετωπίσουν πιθανά πρόστιμα και κυρώσεις για την αποτυχία τους να αντιμετωπίσουν αποτελεσματικά το παράνομο και επιβλαβές περιεχόμενο.
  • Μετριασμός περιεχομένου: Οι πλατφόρμες πρέπει να αναφέρουν με σαφήνεια τις πολιτικές για την αφαίρεση περιεχομένου και να εφαρμόζουν αποτελεσματικά και φιλικά προς τον χρήστη συστήματα αναφοράς προβληματικού περιεχομένου.

Στόχος αυτών των διατάξεων της DSA είναι η δημιουργία ενός πιο υπεύθυνου ψηφιακού οικοσυστήματος όπου το επιβλαβές περιεχόμενο είναι λιγότερο πιθανό να ανθίσει και όπου οι χρήστες έχουν περισσότερα εργαλεία για να προστατευθούν.

Ο κίνδυνος της λογοκρισίας

Ενώ οι προθέσεις της DSA είναι αξιοθαύμαστες, τα μέτρα για την καταπολέμηση των διαδικτυακών κινδύνων εγείρουν εύλογες ανησυχίες σχετικά με τη λογοκρισία και την πιθανή καταστολή της ελευθερίας του λόγου. Η ιστορία είναι γεμάτη από περιπτώσεις όπου η καταπολέμηση του επιβλαβούς περιεχομένου χρησίμευσε ως πρόσχημα για να φιμωθούν οι αντίθετες φωνές, να ασκηθεί κριτική στους κυβερνώντες ή να κατασταλούν περιθωριοποιημένες ομάδες.

Οι οργανώσεις της κοινωνίας των πολιτών έχουν τονίσει την ανάγκη να συμπεριλάβει η DSA σαφείς εγγυήσεις για να αποτρέψει το ενδεχόμενο οι καλοπροαίρετες διατάξεις της να μετατραπούν σε εργαλεία λογοκρισίας. Είναι απαραίτητο να υπάρχουν ακριβείς ορισμοί του “παράνομου” ή “επιβλαβούς” περιεχομένου – εκείνου που υποκινεί άμεσα τη βία ή παραβιάζει τους ισχύοντες νόμους. Οι υπερβολικά ευρείς ορισμοί κινδυνεύουν να συμπεριλάβουν τη σάτιρα, την πολιτική διαφωνία και την καλλιτεχνική έκφραση, οι οποίες αποτελούν όλες προστατευόμενες μορφές λόγου.

Η καταστολή αυτών των μορφών λόγου υπό το πρόσχημα της ασφάλειας μπορεί να έχει ανασταλτικό αποτέλεσμα, αποθαρρύνοντας τη δημιουργικότητα, την καινοτομία και την ανοιχτή ανταλλαγή ιδεών που είναι ζωτικής σημασίας για μια υγιή δημοκρατία. Είναι σημαντικό να θυμόμαστε ότι αυτό που προσβάλλει ένα άτομο μπορεί να είναι βαθιά σημαντικό για ένα άλλο. Η DSA πρέπει να βαδίσει προσεκτικά για να αποφύγει την εξουσιοδότηση κυβερνήσεων ή πλατφορμών να αποφασίζουν μονομερώς τι συνιστά αποδεκτό διάλογο.

Deepfakes και η καταπολέμηση της παραπληροφόρησης

Τα deepfakes, τα συνθετικά μέσα που χρησιμοποιούνται για την παραποίηση της πραγματικότητας, αποτελούν μια ιδιαίτερα ύπουλη απειλή για την ακεραιότητα της πληροφόρησης. Η ικανότητά τους να κάνουν να φαίνεται ότι κάποιος είπε ή έκανε κάτι που δεν έκανε ποτέ, έχει τη δυνατότητα να καταστρέψει τη φήμη, να υπονομεύσει την εμπιστοσύνη σε θεσμούς, ακόμη και να αποσταθεροποιήσει πολιτικές διαδικασίες.

Η DSA αναγνωρίζει δικαίως τον κίνδυνο των deepfakes και θέτει την υποχρέωση στις πλατφόρμες να καταβάλλουν προσπάθειες για την καταπολέμηση της επιβλαβούς χρήσης τους. Ωστόσο, πρόκειται για έναν πολύπλοκο τομέα όπου η γραμμή μεταξύ της επιβλαβούς χειραγώγησης και των νόμιμων χρήσεων μπορεί να θολώσει. Η τεχνολογία deepfake μπορεί επίσης να αξιοποιηθεί για σκοπούς σάτιρας, παρωδίας ή καλλιτεχνικούς σκοπούς.

Η πρόκληση για την DSA έγκειται στον εντοπισμό των deepfakes που δημιουργούνται με κακόβουλη πρόθεση, προστατεύοντας παράλληλα αυτά που δημιουργούνται για νόμιμες μορφές έκφρασης. Οι πλατφόρμες θα πρέπει πιθανότατα να αναπτύξουν έναν συνδυασμό τεχνολογικών εργαλείων ανίχνευσης και ανθρώπινων μηχανισμών αναθεώρησης για να κάνουν αυτές τις διακρίσεις αποτελεσματικά.

Η ευθύνη των τεχνολογικών κολοσσών

Όταν πρόκειται για τη διάδοση επιβλαβούς περιεχομένου και τη δυνατότητα διαδικτυακής λογοκρισίας, μεγάλο μέρος της ευθύνης πέφτει εξ ολοκλήρου στους ώμους των μεγάλων διαδικτυακών πλατφορμών. Αυτοί οι τεχνολογικοί γίγαντες διαδραματίζουν κεντρικό ρόλο στη διαμόρφωση του περιεχομένου που βλέπουμε και του τρόπου με τον οποίο αλληλεπιδρούμε στο διαδίκτυο.

Η DSA αντιμετωπίζει άμεσα αυτή την τεράστια δύναμη επιβάλλοντας αυστηρότερες απαιτήσεις στις μεγαλύτερες πλατφόρμες, αυτές που θεωρούνται πολύ μεγάλες διαδικτυακές πλατφόρμες. Οι απαιτήσεις αυτές έχουν σχεδιαστεί για να προωθήσουν μεγαλύτερη υπευθυνότητα και να ωθήσουν αυτές τις πλατφόρμες να αναλάβουν πιο ενεργό ρόλο στον περιορισμό του επιβλαβούς περιεχομένου.

Βασικό στοιχείο της DSA είναι η προώθηση της διαφάνειας. Οι πλατφόρμες θα πρέπει να παρέχουν λεπτομερείς εξηγήσεις για τις πρακτικές τους σχετικά με τη συγκράτηση του περιεχομένου, συμπεριλαμβανομένων των αλγορίθμων που χρησιμοποιούνται για το φιλτράρισμα και τη σύσταση περιεχομένου. Αυτή η αυξημένη ορατότητα αποσκοπεί στην αποφυγή αυθαίρετων ή μεροληπτικών αποφάσεων και προσφέρει στους χρήστες καλύτερη κατανόηση των μηχανισμών που διέπουν τις διαδικτυακές τους εμπειρίες.

Προστασία της ελευθερίας του λόγου – Πού είναι το όριο;

Η προστασία της ελευθερίας του λόγου αποτελεί θεμελιώδη αρχή κάθε δημοκρατικής κοινωνίας. Επιτρέπει τη δυναμική ανταλλαγή ιδεών, την αμφισβήτηση της εξουσίας και παρέχει φωνή σε όσους βρίσκονται στο περιθώριο. Ωστόσο, καθώς εξελίσσεται ο ψηφιακός κόσμος, τα όρια της ελευθερίας του λόγου αμφισβητούνται όλο και περισσότερο.

Η DSA αντιπροσωπεύει μια ειλικρινή προσπάθεια να πλοηγηθούμε σε αυτό το πολύπλοκο πεδίο, αλλά είναι ζωτικής σημασίας να αναγνωρίσουμε ότι δεν υπάρχουν εύκολες απαντήσεις. Το όριο μεταξύ επιβλαβούς περιεχομένου και προστατευόμενων μορφών έκφρασης είναι συχνά δύσκολο να διακριθεί. Η εφαρμογή της DSA πρέπει να περιλαμβάνει ισχυρές εγγυήσεις που να βασίζονται στις θεμελιώδεις αρχές των ανθρωπίνων δικαιωμάτων, ώστε να διασφαλίζεται χώρος για ποικίλες απόψεις και κριτική.

Στην προσπάθεια αυτή, θα πρέπει να δώσουμε προτεραιότητα στην ενδυνάμωση των χρηστών. Η επένδυση στην εκπαίδευση για τον γραμματισμό στα μέσα ενημέρωσης και η προώθηση εργαλείων για κριτική σκέψη είναι ουσιώδεις για να βοηθηθούν τα άτομα να γίνουν πιο απαιτητικοί καταναλωτές των διαδικτυακών πληροφοριών.

Συμπέρασμα

Ο νόμος για τις ψηφιακές υπηρεσίες σηματοδοτεί μια σημαντική καμπή στη ρύθμιση του διαδικτυακού κόσμου. Ο αγώνας για την εξισορρόπηση της διαδικτυακής ασφάλειας και της ελευθερίας της έκφρασης δεν έχει ακόμη τελειώσει. Η DSA παρέχει ένα ισχυρό θεμέλιο, αλλά πρέπει να θεωρηθεί ως ένα βήμα σε μια συνεχή διαδικασία και όχι ως τελική λύση. Για να εξασφαλίσουμε ένα πραγματικά ανοικτό, δημοκρατικό και ασφαλές διαδίκτυο, χρειαζόμαστε συνεχή επαγρύπνηση, στιβαρή συζήτηση και την ενεργό συμμετοχή τόσο των ατόμων όσο και της κοινωνίας των πολιτών.

 


Συμμετέχουμε στο InfoRights 2024 στην Κέρκυρα

Η Homo Digitalis έχει τη μεγάλη χαρά να συμμετέχει στο Τρίτο Διεπιστημονικό Συνέδριο, το οποίο διοργανώνει η Αναγνωστική Εταιρία Κερκύρας στις 17 & 18 Μαΐου 2024 με τίτλο «Τα Ανθρώπινα Δικαιώματα την Εποχή της Πληροφορίας: Σημεία αναφοράς ιστορίας, δικαίου, δεοντολογίας και πολιτισμού».

Στο Συνέδριο θα εκπροσωπήσει τη Homo Digitalis το μέλος μας Χρήστος Ζαγγανάς, ο οποίος το Σάββατο 18 στις 12:00 θα παρουσιάσει με ομιλία του το έργο της Homo Digitalis για την προστασία ανθρώπινων δικαιωμάτων σε σχέση με την κοινωνία της πληροφορίας στην Ελλάδα!

Ευχαριστούμε θερμά τους διοργανωτές για την πολύ τιμητική πρόσκληση!

Μπορείτε να κάνετε δωρεάν εγγραφή για να παρακολουθήσετε δια ζώσης το συνέδριο ή να διαβάσετε περισσότερα γι’ αυτό εδώ.

Επίκεντρο των διεπιστημονικών θεματικών του συνεδρίου είναι τα ανθρώπινα δικαιώματα σε σχέση με την πληροφορία όσον αφορά την ιστορία, τη ρύθμιση (δίκαιο και δεοντολογία) και τον πολιτισμό. Συνδιοργανώνεται από το Εργαστήριο Τεκμηρίωσης Πολιτιστικής και Ιστορικής Κληρονομιάς του ΤΑΒΜ, την Ερευνητική Ομάδα IHRC του ΤΑΒΜ, και τη Βιβλιοθήκη και Κέντρου Πληροφόρησης του Ιονίου Πανεπιστημίου με τη συνεργασία της Έδρας UNESCO του Ιονίου Πανεπιστημίου για τις απειλές κατά της πολιτιστικής κληρονομιάς και των σχετικών με την πολιτιστική κληρονομιά δραστηριοτήτων, καθώς και του Δικηγορικού Συλλόγου Κερκύρας και των Μουσειακών Συλλογών Ιονίου Πανεπιστημίου.

 


Φέρνουμε τις εκδόσεις «Misinformation» και «What The Future Wants» της διεθνούς έκθεσης «The Glass Room» στο ADAF 2024!

Οι εκδόσεις «Misinformation» και «What The Future Wants» της διεθνούς έκθεσης «The Glass Room» της Tactical Tech θα βρίσκονται στο Athens Digital Arts Festival 2024 (ADAF2024)!!

Σε συνεργασία με την Tactical Tech, την έκθεση φέρνουν στην Ελλάδα οι οργανώσεις Homo Digitalis, Digital Detox Experience και Open Lab Athens, με την ομάδα της Ηοmo Digitalis και συγκεκριμένα τα μέλη μας Σοφία Αντωνοπούλου, Αριάνα Ράπτη και Αλκμήνη Γιαννή, να αναλαμβάνουν την επιμέλεια της διοργάνωσης των δύο εκδόσεων για το ADAF 2024!

Το ADAF 2024 θα λάβει χώρα από τις 16 έως τις 26 Μάη στα Πρώην Δικαστήρια Σανταρόζα (Σταδίου 48 & Αρσάκη). Η έκδοση «The Glass Room: Misinformation» θα είναι διαθέσιμη για το κοινό καθ’ όλη τη διάρκεια του φεστιβάλ, ενώ η έκδοση «The Glass Room: What the Future Wants» θα πραγματοποιηθεί με τη μορφή workshop το Σάββατο 18/5 στις 14.00 από τα μέλη μας Σοφία Αντωνοπούλου, Αριάνα Ράπτη και Αλκμήνη Γιαννή.

Μπορείτε να αγοράσετε εισιτήρια για το ADAF 2024 και να διαβάσετε το πλήρες πρόγραμμα του φεστιβάλ εδώ.

Ευχαριστούμε θερμά τα τρία μέλη μας για τον χρόνο, την ενέργεια και την αφοσίωσή τους στη διοργάνωση της έκθεσης αυτής, καθώς και τους διοργανωτές για τη φιλοξενία!

Η έκθεση “The Glass Room” έχει ταξιδέψει σε 61 χώρες στον κόσμο, μετράει 471 βραβευμένες διοργανώσεις και περισσότερους από 350.000 επισκέπτες παγκοσμίως. Στο παρελθόν οι Homo Digitalis, Digital Detox Experience και Open Lab Athens έχουν παρουσιάσει την έκθεση στην Εθνική Βιβλιοθήκη της Ελλάδας στην Αθήνα και στο JOIST Innovation Park στη Λάρισα.

 


Εκδήλωση του Ελληνικού Παραρτήματος της IAPP «AI & Προσωπικά Δεδομένα: Προκλήσεις & Λύσεις στην Εποχή της Ψηφιακής Ιδιωτικότητας»

Το προεδρείο του Hellenic Chapter της IAPP-International Association of Privacy Professionals, οργανώνει στις 14 Μάη και Ώρα 18:30 – 19:00 στο  ΙΜΕ ΓΣΕΒΕΕ, Ινστιτούτο Μικρών Επιχειρήσεων της ΓΣΕΒΕΕ εκδήλωση με θέμα “ΑΙ & Προσωπικά Δεδομένα: Προκλήσεις & Λύσεις στην Εποχή της Ψηφιακής Ιδιωτικότητας”.

Τη συζήτηση συντονίζει ο Στέφανος Βιτωράτος Partner – Digital Law Experts, και Συνιδρυτής και Αντιπρόεδρος της Homo Digitalis, ενώ στους ομιλητές περιλαμβάνονται οι:

-Δρ. Προκόπιος Δρογκάρης, Cybersecurity Expert, Deputy DPO ENISA, CIPP-E

-Μαρία Αλεξάνδρα Παπουτσή, Managing Associate, KBVL Law Firm Member of Deloitte Legal, CIPP-E/US

-Αλέξανδρος Παπαχαραλάμπους, CEO-CTO AETHON Engineering, Cofounder & VP Prodαuct TransiTool

Για να εγγραφείτε και να παρακολουθήσετε την εκδήλωση δια ζώσης πατήστε εδώ, ή για να κάνετε εγγραφή για διαδικτυακή παρουσίαση, πατήστε εδώ.

Είναι μεγάλη τιμή για τη Homo Digitalis που όλα τα μέλη του Προεδρείου του Hellenic Chapter της IAPP-International Association of Privacy Professionals αποτελούν μέλη μας!

 


H Homo Digitalis συμμετέχει για 4η φορά στο CPDP!

H Homo Digitalis συμμετέχει για 4η φορά στο CPDP, το πλέον αναγνωρισμένο διεθνές συνέδριο για την προστασία των προσωπικών δεδομένων και της ιδιωτικότητας!

Μετά από τις συνεχόμενες παρουσίες μας εκεί με ομιλίες σε πάνελ και workshop, φέτος έχουμε τη τιμή να δίνουμε το παρόν με ένα νέο μέσο! Συγκεκριμένα, θα δώσουμε συνέντευξη στο πλαίσιο του Avatar.fm, ενός live radio project που οργανώνει ο κοινωνικός ραδιοφωνικός σταθμός dublab.de και το privacy salon κατά τη διάρκεια του CPDP!

To Avatar.fm θα δίνει τον παλμό του συνεδρίου από τις 22 έως τις 24 Μάη, αποτελώντας βήμα για οργανώσεις με ηγετικό ρόλο στην προστασία των προσωπικών δεδομένων και της ιδιωτικότητας, αναδεικνύοντας τις δράσεις τους στον τομέα της Τεχνητής Νοημοσύνης και των νέων τεχνολογιών!

Το Avatar.fm θα εκπέμπει  ζωντανά από το εμβληματικό Gare Maritime στις Βρυξέλλες, ενώ θα φιλοξενεί και μαγνητοσκοπημένες εκπομπές, καθώς και live DJ Sets! Όσες και όσοι δεν βρισκόσαστε εκεί, μπορείτε να ακούσετε τις εκπομπές στην ιστοσελίδα dublab.de

Τη Homo Digitalis θα εκπροσωπήσει στην εν λόγω συνέντευξη η Διευθύντρια Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου, Λαμπρινή Γυφτοκώστα.

Μείνετε συντονισμένες και συντονισμένοι για το πλήρες πρόγραμμα!

 


Ψηφιακή Νοημοσύνη και Ψηφιακή Ηθική στην Εκπαίδευση

Γράφει η Δρ. Άννα Μπούγια*

Θα αφήνατε ποτέ τα παιδιά σας μόνα στους δρόμους της Νέας Υόρκης; Αναρωτιέται η  Δρ Aiken (2016, p.121), κορυφαία κυβερνοψυχολόγος. Ωστόσο, πολλοί γονείς   αφήνουν τα παιδιά μόνα τους στον κυνερνοχώρο. Η Δρ Aiken (2016) καταλήγει πως αυτή τη στιγμή διεξάγεται παγκοσμίως το μεγαλύτερο και ρεαλιστικότερο πείραμα με συμμετέχοντες παιδιά και νέους, οι οποίοι αν και ψηφιακά εγγράμματοι σε σχέση με τις προηγούμενες γενεές, έρχονται αντιμέτωποι με  διλήμματα και προκλήσεις στα διαρκώς εξελισσόμενα ψηφιακά περιβάλλοντα.

Πώς μπορεί η εκπαίδευση να συμβάλλει στη νέα κοινωνική πρόκληση;

Είναι γεγονός πως ο προγραμματισμός και η υπολογιστική σκέψη εντάσσεται πλέον στο πρόγραμμα μαθημάτων της πρωτοβάθμιας και δευτεροβάθμιας εκπαίδευσης, ενώ αντίστοιχα και η Τριτοβάθμια εκπαίδευση δίνει έμφαση στην ενίσχυση των ψηφιακών δεξιοτήτων. Το 2022, προστέθηκε στο e-learning του Καποδιστριακού Πανεπιστημίου Αθηνών, το πρώτο πρόγραμμα «Ανάπτυξης Ψηφιακής Νοημοσύνης» με έμφαση στις ψυχοκοινωνικές δεξιότητες που καλούνται να αναπτύξουν οι χρήστες του διαδικτύου. Συγκεκριμένα οι εκπαιδευόμενοι  διερευνούν τις παιδαγωγικές δυνατότητες που προσφέρει η ηλεκτρονική εκπαίδευση. Επίσης, επιχειρείται η εμβάθυνση σε θέματα που αφορούν στη διαχείριση του ψηφιακού αποτυπώματος, εστιάζοντας στις διαφορές, τις ιδιαιτερότητες και τον αντίκτυπο της προβολής της προσωπικής και κοινωνικής μας ταυτότητας μέσω του διαδικτύου. Στην κατεύθυνση αυτή οι εκπαιδευόμενοι εξοικειώνονται με στρατηγικές διαχείρισης του ψηφιακού τους αποτυπώματος και της ψηφιακής τους ταυτότητας. Επιπλέον, στο πρόγραμμα προτείνονται και αναλύονται σύγχρονες θεωρίες και στρατηγικές για την ηθική χρήση της τεχνολογίας (Σμυρναίου, Μπούγια, 2022). Ωστόσο, η ενσωμάτωση της Ψηφιακής νοημοσύνης και ειδικότερα της ψηφιακής ηθικής παραμένει πρόκληση καθώς τα τεχνολογικά περιβάλλοντα εξελίσσονται διαρκώς όπως και οι αντιλήψεις της νέες γενιάς αναφορικά με τη χρήση των νέων τεχνολογιών.

Σε μία ποιοτική μελέτη που διενεργήθηκε το 2012 από τον Gardner και την ομάδα του, με στόχο τη διερεύνηση των αντιλήψεων των νέων ανθρώπων αναφορικά με την έννοια της ηθικής στο διαδίκτυο, αλλά και την ενίσχυση της ηθικής σκέψης, οι ερευνητές του “Good play project” ανακάλυψαν πως οι νέοι επιδεικνύου συχνά μία ηθική τυφλότητα σε θέματα ιδιωτικότητας, ιδιοκτησίας, και διάδρασης όταν σερφάρουν στο διαδίκτυο. Συγκεκριμένα, η ανάλυση των συνεντεύξεων των συμμετεχόντων, ηλικία; 10 έως 25 ετών αποκάλυψε τα παρακάτω είδη αντιλήψεων που τείνουν να διαμορφώνουν κατά τη διάρκεια της διάδρασής τους στο διαδίκτυο: α) Σκέψη εστιασμένη στον εαυτό (Σκέφτονται τις προσωπικές συνέπειες των πράξεών τους), β)χρηστός τρόπος σκέψης (σκέφτονται τις ηθικές συνέπειες των πράξεών τους σε ανθρώπους που γνωρίζουν, γ) ηθικός τρόπος σκέψης (σκέφτονται τις συνέπειες που έχουν οι πράξεις του στην κοινότητα και σε άγνωστους ανθρώπους. Η έρευνα καταλήγει πως υπάρχει ένα ηθικό κενό που πρέπει να γεφυρωθεί καθώς η ασυνείδητη ηθική τυφλότητα του δείχνουν περιστασιακά οι νέοι κατά τη διάδρασή τους μπορεί να καταλήξει σε συνειδητή επιλογή αποσύνδεσης της ηθικής σκέψης και προτεραιοποίησης του προσωπικού συμφέροντος. Η αλήθεια είναι πως η εκπαίδευση αναφορικά με τους ηθικούς κινδύνους του διαδικτύου εστιάζει κυρίως στη μεμονωμένη προστασία του ατόμου, την αποφυγή ριψοκίνδυνων συμπεριφορών, την προστασία της ιδιωτικότητας και λιγότερο στην υποχρέωσή μας  Η εκπαίδευση μπορεί να παίξει καταλυτικό ρόλο στην ενίσχυση και εξάσκηση της ηθικής σκέψης και δράσης σε όλους τους τομείς της ανθρώπινης ζωής εστιάζοντας στη σύνδεση και μεταφορά των δεξιοτήτων ηθικής σκέψης από το φυσικό στο διαδικτυακό περιβάλλον (James, 2014).

Στην ίδια γραμμή, η Shannon Vallor (2016) καθηγήτρια τεχνοηθικής του Πανεπιστημίου του Εδιμβούργου επιμένει ότι η ανθρωπότητα πρέπει να αναπτύξει «τεχνοηθικές αρετές» (Vallor, 2016 , σελ. 3). Σύμφωνα με την Vallor, μια σύγχρονη θεωρία της ηθικής «πρέπει να περιλαμβάνει την εφαρμογή ενός κανονιστικού πλαισίου για το πώς να ζεις καλά με τις τεχνολογίες, ειδικά αυτές που αναδύονται ακόμη και δεν έχουν ακόμη διευθετηθεί».  Στο βιβλίο  Technology and the Virtues, η Vallor (2016) ισχυρίζεται πως η εφαρμογή της  αρετολογικής ηθικής και κατά συνέπεια η καλλιέργεια αρετών του χαρακτήρα, όπως η υπομονή, το θάρρος, η ειλικρίνεια και η ενσυναίσθηση  στον τομέα της ηθικής της τεχνολογίας, μπορεί να μειώσει τη διαδικτυακή βία στα μέσα κοινωνικής δικτύωσης και να οδηγήσει στην υπεύθυνη χρήση της τεχνολογίας. Οι κυρίαρχες ηθικές θεωρίες που κυριαρχούσαν  μέχρι πρόσφατα στην ηθική της τεχνολογίας ήταν ωφελιμιστικές και δεοντολογικές, ωστόσο, αρκετοί συγγραφείς και ηθικοί φιλόσοφοι έστρεψαν την προσοχή στο ρόλο του χαρακτήρα και της αρετής για την επίλυση των σύχρονων ηθικών προβλημάτων, όπως για παράδειγμα ο διαδικτυακός εκφοβισμός (Harrison, 2016). Ο συγγραφέας υποστηρίζει ότι η τήρηση των κανόνων και η πρόβλεψη των συνεπειών των πράξεων μας στο διαδίκτυο αποτελεί πολλές φορές πρόκληση, καθώς το περιβάλλον είναι συνεχώς εξελισσόμενο. Ομοίως ο Couldry (2010) θεωρεί πως η ηθική της αρετής σχετίζεται άμεσα με την ψηφιακή εκπαίδευση και την ανάπτυξη απαραίτητων δεξιοτήτων για την χρήση της τεχνολογίας με υπεύθυνο τρόπο. Αυτό το είδος εκπαίδευσης είναι πολυδιάστατο και πολυθεματικό και για το λόγο αυτό υπάρχουν διαφορετικές ονομασίες στη βιβλιογραφία, όπως η «εκπαίδευση ψηφιακού πολίτη (digital citizenship)», «ψηφιακή ηθική (digital ethics)» και «ηθική στον κυβερνοχώρο(cyber ethics)». Αποτελεί επίσης συστατικό ευρύτερων όρων όπως «ψηφιακός γραμματισμός στα μέσα (digital literacy)» και «γραμματισμός (media literacy & data literacy) στα μέσα και πληροφορίες», μεταξύ άλλων. Ωστόσο, κοινός άξονας όλων των παραπάνω ορισμών είναι η ανησυχία για την καλή ζωή(well-being) και με την αίσθηση του ηθικού καθήκοντος και ευθύνης απέναντι στους άλλους, τόσο online όσο και offline.

Τα τελευταία χρόνια, η ταχύτερη ανάπτυξη προσωπικών υπολογιστών και πληροφοριακών συστημάτων έχει μετατρέψει την παραδοσιακή πρωτοβάθμια και δευτεροβάθμια εκπαίδευση σε μια πλήρως ή υβριδική ψηφιακή εκπαίδευση (Εκπαίδευση 5.0). Αυτό ενισχύθηκε κατά την περίοδο Covid-19, όπου όλοι οι μαθητές συμμετείχαν στα μαθήματα μέσω συστημάτων συνεργασίας (MS Teams, Zoom, Skype κ.λπ.). Οι μαθητές χρησιμοποιούν καθημερινά διάφορα συστήματα όπως πλατφόρμες eLearning, συστήματα ανίχνευσης λογοκλοπής, ηλεκτρονικές εγκυκλοπαίδειες, συστήματα επεξεργασίας λέξεων/παρουσιάσεων/φύλλων εργασίας, AI Powered Tools κ.λπ. για την προετοιμασία της εργασίας και των εργασιών τους.

Η Τεχνητή Νοημοσύνη (AI) είναι ένας κλάδος της Επιστήμης Υπολογιστών που περιλαμβάνει τη δημιουργία ευφυών μηχανών αφού τους παρέχει αλγόριθμους και κατευθύνσεις, για την εκτέλεση συγκεκριμένων εργασιών όπως η λήψη αποφάσεων, η ανάλυση δεδομένων, η μάθηση και η επίλυση προβλημάτων. Η τεχνητή νοημοσύνη απαιτεί ανθρώπινη νοημοσύνη η οποία παίζει καθοριστικό ρόλο στην εξέλιξη και ανάπτυξη αυτού του τομέα. Έχει εξελιχθεί σε αρκετές δεκαετίες χάρη στις συνεισφορές ερευνητών και προγραμματιστών. Θα μπορούσε επίσης να έχει ένα ευρύ φάσμα θετικών επιπτώσεων για την κοινωνία και την οικονομία γενικότερα. Μερικές από τις θετικές συνέπειες περιλαμβάνουν αυξημένη αποτελεσματικότητα, βελτιωμένο τρόπο εργασίας, μειωμένα λάθη, αυξημένη παραγωγή και κερδοφορία και βελτιωμένες υπηρεσίες προς τους πολίτες και ανάπτυξη προϊόντων.

Η έλευση της τεχνητής νοημοσύνης στις ζωές των ανθρώπων με τη χρήση ορισμένων εργαλείων επεξεργασίας φυσικής γλώσσας όπως το ChatGPT, το Bard, το Bing AI και άλλα, έχει επηρεάσει και την εκπαίδευση. Η τεχνητή νοημοσύνη έχει εφαρμοστεί ευρέως σε εκπαιδευτικές πρακτικές (Τεχνητή Νοημοσύνη στην Εκπαίδευση, AIEd), όπως έξυπνα συστήματα διδασκαλίας, ρομπότ διδασκαλίας, πίνακες αναλυτικών στοιχείων μάθησης, προσαρμοστικά συστήματα μάθησης, αλληλεπιδράσεις ανθρώπου-υπολογιστή κ.λπ. (Chen, Xie, & Hwang, 2020). Διαφορετικές μεθοδολογίες τεχνητής νοημοσύνης (επεξεργασία φυσικής γλώσσας, νευρωνικά δίκτυα, μηχανική μάθηση, βαθιά μάθηση, ανάλυση μεγάλων δεδομένων και γενετικοί αλγόριθμοι) έχουν εφαρμοστεί για τη δημιουργία έξυπνων περιβαλλόντων μάθησης για ανίχνευση συμπεριφοράς, δημιουργία μοντέλων πρόβλεψης, σύσταση μάθησης κ.λπ. (Chen, Xie, & Hwang, 2020; Rowe, 2019).

Καθώς η τεχνολογία και η κοινωνία εξελίσσονται συνεχώς, είναι προφανές ότι υπάρχει ανάγκη επαναπροσδιορισμού της ηθικής με βάση το νέο ψηφιακό οικοσύστημα. Η ηθική είναι προϊόν της εξελικτικής ιστορίας, με άλλα λόγια μια διάσταση της ηθικής είναι η προσαρμογή. Στο πλαίσιο αυτό, αναφερόμενοι στην ψηφιακή ηθική, οι ερευνητές εστιάζουν ουσιαστικά στον τρόπο εφαρμογής και προσαρμογής της ηθικής στα νέα ψηφιακά περιβάλλοντα. Συγκεκριμένα, η Ψηφιακή Δεοντολογία ασχολείται με τον αντίκτυπο της ενοποίησης των Τεχνολογιών Πληροφορικής και Επικοινωνιών (ΤΠΕ) στις κοινωνίες μας και στο περιβάλλον γενικότερα. Επικεντρώνεται σε μια σειρά θεμάτων και προβληματισμών όπως:

  • Τεχνητή Νοημοσύνη (AI) και αλγοριθμική λήψη αποφάσεων, συμπεριλαμβανομένης της δικαιοσύνης.
  • Η αυτοματοποίηση της ανθρώπινης νοημοσύνης για ρομποτική ή αυτόνομα οχήματα.
  • Τεχνητή νοημοσύνη και το μέλλον της εργασίας και της διακυβέρνησης.
  • Η χρήση ευφυών τεχνολογιών στην υγεία και την ιατρική.

Η αλγοριθμική λήψη αποφάσεων εγείρει μια σειρά από ερωτήματα:

  • Ποιος είναι υπεύθυνος όταν παραβιάζονται τα ανθρώπινα δικαιώματα με βάση μία αλγοριθμική απόφαση, το άτομο που προγραμμάτισε τον αλγόριθμο, ο χειριστής του αλγορίθμου ή ο άνθρωπος που εφάρμοσε την απόφαση;
  • Ποια είναι η διαφορά μεταξύ μιας τέτοιας απόφασης και μιας ανθρώπινης απόφασης;

Ταυτόχρονα, οι ερευνητές δίνουν έμφαση στον κρίσιμο ρόλο της ιδιωτικής και δημόσιας εκπαίδευσης για την ενίσχυση των δεξιοτήτων κριτικής σκέψης και την προώθηση μιας ηθικής κουλτούρας και χρήσης της τεχνολογίας.

* H Δρ. Άννα Μπούγια είναι AI ethics engineer στο Computer Technology Institute, Διόφαντος.