ΕΝΔΕΙΚΤΙΚΟ ΠΡΟΓΡΑΜΜΑ ΣΥΜΜΟΡΦΩΣΗΣ ΓΙΑ ΤΗΝ ΠΡΟΣΤΑΣΙΑ ΠΡΟΣΩΠΙΚΩΝ ΔΕΔΟΜΕΝΩΝ
Γράφει ο Δημοσθένης Κωστούλας, MBA MSc BSc *
Έξι ολόκληρα χρόνια από την έναρξη εφαρμογής του Γενικού Κανονισμού Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (679/2016 / GDPR), τίθεται το ερώτημα του πόσες επιχειρήσεις, οργανισμοί και φορείς του ιδιωτικού και δημόσιου τομέα είναι ουσιωδώς συμμορφωμένοι με τους βασικούς κανόνες και τις απαιτήσεις σχετικά με την προστασία των προσωπικών δεδομένων που επεξεργάζονται στα πλαίσια της δραστηριότητας τους. Και δεν γίνεται λόγος μόνο για τον ορισμό ενός υπεύθυνου προστασίας δεδομένων (ο οποίος στην πλειονότητα των περιπτώσεων είναι τυπικός), αλλά για την ουσιαστική ανάπτυξη και εφαρμογή ενός στιβαρού προγράμματος συμμόρφωσης, μέσω του οποίου θα μεγιστοποιείται η ασφάλεια και η ακεραιότητα των – υπό επεξεργασία – προσωπικών δεδομένων και θα ελαχιστοποιείται η πιθανότητα διαρροής τους ή/και κακόβουλης μεταχείρισης τους.
Στο πλαίσιο αυτό, ένας οργανισμός (ως “υπεύθυνος επεξεργασίας”) θα έπρεπε να αποδεχθεί ότι, για μια ουσιαστική συμμόρφωση, απαιτούνται ανθρώπινοι και υλικοί πόροι, καθώς και η δέσμευση της ίδιας της Διοίκησης και των ανθρώπων που συμμετέχουν στην λήψη αποφάσεων.
ΦΑΣΗ ΠΡΟΕΤΟΙΜΑΣΙΑΣ ΓΙΑ ΤΟ ΠΡΟΓΡΑΜΜΑ ΣΥΜΜΟΡΦΩΣΗΣ
Εφόσον κριθεί ότι η συμμόρφωση είναι απαραίτητη, η διοίκηση ενός οργανισμού θα πρέπει να επιλέξει σε ποιόν θα ανατεθεί το έργο της συμμόρφωσης. Όπως και στην περίπτωση διορισμού του υπεύθυνου προστασίας δεδομένων (εφεξής DPO), ένας οργανισμός θα μπορούσε να εξετάσει το ενδεχόμενο της ανάθεσης του έργου συμμόρφωσης σε καταρτισμένο άτομο ή άτομα που απασχολούνται ήδη στον οργανισμό ή να εξετάσει το ενδεχόμενο ανάθεσης του έργου συμμόρφωσης σε εξωτερικό σύμβουλο με αποδεδειγμένη δραστηριότητα στο συγκεκριμένο τομέα.
Από την στιγμή που θα γίνει η τελική επιλογή του τρόπου συμμόρφωσης, θα πρέπει να ξεκινήσουν οι διαδικασίες προς αυτήν την κατεύθυνση. Καταρχάς, και στις δύο περιπτώσεις (εσωτερική ή εξωτερική ανάθεση), θα πρέπει να συμπληρώνεται ένα ερωτηματολόγιο αρχικής αυτο-αξιολόγησης σχετικά με το υφιστάμενο επίπεδο προστασίας δεδομένων του οργανισμού. Αυτό θα βοηθήσει τόσο τον οργανισμό, όσο και τον υπεύθυνο συμμόρφωσης, για να γνωρίζουν από ποια βάση εκκινούν. Η διαδικασία της αυτο-αξιολόγησης θα πρέπει να είναι ενδελεχής και να επεκταθεί σε όλες τις δραστηριότητες και διεργασίες του οργανισμού.
Επιπλέον, σε περίπτωση εξωτερικής ανάθεσης, θα πρέπει ο οργανισμός να ορίσει έναν ή και παραπάνω υπεύθυνους επικοινωνίας με την ομάδα συμμόρφωσης και, επιπλέον, να ορίσει μια στενή «ομάδα εργασίας».
Τέλος, σε αυτήν την φάση, κρίνεται απαραίτητη και μια επίσημη ενημέρωση του προσωπικού, σχετικά με την επικείμενη ανάπτυξη και εφαρμογή του προγράμματος συμμόρφωσης, καθώς και για την εμπλοκή όλων των βαθμίδων ιεραρχίας και όλων των τμημάτων σε αυτήν την συλλογική προσπάθεια.
ΦΑΣΗ ΥΛΟΠΟΙΗΣΗΣ ΤΟΥ ΠΡΟΓΡΑΜΜΑΤΟΣ ΣΥΜΜΟΡΦΩΣΗΣ
Όπως είναι αντιληπτό, σκοπός είναι η διασφάλιση του μέγιστου βαθμού συμμόρφωσης του οργανισμού στις απαιτήσεις και τις προϋποθέσεις του GDPR, με γνώμονα η συμμόρφωση να μην δημιουργεί εμπόδια στην καθημερινή λειτουργία και δραστηριότητα του οργανισμού. Το πρόγραμμα συμμόρφωσης χωρίζεται σε επιμέρους στάδια, κάθε ένα από τα οποία είναι σημαντικό, αφού αποτελούν ενδιάμεσους κρίκους που θα οδηγήσουν στην τελική συμμόρφωση του οργανισμού.
1.ΠΡΩΤΗ ΦΑΣΗ ΣΥΜΜΟΡΦΩΣΗΣ
Στην πλειονότητα των περιπτώσεων, το έργο συμμόρφωσης ξεκινάει με μια πρώτη συνάντηση, για να ακολουθήσουν πολλές άλλες συναντήσεις και ανταλλαγές πληροφοριών. Στην πρώτη συνάντηση διαμορφώνεται ένα κοινά αποδεκτό πλάνο ενεργειών, χωρισμένο σε επιμέρους στάδια και με σαφή χρονοδιαγράμματα, ενώ παράλληλα τίθενται επί τάπητος τα βασικά θέματα και οι διαδικασίες που θα πρέπει να ακολουθηθούν.
Στην φάση αυτή πραγματοποιούνται οι πρώτες γενικές εκπαιδεύσεις για την ευαισθητοποίηση Διοίκησης και προσωπικού, με απώτερο σκοπό την σταδιακή ανάπτυξη μιας κουλτούρας προστασίας δεδομένων.
- Ευρετήριο Προσωπικών Δεδομένων και Αρχείο Ροών Δεδομένων
Τόσο το Ευρετήριο Προσωπικών Δεδομένων, όσο και το Αρχείο Ροών Δεδομένων, αποτελούν προπομπούς του Αρχείου Χαρτογράφησης, του Αρχείου Δραστηριοτήτων Επεξεργασίας, αλλά και της μετέπειτα Μελέτης Αποκλίσεων. Τα δεδομένα συλλέγονται από συμπεράσματα που προκύπτουν τόσο από συναντήσεις και προφορικές συζητήσεις, όσο και μέσω της διανομής και συμπλήρωσης ειδικού ερωτηματολογίου.
- Αρχείο Χαρτογράφησης
Αποτελεί μια χρήσιμη ανάλυση της υφιστάμενης κατάστασης σχετικά με την προστασία προσωπικών δεδομένων και των κινδύνων που ελλοχεύουν. Στο συγκεκριμένο αρχείο πραγματοποιείται μια παρουσίαση των ευρημάτων ανά τμήμα ή/και θέση εργασίας που σχετίζονται με την προστασία των δεδομένων. Η συγκεκριμένη μελέτη θα πρέπει να περιλαμβάνει όλες τις ήδη εντοπισμένες δραστηριότητες του οργανισμού και αποτελεί την βάση όλων των επόμενων παραδοτέων.
- Αρχείο Δραστηριοτήτων Επεξεργασίας
Μαζί με την Αρχείο Χαρτογράφησης, σε αυτήν την φάση προετοιμάζεται και απαραίτητο Αρχείο Δραστηριοτήτων, στο οποίο θα πρέπει να απεικονίζονται με λεπτομέρεια όλα όσα ορίζει ο GDPR.
Πέρα από τα παραδοτέα αρχεία που προαναφέρθηκαν, στην πρώτη φάση του προγράμματος συμμόρφωσης συστήνεται να ξεκινήσει η υλοποίηση και συγκεκριμένων κρίσιμων διορθωτικών οργανωτικών και τεχνικών μέτρων, για τα οποία κρίνεται σκόπιμο να μην υπάρξουν καθόλου καθυστερήσεις.
2.ΔΕΥΤΕΡΗ ΦΑΣΗ ΣΥΜΜΟΡΦΩΣΗΣ
Στην δεύτερη φάση του προγράμματος συμμόρφωσης, πραγματοποιούνται νέες επισκέψεις σύμφωνα με την εξέλιξη της συμμόρφωσης, ενώ συζητούνται τα παραδοτέα αρχεία της πρώτης φάσης, με περαιτέρω εμβάθυνση σε όσα πεδία είναι σημαντικά ή για τα οποία ενδεχομένως να υπάρχουν απορίες.
- Ανάλυση Αποκλίσεων
H Ανάλυση Αποκλίσεων έχει σκοπό τον εύρεση των νομικών, κανονιστικών, οργανωτικών και τεχνολογικών αποκλίσεων ως προς τις απαιτήσεις και τις προϋποθέσεις του Κανονισμού. Θα μπορούσε να ειπωθεί ότι η συγκεκριμένη ανάλυση αφορά μια επαλήθευση των προβληματικών πεδίων που βρέθηκαν από την φάση της αρχικής χαρτογράφησης, μόνο που εδώ συσχετίζονται με συγκεκριμένες απαιτήσεις του Κανονισμού και της κείμενης νομοθεσίας.
- Ανάλυση Κινδύνων
Αν και η ενδεδειγμένη μέθοδος για την εκτίμηση του επιπέδου ασφάλειας σχετικά με την προστασία δεδομένων προσωπικού χαρακτήρα αποτελεί η υλοποίηση της Μελέτης Αντικτύπου (DPIA), σύμφωνα με τα οριζόμενα στις διατάξεις του άρθρου 35 του ΓΚΠΔ, η προαναφερόμενη εκτίμηση και αξιολόγηση των κινδύνων, που απορρέουν από την επεξεργασία, πρέπει να διενεργείται σε κάθε περίπτωση, ακόμα και στις περιπτώσεις επεξεργασιών για τις οποίες δεν απαιτείται διενέργεια μελέτης αντικτύπου. Η ανάλυση συστήνεται να υλοποιείται τόσο πριν, όσο και μετά από την εφαρμογή των προτεινόμενων μέτρων.
- Μελέτη Αντικτύπου
Σύμφωνα με τον Άρθρο 35 του Κανονισμού 679/2016, «όταν ένα τύπος επεξεργασίας, ιδίως με την χρήση τεχνολογιών, λαμβανομένων υπόψη της φύσης, του πλαισίου, του πεδίου εφαρμογής και των σκοπών επεξεργασίας, είναι πιθανόν να προκαλέσει μεγάλο κίνδυνο για τα δικαιώματα και τις ελευθερίες των φυσικών προσώπων, ο υπεύθυνος επεξεργασίας, πριν από την επεξεργασία, προβαίνει σε εκτίμηση επιπτώσεων των προβλεπόμενων πράξεων επεξεργασίας στην προστασία δεδομένων προσωπικού χαρακτήρα».
3.ΤΡΙΤΗ ΦΑΣΗ ΣΥΜΜΟΡΦΩΣΗΣ
H τελευταία φάση του προγράμματος συμμόρφωσης αποτελείται από συναντήσεις κατά τις οποίες συνοψίζονται εκ νέου όλα τα παραδοτέα αρχεία, με αναφορά στους κινδύνους / ευρήματα και στα κατάλληλα τεχνικά και οργανωτικά μέτρα. Τα επόμενα βήματα που θα ακολουθήσει ο οργανισμός είναι πολύ σημαντικά για την διαρκή και ουσιαστική του συμμόρφωση με τις απαιτήσεις του GDPR. Παράλληλα, υλοποιούνται και οι τελευταίες εκπαιδεύσεις για το προσωπικό που πιθανόν απουσίαζε από τις αρχικές εκπαιδεύσεις.
- Πρόγραμμα Υλοποίησης Προτεινόμενων Μέτρων
Σε αυτήν την φάση υλοποιείται και παραδίδεται το Πρόγραμμα Υλοποίησης Προτεινόμενων Μέτρων για την Προστασία Προσωπικών Δεδομένων (Action Plan). Πρόκειται μια λίστα των μέτρων με λεπτομέρειες για το ποιος / ποιοι θα το υλοποιήσουν, το status υλοποίησης, ένα χρονοδιάγραμμα υλοποίησης και σχετικές παρατηρήσεις. Το συγκεκριμένο αρχείο πρέπει να παρακολουθείται στην συνέχεια από τον DPO, ο οποίος και θα πρέπει να το διατηρεί μονίμως επικαιροποιημένο.
Βάσει του Προγράμματος Υλοποίησης Προτεινόμενων Μέτρων, σε αυτήν την φάση σχεδιάζονται και διανέμονται επίσημα καταγεγραμμένες πολιτικές, διαδικασίες και οδηγίες εργασίας, οι οποίες σχετίζονται με την ασφάλειας των δεδομένων και έχουν σαν σκοπό την κάλυψη των αποκλίσεων που εντοπίστηκαν κατά την δεύτερη φάση.
ΟΛΟΚΛΗΡΩΣΗ ΠΡΟΓΡΑΜΜΑΤΟΣ ΣΥΜΜΟΡΦΩΣΗΣ
Με την παράδοση και των τελευταίων Πολιτικών, Διαδικασιών, Οδηγιών Εργασίας, Εντύπων και άλλων παραδοτέων που συγκαταλέγονται στα προτεινόμενα μέτρα, μπορεί να θεωρηθεί ότι ολοκληρώνεται επισήμως το πρόγραμμα συμμόρφωσης του οργανισμού.
Ωστόσο, οι οργανισμοί είθισται να παρουσιάζουν σημεία απόκλισης μετά από το τέλος της περιόδου επίσημης συμμόρφωσης, με τα σημεία απόκλισης να μεγαλώνουν με το πέρασμα του χρόνου. Αυτή η αντίδραση μπορεί να θεωρηθεί σε κάποιο βαθμό δικαιολογημένη και αναμενόμενη, αφού η πίεση της καθημερινότητας και οι μεγάλες απαιτήσεις σε σχέση με την κύρια δραστηριότητα και την απρόσκοπτη λειτουργία ενός οργανισμού, μπορεί να θέσουν σταδιακά την προστασία των δεδομένων σε δεύτερη προτεραιότητα.
Για τους παραπάνω λόγους, η παρουσία ενός καταρτισμένου Υπεύθυνου Προστασίας Δεδομένων (DPO) πρέπει να είναι ουσιαστική και συνεχόμενη, μέσα από μια σειρά ενεργειών, οι οποίες θα καλλιεργούν και θα συντηρούν μια πιο μόνιμη κουλτούρα συμμόρφωσης εντός του οργανισμού. Ακόμα όμως και στις περιπτώσεις όπου δεν απαιτείται η παρουσία ενός DPO, οι οργανισμοί θα πρέπει από μόνοι τους να εφαρμόζουν όλα τα απαραίτητα για μια ουσιαστική συμμόρφωση με το GDPR και την κείμενη νομοθεσία σχετικά με την προστασία προσωπικών δεδομένων.
Πηγές: Τσιπτσέ, Ο. και Κωστούλας, Δ. (Ιανουάριος 2020), Η συμμόρφωση με τον Γενικό Κανονισμό Προστασίας Δεδομένων GDPR EU 2016/679 – Πρακτικά Ζητήματα Υποδείγματα, Νομικές Εκδόσεις ΝΟΜΟΡΑΜΑ.ΝΤ, Αθήνα
* Ο Δημοσθένης Κωστούλας είναι έμπειρο στέλεχος με πλούσιες σπουδές και πολυετή εμπειρία σε θέσεις ευθύνης. Είναι κάτοχος τίτλου MBA , τίτλου MSc και τίτλου BSc, ενώ ταυτόχρονα είναι πιστοποιημένος Lead Auditor ISO 9001:2015, ISO 27001:2013 και DPO Executive / GDPR Expert. Ειδικότερα, από το 2011 έχει εξειδικευτεί:
- σε θέματα Προστασίας Δεδομένων Προσωπικού Χαρακτήρα, μέσω της ανάπτυξης & εφαρμογής προγραμμάτων συμμόρφωσης με τον ΓΚΠΔ (GDPR), την παροχή υπηρεσιών Υπεύθυνου Προστασίας Δεδομένων και την σχετική εκπαίδευση φορέων & οργανισμών.
- σε Συστήματα Διαχείρισης Ποιότητας, μέσω της συμμετοχής / υποστήριξης στον εσωτερικό σχεδιασμό, την ανάπτυξη και την εφαρμογή Συστημάτων Ποιότητας, με γνώμονα πάντα την παροχή ποιοτικών υπηρεσιών και την ασφάλεια των ενδιαφερόμενων μερών.
Βραβευτήκαμε στο CPDP για την καμπάνια Reclaim Your Face και τις δράσεις μας στον τομέα της Τεχνητής Νοημοσύνης
Την Τρίτη 21 Μάη στο συνέδριο Computers, Privacy & Data Protection (CPDP) στις Βρυξέλλες έλαβαν χώρα για πρώτη φορά τα βραβεία «Europe AI Policy Leader Awards» από το Center for AI and Digital Policy (CAIDP)!!
Εκεί το δίκτυο της European Digital Rights (EDRi), στο οποίο η Homo Digitalis αποτελεί το μοναδικό μέλος στην Ελλάδα, έλαβε το βραβείο « AI Policy Leader in Civil Society» για την καμπάνια Reclaim Your Face η οποία είχε ηγετικό ρόλο στη θέσπιση ορίων στη χρήση της βιομετρικής ταυτοποίησης εξ αποστάσεως στην πράξη της ΕΕ για την Τεχνητή Νοημοσύνη!!
Είναι πολύ μεγάλη τιμή για τη Homo Digitalis που αποτελεί συνιδρυτικό μέλος της καμπάνιας αυτής, ενώ αυτό το βραβείο γεμίζει με ενθουσιασμό όλα τα μέλη της καμπάνιας από το δίκτυο της EDRi και άλλους συμμάχους για όλα όσα μπορούμε να κατορθώσουμε όταν δρούμε στρατηγικά κάτω από έναν κοινό στόχο!
Ευχαριστούμε CAIDP για αυτήν τη σημαντική αναγνώριση!
H Homo Digitalis με διπλή εκπροσώπηση στο Digital World Summit Greece
Η Homo Digitalis έχει τη μεγάλη τιμή και χαρά να συμμετέχει με διπλή εκπροσώπηση στο Digital World Summit Greece, την Τρίτη 28 Μαΐου στο Εθνικό Ίδρυμα Ερευνών!
Συγκεκριμένα, ο Αντιπρόεδρος μας και Partner στην Digital Law Experts (DLE), Στέφανος Βιτωράτος, θα συμμετέχει ως συντονιστής στο 1ο πάνελ του συνεδρίου, με θέμα “#ΑΙ: Η τομή ανάμεσα σε ρύθμιση και καινοτομία”, σε μία συναρπαστική συζήτηση που θα συμμετέχουν ως ομιλητές οι Δημήτρης Γερογιάννης (Πρόεδρος ΑΙ Catalyst), Λίλιαν Μήτρου (Καθηγήτρια, Τμήμα Μηχανικών Πληροφοριακών & Επικοινωνιακών Συστημάτων, Πανεπιστημίου Αιγαίου), Χαράλαμπος Τσέκερης (Προεδρεύων της Εθνικής Επιτροπής Βιοηθικής & Τεχνοηθικής), Γιάννης Μαστρογεωργίου (Ειδικός Γραμματέας Μακροπρόθεσμου Σχεδιασμού, Προεδρία της Ελληνικής Κυβέρνησης) και Φώτης Δραγανίδης (Διευθυντής Tεχνολογίας Microsoft Hellas).
Η Διευθύντρια μας για ζητήματα Δικαιωμάτων του Ανθρώπου & Τεχνητής Νοημοσύνης, Λαμπρινή Γυφτοκώστα, θα συμμετέχει ως ομιλήτρια στο 2ο πάνελ του Digital World Summit Greece 2024, με θέμα “#Κυβερνοασφάλεια, Ασφάλεια των Πολιτών και #ΤεχνητήΝοημοσύνη“! To πολύ ενδιαφέρον αυτό πάνελ θα συντονίσει ο Κωνσταντίνος Αναγνωστόπουλος (Co-founder & Director, Athens Legal Tech), ενώ θα δώσουν το παρόν ως ομιλητές και οι Ναταλία Σούλια (Senior Associate | Privacy, Data Protection & Cybersecurity, KG Law FIrm), Θωμάς Δομπρίδης (Προϊστάμενος της Γενικής Διεύθυνσης Κυβερνοασφάλειας του Υπουργείου Ψηφιακής Διακυβέρνησης), Αντώνης Μπρούμας (Επικεφαλής του τομέα δικαίου και τεχνολογίας, EY Πλατής-Αναστασιάδης) και Στέλλα Τσιτσούλα (Founder, RED.comm, Co-Founder | Women4Cyber GR | Founder Hellenic Cybersecurity Institute)!
Μπορείτε να κάνετε εγγραφή και να διαβάσετε περισσότερα για το συνέδριο και το πρόγραμμά του εδώ.
Πράξη Ψηφιακών Υπηρεσιών: Ασφάλεια στο Διαδίκτυο και Ελεύθερη Έκφραση
Γράφει ο Τάσος Αραμπατζής
Η Πράξη Ψηφιακών Υπηρεσιών (DSA) της Ευρωπαϊκής Ένωσης αποτελεί ορόσημο στην προσπάθεια να μπει μεγαλύτερη τάξη στο συχνά χαοτικό πεδίο του διαδικτύου. Η νομοθεσία αποσκοπεί στη θέσπιση σαφών κανόνων και αρμοδιοτήτων για τις διαδικτυακές πλατφόρμες, αντιμετωπίζοντας ένα φάσμα προβλημάτων από την προστασία των καταναλωτών έως την καταπολέμηση του επιβλαβούς περιεχομένου. Ωστόσο, μέσα στις καλοπροαίρετες διατάξεις του DSA υπάρχει μια θεμελιώδης ένσταση που εξακολουθεί να αποτελεί πρόκληση για τις δημοκρατίες παγκοσμίως: πώς εξασφαλίζουμε ένα ασφαλέστερο, πιο πολιτισμένο διαδικτυακό περιβάλλον χωρίς να παραβιάζουμε τις θεμελιώδεις αρχές της ελεύθερης έκφρασης;
Αυτό το άρθρο εξετάζει την πολυπλοκότητα των διατάξεων της DSA σχετικά με τις συνομιλίες και τον έλεγχο του περιεχομένου. Θα διερευνήσουμε πώς η καταπολέμηση των διαδικτυακών κινδύνων, συμπεριλαμβανομένης της εξάπλωσης της παραπληροφόρησης και των deepfakes, πρέπει να σταθμίζεται προσεκτικά έναντι των κινδύνων της λογοκρισίας και της καταστολής του νόμιμου λόγου. Πρόκειται για μια πράξη εξισορρόπησης με εκτεταμένες συνέπειες για το μέλλον της ψηφιακής μας κοινωνίας.
Διαδικτυακοί κίνδυνοι και η απάντηση της DSA
Το ψηφιακό πεδίο, παρ’ όλη την υπόσχεσή του για σύνδεση και γνώση, έχει μετατραπεί σε εκτροφείο για ένα ευρύ φάσμα διαδικτυακών κινδύνων. Οι εκστρατείες παραπληροφόρησης διαβρώνουν την εμπιστοσύνη απέναντι στους δημοκρατικούς θεσμούς και σπέρνουν τη διχόνοια, ενώ η ρητορική μίσους τροφοδοτεί τις διακρίσεις και τη βία κατά περιθωριοποιημένων ομάδων. Ο διαδικτυακός εκφοβισμός καταστρέφει ζωές, ιδίως των ευάλωτων νέων.
Για την αντιμετώπιση αυτών των κινδύνων, η DSA θέτει νέες υποχρεώσεις στις διαδικτυακές πλατφόρμες, ιδίως στις Πολύ Μεγάλες Διαδικτυακές Πλατφόρμες (VLOP). Οι απαιτήσεις έχουν σημαντική εμβέλεια και περιλαμβάνουν:
- Αυξημένη διαφάνεια: Οι πλατφόρμες πρέπει να εξηγούν τον τρόπο λειτουργίας των αλγορίθμων τους και τα κριτήρια που χρησιμοποιούν για τη σύσταση και τον έλεγχο του περιεχομένου.
- Λογοδοσία: Οι εταιρείες θα αντιμετωπίσουν πιθανά πρόστιμα και κυρώσεις για την αποτυχία τους να αντιμετωπίσουν αποτελεσματικά το παράνομο και επιβλαβές περιεχόμενο.
- Μετριασμός περιεχομένου: Οι πλατφόρμες πρέπει να αναφέρουν με σαφήνεια τις πολιτικές για την αφαίρεση περιεχομένου και να εφαρμόζουν αποτελεσματικά και φιλικά προς τον χρήστη συστήματα αναφοράς προβληματικού περιεχομένου.
Στόχος αυτών των διατάξεων της DSA είναι η δημιουργία ενός πιο υπεύθυνου ψηφιακού οικοσυστήματος όπου το επιβλαβές περιεχόμενο είναι λιγότερο πιθανό να ανθίσει και όπου οι χρήστες έχουν περισσότερα εργαλεία για να προστατευθούν.
Ο κίνδυνος της λογοκρισίας
Ενώ οι προθέσεις της DSA είναι αξιοθαύμαστες, τα μέτρα για την καταπολέμηση των διαδικτυακών κινδύνων εγείρουν εύλογες ανησυχίες σχετικά με τη λογοκρισία και την πιθανή καταστολή της ελευθερίας του λόγου. Η ιστορία είναι γεμάτη από περιπτώσεις όπου η καταπολέμηση του επιβλαβούς περιεχομένου χρησίμευσε ως πρόσχημα για να φιμωθούν οι αντίθετες φωνές, να ασκηθεί κριτική στους κυβερνώντες ή να κατασταλούν περιθωριοποιημένες ομάδες.
Οι οργανώσεις της κοινωνίας των πολιτών έχουν τονίσει την ανάγκη να συμπεριλάβει η DSA σαφείς εγγυήσεις για να αποτρέψει το ενδεχόμενο οι καλοπροαίρετες διατάξεις της να μετατραπούν σε εργαλεία λογοκρισίας. Είναι απαραίτητο να υπάρχουν ακριβείς ορισμοί του “παράνομου” ή “επιβλαβούς” περιεχομένου – εκείνου που υποκινεί άμεσα τη βία ή παραβιάζει τους ισχύοντες νόμους. Οι υπερβολικά ευρείς ορισμοί κινδυνεύουν να συμπεριλάβουν τη σάτιρα, την πολιτική διαφωνία και την καλλιτεχνική έκφραση, οι οποίες αποτελούν όλες προστατευόμενες μορφές λόγου.
Η καταστολή αυτών των μορφών λόγου υπό το πρόσχημα της ασφάλειας μπορεί να έχει ανασταλτικό αποτέλεσμα, αποθαρρύνοντας τη δημιουργικότητα, την καινοτομία και την ανοιχτή ανταλλαγή ιδεών που είναι ζωτικής σημασίας για μια υγιή δημοκρατία. Είναι σημαντικό να θυμόμαστε ότι αυτό που προσβάλλει ένα άτομο μπορεί να είναι βαθιά σημαντικό για ένα άλλο. Η DSA πρέπει να βαδίσει προσεκτικά για να αποφύγει την εξουσιοδότηση κυβερνήσεων ή πλατφορμών να αποφασίζουν μονομερώς τι συνιστά αποδεκτό διάλογο.
Deepfakes και η καταπολέμηση της παραπληροφόρησης
Τα deepfakes, τα συνθετικά μέσα που χρησιμοποιούνται για την παραποίηση της πραγματικότητας, αποτελούν μια ιδιαίτερα ύπουλη απειλή για την ακεραιότητα της πληροφόρησης. Η ικανότητά τους να κάνουν να φαίνεται ότι κάποιος είπε ή έκανε κάτι που δεν έκανε ποτέ, έχει τη δυνατότητα να καταστρέψει τη φήμη, να υπονομεύσει την εμπιστοσύνη σε θεσμούς, ακόμη και να αποσταθεροποιήσει πολιτικές διαδικασίες.
Η DSA αναγνωρίζει δικαίως τον κίνδυνο των deepfakes και θέτει την υποχρέωση στις πλατφόρμες να καταβάλλουν προσπάθειες για την καταπολέμηση της επιβλαβούς χρήσης τους. Ωστόσο, πρόκειται για έναν πολύπλοκο τομέα όπου η γραμμή μεταξύ της επιβλαβούς χειραγώγησης και των νόμιμων χρήσεων μπορεί να θολώσει. Η τεχνολογία deepfake μπορεί επίσης να αξιοποιηθεί για σκοπούς σάτιρας, παρωδίας ή καλλιτεχνικούς σκοπούς.
Η πρόκληση για την DSA έγκειται στον εντοπισμό των deepfakes που δημιουργούνται με κακόβουλη πρόθεση, προστατεύοντας παράλληλα αυτά που δημιουργούνται για νόμιμες μορφές έκφρασης. Οι πλατφόρμες θα πρέπει πιθανότατα να αναπτύξουν έναν συνδυασμό τεχνολογικών εργαλείων ανίχνευσης και ανθρώπινων μηχανισμών αναθεώρησης για να κάνουν αυτές τις διακρίσεις αποτελεσματικά.
Η ευθύνη των τεχνολογικών κολοσσών
Όταν πρόκειται για τη διάδοση επιβλαβούς περιεχομένου και τη δυνατότητα διαδικτυακής λογοκρισίας, μεγάλο μέρος της ευθύνης πέφτει εξ ολοκλήρου στους ώμους των μεγάλων διαδικτυακών πλατφορμών. Αυτοί οι τεχνολογικοί γίγαντες διαδραματίζουν κεντρικό ρόλο στη διαμόρφωση του περιεχομένου που βλέπουμε και του τρόπου με τον οποίο αλληλεπιδρούμε στο διαδίκτυο.
Η DSA αντιμετωπίζει άμεσα αυτή την τεράστια δύναμη επιβάλλοντας αυστηρότερες απαιτήσεις στις μεγαλύτερες πλατφόρμες, αυτές που θεωρούνται πολύ μεγάλες διαδικτυακές πλατφόρμες. Οι απαιτήσεις αυτές έχουν σχεδιαστεί για να προωθήσουν μεγαλύτερη υπευθυνότητα και να ωθήσουν αυτές τις πλατφόρμες να αναλάβουν πιο ενεργό ρόλο στον περιορισμό του επιβλαβούς περιεχομένου.
Βασικό στοιχείο της DSA είναι η προώθηση της διαφάνειας. Οι πλατφόρμες θα πρέπει να παρέχουν λεπτομερείς εξηγήσεις για τις πρακτικές τους σχετικά με τη συγκράτηση του περιεχομένου, συμπεριλαμβανομένων των αλγορίθμων που χρησιμοποιούνται για το φιλτράρισμα και τη σύσταση περιεχομένου. Αυτή η αυξημένη ορατότητα αποσκοπεί στην αποφυγή αυθαίρετων ή μεροληπτικών αποφάσεων και προσφέρει στους χρήστες καλύτερη κατανόηση των μηχανισμών που διέπουν τις διαδικτυακές τους εμπειρίες.
Προστασία της ελευθερίας του λόγου – Πού είναι το όριο;
Η προστασία της ελευθερίας του λόγου αποτελεί θεμελιώδη αρχή κάθε δημοκρατικής κοινωνίας. Επιτρέπει τη δυναμική ανταλλαγή ιδεών, την αμφισβήτηση της εξουσίας και παρέχει φωνή σε όσους βρίσκονται στο περιθώριο. Ωστόσο, καθώς εξελίσσεται ο ψηφιακός κόσμος, τα όρια της ελευθερίας του λόγου αμφισβητούνται όλο και περισσότερο.
Η DSA αντιπροσωπεύει μια ειλικρινή προσπάθεια να πλοηγηθούμε σε αυτό το πολύπλοκο πεδίο, αλλά είναι ζωτικής σημασίας να αναγνωρίσουμε ότι δεν υπάρχουν εύκολες απαντήσεις. Το όριο μεταξύ επιβλαβούς περιεχομένου και προστατευόμενων μορφών έκφρασης είναι συχνά δύσκολο να διακριθεί. Η εφαρμογή της DSA πρέπει να περιλαμβάνει ισχυρές εγγυήσεις που να βασίζονται στις θεμελιώδεις αρχές των ανθρωπίνων δικαιωμάτων, ώστε να διασφαλίζεται χώρος για ποικίλες απόψεις και κριτική.
Στην προσπάθεια αυτή, θα πρέπει να δώσουμε προτεραιότητα στην ενδυνάμωση των χρηστών. Η επένδυση στην εκπαίδευση για τον γραμματισμό στα μέσα ενημέρωσης και η προώθηση εργαλείων για κριτική σκέψη είναι ουσιώδεις για να βοηθηθούν τα άτομα να γίνουν πιο απαιτητικοί καταναλωτές των διαδικτυακών πληροφοριών.
Συμπέρασμα
Ο νόμος για τις ψηφιακές υπηρεσίες σηματοδοτεί μια σημαντική καμπή στη ρύθμιση του διαδικτυακού κόσμου. Ο αγώνας για την εξισορρόπηση της διαδικτυακής ασφάλειας και της ελευθερίας της έκφρασης δεν έχει ακόμη τελειώσει. Η DSA παρέχει ένα ισχυρό θεμέλιο, αλλά πρέπει να θεωρηθεί ως ένα βήμα σε μια συνεχή διαδικασία και όχι ως τελική λύση. Για να εξασφαλίσουμε ένα πραγματικά ανοικτό, δημοκρατικό και ασφαλές διαδίκτυο, χρειαζόμαστε συνεχή επαγρύπνηση, στιβαρή συζήτηση και την ενεργό συμμετοχή τόσο των ατόμων όσο και της κοινωνίας των πολιτών.
Συμμετέχουμε στο InfoRights 2024 στην Κέρκυρα
Η Homo Digitalis έχει τη μεγάλη χαρά να συμμετέχει στο Τρίτο Διεπιστημονικό Συνέδριο, το οποίο διοργανώνει η Αναγνωστική Εταιρία Κερκύρας στις 17 & 18 Μαΐου 2024 με τίτλο «Τα Ανθρώπινα Δικαιώματα την Εποχή της Πληροφορίας: Σημεία αναφοράς ιστορίας, δικαίου, δεοντολογίας και πολιτισμού».
Στο Συνέδριο θα εκπροσωπήσει τη Homo Digitalis το μέλος μας Χρήστος Ζαγγανάς, ο οποίος το Σάββατο 18 στις 12:00 θα παρουσιάσει με ομιλία του το έργο της Homo Digitalis για την προστασία ανθρώπινων δικαιωμάτων σε σχέση με την κοινωνία της πληροφορίας στην Ελλάδα!
Ευχαριστούμε θερμά τους διοργανωτές για την πολύ τιμητική πρόσκληση!
Μπορείτε να κάνετε δωρεάν εγγραφή για να παρακολουθήσετε δια ζώσης το συνέδριο ή να διαβάσετε περισσότερα γι’ αυτό εδώ.
Επίκεντρο των διεπιστημονικών θεματικών του συνεδρίου είναι τα ανθρώπινα δικαιώματα σε σχέση με την πληροφορία όσον αφορά την ιστορία, τη ρύθμιση (δίκαιο και δεοντολογία) και τον πολιτισμό. Συνδιοργανώνεται από το Εργαστήριο Τεκμηρίωσης Πολιτιστικής και Ιστορικής Κληρονομιάς του ΤΑΒΜ, την Ερευνητική Ομάδα IHRC του ΤΑΒΜ, και τη Βιβλιοθήκη και Κέντρου Πληροφόρησης του Ιονίου Πανεπιστημίου με τη συνεργασία της Έδρας UNESCO του Ιονίου Πανεπιστημίου για τις απειλές κατά της πολιτιστικής κληρονομιάς και των σχετικών με την πολιτιστική κληρονομιά δραστηριοτήτων, καθώς και του Δικηγορικού Συλλόγου Κερκύρας και των Μουσειακών Συλλογών Ιονίου Πανεπιστημίου.
Φέρνουμε τις εκδόσεις «Misinformation» και «What The Future Wants» της διεθνούς έκθεσης «The Glass Room» στο ADAF 2024!
Οι εκδόσεις «Misinformation» και «What The Future Wants» της διεθνούς έκθεσης «The Glass Room» της Tactical Tech θα βρίσκονται στο Athens Digital Arts Festival 2024 (ADAF2024)!!
Σε συνεργασία με την Tactical Tech, την έκθεση φέρνουν στην Ελλάδα οι οργανώσεις Homo Digitalis, Digital Detox Experience και Open Lab Athens, με την ομάδα της Ηοmo Digitalis και συγκεκριμένα τα μέλη μας Σοφία Αντωνοπούλου, Αριάνα Ράπτη και Αλκμήνη Γιαννή, να αναλαμβάνουν την επιμέλεια της διοργάνωσης των δύο εκδόσεων για το ADAF 2024!
Το ADAF 2024 θα λάβει χώρα από τις 16 έως τις 26 Μάη στα Πρώην Δικαστήρια Σανταρόζα (Σταδίου 48 & Αρσάκη). Η έκδοση «The Glass Room: Misinformation» θα είναι διαθέσιμη για το κοινό καθ’ όλη τη διάρκεια του φεστιβάλ, ενώ η έκδοση «The Glass Room: What the Future Wants» θα πραγματοποιηθεί με τη μορφή workshop το Σάββατο 18/5 στις 14.00 από τα μέλη μας Σοφία Αντωνοπούλου, Αριάνα Ράπτη και Αλκμήνη Γιαννή.
Μπορείτε να αγοράσετε εισιτήρια για το ADAF 2024 και να διαβάσετε το πλήρες πρόγραμμα του φεστιβάλ εδώ.
Ευχαριστούμε θερμά τα τρία μέλη μας για τον χρόνο, την ενέργεια και την αφοσίωσή τους στη διοργάνωση της έκθεσης αυτής, καθώς και τους διοργανωτές για τη φιλοξενία!
Η έκθεση “The Glass Room” έχει ταξιδέψει σε 61 χώρες στον κόσμο, μετράει 471 βραβευμένες διοργανώσεις και περισσότερους από 350.000 επισκέπτες παγκοσμίως. Στο παρελθόν οι Homo Digitalis, Digital Detox Experience και Open Lab Athens έχουν παρουσιάσει την έκθεση στην Εθνική Βιβλιοθήκη της Ελλάδας στην Αθήνα και στο JOIST Innovation Park στη Λάρισα.
Εκδήλωση του Ελληνικού Παραρτήματος της IAPP «AI & Προσωπικά Δεδομένα: Προκλήσεις & Λύσεις στην Εποχή της Ψηφιακής Ιδιωτικότητας»
Το προεδρείο του Hellenic Chapter της IAPP-International Association of Privacy Professionals, οργανώνει στις 14 Μάη και Ώρα 18:30 – 19:00 στο ΙΜΕ ΓΣΕΒΕΕ, Ινστιτούτο Μικρών Επιχειρήσεων της ΓΣΕΒΕΕ εκδήλωση με θέμα “ΑΙ & Προσωπικά Δεδομένα: Προκλήσεις & Λύσεις στην Εποχή της Ψηφιακής Ιδιωτικότητας”.
Τη συζήτηση συντονίζει ο Στέφανος Βιτωράτος Partner – Digital Law Experts, και Συνιδρυτής και Αντιπρόεδρος της Homo Digitalis, ενώ στους ομιλητές περιλαμβάνονται οι:
-Δρ. Προκόπιος Δρογκάρης, Cybersecurity Expert, Deputy DPO ENISA, CIPP-E
-Μαρία Αλεξάνδρα Παπουτσή, Managing Associate, KBVL Law Firm Member of Deloitte Legal, CIPP-E/US
-Αλέξανδρος Παπαχαραλάμπους, CEO-CTO AETHON Engineering, Cofounder & VP Prodαuct TransiTool
Για να εγγραφείτε και να παρακολουθήσετε την εκδήλωση δια ζώσης πατήστε εδώ, ή για να κάνετε εγγραφή για διαδικτυακή παρουσίαση, πατήστε εδώ.
Είναι μεγάλη τιμή για τη Homo Digitalis που όλα τα μέλη του Προεδρείου του Hellenic Chapter της IAPP-International Association of Privacy Professionals αποτελούν μέλη μας!
H Homo Digitalis συμμετέχει για 4η φορά στο CPDP!
H Homo Digitalis συμμετέχει για 4η φορά στο CPDP, το πλέον αναγνωρισμένο διεθνές συνέδριο για την προστασία των προσωπικών δεδομένων και της ιδιωτικότητας!
Μετά από τις συνεχόμενες παρουσίες μας εκεί με ομιλίες σε πάνελ και workshop, φέτος έχουμε τη τιμή να δίνουμε το παρόν με ένα νέο μέσο! Συγκεκριμένα, θα δώσουμε συνέντευξη στο πλαίσιο του Avatar.fm, ενός live radio project που οργανώνει ο κοινωνικός ραδιοφωνικός σταθμός dublab.de και το privacy salon κατά τη διάρκεια του CPDP!
To Avatar.fm θα δίνει τον παλμό του συνεδρίου από τις 22 έως τις 24 Μάη, αποτελώντας βήμα για οργανώσεις με ηγετικό ρόλο στην προστασία των προσωπικών δεδομένων και της ιδιωτικότητας, αναδεικνύοντας τις δράσεις τους στον τομέα της Τεχνητής Νοημοσύνης και των νέων τεχνολογιών!
Το Avatar.fm θα εκπέμπει ζωντανά από το εμβληματικό Gare Maritime στις Βρυξέλλες, ενώ θα φιλοξενεί και μαγνητοσκοπημένες εκπομπές, καθώς και live DJ Sets! Όσες και όσοι δεν βρισκόσαστε εκεί, μπορείτε να ακούσετε τις εκπομπές στην ιστοσελίδα dublab.de
Τη Homo Digitalis θα εκπροσωπήσει στην εν λόγω συνέντευξη η Διευθύντρια Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου, Λαμπρινή Γυφτοκώστα.
Μείνετε συντονισμένες και συντονισμένοι για το πλήρες πρόγραμμα!
Ψηφιακή Νοημοσύνη και Ψηφιακή Ηθική στην Εκπαίδευση
Γράφει η Δρ. Άννα Μπούγια*
Θα αφήνατε ποτέ τα παιδιά σας μόνα στους δρόμους της Νέας Υόρκης; Αναρωτιέται η Δρ Aiken (2016, p.121), κορυφαία κυβερνοψυχολόγος. Ωστόσο, πολλοί γονείς αφήνουν τα παιδιά μόνα τους στον κυνερνοχώρο. Η Δρ Aiken (2016) καταλήγει πως αυτή τη στιγμή διεξάγεται παγκοσμίως το μεγαλύτερο και ρεαλιστικότερο πείραμα με συμμετέχοντες παιδιά και νέους, οι οποίοι αν και ψηφιακά εγγράμματοι σε σχέση με τις προηγούμενες γενεές, έρχονται αντιμέτωποι με διλήμματα και προκλήσεις στα διαρκώς εξελισσόμενα ψηφιακά περιβάλλοντα.
Πώς μπορεί η εκπαίδευση να συμβάλλει στη νέα κοινωνική πρόκληση;
Είναι γεγονός πως ο προγραμματισμός και η υπολογιστική σκέψη εντάσσεται πλέον στο πρόγραμμα μαθημάτων της πρωτοβάθμιας και δευτεροβάθμιας εκπαίδευσης, ενώ αντίστοιχα και η Τριτοβάθμια εκπαίδευση δίνει έμφαση στην ενίσχυση των ψηφιακών δεξιοτήτων. Το 2022, προστέθηκε στο e-learning του Καποδιστριακού Πανεπιστημίου Αθηνών, το πρώτο πρόγραμμα «Ανάπτυξης Ψηφιακής Νοημοσύνης» με έμφαση στις ψυχοκοινωνικές δεξιότητες που καλούνται να αναπτύξουν οι χρήστες του διαδικτύου. Συγκεκριμένα οι εκπαιδευόμενοι διερευνούν τις παιδαγωγικές δυνατότητες που προσφέρει η ηλεκτρονική εκπαίδευση. Επίσης, επιχειρείται η εμβάθυνση σε θέματα που αφορούν στη διαχείριση του ψηφιακού αποτυπώματος, εστιάζοντας στις διαφορές, τις ιδιαιτερότητες και τον αντίκτυπο της προβολής της προσωπικής και κοινωνικής μας ταυτότητας μέσω του διαδικτύου. Στην κατεύθυνση αυτή οι εκπαιδευόμενοι εξοικειώνονται με στρατηγικές διαχείρισης του ψηφιακού τους αποτυπώματος και της ψηφιακής τους ταυτότητας. Επιπλέον, στο πρόγραμμα προτείνονται και αναλύονται σύγχρονες θεωρίες και στρατηγικές για την ηθική χρήση της τεχνολογίας (Σμυρναίου, Μπούγια, 2022). Ωστόσο, η ενσωμάτωση της Ψηφιακής νοημοσύνης και ειδικότερα της ψηφιακής ηθικής παραμένει πρόκληση καθώς τα τεχνολογικά περιβάλλοντα εξελίσσονται διαρκώς όπως και οι αντιλήψεις της νέες γενιάς αναφορικά με τη χρήση των νέων τεχνολογιών.
Σε μία ποιοτική μελέτη που διενεργήθηκε το 2012 από τον Gardner και την ομάδα του, με στόχο τη διερεύνηση των αντιλήψεων των νέων ανθρώπων αναφορικά με την έννοια της ηθικής στο διαδίκτυο, αλλά και την ενίσχυση της ηθικής σκέψης, οι ερευνητές του “Good play project” ανακάλυψαν πως οι νέοι επιδεικνύου συχνά μία ηθική τυφλότητα σε θέματα ιδιωτικότητας, ιδιοκτησίας, και διάδρασης όταν σερφάρουν στο διαδίκτυο. Συγκεκριμένα, η ανάλυση των συνεντεύξεων των συμμετεχόντων, ηλικία; 10 έως 25 ετών αποκάλυψε τα παρακάτω είδη αντιλήψεων που τείνουν να διαμορφώνουν κατά τη διάρκεια της διάδρασής τους στο διαδίκτυο: α) Σκέψη εστιασμένη στον εαυτό (Σκέφτονται τις προσωπικές συνέπειες των πράξεών τους), β)χρηστός τρόπος σκέψης (σκέφτονται τις ηθικές συνέπειες των πράξεών τους σε ανθρώπους που γνωρίζουν, γ) ηθικός τρόπος σκέψης (σκέφτονται τις συνέπειες που έχουν οι πράξεις του στην κοινότητα και σε άγνωστους ανθρώπους. Η έρευνα καταλήγει πως υπάρχει ένα ηθικό κενό που πρέπει να γεφυρωθεί καθώς η ασυνείδητη ηθική τυφλότητα του δείχνουν περιστασιακά οι νέοι κατά τη διάδρασή τους μπορεί να καταλήξει σε συνειδητή επιλογή αποσύνδεσης της ηθικής σκέψης και προτεραιοποίησης του προσωπικού συμφέροντος. Η αλήθεια είναι πως η εκπαίδευση αναφορικά με τους ηθικούς κινδύνους του διαδικτύου εστιάζει κυρίως στη μεμονωμένη προστασία του ατόμου, την αποφυγή ριψοκίνδυνων συμπεριφορών, την προστασία της ιδιωτικότητας και λιγότερο στην υποχρέωσή μας Η εκπαίδευση μπορεί να παίξει καταλυτικό ρόλο στην ενίσχυση και εξάσκηση της ηθικής σκέψης και δράσης σε όλους τους τομείς της ανθρώπινης ζωής εστιάζοντας στη σύνδεση και μεταφορά των δεξιοτήτων ηθικής σκέψης από το φυσικό στο διαδικτυακό περιβάλλον (James, 2014).
Στην ίδια γραμμή, η Shannon Vallor (2016) καθηγήτρια τεχνοηθικής του Πανεπιστημίου του Εδιμβούργου επιμένει ότι η ανθρωπότητα πρέπει να αναπτύξει «τεχνοηθικές αρετές» (Vallor, 2016 , σελ. 3). Σύμφωνα με την Vallor, μια σύγχρονη θεωρία της ηθικής «πρέπει να περιλαμβάνει την εφαρμογή ενός κανονιστικού πλαισίου για το πώς να ζεις καλά με τις τεχνολογίες, ειδικά αυτές που αναδύονται ακόμη και δεν έχουν ακόμη διευθετηθεί». Στο βιβλίο Technology and the Virtues, η Vallor (2016) ισχυρίζεται πως η εφαρμογή της αρετολογικής ηθικής και κατά συνέπεια η καλλιέργεια αρετών του χαρακτήρα, όπως η υπομονή, το θάρρος, η ειλικρίνεια και η ενσυναίσθηση στον τομέα της ηθικής της τεχνολογίας, μπορεί να μειώσει τη διαδικτυακή βία στα μέσα κοινωνικής δικτύωσης και να οδηγήσει στην υπεύθυνη χρήση της τεχνολογίας. Οι κυρίαρχες ηθικές θεωρίες που κυριαρχούσαν μέχρι πρόσφατα στην ηθική της τεχνολογίας ήταν ωφελιμιστικές και δεοντολογικές, ωστόσο, αρκετοί συγγραφείς και ηθικοί φιλόσοφοι έστρεψαν την προσοχή στο ρόλο του χαρακτήρα και της αρετής για την επίλυση των σύχρονων ηθικών προβλημάτων, όπως για παράδειγμα ο διαδικτυακός εκφοβισμός (Harrison, 2016). Ο συγγραφέας υποστηρίζει ότι η τήρηση των κανόνων και η πρόβλεψη των συνεπειών των πράξεων μας στο διαδίκτυο αποτελεί πολλές φορές πρόκληση, καθώς το περιβάλλον είναι συνεχώς εξελισσόμενο. Ομοίως ο Couldry (2010) θεωρεί πως η ηθική της αρετής σχετίζεται άμεσα με την ψηφιακή εκπαίδευση και την ανάπτυξη απαραίτητων δεξιοτήτων για την χρήση της τεχνολογίας με υπεύθυνο τρόπο. Αυτό το είδος εκπαίδευσης είναι πολυδιάστατο και πολυθεματικό και για το λόγο αυτό υπάρχουν διαφορετικές ονομασίες στη βιβλιογραφία, όπως η «εκπαίδευση ψηφιακού πολίτη (digital citizenship)», «ψηφιακή ηθική (digital ethics)» και «ηθική στον κυβερνοχώρο(cyber ethics)». Αποτελεί επίσης συστατικό ευρύτερων όρων όπως «ψηφιακός γραμματισμός στα μέσα (digital literacy)» και «γραμματισμός (media literacy & data literacy) στα μέσα και πληροφορίες», μεταξύ άλλων. Ωστόσο, κοινός άξονας όλων των παραπάνω ορισμών είναι η ανησυχία για την καλή ζωή(well-being) και με την αίσθηση του ηθικού καθήκοντος και ευθύνης απέναντι στους άλλους, τόσο online όσο και offline.
Τα τελευταία χρόνια, η ταχύτερη ανάπτυξη προσωπικών υπολογιστών και πληροφοριακών συστημάτων έχει μετατρέψει την παραδοσιακή πρωτοβάθμια και δευτεροβάθμια εκπαίδευση σε μια πλήρως ή υβριδική ψηφιακή εκπαίδευση (Εκπαίδευση 5.0). Αυτό ενισχύθηκε κατά την περίοδο Covid-19, όπου όλοι οι μαθητές συμμετείχαν στα μαθήματα μέσω συστημάτων συνεργασίας (MS Teams, Zoom, Skype κ.λπ.). Οι μαθητές χρησιμοποιούν καθημερινά διάφορα συστήματα όπως πλατφόρμες eLearning, συστήματα ανίχνευσης λογοκλοπής, ηλεκτρονικές εγκυκλοπαίδειες, συστήματα επεξεργασίας λέξεων/παρουσιάσεων/φύλλων εργασίας, AI Powered Tools κ.λπ. για την προετοιμασία της εργασίας και των εργασιών τους.
Η Τεχνητή Νοημοσύνη (AI) είναι ένας κλάδος της Επιστήμης Υπολογιστών που περιλαμβάνει τη δημιουργία ευφυών μηχανών αφού τους παρέχει αλγόριθμους και κατευθύνσεις, για την εκτέλεση συγκεκριμένων εργασιών όπως η λήψη αποφάσεων, η ανάλυση δεδομένων, η μάθηση και η επίλυση προβλημάτων. Η τεχνητή νοημοσύνη απαιτεί ανθρώπινη νοημοσύνη η οποία παίζει καθοριστικό ρόλο στην εξέλιξη και ανάπτυξη αυτού του τομέα. Έχει εξελιχθεί σε αρκετές δεκαετίες χάρη στις συνεισφορές ερευνητών και προγραμματιστών. Θα μπορούσε επίσης να έχει ένα ευρύ φάσμα θετικών επιπτώσεων για την κοινωνία και την οικονομία γενικότερα. Μερικές από τις θετικές συνέπειες περιλαμβάνουν αυξημένη αποτελεσματικότητα, βελτιωμένο τρόπο εργασίας, μειωμένα λάθη, αυξημένη παραγωγή και κερδοφορία και βελτιωμένες υπηρεσίες προς τους πολίτες και ανάπτυξη προϊόντων.
Η έλευση της τεχνητής νοημοσύνης στις ζωές των ανθρώπων με τη χρήση ορισμένων εργαλείων επεξεργασίας φυσικής γλώσσας όπως το ChatGPT, το Bard, το Bing AI και άλλα, έχει επηρεάσει και την εκπαίδευση. Η τεχνητή νοημοσύνη έχει εφαρμοστεί ευρέως σε εκπαιδευτικές πρακτικές (Τεχνητή Νοημοσύνη στην Εκπαίδευση, AIEd), όπως έξυπνα συστήματα διδασκαλίας, ρομπότ διδασκαλίας, πίνακες αναλυτικών στοιχείων μάθησης, προσαρμοστικά συστήματα μάθησης, αλληλεπιδράσεις ανθρώπου-υπολογιστή κ.λπ. (Chen, Xie, & Hwang, 2020). Διαφορετικές μεθοδολογίες τεχνητής νοημοσύνης (επεξεργασία φυσικής γλώσσας, νευρωνικά δίκτυα, μηχανική μάθηση, βαθιά μάθηση, ανάλυση μεγάλων δεδομένων και γενετικοί αλγόριθμοι) έχουν εφαρμοστεί για τη δημιουργία έξυπνων περιβαλλόντων μάθησης για ανίχνευση συμπεριφοράς, δημιουργία μοντέλων πρόβλεψης, σύσταση μάθησης κ.λπ. (Chen, Xie, & Hwang, 2020; Rowe, 2019).
Καθώς η τεχνολογία και η κοινωνία εξελίσσονται συνεχώς, είναι προφανές ότι υπάρχει ανάγκη επαναπροσδιορισμού της ηθικής με βάση το νέο ψηφιακό οικοσύστημα. Η ηθική είναι προϊόν της εξελικτικής ιστορίας, με άλλα λόγια μια διάσταση της ηθικής είναι η προσαρμογή. Στο πλαίσιο αυτό, αναφερόμενοι στην ψηφιακή ηθική, οι ερευνητές εστιάζουν ουσιαστικά στον τρόπο εφαρμογής και προσαρμογής της ηθικής στα νέα ψηφιακά περιβάλλοντα. Συγκεκριμένα, η Ψηφιακή Δεοντολογία ασχολείται με τον αντίκτυπο της ενοποίησης των Τεχνολογιών Πληροφορικής και Επικοινωνιών (ΤΠΕ) στις κοινωνίες μας και στο περιβάλλον γενικότερα. Επικεντρώνεται σε μια σειρά θεμάτων και προβληματισμών όπως:
- Τεχνητή Νοημοσύνη (AI) και αλγοριθμική λήψη αποφάσεων, συμπεριλαμβανομένης της δικαιοσύνης.
- Η αυτοματοποίηση της ανθρώπινης νοημοσύνης για ρομποτική ή αυτόνομα οχήματα.
- Τεχνητή νοημοσύνη και το μέλλον της εργασίας και της διακυβέρνησης.
- Η χρήση ευφυών τεχνολογιών στην υγεία και την ιατρική.
Η αλγοριθμική λήψη αποφάσεων εγείρει μια σειρά από ερωτήματα:
- Ποιος είναι υπεύθυνος όταν παραβιάζονται τα ανθρώπινα δικαιώματα με βάση μία αλγοριθμική απόφαση, το άτομο που προγραμμάτισε τον αλγόριθμο, ο χειριστής του αλγορίθμου ή ο άνθρωπος που εφάρμοσε την απόφαση;
- Ποια είναι η διαφορά μεταξύ μιας τέτοιας απόφασης και μιας ανθρώπινης απόφασης;
Ταυτόχρονα, οι ερευνητές δίνουν έμφαση στον κρίσιμο ρόλο της ιδιωτικής και δημόσιας εκπαίδευσης για την ενίσχυση των δεξιοτήτων κριτικής σκέψης και την προώθηση μιας ηθικής κουλτούρας και χρήσης της τεχνολογίας.
* H Δρ. Άννα Μπούγια είναι AI ethics engineer στο Computer Technology Institute, Διόφαντος.