Πράξη Ψηφιακών Υπηρεσιών: Ασφάλεια στο Διαδίκτυο και Ελεύθερη Έκφραση

Γράφει ο Τάσος Αραμπατζής

Η Πράξη Ψηφιακών Υπηρεσιών (DSA) της Ευρωπαϊκής Ένωσης αποτελεί ορόσημο στην προσπάθεια να μπει μεγαλύτερη τάξη στο συχνά χαοτικό πεδίο του διαδικτύου. Η νομοθεσία αποσκοπεί στη θέσπιση σαφών κανόνων και αρμοδιοτήτων για τις διαδικτυακές πλατφόρμες, αντιμετωπίζοντας ένα φάσμα προβλημάτων από την προστασία των καταναλωτών έως την καταπολέμηση του επιβλαβούς περιεχομένου. Ωστόσο, μέσα στις καλοπροαίρετες διατάξεις του DSA υπάρχει μια θεμελιώδης ένσταση που εξακολουθεί να αποτελεί πρόκληση για τις δημοκρατίες παγκοσμίως: πώς εξασφαλίζουμε ένα ασφαλέστερο, πιο πολιτισμένο διαδικτυακό περιβάλλον χωρίς να παραβιάζουμε τις θεμελιώδεις αρχές της ελεύθερης έκφρασης;

Αυτό το άρθρο εξετάζει την πολυπλοκότητα των διατάξεων της DSA σχετικά με τις συνομιλίες και τον έλεγχο του περιεχομένου. Θα διερευνήσουμε πώς η καταπολέμηση των διαδικτυακών κινδύνων, συμπεριλαμβανομένης της εξάπλωσης της παραπληροφόρησης και των deepfakes, πρέπει να σταθμίζεται προσεκτικά έναντι των κινδύνων της λογοκρισίας και της καταστολής του νόμιμου λόγου. Πρόκειται για μια πράξη εξισορρόπησης με εκτεταμένες συνέπειες για το μέλλον της ψηφιακής μας κοινωνίας.

Διαδικτυακοί κίνδυνοι και η απάντηση της DSA

Το ψηφιακό πεδίο, παρ’ όλη την υπόσχεσή του για σύνδεση και γνώση, έχει μετατραπεί σε εκτροφείο για ένα ευρύ φάσμα διαδικτυακών κινδύνων.  Οι εκστρατείες παραπληροφόρησης διαβρώνουν την εμπιστοσύνη απέναντι στους δημοκρατικούς θεσμούς και σπέρνουν τη διχόνοια, ενώ η ρητορική μίσους τροφοδοτεί τις διακρίσεις και τη βία κατά περιθωριοποιημένων ομάδων. Ο διαδικτυακός εκφοβισμός καταστρέφει ζωές, ιδίως των ευάλωτων νέων.

Για την αντιμετώπιση αυτών των κινδύνων, η DSA θέτει νέες υποχρεώσεις στις διαδικτυακές πλατφόρμες, ιδίως στις Πολύ Μεγάλες Διαδικτυακές Πλατφόρμες (VLOP). Οι απαιτήσεις έχουν σημαντική εμβέλεια και περιλαμβάνουν:

  • Αυξημένη διαφάνεια: Οι πλατφόρμες πρέπει να εξηγούν τον τρόπο λειτουργίας των αλγορίθμων τους και τα κριτήρια που χρησιμοποιούν για τη σύσταση και τον έλεγχο του περιεχομένου.
  • Λογοδοσία: Οι εταιρείες θα αντιμετωπίσουν πιθανά πρόστιμα και κυρώσεις για την αποτυχία τους να αντιμετωπίσουν αποτελεσματικά το παράνομο και επιβλαβές περιεχόμενο.
  • Μετριασμός περιεχομένου: Οι πλατφόρμες πρέπει να αναφέρουν με σαφήνεια τις πολιτικές για την αφαίρεση περιεχομένου και να εφαρμόζουν αποτελεσματικά και φιλικά προς τον χρήστη συστήματα αναφοράς προβληματικού περιεχομένου.

Στόχος αυτών των διατάξεων της DSA είναι η δημιουργία ενός πιο υπεύθυνου ψηφιακού οικοσυστήματος όπου το επιβλαβές περιεχόμενο είναι λιγότερο πιθανό να ανθίσει και όπου οι χρήστες έχουν περισσότερα εργαλεία για να προστατευθούν.

Ο κίνδυνος της λογοκρισίας

Ενώ οι προθέσεις της DSA είναι αξιοθαύμαστες, τα μέτρα για την καταπολέμηση των διαδικτυακών κινδύνων εγείρουν εύλογες ανησυχίες σχετικά με τη λογοκρισία και την πιθανή καταστολή της ελευθερίας του λόγου. Η ιστορία είναι γεμάτη από περιπτώσεις όπου η καταπολέμηση του επιβλαβούς περιεχομένου χρησίμευσε ως πρόσχημα για να φιμωθούν οι αντίθετες φωνές, να ασκηθεί κριτική στους κυβερνώντες ή να κατασταλούν περιθωριοποιημένες ομάδες.

Οι οργανώσεις της κοινωνίας των πολιτών έχουν τονίσει την ανάγκη να συμπεριλάβει η DSA σαφείς εγγυήσεις για να αποτρέψει το ενδεχόμενο οι καλοπροαίρετες διατάξεις της να μετατραπούν σε εργαλεία λογοκρισίας. Είναι απαραίτητο να υπάρχουν ακριβείς ορισμοί του “παράνομου” ή “επιβλαβούς” περιεχομένου – εκείνου που υποκινεί άμεσα τη βία ή παραβιάζει τους ισχύοντες νόμους. Οι υπερβολικά ευρείς ορισμοί κινδυνεύουν να συμπεριλάβουν τη σάτιρα, την πολιτική διαφωνία και την καλλιτεχνική έκφραση, οι οποίες αποτελούν όλες προστατευόμενες μορφές λόγου.

Η καταστολή αυτών των μορφών λόγου υπό το πρόσχημα της ασφάλειας μπορεί να έχει ανασταλτικό αποτέλεσμα, αποθαρρύνοντας τη δημιουργικότητα, την καινοτομία και την ανοιχτή ανταλλαγή ιδεών που είναι ζωτικής σημασίας για μια υγιή δημοκρατία. Είναι σημαντικό να θυμόμαστε ότι αυτό που προσβάλλει ένα άτομο μπορεί να είναι βαθιά σημαντικό για ένα άλλο. Η DSA πρέπει να βαδίσει προσεκτικά για να αποφύγει την εξουσιοδότηση κυβερνήσεων ή πλατφορμών να αποφασίζουν μονομερώς τι συνιστά αποδεκτό διάλογο.

Deepfakes και η καταπολέμηση της παραπληροφόρησης

Τα deepfakes, τα συνθετικά μέσα που χρησιμοποιούνται για την παραποίηση της πραγματικότητας, αποτελούν μια ιδιαίτερα ύπουλη απειλή για την ακεραιότητα της πληροφόρησης. Η ικανότητά τους να κάνουν να φαίνεται ότι κάποιος είπε ή έκανε κάτι που δεν έκανε ποτέ, έχει τη δυνατότητα να καταστρέψει τη φήμη, να υπονομεύσει την εμπιστοσύνη σε θεσμούς, ακόμη και να αποσταθεροποιήσει πολιτικές διαδικασίες.

Η DSA αναγνωρίζει δικαίως τον κίνδυνο των deepfakes και θέτει την υποχρέωση στις πλατφόρμες να καταβάλλουν προσπάθειες για την καταπολέμηση της επιβλαβούς χρήσης τους. Ωστόσο, πρόκειται για έναν πολύπλοκο τομέα όπου η γραμμή μεταξύ της επιβλαβούς χειραγώγησης και των νόμιμων χρήσεων μπορεί να θολώσει. Η τεχνολογία deepfake μπορεί επίσης να αξιοποιηθεί για σκοπούς σάτιρας, παρωδίας ή καλλιτεχνικούς σκοπούς.

Η πρόκληση για την DSA έγκειται στον εντοπισμό των deepfakes που δημιουργούνται με κακόβουλη πρόθεση, προστατεύοντας παράλληλα αυτά που δημιουργούνται για νόμιμες μορφές έκφρασης. Οι πλατφόρμες θα πρέπει πιθανότατα να αναπτύξουν έναν συνδυασμό τεχνολογικών εργαλείων ανίχνευσης και ανθρώπινων μηχανισμών αναθεώρησης για να κάνουν αυτές τις διακρίσεις αποτελεσματικά.

Η ευθύνη των τεχνολογικών κολοσσών

Όταν πρόκειται για τη διάδοση επιβλαβούς περιεχομένου και τη δυνατότητα διαδικτυακής λογοκρισίας, μεγάλο μέρος της ευθύνης πέφτει εξ ολοκλήρου στους ώμους των μεγάλων διαδικτυακών πλατφορμών. Αυτοί οι τεχνολογικοί γίγαντες διαδραματίζουν κεντρικό ρόλο στη διαμόρφωση του περιεχομένου που βλέπουμε και του τρόπου με τον οποίο αλληλεπιδρούμε στο διαδίκτυο.

Η DSA αντιμετωπίζει άμεσα αυτή την τεράστια δύναμη επιβάλλοντας αυστηρότερες απαιτήσεις στις μεγαλύτερες πλατφόρμες, αυτές που θεωρούνται πολύ μεγάλες διαδικτυακές πλατφόρμες. Οι απαιτήσεις αυτές έχουν σχεδιαστεί για να προωθήσουν μεγαλύτερη υπευθυνότητα και να ωθήσουν αυτές τις πλατφόρμες να αναλάβουν πιο ενεργό ρόλο στον περιορισμό του επιβλαβούς περιεχομένου.

Βασικό στοιχείο της DSA είναι η προώθηση της διαφάνειας. Οι πλατφόρμες θα πρέπει να παρέχουν λεπτομερείς εξηγήσεις για τις πρακτικές τους σχετικά με τη συγκράτηση του περιεχομένου, συμπεριλαμβανομένων των αλγορίθμων που χρησιμοποιούνται για το φιλτράρισμα και τη σύσταση περιεχομένου. Αυτή η αυξημένη ορατότητα αποσκοπεί στην αποφυγή αυθαίρετων ή μεροληπτικών αποφάσεων και προσφέρει στους χρήστες καλύτερη κατανόηση των μηχανισμών που διέπουν τις διαδικτυακές τους εμπειρίες.

Προστασία της ελευθερίας του λόγου – Πού είναι το όριο;

Η προστασία της ελευθερίας του λόγου αποτελεί θεμελιώδη αρχή κάθε δημοκρατικής κοινωνίας. Επιτρέπει τη δυναμική ανταλλαγή ιδεών, την αμφισβήτηση της εξουσίας και παρέχει φωνή σε όσους βρίσκονται στο περιθώριο. Ωστόσο, καθώς εξελίσσεται ο ψηφιακός κόσμος, τα όρια της ελευθερίας του λόγου αμφισβητούνται όλο και περισσότερο.

Η DSA αντιπροσωπεύει μια ειλικρινή προσπάθεια να πλοηγηθούμε σε αυτό το πολύπλοκο πεδίο, αλλά είναι ζωτικής σημασίας να αναγνωρίσουμε ότι δεν υπάρχουν εύκολες απαντήσεις. Το όριο μεταξύ επιβλαβούς περιεχομένου και προστατευόμενων μορφών έκφρασης είναι συχνά δύσκολο να διακριθεί. Η εφαρμογή της DSA πρέπει να περιλαμβάνει ισχυρές εγγυήσεις που να βασίζονται στις θεμελιώδεις αρχές των ανθρωπίνων δικαιωμάτων, ώστε να διασφαλίζεται χώρος για ποικίλες απόψεις και κριτική.

Στην προσπάθεια αυτή, θα πρέπει να δώσουμε προτεραιότητα στην ενδυνάμωση των χρηστών. Η επένδυση στην εκπαίδευση για τον γραμματισμό στα μέσα ενημέρωσης και η προώθηση εργαλείων για κριτική σκέψη είναι ουσιώδεις για να βοηθηθούν τα άτομα να γίνουν πιο απαιτητικοί καταναλωτές των διαδικτυακών πληροφοριών.

Συμπέρασμα

Ο νόμος για τις ψηφιακές υπηρεσίες σηματοδοτεί μια σημαντική καμπή στη ρύθμιση του διαδικτυακού κόσμου. Ο αγώνας για την εξισορρόπηση της διαδικτυακής ασφάλειας και της ελευθερίας της έκφρασης δεν έχει ακόμη τελειώσει. Η DSA παρέχει ένα ισχυρό θεμέλιο, αλλά πρέπει να θεωρηθεί ως ένα βήμα σε μια συνεχή διαδικασία και όχι ως τελική λύση. Για να εξασφαλίσουμε ένα πραγματικά ανοικτό, δημοκρατικό και ασφαλές διαδίκτυο, χρειαζόμαστε συνεχή επαγρύπνηση, στιβαρή συζήτηση και την ενεργό συμμετοχή τόσο των ατόμων όσο και της κοινωνίας των πολιτών.

 


Συμμετέχουμε στο InfoRights 2024 στην Κέρκυρα

Η Homo Digitalis έχει τη μεγάλη χαρά να συμμετέχει στο Τρίτο Διεπιστημονικό Συνέδριο, το οποίο διοργανώνει η Αναγνωστική Εταιρία Κερκύρας στις 17 & 18 Μαΐου 2024 με τίτλο «Τα Ανθρώπινα Δικαιώματα την Εποχή της Πληροφορίας: Σημεία αναφοράς ιστορίας, δικαίου, δεοντολογίας και πολιτισμού».

Στο Συνέδριο θα εκπροσωπήσει τη Homo Digitalis το μέλος μας Χρήστος Ζαγγανάς, ο οποίος το Σάββατο 18 στις 12:00 θα παρουσιάσει με ομιλία του το έργο της Homo Digitalis για την προστασία ανθρώπινων δικαιωμάτων σε σχέση με την κοινωνία της πληροφορίας στην Ελλάδα!

Ευχαριστούμε θερμά τους διοργανωτές για την πολύ τιμητική πρόσκληση!

Μπορείτε να κάνετε δωρεάν εγγραφή για να παρακολουθήσετε δια ζώσης το συνέδριο ή να διαβάσετε περισσότερα γι’ αυτό εδώ.

Επίκεντρο των διεπιστημονικών θεματικών του συνεδρίου είναι τα ανθρώπινα δικαιώματα σε σχέση με την πληροφορία όσον αφορά την ιστορία, τη ρύθμιση (δίκαιο και δεοντολογία) και τον πολιτισμό. Συνδιοργανώνεται από το Εργαστήριο Τεκμηρίωσης Πολιτιστικής και Ιστορικής Κληρονομιάς του ΤΑΒΜ, την Ερευνητική Ομάδα IHRC του ΤΑΒΜ, και τη Βιβλιοθήκη και Κέντρου Πληροφόρησης του Ιονίου Πανεπιστημίου με τη συνεργασία της Έδρας UNESCO του Ιονίου Πανεπιστημίου για τις απειλές κατά της πολιτιστικής κληρονομιάς και των σχετικών με την πολιτιστική κληρονομιά δραστηριοτήτων, καθώς και του Δικηγορικού Συλλόγου Κερκύρας και των Μουσειακών Συλλογών Ιονίου Πανεπιστημίου.

 


Φέρνουμε τις εκδόσεις «Misinformation» και «What The Future Wants» της διεθνούς έκθεσης «The Glass Room» στο ADAF 2024!

Οι εκδόσεις «Misinformation» και «What The Future Wants» της διεθνούς έκθεσης «The Glass Room» της Tactical Tech θα βρίσκονται στο Athens Digital Arts Festival 2024 (ADAF2024)!!

Σε συνεργασία με την Tactical Tech, την έκθεση φέρνουν στην Ελλάδα οι οργανώσεις Homo Digitalis, Digital Detox Experience και Open Lab Athens, με την ομάδα της Ηοmo Digitalis και συγκεκριμένα τα μέλη μας Σοφία Αντωνοπούλου, Αριάνα Ράπτη και Αλκμήνη Γιαννή, να αναλαμβάνουν την επιμέλεια της διοργάνωσης των δύο εκδόσεων για το ADAF 2024!

Το ADAF 2024 θα λάβει χώρα από τις 16 έως τις 26 Μάη στα Πρώην Δικαστήρια Σανταρόζα (Σταδίου 48 & Αρσάκη). Η έκδοση «The Glass Room: Misinformation» θα είναι διαθέσιμη για το κοινό καθ’ όλη τη διάρκεια του φεστιβάλ, ενώ η έκδοση «The Glass Room: What the Future Wants» θα πραγματοποιηθεί με τη μορφή workshop το Σάββατο 18/5 στις 14.00 από τα μέλη μας Σοφία Αντωνοπούλου, Αριάνα Ράπτη και Αλκμήνη Γιαννή.

Μπορείτε να αγοράσετε εισιτήρια για το ADAF 2024 και να διαβάσετε το πλήρες πρόγραμμα του φεστιβάλ εδώ.

Ευχαριστούμε θερμά τα τρία μέλη μας για τον χρόνο, την ενέργεια και την αφοσίωσή τους στη διοργάνωση της έκθεσης αυτής, καθώς και τους διοργανωτές για τη φιλοξενία!

Η έκθεση “The Glass Room” έχει ταξιδέψει σε 61 χώρες στον κόσμο, μετράει 471 βραβευμένες διοργανώσεις και περισσότερους από 350.000 επισκέπτες παγκοσμίως. Στο παρελθόν οι Homo Digitalis, Digital Detox Experience και Open Lab Athens έχουν παρουσιάσει την έκθεση στην Εθνική Βιβλιοθήκη της Ελλάδας στην Αθήνα και στο JOIST Innovation Park στη Λάρισα.

 


Εκδήλωση του Ελληνικού Παραρτήματος της IAPP «AI & Προσωπικά Δεδομένα: Προκλήσεις & Λύσεις στην Εποχή της Ψηφιακής Ιδιωτικότητας»

Το προεδρείο του Hellenic Chapter της IAPP-International Association of Privacy Professionals, οργανώνει στις 14 Μάη και Ώρα 18:30 – 19:00 στο  ΙΜΕ ΓΣΕΒΕΕ, Ινστιτούτο Μικρών Επιχειρήσεων της ΓΣΕΒΕΕ εκδήλωση με θέμα “ΑΙ & Προσωπικά Δεδομένα: Προκλήσεις & Λύσεις στην Εποχή της Ψηφιακής Ιδιωτικότητας”.

Τη συζήτηση συντονίζει ο Στέφανος Βιτωράτος Partner – Digital Law Experts, και Συνιδρυτής και Αντιπρόεδρος της Homo Digitalis, ενώ στους ομιλητές περιλαμβάνονται οι:

-Δρ. Προκόπιος Δρογκάρης, Cybersecurity Expert, Deputy DPO ENISA, CIPP-E

-Μαρία Αλεξάνδρα Παπουτσή, Managing Associate, KBVL Law Firm Member of Deloitte Legal, CIPP-E/US

-Αλέξανδρος Παπαχαραλάμπους, CEO-CTO AETHON Engineering, Cofounder & VP Prodαuct TransiTool

Για να εγγραφείτε και να παρακολουθήσετε την εκδήλωση δια ζώσης πατήστε εδώ, ή για να κάνετε εγγραφή για διαδικτυακή παρουσίαση, πατήστε εδώ.

Είναι μεγάλη τιμή για τη Homo Digitalis που όλα τα μέλη του Προεδρείου του Hellenic Chapter της IAPP-International Association of Privacy Professionals αποτελούν μέλη μας!

 


H Homo Digitalis συμμετέχει για 4η φορά στο CPDP!

H Homo Digitalis συμμετέχει για 4η φορά στο CPDP, το πλέον αναγνωρισμένο διεθνές συνέδριο για την προστασία των προσωπικών δεδομένων και της ιδιωτικότητας!

Μετά από τις συνεχόμενες παρουσίες μας εκεί με ομιλίες σε πάνελ και workshop, φέτος έχουμε τη τιμή να δίνουμε το παρόν με ένα νέο μέσο! Συγκεκριμένα, θα δώσουμε συνέντευξη στο πλαίσιο του Avatar.fm, ενός live radio project που οργανώνει ο κοινωνικός ραδιοφωνικός σταθμός dublab.de και το privacy salon κατά τη διάρκεια του CPDP!

To Avatar.fm θα δίνει τον παλμό του συνεδρίου από τις 22 έως τις 24 Μάη, αποτελώντας βήμα για οργανώσεις με ηγετικό ρόλο στην προστασία των προσωπικών δεδομένων και της ιδιωτικότητας, αναδεικνύοντας τις δράσεις τους στον τομέα της Τεχνητής Νοημοσύνης και των νέων τεχνολογιών!

Το Avatar.fm θα εκπέμπει  ζωντανά από το εμβληματικό Gare Maritime στις Βρυξέλλες, ενώ θα φιλοξενεί και μαγνητοσκοπημένες εκπομπές, καθώς και live DJ Sets! Όσες και όσοι δεν βρισκόσαστε εκεί, μπορείτε να ακούσετε τις εκπομπές στην ιστοσελίδα dublab.de

Τη Homo Digitalis θα εκπροσωπήσει στην εν λόγω συνέντευξη η Διευθύντρια Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου, Λαμπρινή Γυφτοκώστα.

Μείνετε συντονισμένες και συντονισμένοι για το πλήρες πρόγραμμα!

 


Ψηφιακή Νοημοσύνη και Ψηφιακή Ηθική στην Εκπαίδευση

Γράφει η Δρ. Άννα Μπούγια*

Θα αφήνατε ποτέ τα παιδιά σας μόνα στους δρόμους της Νέας Υόρκης; Αναρωτιέται η  Δρ Aiken (2016, p.121), κορυφαία κυβερνοψυχολόγος. Ωστόσο, πολλοί γονείς   αφήνουν τα παιδιά μόνα τους στον κυνερνοχώρο. Η Δρ Aiken (2016) καταλήγει πως αυτή τη στιγμή διεξάγεται παγκοσμίως το μεγαλύτερο και ρεαλιστικότερο πείραμα με συμμετέχοντες παιδιά και νέους, οι οποίοι αν και ψηφιακά εγγράμματοι σε σχέση με τις προηγούμενες γενεές, έρχονται αντιμέτωποι με  διλήμματα και προκλήσεις στα διαρκώς εξελισσόμενα ψηφιακά περιβάλλοντα.

Πώς μπορεί η εκπαίδευση να συμβάλλει στη νέα κοινωνική πρόκληση;

Είναι γεγονός πως ο προγραμματισμός και η υπολογιστική σκέψη εντάσσεται πλέον στο πρόγραμμα μαθημάτων της πρωτοβάθμιας και δευτεροβάθμιας εκπαίδευσης, ενώ αντίστοιχα και η Τριτοβάθμια εκπαίδευση δίνει έμφαση στην ενίσχυση των ψηφιακών δεξιοτήτων. Το 2022, προστέθηκε στο e-learning του Καποδιστριακού Πανεπιστημίου Αθηνών, το πρώτο πρόγραμμα «Ανάπτυξης Ψηφιακής Νοημοσύνης» με έμφαση στις ψυχοκοινωνικές δεξιότητες που καλούνται να αναπτύξουν οι χρήστες του διαδικτύου. Συγκεκριμένα οι εκπαιδευόμενοι  διερευνούν τις παιδαγωγικές δυνατότητες που προσφέρει η ηλεκτρονική εκπαίδευση. Επίσης, επιχειρείται η εμβάθυνση σε θέματα που αφορούν στη διαχείριση του ψηφιακού αποτυπώματος, εστιάζοντας στις διαφορές, τις ιδιαιτερότητες και τον αντίκτυπο της προβολής της προσωπικής και κοινωνικής μας ταυτότητας μέσω του διαδικτύου. Στην κατεύθυνση αυτή οι εκπαιδευόμενοι εξοικειώνονται με στρατηγικές διαχείρισης του ψηφιακού τους αποτυπώματος και της ψηφιακής τους ταυτότητας. Επιπλέον, στο πρόγραμμα προτείνονται και αναλύονται σύγχρονες θεωρίες και στρατηγικές για την ηθική χρήση της τεχνολογίας (Σμυρναίου, Μπούγια, 2022). Ωστόσο, η ενσωμάτωση της Ψηφιακής νοημοσύνης και ειδικότερα της ψηφιακής ηθικής παραμένει πρόκληση καθώς τα τεχνολογικά περιβάλλοντα εξελίσσονται διαρκώς όπως και οι αντιλήψεις της νέες γενιάς αναφορικά με τη χρήση των νέων τεχνολογιών.

Σε μία ποιοτική μελέτη που διενεργήθηκε το 2012 από τον Gardner και την ομάδα του, με στόχο τη διερεύνηση των αντιλήψεων των νέων ανθρώπων αναφορικά με την έννοια της ηθικής στο διαδίκτυο, αλλά και την ενίσχυση της ηθικής σκέψης, οι ερευνητές του “Good play project” ανακάλυψαν πως οι νέοι επιδεικνύου συχνά μία ηθική τυφλότητα σε θέματα ιδιωτικότητας, ιδιοκτησίας, και διάδρασης όταν σερφάρουν στο διαδίκτυο. Συγκεκριμένα, η ανάλυση των συνεντεύξεων των συμμετεχόντων, ηλικία; 10 έως 25 ετών αποκάλυψε τα παρακάτω είδη αντιλήψεων που τείνουν να διαμορφώνουν κατά τη διάρκεια της διάδρασής τους στο διαδίκτυο: α) Σκέψη εστιασμένη στον εαυτό (Σκέφτονται τις προσωπικές συνέπειες των πράξεών τους), β)χρηστός τρόπος σκέψης (σκέφτονται τις ηθικές συνέπειες των πράξεών τους σε ανθρώπους που γνωρίζουν, γ) ηθικός τρόπος σκέψης (σκέφτονται τις συνέπειες που έχουν οι πράξεις του στην κοινότητα και σε άγνωστους ανθρώπους. Η έρευνα καταλήγει πως υπάρχει ένα ηθικό κενό που πρέπει να γεφυρωθεί καθώς η ασυνείδητη ηθική τυφλότητα του δείχνουν περιστασιακά οι νέοι κατά τη διάδρασή τους μπορεί να καταλήξει σε συνειδητή επιλογή αποσύνδεσης της ηθικής σκέψης και προτεραιοποίησης του προσωπικού συμφέροντος. Η αλήθεια είναι πως η εκπαίδευση αναφορικά με τους ηθικούς κινδύνους του διαδικτύου εστιάζει κυρίως στη μεμονωμένη προστασία του ατόμου, την αποφυγή ριψοκίνδυνων συμπεριφορών, την προστασία της ιδιωτικότητας και λιγότερο στην υποχρέωσή μας  Η εκπαίδευση μπορεί να παίξει καταλυτικό ρόλο στην ενίσχυση και εξάσκηση της ηθικής σκέψης και δράσης σε όλους τους τομείς της ανθρώπινης ζωής εστιάζοντας στη σύνδεση και μεταφορά των δεξιοτήτων ηθικής σκέψης από το φυσικό στο διαδικτυακό περιβάλλον (James, 2014).

Στην ίδια γραμμή, η Shannon Vallor (2016) καθηγήτρια τεχνοηθικής του Πανεπιστημίου του Εδιμβούργου επιμένει ότι η ανθρωπότητα πρέπει να αναπτύξει «τεχνοηθικές αρετές» (Vallor, 2016 , σελ. 3). Σύμφωνα με την Vallor, μια σύγχρονη θεωρία της ηθικής «πρέπει να περιλαμβάνει την εφαρμογή ενός κανονιστικού πλαισίου για το πώς να ζεις καλά με τις τεχνολογίες, ειδικά αυτές που αναδύονται ακόμη και δεν έχουν ακόμη διευθετηθεί».  Στο βιβλίο  Technology and the Virtues, η Vallor (2016) ισχυρίζεται πως η εφαρμογή της  αρετολογικής ηθικής και κατά συνέπεια η καλλιέργεια αρετών του χαρακτήρα, όπως η υπομονή, το θάρρος, η ειλικρίνεια και η ενσυναίσθηση  στον τομέα της ηθικής της τεχνολογίας, μπορεί να μειώσει τη διαδικτυακή βία στα μέσα κοινωνικής δικτύωσης και να οδηγήσει στην υπεύθυνη χρήση της τεχνολογίας. Οι κυρίαρχες ηθικές θεωρίες που κυριαρχούσαν  μέχρι πρόσφατα στην ηθική της τεχνολογίας ήταν ωφελιμιστικές και δεοντολογικές, ωστόσο, αρκετοί συγγραφείς και ηθικοί φιλόσοφοι έστρεψαν την προσοχή στο ρόλο του χαρακτήρα και της αρετής για την επίλυση των σύχρονων ηθικών προβλημάτων, όπως για παράδειγμα ο διαδικτυακός εκφοβισμός (Harrison, 2016). Ο συγγραφέας υποστηρίζει ότι η τήρηση των κανόνων και η πρόβλεψη των συνεπειών των πράξεων μας στο διαδίκτυο αποτελεί πολλές φορές πρόκληση, καθώς το περιβάλλον είναι συνεχώς εξελισσόμενο. Ομοίως ο Couldry (2010) θεωρεί πως η ηθική της αρετής σχετίζεται άμεσα με την ψηφιακή εκπαίδευση και την ανάπτυξη απαραίτητων δεξιοτήτων για την χρήση της τεχνολογίας με υπεύθυνο τρόπο. Αυτό το είδος εκπαίδευσης είναι πολυδιάστατο και πολυθεματικό και για το λόγο αυτό υπάρχουν διαφορετικές ονομασίες στη βιβλιογραφία, όπως η «εκπαίδευση ψηφιακού πολίτη (digital citizenship)», «ψηφιακή ηθική (digital ethics)» και «ηθική στον κυβερνοχώρο(cyber ethics)». Αποτελεί επίσης συστατικό ευρύτερων όρων όπως «ψηφιακός γραμματισμός στα μέσα (digital literacy)» και «γραμματισμός (media literacy & data literacy) στα μέσα και πληροφορίες», μεταξύ άλλων. Ωστόσο, κοινός άξονας όλων των παραπάνω ορισμών είναι η ανησυχία για την καλή ζωή(well-being) και με την αίσθηση του ηθικού καθήκοντος και ευθύνης απέναντι στους άλλους, τόσο online όσο και offline.

Τα τελευταία χρόνια, η ταχύτερη ανάπτυξη προσωπικών υπολογιστών και πληροφοριακών συστημάτων έχει μετατρέψει την παραδοσιακή πρωτοβάθμια και δευτεροβάθμια εκπαίδευση σε μια πλήρως ή υβριδική ψηφιακή εκπαίδευση (Εκπαίδευση 5.0). Αυτό ενισχύθηκε κατά την περίοδο Covid-19, όπου όλοι οι μαθητές συμμετείχαν στα μαθήματα μέσω συστημάτων συνεργασίας (MS Teams, Zoom, Skype κ.λπ.). Οι μαθητές χρησιμοποιούν καθημερινά διάφορα συστήματα όπως πλατφόρμες eLearning, συστήματα ανίχνευσης λογοκλοπής, ηλεκτρονικές εγκυκλοπαίδειες, συστήματα επεξεργασίας λέξεων/παρουσιάσεων/φύλλων εργασίας, AI Powered Tools κ.λπ. για την προετοιμασία της εργασίας και των εργασιών τους.

Η Τεχνητή Νοημοσύνη (AI) είναι ένας κλάδος της Επιστήμης Υπολογιστών που περιλαμβάνει τη δημιουργία ευφυών μηχανών αφού τους παρέχει αλγόριθμους και κατευθύνσεις, για την εκτέλεση συγκεκριμένων εργασιών όπως η λήψη αποφάσεων, η ανάλυση δεδομένων, η μάθηση και η επίλυση προβλημάτων. Η τεχνητή νοημοσύνη απαιτεί ανθρώπινη νοημοσύνη η οποία παίζει καθοριστικό ρόλο στην εξέλιξη και ανάπτυξη αυτού του τομέα. Έχει εξελιχθεί σε αρκετές δεκαετίες χάρη στις συνεισφορές ερευνητών και προγραμματιστών. Θα μπορούσε επίσης να έχει ένα ευρύ φάσμα θετικών επιπτώσεων για την κοινωνία και την οικονομία γενικότερα. Μερικές από τις θετικές συνέπειες περιλαμβάνουν αυξημένη αποτελεσματικότητα, βελτιωμένο τρόπο εργασίας, μειωμένα λάθη, αυξημένη παραγωγή και κερδοφορία και βελτιωμένες υπηρεσίες προς τους πολίτες και ανάπτυξη προϊόντων.

Η έλευση της τεχνητής νοημοσύνης στις ζωές των ανθρώπων με τη χρήση ορισμένων εργαλείων επεξεργασίας φυσικής γλώσσας όπως το ChatGPT, το Bard, το Bing AI και άλλα, έχει επηρεάσει και την εκπαίδευση. Η τεχνητή νοημοσύνη έχει εφαρμοστεί ευρέως σε εκπαιδευτικές πρακτικές (Τεχνητή Νοημοσύνη στην Εκπαίδευση, AIEd), όπως έξυπνα συστήματα διδασκαλίας, ρομπότ διδασκαλίας, πίνακες αναλυτικών στοιχείων μάθησης, προσαρμοστικά συστήματα μάθησης, αλληλεπιδράσεις ανθρώπου-υπολογιστή κ.λπ. (Chen, Xie, & Hwang, 2020). Διαφορετικές μεθοδολογίες τεχνητής νοημοσύνης (επεξεργασία φυσικής γλώσσας, νευρωνικά δίκτυα, μηχανική μάθηση, βαθιά μάθηση, ανάλυση μεγάλων δεδομένων και γενετικοί αλγόριθμοι) έχουν εφαρμοστεί για τη δημιουργία έξυπνων περιβαλλόντων μάθησης για ανίχνευση συμπεριφοράς, δημιουργία μοντέλων πρόβλεψης, σύσταση μάθησης κ.λπ. (Chen, Xie, & Hwang, 2020; Rowe, 2019).

Καθώς η τεχνολογία και η κοινωνία εξελίσσονται συνεχώς, είναι προφανές ότι υπάρχει ανάγκη επαναπροσδιορισμού της ηθικής με βάση το νέο ψηφιακό οικοσύστημα. Η ηθική είναι προϊόν της εξελικτικής ιστορίας, με άλλα λόγια μια διάσταση της ηθικής είναι η προσαρμογή. Στο πλαίσιο αυτό, αναφερόμενοι στην ψηφιακή ηθική, οι ερευνητές εστιάζουν ουσιαστικά στον τρόπο εφαρμογής και προσαρμογής της ηθικής στα νέα ψηφιακά περιβάλλοντα. Συγκεκριμένα, η Ψηφιακή Δεοντολογία ασχολείται με τον αντίκτυπο της ενοποίησης των Τεχνολογιών Πληροφορικής και Επικοινωνιών (ΤΠΕ) στις κοινωνίες μας και στο περιβάλλον γενικότερα. Επικεντρώνεται σε μια σειρά θεμάτων και προβληματισμών όπως:

  • Τεχνητή Νοημοσύνη (AI) και αλγοριθμική λήψη αποφάσεων, συμπεριλαμβανομένης της δικαιοσύνης.
  • Η αυτοματοποίηση της ανθρώπινης νοημοσύνης για ρομποτική ή αυτόνομα οχήματα.
  • Τεχνητή νοημοσύνη και το μέλλον της εργασίας και της διακυβέρνησης.
  • Η χρήση ευφυών τεχνολογιών στην υγεία και την ιατρική.

Η αλγοριθμική λήψη αποφάσεων εγείρει μια σειρά από ερωτήματα:

  • Ποιος είναι υπεύθυνος όταν παραβιάζονται τα ανθρώπινα δικαιώματα με βάση μία αλγοριθμική απόφαση, το άτομο που προγραμμάτισε τον αλγόριθμο, ο χειριστής του αλγορίθμου ή ο άνθρωπος που εφάρμοσε την απόφαση;
  • Ποια είναι η διαφορά μεταξύ μιας τέτοιας απόφασης και μιας ανθρώπινης απόφασης;

Ταυτόχρονα, οι ερευνητές δίνουν έμφαση στον κρίσιμο ρόλο της ιδιωτικής και δημόσιας εκπαίδευσης για την ενίσχυση των δεξιοτήτων κριτικής σκέψης και την προώθηση μιας ηθικής κουλτούρας και χρήσης της τεχνολογίας.

* H Δρ. Άννα Μπούγια είναι AI ethics engineer στο Computer Technology Institute, Διόφαντος.

 


Συμμετείχαμε σε έρευνα ειδικών για τη χρήση νέων τεχνολογιών στον τομέα της εκπαίδευσης στο πλαίσιο του έργου MILES

Στην εποχή της υπερ-σύνδεσης, οι άνθρωποι κατακλύζονται από μια συνεχή ροή πληροφοριών και ειδήσεων που επιφέρει, αφενός, καλύτερη και σταθερή ενημέρωση για τα παγκόσμια γεγονότα και αφετέρου, πολλούς κινδύνους που σχετίζονται με ψευδείς ειδήσεις και παραπληροφόρηση.

Η Homo Digitalis είχε τη χαρά να συμμετέχει σε σχετική έρευνα-συζήτηση που εκπόνησε το έργο MILES (MIL and PRE-BUNKING approaches for Critical thinking in the education sector) και απευθυνόταν σε ειδικούς αναφορικά με τη χρήση νέων τεχνολογιών στον τομέα της εκπαίδευσης.

Στόχος της έρευνας-συζήτησης είναι η συγκέντρωση πληροφοριών σχετικά με την παραπληροφόρηση ώστε να αναπτυχθούν αποτελεσματικές στρατηγικές για τον τομέα της εκπαίδευσης. Η συζήτηση εστίασε σε θέματα όπως ο ψηφιακός αλφαβητισμός, η καλλιέργεια της κριτικής σκέψης ως εργαλείο για την αναγνώριση των ψευδών ειδήσεων, ο ρόλος της εκπαίδευσης και του εκπαιδευτικού συστήματος, καθώς και στη διερεύνηση πιθανών παρεμβάσεων πολιτικής.

Τη Homo Digitalis εκπροσώπησε στην έρευνα-συζήτηση η Διευθύντρια Δικαιωμάτων του Ανθρώπου & Τεχνητής Νοημοσύνης, Λαμπρινή Γυφτοκώστα. Ευχαριστούμε θερμά την  για τη συμπερίληψη και την τιμητική πρόσκληση την οργάνωση της κοινωνίας των πολιτών KMOP – Κέντρο Κοινωνικής Δράσης και Καινοτομίας.

 


Με μεγάλη επιτυχία ολοκληρώθηκε η συμμετοχή μας στην εκδήλωση "Η Τεχνητή Νοημοσύνη Συναντά την Εκπαίδευση" στο Πάρκο Καινοτομίας JOIST

Με μεγάλη επιτυχία ολοκληρώθηκε η συμμετοχή της Homo Digitalis με την ομιλία της Διευθύντριας μας για ζητήματα Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου, Λαμπρινής Γυφτοκώστα, στο  Πάρκο Καινοτομίας JOIST στην εκδήλωση “Η Τεχνητή Νοημοσύνη Συναντά την Εκπαίδευση” υπό την αιγίδα της Περιφερειακής Διεύθυνσης Εκπαίδευσης Θεσσαλίας.

Ευχαριστούμε θερμά το JOIST και την εκπρόσωπό του, κα. Κατερίνα Δημηνίκου, καθώς και τον κ. Νίκο Ζέρβα, Διευθυντή Δευτεροβάθμιας Εκπαίδευσης Λάρισας για την πρόσκληση συμμετοχής στην εκδήλωση τους, καθώς και τους πάνω από 200 εκπαιδευτικούς που βρέθηκαν εκεί.

H Homo Digitalis μίλησε για τον ψηφιακό αλφαβητισμό, τις διατάξεις της AI Act για την εκπαίδευση αλλά και για τις εμπειρίες της σε σχολεία δευτεροβάθμιας εκπαίδευσης στην επικράτεια. Φυσικά, το ενεργό παρόν έδωσε και ο το μέλος της Homo Digitalis στη Λάρισα, Αναστάσιος Αραμπατζής, ο οποίος μίλησε για το The Glassroom Misinformation Exhibition αλλά και την ανίχνευση deepfakes!”

 


Η Κρίση της Παραπληροφόρησης: Πώς η Τεχνητή Νοημοσύνη Ενισχύει την Παραπληροφόρηση την Περίοδο των Εκλογών

Γράφει ο Αναστάσιος Αραμπατζής

Η παραπληροφόρηση είναι τόσο παλιά όσο και η ίδια η πολιτική. Από τα πλαστά φυλλάδια μέχρι τις μεροληπτικές εφημερίδες, όσοι επιδιώκουν την εξουσία πάντα χειραγωγούσαν την πληροφόρηση. Σήμερα, μια τεχνολογική επανάσταση απειλεί να οδηγήσει την παραπληροφόρηση σε πρωτοφανή επίπεδα. Τα εργαλεία παραγωγικής τεχνητής νοημοσύνης (generative AI), ικανά να παράγουν παραπλανητικά κείμενα, εικόνες και βίντεο, δίνουν σε όσους επιδιώκουν να παραπλανήσουν ένα πρωτοφανές οπλοστάσιο. Το 2024, καθώς ένας αριθμός-ρεκόρ κρατών διεξάγει εκλογές, συμπεριλαμβανομένων των ευρωεκλογών τον Ιούνιο, τα ίδια τα θεμέλια των δημοκρατιών μας τρέμουν καθώς τα deepfakes και η προσαρμοσμένη προπαγάνδα απειλούν να πνίξουν την αλήθεια.

Η Παραπληροφόρηση στην Ψηφιακή Εποχή

Στην εποχή της ατελείωτης περιήγησης και των άμεσων ενημερώσεων, η παραπληροφόρηση εξαπλώνεται σαν πυρκαγιά στα μέσα κοινωνικής δικτύωσης. Δεν πρόκειται μόνο για σκόπιμα κατασκευασμένα ψέματα – είναι οι μισές αλήθειες, οι φήμες και το παραπλανητικό περιεχόμενο που αποκτούν δυναμική, διαμορφώνουν τις αντιλήψεις μας και μερικές φορές οδηγούν σε πραγματικές συνέπειες.

Σκεφτείτε την παραπληροφόρηση ως έναν παραμορφωμένο καθρέφτη. Η παραπληροφόρηση είναι ψευδείς ή παραπλανητικές πληροφορίες που παρουσιάζονται ως γεγονότα, ανεξάρτητα από το αν υπάρχει πρόθεση εξαπάτησης. Μπορεί να είναι ένα πιασάρικο μιμίδιο (meme) με αμφίβολη πηγή, ένα λάθος επιστημονικό πόρισμα ή ένα έξυπνα επεξεργασμένο βίντεο που τροφοδοτεί μια συγκεκριμένη αφήγηση.  Σε αντίθεση με την αποπροσανατολιστική πληροφόρηση (disinformation), η οποία είναι μια σκόπιμη διάδοση ψευδών γεγονότων, η παραπληροφόρηση μπορεί να παρεισφρήσει στις ροές ειδήσεών μας ακόμη και όταν μοιράζεται με καλές προθέσεις.

Πώς οι Αλγόριθμοι Αναπαράγουν το Πρόβλημα

Οι πλατφόρμες των μέσων κοινωνικής δικτύωσης καθοδηγούνται από αλγόριθμους που έχουν σχεδιαστεί για να μας κρατούν απασχολημένους. Δίνουν προτεραιότητα στο περιεχόμενο που προκαλεί έντονα συναισθήματα – οργή, φόβο ή εντυπωσιασμό – ώστε να κερδίσει περισσότερα κλικ. Δυστυχώς, η αλήθεια είναι συχνά λιγότερο συναρπαστική από τη συναισθηματικά φορτισμένη παραπληροφόρηση. Αυτοί οι αλγόριθμοι δεν κάνουν διακρίσεις βάσει της ακρίβειας. Με κάθε απερίσκεπτη κοινοποίηση ή θυμωμένο σχόλιο, ενισχύουμε περαιτέρω το παραπλανητικό περιεχόμενο.

Η Ψυχολογία της Πειθούς

Είναι εύκολο να κατηγορήσουμε την τεχνολογία, αλλά η αλήθεια είναι ότι εμείς οι άνθρωποι είμαστε «καλωδιωμένοι» με τρόπους που μας κάνουν ευάλωτους στην παραπληροφόρηση. Να γιατί:

  • Μεροληψία επιβεβαίωσης: Τείνουμε να προτιμούμε τις πληροφορίες που επιβεβαιώνουν αυτό που ήδη πιστεύουμε, ακόμη και αν είναι σαθρό. Αν κάτι ευθυγραμμίζεται με την κοσμοθεωρία μας, είναι λιγότερο πιθανό να αμφισβητήσουμε την εγκυρότητά του.
  • Έλλειψη κριτικής σκέψης: Σε έναν ταχέως εξελισσόμενο ψηφιακό κόσμο, πολλοί από εμάς δεν έχουμε το χρόνο ή τις δεξιότητες να ελέγξουμε κάθε ισχυρισμό που συναντάμε. Η παύση για να αξιολογήσουμε την αξιοπιστία μιας πηγής ή τη λογική ενός επιχειρήματος δεν είναι πάντα η προεπιλεγμένη μας «ρύθμιση».

Πώς η Παραγωγική Τεχνητή Νοημοσύνη Περιπλέκει το Παιχνίδι

Τα παραγωγικά μοντέλα ΤΝ μαθαίνουν από τεράστια σύνολα δεδομένων, επιτρέποντάς τους να παράγουν περιεχόμενο που δεν διακρίνεται από το ανθρώπινο έργο. Δείτε πώς αυτή η τεχνολογία περιπλέκει το τοπίο της παραπληροφόρησης:

  • Deepfakes: Τα βίντεο που δημιουργούνται με τεχνητή νοημοσύνη μπορούν να τοποθετούν πειστικά ανθρώπους σε καταστάσεις που δεν υπήρξαν ποτέ ή να τους κάνουν να λένε πράγματα που δεν είπαν ποτέ. Αυτό διευκολύνει την κατασκευή επιβαρυντικών ή εμπρηστικών “αποδείξεων” για τη χειραγώγηση της κοινής γνώμης.
  • Συνθετικό κείμενο: Τα εργαλεία τεχνητής νοημοσύνης μπορούν να παράγουν μεγάλες ποσότητες παραπλανητικού κειμένου, όπως ψεύτικα άρθρα ειδήσεων ή αναρτήσεις στα μέσα κοινωνικής δικτύωσης που έχουν σχεδιαστεί για να φαίνονται αυθεντικές. Αυτό μπορεί να εξουδετερώσει τις προσπάθειες ελέγχου των γεγονότων (fact-checking).
  • Φτηνή και εύκολη παραπληροφόρηση: Το (τεχνολογικό) όριο για τη δημιουργία πειστικής παραπληροφόρησης μειώνεται συνεχώς. Οι κακόβουλοι δρώντες δεν χρειάζονται εξελιγμένες τεχνικές δεξιότητες – απλά εργαλεία τεχνητής νοημοσύνης μπορούν να ενισχύσουν τις προσπάθειές τους.

Οι Κίνδυνοι της Παραπληροφόρησης

Ο αντίκτυπος της παραπληροφόρησης υπερβαίνει κατά πολύ τα πληγωμένα συναισθήματα:

  • Μολύνει τον δημόσιο διάλογο: Η παραπληροφόρηση εμποδίζει την τεκμηριωμένη συζήτηση. Οδηγεί σε παρανοήσεις σχετικά με σημαντικά ζητήματα και δυσχεραίνει την εξεύρεση συναίνεσης.
  • Υπονομεύει την εμπιστοσύνη: Όταν δεν μπορούμε να συμφωνήσουμε σε βασικά γεγονότα, καταρρέει η εμπιστοσύνη στους θεσμούς, στην επιστήμη, ακόμη και στη δημοκρατική διαδικασία.
  • Στοχευμένη χειραγώγηση: Τα εργαλεία τεχνητής νοημοσύνης μπορούν να επιτρέψουν εξαιρετικά εξατομικευμένες εκστρατείες παραπληροφόρησης που εκμεταλλεύονται συγκεκριμένα τρωτά σημεία ή προκαταλήψεις ατόμων και ομάδων.
  • Επιρροή στις αποφάσεις: Η παραπληροφόρηση μπορεί να επηρεάσει προσωπικές αποφάσεις, συμπεριλαμβανομένης της υπερψήφισης υποψηφίων με λιγότερα προσόντα ή της προώθησης ριζοσπαστικών προγραμμάτων.

Τι Μπορεί να Γίνει;

Δεν υπάρχει μια απλή, εύκολη απάντηση για την καταπολέμηση της διάδοσης της παραπληροφόρησης. Η παραπληροφόρηση ευδοκιμεί σε έναν περίπλοκο ιστό ανθρώπινης ψυχολογίας, τεχνολογικών κενών και πολιτικών ατζέντων. Ωστόσο, η αναγνώριση αυτών των προκλήσεων είναι το πρώτο βήμα προς την οικοδόμηση αποτελεσματικών λύσεων.  Ακολουθούν ορισμένοι κρίσιμοι τομείς στους οποίους αξίζει να επικεντρωθεί κανείς:

  • Ενίσχυση του τεχνολογικού αλφαβητισμού: Σε έναν ψηφιακό κόσμο, η ικανότητα διάκρισης αξιόπιστων πηγών από αμφισβητούμενες είναι υψίστης σημασίας. Οι εκπαιδευτικές εκστρατείες, τα εργαστήρια και οι προσβάσιμοι διαδικτυακοί πόροι θα πρέπει να στοχεύουν στο να διδάξουν στο κοινό πώς να εντοπίζει τις “κόκκινες σημαίες” των ψευδών ειδήσεων: εντυπωσιακούς τίτλους, μη επαληθευμένες πηγές, κακοφτιαγμένους ιστότοπους ή συναισθηματικά φορτισμένη γλώσσα.
  • Επένδυση στον έλεγχο των γεγονότων: Η υποστήριξη ανεξάρτητων οργανισμών ελέγχου των γεγονότων είναι ζωτικής σημασίας. Αυτοί δρουν ως ανεξάρτητοι παρατηρητές, εξετάζοντας τις ειδήσεις, τους ισχυρισμούς των πολιτικών και το περιεχόμενο των ιών.  Τα μέσα ενημέρωσης θα πρέπει να εξετάσουν το ενδεχόμενο να επισημαίνουν εμφανώς το περιεχόμενο που έχει επαληθευτεί ή να επισημαίνουν σαφώς τις δυνητικά παραπλανητικές πληροφορίες.
  • Εξισορρόπηση ευθύνης και ελευθερίας: Οι εταιρείες μέσων κοινωνικής δικτύωσης και οι μηχανές αναζήτησης φέρουν σημαντική ευθύνη για τον περιορισμό της ροής της παραπληροφόρησης. Η Πράξη Ψηφιακών Υπηρεσιών (Digital Services Act, DSA) της ΕΕ υπογραμμίζει αυτή την ευθύνη, θέτοντας απαιτήσεις στις πλατφόρμες για την αντιμετώπιση του επιβλαβούς περιεχομένου. Ωστόσο, πρόκειται για έναν ευαίσθητο τομέα, καθώς η σκληρή λογοκρισία μπορεί να υπονομεύσει την ελευθερία του λόγου. Στρατηγικές όπως η υποβάθμιση αναξιόπιστων πηγών, η συνεργασία με φορείς ελέγχου γεγονότων και η παροχή πλαισίου για ύποπτο περιεχόμενο μπορούν να βοηθήσουν, αλλά η εύρεση της σωστής ισορροπίας είναι ένας συνεχής αγώνας, ακόμη και στο πλαίσιο κανονισμών όπως η DSA.
  • Η σημασία της προσωπικής υπευθυνότητας: Ακόμη και με τις θεσμικές αλλαγές, τα άτομα διαδραματίζουν ζωτικό ρόλο. Είναι σημαντικό να είστε επιφυλακτικοί, να κάνετε ερωτήσεις σχετικά με το από πού προέρχονται οι πληροφορίες και να έχετε υπόψη σας τις συναισθηματικές αντιδράσεις που προκαλεί το περιεχόμενο. Πριν μοιραστείτε οτιδήποτε, επαληθεύστε το με μια αξιόπιστη πηγή. Η κριτική σκέψη μπορεί να σπάσει τον κύκλο της παραπληροφόρησης.

Ο αγώνας κατά της παραπληροφόρησης είναι μαραθώνιος, όχι σπριντ. Καθώς η τεχνολογία εξελίσσεται, πρέπει να εξελίσσονται και οι στρατηγικές μας. Πρέπει να παραμένουμε σε εγρήγορση για να προστατεύσουμε την ελευθερία του λόγου και ταυτόχρονα να διαφυλάξουμε την αλήθεια.