H Homo Digitalis συμμετέχει για 4η φορά στο CPDP!

H Homo Digitalis συμμετέχει για 4η φορά στο CPDP, το πλέον αναγνωρισμένο διεθνές συνέδριο για την προστασία των προσωπικών δεδομένων και της ιδιωτικότητας!

Μετά από τις συνεχόμενες παρουσίες μας εκεί με ομιλίες σε πάνελ και workshop, φέτος έχουμε τη τιμή να δίνουμε το παρόν με ένα νέο μέσο! Συγκεκριμένα, θα δώσουμε συνέντευξη στο πλαίσιο του Avatar.fm, ενός live radio project που οργανώνει ο κοινωνικός ραδιοφωνικός σταθμός dublab.de και το privacy salon κατά τη διάρκεια του CPDP!

To Avatar.fm θα δίνει τον παλμό του συνεδρίου από τις 22 έως τις 24 Μάη, αποτελώντας βήμα για οργανώσεις με ηγετικό ρόλο στην προστασία των προσωπικών δεδομένων και της ιδιωτικότητας, αναδεικνύοντας τις δράσεις τους στον τομέα της Τεχνητής Νοημοσύνης και των νέων τεχνολογιών!

Το Avatar.fm θα εκπέμπει  ζωντανά από το εμβληματικό Gare Maritime στις Βρυξέλλες, ενώ θα φιλοξενεί και μαγνητοσκοπημένες εκπομπές, καθώς και live DJ Sets! Όσες και όσοι δεν βρισκόσαστε εκεί, μπορείτε να ακούσετε τις εκπομπές στην ιστοσελίδα dublab.de

Τη Homo Digitalis θα εκπροσωπήσει στην εν λόγω συνέντευξη η Διευθύντρια Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου, Λαμπρινή Γυφτοκώστα.

Μείνετε συντονισμένες και συντονισμένοι για το πλήρες πρόγραμμα!

 


Ψηφιακή Νοημοσύνη και Ψηφιακή Ηθική στην Εκπαίδευση

Γράφει η Δρ. Άννα Μπούγια*

Θα αφήνατε ποτέ τα παιδιά σας μόνα στους δρόμους της Νέας Υόρκης; Αναρωτιέται η  Δρ Aiken (2016, p.121), κορυφαία κυβερνοψυχολόγος. Ωστόσο, πολλοί γονείς   αφήνουν τα παιδιά μόνα τους στον κυνερνοχώρο. Η Δρ Aiken (2016) καταλήγει πως αυτή τη στιγμή διεξάγεται παγκοσμίως το μεγαλύτερο και ρεαλιστικότερο πείραμα με συμμετέχοντες παιδιά και νέους, οι οποίοι αν και ψηφιακά εγγράμματοι σε σχέση με τις προηγούμενες γενεές, έρχονται αντιμέτωποι με  διλήμματα και προκλήσεις στα διαρκώς εξελισσόμενα ψηφιακά περιβάλλοντα.

Πώς μπορεί η εκπαίδευση να συμβάλλει στη νέα κοινωνική πρόκληση;

Είναι γεγονός πως ο προγραμματισμός και η υπολογιστική σκέψη εντάσσεται πλέον στο πρόγραμμα μαθημάτων της πρωτοβάθμιας και δευτεροβάθμιας εκπαίδευσης, ενώ αντίστοιχα και η Τριτοβάθμια εκπαίδευση δίνει έμφαση στην ενίσχυση των ψηφιακών δεξιοτήτων. Το 2022, προστέθηκε στο e-learning του Καποδιστριακού Πανεπιστημίου Αθηνών, το πρώτο πρόγραμμα «Ανάπτυξης Ψηφιακής Νοημοσύνης» με έμφαση στις ψυχοκοινωνικές δεξιότητες που καλούνται να αναπτύξουν οι χρήστες του διαδικτύου. Συγκεκριμένα οι εκπαιδευόμενοι  διερευνούν τις παιδαγωγικές δυνατότητες που προσφέρει η ηλεκτρονική εκπαίδευση. Επίσης, επιχειρείται η εμβάθυνση σε θέματα που αφορούν στη διαχείριση του ψηφιακού αποτυπώματος, εστιάζοντας στις διαφορές, τις ιδιαιτερότητες και τον αντίκτυπο της προβολής της προσωπικής και κοινωνικής μας ταυτότητας μέσω του διαδικτύου. Στην κατεύθυνση αυτή οι εκπαιδευόμενοι εξοικειώνονται με στρατηγικές διαχείρισης του ψηφιακού τους αποτυπώματος και της ψηφιακής τους ταυτότητας. Επιπλέον, στο πρόγραμμα προτείνονται και αναλύονται σύγχρονες θεωρίες και στρατηγικές για την ηθική χρήση της τεχνολογίας (Σμυρναίου, Μπούγια, 2022). Ωστόσο, η ενσωμάτωση της Ψηφιακής νοημοσύνης και ειδικότερα της ψηφιακής ηθικής παραμένει πρόκληση καθώς τα τεχνολογικά περιβάλλοντα εξελίσσονται διαρκώς όπως και οι αντιλήψεις της νέες γενιάς αναφορικά με τη χρήση των νέων τεχνολογιών.

Σε μία ποιοτική μελέτη που διενεργήθηκε το 2012 από τον Gardner και την ομάδα του, με στόχο τη διερεύνηση των αντιλήψεων των νέων ανθρώπων αναφορικά με την έννοια της ηθικής στο διαδίκτυο, αλλά και την ενίσχυση της ηθικής σκέψης, οι ερευνητές του “Good play project” ανακάλυψαν πως οι νέοι επιδεικνύου συχνά μία ηθική τυφλότητα σε θέματα ιδιωτικότητας, ιδιοκτησίας, και διάδρασης όταν σερφάρουν στο διαδίκτυο. Συγκεκριμένα, η ανάλυση των συνεντεύξεων των συμμετεχόντων, ηλικία; 10 έως 25 ετών αποκάλυψε τα παρακάτω είδη αντιλήψεων που τείνουν να διαμορφώνουν κατά τη διάρκεια της διάδρασής τους στο διαδίκτυο: α) Σκέψη εστιασμένη στον εαυτό (Σκέφτονται τις προσωπικές συνέπειες των πράξεών τους), β)χρηστός τρόπος σκέψης (σκέφτονται τις ηθικές συνέπειες των πράξεών τους σε ανθρώπους που γνωρίζουν, γ) ηθικός τρόπος σκέψης (σκέφτονται τις συνέπειες που έχουν οι πράξεις του στην κοινότητα και σε άγνωστους ανθρώπους. Η έρευνα καταλήγει πως υπάρχει ένα ηθικό κενό που πρέπει να γεφυρωθεί καθώς η ασυνείδητη ηθική τυφλότητα του δείχνουν περιστασιακά οι νέοι κατά τη διάδρασή τους μπορεί να καταλήξει σε συνειδητή επιλογή αποσύνδεσης της ηθικής σκέψης και προτεραιοποίησης του προσωπικού συμφέροντος. Η αλήθεια είναι πως η εκπαίδευση αναφορικά με τους ηθικούς κινδύνους του διαδικτύου εστιάζει κυρίως στη μεμονωμένη προστασία του ατόμου, την αποφυγή ριψοκίνδυνων συμπεριφορών, την προστασία της ιδιωτικότητας και λιγότερο στην υποχρέωσή μας  Η εκπαίδευση μπορεί να παίξει καταλυτικό ρόλο στην ενίσχυση και εξάσκηση της ηθικής σκέψης και δράσης σε όλους τους τομείς της ανθρώπινης ζωής εστιάζοντας στη σύνδεση και μεταφορά των δεξιοτήτων ηθικής σκέψης από το φυσικό στο διαδικτυακό περιβάλλον (James, 2014).

Στην ίδια γραμμή, η Shannon Vallor (2016) καθηγήτρια τεχνοηθικής του Πανεπιστημίου του Εδιμβούργου επιμένει ότι η ανθρωπότητα πρέπει να αναπτύξει «τεχνοηθικές αρετές» (Vallor, 2016 , σελ. 3). Σύμφωνα με την Vallor, μια σύγχρονη θεωρία της ηθικής «πρέπει να περιλαμβάνει την εφαρμογή ενός κανονιστικού πλαισίου για το πώς να ζεις καλά με τις τεχνολογίες, ειδικά αυτές που αναδύονται ακόμη και δεν έχουν ακόμη διευθετηθεί».  Στο βιβλίο  Technology and the Virtues, η Vallor (2016) ισχυρίζεται πως η εφαρμογή της  αρετολογικής ηθικής και κατά συνέπεια η καλλιέργεια αρετών του χαρακτήρα, όπως η υπομονή, το θάρρος, η ειλικρίνεια και η ενσυναίσθηση  στον τομέα της ηθικής της τεχνολογίας, μπορεί να μειώσει τη διαδικτυακή βία στα μέσα κοινωνικής δικτύωσης και να οδηγήσει στην υπεύθυνη χρήση της τεχνολογίας. Οι κυρίαρχες ηθικές θεωρίες που κυριαρχούσαν  μέχρι πρόσφατα στην ηθική της τεχνολογίας ήταν ωφελιμιστικές και δεοντολογικές, ωστόσο, αρκετοί συγγραφείς και ηθικοί φιλόσοφοι έστρεψαν την προσοχή στο ρόλο του χαρακτήρα και της αρετής για την επίλυση των σύχρονων ηθικών προβλημάτων, όπως για παράδειγμα ο διαδικτυακός εκφοβισμός (Harrison, 2016). Ο συγγραφέας υποστηρίζει ότι η τήρηση των κανόνων και η πρόβλεψη των συνεπειών των πράξεων μας στο διαδίκτυο αποτελεί πολλές φορές πρόκληση, καθώς το περιβάλλον είναι συνεχώς εξελισσόμενο. Ομοίως ο Couldry (2010) θεωρεί πως η ηθική της αρετής σχετίζεται άμεσα με την ψηφιακή εκπαίδευση και την ανάπτυξη απαραίτητων δεξιοτήτων για την χρήση της τεχνολογίας με υπεύθυνο τρόπο. Αυτό το είδος εκπαίδευσης είναι πολυδιάστατο και πολυθεματικό και για το λόγο αυτό υπάρχουν διαφορετικές ονομασίες στη βιβλιογραφία, όπως η «εκπαίδευση ψηφιακού πολίτη (digital citizenship)», «ψηφιακή ηθική (digital ethics)» και «ηθική στον κυβερνοχώρο(cyber ethics)». Αποτελεί επίσης συστατικό ευρύτερων όρων όπως «ψηφιακός γραμματισμός στα μέσα (digital literacy)» και «γραμματισμός (media literacy & data literacy) στα μέσα και πληροφορίες», μεταξύ άλλων. Ωστόσο, κοινός άξονας όλων των παραπάνω ορισμών είναι η ανησυχία για την καλή ζωή(well-being) και με την αίσθηση του ηθικού καθήκοντος και ευθύνης απέναντι στους άλλους, τόσο online όσο και offline.

Τα τελευταία χρόνια, η ταχύτερη ανάπτυξη προσωπικών υπολογιστών και πληροφοριακών συστημάτων έχει μετατρέψει την παραδοσιακή πρωτοβάθμια και δευτεροβάθμια εκπαίδευση σε μια πλήρως ή υβριδική ψηφιακή εκπαίδευση (Εκπαίδευση 5.0). Αυτό ενισχύθηκε κατά την περίοδο Covid-19, όπου όλοι οι μαθητές συμμετείχαν στα μαθήματα μέσω συστημάτων συνεργασίας (MS Teams, Zoom, Skype κ.λπ.). Οι μαθητές χρησιμοποιούν καθημερινά διάφορα συστήματα όπως πλατφόρμες eLearning, συστήματα ανίχνευσης λογοκλοπής, ηλεκτρονικές εγκυκλοπαίδειες, συστήματα επεξεργασίας λέξεων/παρουσιάσεων/φύλλων εργασίας, AI Powered Tools κ.λπ. για την προετοιμασία της εργασίας και των εργασιών τους.

Η Τεχνητή Νοημοσύνη (AI) είναι ένας κλάδος της Επιστήμης Υπολογιστών που περιλαμβάνει τη δημιουργία ευφυών μηχανών αφού τους παρέχει αλγόριθμους και κατευθύνσεις, για την εκτέλεση συγκεκριμένων εργασιών όπως η λήψη αποφάσεων, η ανάλυση δεδομένων, η μάθηση και η επίλυση προβλημάτων. Η τεχνητή νοημοσύνη απαιτεί ανθρώπινη νοημοσύνη η οποία παίζει καθοριστικό ρόλο στην εξέλιξη και ανάπτυξη αυτού του τομέα. Έχει εξελιχθεί σε αρκετές δεκαετίες χάρη στις συνεισφορές ερευνητών και προγραμματιστών. Θα μπορούσε επίσης να έχει ένα ευρύ φάσμα θετικών επιπτώσεων για την κοινωνία και την οικονομία γενικότερα. Μερικές από τις θετικές συνέπειες περιλαμβάνουν αυξημένη αποτελεσματικότητα, βελτιωμένο τρόπο εργασίας, μειωμένα λάθη, αυξημένη παραγωγή και κερδοφορία και βελτιωμένες υπηρεσίες προς τους πολίτες και ανάπτυξη προϊόντων.

Η έλευση της τεχνητής νοημοσύνης στις ζωές των ανθρώπων με τη χρήση ορισμένων εργαλείων επεξεργασίας φυσικής γλώσσας όπως το ChatGPT, το Bard, το Bing AI και άλλα, έχει επηρεάσει και την εκπαίδευση. Η τεχνητή νοημοσύνη έχει εφαρμοστεί ευρέως σε εκπαιδευτικές πρακτικές (Τεχνητή Νοημοσύνη στην Εκπαίδευση, AIEd), όπως έξυπνα συστήματα διδασκαλίας, ρομπότ διδασκαλίας, πίνακες αναλυτικών στοιχείων μάθησης, προσαρμοστικά συστήματα μάθησης, αλληλεπιδράσεις ανθρώπου-υπολογιστή κ.λπ. (Chen, Xie, & Hwang, 2020). Διαφορετικές μεθοδολογίες τεχνητής νοημοσύνης (επεξεργασία φυσικής γλώσσας, νευρωνικά δίκτυα, μηχανική μάθηση, βαθιά μάθηση, ανάλυση μεγάλων δεδομένων και γενετικοί αλγόριθμοι) έχουν εφαρμοστεί για τη δημιουργία έξυπνων περιβαλλόντων μάθησης για ανίχνευση συμπεριφοράς, δημιουργία μοντέλων πρόβλεψης, σύσταση μάθησης κ.λπ. (Chen, Xie, & Hwang, 2020; Rowe, 2019).

Καθώς η τεχνολογία και η κοινωνία εξελίσσονται συνεχώς, είναι προφανές ότι υπάρχει ανάγκη επαναπροσδιορισμού της ηθικής με βάση το νέο ψηφιακό οικοσύστημα. Η ηθική είναι προϊόν της εξελικτικής ιστορίας, με άλλα λόγια μια διάσταση της ηθικής είναι η προσαρμογή. Στο πλαίσιο αυτό, αναφερόμενοι στην ψηφιακή ηθική, οι ερευνητές εστιάζουν ουσιαστικά στον τρόπο εφαρμογής και προσαρμογής της ηθικής στα νέα ψηφιακά περιβάλλοντα. Συγκεκριμένα, η Ψηφιακή Δεοντολογία ασχολείται με τον αντίκτυπο της ενοποίησης των Τεχνολογιών Πληροφορικής και Επικοινωνιών (ΤΠΕ) στις κοινωνίες μας και στο περιβάλλον γενικότερα. Επικεντρώνεται σε μια σειρά θεμάτων και προβληματισμών όπως:

  • Τεχνητή Νοημοσύνη (AI) και αλγοριθμική λήψη αποφάσεων, συμπεριλαμβανομένης της δικαιοσύνης.
  • Η αυτοματοποίηση της ανθρώπινης νοημοσύνης για ρομποτική ή αυτόνομα οχήματα.
  • Τεχνητή νοημοσύνη και το μέλλον της εργασίας και της διακυβέρνησης.
  • Η χρήση ευφυών τεχνολογιών στην υγεία και την ιατρική.

Η αλγοριθμική λήψη αποφάσεων εγείρει μια σειρά από ερωτήματα:

  • Ποιος είναι υπεύθυνος όταν παραβιάζονται τα ανθρώπινα δικαιώματα με βάση μία αλγοριθμική απόφαση, το άτομο που προγραμμάτισε τον αλγόριθμο, ο χειριστής του αλγορίθμου ή ο άνθρωπος που εφάρμοσε την απόφαση;
  • Ποια είναι η διαφορά μεταξύ μιας τέτοιας απόφασης και μιας ανθρώπινης απόφασης;

Ταυτόχρονα, οι ερευνητές δίνουν έμφαση στον κρίσιμο ρόλο της ιδιωτικής και δημόσιας εκπαίδευσης για την ενίσχυση των δεξιοτήτων κριτικής σκέψης και την προώθηση μιας ηθικής κουλτούρας και χρήσης της τεχνολογίας.

* H Δρ. Άννα Μπούγια είναι AI ethics engineer στο Computer Technology Institute, Διόφαντος.

 


Συμμετείχαμε σε έρευνα ειδικών για τη χρήση νέων τεχνολογιών στον τομέα της εκπαίδευσης στο πλαίσιο του έργου MILES

Στην εποχή της υπερ-σύνδεσης, οι άνθρωποι κατακλύζονται από μια συνεχή ροή πληροφοριών και ειδήσεων που επιφέρει, αφενός, καλύτερη και σταθερή ενημέρωση για τα παγκόσμια γεγονότα και αφετέρου, πολλούς κινδύνους που σχετίζονται με ψευδείς ειδήσεις και παραπληροφόρηση.

Η Homo Digitalis είχε τη χαρά να συμμετέχει σε σχετική έρευνα-συζήτηση που εκπόνησε το έργο MILES (MIL and PRE-BUNKING approaches for Critical thinking in the education sector) και απευθυνόταν σε ειδικούς αναφορικά με τη χρήση νέων τεχνολογιών στον τομέα της εκπαίδευσης.

Στόχος της έρευνας-συζήτησης είναι η συγκέντρωση πληροφοριών σχετικά με την παραπληροφόρηση ώστε να αναπτυχθούν αποτελεσματικές στρατηγικές για τον τομέα της εκπαίδευσης. Η συζήτηση εστίασε σε θέματα όπως ο ψηφιακός αλφαβητισμός, η καλλιέργεια της κριτικής σκέψης ως εργαλείο για την αναγνώριση των ψευδών ειδήσεων, ο ρόλος της εκπαίδευσης και του εκπαιδευτικού συστήματος, καθώς και στη διερεύνηση πιθανών παρεμβάσεων πολιτικής.

Τη Homo Digitalis εκπροσώπησε στην έρευνα-συζήτηση η Διευθύντρια Δικαιωμάτων του Ανθρώπου & Τεχνητής Νοημοσύνης, Λαμπρινή Γυφτοκώστα. Ευχαριστούμε θερμά την  για τη συμπερίληψη και την τιμητική πρόσκληση την οργάνωση της κοινωνίας των πολιτών KMOP – Κέντρο Κοινωνικής Δράσης και Καινοτομίας.

 


Με μεγάλη επιτυχία ολοκληρώθηκε η συμμετοχή μας στην εκδήλωση "Η Τεχνητή Νοημοσύνη Συναντά την Εκπαίδευση" στο Πάρκο Καινοτομίας JOIST

Με μεγάλη επιτυχία ολοκληρώθηκε η συμμετοχή της Homo Digitalis με την ομιλία της Διευθύντριας μας για ζητήματα Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου, Λαμπρινής Γυφτοκώστα, στο  Πάρκο Καινοτομίας JOIST στην εκδήλωση “Η Τεχνητή Νοημοσύνη Συναντά την Εκπαίδευση” υπό την αιγίδα της Περιφερειακής Διεύθυνσης Εκπαίδευσης Θεσσαλίας.

Ευχαριστούμε θερμά το JOIST και την εκπρόσωπό του, κα. Κατερίνα Δημηνίκου, καθώς και τον κ. Νίκο Ζέρβα, Διευθυντή Δευτεροβάθμιας Εκπαίδευσης Λάρισας για την πρόσκληση συμμετοχής στην εκδήλωση τους, καθώς και τους πάνω από 200 εκπαιδευτικούς που βρέθηκαν εκεί.

H Homo Digitalis μίλησε για τον ψηφιακό αλφαβητισμό, τις διατάξεις της AI Act για την εκπαίδευση αλλά και για τις εμπειρίες της σε σχολεία δευτεροβάθμιας εκπαίδευσης στην επικράτεια. Φυσικά, το ενεργό παρόν έδωσε και ο το μέλος της Homo Digitalis στη Λάρισα, Αναστάσιος Αραμπατζής, ο οποίος μίλησε για το The Glassroom Misinformation Exhibition αλλά και την ανίχνευση deepfakes!”

 


Η Κρίση της Παραπληροφόρησης: Πώς η Τεχνητή Νοημοσύνη Ενισχύει την Παραπληροφόρηση την Περίοδο των Εκλογών

Γράφει ο Αναστάσιος Αραμπατζής

Η παραπληροφόρηση είναι τόσο παλιά όσο και η ίδια η πολιτική. Από τα πλαστά φυλλάδια μέχρι τις μεροληπτικές εφημερίδες, όσοι επιδιώκουν την εξουσία πάντα χειραγωγούσαν την πληροφόρηση. Σήμερα, μια τεχνολογική επανάσταση απειλεί να οδηγήσει την παραπληροφόρηση σε πρωτοφανή επίπεδα. Τα εργαλεία παραγωγικής τεχνητής νοημοσύνης (generative AI), ικανά να παράγουν παραπλανητικά κείμενα, εικόνες και βίντεο, δίνουν σε όσους επιδιώκουν να παραπλανήσουν ένα πρωτοφανές οπλοστάσιο. Το 2024, καθώς ένας αριθμός-ρεκόρ κρατών διεξάγει εκλογές, συμπεριλαμβανομένων των ευρωεκλογών τον Ιούνιο, τα ίδια τα θεμέλια των δημοκρατιών μας τρέμουν καθώς τα deepfakes και η προσαρμοσμένη προπαγάνδα απειλούν να πνίξουν την αλήθεια.

Η Παραπληροφόρηση στην Ψηφιακή Εποχή

Στην εποχή της ατελείωτης περιήγησης και των άμεσων ενημερώσεων, η παραπληροφόρηση εξαπλώνεται σαν πυρκαγιά στα μέσα κοινωνικής δικτύωσης. Δεν πρόκειται μόνο για σκόπιμα κατασκευασμένα ψέματα – είναι οι μισές αλήθειες, οι φήμες και το παραπλανητικό περιεχόμενο που αποκτούν δυναμική, διαμορφώνουν τις αντιλήψεις μας και μερικές φορές οδηγούν σε πραγματικές συνέπειες.

Σκεφτείτε την παραπληροφόρηση ως έναν παραμορφωμένο καθρέφτη. Η παραπληροφόρηση είναι ψευδείς ή παραπλανητικές πληροφορίες που παρουσιάζονται ως γεγονότα, ανεξάρτητα από το αν υπάρχει πρόθεση εξαπάτησης. Μπορεί να είναι ένα πιασάρικο μιμίδιο (meme) με αμφίβολη πηγή, ένα λάθος επιστημονικό πόρισμα ή ένα έξυπνα επεξεργασμένο βίντεο που τροφοδοτεί μια συγκεκριμένη αφήγηση.  Σε αντίθεση με την αποπροσανατολιστική πληροφόρηση (disinformation), η οποία είναι μια σκόπιμη διάδοση ψευδών γεγονότων, η παραπληροφόρηση μπορεί να παρεισφρήσει στις ροές ειδήσεών μας ακόμη και όταν μοιράζεται με καλές προθέσεις.

Πώς οι Αλγόριθμοι Αναπαράγουν το Πρόβλημα

Οι πλατφόρμες των μέσων κοινωνικής δικτύωσης καθοδηγούνται από αλγόριθμους που έχουν σχεδιαστεί για να μας κρατούν απασχολημένους. Δίνουν προτεραιότητα στο περιεχόμενο που προκαλεί έντονα συναισθήματα – οργή, φόβο ή εντυπωσιασμό – ώστε να κερδίσει περισσότερα κλικ. Δυστυχώς, η αλήθεια είναι συχνά λιγότερο συναρπαστική από τη συναισθηματικά φορτισμένη παραπληροφόρηση. Αυτοί οι αλγόριθμοι δεν κάνουν διακρίσεις βάσει της ακρίβειας. Με κάθε απερίσκεπτη κοινοποίηση ή θυμωμένο σχόλιο, ενισχύουμε περαιτέρω το παραπλανητικό περιεχόμενο.

Η Ψυχολογία της Πειθούς

Είναι εύκολο να κατηγορήσουμε την τεχνολογία, αλλά η αλήθεια είναι ότι εμείς οι άνθρωποι είμαστε «καλωδιωμένοι» με τρόπους που μας κάνουν ευάλωτους στην παραπληροφόρηση. Να γιατί:

  • Μεροληψία επιβεβαίωσης: Τείνουμε να προτιμούμε τις πληροφορίες που επιβεβαιώνουν αυτό που ήδη πιστεύουμε, ακόμη και αν είναι σαθρό. Αν κάτι ευθυγραμμίζεται με την κοσμοθεωρία μας, είναι λιγότερο πιθανό να αμφισβητήσουμε την εγκυρότητά του.
  • Έλλειψη κριτικής σκέψης: Σε έναν ταχέως εξελισσόμενο ψηφιακό κόσμο, πολλοί από εμάς δεν έχουμε το χρόνο ή τις δεξιότητες να ελέγξουμε κάθε ισχυρισμό που συναντάμε. Η παύση για να αξιολογήσουμε την αξιοπιστία μιας πηγής ή τη λογική ενός επιχειρήματος δεν είναι πάντα η προεπιλεγμένη μας «ρύθμιση».

Πώς η Παραγωγική Τεχνητή Νοημοσύνη Περιπλέκει το Παιχνίδι

Τα παραγωγικά μοντέλα ΤΝ μαθαίνουν από τεράστια σύνολα δεδομένων, επιτρέποντάς τους να παράγουν περιεχόμενο που δεν διακρίνεται από το ανθρώπινο έργο. Δείτε πώς αυτή η τεχνολογία περιπλέκει το τοπίο της παραπληροφόρησης:

  • Deepfakes: Τα βίντεο που δημιουργούνται με τεχνητή νοημοσύνη μπορούν να τοποθετούν πειστικά ανθρώπους σε καταστάσεις που δεν υπήρξαν ποτέ ή να τους κάνουν να λένε πράγματα που δεν είπαν ποτέ. Αυτό διευκολύνει την κατασκευή επιβαρυντικών ή εμπρηστικών “αποδείξεων” για τη χειραγώγηση της κοινής γνώμης.
  • Συνθετικό κείμενο: Τα εργαλεία τεχνητής νοημοσύνης μπορούν να παράγουν μεγάλες ποσότητες παραπλανητικού κειμένου, όπως ψεύτικα άρθρα ειδήσεων ή αναρτήσεις στα μέσα κοινωνικής δικτύωσης που έχουν σχεδιαστεί για να φαίνονται αυθεντικές. Αυτό μπορεί να εξουδετερώσει τις προσπάθειες ελέγχου των γεγονότων (fact-checking).
  • Φτηνή και εύκολη παραπληροφόρηση: Το (τεχνολογικό) όριο για τη δημιουργία πειστικής παραπληροφόρησης μειώνεται συνεχώς. Οι κακόβουλοι δρώντες δεν χρειάζονται εξελιγμένες τεχνικές δεξιότητες – απλά εργαλεία τεχνητής νοημοσύνης μπορούν να ενισχύσουν τις προσπάθειές τους.

Οι Κίνδυνοι της Παραπληροφόρησης

Ο αντίκτυπος της παραπληροφόρησης υπερβαίνει κατά πολύ τα πληγωμένα συναισθήματα:

  • Μολύνει τον δημόσιο διάλογο: Η παραπληροφόρηση εμποδίζει την τεκμηριωμένη συζήτηση. Οδηγεί σε παρανοήσεις σχετικά με σημαντικά ζητήματα και δυσχεραίνει την εξεύρεση συναίνεσης.
  • Υπονομεύει την εμπιστοσύνη: Όταν δεν μπορούμε να συμφωνήσουμε σε βασικά γεγονότα, καταρρέει η εμπιστοσύνη στους θεσμούς, στην επιστήμη, ακόμη και στη δημοκρατική διαδικασία.
  • Στοχευμένη χειραγώγηση: Τα εργαλεία τεχνητής νοημοσύνης μπορούν να επιτρέψουν εξαιρετικά εξατομικευμένες εκστρατείες παραπληροφόρησης που εκμεταλλεύονται συγκεκριμένα τρωτά σημεία ή προκαταλήψεις ατόμων και ομάδων.
  • Επιρροή στις αποφάσεις: Η παραπληροφόρηση μπορεί να επηρεάσει προσωπικές αποφάσεις, συμπεριλαμβανομένης της υπερψήφισης υποψηφίων με λιγότερα προσόντα ή της προώθησης ριζοσπαστικών προγραμμάτων.

Τι Μπορεί να Γίνει;

Δεν υπάρχει μια απλή, εύκολη απάντηση για την καταπολέμηση της διάδοσης της παραπληροφόρησης. Η παραπληροφόρηση ευδοκιμεί σε έναν περίπλοκο ιστό ανθρώπινης ψυχολογίας, τεχνολογικών κενών και πολιτικών ατζέντων. Ωστόσο, η αναγνώριση αυτών των προκλήσεων είναι το πρώτο βήμα προς την οικοδόμηση αποτελεσματικών λύσεων.  Ακολουθούν ορισμένοι κρίσιμοι τομείς στους οποίους αξίζει να επικεντρωθεί κανείς:

  • Ενίσχυση του τεχνολογικού αλφαβητισμού: Σε έναν ψηφιακό κόσμο, η ικανότητα διάκρισης αξιόπιστων πηγών από αμφισβητούμενες είναι υψίστης σημασίας. Οι εκπαιδευτικές εκστρατείες, τα εργαστήρια και οι προσβάσιμοι διαδικτυακοί πόροι θα πρέπει να στοχεύουν στο να διδάξουν στο κοινό πώς να εντοπίζει τις “κόκκινες σημαίες” των ψευδών ειδήσεων: εντυπωσιακούς τίτλους, μη επαληθευμένες πηγές, κακοφτιαγμένους ιστότοπους ή συναισθηματικά φορτισμένη γλώσσα.
  • Επένδυση στον έλεγχο των γεγονότων: Η υποστήριξη ανεξάρτητων οργανισμών ελέγχου των γεγονότων είναι ζωτικής σημασίας. Αυτοί δρουν ως ανεξάρτητοι παρατηρητές, εξετάζοντας τις ειδήσεις, τους ισχυρισμούς των πολιτικών και το περιεχόμενο των ιών.  Τα μέσα ενημέρωσης θα πρέπει να εξετάσουν το ενδεχόμενο να επισημαίνουν εμφανώς το περιεχόμενο που έχει επαληθευτεί ή να επισημαίνουν σαφώς τις δυνητικά παραπλανητικές πληροφορίες.
  • Εξισορρόπηση ευθύνης και ελευθερίας: Οι εταιρείες μέσων κοινωνικής δικτύωσης και οι μηχανές αναζήτησης φέρουν σημαντική ευθύνη για τον περιορισμό της ροής της παραπληροφόρησης. Η Πράξη Ψηφιακών Υπηρεσιών (Digital Services Act, DSA) της ΕΕ υπογραμμίζει αυτή την ευθύνη, θέτοντας απαιτήσεις στις πλατφόρμες για την αντιμετώπιση του επιβλαβούς περιεχομένου. Ωστόσο, πρόκειται για έναν ευαίσθητο τομέα, καθώς η σκληρή λογοκρισία μπορεί να υπονομεύσει την ελευθερία του λόγου. Στρατηγικές όπως η υποβάθμιση αναξιόπιστων πηγών, η συνεργασία με φορείς ελέγχου γεγονότων και η παροχή πλαισίου για ύποπτο περιεχόμενο μπορούν να βοηθήσουν, αλλά η εύρεση της σωστής ισορροπίας είναι ένας συνεχής αγώνας, ακόμη και στο πλαίσιο κανονισμών όπως η DSA.
  • Η σημασία της προσωπικής υπευθυνότητας: Ακόμη και με τις θεσμικές αλλαγές, τα άτομα διαδραματίζουν ζωτικό ρόλο. Είναι σημαντικό να είστε επιφυλακτικοί, να κάνετε ερωτήσεις σχετικά με το από πού προέρχονται οι πληροφορίες και να έχετε υπόψη σας τις συναισθηματικές αντιδράσεις που προκαλεί το περιεχόμενο. Πριν μοιραστείτε οτιδήποτε, επαληθεύστε το με μια αξιόπιστη πηγή. Η κριτική σκέψη μπορεί να σπάσει τον κύκλο της παραπληροφόρησης.

Ο αγώνας κατά της παραπληροφόρησης είναι μαραθώνιος, όχι σπριντ. Καθώς η τεχνολογία εξελίσσεται, πρέπει να εξελίσσονται και οι στρατηγικές μας. Πρέπει να παραμένουμε σε εγρήγορση για να προστατεύσουμε την ελευθερία του λόγου και ταυτόχρονα να διαφυλάξουμε την αλήθεια.

 


Συμμετέχουμε στην εκδήλωση "Η Τεχνητή Νοημοσύνη Συναντά την Εκπαίδευση" στο Πάρκο Καινοτομίας JOIST

Το Πάρκο Καινοτομίας JOIST και η Διεύθυνση Δευτεροβάθμιας Εκπαίδευσης Ν. Λάρισας σας προσκαλούν στην ανοιχτή εκδήλωση για Εκπαιδευτικούς, Σχολικούς Συμβούλους, Γονείς & Μαθητές “Η Τεχνητή Νοημοσύνη Συναντά την Εκπαίδευση” υπό την αιγίδα της Περιφερειακής Διεύθυνσης Εκπαίδευσης Θεσσαλίας.

Ημερομηνία: Σάββατο 27 Απριλίου 2024 | 11:00 – 14:00
Τόπος: Future Learning Lab με Ελεύθερη Είσοδο

Είναι μεγάλη μας τιμή και χαρά που η Διευθύντρια Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου της Homo Digitalis, Λαμπρινή Γυφτοκώστα , θα μας εκπροσωπήσει εκεί με ομιλία! Ευχαριστούμε θερμά τους διοργανωτές για την ευγενική πρόσκληση και συμπερίληψη!

Πόσο έτοιμη είναι η εκπαιδευτική κοινότητα να ενσωματώσει με ασφάλεια και αποτελεσματικότητα την Τεχνητή Νοημοσύνη και τα σχετικά ψηφιακά εργαλεία στην μαθησιακή διαδικασία; Η εκδήλωση φιλοδοξεί να θέσει καίρια ερωτήματα και να παρουσιάσει όλες εκείνες τις πτυχές που συνδέονται με την εισαγωγή της Τεχνητής Νοημοσύνης στην εκπαιδευτική διαδικασία.

Η εκδήλωση απευθύνεται σε Εκπαιδευτικούς, Προσωπικό Σχολικών Μονάδων, Σχολικούς Συμβούλους, Γονείς, Μαθητές 12 έως 18 ετών.
Εγγραφείτε δωρεάν εδώ.

 


Εθελοντικές εκπαιδευτικές δράσεις σε σχολεία: H Homo Digitalis επισκέπτεται το 3o Γυμνάσιο Ηρακλείου

Την προηγούμενη εβδομάδα η Homo Digitalis πήρε και πάλι κυριολεκτικά τους δρόμους! Σε συνέχεια του πολύ επιτυχημένου tour σε Πελοπόννησο, Στερεά Ελλάδα, και Βόρεια Ελλάδα σειρά είχε η Κρήτη.

Η Homo Digitalis μίλησε στο 3o Γυμνάσιο Ηρακλείου μιλώντας σε περισσότερους από 90 μαθητές για τον Διαδικτυακό Εκφοβισμό. Τα μέλη που μας εκπροσώπησαν ήταν η Αδαμαντία Βολικού, η Αγγελίνα Μπαρλα και η Πρόεδρος της Ηοmo Digitalis Ελπιδα Βαμβακά.

Ευχαριστούμε θερμά την Υπεύθυνη Καθηγήτρια κα. Φωτεινή Κωνσταντάκη (Εκπαιδευτικός Πληροφορικής) για την πρόσκληση και την εξαιρετική φιλοξενία!

 


Συνέντευξη της Homo Digitalis στο mononews για την μεγάλη μας επιτυχία και το πρόστιμο 175.000 ευρώ της ΑΠΔΠΧ στο ΥΜΑ

Η Homo Digitalis μίλησε στο mononews και τη δημοσιογράφο Aλεξιάννα Τσότσου για το ρεπορτάζ της αναφορικά με την καταγγελία μας κατά των συστημάτων ΚΕΝΤΑΥΡΟΣ και ΥΠΕΡΙΩΝ και το πρόστιμο 175.000 ευρώ που επέβαλε η Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα στο Υπουργείο Μετανάστευσης και Ασύλου. Σχόλια για τη Ηοmo Digitalis παραχώρησε ο Συνιδρυτής μας και Δικηγόρος, Λευτέρης Χελιουδάκης.

Μπορείτε να διαβάστε το άρθρο  εδώ.

Ευχαριστούμε θερμά τη δημοσιογράφο για τη συνεργασία, το αναλυτικό ρεπορτάζ της και το ενδιαφέρον της στις δράσεις μας.

 


Συντονίζουμε το διαδικτυακό event του Digital World Summit Greece με θέμα “AI Board, Advisory Forum and relevant stakeholders: Πώς διαμορφώνουν φορείς του ιδιωτικού και δημοσίου τομέα την εφαρμογή του AI Act;”

Σας προσκαλούμε να συμμετάσχετε στο δεύτερο διαδικτυακό event του Digital World Summit Greece με θέμα “AI Board, Advisory Forum and relevant stakeholders: Πώς διαμορφώνουν φορείς του ιδιωτικού και δημοσίου τομέα την εφαρμογή του AI Act;”, το οποίο συντονίζει η Διευθύντρια Τεχνητής Νοημοσύνης και Δικαιωμάτων του Ανθρώπου της Homo Digitalis, Lamprini Gyftokosta!

️ Τετάρτη 17 Απριλίου

⏲19:00

μέσω YouTube Live, Facebook Live, LinkedIn Live

Ομιλητές:

Tilemachos Moraitis – Government and Corporate Affairs Manager, Microsoft Greece,

Maria Alexandra Papoutsi– AI, Technology & Innovation Manager, KBVL Law Firm | Deloitte Legal

Yiannis Kanellopoulos – CEO, code4thought

Εισαγωγική Ομιλία:

Elia Kostopoulou, Μέλος Digital Dialogues

Θες να λάβεις #υπενθύμιση με το link της εκδήλωσης στο email σου; Εγγράψου τώρα για να συμμετάσχεις σε αυτήν την ενδιαφέρουσα συζήτηση για το μέλλον του ψηφιακού μας κόσμου εδώ https://digitalworldsummit.gr/ai-board-advisory-forum-relevant-stakeholders/