Εκδήλωση του Ελληνικού Παραρτήματος της IAPP «AI & Προσωπικά Δεδομένα: Προκλήσεις & Λύσεις στην Εποχή της Ψηφιακής Ιδιωτικότητας»

Το προεδρείο του Hellenic Chapter της IAPP-International Association of Privacy Professionals, οργανώνει στις 14 Μάη και Ώρα 18:30 – 19:00 στο  ΙΜΕ ΓΣΕΒΕΕ, Ινστιτούτο Μικρών Επιχειρήσεων της ΓΣΕΒΕΕ εκδήλωση με θέμα “ΑΙ & Προσωπικά Δεδομένα: Προκλήσεις & Λύσεις στην Εποχή της Ψηφιακής Ιδιωτικότητας”.

Τη συζήτηση συντονίζει ο Στέφανος Βιτωράτος Partner – Digital Law Experts, και Συνιδρυτής και Αντιπρόεδρος της Homo Digitalis, ενώ στους ομιλητές περιλαμβάνονται οι:

-Δρ. Προκόπιος Δρογκάρης, Cybersecurity Expert, Deputy DPO ENISA, CIPP-E

-Μαρία Αλεξάνδρα Παπουτσή, Managing Associate, KBVL Law Firm Member of Deloitte Legal, CIPP-E/US

-Αλέξανδρος Παπαχαραλάμπους, CEO-CTO AETHON Engineering, Cofounder & VP Prodαuct TransiTool

Για να εγγραφείτε και να παρακολουθήσετε την εκδήλωση δια ζώσης πατήστε εδώ, ή για να κάνετε εγγραφή για διαδικτυακή παρουσίαση, πατήστε εδώ.

Είναι μεγάλη τιμή για τη Homo Digitalis που όλα τα μέλη του Προεδρείου του Hellenic Chapter της IAPP-International Association of Privacy Professionals αποτελούν μέλη μας!

 


H Homo Digitalis συμμετέχει για 4η φορά στο CPDP!

H Homo Digitalis συμμετέχει για 4η φορά στο CPDP, το πλέον αναγνωρισμένο διεθνές συνέδριο για την προστασία των προσωπικών δεδομένων και της ιδιωτικότητας!

Μετά από τις συνεχόμενες παρουσίες μας εκεί με ομιλίες σε πάνελ και workshop, φέτος έχουμε τη τιμή να δίνουμε το παρόν με ένα νέο μέσο! Συγκεκριμένα, θα δώσουμε συνέντευξη στο πλαίσιο του Avatar.fm, ενός live radio project που οργανώνει ο κοινωνικός ραδιοφωνικός σταθμός dublab.de και το privacy salon κατά τη διάρκεια του CPDP!

To Avatar.fm θα δίνει τον παλμό του συνεδρίου από τις 22 έως τις 24 Μάη, αποτελώντας βήμα για οργανώσεις με ηγετικό ρόλο στην προστασία των προσωπικών δεδομένων και της ιδιωτικότητας, αναδεικνύοντας τις δράσεις τους στον τομέα της Τεχνητής Νοημοσύνης και των νέων τεχνολογιών!

Το Avatar.fm θα εκπέμπει  ζωντανά από το εμβληματικό Gare Maritime στις Βρυξέλλες, ενώ θα φιλοξενεί και μαγνητοσκοπημένες εκπομπές, καθώς και live DJ Sets! Όσες και όσοι δεν βρισκόσαστε εκεί, μπορείτε να ακούσετε τις εκπομπές στην ιστοσελίδα dublab.de

Τη Homo Digitalis θα εκπροσωπήσει στην εν λόγω συνέντευξη η Διευθύντρια Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου, Λαμπρινή Γυφτοκώστα.

Μείνετε συντονισμένες και συντονισμένοι για το πλήρες πρόγραμμα!

 


Ψηφιακή Νοημοσύνη και Ψηφιακή Ηθική στην Εκπαίδευση

Γράφει η Δρ. Άννα Μπούγια*

Θα αφήνατε ποτέ τα παιδιά σας μόνα στους δρόμους της Νέας Υόρκης; Αναρωτιέται η  Δρ Aiken (2016, p.121), κορυφαία κυβερνοψυχολόγος. Ωστόσο, πολλοί γονείς   αφήνουν τα παιδιά μόνα τους στον κυνερνοχώρο. Η Δρ Aiken (2016) καταλήγει πως αυτή τη στιγμή διεξάγεται παγκοσμίως το μεγαλύτερο και ρεαλιστικότερο πείραμα με συμμετέχοντες παιδιά και νέους, οι οποίοι αν και ψηφιακά εγγράμματοι σε σχέση με τις προηγούμενες γενεές, έρχονται αντιμέτωποι με  διλήμματα και προκλήσεις στα διαρκώς εξελισσόμενα ψηφιακά περιβάλλοντα.

Πώς μπορεί η εκπαίδευση να συμβάλλει στη νέα κοινωνική πρόκληση;

Είναι γεγονός πως ο προγραμματισμός και η υπολογιστική σκέψη εντάσσεται πλέον στο πρόγραμμα μαθημάτων της πρωτοβάθμιας και δευτεροβάθμιας εκπαίδευσης, ενώ αντίστοιχα και η Τριτοβάθμια εκπαίδευση δίνει έμφαση στην ενίσχυση των ψηφιακών δεξιοτήτων. Το 2022, προστέθηκε στο e-learning του Καποδιστριακού Πανεπιστημίου Αθηνών, το πρώτο πρόγραμμα «Ανάπτυξης Ψηφιακής Νοημοσύνης» με έμφαση στις ψυχοκοινωνικές δεξιότητες που καλούνται να αναπτύξουν οι χρήστες του διαδικτύου. Συγκεκριμένα οι εκπαιδευόμενοι  διερευνούν τις παιδαγωγικές δυνατότητες που προσφέρει η ηλεκτρονική εκπαίδευση. Επίσης, επιχειρείται η εμβάθυνση σε θέματα που αφορούν στη διαχείριση του ψηφιακού αποτυπώματος, εστιάζοντας στις διαφορές, τις ιδιαιτερότητες και τον αντίκτυπο της προβολής της προσωπικής και κοινωνικής μας ταυτότητας μέσω του διαδικτύου. Στην κατεύθυνση αυτή οι εκπαιδευόμενοι εξοικειώνονται με στρατηγικές διαχείρισης του ψηφιακού τους αποτυπώματος και της ψηφιακής τους ταυτότητας. Επιπλέον, στο πρόγραμμα προτείνονται και αναλύονται σύγχρονες θεωρίες και στρατηγικές για την ηθική χρήση της τεχνολογίας (Σμυρναίου, Μπούγια, 2022). Ωστόσο, η ενσωμάτωση της Ψηφιακής νοημοσύνης και ειδικότερα της ψηφιακής ηθικής παραμένει πρόκληση καθώς τα τεχνολογικά περιβάλλοντα εξελίσσονται διαρκώς όπως και οι αντιλήψεις της νέες γενιάς αναφορικά με τη χρήση των νέων τεχνολογιών.

Σε μία ποιοτική μελέτη που διενεργήθηκε το 2012 από τον Gardner και την ομάδα του, με στόχο τη διερεύνηση των αντιλήψεων των νέων ανθρώπων αναφορικά με την έννοια της ηθικής στο διαδίκτυο, αλλά και την ενίσχυση της ηθικής σκέψης, οι ερευνητές του “Good play project” ανακάλυψαν πως οι νέοι επιδεικνύου συχνά μία ηθική τυφλότητα σε θέματα ιδιωτικότητας, ιδιοκτησίας, και διάδρασης όταν σερφάρουν στο διαδίκτυο. Συγκεκριμένα, η ανάλυση των συνεντεύξεων των συμμετεχόντων, ηλικία; 10 έως 25 ετών αποκάλυψε τα παρακάτω είδη αντιλήψεων που τείνουν να διαμορφώνουν κατά τη διάρκεια της διάδρασής τους στο διαδίκτυο: α) Σκέψη εστιασμένη στον εαυτό (Σκέφτονται τις προσωπικές συνέπειες των πράξεών τους), β)χρηστός τρόπος σκέψης (σκέφτονται τις ηθικές συνέπειες των πράξεών τους σε ανθρώπους που γνωρίζουν, γ) ηθικός τρόπος σκέψης (σκέφτονται τις συνέπειες που έχουν οι πράξεις του στην κοινότητα και σε άγνωστους ανθρώπους. Η έρευνα καταλήγει πως υπάρχει ένα ηθικό κενό που πρέπει να γεφυρωθεί καθώς η ασυνείδητη ηθική τυφλότητα του δείχνουν περιστασιακά οι νέοι κατά τη διάδρασή τους μπορεί να καταλήξει σε συνειδητή επιλογή αποσύνδεσης της ηθικής σκέψης και προτεραιοποίησης του προσωπικού συμφέροντος. Η αλήθεια είναι πως η εκπαίδευση αναφορικά με τους ηθικούς κινδύνους του διαδικτύου εστιάζει κυρίως στη μεμονωμένη προστασία του ατόμου, την αποφυγή ριψοκίνδυνων συμπεριφορών, την προστασία της ιδιωτικότητας και λιγότερο στην υποχρέωσή μας  Η εκπαίδευση μπορεί να παίξει καταλυτικό ρόλο στην ενίσχυση και εξάσκηση της ηθικής σκέψης και δράσης σε όλους τους τομείς της ανθρώπινης ζωής εστιάζοντας στη σύνδεση και μεταφορά των δεξιοτήτων ηθικής σκέψης από το φυσικό στο διαδικτυακό περιβάλλον (James, 2014).

Στην ίδια γραμμή, η Shannon Vallor (2016) καθηγήτρια τεχνοηθικής του Πανεπιστημίου του Εδιμβούργου επιμένει ότι η ανθρωπότητα πρέπει να αναπτύξει «τεχνοηθικές αρετές» (Vallor, 2016 , σελ. 3). Σύμφωνα με την Vallor, μια σύγχρονη θεωρία της ηθικής «πρέπει να περιλαμβάνει την εφαρμογή ενός κανονιστικού πλαισίου για το πώς να ζεις καλά με τις τεχνολογίες, ειδικά αυτές που αναδύονται ακόμη και δεν έχουν ακόμη διευθετηθεί».  Στο βιβλίο  Technology and the Virtues, η Vallor (2016) ισχυρίζεται πως η εφαρμογή της  αρετολογικής ηθικής και κατά συνέπεια η καλλιέργεια αρετών του χαρακτήρα, όπως η υπομονή, το θάρρος, η ειλικρίνεια και η ενσυναίσθηση  στον τομέα της ηθικής της τεχνολογίας, μπορεί να μειώσει τη διαδικτυακή βία στα μέσα κοινωνικής δικτύωσης και να οδηγήσει στην υπεύθυνη χρήση της τεχνολογίας. Οι κυρίαρχες ηθικές θεωρίες που κυριαρχούσαν  μέχρι πρόσφατα στην ηθική της τεχνολογίας ήταν ωφελιμιστικές και δεοντολογικές, ωστόσο, αρκετοί συγγραφείς και ηθικοί φιλόσοφοι έστρεψαν την προσοχή στο ρόλο του χαρακτήρα και της αρετής για την επίλυση των σύχρονων ηθικών προβλημάτων, όπως για παράδειγμα ο διαδικτυακός εκφοβισμός (Harrison, 2016). Ο συγγραφέας υποστηρίζει ότι η τήρηση των κανόνων και η πρόβλεψη των συνεπειών των πράξεων μας στο διαδίκτυο αποτελεί πολλές φορές πρόκληση, καθώς το περιβάλλον είναι συνεχώς εξελισσόμενο. Ομοίως ο Couldry (2010) θεωρεί πως η ηθική της αρετής σχετίζεται άμεσα με την ψηφιακή εκπαίδευση και την ανάπτυξη απαραίτητων δεξιοτήτων για την χρήση της τεχνολογίας με υπεύθυνο τρόπο. Αυτό το είδος εκπαίδευσης είναι πολυδιάστατο και πολυθεματικό και για το λόγο αυτό υπάρχουν διαφορετικές ονομασίες στη βιβλιογραφία, όπως η «εκπαίδευση ψηφιακού πολίτη (digital citizenship)», «ψηφιακή ηθική (digital ethics)» και «ηθική στον κυβερνοχώρο(cyber ethics)». Αποτελεί επίσης συστατικό ευρύτερων όρων όπως «ψηφιακός γραμματισμός στα μέσα (digital literacy)» και «γραμματισμός (media literacy & data literacy) στα μέσα και πληροφορίες», μεταξύ άλλων. Ωστόσο, κοινός άξονας όλων των παραπάνω ορισμών είναι η ανησυχία για την καλή ζωή(well-being) και με την αίσθηση του ηθικού καθήκοντος και ευθύνης απέναντι στους άλλους, τόσο online όσο και offline.

Τα τελευταία χρόνια, η ταχύτερη ανάπτυξη προσωπικών υπολογιστών και πληροφοριακών συστημάτων έχει μετατρέψει την παραδοσιακή πρωτοβάθμια και δευτεροβάθμια εκπαίδευση σε μια πλήρως ή υβριδική ψηφιακή εκπαίδευση (Εκπαίδευση 5.0). Αυτό ενισχύθηκε κατά την περίοδο Covid-19, όπου όλοι οι μαθητές συμμετείχαν στα μαθήματα μέσω συστημάτων συνεργασίας (MS Teams, Zoom, Skype κ.λπ.). Οι μαθητές χρησιμοποιούν καθημερινά διάφορα συστήματα όπως πλατφόρμες eLearning, συστήματα ανίχνευσης λογοκλοπής, ηλεκτρονικές εγκυκλοπαίδειες, συστήματα επεξεργασίας λέξεων/παρουσιάσεων/φύλλων εργασίας, AI Powered Tools κ.λπ. για την προετοιμασία της εργασίας και των εργασιών τους.

Η Τεχνητή Νοημοσύνη (AI) είναι ένας κλάδος της Επιστήμης Υπολογιστών που περιλαμβάνει τη δημιουργία ευφυών μηχανών αφού τους παρέχει αλγόριθμους και κατευθύνσεις, για την εκτέλεση συγκεκριμένων εργασιών όπως η λήψη αποφάσεων, η ανάλυση δεδομένων, η μάθηση και η επίλυση προβλημάτων. Η τεχνητή νοημοσύνη απαιτεί ανθρώπινη νοημοσύνη η οποία παίζει καθοριστικό ρόλο στην εξέλιξη και ανάπτυξη αυτού του τομέα. Έχει εξελιχθεί σε αρκετές δεκαετίες χάρη στις συνεισφορές ερευνητών και προγραμματιστών. Θα μπορούσε επίσης να έχει ένα ευρύ φάσμα θετικών επιπτώσεων για την κοινωνία και την οικονομία γενικότερα. Μερικές από τις θετικές συνέπειες περιλαμβάνουν αυξημένη αποτελεσματικότητα, βελτιωμένο τρόπο εργασίας, μειωμένα λάθη, αυξημένη παραγωγή και κερδοφορία και βελτιωμένες υπηρεσίες προς τους πολίτες και ανάπτυξη προϊόντων.

Η έλευση της τεχνητής νοημοσύνης στις ζωές των ανθρώπων με τη χρήση ορισμένων εργαλείων επεξεργασίας φυσικής γλώσσας όπως το ChatGPT, το Bard, το Bing AI και άλλα, έχει επηρεάσει και την εκπαίδευση. Η τεχνητή νοημοσύνη έχει εφαρμοστεί ευρέως σε εκπαιδευτικές πρακτικές (Τεχνητή Νοημοσύνη στην Εκπαίδευση, AIEd), όπως έξυπνα συστήματα διδασκαλίας, ρομπότ διδασκαλίας, πίνακες αναλυτικών στοιχείων μάθησης, προσαρμοστικά συστήματα μάθησης, αλληλεπιδράσεις ανθρώπου-υπολογιστή κ.λπ. (Chen, Xie, & Hwang, 2020). Διαφορετικές μεθοδολογίες τεχνητής νοημοσύνης (επεξεργασία φυσικής γλώσσας, νευρωνικά δίκτυα, μηχανική μάθηση, βαθιά μάθηση, ανάλυση μεγάλων δεδομένων και γενετικοί αλγόριθμοι) έχουν εφαρμοστεί για τη δημιουργία έξυπνων περιβαλλόντων μάθησης για ανίχνευση συμπεριφοράς, δημιουργία μοντέλων πρόβλεψης, σύσταση μάθησης κ.λπ. (Chen, Xie, & Hwang, 2020; Rowe, 2019).

Καθώς η τεχνολογία και η κοινωνία εξελίσσονται συνεχώς, είναι προφανές ότι υπάρχει ανάγκη επαναπροσδιορισμού της ηθικής με βάση το νέο ψηφιακό οικοσύστημα. Η ηθική είναι προϊόν της εξελικτικής ιστορίας, με άλλα λόγια μια διάσταση της ηθικής είναι η προσαρμογή. Στο πλαίσιο αυτό, αναφερόμενοι στην ψηφιακή ηθική, οι ερευνητές εστιάζουν ουσιαστικά στον τρόπο εφαρμογής και προσαρμογής της ηθικής στα νέα ψηφιακά περιβάλλοντα. Συγκεκριμένα, η Ψηφιακή Δεοντολογία ασχολείται με τον αντίκτυπο της ενοποίησης των Τεχνολογιών Πληροφορικής και Επικοινωνιών (ΤΠΕ) στις κοινωνίες μας και στο περιβάλλον γενικότερα. Επικεντρώνεται σε μια σειρά θεμάτων και προβληματισμών όπως:

  • Τεχνητή Νοημοσύνη (AI) και αλγοριθμική λήψη αποφάσεων, συμπεριλαμβανομένης της δικαιοσύνης.
  • Η αυτοματοποίηση της ανθρώπινης νοημοσύνης για ρομποτική ή αυτόνομα οχήματα.
  • Τεχνητή νοημοσύνη και το μέλλον της εργασίας και της διακυβέρνησης.
  • Η χρήση ευφυών τεχνολογιών στην υγεία και την ιατρική.

Η αλγοριθμική λήψη αποφάσεων εγείρει μια σειρά από ερωτήματα:

  • Ποιος είναι υπεύθυνος όταν παραβιάζονται τα ανθρώπινα δικαιώματα με βάση μία αλγοριθμική απόφαση, το άτομο που προγραμμάτισε τον αλγόριθμο, ο χειριστής του αλγορίθμου ή ο άνθρωπος που εφάρμοσε την απόφαση;
  • Ποια είναι η διαφορά μεταξύ μιας τέτοιας απόφασης και μιας ανθρώπινης απόφασης;

Ταυτόχρονα, οι ερευνητές δίνουν έμφαση στον κρίσιμο ρόλο της ιδιωτικής και δημόσιας εκπαίδευσης για την ενίσχυση των δεξιοτήτων κριτικής σκέψης και την προώθηση μιας ηθικής κουλτούρας και χρήσης της τεχνολογίας.

* H Δρ. Άννα Μπούγια είναι AI ethics engineer στο Computer Technology Institute, Διόφαντος.

 


Οι δράσεις της Homo Digitalis στον τομέα της Τεχνητής Νοημοσύνης στο Νο1 Ακαδημαϊκό Νομικό Περιοδικό Παγκοσμίως, το Computer Law & Security Review Journal

Οι σημαντικές δράσεις της Homo Digitalis και των συμμάχων της στο πεδίο της προστασίας συνόρων, καταγράφονται στο διεθνούς φήμης και πρώτο παγκοσμίως στην κατηγορία του ακαδημαϊκό νομικό περιοδικό «Computer Law & Security Review Journal», το οποίο εκδίδεται από τον οίκο Elsevier.

Συγκεκριμένα, ο συνιδρυτής μας Λευτέρης Χελιουδάκης δημοσίευσε πρόσφατα το άρθρο του στο εν λόγω νομικό περιοδικό (Volume 53, 2024) με τίτλο «Unpacking AI-enabled border management technologies in Greece: To what extent their development and deployment are transparent and respect dataprotection rules?»

Θα θέλαμε να ευχαριστήσουμε τους Επιμελητές της Ειδικής Έκδοσης του περιοδικού με τίτλο «Vulnerability, Marginalisation and Data Protection Law » Κατερίνα Δεμέτζου και Gianclaudio Malgieri για την εξαιρετική συνεργασία.

Ο οίκος Elsevier έχει παραχωρήσει για σύντομο χρονικό διάστημα (έως 2/6) έναν σύνδεσμο μέσω του οποίου όλοι μπορούν να κατεβάσουν/διαβάσουν το άρθρο εντελώς δωρεάν, διαθέσιμο εδώ.

 


Συμμετείχαμε σε έρευνα ειδικών για τη χρήση νέων τεχνολογιών στον τομέα της εκπαίδευσης στο πλαίσιο του έργου MILES

Στην εποχή της υπερ-σύνδεσης, οι άνθρωποι κατακλύζονται από μια συνεχή ροή πληροφοριών και ειδήσεων που επιφέρει, αφενός, καλύτερη και σταθερή ενημέρωση για τα παγκόσμια γεγονότα και αφετέρου, πολλούς κινδύνους που σχετίζονται με ψευδείς ειδήσεις και παραπληροφόρηση.

Η Homo Digitalis είχε τη χαρά να συμμετέχει σε σχετική έρευνα-συζήτηση που εκπόνησε το έργο MILES (MIL and PRE-BUNKING approaches for Critical thinking in the education sector) και απευθυνόταν σε ειδικούς αναφορικά με τη χρήση νέων τεχνολογιών στον τομέα της εκπαίδευσης.

Στόχος της έρευνας-συζήτησης είναι η συγκέντρωση πληροφοριών σχετικά με την παραπληροφόρηση ώστε να αναπτυχθούν αποτελεσματικές στρατηγικές για τον τομέα της εκπαίδευσης. Η συζήτηση εστίασε σε θέματα όπως ο ψηφιακός αλφαβητισμός, η καλλιέργεια της κριτικής σκέψης ως εργαλείο για την αναγνώριση των ψευδών ειδήσεων, ο ρόλος της εκπαίδευσης και του εκπαιδευτικού συστήματος, καθώς και στη διερεύνηση πιθανών παρεμβάσεων πολιτικής.

Τη Homo Digitalis εκπροσώπησε στην έρευνα-συζήτηση η Διευθύντρια Δικαιωμάτων του Ανθρώπου & Τεχνητής Νοημοσύνης, Λαμπρινή Γυφτοκώστα. Ευχαριστούμε θερμά την  για τη συμπερίληψη και την τιμητική πρόσκληση την οργάνωση της κοινωνίας των πολιτών KMOP – Κέντρο Κοινωνικής Δράσης και Καινοτομίας.

 


Με μεγάλη επιτυχία ολοκληρώθηκε η συμμετοχή μας στην εκδήλωση "Η Τεχνητή Νοημοσύνη Συναντά την Εκπαίδευση" στο Πάρκο Καινοτομίας JOIST

Με μεγάλη επιτυχία ολοκληρώθηκε η συμμετοχή της Homo Digitalis με την ομιλία της Διευθύντριας μας για ζητήματα Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου, Λαμπρινής Γυφτοκώστα, στο  Πάρκο Καινοτομίας JOIST στην εκδήλωση “Η Τεχνητή Νοημοσύνη Συναντά την Εκπαίδευση” υπό την αιγίδα της Περιφερειακής Διεύθυνσης Εκπαίδευσης Θεσσαλίας.

Ευχαριστούμε θερμά το JOIST και την εκπρόσωπό του, κα. Κατερίνα Δημηνίκου, καθώς και τον κ. Νίκο Ζέρβα, Διευθυντή Δευτεροβάθμιας Εκπαίδευσης Λάρισας για την πρόσκληση συμμετοχής στην εκδήλωση τους, καθώς και τους πάνω από 200 εκπαιδευτικούς που βρέθηκαν εκεί.

H Homo Digitalis μίλησε για τον ψηφιακό αλφαβητισμό, τις διατάξεις της AI Act για την εκπαίδευση αλλά και για τις εμπειρίες της σε σχολεία δευτεροβάθμιας εκπαίδευσης στην επικράτεια. Φυσικά, το ενεργό παρόν έδωσε και ο το μέλος της Homo Digitalis στη Λάρισα, Αναστάσιος Αραμπατζής, ο οποίος μίλησε για το The Glassroom Misinformation Exhibition αλλά και την ανίχνευση deepfakes!”

 


Κάνε την αίτησή σου για τον δεύτερο κύκλο επιδοτήσεων του NGI TALER!

Φροντίστε να υποβάλετε αίτηση στη δεύτερη πρόσκληση χρηματοδότησης του NGI TALER μέχρι την 1η Ιουνίου 2024 12:00 CEST (μεσημέρι)!

Μέρος του προϋπολογισμού του NGI TALER προορίζεται για ανοιχτές προσκλήσεις χρηματοδότησης προσπαθειών για το ελεύθερο λογισμικό και τη διατήρηση της ιδιωτικής ζωής που ευθυγραμμίζονται με τα θέματα και την προσέγγιση του NGI TALER! Καλούμε τις συνεισφορές σας για να συμβάλλετε στην αναδιαμόρφωση της κατάστασης των ψηφιακών συστημάτων πληρωμών και στη δημιουργία ενός ανοικτού και αξιόπιστου διαδικτύου για όλους!

Αναζητούμε προτάσεις έργων αξίας μεταξύ 5.000 και 50.000 ευρώ. Η πρόσκληση απευθύνεται σε μικρομεσαίες επιχειρήσεις, ακαδημαϊκούς, δημόσιο τομέα, μη κερδοσκοπικούς οργανισμούς, κοινότητες και ιδιώτες. Μπορείτε να συνεισφέρετε συναρπαστικές νέες δυνατότητες στο ίδιο το GNU Taler, να δημιουργήσετε βοηθητικά εργαλεία, να εργαστείτε πάνω στην εμπειρία του χρήστη, να αναπτύξετε ενσωματώσεις σε εφαρμογές FLOSS και ανοιχτά πρότυπα (για παράδειγμα, να επιτρέψετε μικροπληρωμές P2P σε ένα instant messenger, μια ανοιχτή πλατφόρμα κοινωνικής δικτύωσης ή ένα εργαλείο τηλεδιάσκεψης) ή να αναπτύξετε βελτιώσεις σε στοιχεία υποδομής (όπως backends εμπόρων)!

Επισκεφθείτε τον ιστότοπο του NGI – The Next Generation Internet για περισσότερες πληροφορίες σχετικά με αυτή και άλλες προσκλήσεις χρηματοδότησης του NGI εδώ.

Επισκεφθείτε τον ιστότοπο του ιδρύματος NLnet για να διαβάσετε τη λεπτομερή Ανοικτή Πρόσκληση, τον Οδηγό για τους αιτούντες, τις απαιτήσεις επιλεξιμότητας και τις Συχνές Ερωτήσεις μας και να υποβάλετε τη φόρμα σας εδώ.

Εγγραφείτε τώρα στο TALER Intergration Community Hub (TALER ICH) για να συζητήσουμε μαζί και να θέσετε τις ερωτήσεις σας εδώ.


Καταθέσαμε σημαντικά ερωτήματα στην Υπ. Εσωτερικών, κα. Κεραμέως, για το έργο «Ανάπτυξη και λειτουργία εργαλείου για τον στρατηγικό προγραμματισμό στελέχωσης Δημοσίου τομέα με όρους τεχνητής νοημοσύνης» και τη πιλοτική εφαρμογή του σε 9 φορείς

Στις 15 Απριλίου η Homo Digitalis κατέθεσε ηλεκτρονική επιστολή ενώπιον της Υπουργού Εσωτερικών, κα. Κεραμέως, σχετικά με το έργο του Υπουργείου με τίτλο «Ανάπτυξη και λειτουργία εργαλείου για τον στρατηγικό προγραμματισμό στελέχωσης Δημοσίου τομέα με όρους τεχνητής νοημοσύνης».

Την επιστολή μας κοινοποιήσαμε στον Πρόεδρο της Αρχής Προστασίας Δεδομένων Προσωπικού Χαρακτήρα, κ. Μενουδάκο, καθώς και στον Υπεύθυνο Προστασίας Δεδομένων του Υπουργείου Εσωτερικών κ. Θεοχάρη.

Πιο συγκεκριμένα, το εν λόγω έργο σχετίζεται με την ανάπτυξη και λειτουργία εργαλείου για το στρατηγικό προγραμματισμό του ανθρώπινου δυναμικού του δημοσίου τομέα με όρους τεχνητής νοημοσύνης και αφορά τους εξής άξονες:

– Δημιουργία ενός ολοκληρωμένου πλαισίου για τον στρατηγικό προγραμματισμό στελέχωσης (βέλτιστης κατανομής του υφιστάμενου αλλά και του νέου προσωπικού) του Δημοσίου Τομέα (συμπεριλαμβανομένων τεχνικών προδιαγραφών υλοποίησης και αναθεώρησης υφιστάμενων πλαισίων)

– Πιλοτική εφαρμογή σε 9 Φορείς του Δημοσίου και πιο συγκεκριμένα σε ΜΟΔ ΑΕ, ΑΑΔΕ, ΟΑΕΔ, Γενικό Νοσοκομείο Αθηνών “Γ. Γεννηματάς”, Δήμος Θεσσαλονίκης, Περιφέρεια Αττικής, Υπουργείο Παιδείας και Θρησκευμάτων, Υπουργείο Περιβάλλοντος και Ενέργειας και Υπουργείο Πολιτισμού και Αθλητισμού,

– Σχεδιασμός προγραμμάτων κατάρτισης για α) τους χρήστες και β) την αναβάθμιση των δεξιοτήτων των δημοσίων υπαλλήλων, και

– Ανάπτυξη του αποθετηρίου γνώσεων των Δημοσίων Υπαλλήλων.

Σύμφωνα με σχετικές πληροφορίες που έχουν αναρτηθεί στον ιστότοπο του ΔΙΑΥΓΕΙΑ, αλλά και αρθρογραφία σε διάφορα ΜΜΕ, το Υπουργείο Εσωτερικών αποτελεί τον υπεύθυνο του έργου, ενώ έχει ήδη συμβληθεί με την εταιρία Deloitte για την εκπόνηση του. Mάλιστα με βάση το σχετικό χρονοδιάγραμμα, οι εργασίες έχουν σημειώσει σημαντική πρόοδο.

Με την επιστολή της η Homo Digitalis αιτείται να πληροφορηθεί από την Υπουργό για μία σειρά από ερωτήματα αναφορικά τόσο με το νομικό πλαίσιο προστασίας προσωπικών δεδομένων (ν.4624/2019 – GDPR), όσο και σχετικά με το νομικό πλαίσιο χρήσης συστημάτων τεχνητής νοημοσύνης από τον δημόσιο τομέα (ν.4961/2022), καθώς η πιλοτική εφαρμογή του έργου αναμένεται άμεσα στους 9 φορείς που αναφέρθηκαν ανωτέρω.

Συγκεκριμένα, θέσαμε με την επιστολή μας τα εξής ερωτήματα στην κα. Υπουργό:

  1. Είχε προχωρήσει το Υπουργείο Εσωτερικών σε εκπόνηση εκτίμησης αντικτύπου σχετικά με την προστασία δεδομένων πριν την διακήρυξη του έργου, σύμφωνα με τις αρχές της προστασίας προσωπικών δεδομένων «ήδη από τον σχεδιασμό» και «εξ ορισμού»;
  2. Έχει καταρτιστεί σχετική Εκτίμηση Αντικτύπου σχετικά με την προστασία δεδομένων ειδικά αναφορικά με την πιλοτική εφαρμογή της πλατφόρμας στους 9 φορείς του Δημοσίου;
  3. Εάν έχουν εκπονηθεί οι σχετικές Εκτιμήσεις, κρίνατε αναγκαίο να προχωρήσετε σε σχετική διαβούλευση με την Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα;
  4. Θεωρείτε τους 9 φορείς του Δημοσίου ως από κοινού υπεύθυνους επεξεργασίας μαζί με το Υπουργείο Εσωτερικών και εάν ναι, έχετε προχωρήσει στις σχετικές υποχρεώσεις όπως ορίζονται στο άρθρο 26 ΓΚΠΔ;
  5. Θα μπορούσατε να μας ενημερώσετε για τις σχετικές κατηγορίες προσωπικών δεδομένων, τους σκοπούς της επεξεργασίας για τους οποίους προορίζονται τα δεδομένα αυτά, καθώς και τη νομική βάση για την επεξεργασία που σκοπεύετε να χρησιμοποιήσετε.
  6. Θα μπορούσατε να μας υποδείξετε την ακριβή διεύθυνση στην οποία έχει αναρτηθεί η σύμβαση του Υπουργείου Εσωτερικών με την Deloitte προκειμένου να μελετήσουμε τις σχετικές διατάξεις που αυτή περιλαμβάνει, ειδικά αναφορικά με την επεξεργασία προσωπικών δεδομένων;
  7. Τέλος, έχει το Υπουργείο Εσωτερικών προχωρήσει σε συμμόρφωση με τις υποχρεώσεις που ανακύπτουν από τις διατάξεις του ν.4961/2022, και συγκεκριμένα έχει εκπονηθεί κάποια αλγοριθμική εκτίμηση αντικτύπου (άρθρο 5), έχει προχωρήσει σε λήψη των αναγκαίων μέτρων διαφάνειας (άρθρο 6), έχει ο ανάδοχος του έργου εκπληρώσει τις σχετικές τους υποχρεώσεις (άρθρο 7), και έχει το υπουργείο τηρήσει σχετικό μητρώο (άρθρο 8) ενόψει της επικείμενης πιλοτικής χρήσης του συστήματος;

 


Η Κρίση της Παραπληροφόρησης: Πώς η Τεχνητή Νοημοσύνη Ενισχύει την Παραπληροφόρηση την Περίοδο των Εκλογών

Γράφει ο Αναστάσιος Αραμπατζής

Η παραπληροφόρηση είναι τόσο παλιά όσο και η ίδια η πολιτική. Από τα πλαστά φυλλάδια μέχρι τις μεροληπτικές εφημερίδες, όσοι επιδιώκουν την εξουσία πάντα χειραγωγούσαν την πληροφόρηση. Σήμερα, μια τεχνολογική επανάσταση απειλεί να οδηγήσει την παραπληροφόρηση σε πρωτοφανή επίπεδα. Τα εργαλεία παραγωγικής τεχνητής νοημοσύνης (generative AI), ικανά να παράγουν παραπλανητικά κείμενα, εικόνες και βίντεο, δίνουν σε όσους επιδιώκουν να παραπλανήσουν ένα πρωτοφανές οπλοστάσιο. Το 2024, καθώς ένας αριθμός-ρεκόρ κρατών διεξάγει εκλογές, συμπεριλαμβανομένων των ευρωεκλογών τον Ιούνιο, τα ίδια τα θεμέλια των δημοκρατιών μας τρέμουν καθώς τα deepfakes και η προσαρμοσμένη προπαγάνδα απειλούν να πνίξουν την αλήθεια.

Η Παραπληροφόρηση στην Ψηφιακή Εποχή

Στην εποχή της ατελείωτης περιήγησης και των άμεσων ενημερώσεων, η παραπληροφόρηση εξαπλώνεται σαν πυρκαγιά στα μέσα κοινωνικής δικτύωσης. Δεν πρόκειται μόνο για σκόπιμα κατασκευασμένα ψέματα – είναι οι μισές αλήθειες, οι φήμες και το παραπλανητικό περιεχόμενο που αποκτούν δυναμική, διαμορφώνουν τις αντιλήψεις μας και μερικές φορές οδηγούν σε πραγματικές συνέπειες.

Σκεφτείτε την παραπληροφόρηση ως έναν παραμορφωμένο καθρέφτη. Η παραπληροφόρηση είναι ψευδείς ή παραπλανητικές πληροφορίες που παρουσιάζονται ως γεγονότα, ανεξάρτητα από το αν υπάρχει πρόθεση εξαπάτησης. Μπορεί να είναι ένα πιασάρικο μιμίδιο (meme) με αμφίβολη πηγή, ένα λάθος επιστημονικό πόρισμα ή ένα έξυπνα επεξεργασμένο βίντεο που τροφοδοτεί μια συγκεκριμένη αφήγηση.  Σε αντίθεση με την αποπροσανατολιστική πληροφόρηση (disinformation), η οποία είναι μια σκόπιμη διάδοση ψευδών γεγονότων, η παραπληροφόρηση μπορεί να παρεισφρήσει στις ροές ειδήσεών μας ακόμη και όταν μοιράζεται με καλές προθέσεις.

Πώς οι Αλγόριθμοι Αναπαράγουν το Πρόβλημα

Οι πλατφόρμες των μέσων κοινωνικής δικτύωσης καθοδηγούνται από αλγόριθμους που έχουν σχεδιαστεί για να μας κρατούν απασχολημένους. Δίνουν προτεραιότητα στο περιεχόμενο που προκαλεί έντονα συναισθήματα – οργή, φόβο ή εντυπωσιασμό – ώστε να κερδίσει περισσότερα κλικ. Δυστυχώς, η αλήθεια είναι συχνά λιγότερο συναρπαστική από τη συναισθηματικά φορτισμένη παραπληροφόρηση. Αυτοί οι αλγόριθμοι δεν κάνουν διακρίσεις βάσει της ακρίβειας. Με κάθε απερίσκεπτη κοινοποίηση ή θυμωμένο σχόλιο, ενισχύουμε περαιτέρω το παραπλανητικό περιεχόμενο.

Η Ψυχολογία της Πειθούς

Είναι εύκολο να κατηγορήσουμε την τεχνολογία, αλλά η αλήθεια είναι ότι εμείς οι άνθρωποι είμαστε «καλωδιωμένοι» με τρόπους που μας κάνουν ευάλωτους στην παραπληροφόρηση. Να γιατί:

  • Μεροληψία επιβεβαίωσης: Τείνουμε να προτιμούμε τις πληροφορίες που επιβεβαιώνουν αυτό που ήδη πιστεύουμε, ακόμη και αν είναι σαθρό. Αν κάτι ευθυγραμμίζεται με την κοσμοθεωρία μας, είναι λιγότερο πιθανό να αμφισβητήσουμε την εγκυρότητά του.
  • Έλλειψη κριτικής σκέψης: Σε έναν ταχέως εξελισσόμενο ψηφιακό κόσμο, πολλοί από εμάς δεν έχουμε το χρόνο ή τις δεξιότητες να ελέγξουμε κάθε ισχυρισμό που συναντάμε. Η παύση για να αξιολογήσουμε την αξιοπιστία μιας πηγής ή τη λογική ενός επιχειρήματος δεν είναι πάντα η προεπιλεγμένη μας «ρύθμιση».

Πώς η Παραγωγική Τεχνητή Νοημοσύνη Περιπλέκει το Παιχνίδι

Τα παραγωγικά μοντέλα ΤΝ μαθαίνουν από τεράστια σύνολα δεδομένων, επιτρέποντάς τους να παράγουν περιεχόμενο που δεν διακρίνεται από το ανθρώπινο έργο. Δείτε πώς αυτή η τεχνολογία περιπλέκει το τοπίο της παραπληροφόρησης:

  • Deepfakes: Τα βίντεο που δημιουργούνται με τεχνητή νοημοσύνη μπορούν να τοποθετούν πειστικά ανθρώπους σε καταστάσεις που δεν υπήρξαν ποτέ ή να τους κάνουν να λένε πράγματα που δεν είπαν ποτέ. Αυτό διευκολύνει την κατασκευή επιβαρυντικών ή εμπρηστικών “αποδείξεων” για τη χειραγώγηση της κοινής γνώμης.
  • Συνθετικό κείμενο: Τα εργαλεία τεχνητής νοημοσύνης μπορούν να παράγουν μεγάλες ποσότητες παραπλανητικού κειμένου, όπως ψεύτικα άρθρα ειδήσεων ή αναρτήσεις στα μέσα κοινωνικής δικτύωσης που έχουν σχεδιαστεί για να φαίνονται αυθεντικές. Αυτό μπορεί να εξουδετερώσει τις προσπάθειες ελέγχου των γεγονότων (fact-checking).
  • Φτηνή και εύκολη παραπληροφόρηση: Το (τεχνολογικό) όριο για τη δημιουργία πειστικής παραπληροφόρησης μειώνεται συνεχώς. Οι κακόβουλοι δρώντες δεν χρειάζονται εξελιγμένες τεχνικές δεξιότητες – απλά εργαλεία τεχνητής νοημοσύνης μπορούν να ενισχύσουν τις προσπάθειές τους.

Οι Κίνδυνοι της Παραπληροφόρησης

Ο αντίκτυπος της παραπληροφόρησης υπερβαίνει κατά πολύ τα πληγωμένα συναισθήματα:

  • Μολύνει τον δημόσιο διάλογο: Η παραπληροφόρηση εμποδίζει την τεκμηριωμένη συζήτηση. Οδηγεί σε παρανοήσεις σχετικά με σημαντικά ζητήματα και δυσχεραίνει την εξεύρεση συναίνεσης.
  • Υπονομεύει την εμπιστοσύνη: Όταν δεν μπορούμε να συμφωνήσουμε σε βασικά γεγονότα, καταρρέει η εμπιστοσύνη στους θεσμούς, στην επιστήμη, ακόμη και στη δημοκρατική διαδικασία.
  • Στοχευμένη χειραγώγηση: Τα εργαλεία τεχνητής νοημοσύνης μπορούν να επιτρέψουν εξαιρετικά εξατομικευμένες εκστρατείες παραπληροφόρησης που εκμεταλλεύονται συγκεκριμένα τρωτά σημεία ή προκαταλήψεις ατόμων και ομάδων.
  • Επιρροή στις αποφάσεις: Η παραπληροφόρηση μπορεί να επηρεάσει προσωπικές αποφάσεις, συμπεριλαμβανομένης της υπερψήφισης υποψηφίων με λιγότερα προσόντα ή της προώθησης ριζοσπαστικών προγραμμάτων.

Τι Μπορεί να Γίνει;

Δεν υπάρχει μια απλή, εύκολη απάντηση για την καταπολέμηση της διάδοσης της παραπληροφόρησης. Η παραπληροφόρηση ευδοκιμεί σε έναν περίπλοκο ιστό ανθρώπινης ψυχολογίας, τεχνολογικών κενών και πολιτικών ατζέντων. Ωστόσο, η αναγνώριση αυτών των προκλήσεων είναι το πρώτο βήμα προς την οικοδόμηση αποτελεσματικών λύσεων.  Ακολουθούν ορισμένοι κρίσιμοι τομείς στους οποίους αξίζει να επικεντρωθεί κανείς:

  • Ενίσχυση του τεχνολογικού αλφαβητισμού: Σε έναν ψηφιακό κόσμο, η ικανότητα διάκρισης αξιόπιστων πηγών από αμφισβητούμενες είναι υψίστης σημασίας. Οι εκπαιδευτικές εκστρατείες, τα εργαστήρια και οι προσβάσιμοι διαδικτυακοί πόροι θα πρέπει να στοχεύουν στο να διδάξουν στο κοινό πώς να εντοπίζει τις “κόκκινες σημαίες” των ψευδών ειδήσεων: εντυπωσιακούς τίτλους, μη επαληθευμένες πηγές, κακοφτιαγμένους ιστότοπους ή συναισθηματικά φορτισμένη γλώσσα.
  • Επένδυση στον έλεγχο των γεγονότων: Η υποστήριξη ανεξάρτητων οργανισμών ελέγχου των γεγονότων είναι ζωτικής σημασίας. Αυτοί δρουν ως ανεξάρτητοι παρατηρητές, εξετάζοντας τις ειδήσεις, τους ισχυρισμούς των πολιτικών και το περιεχόμενο των ιών.  Τα μέσα ενημέρωσης θα πρέπει να εξετάσουν το ενδεχόμενο να επισημαίνουν εμφανώς το περιεχόμενο που έχει επαληθευτεί ή να επισημαίνουν σαφώς τις δυνητικά παραπλανητικές πληροφορίες.
  • Εξισορρόπηση ευθύνης και ελευθερίας: Οι εταιρείες μέσων κοινωνικής δικτύωσης και οι μηχανές αναζήτησης φέρουν σημαντική ευθύνη για τον περιορισμό της ροής της παραπληροφόρησης. Η Πράξη Ψηφιακών Υπηρεσιών (Digital Services Act, DSA) της ΕΕ υπογραμμίζει αυτή την ευθύνη, θέτοντας απαιτήσεις στις πλατφόρμες για την αντιμετώπιση του επιβλαβούς περιεχομένου. Ωστόσο, πρόκειται για έναν ευαίσθητο τομέα, καθώς η σκληρή λογοκρισία μπορεί να υπονομεύσει την ελευθερία του λόγου. Στρατηγικές όπως η υποβάθμιση αναξιόπιστων πηγών, η συνεργασία με φορείς ελέγχου γεγονότων και η παροχή πλαισίου για ύποπτο περιεχόμενο μπορούν να βοηθήσουν, αλλά η εύρεση της σωστής ισορροπίας είναι ένας συνεχής αγώνας, ακόμη και στο πλαίσιο κανονισμών όπως η DSA.
  • Η σημασία της προσωπικής υπευθυνότητας: Ακόμη και με τις θεσμικές αλλαγές, τα άτομα διαδραματίζουν ζωτικό ρόλο. Είναι σημαντικό να είστε επιφυλακτικοί, να κάνετε ερωτήσεις σχετικά με το από πού προέρχονται οι πληροφορίες και να έχετε υπόψη σας τις συναισθηματικές αντιδράσεις που προκαλεί το περιεχόμενο. Πριν μοιραστείτε οτιδήποτε, επαληθεύστε το με μια αξιόπιστη πηγή. Η κριτική σκέψη μπορεί να σπάσει τον κύκλο της παραπληροφόρησης.

Ο αγώνας κατά της παραπληροφόρησης είναι μαραθώνιος, όχι σπριντ. Καθώς η τεχνολογία εξελίσσεται, πρέπει να εξελίσσονται και οι στρατηγικές μας. Πρέπει να παραμένουμε σε εγρήγορση για να προστατεύσουμε την ελευθερία του λόγου και ταυτόχρονα να διαφυλάξουμε την αλήθεια.