Συνεχίζουμε τη συμμετοχή μας στο πρόγραμμα Accelarator του ΗΙGGS
H ομάδα της AMKE Homo Digitalis συμμετέχει στο πρόγραμμα Accelerator του HIGGS ήδη από τον Οκτώβριο του 2024 και τώρα ξεκινάει ο δεύτερος κύκλος εντατικών σεμιναρίων με σκοπό την εκπαίδευση μας για τη βελτίωση των οργανωτικών δομών μας αλλά και της διαχείρισης των εργασιών μας.
Συγκεκριμένα, το πρόγραμμα Accelerator μας βοηθάει να μάθουμε, να βελτιωθούμε και να διαμορφώσουμε μία καλύτερη στρατηγική για το μέλλον μας. Η δυνατότητα συμμετοχής μας στο πρόγραμμα αυτό μας δίνει πρόσβαση σε υψηλού επιπέδου πληροφορίες που θα μας βοηθήσουν να βελτιώσουμε τη διοίκηση και τη δράση της Homo Digitalis, καθώς και τη δυνατότητα να αναπτύξουμε ένα μοναδικό δίκτυο επαφών με άλλες οργανώσεις της ΚτΠ και ειδικούς στο πεδίο.
!
Δημοσιεύουμε κοινή δήλωση για τις αναμενόμενες Κατευθυντήριες Γραμμές της Ευρωπαϊκής Επιτροπής για τις Απαγορευμένες Πρακτικές του AI Act
Στις 11 Δεκεμβρίου 2024, η Ευρωπαϊκή Επιτροπή ολοκλήρωσε τη δημόσια διαβούλευσή της για την ερμηνεία του ορισμού ενός συστήματος Τεχνητής Νοημοσύνης και για τις απαγορευμένες πρακτικές τεχνητής νοημοσύνης, σύμφωνα με τις διατάξεις του Κανονισμού 2024/1689 (AI Act). H Homo Digitalis είχε συμμετάσχει στη σχετική διαδικασία.
Στο πλαίσιο της έκδοσης των αναμενόμενων κατευθυντηρίων γραμμών της Επιτροπής, παραμένουν ανησυχίες για ενδεχόμενα κενά που θα μπορούσαν να θέσουν σε κίνδυνο τα θεμελιώδη δικαιώματα. Γι’ αυτόν τον λόγο και από κοινού με περισσότερες από 25 οργανώσεις της Κοινωνίας των Πολιτών, ακαδημαϊκούς και άλλους ειδικούς, εκδίδουμε σήμερα μία δήλωση ζητώντας από την Υπηρεσία Τεχνητής Νοημοσύνης (AI Office) και την Ευρωπαϊκή Επιτροπή να εξασφαλίσουν συγκεκριμένα αιτήματα.
Μπορείτε να διαβάσετε τη κοινή μας δήλωση εδώ.
!
O Λευτέρης Χελιουδάκης της Homo Digitalis Εκπαιδευτής σε 3η Εκπαίδευση του OSCE ODIHR για προσωπικά δεδομένα & προστασία συνόρων
Από τις 4 έως τις 6 Δεκεμβρίου, ο Λευτέρης Χελιουδάκης, συνιδρυτής και Εκτελεστικός μας Διευθυντής συμμετείχε ως εκπαιδευτής στην τρίτη Εκπαίδευση που διοργάνωσε ο διεθνής οργανισμός OSCE και συγκεκριμένα το Γραφείο του για τους Δημοκρατικούς Θεσμούς και τα Ανθρώπινα Δικαιώματα (OSCE Office for Democratic Institutions and Human Rights (ODIHR)) στη Βαρσοβία διερευνώντας τη χρήση νέων τεχνολογιών στα διεθνή σύνορα, καθώς και τους κινδύνους αλλά και τις ευκαιρίες που απορρέουν σχετικά με τα Δικαιώματα του Ανθρώπου.
Στις 4 παρουσιάσεις μας, εστιάσαμε στις τεχνολογίες που χρησιμοποιούνται στα σύνορα, τα Δικαιώματα του Ανθρώπου που επηρεάζονται από τις εν λόγω χρήσεις, τις διατάξεις του GDPR αλλά και της Οδηγίας 2016/680 LED, καθώς και τη σημαντική απόφαση της ΑΠΔΠΧ για τα συστήματα “ΚΕΝΤΑΥΡΟΣ” και “ΥΠΕΡΙΩΝ”.
Ευχαριστούμε θερμά τα άτομα που συμμετείχαν στην εκπαίδευση για τη δυναμική τους παρουσία, την ομάδα των εξαιρετικών υπολοίπων εκπαιδευτών Nikola Kovačević, Djordje Alempijevic και Arancha Garcia del Soto για τις γνώσεις και την εμπειρία τους και την ομάδα των διοργανωτών για την άψογη διοργάνωση και τη συμβολή τους, Lola Girard, Veronica Grazzi! Eίναι μεγάλη μας τιμή να συμμετέχουμε!
Μπορείτε να μάθετε περισσότερα εδώ.
Δημοσιεύουμε την Τρίτη Μελέτη μας για την AI Act εστιάζοντας στο Άρθρο 5 & τις Απαγορευμένες Πρακτικές
Σήμερα η Homo Digitalis δημοσιεύει την τρίτη μελέτη της για τον Κανονισμό 2024/1689, τη πασίγνωστη πλέον AI Act με τίτλο «Πράξη για την Τεχνητή Νοημοσύνη: Ανάλυση διατάξεων για τις απαγορευμένες πρακτικές του άρθρου 5 του Κανονισμού 2024/1689».
Η συγγραφική ομάδα της μελέτης αποτελείται από τη Σοφία Αντωνοπούλου, τη Λαμπρινή Γυφκτοκώστα, την Τάνια Σκραπαλιώρη, τον Λευτέρη Χελιουδάκη και τη Σταυρούλα Χούσου.
Σκοπός της παρούσας ανάλυσης της Homo Digitalis είναι η συστηματική προσέγγιση κάθε διάταξης του άρθρου 5 του Κανονισμού για την ΤΝ, που σχετίζονται με τις Χειριστικές ή παραπλανητικές τεχνικές, την Εκμετάλλευση τρωτών στοιχείων, την Αξιολόγηση κοινωνικής συμπεριφοράς, τις Βάσεις δεδομένων αναγνώρισης προσώπου, την Πρόβλεψη τέλεσης αξιόποινης πράξης, τη Συναγωγή συναισθημάτων, τα Συστήματα βιομετρικής κατηγοριοποίησης και την Εξ αποστάσεως βιομετρική ταυτοποίηση.
Με τη μελέτη μας παρέχουμε στοχευμένα ερωτήματα που αναδεικνύουν τις κρίσιμες πτυχές των επί μέρους διατάξεων, εντοπίζοντας τις λεγόμενες “γκρι ζώνες” – εκείνων των σημείων δηλαδή που παρουσιάζουν ασάφειες, επικαλύψεις ή δυνητικές ερμηνευτικές δυσκολίες, ενώ τεκμηριώνουμε τους προβληματισμούς μας μέσω συγκεκριμένων παραδειγμάτων. Τέλος, διατυπώνουμε συγκεκριμένα ερωτήματα προς επεξήγηση από τις επικείμενες κατευθυντήριες γραμμές της Υπηρεσίας για την ΤΝ της Ευρωπαϊκής Επιτροπής (ΑΙ Office) αλλά και τον εθνικό νομοθέτη, με στόχο την πληρέστερη αποσαφήνιση των υφιστάμενων ζητημάτων.
Όπως οι δύο πρώτες μας μελέτες (οι οποίες δημοσιεύθηκαν τον Οκτώβριο και τον Νοέμβριο του 2024, αντίστοιχα) και η τρίτη μας Μελέτη έχει ως σκοπό να σταθεί αρωγός στο Υπουργείο Ψηφιακής Διακυβέρνησης που έχει ως αποστολή να μεταφέρει την AI Act στην Ελλάδα, αλλά και με τις λεπτομερείς αναλύσεις και τα επιχειρήματά μας να βοηθήσουμε στην ωρίμανση του δημόσιου διαλόγου και να δώσουμε τη δυνατότητα σε περισσότερες οργανώσεις της Κοινωνίας των Πολιτών να συμμετέχουν ενεργά σε αυτόν.
Μπορείτε να διαβάσετε τη Μελέτη μας «Πράξη για την Τεχνητή Νοημοσύνη: Ανάλυση διατάξεων για τις απαγορευμένες πρακτικές του άρθρου 5 του Κανονισμού 2024/1689» εδώ.
Η Homo Digitalis συμμετείχε στη διαβούλευση του Γραφείου Τεχνητής Νοημοσύνης για τις Απαγορευμένες Πρακτικές στο πλαίσιο της AI Act.
Τον Νοέμβριο του 2024, το Γραφείο Τεχνητής Νοημοσύνης της Ευρωπαϊκής Επιτροπής ξεκίνησε διαβούλευση σχετικά με τις απαγορευμένες πρακτικές συστημάτων ΤΝ και τον ορισμό των συστημάτων Τεχνητής Νοημοσύνης που προβλέπουν οι διατάξεις του Κανονισμού για την Τεχνητή Νοημοσύνη.
Οι κατευθυντήριες γραμμές που βρίσκονται υπό επεξεργασία θα βοηθήσουν τις εθνικές αρμόδιες αρχές, καθώς και τους παρόχους, να συμμορφωθούν με τους κανόνες του Κανονισμού για την Τεχνητή Νοημοσύνη όσον αφορά αυτές τις πρακτικές, πριν από την εφαρμογή των σχετικών διατάξεων στις 2 Φεβρουαρίου 2025.
Η Homo Digitalis συμμετείχε σε αυτή τη δημόσια διαβούλευση υποβάλλοντας τις προτάσεις μας, με στόχο να αναδείξουμε προκλήσεις και να παρέχουμε περαιτέρω σαφήνεια σχετικά με πρακτικά ζητήματα και επιμέρους περιπτώσεις χρήσης.
Η ομάδα συγγραφής της δημόσιας διαβούλευσης αποτελείται από τη Διευθύντρια Ανθρωπίνων Δικαιωμάτων και Τεχνητής Νοημοσύνης μας, Λαμπρινή Γυφτοκώστα, και τα μέλη μας Σοφία Αντωνοπούλου και Σταυρίνα Χούσου.
Μπορείτε να διαβάσετε την παρέμβασή μας εδώ.
Μείνετε συντονισμένοι, καθώς σύντομα θα δημοσιεύσουμε την ειδική μας αναφορά σχετικά με τον Κανονισμό για την Τεχνητή Νοημοσύνη και τις διατάξεις του για τις Απαγορευμένες Πρακτικές!
Δημοσιεύουμε τη Δεύτερη Μελέτη μας για το AI Act για τις αρμόδιες αρχές εποπτείας και το οικοσύστημα διακυβέρνησης της ΤΝ
Σήμερα η Homo Digitalis δημοσιεύει τη δεύτερη μελέτη της για τον Κανονισμό 2024/1689, τη πασίγνωστη πλέον AI Act με τίτλο «Πράξη για την Τεχνητή Νοημοσύνη: Ανάλυση Διατάξεων για τη Διακυβέρνηση της ΤΝ και τις Αρμόδιες Αρχές Εποπτείας».
Η συγγραφική ομάδα της μελέτης αποτελείται από τη Διευθύντρια Δικαιωμάτων του Ανθρώπου και Τεχνητής Νοημοσύνης της Homo Digitalis, Λαμπρινή Γυφτοκώστα, και το μέλος μας Νίκη Γεωργακοπούλου.
Σκοπός της παρούσας ανάλυσης της Homo Digitalis είναι η ανάδειξη ορισμένων κρίσιμων ζητημάτων που εγείρει η εφαρμογή των διατάξεων περί συστήματος διακυβέρνησης της ΤΝ, λαμβάνοντας υπόψη τις εθνικές δομές αλλά και την οπτική της κοινωνίας των πολιτών.
Πιο συγκεκριμένα στην ανάλυση αυτή απαντάμε στα εξής ερωτήματα:
- Ποια δομή διακυβέρνησης προτείνει ο Κανονισμός για την ΤΝ;
- Τι σημαίνει για τον Κανονισμό για την ΤΝ η έννοια “αρχή εποπτείας της αγοράς”;
- Τι ισχύει στον Κανονισμό 2019/1020 και γιατί πρέπει να εξετάσουμε τις διατάξεις του μαζί με την AI Act;
- Ποιες ελληνικές αρχές πληρούν τις προϋποθέσεις που θέτουν οι δύο Κανονισμοί και γιατί;
- Ποια μοντέλα διακυβέρνησης έχουν υιοθετηθεί ή είναι υπό συζήτηση σε άλλες χώρες στην παρούσα χρονική στιγμή;
- Ποιοι είναι οι κύριοι προβληματισμοί μας;
- Ποιες οι βασικές μας βελτιωτικές προτάσεις;
Μπορείτε να διαβάσετε τη Μελέτη μας εδώ.
Θυμίζουμε ότι στις 12 Νοεμβρίου, το Υπουργείο Ψηφιακής Διακυβέρνησης έκανε το πρώτο επίσημο βήμα για την εφαρμογή της AI Act, δημοσιεύοντας τον κατάλογο των εθνικών αρχών για την προστασία των Θεμελιωδών Δικαιωμάτων. Οι αρχές αυτές περιλαμβάνουν: Την Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα, Τον Συνήγορο του Πολίτη, Την Αρχή Διασφάλισης του Απορρήτου των Επικοινωνιών και Την Εθνική Επιτροπή Δικαιωμάτων του Ανθρώπου.
Σχετικά με αυτό, ήδη από τις 25 Οκτωβρίου, με την πρώτη Μελέτη μας «Ανάλυση και προτάσεις ενσωμάτωσης των διατάξεων για την εκτίμηση αντικτύπου στα θεμελιώδη δικαιώματα στην Ελλάδα», είχαμε παρουσιάσει λεπτομερείς προτάσεις γι’ αυτό το ζήτημα. Αν δεν προλάβατε να διαβάσετε τη μελέτη μας, σας προσκαλούμε να δείτε την περίληψη μίας σελίδας που ετοιμάσαμε, ειδικά για τις Εθνικές Αρχές Θεμελιωδών Δικαιωμάτων.
Η δημοσίευση του Υπουργείου ήταν μόνο το πρώτο βήμα. Επόμενη κρίσιμη υποχρέωση είναι ο θεσμικός σχεδιασμός των αρχών εποπτείας της αγοράς, ο οποίος πρέπει να ολοκληρωθεί έως τις 2 Αυγούστου 2025, σύμφωνα με το άρθρο 113 του Κανονισμού.
Η δεύτερη Μελέτη που δημοσιεύουμε σήμερα έχει ακριβώς ως σκοπό να σταθεί αρωγός στο Υπουργείο Ψηφιακής Διακυβέρνησης που έχει ως αποστολή να εκπονήσει το δύσκολο έργο της σύνθεσης του εν λόγω οικοσυστήματος στην Ελλάδα, αλλά και με τις λεπτομερείς αναλύσεις και τα επιχειρήματά μας να βοηθήσουμε στην ωρίμανση του δημόσιου διαλόγου και να δώσουμε τη δυνατότητα σε περισσότερες οργανώσεις της Κοινωνίας των Πολιτών να συμμετέχουν ενεργά σε αυτόν.
Ασφαλείς Διαδρομές στο Διαδίκτυο: Οδηγός για Γονείς και Ανήλικους
Γράφει η Σταυρίνα Χούσου*
Σύμφωνα με την UNICEF, το 1/3 των διαδικτυακών χρηστών είναι ανήλικοι, ενώ παιδιά 8-18 ετών περνούν περίπου το 1/3 της ημέρας τους online. Το διαδίκτυο είναι άρρηκτο και συχνά ευεργετικό στοιχείο της ζωής της «διασυνδεδεμένης γενιάς», αλλά κρύβει και κινδύνους. Η έλλειψη εκπαίδευσης και η έμφυτη αθωότητά τους, καθιστούν τα παιδιά ευάλωτους διαδικτυακούς στόχους.
Βασικά σημεία
Η συζήτηση για την κυβερνοασφάλεια πρέπει να ξεκινάει όταν το παιδί πρωτοέρχεται σε επαφή με το διαδίκτυο, με απλούς τρόπους όπως ρωτώντας το για τους σκοπούς των εφαρμογών και των αναζητήσεών του, αλλά και τους πιθανούς κινδύνους τους. Για τα μικρά παιδιά (3-8 ετών), η αυτόνομη χρήση του διαδικτύου δεν είναι ασφαλής. Οι γονείς και κηδεμόνες πρέπει να εξοικειωθούν με τους γονικούς ελέγχους στις ρυθμίσεις των συσκευών και εφαρμογών (ΜΚΔ, πλατφόρμες streaming), ώστε να περιορίζουν το περιεχόμενο, τον χρόνο οθόνης και τη πρόσβαση σε τρίτες ιστοσελίδες στα παιδιά. Αυτό βέβαια δεν υποκαθιστά τον ρόλο της συζήτησης και της ενεργούς ενασχόλησης.
Κίνδυνοι και τρόποι προστασίας
Σε όλη τη διάρκεια της ζωής τους τα παιδιά θα έρθουν σε επαφή με πληθώρα διαδικτυακών κινδύνων. Από νωρίς πρέπει να μάθουν να τους εντοπίζουν και να προφυλάσσονται κατάλληλα.
Θύτες και απατεώνες στο διαδίκτυο. Θύτες εκμεταλλεύονται την αθωότητα των παιδιών για να τα παρασύρουν σε επικίνδυνες καταστάσεις ή να αποσπάσουν προσωπικά δεδομένα. Κοινωνικά δίκτυα και πλατφόρμες παιχνιδιών προσφέρουν ανώνυμους χώρους που διευκολύνουν αυτές τις επαφές. Ακόμα κι αν τα παιδιά είναι ενημερωμένα, μπορεί να δελεαστούν από προσφορές δωρεάν πρόσβασης σε παιχνίδια ή άλλα προνόμια.
Το ‘grooming’ αναδεικνύεται ως η βασικότερη μέθοδος των θυτών και αφορά τη δημιουργία συναισθηματικής σχέσης με ένα παιδί στο διαδίκτυο, με σκοπό την κακοποίηση ή την σεξουαλική εκμετάλλευση. Σε αυτές τις περιπτώσεις, δεν μπορεί να υποκατασταθεί η παραδοσιακή, αλλά προσαρμοσμένη για την ψηφιακή εποχή, συζήτηση για τους κινδύνους από ξένους.
Κι αυτός ο κίνδυνος δεν πρέπει να υποτιμάτε. Σχεδόν το 90% των URLs με υλικό σεξουαλικής κακοποίησης παιδιών βρίσκονται στην ΕΕ, σύμφωνα με την Europol. Το 94% των αναφορών αφορούσε τις πλατφόρμες της Meta, όπου οι κρυπτογραφημένες συνομιλίες παρέχουν κάλυψη στους εγκληματίες. Επιπλέον, σύμφωνα με το Online Grooming Communication Project (OGC) μόλις 18 λεπτά επικοινωνίας αρκούν για να κερδίσουν οι groomers την εμπιστοσύνη ενός παιδιού.
Phishing και κακόβουλο λογισμικό. Το phishing είναι μια από τις πιο διαδεδομένες μορφές διαδικτυακής απάτης. Οι επιτιθέμενοι αποσπούν ευαίσθητες πληροφορίες μέσω παραπλανητικών μηνυμάτων ή ιστοσελίδων. Τα παιδιά δυσκολεύονται να αναγνωρίσουν αυτές τις απάτες, καθώς συχνά είναι εξαιρετικά πειστικές και φαίνεται να προέρχονται από γνωστούς ή αξιόπιστες πηγές. Κακόβουλα λογισμικά, που περιέχουν ιούς ή αποσπούν δεδομένα, συχνά κρύβονται πίσω από συνδέσμους που διαμοιράζονται μέσω phishing ή άλλων επιθέσεων. Τα παιδιά είναι πιθανό να ανοίξουν τέτοιους συνδέσμους, αφού συχνά συνοδεύονται από δελεαστικές προσφορές ή εμφανίζονται ως παιχνίδια.
Είναι σημαντικό να εκπαιδεύσουμε τα παιδιά να αναγνωρίζουν τα σημάδια τέτοιων ενεργειών, αποφεύγοντας συνδέσμους από άγνωστους ή ύποπτους αποστολείς και αξιολογώντας ύποπτα μηνύματα, όπως αυτά χωρίς περιεχόμενο. Αυτούς ακριβώς τους κινδύνους θίγει και η Ευρωπαϊκή Καμπάνια Κυβερνοασφάλειας 2024 #ThinkB4UClick.
Υπερβολική ή άκριτη κοινοποίηση προσωπικών στοιχείων. Η δημοσίευση προσωπικών δεδομένων στο διαδίκτυο απαιτεί προσοχή, καθώς στοιχεία όπως φωτογραφίες και διευθύνσεις μπορούν να οδηγήσουν στην ταυτοποίηση του παιδιού. Τα παιδιά πρέπει να κατανοούν τη σημασία των ιδιωτικών προφίλ και να έχουν τον έλεγχο των πληροφοριών τους. Επιπλέον, πρέπει να εκπαιδεύονται σχετικά με το «διαδικτυακό αποτύπωμα», καθώς οτιδήποτε δημοσιεύεται μπορεί να παραμείνει μόνιμα, καθιστώντας την προστασία της ιδιωτικότητας εξαιρετικά σημαντική.
Κυβερνοεκφοβισμός Έρευνες δείχνουν ότι περίπου 60% των παιδιών έχουν γίνει μάρτυρες διαδικτυακού εκφοβισμού, χωρίς να έχουν αντιδράσει. Ο καλύτερος τρόπος αντιμετώπισης είναι ενθαρρύνετε το παιδί να επικοινωνεί για τις διαδικτυακές εμπειρίες που το προβληματίζουν, αλλά και να ακολουθεί τον χρυσό κανόνα: «Μην κάνεις ό,τι δε θέλεις να σου κάνουν». Η κυβερνοασφάλεια δεν έχει πάντα τεχνικές ρίζες. Η καλλιέργεια ενός ευγενούς και κριτικού ανθρώπου είναι η πρώτη γραμμή άμυνας.
Παραπληροφόρηση. Ενθαρρύνετε τα να σκέφτονται κριτικά για ό,τι βρίσκουν online και εκπαιδεύστε τα να αναγνωρίζουν αξιόπιστες πηγές. Είναι απαραίτητο να αξιολογούν την πηγή της πληροφορίας (ποιος είναι ο συγγραφέας και ποιος ο σκοπός του) και τα χαρακτηριστικά του ιστότοπου (π.χ. URL, domain). Επίσης, πρέπει να σκεφτούν αν οι πληροφορίες είναι λογικές και αν συνάδουν με όσα ήδη γνωρίζουν, ή αν χρειάζεται να βρουν άλλες πηγές για επιβεβαίωση. Για μεγαλύτερα παιδιά και ενήλικες, η σειρά εκπαιδευτικών βίντεο Online Verification Skills είναι εξαιρετική πηγή, ενώ για μικρότερα παιδιά, αξιόλογο εργαλείο αποτελεί το εκπαιδευτικό παιχνίδι της Μαρίας Παππά, ‘Αλήθεια, Άποψη ή Ανακρίβεια’.
Ο ρόλος των «μεγάλων» στην κυβερνοασφάλεια των «μικρών»
Σεβασμός της ιδιωτικότητας. Μοιραστείτε φωτογραφίες των παιδιών μόνο με στενούς φίλους ή οικογένεια, σε κρυπτογραφημένα κανάλια. Απενεργοποιήστε τις υπηρεσίες τοποθεσίας και αναγνώρισης προσώπου, και αποφύγετε τη δημοσίευση φωτογραφιών που αποκαλύπτουν προσωπικές πληροφορίες. Αφαιρέστε τα μεταδεδομένα EXIF από τις φωτογραφίες που μοιράζεστε για να τις προστατεύσετε σε περίπτωση διαρροής.
Πολλές ευρωπαϊκές Αρχές Προστασίας Προσωπικών Δεδομένων συμβουλεύουν τους γονείς να αποφεύγουν τη δημοσίευση προσωπικού υλικού των παιδιών τους, καθώς τα μικρά παιδιά δεν μπορούν να δώσουν ενημερωμένη συγκατάθεση. Αυτή η πρακτική επίσης εκθέτει τα παιδιά σε σοβαρούς κινδύνους. Ακόμη και μια απλή φωτογραφία μπορεί να ταυτοποιήσει ένα παιδί, αυξάνοντας τον κίνδυνο κλοπής ταυτότητας ή ψηφιακής απαγωγής, όπου οι εικόνες των παιδιών χρησιμοποιούνται σε ψεύτικους λογαριασμούς. Σύμφωνα με προβλέψεις της Barclays, έως το 2030, η δημόσια κοινοποίηση εικόνων από γονείς θα μπορούσε να ευθύνεται για τα 2/3 όλων των περιπτώσεων απάτης ταυτότητας.
Ευθύνη των ενηλίκων η προστασία των ψηφιακών υποδομών του νοικοκυριού. Ενημερώστε τα λογισμικά των συσκευών σας συχνά – και ιδανικά αυτόματα. Χρησιμοποιήστε ασφαλές, ιδιωτικό Wi-Fi. Σε δημόσια δίκτυα, προτιμήστε VPN για μεγαλύτερη ασφάλεια και περιορίστε τις αναζητήσεις σας. Εγκαταστείτε λογισμικά ασφαλείας και anti-virus.
Τα παιδιά μεγαλώνουν. Έτσι, η επιθυμία τους για αυτονομία αυξάνεται. Είναι κρίσιμο να μεταβούμε σταδιακά από την εποπτεία στην εμπιστοσύνη, επιτρέποντάς τους να χρησιμοποιούν τα εργαλεία που τους έχετε παρέχει, πάντα με λογικά όρια, ανοιχτή επικοινωνία και υποστηρίζοντας τις αξίες που τους εμφυσουμε. Η ισορροπία μεταξύ αυτονομίας και εποπτείας είναι μια νέα συζήτηση, κι ενώ υπάρχουν χρήσιμες οδηγίες, δεν υπάρχουν απόλυτες λύσεις.
Αναφορά ακατάλληλων συμπεριφορών: Χρησιμοποιήστε τα φίλτρα αναφοράς στα ΜΚΔ για να επισημάνετε ύποπτες ή ανάρμοστες συμπεριφορές που αφορούν ανήλικους. Μην επαναπαύεστε και μην αγνοείται ανησυχητικά περιστατικά. Πολλά παιδιά μπορεί να μην απολαμβάνουν της προστασίας που τους αξίζει.
Επίλογος
Η εκπαίδευση των παιδιών για την κυβερνοασφάλεια προϋποθέτει την συνεχή ενημέρωση και εκπαίδευση των ενηλίκων. Ας μείνουμε ενεργοί, ενήμεροι και προσιτοί ιδιαίτερα στα παιδιά που βρίσκονται κάτω από τη φροντίδα μας. Είναι ευθύνη όλων μας.
Σύνδεσμοι για περαιτέρω ενημέρωση/Επιμόρφωση:
- Protecting Kids Online | Security.org
- Center of Missing and Epxloited Children: Courses
* H Σταυρίνα Χούσου είναι απόφοιτος της Σχολής Διεθνών και Ευρωπαϊκών Σπουδών του Πανεπιστημίου του Πειραιά και κάτοχος Μεταπτυχιακού Διπλώματος στη Δημόσια Πολιτική και τις Νέες Τεχνολογίες από το Πανεπιστήμιο Sciences Po Paris. Εργάζεται ως Regulatory Consultant στην εταιρεία naaia.ai, μία συμβουλευτική για θέματα που άπτονται της ΤΝ και της διαχείρισης δεδομένων.
Δημοσιεύουμε την πρώτη αναλυτική μελέτη μας για το AI Act και τις διατάξεις των FRIAs
Η Homo Digitalis δημοσιεύει σήμερα την πρώτη Μελέτη της για τον Ευρωπαϊκό Κανονισμό για την Τεχνητή Νοημοσύνη με τίτλο «Πράξη για την Τεχνητή Νοημοσύνη: Ανάλυση και προτάσεις ενσωμάτωσης των διατάξεων για την εκτίμηση αντικτύπου στα θεμελιώδη δικαιώματα στην Ελλάδα».
Συγγραφείς της πρώτης αυτής Μελέτης αποτελούν το μέλος μας Σοφία Αντωνοπούλου και η Διευθύντρια Δικαιωμάτων του Ανθρώπου & Τεχνητής Νοημοσύνης της Homo Digitalis, Λαμπρινή Γυφτοκώστα.
Η Μελέτη αποτελεί την πρώτη από μία σειρά αναλύσεων που θα δημοσιεύσουμε στο προσεχές διάστημα σχετικά με διάφορες σημαντικές διατάξεις του Κανονισμού για την Τεχνητή Νοημοσύνη, οι οποίες έχουν ως σκοπό τόσο να ενημερώσουν τους φορείς λήψεων αποφάσεων στην Ελλάδα για σημαντικές διατάξεις του AI Act προκειμένου να βοηθήσουν στην επιτυχημένη εφαρμογή του, όσο και να πλαισιώσουν τον δημόσιο διάλογο για την Τεχνητή Νοημοσύνη στη χώρα μας παραθέτοντας συγκεκριμένα επιχειρήματα και προτάσεις.
Επίκεντρο της πρώτης Μελέτης της Homo Digitalis είναι η ανάδειξη ορισμένων κρίσιμων ζητημάτων που εγείρει η εφαρμογή των διατάξεων περί Εκτίμησης Αντικτύπου στα Θεμελιώδη Δικαιώματα (ΕΑΘΔ), από την οπτική της κοινωνίας των πολιτών. Εκτός αυτού, στόχος είναι να συμβάλει εποικοδομητικά στον δημόσιο διάλογο, προτείνοντας συγκεκριμένες λύσεις για μια αποτελεσματική διαδικασία εκτίμησης αντικτύπου αναφορικά με τα συστήματα ΤΝ υψηλού ρίσκου.
Συνοπτικά, στα κύρια συμπεράσματα της Μελέτης περιλαμβάνονται οι εξής προβληματισμοί:
- Ο αποκλεισμός από την υποχρέωση διενέργειας ΕΑΘΔ των συστημάτων ΤΝ που χρησιμοποιούνται αποκλειστικά από ιδιωτικές υπηρεσίες.
- Η παντελής έλλειψη κυρώσεων για όσους παραβιάζουν τις διατάξεις για τις ΕΑΘΔ.
- Οι ασάφειες και τα ερμηνευτικά κενά σχετικά με τον τρόπο διενέργειας ΕΑΘΔ, την επικαιροποίηση των στοιχείων και την εκ νέου διενέργεια ΕΑΘΔ, την αξιολόγηση κινδύνων και τα προτεινόμενα μέτρα, την ενημέρωση της αρχής εποπτείας αγοράς και τις εξαιρέσεις από την εν λόγω ενημέρωση της αρχής εποπτείας αγοράς, και
- Η αδιαφάνεια στην χρήση συστημάτων ΤΝ και εκπόνηση ΕΑΘΔ σε τομείς επιβολής του νόμου, διαχείρισης μετανάστευσης και ασύλου και συνοριακών ελέγχων.
Επίσης, συνοψίζονται οι βελτιωτικές προτάσεις σε πέντε βασικά σημεία που είναι κομβικά για την αποτελεσματική προστασία των θεμελιωδών δικαιωμάτων από τυχόν παραβιάσεις συστημάτων ΤΝ:
- Προτείνεται η άσκηση της διακριτικής ευχέρειας με βάση το άρθρο 99 παράγραφος 2 και η θέσπιση κυρώσεων σε περίπτωση μη συμμόρφωσης με τις διατάξεις για τα ΕΑΘΔ. Προτείνεται, περαιτέρω, οι σχετικές κυρώσεις να είναι στην ίδια κλίμακα με αυτές που αφορούν τη μη συμμόρφωση με την απαγόρευση των πρακτικών ΤΝ, σύμφωνα με το άρθρο 99 παράγραφος 3 του Κανονισμού.
- Προτείνεται η θέσπιση αναλυτικών ρυθμίσεων διακυβέρνησης με ξεκάθαρες διαδικασίες διαχείρισης καταγγελιών και προσφυγών καθώς και η εξασφάλιση συμμετοχής συμφεροντούχων στον ελληνικό νόμο που θα ενσωματώσει τον Κανονισμό.
- Τροποποίηση νόμου 4780/2021, οι διατάξεις του οποίου διέπουν τη λειτουργία της Εθνικής Επιτροπής Ανθρωπίνων Δικαιωμάτων για την ανάληψη του ρόλου σύμφωνα με το άρθρο 77 του Κανονισμού υπό προϋποθέσεις.
- Εκτός από το υπόδειγμα για την διενέργεια ΕΑΘΔ, είναι απαραίτητη η εκπόνηση κατευθυντήριων γραμμών, που θα περιλαμβάνουν μια εκτενή ανάλυση της αιτιολογικής σκέψης 96,των άρθρων 6 παράγραφος 2, 27, 43, 46, 49 και 77 του Κανονισμού για την ΤΝ.
Μπορείτε να διαβάσετε αναλυτικά τη Μελέτη της Homo Digitalis εδώ.
Συμμετοχή της Homo Digitalis στην Ανοιχτή διαβούλευση της Ευρωπαϊκής Επιτροπής για την Τεχνητή Νοημοσύνη γενικού σκοπού
Χθες, 18/9 η Homo Digitalis κατέθεσε τις απαντήσεις της στην Ανοιχτή Διαβούλευση της Ευρωπαϊκής Επιτροπής για ζητήματα που αφορούν τη μελλοντική εφαρμογή της νομοθεσίας για την Τεχνητή Νοημοσύνη (AI ACT) και τον τρόπο με τον οποίο μπορεί γίνει αξιόπιστη χρήση των τεχνολογιών τεχνητής νοημοσύνης γενικού σκοπού, συμπεριλαμβανομένων μοντέλων παραγωγικής τεχνητής νοημοσύνης.
Το έγγραφο με τις τοποθετήσεις της Homo Digitalis επί της Διαβούλευσης εκπόνησαν η Διευθύντρια Τεχνητής Νοημοσύνης & Δικαιωμάτων του Ανθρώπου του οργανισμού μας, Λαμπρινή Γυφτοκώστα και το μέλος Τάνια Σκραπαλιώρη.
Μπορείτε να διαβάσετε τη σχετική τοποθέτησή μας εδώ.








