Τεχνητή Νοημοσύνη και Κυβερνοασφάλεια: Πραγματικότητα και Υπερβολές

Του Αναστάσιου Αραμπατζή*

Το τελευταίο χρονικό διάστημα υπάρχει έντονο ενδιαφέρον και επενδύσεις στον τομέα της Τεχνητής Νοημοσύνης από εταιρείες που ελπίζουν να αξιοποιήσουν τη δύναμη αυτόνομων λύσεων με δυνατότητες μάθησης. Η τεχνητή νοημοσύνη χρησιμοποιείται ήδη από οργανισμούς στον ασφαλιστικό κλάδο, στην έρευνα για τον καρκίνο του μαστού, σε χρηματοπιστωτικούς οργανισμούς και στην επιβολή του νόμου.

Εντούτοις, σύμφωνα με μία πρόσφατη έρευνα της ESET, οι υψηλές προσδοκίες των επιχειρήσεων και η παραπλανητική διαφήμιση προϊόντων τεχνητής νοημοσύνης έχουν δημιουργήσει μία υπερβάλλουσα δημοσιότητα σχετικά με την τεχνητή νοημοσύνη, σε σημείο που το 75% των υψηλόβαθμων στελεχών συστημάτων πληροφορικής να θεωρούν την τεχνητή νοημοσύνη ως πανάκεια για τα θέματα κυβερνοσφάλειας των εταιρειών τους. Τέτοιες προσδοκίες, σε συνδυασμό με το επίπεδο της τεχνολογίας της τεχνητής νοημοσύνης, θέτουν τους οργανισμούς σε κίνδυνο. Παρότι η τεχνητή νοημοσύνη είναι εκπληκτικά χρήσιμη στην υποβοήθηση λήψεως αποφάσεων από τους ανθρώπους, από μόνη της δεν μπορεί να αντικαταστήσει μία στρατηγική ασφάλειας πληροφοριών.

Ας πάρουμε για παράδειγμα τις προσπάθειες του Facebook να καταπολεμήσει και να μειώσει τις “ψευδείς ειδήσεις” που διαδίδονται με εκπληκτική ταχύτητα μέσω της πλατφόρμας του.  Η πλατφόρμα κοινωνικής δικτύωσης χρησιμοποίησε τους καλύτερους μηχανικούς της για να αναπτύξουν εργαλεία τεχνητής νοημοσύνης για τον εντοπισμό και εξάλειψη ψευδών ειδήσεων. Παρά τις έντονες προσπάθειές τους, ο Greg Marra, διευθυντής παραγωγής στη Facebook, παραδέχθηκε ότι “μπορούμε να μειώσουμε την εμφάνιση ψευδών ειδήσεων μόνο κατά 80%”. Εάν η τεχνητή νοημοσύνη επιλύει μόνο το 80% των θεμάτων ψευδών ειδήσεων στο Facebook, τότε οι εταιρείες προϊόντων κυβερνοασφάλειας κάνουν μη ρεαλιστικούς ισχυρισμούς.

Η σκληρή αλήθεια είναι ότι μεγάλο μέρος του ενθουσιασμού που περιβάλλει την τεχνητή νοημοσύνη είναι υπερβολή. Εντούτοις η τεχνητή νοημοσύνη προσφέρει ελπίδες για υψηλής νοημοσύνης λύσεις. Είναι ώρα για ένα τεστ αλήθειας: τι μπορεί και τι δεν μπορεί να κάνει η τεχνητή νοημοσύνη;

  • Η τεχνητή νοημοσύνη μπορεί να βοηθήσει στο επίπεδο κυβερνοασφάλειας ενός οργανισμού

Η αλήθεια είναι ότι ο τομέας της κυβερνοσφάλειας είχε ανάγκη μία τεχνολογία σαν την τεχνητή νοημοσύνη λόγω των σημαντικών αλλαγών στο τοπίο των απειλών και της έλλειψης εξειδικευμένου προσωπικού για τη στελέχωση θέσεων εργασίας κυβερνοασφάλειας.

Τα τελευταία χρόνια σχεδόν κάθε οργανισμός έχει μετασχηματιστεί ψηφιακά (digital transformation). Ο όρος ψηφιακός μετασχηματισμός υπονοεί τη χρήση ψηφιακών τεχνολογιών για την εκτέλεση μίας διαδικασίας ώστε αυτή να γίνει περισσότερο αποδοτική ή αποτελεσματική. Η γενική ιδέα είναι η χρήση της τεχνολογίας όχι μόνο για να αντιγράψουμε μία υφιστάμενη υπηρεσία σε ψηφιακή μορφή, αλλά για να μετασχηματίσουμε αυτή την υπηρεσία σε κάτι σημαντικά καλύτερο. Ο ψηφιακός μετασχηματισμός μπορεί να περιλαμβάνει πολλές τεχνολογίες, αλλά οι πιο σύγχρονες τάσεις είναι το cloud computing, το Internet of Things (IoT), τα μεγάλα δεδομένα (big data) και η τεχνητή νοημοσύνη.

Εκτός από τη χρήση τεχνολογίας, ο ψηφιακός μετασχηματισμός είναι μία αλλαγή στην κουλτούρα των οργανισμών η οποία επιβάλλει στους οργανισμούς να προκαλούν συνεχώς την υφιστάμενη κατάσταση, να πειραματίζονται και να μαθαίνουν από τις από αποτυχίες τους. Στη σημερινή εποχή το μόνο σταθερό είναι ότι όλα αλλάζουν και η κουλτούρα των οργανισμών πρέπει να διευκολύνει την αλλαγή.

Η χρήση τέτοιων τεχνολογιών έχει ανοίξει νέους ορίζοντες για τις ικανότητες των οργανισμών αλλά έχει επίσης δημιουργήσει νέες πολυπλοκότητες, διασυνδέσεις και σημεία τρωτοτήτων τα οποία οι κυβερνοεγκληματίες έμαθαν πολύ γρήγορα να εκμεταλλεύονται. Οι παραδοσιακές προσεγγίσεις της περιμετρικής ασφάλειας και κυβερνοσφάλειας δεν ισχύουν πλέον για τον νέο, ψηφιακό οργανισμό. Την ίδια στιγμή, οι ομάδες κυβερνοσφάλειας που αποτελούνται μόνο από ανθρώπους δεν μπορούν να επεξεργαστούν την πλημμύρα δεδομένων απειλών με την οποία έρχονται αντιμέτωποι κάθε μέρα.

Όπως αναφέρει χαρακτηριστικά η σελίδα Security Intelligence της IBM, οι αναλυτές δεδομένων ασφαλείας είναι υπερφορτωμένοι, υποστελεχωμένοι και παρουσιάζουν σημάδια κούρασης και εξόντωσης. Είναι ανθρωπίνως αδύνατο να συμβαδίσουμε με το διαρκώς εξελισσόμενο και εκτεινόμενο πεδίο των απειλών, ειδικά εάν λάβουμε υπόψη τις καθημερινές εργασίες και λειτουργίες ενός κέντρου επιχειρήσεων ασφαλείας (Security Operations Center, SOC). Τι μπορεί να κάνει η τεχνητή νοημοσύνη για να βελτιωθεί αυτή η κατάσταση; Σύμφωνα με μία πρόσφατη αναφορά του Ponemon, οι οργανισμοί οι οποίοι κατάφεραν να αναγνωρίσουν μια παραβίαση ασφαλείας σε λιγότερο από 100 ημέρες κέρδισαν περισσότερο από 1 εκατομμύριο δολάρια σε σύγκριση με αυτούς τους οργανισμούς όπου παρόμοια περιστατικά παρέμειναν άγνωστα για περισσότερο από 100 ημέρες. Παρομοίως, οι οργανισμοί που κατάφεραν να περιορίσουν την παραβίαση σε λιγότερο από 30 ημέρες κέρδισαν άνω του 1 εκατομμυρίου δολαρίων σε σύγκριση με αυτούς που χρειάστηκαν περισσότερο χρόνο.

Η ταχύτητα, ακρίβεια και υπολογιστική ισχύς της τεχνητής νοημοσύνης προσφέρουν μια μοναδική ευκαιρία για την προστασία ενός οργανισμού χωρίς περίμετρο ασφαλείας και για συνεχή επεξεργασία του τεράστιου όγκου δεδομένων απειλών που αντιμετωπίζουν οι οργανισμοί σε καθημερινή βάση. Αυτό γίνεται λόγω του ότι η τεχνητή νοημοσύνη λειτουργεί εξαιρετικά καλά σε επαναλαμβανόμενες εργασίες όπως η αναζήτηση συγκεκριμένων μοτίβων επιθέσεων. Έτσι, η υλοποίηση της τεχνητής νοημοσύνης στους οργανισμούς μπορεί να βοηθήσει στην αποτελεσματική αντιμετώπιση της έλλειψης πόρων που αντιμετωπίζουν τα περισσότερα κέντρα επιχειρήσεων ασφαλείας και μπορεί να προσφέρει οφέλη μεγέθους κλίμακας στην πρόληψη και αναγνώριση προσβολών, στην αναγνώριση απάτης και στην κακή χρησιμοποίηση πιστοποιητικών ταυτοποίησης.

Επιπρόσθετα, οι αλγόριθμοι τεχνητής νοημοσύνης μπορούν να εφαρμοστούν για την συμπεριφορική ανάλυση χρηστών και δικτύων. Για παράδειγμα οι αλγόριθμοι μπορούν να χρησιμοποιηθούν για τη διερεύνηση δραστηριοτήτων ανθρώπων και συσκευών ώστε να σηματοδοτηθούν πιθανές κακόβουλες δραστηριότητες εκ των έσω.

  • Η Τεχνητή Νοημοσύνη Δεν Είναι Μαγεία

Ο Arthur Clarke είχε γράψει ότι “Οποιαδήποτε ικανοποιητικά προηγμένη τεχνολογία δεν διακρίνεται από τη μαγεία”. Αυτό όμως δεν είναι αλήθεια για την τεχνητή νοημοσύνη. Ο επικεφαλής Τεχνητής Νοημοσύνης της Google, Rodney Brooks, σημειώνει ότι “Η Τεχνητή Νοημοσύνη έχει υπερεκτιμηθεί ξανά και ξανά, και τη δεκαετία του 1960, και τη δεκαετία του 1980 και πάλι σήμερα, αλλά οι μακροπρόθεσμες προοπτικές της έχουν υποεκτιμηθεί”. Στην πραγματικότητα, σύμφωνα με τον Brooks, η Τεχνητή Νοημοσύνη είναι μία ακόμα εφαρμογή του νόμου του Amara, ο οποίος λέει ότι “Τείνουμε να υπερεκτιμάμε την επίδραση της τεχνολογίας βραχυπρόθεσμα, και να υποεκτιμούμε την μακροπρόθεσμη επίδρασή της”.

Ένα λάθος που κάνουμε είναι η τάση να θεωρούμε την Τεχνητή Νοημοσύνη ως ένα είδος “μαγικής σκόνης” που την ψεκάζουμε σε ένα οργανισμό και αυτός, ξαφνικά, γίνεται πιο έξυπνος. Ο Andrew Moore, επικεφαλής του Τμήματος Επιχειρήσεων Cloud AI της Google, είπε πρόσφατα ότι “η Τεχνητή Νοημοσύνη αφορά τη χρήση μαθηματικών ώστε οι μηχανές να παίρνουν αληθινά καλές αποφάσεις. Επί του παρόντος δεν αφορά την εξομοίωση της ανθρώπινης νοημοσύνης. Η επίλυση προβλημάτων τεχνητής νοημοσύνης περιλαμβάνει πολλή μηχανική, πολλά μαθηματικά και γραμμική άλγεβρα. Δεν είναι με κανένα τρόπο μία μαγικού τύπου λύση”.

Στην πραγματικότητα οι σημερινοί αλγόριθμοι τεχνητής νοημοσύνης δεν είναι τίποτα άλλο από παραδοσιακοί αλγόριθμοι εκμάθησης μηχανών. Η εκμάθηση μηχανών χρησιμοποιεί στατιστικές τεχνικές για να δώσει στους υπολογιστές την ικανότητα να “μαθαίνουν”. Χρησιμοποιούν δηλαδή δεδομένα για να βελτιώνουν σταδιακά την απόδοση των υπολογιστών σε συγκεκριμένες εργασίες χωρίς επιπρόσθετο προγραμματισμό. Ένα σύστημα εκμάθησης μηχανών είναι ένα σύνολο αλγορίθμων που δέχεται πακέτα δεδομένων και αποδίδει συσχετισμούς, προτάσεις και ίσως και αποφάσεις. Η εν λόγω τεχνολογία είναι ήδη πανταχού παρούσα: κάθε “συναλλαγή” μας με την Google, την Amazon, την Facebook και τη Spotify διευκολύνεται από συστήματα εκμάθησης μηχανών.

Εν κατακλείδι, όπως ανέφερε η Fei-Fei Li, καθηγήτρια στο Πανεπιστήμιο του Stanford, “δεν υπάρχει τίποτα το τεχνητό στην τεχνητή νοημοσύνη. Είναι εμπνευσμένη από ανθρώπους, έχει δημιουργηθεί από ανθρώπους και – το πιο σημαντικό – επηρεάζει τους ανθρώπους. Είναι ένα πολύ δυνατό εργαλείο που μόλις αρχίζουμε να το καταλαβαίνουμε και αυτό εμπεριέχει μεγάλη ευθύνη”.

  • Η Τεχνητή Νοημοσύνη δεν Εξαλείφει την Ανθρώπινη Νοημοσύνη

Η τεχνητή νοημοσύνη εστιάζει κυρίως στην ανάπτυξη της εκμάθησης των μηχανών, ώστε να επεξεργάζονται τεράστιες ποσότητες δεδομένων απειλών. Η ικανότητα της τεχνητής νοημοσύνης να πραγματοποιεί αυτές τις δραστηριότητες χωρίς περιορισμούς και σε σχεδόν πραγματικό χρόνο, την κάνει ένα πολύτιμο σύμμαχο για την υλοποίηση ενός μοντέρνου, αποτελεσματικού προγράμματος κυβερνοασφάλειας. Αυτές οι δραστηριότητες μπορούν να πραγματοποιηθούν σε κάθε στάδιο της κυβερνοσφάλειας, επιτρέποντας στη τεχνητή νοημοσύνη να προσφέρει αξία πριν, κατά και μετά την εκδήλωση μίας κυβερνοεπίθεσης. Αλλά, η τεχνητή νοημοσύνη δεν αντιγράφει την ανθρώπινη ενόραση. Δεν αναιρεί την απαίτηση για ανθρώπινους εμπειρογνώμονες στην κυβερνοασφάλεια.

Όπως αναφέρεται και σε ένα άρθρο του περιοδικού Computer Weekly, τα εργαλεία εκμάθησης μηχανών είναι “πολύτιμα” για την ανάλυση κακόβουλου λογισμικού διότι είναι ικανά να μάθουν γρήγορα τη διαφορά μεταξύ καθαρών και μολυσμένων δεδομένων όταν τροφοδοτούνται με κατάλληλα δείγματα. Αυτές οι μηχανές είναι τόσο καλές όσο και τα δεδομένα που εισάγονται σε αυτές. Σε τελική ανάλυση, είναι ο άνθρωπος που χρειάζεται να ξέρει πως να ρωτήσει τις κατάλληλες ερωτήσεις ώστε να αξιοποιήσει στο μέγιστο τις δυνατότητες της τεχνητής νοημοσύνης.

Τα διάφορα εργαλεία τεχνητής νοημοσύνης μπορούν να καταγράψουν και να αναφέρουν βασικά δεδομένα συστήματος ακόμα και χωρίς την ανθρώπινη επίβλεψη, αλλά δεν μπορούν να σχεδιάσουν έξυπνα σχέδια ανταπόκρισης σε απειλές. Η τελευταία δήλωση είναι σύμφωνη και με τα ευρήματα πρόσφατης έρευνας του ινστιτούτου Ponemon ότι το 55% των συναγερμών ασφαλείας που ανιχνεύονται από συστήματα τεχνητής νοημοσύνης απαιτεί ενέργειες από τον άνθρωπο.

  • Προκατειλημμένοι Αλγόριθμοι

Η τεχνητή νοημοσύνη έχει ένα ακόμα πρόβλημα: οι προκαταλήψεις και οι αντιλήψεις των δημιουργών των αλγορίθμων αποτυπώνονται σε αυτούς. Όπως σημειώνει και η καθηγήτρια του Stanford, Fei-Fei Li, συστήματα τεχνητής νοημοσύνης είναι “εισαγωγή προκαταλήψεων και παραγωγή προκαταλήψεων”. Παρότι οι αλγόριθμοι που βρίσκονται πίσω από την τεχνητή νοημοσύνη φαίνεται να είναι ουδέτεροι, τα δεδομένα που παράγονται από αυτούς δεν είναι. Αυτό που έχει σημασία είναι οι άνθρωποι που δημιουργούν αυτούς τους αλγορίθμους και γιατί τους δημιουργούν.

Για το ίδιο θέμα, ο Justin Sherman, ερευνητής κυβερνοσφάλειας στο ινστιτούτο New America έγραψε ότι: “Αυτό που παραβλέπεται συχνά είναι η διασύνδεση μεταξύ αλγορίθμων και προκαταλήψεων. Αντίθετα με το τι πιστεύουν πολλοί από εμάς, η τεχνολογία δεν είναι αντικειμενική. Οι αλγόριθμοι της τεχνητής νοημοσύνης και η διαδικασία λήψης αποφάσεων καθορίζονται από τα άτομα που τα δημιουργούν. Ο κίνδυνος των προκατειλημμένων αλγορίθμων είναι ήδη μεγάλος. Ως κοινωνία διατρέχουμε μεγάλο κίνδυνο εισάγοντας τις προκαταλήψεις μας – ρατσισμός, ξενοφοβία, σεξισμός, κοινωνικός αποκλεισμός – σε μηχανές που θα παραχθούν σε μαζικούς αριθμούς και θα θεωρούμε ότι λειτουργούν με τεχνολογική αντικειμενικότητα”.

  • Τεχνητή Νοημοσύνη: Εχθρός ή Φίλος;

Τα εργαλεία για την ανάπτυξη συστημάτων τεχνητής νοημοσύνης είναι διαθέσιμα σε όλους. Αναμένεται, λοιπόν, οι κακόβουλοι δρώντες να τα εκμεταλλευτούν και να δημιουργήσουν τεχνολογίες και τεχνικές κυβερνοεπιθέσεων βασισμένες στην τεχνητή νοημοσύνη, οι οποίες θα είναι πιο εξελιγμένες από ότι οι τεχνολογίες που χρησιμοποιούνται για την υπεράσπιση των οργανισμών.Οι εγκληματίες είναι το ίδιο εξειδικευμένοι με τις κοινότητες που αναπτύσσουν τεχνολογίες για την υπεράσπισή τους. Χρησιμοποιούν τις ίδιες τεχνικές, όπως έξυπνες επιθέσεις phishing ή ανάλυση της συμπεριφοράς των πιθανών στόχων για να επιλέξουν τον κατάλληλο τρόπο επίθεσης ή ακόμα “έξυπνο” κακόβουλο λογισμικό το οποίο κρύβεται όταν καταλάβει ότι κάποιος το παρακολουθεί”.

Οι πιο κοινοί τρόποι με τους οποίους οι κυβερνοεγκληματίες μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη είναι η μείωση της αποτελεσματικότητας των αλγορίθμων με μόλυνση των δεδομένων από τα οποία τροφοδοτούνται, κυβερνοεγκλήματα με χρήση chatbots τα οποία αναλύουν και μιμούνται την ανθρώπινη συμπεριφορά, απάτες κλοπής ταυτοτήτων, phishing και επιθέσεις άρνησης παροχής υπηρεσιών (Distributed Denial of Services, DDoS).

  • Υλοποίηση Τεχνολογίας Τεχνητής Νοημοσύνης

Πέρα από το τι μπορεί να κάνει η τεχνητή νοημοσύνη για να αυξήσει το επίπεδο της εταιρικής ασφάλειας, οι εταιρείες πρέπει να σκεφτούν τον τρόπο υλοποίησης αυτής της τεχνολογίας. Πως μπορούν οι οργανισμοί να αναπτύξουν αποτελεσματικά λύσεις τεχνητής νοημοσύνης ώστε να μεγιστοποιήσουν τα αποτελέσματα;

Αρχικά, οι εταιρείες πρέπει να σταματήσουν να σκέφτονται ότι η τεχνητή νοημοσύνη είναι μαγεία. Η τεχνητή νοημοσύνη δεν είναι πανάκεια και δεν θα λύσει όλες τις προκλήσεις ασφαλείας. Η τεχνητή νοημοσύνη θα αυξήσει την απόδοση μόνο εάν χρησιμοποιηθεί εκεί που προσθέτει πραγματική αξία, εάν βοηθά στην επίτευξη του σκοπού της εταιρείας. Είναι αναγκαίο οι ομάδες που στελεχώνουν τα κέντρα επιχειρήσεων ασφαλείας να κατανοήσουν τις δυνατότητες και τους περιορισμούς της τεχνητής νοημοσύνης.

Επίσης πρέπει να βεβαιωθούν ότι μπορούν να ωφεληθούν από την τεχνητή νοημοσύνη μέσω της αυτοματοποίησης των διαδικασιών της ανάλυσης τυποποιημένων απειλών ώστε οι άνθρωποι να εστιάσουν στο μικρό ποσοστό κακόβουλων και πολύπλοκων δραστηριοτήτων. Εκμεταλλευόμενοι τις δυνατότητες της τεχνητής νοημοσύνης, τα κέντρα επιχειρήσεων μπορούν να διπλασιάσουν τον αριθμό των περιστατικών που μπορούν να διαχειριστούν χωρίς να διπλασιάσουν τον αριθμό των αναλυτών.

  • Συμπέρασμα

Η τεχνητή νοημοσύνη είναι πολύ σημαντική και μπορεί να αλλάξει τις ζωές μας με τρόπους που δεν μπορούμε ακόμα να φανταστούμε. Είναι όμως αφελές να ισχυριζόμαστε ότι αυτό έχει ήδη συμβεί. Η τεχνητή νοημοσύνη έχει τεράστιες δυνατότητες και όπου έχει χρησιμοποιηθεί έχει βελτιώσει σημαντικά την ταχύτητα και την ακρίβεια. Εάν συνδυαστεί με τις κατάλληλες διαδικασίες και δεξιότητες καθώς και την κατάλληλη σχεδίαση για ενσωμάτωση στον τρόπο λειτουργίας του οργανισμού, τότε είναι πιθανό να μεγιστοποιήσουμε τα οφέλη της τεχνητής νοημοσύνης και να θέσουμε τα θεμέλια για τη μελλοντική μηχανική ευφυΐα.

* Ο Αναστάσιος Αραμπατζής είναι μέλος της Homo Digitalis, απόστρατος Αξιωματικός της Πολεμικής Αεροπορίας με πάνω από 25 χρόνια εμπειρία σε θέματα ασφάλειας πληροφοριών. Κατά τη θητεία του στην Π.Α. ήταν πιστοποιημένος αξιολογητής του ΝΑΤΟ σε θέματα κυβερνοασφάλειας και έχει τιμηθεί για τις γνώσεις του και την απόδοσή του. Σήμερα αρθρογραφεί για τη στήλη State of Security της εταιρείας Tripwire και για το blog της Venafi. Άρθρα του έχουν δημοσιευθεί σε πληθώρα έγκριτων ιστοσελίδων.


Διαφάνεια αλγορίθμων και λογοδοσία παρόχων επιγραμμικών υπηρεσιών: Ασκώντας το δικαίωμα αιτιολόγησης

Τα πνευματικά δικαιώματα στην ανωτέρω φωτογραφία ανήκουν στην Any IP Ltd .

της Θεοδώρας Φιρίγγου.*

Σημείωση: Το πρωτότυπο άρθρο είναι δημοσιευμένο στα αγγλικά. Η παρούσα εκδοχή είναι μεταφρασμένη στα ελληνικά από την ομάδα εθελοντών της Homo Digitalis.

Χρησιμοποιώντας τις διάφορες ηλεκτρονικές υπηρεσίες, δεν μπορούμε παρά να μην παρατηρήσουμε ότι βομβαρδιζόμαστε διαρκώς από προτάσεις για διαδικτυακό περιεχόμενο της αρεσκείας μας, προϊόντα, αλλά και υπηρεσίες διαφόρων διαφημιστών.

Το YouTube και το Netflix, για παράδειγμα, προβάλλουν προτεινόμενα βίντεο, το Spotify παρέχει βοήθεια για την ανακάλυψη νέας μουσικής με το Spotify Radar, ενώ το Facebook και άλλες πλατφόρμες διαφημίζουν προϊόντα σύμφωνα με τις προηγούμενες αναζητήσεις των χρηστών τους. Κοινός παρανομαστής για τη χρήση τέτοιων αλγοριθμικών συστημάτων από τους διάφορους παρόχους ηλεκτρονικών υπηρεσιών είναι η επιθυμία τους να “ικανοποιούν” το χρήστη, ενισχύοντας την εξατομικευμένη του ψηφιακή εμπειρία.

Ωστόσο, είναι αυτή η απόπειρα να εξατομικευθεί η αλληλεπίδρασή σου με την εκάστοτε υπηρεσία πράγματι τόσο αθώα και πώς ένας αλγόριθμος αποφασίζει για το τι θα σου άρεσε να δεις ή να ακούσεις;

Ίσως να σου έχει συμβεί: γνωρίζεις κάποιον, και έπειτα λαμβάνεις ξαφνικά πρόταση από το Facebook να κάνεις αίτημα φιλίας σε αυτό το άτομο· ή συζητάς για ένα προϊόν στην εφαρμογή Messenger  και το ίδιο προϊόν ύστερα διαφημίζεται στην αρχική σου σελίδα στο Facebook. Δεν είναι τρομακτικό; Και τι θα συμβεί εάν τα πράγματα γίνουν πιο σοβαρά, πχ. στην περίπτωση που ένας χρήστης καταλήξει εγκλωβισμένος σε μια φιλτραρισμένη φούσκα περιορισμένης θεώρησης του κόσμου, ή εάν υπάρξει θύμα διακριτικής μεταχείρισης κατά την προσφορά μιας προτεινόμενης θέσης εργασίας;

Όντας προβληματισμένη από μία σειρά αναπάντητων ερωτημάτων, επεδίωξα να διεκπεραιώσω μια έρευνα αναφορικά με το δικαίωμα αιτιολόγησης. Πέντε μήνες αργότερα και έχοντας διεξάγει εμπειρική έρευνα ασκώντας το δικαίωμα μου κατά παρόχων ηλεκτρονικών υπηρεσιών, έλαβα βραβείο για τη διατριβή μου στην αλγοριθμική λογοδοσία και το δικαίωμα αιτιολόγησης. Με αυτό το άρθρο θα ήθελα να μοιραστώ κάποιες από τις διαπιστώσεις μου μαζί με το κοινό της Homo Digitalis.

Εντοπισμός του προβλήματος

Εξαιτίας της πολυσύνθετης και αδιαφανούς φύσης των αλγοριθμικών συστημάτων, η εκτεταμένη χρήση τους στην αυτοματοποιημένη λήψη αποφάσεων, συμπεριλαμβανομένης της κατάρτισης προφίλ, έχει προξενήσει ερωτήματα σχετικά με θέματα διαφάνειας και λογοδοσίας. Οι αλγόριθμοι νοούνται ως ένα “μαύρο κουτί” και έτσι επιβραδύνουν κάθε απόπειρα αξιολόγησης της διαδικασίας λήψης αποφάσεων και των αποτελεσμάτων αυτής.

Ταυτόχρονα, οι διατάξεις της Ευρωπαϊκής νομοθεσίας για την προστασία των προσωπικών δεδομένων, όπως εκείνες του Γενικού Κανονισμού για την Προστασία Δεδομένων (“GDPR”), προβλέπουν την αρχή της διαφανούς επεξεργασίας και την αρχή της λογοδοσίας οι οποίες δεσμεύουν τον υπεύθυνο επεξεργασίας και θέτουν τις αναγκαίες εγγυήσεις για την τήρηση των αρχών αυτών. Μία από τις εγγυήσεις αυτές, είναι το δικαίωμα αιτιολόγησης, η ύπαρξη και το πεδίο εφαρμογής του οποίου έχει, ωστόσο, κινήσει μία εκτενή ακαδημαϊκή συζήτηση.

Το εάν η όχι η εφαρμογή του δικαιώματος αιτιολόγησης στην πράξη, αντικατοπτρίζει τον θεμελιώδη σκοπό του, υπήρξε το βασικό θέμα έρευνας της διατριβής μου. Στο πλαίσιο αυτό χρησιμοποίησα την ακόλουθη μεθοδολογία: Πρώτον, προκειμένου να προσδιορίσω το σκοπό του δικαιώματος, επικεντρώθηκα στην χαρτογράφηση και ανάλυση του ευρωπαϊκού νομοθετικού πλαισίου και της σχετικής βιβλιογραφίας.

Στη συνέχεια, χρησιμοποίησα εμπειρική έρευνα προκειμένου να αντιληφθώ πως λειτουργεί στη πράξη το δικαίωμα αιτιολόγησης. Συγκεκριμένα, άσκησα το εν λόγω δικαίωμα κατά πέντε (5) παρόχων επιγραμμικών υπηρεσιών, ρωτώντας τους αναφορικά με τον τρόπο λειτουργίας των αλγοριθμικών συστημάτων που χρησιμοποιούνται τόσο για προτάσεις εξατομικευμένου διαδικτυακού περιεχομένου όσο και για στοχευμένη διαφήμιση.

Το νομοθετικό πλαίσιο

Παρά την έλλειψη ενός συγκεκριμένου άρθρου για το δικαίωμα στην αιτιολόγηση τόσο στην Οδηγία 95/46 όσο και στον GDPR, το δικαίωμα απορρέει από το Άρθρο 22 και το σημείο 71 των διατάξεων του GDPR σχετικά με τις εγγυήσεις κατά της αυτοματοποιημένης λήψης αποφάσεων, και τα Άρθρα 13(2)(στ), 14(2)(ζ), και 15(1)(η) του GDPR όπως και το Άρθρο 12 της Οδηγίας 95/46.

Ειδικότερα, σύμφωνα με το Άρθρο 22 του GDPR ‘οι υπεύθυνοι επεξεργασίας οφείλουν να λαμβάνουν τα κατάλληλα μέτρα για την προστασία των δικαιωμάτων των υποκειμένων των δεδομένων, των ελευθεριών τους και των εννόμων συμφερόντων τους, τουλάχιστον το δικαίωμά εξασφάλισης ανθρώπινης παρέμβασης έναντι των υπεύθυνων, για να εκφράσουν τη δική τους οπτική γωνία και να προσβάλλουν την απόφαση.

Εξάλλου, όπως αποτυπώνεται στο Άρθρο 13-15 του GDPR, το υποκείμενο των δεδομένων πρέπει να έχει πρόσβαση στα προσωπικά δεδομένα και τις πληροφορίες σχετικά με ‘την ύπαρξη αυτοματοποιημένης λήψης αποφάσεων, ουσιώδης πληροφορία για τη λογική που επικρατεί, καθώς και τη σημασία και τις προβλεπόμενες συνέπειες μιας τέτοιας διαδικασίας για το υποκείμενο των δεδομένων’. Τέλος, σύμφωνα με το Άρθρο 12 της Οδηγίας Προστασίας Δεδομένων οι υπεύθυνοι οφείλουν να παρέχουν στα υποκείμενα των δεδομένων ΄γνώσεις για τη λογική που επικρατεί’ σε οποιαδήποτε αυτοματοποιημένη λήψη αποφάσεων.

Πεδίο και δυνατότητα εφαρμογής του δικαιώματος στην αιτιολόγηση

Μέσω της ανάλυσης των σχετικών νομοθετικών διατάξεων, της ακαδημαϊκής συζήτησης γύρω από αυτές, και των αντιφάσεων της επιχειρηματολογίας κατά του δικαιώματος στην αιτιολόγηση, κατέστη δυνατό να προσδιοριστεί ο σκοπός και το πεδίο εφαρμογής του δικαιώματος αυτού.

Ειδικότερα, από την ανάλυση αποδείχθηκε ότι το δικαίωμα στην αιτιολόγηση συνεπάγεται την παροχή σημαντικών πληροφοριών σχετικά με τη λογική που ακολουθείται, και η σημασία των παρεχόμενων πληροφοριών θα πρέπει να ερμηνεύεται με ευέλικτο τρόπο. Η πληροφορία μπορεί ενδεχομένως να αναφέρεται είτε στη λειτουργία του συστήματος, είτε σε μία συγκεκριμένη απόφαση και μπορεί να αποτελέσει είτε εκ των προτέρων είτε εκ των υστέρων αιτιολόγηση σε σχέση με το χρόνο κατά τον οποίο λήφθηκε η απόφαση.

Επιπλέον, προκειμένου να αξιολογηθεί κατά πόσο μια αιτιολόγηση είναι ή όχι ουσιαστική, η πληροφορία που παρέχεται πρέπει να εξετάζεται υπό το φως της λειτουργικής της αξίας (ιδίως σχετικά με το εάν δίνει τη δυνατότητα στα υποκείμενα των δεδομένων να ασκήσουν τα δικαιώματά τους). Επιπροσθέτως, η επεξήγηση πρέπει να αποβλέπει στην εξατομικευμένη διαφάνεια, υπό την έννοια της προσωπικής κατανόησης της πληροφορίας  σε ουσιαστικό βάθος.

Η πληροφορία πρέπει επίσης να είναι κατανοητή και να παρέχεται σε σαφή και απλή γλώσσα, προκειμένου ένα σύνηθες υποκείμενο δεδομένων (π.χ. συνήθως ένας χρήστης χωρίς εξειδίκευση σε τεχνολογικής φύσεως θέματα) να μπορεί να την αντιληφθεί πλήρως. Όσον αφορά στα κριτήρια εφαρμογής του δικαιώματος, πρέπει να λαμβάνει χώρα μία αυτοματοποιημένη λήψη απόφασης (συμπεριλαμβανομένης και της κατάρτισης προφίλ), η οποία πάρθηκε χωρίς καμία ανθρώπινη παρέμβαση.

Επιπλέον, η αυτοματοποιημένη απόφαση πρέπει να έχει έννομα ή εξίσου σημαντικά αποτελέσματα, τα οποία ωστόσο πρέπει να ερμηνεύονται υπό ευρεία έννοια, συμπεριλαμβανομένων υποθέσεων κατά τις οποίες οι ελευθερίες και τα δικαιώματα του υποκειμένου των δεδομένων απειλούνται ή ακόμα της υπόθεσης στοχευμένης διαφήμισης που στηρίζεται στην ανάλυση προφίλ.

Τέλος, το δικαίωμα στην επεξήγηση πρέπει να είναι σεβαστό ανεξάρτητα από  εμπορικά απόρρητα και δικαιώματα διανοητικής ιδιοκτησίας. Αυτό σημαίνει ότι τα εμπορικά απόρρητα και τα δικαιώματα διανοητικής ιδιοκτησίας δεν μπορούν να δικαιολογήσουν την άρνηση παροχής πληροφοριών και ότι το δικαίωμα προστασίας δεδομένων υπερισχύει του αυτών.

Ζητήματα συμμόρφωσης που ανακύπτουν

Λαμβάνοντας υπόψη το πεδίο και τη δυνατότητα εφαρμογής του δικαιώματος αιτιολόγησης, η εμπειρική μου έρευνα εστίασε στην εξέταση του κατά πόσο το δικαίωμα αυτό πληροί τους σκοπούς του όταν ασκείται στην πράξη.

Συγκεκριμένα, κατέθεσα έναν αριθμό αιτημάτων αιτιολόγησης που αφορούσαν προτεινόμενο διαδικτυακό περιεχόμενο και στοχευμένη διαφήμιση σε πέντε φορείς ηλεκτρονικών υπηρεσιών, ήτοι  Facebook, YouTube, LinkedIn, Spotify και Netflix. Δεν εκπλήσσει το γεγονός ότι τα αποτελέσματα της ανάλυσης της εμπειρικής έρευνας φανέρωσαν έναν μεγάλο αριθμό ζητημάτων συμμόρφωσης και χάσμα μεταξύ θεωρίας και πράξης.

Tόσο η υποβολή των αιτημάτων όσο και η λήψη ουσιωδών πληροφοριών από τους παρόχους αποδείχθηκε ιδιαίτερα απαιτητική ως διαδικασία: απαιτούσε νομικές γνώσεις επί του θέματος, οργάνωση, επιμονή και υπομονή. Με άλλα λόγια, είναι αμφίβολο κατά πόσο ένα σύνηθες υποκείμενο δεδομένων -ένας κανονικός άνθρωπος δηλαδή, χωρίς εξειδικευμένες γνώσεις- θα μπορούσε να διαχειριστεί επαρκώς την άσκηση των δικαιωμάτων του/της αντιμετωπίζοντας τέτοια εμπόδια.

Παρόλο που οι πολιτικές απορρήτου ήταν εύκολα προσβάσιμες, συχνά ήταν προβληματικές από πλευράς πληρότητας και σαφήνειας. Ο προσδιορισμός των κατάλληλων μέσων επικοινωνίας με τους υπεύθυνους επεξεργασίας ήταν ακόμα πιο δύσκολος. Ωστόσο, τα πιο ανησυχητικά ευρήματα προέκυψαν από την επικοινωνία με τους υπευθύνους. Ποικίλες δυσλειτουργίες, όπως η αποφυγή διοικητικού φόρτου εργασίας, έλλειψη γνώσης, η άγνοια, και άρνηση ικανοποίησης των αιτημάτων καθιστούσαν τη διαδικασία πολύπλοκη.

Επιπλέον, οι εξηγήσεις που δόθηκαν δεν ήταν ικανοποιητικές. Δόθηκαν γενικές, αποσπασματικές και παραπλανητικές πληροφορίες, οι οποίες δεν μπορούσαν να εκπληρώσουν τον σκοπό του δικαιώματος στην αιτιολόγηση,  δεδομένου ότι δεν θα μπορούσαν να θεωρηθούν ως ουσιώδεις πληροφορίες.

Κάποιοι υπεύθυνοι επεξεργασίας αρνήθηκαν να δώσουν πλήρη εξήγηση και δικαιολόγησαν τη στάση τους είτε χρησιμοποιώντας λόγους εμπορικού απορρήτου ή υποστήριξαν ότι το Άρθρο 22 του GDPR και συνεπώς το Άρθρο 15 (1)(η), δεν εφαρμόζονται καθώς η αυτοματοποιημένη διαδικασία δεν παράγει έννομα ή εξίσου σημαντικά αποτελέσματα. Βέβαια, κανένα από αυτά τα επιχειρήματα δεν αποτελούν βάσιμες δικαιολογίες στις οποίες οι υπεύθυνοι θα μπορούσαν να βασιστούν ώστε να αποφύγουν να παρέχουν εξήγηση στο υποκείμενο των δεδομένων.

Συνοψίζοντας, το πόρισμα μου από την εμπειρική έρευνα σε έναν περιορισμένο αριθμό φορέων ηλεκτρονικών υπηρεσιών απέδειξε ότι το δικαίωμα στην αιτιολόγηση δεν πληροί το πεδίο εφαρμογής του σύμφωνα με τις διατάξεις της Ευρωπαϊκής νομοθεσίας περί προστασίας προσωπικών δεδομένων όταν ασκείται στη πράξη κατά των υπεύθυνων επεξεργασίας. Το πιο ανησυχητικό είναι το γεγονός ότι επιβεβαιώθηκε ότι τα δικαιώματα των υποκειμένων των δεδομένων καταστρατηγούνται σε μεγάλο βαθμό στο διαδικτυακό περιβάλλον.

Τελικά, μάλλον πρέπει να σκεφτόμαστε διπλά πριν πανηγυρίσουμε αυτή τη γενναιόδωρα ‘ενισχυμένα προσωποποιημένη εμπειρία’ καθώς οι νομικές εγγυήσεις που μας προστατεύουν από δυσμενή επεξεργασία των προσωπικών μας δεδομένων, ειδικά κατά τη διάρκεια της αυτοματοποιημένης λήψης αποφάσεων και της κατάρτισης προφίλ, δεν φαίνεται να εφαρμόζονται από υπεύθυνους επεξεργασίας με δεσπόζουσα θέση στην αγορά. Είναι επομένως αμφίβολο ότι η επεξεργασία των προσωπικών μας δεδομένων γίνεται σύμφωνα με τις αρχές της διαφάνειας και της λογοδοσίας.

*Η Θεοδώρα Φιρίγγου είναι δικηγόρος με εξειδίκευση στο Ποινικό Δίκαιο (LL.M, University of Hamburg) και στο Δίκαιο Διανοητικής Ιδιοκτησίας, Πληροφορίας, Επικοινωνιών και Τεχνολογίας (LL.M IP/ICT Law, KUL). Επικεντρώνει την έρευνα και το ενδιαφέρον της στο δίκαιο προστασίας της ιδιωτικότητας και των προσωπικών δεδομένων και κυρίως στα ζητήματα που ανακύπτουν από τη χρήση νέων τεχνολογιών όπως η μηχανική εκμάθηση και η τεχνητή νοημοσύνη.


Πως να δημιουργήσετε και να χρησιμοποιήσετε ισχυρά passwords

Του Βύρωνα Καβαλίνη*

Στο διαδίκτυο είναι πολύ διαδεδομένο μια ιστοσελίδα να χρειάζεται την εγγραφή του χρήστη για να εμφανίσει το περιεχόμενο της ή να παρέχει την υπηρεσία της ή ακόμα και να του δώσει τη δυνατότητα να σχολιάσει κάποιο άρθρο της. Η εγγραφή του χρήστη, και κατά συνέπεια η δημιουργία λογαριασμού, απαιτεί την χρήση κάποιου ονόματος χρήστη (username) αλλά και κωδικού πρόσβασης (password).

Το όνομα χρήστη θα χρειαστεί να είναι μοναδικό και να μην υπάρχει άλλο συνδεδεμένο στην ίδια τη σελίδα για να δημιουργηθεί ο λογαριασμός που απαιτείται, ενώ ο συνδυασμός του ονόματος χρήστη και του κωδικού πρόσβασης αποδεικνύουν την ταυτότητά του χρήστη και η σωστή συμπλήρωση τους δίνει πρόσβαση στο περιεχόμενο της σελίδας σας. Ακόμα και στο email μας αν επιθυμούμε να συνδεθούμε θα χρειαστούμε ένα όνομα χρήστη (συνήθως η διεύθυνση email μας) και έναν κωδικό.

Ο κωδικός πρόσβασης είναι συνήθως συνδυασμός από γράμματα, σύμβολα και αριθμούς. Η χρήση ισχυρών κωδικών πρόσβασης είναι απαραίτητη για την προστασία της ασφάλειας και της ταυτότητάς του χρήστη. Ένας εύκολος κωδικός πρόσβασης έχει περισσότερες πιθανότητες να “μαντευτεί” από κάποιον τρίτο και συνεπώς να έχει πρόσβαση σε προσωπικά μας δεδομένα.

Ένας εύκολος κωδικός πρόσβασης αρχικά έχει μικρό μήκος. Όσο πιο μεγάλος είναι ο κωδικός πρόσβασης τόσο πιο δύσκολο είναι να μαντευτεί από κάποιον ενώ οι συνδυασμοί που προκύπτουν είναι πολύ περισσότεροι. Από έρευνες που έχουν γίνει σε εκατομμύρια κωδικών που έχουν διαρρεύσει έχει παρατηρηθεί ότι οι συνδυασμοί και οι επιλογές που προτιμούνται από τους χρήστες είναι πολύ εύκολοι και είναι της μορφής “123456”, “password”, “football” και άλλες απλές λέξεις που χρησιμοποιούμε όλοι στη καθημερινότητα μας και συνεπώς είναι πολύ εύκολο κάποιος τρίτος να μαντέψει και να βρει.

Αξίζει να αναφερθούμε επίσης στο γεγονός ότι ένα μεγάλο μέρος των χρηστών χρησιμοποιεί τον ίδιο κωδικό πρόσβασης σε όλες τις σελίδες που απαιτείται η σύνδεση τους. Οπότε, αν κάποιος γνωρίζει το email μας ή το username μας τότε με έναν μόνο κωδικό μπορεί να έχει πρόσβαση σε όλες τις σελίδες που έχουμε λογαριασμό, είτε αυτή η σελίδα είναι η τράπεζα μας είτε ένα μαγαζί που κάνουμε αγορές είτε ακόμα και το ίδιο μας το προφίλ στο Facebook.

Ο καλύτερος τρόπος για να αυξηθεί η ασφάλεια είναι ο ορισμός και η δημιουργία πιο πολύπλοκων κωδικών πρόσβασης. Συστήνεται ο κωδικός να είναι μεγάλος σε μήκος, συνήθως πάνω από 12 χαρακτήρες, και να είναι προτάσεις που εύκολα μπορεί να θυμάται ο χρήστης.

Ένας καλός τρόπος είναι η χρήση Online εργαλείων τα οποία προσθέτουν με τυχαίο τρόπο λέξεις και δημιουργούν προτάσεις για τη χρήση τους ως κωδικούς πρόσβασης ή που δημιουργούν κωδικούς βάσει κάποιον επιλογών που ορίζει ο ίδιος ο χρήστης. Στη συνέχεια του κειμένου θα αναφερθούμε σε κάποια παραδείγματα τέτοιων εργαλείων που μπορείτε να χρησιμοποιήσετε.

Είναι σημαντικό να αναφερθεί ότι ένας κωδικός που είναι μεγέθους 12 τουλάχιστον χαρακτήρων χρειάζεται μερικούς αιώνες για να σπάσει από έναν εισβολέα. Με τις σημερινές δυνατότητες των υπολογιστών βέβαια και χρήση πολλών ταυτόχρονα ο χρόνος αυτός μπορεί να μην είναι ο πραγματικός αλλά παραμένει πολύ μεγάλος για να σπάσει. Ενδεικτικά να αναφέρουμε ότι, μετά από έρευνες που έγιναν,  ένα supercomputer (που έχουν την απόδοση όσο 1000 υπολογιστές ταυτόχρονα) μπορεί να σπάσει ένα password των 10 χαρακτήρων σε 3 χρόνια.

Δεν συστήνεται να γίνεται χρήση του ίδιου κωδικού σε όλες τις σελίδες και εφαρμογές όπως επίσης και η σημείωση τους σε απλά αρχεία κειμένου στον υπολογιστή ή σε κάποιο σημειωματάριο.

Επίσης, η χρήση συμβόλων και αριθμών βοηθάει πολύ καθώς ο κωδικός γίνεται πιο πολύπλοκος και συνεπώς πιο δύσκολο για κάποιον τρίτο να τον βρει.

Η χρήση των password generators είναι μια πολύ καλή λύση καθώς οι περισσότεροι δίνουν τη δυνατότητα να ορίσει ο χρήστης τις παραμέτρους του κωδικού και να δημιουργήσει έναν έτοιμο προς χρήση. Η χρήση των generators βοηθάει πολύ καθώς αν χρειάζεται από μια σελίδα η χρήση κεφαλαίων συμβόλων και μικρών θα δημιουργήσει έναν πιο πολύπλοκο κωδικό. Για παράδειγμα σε αυτή την περίπτωση, ένας άνθρωπος θα όριζε τον κωδικό “Letmein!123” ενώ ένας password generator θα όριζε “lwlXgHeaWiq”. Η δεύτερη επιλογή είναι πιο δύσκολο να μαντευτεί παρόλο που δεν έχει ειδικούς χαρακτήρες και σύμβολα.

Η χρήση των password generators δεν απαιτεί ειδικές και εξειδικευμένες γνώσεις από το χρήστη, ενώ υπάρχουν διάφορα εργαλεία online που μπορούν να χρησιμοποιηθούν για την δημιουργία των κωδικών πρόσβασης μας. Ενδεικτικά σας δείχνουμε κάποιους online password generators που μπορείτε να χρησιμοποιήσετε:

Strong password generator (https://www.strongpasswordgenerator.com/) Δίνει τη δυνατότητα ορισμού του μήκους του κωδικού καθώς και κάποιες επιλογές παραμετροποίησης όπως η χρήση “φωνητικών λέξεων”. Με τη χρήση των φωνητικών λέξεων ουσιαστικά εμφανίζει ο generator τους συνδυασμούς των γραμμάτων και των αριθμών σε λέξεις ώστε να είναι πιο εύκολοι οι κωδικοί στην απομνημόνευση.

Norton Password Generator (https://my.norton.com/extspa/idsafe?path=pwd-gen) H Norton, γνωστή στο χώρο της ασφάλειας, έχει δημιουργήσει ένα online εργαλείο για την δημιουργία κωδικών πρόσβασης. Το συγκεκριμένο εργαλείο δίνει πολλές επιλογές όπως είναι η επιλογή του μήκους του κωδικού και η χρήση κεφαλαίων, συμβόλων και αριθμών.

ΧΚpassword (https://xkpasswd.net/s/) O ΧΚpassword είναι ίσως ένας από τους ελάχιστους που δίνουν τόσες πολλές επιλογές στην δημιουργία του κωδικού πρόσβασης. Ένα χαρακτηριστικό που τον διαφοροποιεί από την πλειοψηφία των password generators είναι η επιλογή υπηρεσίας βάσει των κανόνων της οποίας θα δημιουργηθεί ο κωδικός. Μερικά τέτοια παραδείγματα είναι βάσει των κανόνων του AppleID, του WiFi και άλλα.

Τέλος, θα προτείναμε την χρήση password managers για την αποθήκευση και διαχείριση των κωδικών σας. Οι password managers είναι ουσιαστικά προγράμματα τα οποία διαχειρίζονται τους κωδικούς σας και τους αποθηκεύουν κωδικοποιημενους ώστε να μην μπορούν να γίνουν κατανοητοί από κάποιον άλλον. Με τη χρήση των προγραμμάτων αυτών εσείς απλά θα χρειαστεί να γνωρίζετε έναν μόνο κωδικό και αυτός είναι ο κωδικός πρόσβασης στον password manager σας.

Με τη χρήση των password managers δεν είναι ανάγκη να θυμάστε τους κωδικούς σας απ’ έξω καθώς διαθέτουν addons για όλους τους γνωστούς browsers όπου μόλις εισέλθετε σε μια σελίδα αμέσως την αναγνωρίζουν και στην αντίστοιχη φόρμα σας δίνουν τη δυνατότητα αυτόματης συμπλήρωσης.

Επίσης, κάποιοι password managers επιτρέπουν την αυτόματη συμπλήρωση με τυχαίους κωδικούς πρόσβασης κατά την εγγραφή και αυτόματη αποθήκευση τους.

Επειδή υπάρχει η πιθανότητα κάποιος να υποκλέψει τον κωδικό πρόσβασης στον password manager και συνεπώς να έχει και πρόσβαση στους υπόλοιπους, πολλοί από τους password managers δίνουν επιπλέον δικλείδες ασφαλείας σε περίπτωση που παρουσιαστεί ασυνήθιστη κινητικότητα.

Από τους πιο γνωστούς password managers είναι ο LastPass και ο 1Password. Και οι δύο δίνουν τη δυνατότητα δωρεάν χρήσης ενώ με την επί πληρωμή ξεκλειδώνουν περισσότερες επιλογές και λειτουργίες. Και οι δύο έχουν addons για Chrome, Mozilla, Opera και λειτουργούν και με Windows, Linux και MacOS. Επίσης, αξίζει να σημειωθεί ότι αν πέσει στην αντίληψη σας ότι έχει γίνει υποκλοπή του κεντρικού σας κωδικού μπορείτε να ζητήσετε διαγραφή του λογαριασμού σας ενώ ο 1Password αναγνωρίζει τη συσκευή από την οποία συνδέεστε και αν επιθυμείτε να συνδεθείτε από μια νέα τότε χρειάζεται να συμπληρώσετε τον master password που σας δίνεται με την εγγραφή από την εφαρμογή αυτόματα.

Πρέπει να αναφέρουμε ότι έχουν αναφερθεί κατά καιρούς διάφορα κενά ασφαλείας στους password managers. Η κάθε εταιρία όμως κάνει άμεσα όλες τις απαραίτητες κινήσεις για να κλείσει αυτά τα κενά και να αυξήσει την ασφάλεια των υπηρεσιών της. Ακόμα και μετά από αυτές τις αναφορές η χρήση τους θεωρείται πιο ασφαλής σαν λύση από την αποθήκευση απλά των κωδικών σε ένα απλό αρχείο που δεν θα περιέχει κάποια κρυπτογράφηση.

Η Homo Digitalis δεν έχει κανένα όφελος από την πρόταση των ανωτέρω εργαλείων. Σας προτείνουμε τα εργαλεία αυτά ως ασφαλείς εναλλακτικές, δεδομένης της μεγάλης πληθώρας επιλογών τέτοιων εργαλείων. Σημειώνεται ότι πολλά από αυτά τα εργαλεία μπορεί να έχουν ως στόχο να υποκλέψουν τα δεδομένα σας. Συνεπώς, σας συστήνουμε να είστε ιδιαίτερα προσεκτικοί όταν επιλέγετε τέτοια εργαλεία.

*Ο Βύρωνας είναι απόφοιτος του τμήματος Εφαρμοσμένης Πληροφορικής και Πολυμέσων του ΤΕΙ Ηρακλείου. Εργάζεται σε εταιρεία, η οποία δραστηριοποιείται στο χώρο του Web hosting και των domain names. Ασχολείται με την ανάπτυξη ιστοσελίδων και την ασφάλεια. Στο παρελθόν, έχει ασχοληθεί με τα πιστοποιητικά SSL.


Ποιος "παίζει" με τα προσωπικά σου δεδομένα;

Της Αναστασίας Καραγιάννη

Τα βιντεοπαιχνίδια είναι πηγή διασκέδασης τόσο για τα παιδιά, όσο και για τους ενήλικες. Οι περισσότερες μελέτες που αφορούν τα βιντεοπαιχνίδια επικεντρώνονται στο περιεχόμενό τους,  στο αν υποκινούν τη βία ή αν είναι ουδέτερα, είτε στις επιδράσεις που έχουν στην ψυχολογία του παίκτη. Αναρωτήθηκε, όμως, κανείς, ποιος ‘κρύβεται’ πίσω από αυτά και τι κερδίζει από τις υπηρεσίες που προσφέρει στους παίκτες, οι οποίες συνήθως είναι δωρεάν;

Πριν από το 1986 για το ‘The Legend of Zelda’ στο NES, όπως και για τα υπόλοιπα παιχνίδια σε κονσόλα, ήταν δύσκολο, έως αδύνατο, να αποθηκεύουν τα δεδομένα των παικτών τους.

Σήμερα, οι προγραμματιστές βιντεοπαιχνιδιών χρησιμοποιούν προηγμένες μεθόδους πληροφορικής, όπως το Hadoop και το MapR για τη συλλογή, επεξεργασία και ανάλυση μαζικών δεδομένων (Big Data)[2], προκειμένου να κατανοήσουν καλύτερα τη συμπεριφορά των παικτών.

Ποια δεδομένα, όμως, μπορούν να συλλέξουν οι εταιρίες μέσα από τα βιντεοπαιχνίδια τους; Τα φυσικά χαρακτηριστικά ενός παίκτη, όπως τα χαρακτηριστικά του προσώπου του, η κίνηση του σώματος και τα φωνητικά δεδομένα, η τοποθεσία και οι πληροφορίες που συλλέγονται από τα κοινωνικά δίκτυα με τα οποία συνδέεται ο παίκτης είναι κάποια από αυτά.

Κάποια παιχνίδια, μάλιστα, περιέχουν αισθητήρες κίνησης, τους λεγόμενους data-gathering sensors, όπως η δημοφιλή κονσόλα Wii της Nintendo και αργότερα το Xbox Kinect.

Έτσι, οι εταιρίες συλλέγουν τα βιομετρικά δεδομένα του παίκτη, όπως το βάρος και τα χαρακτηριστικά του προσώπου του, που χρειάζονται για την παροχή των υπηρεσιών ή, αλλιώς, για την εκκίνηση του παιχνιδιού.

Για παράδειγμα, το Wii συνέλεξε δεδομένα που αφορούσαν την φυσική κατάσταση του παίκτη για το δημοφιλές παιχνίδι  άσκησης WiiFit[3].

Επιπλέον, εκτός από τα παραπάνω, παρακολουθείται και η κοινωνική συμπεριφορά του παίκτη από τις αποφάσεις που παίρνει κατά τη διάρκεια του παιχνιδιού, όπως η ιδιοσυγκρασία του, οι ηγετικές του ικανότητες, οι φόβοι και οι πολιτικές του πεποιθήσεις.

Δείτε για παράδειγμα τις ερωτήσεις στο παιχνίδι Catherine. “Επιλέγετε προσεκτικά ποια εσώρουχα θα φορέσετε κάθε μέρα;” “Έχετε εξαπατήσει ποτέ τον/την σύντροφό σας;” Το Catherine είναι ένα βιντεοπαιχνίδι που αναπτύχθηκε από τον Atlus και αφορά τις ερωτικές σχέσεις και τα ηθικά διλήμματα που προκύπτουν από την δέσμευση των συντρόφων.

Ο Vincent, ο πρωταγωνιστής του παιχνιδιού, πρέπει να αποφασίσει αν θα επιλέξει την κοπέλα του Katherine ή την γοητευτική κοπέλα Catherine. Το παιχνίδι κυκλοφόρησε από το Atlus για το PlayStation 3 και το Xbox 360 στην Ιαπωνία και τη Βόρεια Αμερική το 2011, ενώ για Microsoft Windows θα κυκλοφορήσει από τη Sega μέσα στο 2019.

Ακόμη, οι παίκτες χρειάζεται σε κάποια βιντεοπαιχνίδια να αγοράζουν και τα προϊόντα του, όπως στο Fortnite. Κατ’ αυτόν τον τρόπο, οι εταιρίες γνωρίζουν και αποθηκεύουν τα στοιχεία των πιστωτικών καρτών ή των τραπεζικών λογαριασμών, με τα οποία πραγματοποιείται η πληρωμή. Όλα αυτά τα δεδομένα χρησιμοποιούνται από τις εταιρίες προκειμένου να καταγράφουν ποιος χρησιμοποιεί τα προϊόντα τους και πως μπορούν να του τα προωθήσουν.

Ήδη από το 2005 με την κυκλοφορία των Xbox 360 είχαν συνδεθεί τα βιντεοπαιχνίδια με την παρακολούθηση των παικτών. Σύμφωνα με την Stéphanie Perotti η Ubisoft χρησιμοποιεί τα δεδομένα των πελατών της κυρίως για λόγους μάρκετινγκ αλλά και για δημογραφικές μελέτες που έχουν σχεδιαστεί για τη συνεχή βελτίωση των προϊόντων και των υπηρεσιών που προσφέρουν, ούτως ώστε να διασφαλιστεί ότι ανταποκρίνονται στις προσδοκίες των πελατών.

Εκτός, όμως, από τους λόγους μάρκετινγκ, οι εταιρείες μπορούν στην πραγματικότητα να βελτιώσουν τα  παιχνίδια που παράγουν με βάση τα δεδομένα των χρηστών τους. Ο προγραμματιστής της επιτυχημένης σειράς Candy Crush, διαπίστωσε ότι πολλοί χρήστες της εγκατέλειψαν το παιχνίδι στο επίπεδο 65. Έτσι, έκανε το Επίπεδο 65 ευκολότερο, ώστε οι χρήστες να συνεχίζουν να είναι σε θέση να παίζουν.

Τι μπορείτε να κάνετε, λοιπόν, για να αποτρέψετε τη συλλογή των προσωπικών σας δεδομένων; Καλό θα ήταν να είστε ιδιαίτερα προσεκτικοί όταν κατεβάζετε ένα παιχνίδι ή το εγκαθιστάτε.

Συγκεκριμένα, να ελέγχετε την πολιτική απορρήτου της εφαρμογής, τους όρους χρήσης και εγκατάστασης του παιχνιδιού, καθώς και πού δίνετε τη συγκατάθεσή σας για την συλλογή και επεξεργασία των προσωπικών σας δεδομένων.

Και αυτό διότι τις περισσότερες φορές οι εταιρίες ζητούν πρόσβαση στα δεδομένα σας. Θα θέλατε προκειμένου να παίξετε ένα βιντεοπαιχνίδι, η εταιρεία που το εμπορεύεται να βλέπει τι ακριβώς κάνετε όταν βρίσκεστε μπροστά στον υπολογιστή σας ή ποιος άλλος βρίσκεται στον ίδιο χώρο μαζί σας;

Τέλος, παρατηρούμε ότι τα βιντεοπαιχνίδια έχουν ενταχθεί πράγματι στην καθημερινή ζωή και την κουλτούρα των νέων. Αξίζει να επισημανθεί ότι σύμφωνα με μία έρευνα του nature human behavior το 94% των γονέων γνωρίζει ότι τα παιδιά τους παίζουν βιντεοπαιχνίδια, γι’ αυτό το λόγο και φροντίζουν να τα επιτηρούν. Ωστόσο, οι αντιδράσεις γύρω από τα βιντεοπαιχνίδια ποικίλουν.

Μιλώντας για τις αντιδράσεις και τις κριτικές που έχουν υποστηριχτεί γύρω από την κουλτούρα των βιντεοπαιχνιδιών αξίζει να γίνει μία σύντομη αναφορά στο #Gamergate. Πιο αναλυτικά, το #GamerGate είναι ένα διαδικτυακό κίνημα που ξεκίνησε κυρίως στα μέσα κοινωνικής δικτύωσης, στο Twitter και στο Facebook, τον Αύγουστο του 2014 εξαιτίας μίας δημοσίευσης του Eron Gjoni σε ένα blog.

Συγκεκριμένα, ο Eron αποκάλυψε την κρυφή σχέση της πρώην συντρόφου του, Zoe Quinn, με τον συντάκτη του Kotaku προκειμένου να γράψει μία θετική κριτική για το παιχνίδι της Depression Quest.

Έπειτα από τις αρνητικές κριτικές που δημοσίευσε ο Eron, η  Zoe Quinn δέχτηκε απειλές για την ζωή της μέσω email, ενώ έπεσε και θύμα hacking στους λογαριασμούς της σε Tumblr, Dropbox και Skype. Απειλές βιασμού και κατά της ζωής δέχθηκε και η Brianna Wu, η οποία μίλησε αρνητικά για τους υποστηρικτές του #Gamergate.

Αν πρέπει να προτείνουμε, λοιπόν, μία λύση στο πρόβλημα της παραβίασης της ιδιωτικότητας και των προσωπικών δεδομένων, σίγουρα αυτή δεν είναι η απαγόρευση, αλλά η προστασία και η ενημέρωση.

Για αυτόν τον λόγο, την επόμενη φορά που θα παίξετε, ελέγξτε νωρίτερα…ποιος παίζει με ποιον!

[1] https://saferinternet4kids.gr/press-newsletter/press/fortnite-2/.

[2] Marios M. Giakalaras,Christos P. Tsongidis, Posthuman:Biometrics, Big Data and Videogames,Department of Cultural Technology and Communication, University Of Aegean.

[3] Alexander Dean Cybulski, Enclosures at Play: Surveillance in the Code and Culture of Videogames.

[4] http://www.theesa.com/wp-content/uploads/2017/09/EF2017_Design_FinalDigital.pdf .

[5] Stephen R. Mallory, Cultivating GamerGate.


Facial Recognition: Ανυποψίαστοι πολίτες στο στόχαστρο των Βρετανικών αρχών επιβολής του νόμου

Γράφει ο Λευτέρης Χελιουδάκης

Πώς θα σου φαινόταν εάν ήσουν με τους φίλους σου ή την οικογένεια σου σε μία συναυλία και χωρίς να το γνωρίζεις κάμερες που χρησιμοποιούν σύστημα αναγνώρισης προσώπων κατέγραφαν την κάθε σου κίνηση; Το σενάριο αυτό δυστυχώς αποτελεί πραγματικότητα στο Ηνωμένο Βασίλειο, και δεν περιορίζεται μόνο σε συναυλίες , αλλά και σε άλλες εκδηλώσεις όπως αγώνες ποδοσφαίρου, ή ακόμα και σε πολυσύχναστους δρόμους, εμπορικά κέντρα και ειρηνικές διαμαρτυρίες!

Προτού μιλήσουμε με λεπτομέρειες για το τι ακριβώς συμβαίνει στο Ηνωμένο Βασίλειο και για το πώς αναγνωρισμένες οργανώσεις της κοινωνίας των πολιτών όπως η Privacy International  και η Liberty μάχονται κατά αυτού, ας δούμε τι είναι η τεχνολογία αναγνώρισης προσώπων και με ποιες τεχνικές επιτυγχάνεται.

Facial Recognition Software/ Λογισμικό Αναγνώρισης Προσώπου

Το λογισμικό Αναγνώρισης Προσώπου χρησιμοποιείται για την αναγνώριση ή την ταυτοποίηση ενός υποκειμένου με βάση την ψηφιακή του απεικόνιση σε μία φωτογραφία ή ένα βίντεο.

Θα μπορούσαμε να πούμε ότι η αναγνώριση/ταυτοποίηση ενός ανθρώπου με βάση την εν λόγω τεχνολογία χωρίζεται σε δύο στάδια: Α) την ανίχνευση και καταγραφή μέσω κάμερας συγκεκριμένων χαρακτηριστικών του προσώπου ενός ατόμου, όπως  την απόσταση μεταξύ του μετώπου και του σαγονιού, την απόσταση μεταξύ των ματιών, το σχήμα των ζυγωματικών, τις έσω και έξω γωνίες των ματιών και το βάθος αυτών, ή το πλάτος της μύτης, τα οποία δημιουργούν έναν μοναδικό αποτύπωμα του κάθε προσώπου και Β) την εξαγωγή αυτών των χαρακτηριστικών και τη σύγκρισή τους με ψηφιακές απεικονίσεις υποκειμένων σε υπάρχουσες βάσεις δεδομένων.

Διάφορες τεχνικές έχουν αναπτυχθεί στο πλαίσιο αυτής της τεχνολογίας. Παραδείγματα αυτών αποτελούν:

-η τρισδιάστατη μέθοδος αναγνώρισης προσώπου η οποία μπορεί να αντιμετωπίζει προβλήματα που δυσχεραίνουν την αναγνώριση/ταυτοποίηση προσώπων, όπως οι αλλαγές στο φωτισμό και στην έκφραση των προσώπων, ή η θέση των προσώπων σε προφίλ,

-η χρήση κάμερας θερμικής απεικόνισης, η οποία αναγνωρίζει το σχήμα του κεφαλιού ενός υποκειμένου, δεν επηρεάζεται από διάφορα αξεσουάρ όπως γυαλιά και μακιγιάζ και λειτουργεί αποδοτικά με μειωμένο ή καθόλου φωτισμό,

-η ανάλυση της υφής του δέρματος του προσώπου, η οποία εστιάζει και φωτογραφίζει ένα μικρό τμήμα της επιφάνειας του προσώπου (skinprint), αναγνωρίζοντας την υφή, τις γραμμές, και τους πόρους στο δέρμα του ατόμου, και

-η χρήση τεχνολογίας Deep Learning, η οποία αποτελεί την πλέον δημοφιλή τακτική τα τελευταία 4 χρόνια στον συγκεκριμένο τομέα, αυξάνοντας την ακρίβεια με την οποία το λογισμικό μπορεί να αναγνωρίζει/ταυτοποιεί  διαφορετικά πρόσωπα.

Τί συμβαίνει στο Ηνωμένο Βασίλειο;

Η χρήση τεχνολογίας αναγνώρισης προσώπου χρησιμοποιείται ήδη ως ένα πιλοτικό πρόγραμμα από τις αστυνομικές αρχές του Λονδίνου (London Metropolitan Police) και της Νότιας Ουαλίας (South Wales Police). Δεν υπάρχει καμία νομοθεσία που να επιτρέπει τη χρήση της εν λόγω τεχνολογίας από τις αστυνομικές αρχές, ενώ δεν έχουν εκδοθεί πολιτικές ορθής χρήσης αυτής της τεχνολογίας ή κατευθυντήριες οδηγίες από την κυβέρνηση. Επομένως, δεν υπάρχουν δικλείδες ασφαλείας για τα δικαιώματα και τις ελευθερίες των πολιτών.

Τεχνολογία αναγνώρισης προσώπων χρησιμοποιείται χωρίς προηγούμενη ενημέρωση σε φεστιβάλ μουσικής, σε αγώνες ποδοσφαίρου, σε πολυσύχναστους δρόμους και σε διαδηλώσεις.

Για παράδειγμα, τον Μάρτιο του 2018 η αστυνομία της Νότιας Ουαλίας χρησιμοποίησε τη τεχνολογία αυτή σε μία ειρηνική πορεία. Ο κ. Ed Bridges, κάτοικος του Cardiff, συμμετείχε σε αυτή την πορεία και μαζί με την Liberty ξεκίνησαν νομικές δράσεις για τον τερματισμό της χρήσης της εν λόγω τεχνολογίας από τις αστυνομικές αρχές. Λίγους μήνες αργότερα, και συγκεκριμένα τον Οκτώβριο του 2018 αποκαλύφθηκε ότι το Trafford Shopping Center, το τρίτο μεγαλύτερο εμπορικό κέντρο στο Ηνωμένο Βασίλειο, χρησιμοποιούσε κρυφά για έξι μήνες τεχνολογία αναγνώρισης προσώπων σε συνεργασία με τις αστυνομικές αρχές του Μάντσεστερ (Greater Manchester Police) και σκάναρε τα πρόσωπα περίπου 15 εκατομμυρίων ανθρώπων!

Όπως περιγράψαμε νωρίτερα, τα πρόσωπα των υποκειμένων πρέπει προκειμένου να ταυτοποιηθούν /αναγνωρισθούν να συγκριθούν με απεικονίσεις υποκειμένων σε υπάρχουσες βάσεις δεδομένων. Από πού λοιπόν προέρχονται  οι απεικονίσεις που βρίσκονται σε αυτές τις βάσεις δεδομένων;

Διάφορες είναι οι πηγές: Βάσεις Δεδομένων από πολίτες που κάποτε βρέθηκαν υπό κράτηση, αλλά που δεν κρίθηκαν απαραίτητα ένοχοι για κάποια παραβίαση του νόμου, από βάσεις δεδομένων των αστυνομικών αρχών που περιλαμβάνουν ανθρώπους με προβλήματα ψυχικής υγείας, ακόμη και από φωτογραφίες που βρίσκονται σε κοινωνικά δίκτυα!

Η εκστρατεία της Privacy International και της Liberty: Neighbourhood Watched

Δυστυχώς, η χρήση της τεχνολογίας αναγνώρισης προσώπου δεν είναι το μόνο «όπλο» στη διάθεση των αστυνομικών αρχών του Ηνωμένου Βασιλείου. Πλήθος οχληρών και παρεμβατικών τεχνολογιών χρησιμοποιούνται, όπως η παρακολούθηση την κοινωνικών μέσων δικτύωσης ή το απομακρυσμένο hacking σε συσκευές κινητής τηλεφωνίας!

Προκειμένου να ενισχύσουν την ευαισθητοποίηση του κοινού για το τι ακριβώς είναι ικανός να κάνει ο αστυνομικός της γειτονιάς τους, και αποσκοπώντας στην άσκηση πίεσης για μια δημόσια διαβούλευση με όλους τους εμπλεκόμενους κρατικούς και ιδιωτικούς φορείς, η Liberty και η Privacy International ξεκίνησαν την εκστρατεία «Neighbourhood Watched».

Η συγκεκριμένη εκστρατεία περιλαμβάνει λεπτομερές επεξηγηματικό υλικό σε απλή γλώσσα που αποτυπώνει με απλό και άμεσο τρόπο τις επιπτώσεις από την χρήση της εκάστοτε τεχνολογίας στα Ανθρώπινα Δικαιώματα.

Χαρακτηριστικά, η χρήση της τεχνολογίας αναγνώρισης προσώπων, δεν έρχεται σε σύγκρουση μόνο με την προστασία της ιδιωτικότητας. Τόσο η ελευθερία της έκφρασης όσο και η προστασία του συνέρχεσθαι και συνεταιρίζεσθαι περιορίζονται αναπόφευκτα, εφόσον όταν γνωρίζεις ότι η παραμικρή σου κίνηση σε δημόσιους χώρους βιντεοσκοπείται και το πρόσωπό σου μπορεί να ταυτοποιηθεί αυτόματα, αλλάζεις την συμπεριφορά σου, και μειώνεις την ενεργή συμμετοχή σου σε διαδηλώσεις και πορείες ή ακόμα και σε εκδηλώσεις ψυχαγωγικού χαρακτήρα.

Βέβαια, σημαντικά προβλήματα δημιουργούνται και αναφορικά με την απαγόρευση των διακρίσεων. Συγκεκριμένα, οι αστυνομικές αρχές συχνά στοχοποιούν συγκεκριμένες κοινότητες ή εκδηλώσεις με αποτέλεσμα να συγκεντρώνεται μεγάλη προσοχή σε αυτές και να ξεφεύγουν από τα «ρανταρ» των αστυνομικών αρχών άλλες παράνομες συμπεριφορές. Επομένως, οι συγκεκριμένες κοινότητες και εκδηλώσεις στιγματοποιούνται, και οδηγούνται αναπόφευκτα στο περιθώριο.

Περισσότερες πληροφορίες για την εκστρατεία και τις διάφορες παρεμβατικές τεχνολογίες που χρησιμοποιούνται από τις αστυνομικές αρχές στο Ηνωμένο Βασίλειο μπορείται να βρείτε εδώ


Στην τελική ευθεία για την ψηφοφορία της προτεινόμενης Ευρωπαϊκής Οδηγίας για την Πνευματική Ιδιοκτησία

Η ερχόμενη εβδομάδα είναι πολύ σημαντική για το μέλλον του διαδικτύου και την προάσπιση της ελευθερίας της έκφρασης & πληροφόρησης και την προστασία της ιδιωτικότητας κατά τη χρήση του.

Την Τρίτη 26 Μαρτίου το Ευρωπαϊκό Κοινοβούλιο θα κληθεί να ψηφίσει την προτεινόμενη ευρωπαϊκή οδηγία για την Πνευματική Ιδιοκτησία. Στο παρελθόν έχουμε φιλοξενήσει στην ιστοσελίδα μας λεπτομερή αρθρογραφία για τη συγκεκριμένη νομοθετική μεταρρύθμισή.

Η συγκεκριμένη νομοθεσία έχει διατάξεις οι οποίες έχουν θετικό χαρακτήρα. Ωστόσο άλλες διατάξεις της δημιουργούν σημαντικά προβλήματα. Μία από αυτές, και η πλέον σημαντική, είναι το Άρθρο 13, το οποίο κατά τη ψήφιση και εξαιτίας της αλλαγής στην αρίθμηση του κειμένου θα αποτελεί πλέον το Άρθρο 17.

Το Άρθρο 13 υποτίθεται ότι δημιουργήθηκε για να βελτιώσει την υπάρχουσα κατάσταση και να βοηθήσει του δημιουργούς να απολαύσουν τα δικαιώματα πνευματικής ιδιοκτησίας στα έργα τους. Ωστόσο, αποτυγχάνει να το επιτύχει και κυρίως προστατεύει τα συμφέροντα των μεγάλων δισκογραφικών, εκδοτικών, και κινηματογραφικών εταιριών και τα συμφέροντα των εταιριών που αναπτύσσουν λογισμικό ελέγχου περιεχομένου (content-control / filtering software).

Επίσης, το Άρθρο 13 δεν λύνει σε καμία περίπτωση τις σοβαρές παθογένειες του ήδη υπάρχοντος καθεστώτος. Συγκεκριμένα, δεν διαθέτει καμία πρόβλεψη για την αντιμετώπιση ψευδών ισχυρισμών (false claims) αναφορικά με δικαιώματα πνευματικής ιδιοκτησίας, ενώ οι γενικές, κακογραμμένες και ασαφείς διατάξεις του, θα οδηγήσουν σε σωρεία προδικαστικών ερωτημάτων προς το Δικαστήριο της Ευρωπαϊκής Ένωσης.

Αντιθέτως, δημιουργεί νέα προβλήματα και αδυνατεί να εξασφαλίσει την απαραίτητη ισορροπία μεταξύ αφενός του δικαιώματος στην προστασία της πνευματικής ιδιοκτησίας και αφετέρου των δικαιωμάτων στην ελευθερία της έκφρασης και της πληροφόρησης και του σεβασμού στην ιδιωτική ζωή.  Κάθε είδος υλικού, το οποίο ανεβάζουν οι χρήστες του διαδικτύου σε πλατφόρμες ανταλλαγής περιεχομένου, όπως φωτογραφίες, κείμενα, προσωπικά μηνύματα, βίντεο κ.α. θα υπόκεινται σε έλεγχο και δεν θα δημοσιεύεται στην περίπτωση που το λογισμικό φιλτραρίσματος κρίνει ότι υπάρχει κάποια παραβίαση.

Πλήθος ειδικών κρούουν τον κώδωνα του κινδύνου αναφορικά με τις επιπτώσεις που θα έχουν το Άρθρο 13 και τα φίλτρα των αναφορτώσεων  που αυτό επιτρέπει για την Ελευθερία της Έκφρασης και της Πληροφόρησης στο Διαδίκτυο και την ποικιλομορφία αυτού:

-Ο Ειδικός Εισηγητής του Οργανισμού των Ηνωμένων Εθνών για την Ελευθερία της Έκφρασης και της Πληροφόρησης, David Kaye, έχει επανειλημμένως εκφράσει την αντίθεσή του στο Άρθρο 13!

-O Ομοσπονδιακός Επίτροπος Προστασίας Προσωπικών Δεδομένων της Γερμανίας, Ulrich Kelber, έχει ρητά υπογραμμίσει πως το Άρθρο 13 οδηγεί στην γιγάντωση της δύναμης των γνωστών κολοσσών του Διαδικτύου, και δημιουργεί προκλήσεις για την προστασία της ιδιωτικότητας στο Διαδίκτυο!

­– Η Υπουργός Δικαιοσύνης και Προστασίας του Πολίτη της Γερμανίας , Katarina Barley, έχει καλέσει τους Γερμανούς Ευρωβουλευτές να καταψηφίσουν το Άρθρο 13!

-169 από τους πλέον εξειδικευμένους και αναγνωρισμένους ακαδημαϊκούς του χώρου της Πνευματικής Ιδιοκτησίας έχουν τονίσει ότι οι διατάξεις του Άρθρου 13 είναι παραπλανητικές!

Επίσης, ο αριθμός των ευρωβουλευτών που δεσμεύεται να καταψηφίσει το Άρθρο 13 στην ψηφοφορία της  Τρίτης αυξάνεται συνεχώς!

Ευρωβουλευτές που είναι ανεξάρτητοι ή που εκπροσωπούν ευρωπαϊκά κόμματα από κάθε πολιτικό χώρο, όπως οι Πράσινοι/Ευρωπαϊκή Ελεύθερη Συμμαχία (GREENS/EFA), η Ευρωπαϊκή Ενωτική Αριστερά / Βόρεια Πράσινη Αριστερά (GUE/NGL),  το Ευρωπαϊκό Λαϊκό Κόμμα (EPP),  η Προοδευτική Συμμαχία Σοσιαλιστών και Δημοκρατών (S&D), και η Συμμαχία Φιλελεύθερων και Δημοκρατών (ALDE) έχουν εκφράσει ανοιχτά την αντίθεσή τους στο Άρθρο 13!

Τέλος, πλήθος κόσμου εκφράζει τη δυσαρέσκεια του για το Άρθρο 13 και τις πολύ σοβαρές επιπτώσεις του. Στις διαδηλώσεις που έλαβαν χώρα σε ευρωπαϊκές πόλεις το Σάββατο 23/03 έδωσαν το παρόν περισσότεροι από 100.000 άνθρωποι.

Κάλεσε τους εκπροσώπους σου τις λίγες ημέρες που απομένουν!

Ζήτησέ τους να καταψηφίσουν το Άρθρο 13!


Το ελεύθερο και ανοιχτό διαδίκτυο σε χρειάζεται

Δύο εβδομάδες έμειναν μέχρι την τελική ψήφο στο Ευρωπαϊκό Κοινοβούλιο (πιθανότατα 26.03.2019), η οποία θα κρίνει το μέλλον του διαδικτύου. Πάνω από εκατό Ευρωβουλευτές (εκ των οποίων οι μόνοι Έλληνες είναι η κ. Σοφία Σακοράφα και ο κ. Νικόλαος Χουντής) έχουν ήδη δεσμευτεί ότι θα ψηφίσουν κατά του Άρθρου 13 και των φίλτρων αναφορτώσεων, ενώ πολίτες σε περισσότερες από 23 πόλεις Κρατών Μελών της Ευρωπαϊκής Ένωσης υψώνουν τις φωνές τους σε συλλαλητήρια κατά του Άρθρου 13.

Στην εκστρατεία Pledge2019 (Δέσμευση 2019), έχει συμμετάσχει μέχρι σήμερα πλήθος Ευρωπαίων πολιτών. Από τα τέλη Φλεβάρη, όταν και ξεκίνησε η εκστρατεία, έχουν πραγματοποιηθεί πάνω από 1200 κλήσεις και 72 ώρες συνομιλίας. Οι συγκεκριμένοι αριθμοί είναι πρωτοφανείς για ένα τόσο σύντομο χρονικό διάστημα και αποδεικνύουν περίτρανα το ενεργό ενδιαφέρον του κόσμου και την θέληση του να συμμετάσχει στην πολιτική συζήτησή, όταν του δίδεται βήμα. Επίσης, οι πολίτες με αυτόν τον τρόπο εκφράζουν την δυσαρέσκεια τους όσον αφορά τις ανυπόστατες κατηγορίες ότι το πλήθος των emails και των tweets που στάλθηκαν στους Ευρωβουλευτές το προηγούμενο διάστημα αποτελούσε ενέργειες ψεύτικων αυτοματοποιημένων λογαριασμών!!

Πλήθος ειδικών κρούουν τον κώδωνα του κινδύνου αναφορικά με τις επιπτώσεις που θα έχουν το Άρθρο 13 και τα φίλτρα των αναφορτώσεων  που αυτό επιτρέπει για την Ελευθερία της Έκφρασης και της Πληροφόρησης στο Διαδίκτυο και την ποικιλομορφία αυτού:

-Ο Ειδικός Εισηγητής του Οργανισμού των Ηνωμένων Εθνών για την Ελευθερία της Έκφρασης και της Πληροφόρησης, David Kaye, έχει επανειλημμένως εκφράσει την αντίθεσή του στο Άρθρο 13!

-O Ομοσπονδιακός Επίτροπος Προστασίας Προσωπικών Δεδομένων της Γερμανίας, Ulrich Kelber, έχει ρητά υπογραμμίσει πως το Άρθρο 13 οδηγεί στην γιγάντωση της δύναμης των γνωστών κολoσσών του Διαδικτύου, και δημιουργεί προκλήσεις για την προστασία της ιδιωτικότητας στο Διαδίκτυο!

-169 από τους πλέον εξειδικευμένους και αναγνωρισμένους ακαδημαϊκούς του χώρου της Πνευματικής Ιδιοκτησίας έχουν τονίσει ότι οι διατάξεις του Άρθρου 13 είναι παραπλανητικές!

-Η Διεθνής Ομοσπονδία Δημοσιογράφων (International Federation of Journalists – IFJ) έχει καλέσει τους Ευρωπαίους νομοθέτες να βελτιώσουν τις διατάξεις και να προσδώσουν την αναγκαία ισορροπία μεταξύ της προστασίας της Πνευματικής Ιδιοκτησίας και της Προστασίας της Ελευθερίας της Έκφρασης και της Πληροφόρησης!

– Ο Sir Tim (Tim Berners-Lee), ένας από τους δημιουργούς του World Wide Web έχει εκφράσει ανοικτά την αντίθεσή του προς το Άρθρο 13 και τους κινδύνους που αυτό δημιουργεί για το ανοιχτό διαδίκτυο.

Κανείς δεν μπορεί να ισχυρισθεί ότι δεν γνώριζε τις σημαντικές αρνητικές επιπτώσεις του Άρθρου 13! Πρέπει να δράσουμε και να πείσουμε τους Ευρωβουλευτές να αφήσουν στην άκρη τα διάφορα πολιτικά συμφέροντα και να υπερασπιστούν τα δικαιώματα των Ευρωπαίων Πολιτών!

Λάβε τώρα συμμετοχή στην εκστρατεία Pledge 2019, κάλεσε δωρεάν τους εκπροσώπους σου, και ζήτησε τους να δεσμευτούν κατά του Άρθρου 13!


Η Ιρένε Καμάρα μιλάει στην ιστοσελίδα της Homo Digitalis

Η Ιρένε Καμάρα είναι διδακτορική ερευνήτρια στο Tilburg Institute for Law, Technology & Society (TILT) και στο Πανεπιστήμιο Vrije των Βρυξελλών (LSTS). Πραγματοποιεί  διδακτορικό από κοινού με το Πανεπιστήμιο του Tilburg και το Πανεπιστήμιο Vrije των Βρυξελλών. Το θέμα της διδακτορικής της διατριβής αφορά την αλληλεπίδραση μεταξύ της τυποποίησης και των διατάξεων για την προστασία προσωπικών δεδομένων.

Προτού ακολουθήσει ακαδημαϊκή καριέρα, η Ιρένε ήταν δικηγόρος παρ’ Εφέταις στην Αθήνα. Έχει εργαστεί στον Ευρωπαίο Επόπτη Προσωπικών Δεδομένων (EDPS) και στις Ευρωπαϊκές Επιτροπές Τυποποίησης CEN και CENELEC. Το 2016, συνεργάστηκε με την Ευρωπαϊκή Επιτροπή ως εξωτερικός ειδικός συνεργάτης των προτάσεων για το πρόγραμμα Horizon 2020 σχετικά με την κοινωνική ασφάλεια.

Η Ιρένε έχει επιλεγεί ως μέλος της Λίστας Ειδικών του Ευρωπαϊκού Οργανισμού για την Ασφάλεια Δικτύων και Πληροφοριών (ENISA), η οποία συνεισφέρει στην εφαρμογή του Ετήσιου Προγράμματος Δραστηριότητας του ENISA. Το 2015, η Ιρένε βραβεύτηκε για την καλύτερη ακαδημαϊκή εργασία από την Ένωση Διεθνών Τηλεπικοινωνιών (ITU), τον Οργανισμό Τυποποίησης των Ηνωμένων Εθνών.

– Παρά την εξαιρετική αρχή στην καριέρα σας ως δικηγόρος, αποφασίσατε να ξεκινήσετε ένα διδακτορικό. Η αφοσίωσή σας στην ακαδημαϊκή έρευνα έχει οδηγήσει σε μία επιτυχημένη πορεία με πολλές ενδιαφέρουσες δημοσιεύσεις. Κοιτώντας πίσω, πόσο δύσκολο ήταν να πάρετε αυτή την απόφαση και τι θα συμβουλεύατε ανθρώπους που αντιμετωπίζουν ένα αντίστοιχο δίλημμα;

Πράγματι, εργαζόμουν για αρκετά χρόνια ως δικηγόρος παρ’ Εφέταις στην Αθήνα. Η μάχιμη δικηγορία μου προσέφερε πολύτιμα μαθήματα, όπως το πόσο διαφορετικό είναι το δίκαιο στα βιβλία από το δίκαιο στην πράξη, πώς να εργάζομαι υπό πίεση, να αλληλεπιδρώ με πελάτες και να θέτω προτεραιότητες. Αυτά είναι μαθήματα, τα οποία αξιοποιώ και σήμερα στην ακαδημαϊκή μου καριέρα.

Πάντα με εντυπωσίαζε η προστασία προσωπικών δεδομένων, η ιδιωτικότητα, η εμπιστευτικότητα των πληροφοριών στις ηλεκτρονικές επικοινωνίες. Έτσι, αποφάσισα να κάνω ένα διάλειμμα από τη δικηγορία και να παρακολουθήσω το μεταπτυχιακό πρόγραμμα του Πανεπιστημίου του Tilburg στο Δίκαιο και την Τεχνολογία. Πιστεύω ότι ως δικηγόρος πρέπει πάντα να μαθαίνεις και να εξελίσσεσαι.

Το μεταπτυχιακό πρόγραμμα “Δίκαιο και Τεχνολογία” του Πανεπιστημίου του Tilburg παρέχει μαθήματα σχετικά με την ιδιωτικότητα και την προστασία δεδομένων, την πνευματική ιδιοκτησία, τη ρύθμιση της τεχνολογίας, το ηλεκτρονικό εμπόριο και δίνει στο φοιτητή τη δυνατότητα να εξειδικευτεί σε θέματα τεχνολογίας αιχμής. Μετά το μεταπτυχιακό, μου προσφέρθηκε μία ερευνητική θέση στο Πανεπιστήμιο Vrije των Βρυξελλών υπό την εποπτεία του καθηγητή Paul De Hert. Στο Πανεπιστήμιο Vrije, αποφάσισα ότι θέλω να κάνω ένα διδακτορικό. Συνειδητοποίησα ότι μέσω της έρευνας, έχεις τη δυνατότητα να απευθυνθείς σε ένα ευρύτερο κοινό από τους πελάτες στους οποίους απευθύνεσαι ως δικηγόρος και να υιοθετήσω μία δυναμική προσέγγιση στην ανεύρεση λύσεων, από ότι μία παθητική, η οποία είναι συχνά η προσέγγιση κατά την άσκηση της δικηγορίας.

Ασφαλώς, σημαντικό ρόλο στην απόφασή μου έπαιξε και η ποιότητα του εργασιακού περιβάλλοντος και τα υψηλά στάνταρ και συνθήκες στην έρευνα. Τόσο το Πανεπιστήμιο του Tilburg όσο και το Πανεπιστήμιο Vrije μου έχουν προσφέρει την αίσθηση ότι βρίσκομαι σπίτι μου, δίνοντάς μου τη δυνατότητα να εξελιχθώ ως επαγγελματίας, ενισχύοντας την ανεξάρτητη σκέψη και τη διεπιστημονική προσέγγιση.

Σε συναδέλφους που αντιμετωπίζουν ανάλογο δίλημμα, θα τους παρότρυνα να πάρουν το ρίσκο και να βγουν από τη ζώνη ασφαλείας τους. Δοκιμάστε τους εαυτούς σας μέσα από μία ερευνητική επίσκεψη σε ένα ίδρυμα, μέσα από τη συγγραφή μίας ακαδημαϊκής εργασίας και την παρουσίασή της σε ένα συνέδριο. Και να θυμάστε ότι η ακαδημαϊκή ζωή δεν είναι εύκολη. Η βασική συμβουλή μου είναι: διαλέξτε ένα ακαδημαϊκό ίδρυμα και έναν επιβλέποντα καθηγητή, που αναγνωρίζουν και εκτιμούν τη σκληρή δουλειά σας.

– Έχετε συμμετάσχει ως ομιλήτρια σε κάποια από τα σημαντικότερα συνέδρια και εκδηλώσεις σε όλο τον κόσμο. Το Computers, Privacy, and Data Protection Conference στις Βρυξέλλες και το IGLP Conference στη Νομική Σχολή του Harvard είναι κάποια από αυτά. Πώς διαμόρφωσαν την έρευνά σας όλες αυτές οι εμπειρίες; Είναι σημαντικό για τους ερευνητές να ανταλλάσσουν σκέψεις και απόψεις με άλλους ειδικούς ανά τον κόσμο;

Πιστεύω ότι η συμμετοχή σε συνέδρια είναι ένα απαραίτητο στοιχείο για οποιονδήποτε ακαδημαϊκό. Όχι μόνο για να μοιράζεται και να ανταλλάσσει γνώσεις, αλλά και για να επιβεβαιώνει και εμπλουτίζει τα ερευνητικά του αποτελέσματα. Είμαι κατά της αντίληψης, η οποία πλέον μπορεί να θεωρηθεί παλιομοδίτικη, ότι οι ερευνητές, ιδίως οι διδακτορικοί, πρέπει να είναι κλεισμένοι σε ένα γραφείο και να γράφουν άρθρα. Παρότι μπορεί να υπάρχει θεωρητική αξία σε αποτελέσματα τέτοιου είδους έρευνας, το αποτέλεσμα πιθανότατα δε θα έχει κοινωνικό αντίκτυπο.

Συνήθως επιλέγω τα συνέδρια ανάλογα με το κοινό, του οποίου θα ήθελα τη γνώμη για την έρευνά μου. Το IGLP Conference στο Harvard πέρυσι ήταν μία καταπληκτική ευκαιρία για να εκθέσω τις σκέψεις μου σε ένα παγκόσμιο νομικό κοινό, το οποίο κυριολεκτικά προερχόταν από όλο τον κόσμο. Συνάντησα τόσους ακαδημαϊκούς με ενδιαφέρον για την έρευνά μου ή που δουλεύουν σε παραπλήσια θέματα. Το IGLP προσφέρει ακριβώς αυτό: τη δημιουργία ενός παγκόσμιου δικτύου ανθρώπων που θέλουν να ανταλλάξουν ιδέες και να αλληλοβοηθηθούν.

Εκτός από τέτοια συνέδρια, είμαι τυχερή που τα ιδρύματα στα οποία εργάζομαι οργανώνουν το CPDP σε ετήσια βάση και το TILTing Perspectives Conference κάθε δύο χρόνια, στα οποία έχω τη χαρά να συμμετέχω. Αυτά αποτελούν εξαιρετικά παραδείγματα για το πώς κάποιος μπορεί να διευρύνει τα ενδιαφέροντά του.

– Το θέμα του διδακτορικού σας είναι η αλληλεπίδραση μεταξύ της τυποποίησης και της ρύθμισης του δικαιώματος στην προστασία προσωπικών δεδομένων. Μιλήστε μας περισσότερο για το θέμα το οποίο ερευνάτε.

Το πεδίο έρευνάς μου αυτή τη στιγμή είναι τα ανθρώπινα δικαιώματα με έμφαση στην προστασία προσωπικών δεδομένων και στην ιδιωτικότητα, τα ρυθμιστικά όργανα, όπως πρότυπα, πιστοποιήσεις, κώδικες δεοντολογίας, και οι νέες τεχνολογίες. Το διδακτορικό μου εξετάζει πώς το “soft law”, όπως είναι τα τεχνικά πρότυπα, αλληλεπιδρά με τη ρύθμιση των ανθρωπίνων δικαιωμάτων, και κυρίως του δικαιώματος στην προστασία προσωπικών δεδομένων. Παρότι υπάρχει εμφανής ρυθμιστική σφαίρα για τη ρύθμιση της προστασίας προσωπικών δεδομένων, υπάρχει επίσης μία σειρά κανόνων, η οποία είναι ενσωματωμένη σε τεχνικά πρότυπα και δεν είναι εμφανής. Τέτοιοι κανόνες μπορεί να σημαίνουν ότι υπάρχει νομική υποχρέωση για τεχνικούς ελέγχους ή να υπαγορεύουν μία σειρά πολιτικών και συμπεριφορών για τους υπευθύνους και τους εκτελούντες την επεξεργασία, οι οποίες εκφεύγουν του γράμματος του νόμου. Ερευνώ αυτή την αλληλεπίδραση και τους ποικίλους ρόλους τους οποίους μπορεί να παίξει η τυποποίηση στη ρύθμιση της προστασίας προσωπικών δεδομένων. Εκτός της έρευνάς μου για το διδακτορικό, μία άλλη έρευνα, πάνω στην οποία εργάζομαι ως κύρια ερευνήτρια, είναι η μελέτη σχετικά με την πιστοποίηση που προβλέπουν τα άρθρα 42 και 43 του Γενικού Κανονισμού για την Προστασία Δεδομένων (GDPR) και της Επιτροπής DG της Ευρωπαϊκής Επιτροπής. Πέρυσι, συνεργάστηκα επίσης με τον ENISA σε μία έρευνα για τα πρότυπα σχετικά με την ιδιωτικότητα. Αυτή ήταν μία συναρπαστική έρευνα. Συνεργάστηκα με ειδικούς στην τυποποίηση, με εκπροσώπους της κοινωνίας των πολιτών και της βιομηχανίας για να καταλήξω στην έκθεσή μου.

– Είστε μέλος διάφορων σημαντικών οργανώσεων. Μία από αυτές είναι το Δίκτυο για την Έρευνα στα Ανθρώπινα Δικαιώματα της Ολλανδίας (NNHRR). Στην Ολλανδία, οργανώσεις όπως η Bits of Freedom, και πανεπιστήμια, όπως το Πανεπιστήμιο του Tilburg, έχουν ενεργό ρόλο στην προώθηση και προστασία των ανθρωπίνων δικαιωμάτων στην ψηφιακή εποχή. Τι πιστεύετε για την κατάσταση στην Ελλάδα στον τομέα αυτό; Μπορούν οι οργανώσεις της κοινωνίας των πολιτών και η ακαδημία να συνεργαστούν για να έχουμε αντίστοιχα αποτελέσματα και στη χώρα μας;

Παρότι σπάνια στο προσκήνιο, ο ρόλος των ΜΚΟ και της ακαδημίας είναι θεμελιώδης για την προστασία των συμφερόντων της κοινωνίας.

Το πρόσφατο πρόστιμο της Γαλλικής Αρχής Προστασίας Προσωπικών Δεδομένων στην Google ξεκίνησε από οργανώσεις της κοινωνίας των πολιτών και είναι ένα εξαιρετικό παράδειγμα του πώς μπορούν τέτοιες οργανώσεις να συμμετέχουν στην προστασία των ανθρωπίνων δικαιωμάτων.

Από όσο γνωρίζω, δεν έχει υπάρξει κάποια συντονισμένη πρωτοβουλία για την προστασία των ψηφιακών δικαιωμάτων στην Ελλάδα. Θεωρώ ότι η Homo Digitalis είναι μία πρωτοβουλία που μπορεί να γεμίσει αυτό το κενό, όχι μόνο ενημερώνοντας το ευρύτερο κοινό μέσα από καμπάνιες ευαισθητοποίησης, αλλά και επισημαίνοντας λανθασμένες και άδικες πρακτικές, συμμετέχοντας σε δημόσιες διαβουλεύσεις και ξεκινώντας στρατηγικές δικαστικές διαδικασίες.

– Έχετε κάνει δημοσιεύσεις μαζί με εξαιρετικούς ακαδημαϊκούς στο χώρο, όπως ο Paul de Hert και η Ελένη Κώστα. Αν μπορούσατε να δώσετε μία συμβουλή στους νεαρούς ερευνητές που διαβάζουν αυτή τη συνέντευξη, ποια θα ήταν αυτή;

Ο Paul και η Ελένη είναι και οι δύο επιβλέποντες στο διδακτορικό μου και έχουν υπάρξει εξαιρετικοί μέντορες στη μέχρι τώρα ακαδημαϊκή μου καριέρα. Έχω μάθει πολλά μέσα από τη συνεργασία μου μαζί τους.

Θα συμβούλευα τους νέους ερευνητές να μοιράζονται και να ανταλλάσσουν απόψεις με τους συναδέλφους τους, να παίρνουν ρίσκα και να εξερευνούν νέα πεδία, να θέτουν στόχους και να δουλεύουν σκληρά μέχρι να τους πετύχουν. Και το πιο σημαντικό: μη φοβάστε να στοχεύετε ψηλά!


Η Κοινωνική Μηχανική ως Απειλή για την Κοινωνία

Του Αναστάσιου Αραμπατζή*

Κοινωνική μηχανική ορίζεται ως η ψυχολογική χειραγώγηση της ανθρώπινης συμπεριφοράς με σκοπό οι άνθρωποι να δρουν με ορισμένους τρόπους ή να αποδεσμεύσουν εμπιστευτικές πληροφορίες. Είναι μία τεχνική η οποία εκμεταλλεύεται τις γνωστικές μας προκαταλήψεις και τα βασικά μας ένστικτα, όπως αυτό της εμπιστοσύνης, με σκοπό τη συλλογή πληροφοριών, την εξαπάτηση ή την πρόσβαση σε συστήματα. Η κοινωνική μηχανική είναι το “αγαπημένο” εργαλείο των κυβερνοεγκληματιών και πλέον χρησιμοποιούν κατά κύριο λόγο τις πλατφόρμες κοινωνικής δικτύωσης.

Η Κοινωνική Μηχανική στο Πλαίσιο της Κυβερνοασφάλειας

Η συμπεριφορά των υπαλλήλων έχει σημαντική επίδραση στο επίπεδο της κυβερνοασφάλειας των οργανισμών, το οποίο κατ’ επέκταση σημαίνει ότι η κοινωνική μηχανική είναι μία σημαντική απειλή. Ο τρόπος με τον οποίο εκπαιδεύουμε τους υπαλλήλους μας στην κυβερνοασφάλεια, επιδρά στην ίδια την κυβερνοασφάλεια του οργανισμού μας. Αναγνωρίζοντας τα πολιτιστικά υπόβαθρα των υπαλλήλων της εταιρείας μας και σχεδιάζοντας την εκπαίδευση με τέτοιο τρόπο ώστε να απαντά στις διάφορες γνωστικές προκαταλήψεις μπορεί να βοηθήσει στη δημιουργία μίας αποτελεσματικής ασφάλειας πληροφοριών. Απώτερος σκοπός θα πρέπει να είναι η δημιουργία μίας κουλτούρας κυβερνοασφάλειας με την έννοια των στάσεων, αντιλήψεων, πεποιθήσεων και συμπεριφορών που συμβάλλουν στην προστασία των ευαίσθητων και κρίσιμων πληροφοριών ενός οργανισμού. Σημαντικό μέρος της κουλτούρας κυβερνοασφάλειας είναι η επίγνωση του κινδύνου της κοινωνικής μηχανικής. Εάν οι υπάλληλοι δεν θεωρούν τον εαυτό τους ως μέρος της προσπάθειας, τότε αγνοούν τα συμφέροντα ασφάλειας του οργανισμού.

Γνωστική Εκμετάλλευση

Οι διάφορες τεχνικές της κοινωνικής μηχανικής βασίζονται σε συγκεκριμένα χαρακτηριστικά της ανθρώπινης διαδικασίας λήψης αποφάσεων, τα οποία είναι γνωστά ως γνωστικές προκαταλήψεις. Αυτές οι προκαταλήψεις είναι παράγωγα του μυαλού στη διαδικασία να βρίσκει τον ευκολότερο δυνατό τρόπο να επεξεργάζεται πληροφορίες και να φτάνει γρήγορα σε αποφάσεις. Για παράδειγμα, ένα χαρακτηριστικό γνώρισμα είναι η αντιπροσωπευτικότητα, η τάση δηλαδή να ομαδοποιούμε παρόμοια αντικείμενα ή γεγονότα. Κάθε φορά που βλέπουμε ένα αυτοκίνητο, δεν απαιτείται να θυμόμαστε τον κατασκευαστή ή το χρώμα. Το μυαλό μας βλέπει το αντικείμενο, το σχήμα, την κίνηση και λέει “αυτοκίνητο”.

Αυτό το χαρακτηριστικό το εκμεταλλεύονται οι κοινωνικοί μηχανικοί με την αποστολή μηνυμάτων phishing. Λαμβάνουμε ένα μήνυμα με το λογότυπο της Amazon και δεν ελέγχουμε εάν είναι ψευδές ή όχι. Το μυαλό μας λέει ότι αυτό προέρχεται από την Amazon, την οποία εμπιστεύομαι και έτσι κάνουμε κλικ στον σύνδεσμο και αποδεσμεύουμε προσωπικά μας στοιχεία όπως ο αριθμός πιστωτικής κάρτας. Παρόμοιες επιθέσεις στοχεύουν στην κλοπή εμπιστευτικών πληροφοριών από τους υπαλλήλους, όπως π.χ. με χειραγώγηση και εξαπάτηση μέσω τηλεφώνου. Εάν το κάθε άτομο δεν είναι επαρκώς εκπαιδευμένο να αντιμετωπίσει τέτοιου είδους επιθέσεις, δεν θα καταλάβει ούτε την ύπαρξή τους.

Οι Αρχές της Επιρροής

Η κοινωνική μηχανική βασίζεται σε μεγάλο βαθμό στις έξι αρχές της επιρροής, όπως αυτές περιγράφονται στο βιβλίο του Robert Cialdini “Influence: The Psychology of Persuasion”, οι οποίες εν συντομία είναι:

  1. Αμοιβαιότητα: οι άνθρωποι τείνουν να ανταποδίδουν χάρες
  2. Δέσμευση και συνέπεια: εάν οι άνθρωποι δεσμευτούν σε μία ιδέα ή ένα στόχο, είναι πολύ πιθανό να τιμήσουν αυτή τη δέσμευση γιατί αυτό είναι σύμφωνο με την εικόνα τους, ακόμα και εάν το αρχικό κίνητρο έχει αλλάξει ή διαγραφεί.
  3. Κοινωνική απόδειξη: οι άνθρωποι τείνουν να μιμούνται άλλους ανθρώπους.
  4. Εξουσία: οι άνθρωποι τείνουν να υπακούν τις αρχές ακόμα και εάν τους ζητηθεί να κάνουν αμφισβητούμενες πράξεις.
  5. Αρέσκεια: οι άνθρωποι πείθονται πιο εύκολα από ανθρώπους που συμπαθούν.
  6. Έλλειψη: η αντιληπτή έλλειψη δημιουργεί απαίτηση (προϊόν διαθέσιμο “μόνο για λίγο”).

Το σκάνδαλο της Cambridge Analytica

Μετά την εκλογή του Προέδρου Τραμπ, πολλά μέσα ενημέρωσης συζητούσαν την πιθανότητα να είχαν χρησιμοποιηθεί τακτικές κοινωνικής μηχανικής για να επηρεαστεί η κοινή γνώμη. Οι αποκαλύψεις για την Cambridge Analytica και της χρησιμοποίησης δεδομένων χρηστών του Facebook δεν εγείρουν μόνο ερωτήματα για την ιδιωτικότητα των δεδομένων και την έλλειψη συναίνεσης των χρηστών, αλλά επιδεικνύουν και την ευκολία με την οποία οι εταιρείες μπορούν να  σχεδιάσουν και να εκτελέσουν εκστρατείες κοινωνικής μηχανικής ενάντια μίας ολόκληρης κοινωνίας.

Όπως και στις εμπορικές διαφημίσεις, το σημαντικό είναι να ξέρεις σε ποιους απευθύνεσαι ώστε με τον λιγότερο δυνατό κόπο πετύχεις τον στόχο σου. Αυτό αληθεύει για κάθε εκστρατεία επιρροής και αυτό που απέδειξε το σκάνδαλο της Cambridge Analytica είναι ότι η κοινωνική μηχανική δεν είναι μόνο μία απειλή για την κυβερνοασφάλεια μίας εταιρείας ή ενός οργανισμού.

Η κοινωνική μηχανική είναι απειλή για την πολιτική σταθερότητα και για τον ελεύθερο, ανεξάρτητο πολιτικό διάλογο. Οι τεχνικές διαφήμισης που χρησιμοποιούνται στις πλατφόρμες κοινωνικής δικτύωσης εγείρουν αρκετά ηθικά διλήμματα. Η πολιτική χειραγώγηση και η διασπορά παραπληροφόρησης και αποπληροφόρησης αμβλύνουν σε μεγάλο βαθμό τα υφιστάμενα ηθικά ζητήματα.

Η απειλή για τις κοινωνίες

Είναι πιθανό η κοινωνική μηχανική να πυροδοτήσει έναν πόλεμο ή μία κοινωνική αναταραχή; Είναι πιθανό ξένοι δρώντες να ξεγελάσουν τους πολίτες ενός κράτους ώστε να ψηφίσουν ενάντια στο εθνικό τους συμφέρον; Εάν ένας αρχηγός (δεν θα χρησιμοποιήσω τη λέξη ηγέτης) θέλει να χειραγωγήσει τους πολίτες του κράτους του, μπορεί να το πετύχει; Η απάντηση σε όλα αυτά τα ερωτήματα είναι ναι. Η κοινωνική μηχανική μέσω των ψηφιακών πλατφορμών που έχουν διεισδύσει σε όλες τις κοινωνικές δομές είναι μία πολύ σοβαρή απειλή.

Κεντρική ιδέα της δημοκρατίας είναι ότι η εξουσία προέρχεται από το λαό, για το λαό. Οι πολίτες μπορούν να εκφράσουν τις απόψεις τους μέσω ενός ανοικτού, προστατευμένου και ελεύθερου διαλόγου. Η λογοδοσία, ειδικά των κυβερνητικών αξιωματούχων, αλλά και των ιδιωτών πολιτών, είναι επίσης μία σημαντική αρχή της δημοκρατίας. Με τη μαζική συλλογή και εκμετάλλευση προσωπικών δεδομένων, χωρίς καμία λογοδοσία, αυτές οι αρχές τίθενται σε κίνδυνο. Η ίδια η δημοκρατία τίθεται σε κίνδυνο.

Βεβαίως εδώ θα πρέπει να σημειώσουμε ότι δεν ευθύνονται μόνο οι πλατφόρμες κοινωνικής δικτύωσης, όπως το Facebook, για την οποιαδήποτε εκστρατεία αποπληροφόρησης ή πολιτικής χειραγώγησης. Οι πλατφόρμες αυτές, ουσιαστικά αντανακλούν τις δικές μας ενέργειες. Εμείς δημιουργούμε τους δικούς μας αποστειρωμένους κόσμους μας, το δικό μας “κύκλο της εμπιστοσύνης”. Οπότε, η απειλή δεν είναι τα μέσα αυτά καθαυτά, αν και έχουν το δικό τους μερίδιο ευθύνης για τον τρόπο συλλογής δεδομένων και των πρακτικών διαφήμισης. Η αληθινή απειλή είναι οι κακόβουλοι δρώντες και πως εκμεταλλεύονται αυτές τις πλατφόρμες.

Μεγάλης κλίμακας εκστρατείες κοινωνικής μηχανικής, οι οποίες εκμεταλλεύονται την ανθρώπινη εμπιστοσύνη, μολύνουν το δημόσιο διάλογο με παραπληροφόρηση και παραμορφώνουν την πραγματικότητα μπορούν να οδηγήσουν τις κοινωνίες στο χείλος του γκρεμού. Η αλήθεια αμφισβητείται περισσότερο από ποτέ και το κλίμα της πολιτικής πόλωσης αυξάνεται. Η διασπορά ειδήσεων στα μέσα κοινωνικής δικτύωσης χωρίς καμία λογοδοσία οδηγεί στην πολιτική διαστρέβλωση, στην έλλειψη εμπιστοσύνης στο πολιτικό σύστημα και στην εκλογή ακραίων πολιτικών κομμάτων. Με λίγα λόγια, η κοινωνική μηχανική αποτελεί μία κρίσιμη απειλή για την κοινωνική και πολιτική σταθερότητα.

Αντιμετώπιση της απειλής

Το κλειδί για την αντιμετώπιση της κοινωνικής μηχανικής, λαμβάνοντας υπόψη ότι οι τακτικές στοχεύουν στην έλλειψη γνώσης, στην άγνοιά μας και στις προκαταλήψεις μας, είναι η επίγνωση. Η προσέγγιση της αύξησης της επίγνωσης έχει διπλό αποτέλεσμα: αφενός μπορούμε να αναπτύξουμε στρατηγικές και καλές πρακτικές για την αντιμετώπιση αυτής καθαυτής της κοινωνικής μηχανικής και αφετέρου μπορούμε να αναπτύξουμε πολιτικές για τη μείωση των αποτελεσμάτων της κοινωνικής μηχανικής.

Σε αντίθεση με το τι συμβαίνει στην αντιμετώπιση των κακόβουλων λογισμικών, για να αντιμετωπίσουμε την κοινωνική μηχανική δεν μπορούμε να “ενσωματώσουμε” κάποιου είδους λογισμικού στον άνθρωπο ώστε αυτός να παραμείνει ασφαλής. Όπως αναφέρει και ο Christopher Hadnagy στο βιβλίο του “Social Engineering, The Art of Human Hacking”, η κοινωνική μηχανική απαιτεί μία ολιστική, ανθρωποκεντρική προσέγγιση, η οποία θα εστιάζει στους ακόλουθους άξονες:

  1. Εκμάθηση αναγνώρισης επιθέσεων κοινωνικής μηχανικής.
  2. Δημιουργία προσωποποιημένου προγράμματος επίγνωσης κυβερνοασφάλειας.
  3. Επίγνωση της αξίας της πληροφορίας που αναζητούν οι κοινωνικοί μηχανικοί.
  4. Διαρκώς ενημερωμένο λογισμικό.
  5. Ασκήσεις ετοιμότητας μέσω λογισμικού προσομοίωσης και “σοβαρών” παιχνιδιών (gamification).

Η αντιμετώπιση της κοινωνικής μηχανικής πρέπει να αποτελέσει μέρος μίας ευρύτερης εκπαίδευσης για την ψηφιακή μας ασφάλεια. Για την καταπολέμηση της κοινωνικής μηχανικής στο επίπεδο της κοινωνίας πρέπει να εκπαιδευτούμε για την τρωτότητα των σύγχρονων μέσων επικοινωνίας (π.χ. μέσα κοινωνικής δικτύωσης), για τους λόγους που αυτά μπορεί να χρησιμοποιηθούν για χειραγώγηση των πολιτών (π.χ. προσωποποιημένη διαφήμιση, πολιτική επικοινωνία) και για τους τρόπους υλοποίησης της χειραγώγησης (π.χ. ψευδείς ειδήσεις). Η επίγνωση είναι το κλειδί για την ανάπτυξη κριτικής σκέψης ενάντια στην κοινωνική μηχανική.

*Ο Αναστάσιος Αραμπατζής είναι μέλος της Homo Digitalis, απόστρατος Αξιωματικός της Πολεμικής Αεροπορίας με πάνω από 25 χρόνια εμπειρία σε θέματα ασφάλειας πληροφοριών. Κατά τη θητεία του στην Π.Α. ήταν πιστοποιημένος αξιολογητής του ΝΑΤΟ σε θέματα κυβερνοασφάλειας και έχει τιμηθεί για τις γνώσεις του και την απόδοσή του. Σήμερα αρθρογραφεί για τη στήλη State of Security της εταιρείας Tripwire και για το blog της Venafi. Άρθρα του έχουν δημοσιευθεί σε πληθώρα έγκριτων ιστοσελίδων.