Πόσο “ελεύθερες” είναι οι επιλογές μας στην εποχή των Big Data; Το παράδειγμα του Netflix

Του Ευάγγελου Φαρμακίδη*

Μόλις έχει τελειώσει το τελευταίο επεισόδιο της καινούριας σεζόν της αγαπημένης μας σειράς του Netflix και έχουμε αποφασίσει να βγούμε για μια βόλτα. Πριν κλείσουμε την τηλεόραση για να ετοιμαστούμε, μια άλλη σειρά κεντρίζει το ενδιαφέρον μας. Εμφανίστηκε στα προτεινόμενα και τυχαίνει να είναι το είδος της σειράς που μας αρέσει. Μετά από μια γρήγορη ματιά αποφασίζουμε να δούμε μόνο το Trailer για να σιγουρευτούμε ότι είναι της αρεσκείας μας.

Πράγματι είναι! Η έξοδος ακυρώνεται και ένας νέος μαραθώνιος επεισοδίων (Binge-Watching) ξεκινά.

Πόσο ελεύθερες είναι άραγε οι επιλογές μας στην εποχή των Big Data;

Θέλαμε πράγματι να μείνουμε σπίτι και να δούμε μια νέα σειρά ή θέλαμε να βγούμε για μια βόλτα;

Μήπως με κάποιον έντεχνο τρόπο η βούλησή μας επηρεάζεται σημαντικά και οι αποφάσεις μας καθοδηγούνται;

Στα παραπάνω ερωτήματα θα προσπαθήσουμε να δώσουμε μια σύντομη, απλή και κατανοητή απάντηση.

Η επιλογή του παραδείγματος του Netflix δεν είναι ασφαλώς τυχαία. Όπως δεν είναι τυχαία και η εμφάνιση της νέας προτεινόμενης ενδιαφέρουσας σειράς στην οθόνη της τηλεόρασής μας.

To Netflix σήμερα αριθμεί περί τους 137 εκατομμύρια συνδρομητές σε 190 χώρες και οφείλει μεγάλο μέρος της επιτυχίας του στα Big Data. Η ανάλυση δεδομένων είναι μια πρακτική που η εταιρία εφάρμοσε από τα πρώτα χρόνια της ίδρυσής της, όταν η υπηρεσία Streaming δεν ήταν διαθέσιμη και το Netflix εξυπηρετούσε τους πελάτες του αποκλειστικά με την αποστολή DVDs στο σπίτι μέσω του ταχυδρομείου. Μελετώντας τις προτιμήσεις άλλων πελατών του, τους πρότεινε ταινίες που πιθανόν να τους ενδιέφεραν.

Με την πρακτική αυτή θέλησε να αυξήσει τα έσοδά του και ταυτόχρονα να αντιμετωπίσει το πρόβλημα που ανέκυπτε κάθε φορά που μια ταινία βραβευόταν με Όσκαρ ή κάποιος διάσημος κριτικός ταινιών έγραφε μια διθυραμβική κριτική για μια ταινία: η ζήτηση της συγκεκριμένης ταινίας αυξανόταν κατακόρυφα με αποτέλεσμα αφενός το Netflix να μην μπορεί να εξυπηρετήσει την αυξημένη ζήτηση και αφετέρου οι παλαιότερες ταινίες να μένουν στα αζήτητα με αποτέλεσμα η εταιρία να χάνει περισσότερα έσοδα.

Έπρεπε λοιπόν να βρεθεί ένας τρόπος, ώστε να στρέψει τους πελάτες του σε λιγότερο διάσημες ή παλαιότερες ταινίες. Για τον λόγο αυτό ανέπτυξε έναν αλγόριθμο πρόβλεψης, ο οποίος ονομάστηκε Cinematch, για να προτείνει στους χρήστες του νέες ταινίες με βάση τις προτιμήσεις των άλλων χρηστών.

Αργότερα, τον Οκτώβριο του 2006, θέλοντας να βελτιώσει την απόδοση του αλγορίθμου, προκήρυξε έναν ανοιχτό διαγωνισμό, το Netflix Prize. Η ομάδα που θα κατάφερνε να βελτιώσει σε ικανοποιητικό βαθμό τα αποτελέσματα του αλγορίθμου θα κέρδιζε χρηματικό έπαθλο ενός εκατομμυρίου δολαρίων. Στον διαγωνισμό, ο οποίος τράβηξε το ενδιαφέρον ολόκληρης της παγκόσμιας κοινότητας, συμμετείχαν περισσότερες από 40.000 ομάδες ειδικών (στους τομείς των μαθηματικών, της στατιστικής, της πληροφορικής κ.α.) από 183 διαφορετικές χώρες του κόσμου. Για τον σκοπό αυτό δόθηκε στους ερευνητές πρόσβαση σε αξιολογήσεις και κριτικές 500.000 χρηστών του Netflix.

Χρειάστηκαν τρία ολόκληρα χρόνια για να επιτευχθεί το επιθυμητό αποτέλεσμα και το βραβείο τελικά δόθηκε στις 21 Σεπτεμβρίου 2009. Ο αλγόριθμος που κέρδισε ήταν αποτέλεσμα κοινοπραξίας 4 ομάδων υπό την ονομασία BellKor’s Pragmatic Chaos και βελτίωνε τα αποτελέσματα του υπάρχοντος αλγορίθμου κατά 10.06%. Το αποτέλεσμα είναι σήμερα να λαμβάνουμε προτάσεις, οι οποίες ξεπερνούν σε ποσοστό επιτυχίας το 85%.

Κρατώντας μας απασχολημένους με συνεχόμενη ροή προτάσεων, το Netflix καταφέρνει κάθε μήνα να ανανεώνουμε τη συνδρομή μας. Αν δεν υπήρχαν οι προτάσεις αυτές, είναι πιθανό ότι μετά το τέλος της τελευταίας σεζόν της αγαπημένης μας σειράς, θα ακυρώναμε τη συνδρομή μας, τουλάχιστον μέχρις ότου κυκλοφορήσει η νέα σεζόν της αγαπημένης μας σειράς.

Ένα χαρακτηριστικό παράδειγμα της προσωποποιημένης εμπορικής πρακτικής του Netflix είναι το ακόλουθο: Για την προώθηση της -ίσως πιο διάσημης- σειράς του, που ανέδειξε και καθιέρωσε την εταιρία, το House of Cards, γυρίστηκαν διαφορετικά trailers με διαφορετικές εκδοχές της ίδιας σειράς, που όμως απευθύνονταν σε διαφορετικές ομάδες κοινού, ανάλογα με τις προτιμήσεις τους. Έτσι, στα προτεινόμενα κάθε “ομάδας” εμφανιζόταν διαφορετικό trailer για την ίδια ακριβώς σειρά, ανάλογα με το ιστορικό των προτιμήσεών τους. Για παράδειγμα, οι φίλοι των δραματικών ταινιών έβλεπαν μια πιο δραματική εκδοχή της σειράς, ενώ αντίστοιχα οι φίλοι των περιπετειών μια πιο περιπετειώδη εκδοχή της κ.ο.κ..

Το Netflix σήμερα συλλέγει διάφορα δεδομένα των χρηστών του, όπως η ηλικία, το φύλο, η γεωγραφική θέση, πληροφορίες σχετικά με τον υπολογιστή τους ή άλλες συσκευές που χρησιμοποιούν για την πρόσβαση στην υπηρεσία, τα προγράμματα που παρακολούθησαν από την ημέρα της εγγραφής τους, οι ημέρες και οι ώρες που συνδέονται, το ιστορικό των αναζητήσεών τους, ακόμα και τον τρόπο με τον οποίο έκαναν scroll κατά την περιήγησή τους. Καταγράφει ακόμα κάθε πότε κάνουν παύση, πηγαίνουν πίσω για να ξαναδούν μια σκηνή ή πότε περνούν με fast play μια βαρετή σκηνή.

Στην επιστήμη σήμερα δεν υπάρχει ένας οικουμενικά αποδεκτός ορισμός για τα Big Data. Μπορούμε όμως να πούμε ότι ως “Μεγάλα Δεδομένα” ορίζονται τα δεδομένα, ανεξαρτήτως είδους, που συγκεντρώνουν τα εξής βασικά χαρακτηριστικά: υπερβολικά μεγάλο όγκο (volume), μεγάλη ποικιλία (variety) και υψηλή ταχύτητα συλλογής – ακόμη και σε πραγματικό χρόνο – από πολλαπλές πηγές (velocity).

Data mining ή εξόρυξη δεδομένων είναι η διαδικασία μέσω της οποίας αποκτά κανείς χρήσιμες πληροφορίες μέσα από την κατάλληλη επεξεργασία των «ακατέργαστων», αταξινόμητων, πολύπλοκων και με μεγάλο όγκο δεδομένων, τα οποία προηγουμένως έχουν συλλεχθεί και βρίσκονται σε τεράστιες και αχανείς βάσεις.

Οι πληροφορίες που εξορύσσονται από τα δεδομένα είναι ένα πανίσχυρο “όπλο” στα χέρια των Marketers, οι οποίοι τις χρησιμοποιούν για την προώθηση των προϊόντων ή ακόμα και για τη σχεδίαση νέων.

Τα δεδομένα σήμερα, στην εποχή της 4ης Βιομηχανικής Επανάστασης, έχουν την ίδια αξία με αυτή που είχε το πετρέλαιο για τη 2η Βιομηχανική Επανάσταση και ο ατμός για την 1η (The world’s most valuable resource is no longer oil, but data, The Economist, 2017).

Με τον παραπάνω τρόπο, το Netflix γνωρίζει ποια από τα προγράμματά του πρέπει να μας προτείνει, αλλά επιπλέον στηρίζει και την παραγωγή των νέων προγραμμάτων του στις προτιμήσεις και τις συνήθειες των χρηστών του. Γνωρίζοντας με ακρίβεια τί προτιμούν οι χρήστες του, παράγει προγράμματα που είναι σχεδόν βέβαιο ότι θα γίνουν επιτυχίες, πριν καν γυριστούν.

Η χρήση των μεθόδων αυτών εμπορικής προώθησης σε καμία περίπτωση δεν είναι κατακριτέα, ούτε φυσικά είναι πρόθεση του γράφοντος να ξορκίσει τα Big Data, τα οποία αποδεικνύονται πολύ χρήσιμα σε πολλούς τομείς της ζωής μας και πέρα από την εμπορική δραστηριότητα, όπως για παράδειγμα στην Ιατρική Επιστήμη.

Αντίθετα, τα οφέλη για τον ενημερωμένο καταναλωτή είναι πολλαπλά, καθώς του παρέχεται η ευκαιρία να κάνει σωστές επιλογές, οι οποίες θα είναι της αρεσκείας του και θα καλύπτουν τις ανάγκες του, ενώ ταυτόχρονα εξοικονομεί χρόνο και χρήματα.

Η Ευρωπαϊκή Ένωση αναγνώρισε ήδη από τα μέσα της δεκαετίας του ‘90 την αξία των προσωπικών δεδομένων και θέσπισε ένα ειδικό νομοθετικό πλαίσιο, προκειμένου από τη μια να διευκολύνει την ελεύθερη ροή τους και από την άλλη να προστατεύσει τους κατοίκους των χωρών μελών της. Τελευταία μεγάλη σχετική νομοθετική πρωτοβουλία της είναι η ψήφιση του Γενικού Κανονισμού Προστασίας Δεδομένων ή ευρύτερα γνωστού ως GDPR. Σημειωτέον ότι αναμένεται ο νέος Κανονισμός ePrivacy, που θα αφορά, μεταξύ άλλων, και την επεξεργασία δεδομένων προσωπικού χαρακτήρα στις ηλεκτρονικές επικοινωνίες.

Η σημασία των μεγάλων δεδομένων για τις σύγχρονες οικονομίες και την επιστήμη του Marketing είναι αδιαμφισβήτητη. Άλλωστε, όπως πολύ εύστοχα έχει επισημάνει ο Dan Zarrella “Marketing without data is like driving a car with your eyes closed”.

Οι καταναλωτές όμως θα πρέπει να είναι ενημερωμένοι, ώστε οι πρακτικές αυτές να λειτουργούν προς όφελός τους και όχι επηρεάζοντας τη βούλησή τους, χειραγωγώντας τις αποφάσεις τους και καθορίζοντας τον τρόπο ζωής τους.

Bιβλιογραφία

  • Mareike Jenner, (2018), Netflix and the Re-invention of Television. Palgrave Macmillan.
  • Pant V., Yu E., (2018), Conceptual Modeling to Support the “Larger Goal” Pivot – An Example from Netflix. In: Buchmann R., Karagiannis D., Kirikova M. (eds) The Practice of Enterprise Modeling. PoEM 2018. Lecture Notes in Business Information Processing, vol 335. Springer, Cham.
  • Kai-Ingo Voigt, OanaBuliga, Kathrin Michl, (2017), Entertainment on Demand: The Case of Netflix. In: Business Model Pioneers, Springer International Publishing.
  • Jenkins J., (2017), Netflix. In: Schintler L., McNeely C. (eds) Encyclopedia of Big Data, Springer, Cham
  • Roberts R., (2017), Live TV, Netflix, Amazon, the Universe! In: Mastering Media with the Raspberry Pi. Apress, Berkeley, CA.
  • McDonald K. & Smith-Rowsey D., (2016), The Netflix effect: Technology and entertainment in the 21st century. London: Bloomsbury Academic.
  • Amatriain X., Basilico J., (2015), Recommender Systems in Industry: A Netflix Case Study. In: Ricci F., Rokach L., Shapira B. (eds) Recommender Systems Handbook. Springer, Boston, MA.
  • Mary J. Cronin, (2014), Netflix Switches Channels. In: Top Down Innovation, Springer International Publishing.
  • Keating, Gina, (2012), Netflixed: The Epic Battle for America’s Eyeballs. Portfolio/ Penguin.
  • Robert M. Bell, Yehuda Koren& Chris Volinsky, (2010), All Together Now: A Perspective on the Netflix Prize. CHANCE, 23:1, 24-29.
  • S. Finlay, (2014), Predictive Analytics, Data Mining and Big Data, Palgrave Macmillan UK.
  • Min Chen, Shiwen Mao, Yin Zhang, Victor CM Leung, (2014), Big Data: Related Technologies, Challenges and Future Prospects, Springer International Publishing.
  • Hrushikesha Mohanty, PrachetBhuyan, Deepak Chenthati, (2015), Big Data: A Primer, Springer India.

*Ο Ευάγγελος Φαρμακίδης είναι μέλος της Homo Digitalis, ασκούμενος δικηγόρος, τελειόφοιτος του ΔΠΜΣ «Δίκαιο και Πληροφορική» του Τμήματος Εφαρμοσμένης Πληροφορικής, ΠαΜακ και της Νομικής Σχολής, ΔΠΘ, μεταπτυχιακός φοιτητής Ποινικού Δικαίου και Εγκληματολογικών Επιστημών στη Νομική Σχολή, ΔΠΘ, κάτοχος Διπλώματος στην Κοινωνική Οικονομία και Κοινωνική Επιχειρηματικότητα και Διαπιστευμένος Διαμεσολαβητής του Υπουργείου Δικαιοσύνης, Διαφάνειας και Ανθρωπίνων Δικαιωμάτων.


YouTube και παιδιά: Μία σχέση προστατευτική;

Της Αναστασίας Καραγιάννη *

Πριν από λίγες μέρες έπεσε στην αντίληψή μου το βίντεο ενός χρήστη στο YouΤube, ο οποίος προσπαθούσε να εξηγήσει πώς αυτή η πλατφόρμα διευκολύνει την σεξουαλική εκμετάλλευση των παιδιών από παιδόφιλους. Μάλιστα, σχολίαζε ότι πρόκειται για μία αρκετά επικερδή δραστηριότητα σε αυτόν τον χώρο, καθώς στα συγκεκριμένα βίντεο προβάλλονταν διαφημίσεις, τόσο του Fortnite, όσο και της Disney και άλλων εταιριών!

Αναρωτήθηκα πώς επιτρέπεται αυτό και πώς ήταν τόσο προφανές που το παρατήρησε και το ανακάλυψε;

Στο βίντεο, λοιπόν, που ανέβασε ο Matt Watson παρουσιάζονται ανεβασμένα βίντεο των παιδιών σε καθημερινά στιγμιότυπα, όπως σε αθλητικές δραστηριότητες, σε παιχνίδια, σε πισίνα με μαγιό. Πρόκειται για ‘αθώα’ βίντεο, χωρίς επικίνδυνο, άσεμνο ή πορνογραφικό περιεχόμενο. Ωστόσο, αποκτούν soft porno περιεχόμενο στα μάτια παιδόφιλων, οι οποίοι τα σχολιάζουν, τονίζοντας παγωμένα στιγμιότυπα, και τα προωθούν κατ’ αυτόν τον τρόπο. Δεν διστάζουν, μάλιστα, να προσθέσουν στα σχόλια links-συνδέσεις με υλικό παιδικής πορνογραφίας.

Για την αξιοπιστία του πειράματος που έκανε, ο Matt Watson χρησιμοποίησε έναν ολοκαίνουργιο λογαριασμό στο YouTube και ένα VPN, ώστε οι αναζητήσεις του να μην επηρεαστούν από προηγούμενη δραστηριότητα στην πλατφόρμα.

Το αποτέλεσμα ήταν σοκαριστικό. Τόσο η πλαϊνή γραμμή όσο και η πρώτη σελίδα των αποτελεσμάτων ήταν γεμάτες με βίντεο ανηλίκων σε διάφορες άσεμνες πόζες. Με αυτόν τον τρόπο, απέδειξε ότι οι αλγόριθμοι που χρησιμοποιεί το YouTube και που παραπέμπουν στα βίντεο αυτά είναι πολύ απλοί, καθώς πληκτρολογώντας απλές φράσεις, όπως ‘κορίτσια σε πισίνα’ ή ‘μικρά κορίτσια κάνουν γυμναστική’ εμφανίζονται βίντεο που παραπέμπουν σε υλικό με το περιεχόμενο και τα σχόλια, όπως περιγράφηκε παραπάνω.

Πονοκέφαλο προκαλούν στο Youtube τόσο ο χαρακτηρισμός αυτών των βίντεο και ο τρόπος αντιμετώπισής τους, όσο και το γεγονός ότι αποτελούν μία κερδοσκοπική δραστηριότητα, αφού εξαιτίας της υψηλής θεαματικότητας έχουν τοποθετηθεί διαφημίσεις από γνωστές και μεγάλες εταιρίες.

Σχετικά, λοιπόν, με τον χαρακτηρισμό τους, οι διαθέσιμοι τρόποι σήμανσης των βίντεο που κυκλοφορούν στην πλατφόρμα  είναι η ακατάλληλη γλώσσα που χρησιμοποιείται ή η κάλυψη αμφιλεγόμενων θεμάτων και ευαίσθητων γεγονότων. Δεν είναι, όμως, η πρώτη φορά που το YouTube κατηγορείται ότι θέτει σε κίνδυνο τα παιδιά ή ότι δεν τα προστατεύει από την έκθεσή τους σε παιδόφιλους, μέσα από τα σχόλια που παραθέτουν.

Στη φωτογραφία βλέπουμε τους διαθέσιμους τρόπους σήμανσης ενός βίντεο στο YouTube

Το 2018, μια έρευνα του Times of London έδειξε ότι το YouTube δεν κατάφερε να απομακρύνει άμεσα τις ζωντανές ροές-live streamings με ακατάλληλο περιεχόμενο. Το 2017, μάλιστα, η Google δέχθηκε επικρίσεις από το πρόγραμμα Trusted Flagger που διαθέτει το YouTube, στο οποίο συμμετέχουν και ειδικοί παιδικής προστασίας, έπειτα από τις διαμαρτυρίες τους για απουσία δράσης και αντιμετώπισης σχετικά με τον κίνδυνο για σεξουαλική εκμετάλλευση παιδιών, τόσο εξαιτίας απρεπών φωτογραφιών όσο και άσεμνων σχολίων.

Σε μια συνέντευξη που παραχώρησε το 2017 στην Forbes, αν και δεν δημοσιεύτηκε, ένας από τους συμμετέχοντες σε αυτή την εκστρατεία ευαισθητοποίησης, εξέφρασε την δυσαρέσκειά του σχετικά με τον αργό ρυθμό που το YouTube ανταποκρίθηκε και διαχειρίστηκε τις αναφορές που υποβλήθηκαν. Μετά από την υποβολή 526 αναφορών που υποβλήθηκαν σε λιγότερο από 60 ημέρες σχετικά την ασφάλεια των παιδιών στην πλατφόρμα, οι ίδιοι έλαβαν συνολικά μόνο 15 απαντήσεις, ενώ μόλις οι 8 εξετάστηκαν για τον έλεγχο παραβίασης των Κοινοτικών Οδηγιών. Εκπρόσωπος του YouTube δεσμεύτηκε ότι θα προσπαθήσει να προσθέσει μία λειτουργία αναθεώρησης σχολίων και θα προσλάβει επιπλέον προσωπικό για να διαχειριστεί αυτήν την κατάσταση.

Στα ίδια πλαίσια, θα πρέπει να γίνει αναφορά και στο ερευνητικό τεύχος του Daily Dot του 2013 σχετικά με το ποσοστό των παιδόφιλων που έρχονται σε επαφή με ανηλίκους μέσω σχολίων στο YouTube. Τα βίντεο που προσελκύουν το ενδιαφέρον των  παιδόφιλων χρονολογούνται από το 2013, ενώ εξακολουθούν να αναπαράγονται και το 2019! Εκατομμύρια σχόλια και περισσότερα από 400 κανάλια στο YouTube διαγράφηκαν για τα απρεπή σχόλια και τα άσεμνα βίντεο που προωθούσαν,  όπως ανέφερε η Chi Hea Cho, εκπρόσωπος της Google, μητρικής εταιρίας του YouTube. Μάλιστα, η Chi Hea Cho επισήμανε ότι ανέφερε αυτές τις παράνομες δραστηριότητες και στο Εθνικό Κέντρο για τα Εξαφανισμένα και Κακοποιημένα Παιδιά.

Τα παιδιά που μαγνητοσκοπούν και ανεβάζουν τα βίντεο αυτά είναι, σχεδόν σε όλες τις περιπτώσεις, κάτω των 13 ετών. Και αναρωτιέμαι:

-Γιατί δεν αντιδρούν οι γονείς τους;

-Πώς επιτρέπεται να αναπαράγεται αυτό το υλικό, εφόσον το YouTube γνωρίζει το πώς χρησιμοποιείται και προωθείται;

-Αντί για κατασταλτικά μέτρα, γιατί δεν λαμβάνουν τόσο η Google όσο και το YouTube προληπτικά μέτρα;

-Αντί για διαγραφή σχολίων και λογαριασμών, κατόπιν εορτής, γιατί αυτές οι πλατφόρμες δεν αναπτύσσουν φίλτρα προστασίας και δεν εφαρμόζουν πολιτικές σύμφωνες με τους κανόνες παιδικής προστασίας;

Η Epic Games και η Nestle απέσυραν τις διαφημίσεις τους σε αντίστοιχα βίντεο από τις δύο πλατφόρμες. Αρκεί όμως αυτό;

*Η Αναστασία Καραγιάννη είναι νομικός με εξειδίκευση στα ψηφιακά δικαιώματα των παιδιών. Είναι μέλος της Homo Digitalis και συνδημιουργός της ChildAct, η οποία έχει ως σκοπό την προστασία των ψηφιακών δικαιωμάτων των παιδιών. Στις 8 Νοεμβρίου 2018 εκπροσώπησε τη Homo Digitalis στη συνεδρίαση με θέμα ‘Facebook και άλλοι κοινωνικοί κίνδυνοι’, που έλαβε χώρα στο Ευρωπαϊκό Κοινοβούλιο.


Τεχνητή Νοημοσύνη και Κυβερνοασφάλεια: Πραγματικότητα και Υπερβολές

Του Αναστάσιου Αραμπατζή*

Το τελευταίο χρονικό διάστημα υπάρχει έντονο ενδιαφέρον και επενδύσεις στον τομέα της Τεχνητής Νοημοσύνης από εταιρείες που ελπίζουν να αξιοποιήσουν τη δύναμη αυτόνομων λύσεων με δυνατότητες μάθησης. Η τεχνητή νοημοσύνη χρησιμοποιείται ήδη από οργανισμούς στον ασφαλιστικό κλάδο, στην έρευνα για τον καρκίνο του μαστού, σε χρηματοπιστωτικούς οργανισμούς και στην επιβολή του νόμου.

Εντούτοις, σύμφωνα με μία πρόσφατη έρευνα της ESET, οι υψηλές προσδοκίες των επιχειρήσεων και η παραπλανητική διαφήμιση προϊόντων τεχνητής νοημοσύνης έχουν δημιουργήσει μία υπερβάλλουσα δημοσιότητα σχετικά με την τεχνητή νοημοσύνη, σε σημείο που το 75% των υψηλόβαθμων στελεχών συστημάτων πληροφορικής να θεωρούν την τεχνητή νοημοσύνη ως πανάκεια για τα θέματα κυβερνοσφάλειας των εταιρειών τους. Τέτοιες προσδοκίες, σε συνδυασμό με το επίπεδο της τεχνολογίας της τεχνητής νοημοσύνης, θέτουν τους οργανισμούς σε κίνδυνο. Παρότι η τεχνητή νοημοσύνη είναι εκπληκτικά χρήσιμη στην υποβοήθηση λήψεως αποφάσεων από τους ανθρώπους, από μόνη της δεν μπορεί να αντικαταστήσει μία στρατηγική ασφάλειας πληροφοριών.

Ας πάρουμε για παράδειγμα τις προσπάθειες του Facebook να καταπολεμήσει και να μειώσει τις “ψευδείς ειδήσεις” που διαδίδονται με εκπληκτική ταχύτητα μέσω της πλατφόρμας του.  Η πλατφόρμα κοινωνικής δικτύωσης χρησιμοποίησε τους καλύτερους μηχανικούς της για να αναπτύξουν εργαλεία τεχνητής νοημοσύνης για τον εντοπισμό και εξάλειψη ψευδών ειδήσεων. Παρά τις έντονες προσπάθειές τους, ο Greg Marra, διευθυντής παραγωγής στη Facebook, παραδέχθηκε ότι “μπορούμε να μειώσουμε την εμφάνιση ψευδών ειδήσεων μόνο κατά 80%”. Εάν η τεχνητή νοημοσύνη επιλύει μόνο το 80% των θεμάτων ψευδών ειδήσεων στο Facebook, τότε οι εταιρείες προϊόντων κυβερνοασφάλειας κάνουν μη ρεαλιστικούς ισχυρισμούς.

Η σκληρή αλήθεια είναι ότι μεγάλο μέρος του ενθουσιασμού που περιβάλλει την τεχνητή νοημοσύνη είναι υπερβολή. Εντούτοις η τεχνητή νοημοσύνη προσφέρει ελπίδες για υψηλής νοημοσύνης λύσεις. Είναι ώρα για ένα τεστ αλήθειας: τι μπορεί και τι δεν μπορεί να κάνει η τεχνητή νοημοσύνη;

  • Η τεχνητή νοημοσύνη μπορεί να βοηθήσει στο επίπεδο κυβερνοασφάλειας ενός οργανισμού

Η αλήθεια είναι ότι ο τομέας της κυβερνοσφάλειας είχε ανάγκη μία τεχνολογία σαν την τεχνητή νοημοσύνη λόγω των σημαντικών αλλαγών στο τοπίο των απειλών και της έλλειψης εξειδικευμένου προσωπικού για τη στελέχωση θέσεων εργασίας κυβερνοασφάλειας.

Τα τελευταία χρόνια σχεδόν κάθε οργανισμός έχει μετασχηματιστεί ψηφιακά (digital transformation). Ο όρος ψηφιακός μετασχηματισμός υπονοεί τη χρήση ψηφιακών τεχνολογιών για την εκτέλεση μίας διαδικασίας ώστε αυτή να γίνει περισσότερο αποδοτική ή αποτελεσματική. Η γενική ιδέα είναι η χρήση της τεχνολογίας όχι μόνο για να αντιγράψουμε μία υφιστάμενη υπηρεσία σε ψηφιακή μορφή, αλλά για να μετασχηματίσουμε αυτή την υπηρεσία σε κάτι σημαντικά καλύτερο. Ο ψηφιακός μετασχηματισμός μπορεί να περιλαμβάνει πολλές τεχνολογίες, αλλά οι πιο σύγχρονες τάσεις είναι το cloud computing, το Internet of Things (IoT), τα μεγάλα δεδομένα (big data) και η τεχνητή νοημοσύνη.

Εκτός από τη χρήση τεχνολογίας, ο ψηφιακός μετασχηματισμός είναι μία αλλαγή στην κουλτούρα των οργανισμών η οποία επιβάλλει στους οργανισμούς να προκαλούν συνεχώς την υφιστάμενη κατάσταση, να πειραματίζονται και να μαθαίνουν από τις από αποτυχίες τους. Στη σημερινή εποχή το μόνο σταθερό είναι ότι όλα αλλάζουν και η κουλτούρα των οργανισμών πρέπει να διευκολύνει την αλλαγή.

Η χρήση τέτοιων τεχνολογιών έχει ανοίξει νέους ορίζοντες για τις ικανότητες των οργανισμών αλλά έχει επίσης δημιουργήσει νέες πολυπλοκότητες, διασυνδέσεις και σημεία τρωτοτήτων τα οποία οι κυβερνοεγκληματίες έμαθαν πολύ γρήγορα να εκμεταλλεύονται. Οι παραδοσιακές προσεγγίσεις της περιμετρικής ασφάλειας και κυβερνοσφάλειας δεν ισχύουν πλέον για τον νέο, ψηφιακό οργανισμό. Την ίδια στιγμή, οι ομάδες κυβερνοσφάλειας που αποτελούνται μόνο από ανθρώπους δεν μπορούν να επεξεργαστούν την πλημμύρα δεδομένων απειλών με την οποία έρχονται αντιμέτωποι κάθε μέρα.

Όπως αναφέρει χαρακτηριστικά η σελίδα Security Intelligence της IBM, οι αναλυτές δεδομένων ασφαλείας είναι υπερφορτωμένοι, υποστελεχωμένοι και παρουσιάζουν σημάδια κούρασης και εξόντωσης. Είναι ανθρωπίνως αδύνατο να συμβαδίσουμε με το διαρκώς εξελισσόμενο και εκτεινόμενο πεδίο των απειλών, ειδικά εάν λάβουμε υπόψη τις καθημερινές εργασίες και λειτουργίες ενός κέντρου επιχειρήσεων ασφαλείας (Security Operations Center, SOC). Τι μπορεί να κάνει η τεχνητή νοημοσύνη για να βελτιωθεί αυτή η κατάσταση; Σύμφωνα με μία πρόσφατη αναφορά του Ponemon, οι οργανισμοί οι οποίοι κατάφεραν να αναγνωρίσουν μια παραβίαση ασφαλείας σε λιγότερο από 100 ημέρες κέρδισαν περισσότερο από 1 εκατομμύριο δολάρια σε σύγκριση με αυτούς τους οργανισμούς όπου παρόμοια περιστατικά παρέμειναν άγνωστα για περισσότερο από 100 ημέρες. Παρομοίως, οι οργανισμοί που κατάφεραν να περιορίσουν την παραβίαση σε λιγότερο από 30 ημέρες κέρδισαν άνω του 1 εκατομμυρίου δολαρίων σε σύγκριση με αυτούς που χρειάστηκαν περισσότερο χρόνο.

Η ταχύτητα, ακρίβεια και υπολογιστική ισχύς της τεχνητής νοημοσύνης προσφέρουν μια μοναδική ευκαιρία για την προστασία ενός οργανισμού χωρίς περίμετρο ασφαλείας και για συνεχή επεξεργασία του τεράστιου όγκου δεδομένων απειλών που αντιμετωπίζουν οι οργανισμοί σε καθημερινή βάση. Αυτό γίνεται λόγω του ότι η τεχνητή νοημοσύνη λειτουργεί εξαιρετικά καλά σε επαναλαμβανόμενες εργασίες όπως η αναζήτηση συγκεκριμένων μοτίβων επιθέσεων. Έτσι, η υλοποίηση της τεχνητής νοημοσύνης στους οργανισμούς μπορεί να βοηθήσει στην αποτελεσματική αντιμετώπιση της έλλειψης πόρων που αντιμετωπίζουν τα περισσότερα κέντρα επιχειρήσεων ασφαλείας και μπορεί να προσφέρει οφέλη μεγέθους κλίμακας στην πρόληψη και αναγνώριση προσβολών, στην αναγνώριση απάτης και στην κακή χρησιμοποίηση πιστοποιητικών ταυτοποίησης.

Επιπρόσθετα, οι αλγόριθμοι τεχνητής νοημοσύνης μπορούν να εφαρμοστούν για την συμπεριφορική ανάλυση χρηστών και δικτύων. Για παράδειγμα οι αλγόριθμοι μπορούν να χρησιμοποιηθούν για τη διερεύνηση δραστηριοτήτων ανθρώπων και συσκευών ώστε να σηματοδοτηθούν πιθανές κακόβουλες δραστηριότητες εκ των έσω.

  • Η Τεχνητή Νοημοσύνη Δεν Είναι Μαγεία

Ο Arthur Clarke είχε γράψει ότι “Οποιαδήποτε ικανοποιητικά προηγμένη τεχνολογία δεν διακρίνεται από τη μαγεία”. Αυτό όμως δεν είναι αλήθεια για την τεχνητή νοημοσύνη. Ο επικεφαλής Τεχνητής Νοημοσύνης της Google, Rodney Brooks, σημειώνει ότι “Η Τεχνητή Νοημοσύνη έχει υπερεκτιμηθεί ξανά και ξανά, και τη δεκαετία του 1960, και τη δεκαετία του 1980 και πάλι σήμερα, αλλά οι μακροπρόθεσμες προοπτικές της έχουν υποεκτιμηθεί”. Στην πραγματικότητα, σύμφωνα με τον Brooks, η Τεχνητή Νοημοσύνη είναι μία ακόμα εφαρμογή του νόμου του Amara, ο οποίος λέει ότι “Τείνουμε να υπερεκτιμάμε την επίδραση της τεχνολογίας βραχυπρόθεσμα, και να υποεκτιμούμε την μακροπρόθεσμη επίδρασή της”.

Ένα λάθος που κάνουμε είναι η τάση να θεωρούμε την Τεχνητή Νοημοσύνη ως ένα είδος “μαγικής σκόνης” που την ψεκάζουμε σε ένα οργανισμό και αυτός, ξαφνικά, γίνεται πιο έξυπνος. Ο Andrew Moore, επικεφαλής του Τμήματος Επιχειρήσεων Cloud AI της Google, είπε πρόσφατα ότι “η Τεχνητή Νοημοσύνη αφορά τη χρήση μαθηματικών ώστε οι μηχανές να παίρνουν αληθινά καλές αποφάσεις. Επί του παρόντος δεν αφορά την εξομοίωση της ανθρώπινης νοημοσύνης. Η επίλυση προβλημάτων τεχνητής νοημοσύνης περιλαμβάνει πολλή μηχανική, πολλά μαθηματικά και γραμμική άλγεβρα. Δεν είναι με κανένα τρόπο μία μαγικού τύπου λύση”.

Στην πραγματικότητα οι σημερινοί αλγόριθμοι τεχνητής νοημοσύνης δεν είναι τίποτα άλλο από παραδοσιακοί αλγόριθμοι εκμάθησης μηχανών. Η εκμάθηση μηχανών χρησιμοποιεί στατιστικές τεχνικές για να δώσει στους υπολογιστές την ικανότητα να “μαθαίνουν”. Χρησιμοποιούν δηλαδή δεδομένα για να βελτιώνουν σταδιακά την απόδοση των υπολογιστών σε συγκεκριμένες εργασίες χωρίς επιπρόσθετο προγραμματισμό. Ένα σύστημα εκμάθησης μηχανών είναι ένα σύνολο αλγορίθμων που δέχεται πακέτα δεδομένων και αποδίδει συσχετισμούς, προτάσεις και ίσως και αποφάσεις. Η εν λόγω τεχνολογία είναι ήδη πανταχού παρούσα: κάθε “συναλλαγή” μας με την Google, την Amazon, την Facebook και τη Spotify διευκολύνεται από συστήματα εκμάθησης μηχανών.

Εν κατακλείδι, όπως ανέφερε η Fei-Fei Li, καθηγήτρια στο Πανεπιστήμιο του Stanford, “δεν υπάρχει τίποτα το τεχνητό στην τεχνητή νοημοσύνη. Είναι εμπνευσμένη από ανθρώπους, έχει δημιουργηθεί από ανθρώπους και – το πιο σημαντικό – επηρεάζει τους ανθρώπους. Είναι ένα πολύ δυνατό εργαλείο που μόλις αρχίζουμε να το καταλαβαίνουμε και αυτό εμπεριέχει μεγάλη ευθύνη”.

  • Η Τεχνητή Νοημοσύνη δεν Εξαλείφει την Ανθρώπινη Νοημοσύνη

Η τεχνητή νοημοσύνη εστιάζει κυρίως στην ανάπτυξη της εκμάθησης των μηχανών, ώστε να επεξεργάζονται τεράστιες ποσότητες δεδομένων απειλών. Η ικανότητα της τεχνητής νοημοσύνης να πραγματοποιεί αυτές τις δραστηριότητες χωρίς περιορισμούς και σε σχεδόν πραγματικό χρόνο, την κάνει ένα πολύτιμο σύμμαχο για την υλοποίηση ενός μοντέρνου, αποτελεσματικού προγράμματος κυβερνοασφάλειας. Αυτές οι δραστηριότητες μπορούν να πραγματοποιηθούν σε κάθε στάδιο της κυβερνοσφάλειας, επιτρέποντας στη τεχνητή νοημοσύνη να προσφέρει αξία πριν, κατά και μετά την εκδήλωση μίας κυβερνοεπίθεσης. Αλλά, η τεχνητή νοημοσύνη δεν αντιγράφει την ανθρώπινη ενόραση. Δεν αναιρεί την απαίτηση για ανθρώπινους εμπειρογνώμονες στην κυβερνοασφάλεια.

Όπως αναφέρεται και σε ένα άρθρο του περιοδικού Computer Weekly, τα εργαλεία εκμάθησης μηχανών είναι “πολύτιμα” για την ανάλυση κακόβουλου λογισμικού διότι είναι ικανά να μάθουν γρήγορα τη διαφορά μεταξύ καθαρών και μολυσμένων δεδομένων όταν τροφοδοτούνται με κατάλληλα δείγματα. Αυτές οι μηχανές είναι τόσο καλές όσο και τα δεδομένα που εισάγονται σε αυτές. Σε τελική ανάλυση, είναι ο άνθρωπος που χρειάζεται να ξέρει πως να ρωτήσει τις κατάλληλες ερωτήσεις ώστε να αξιοποιήσει στο μέγιστο τις δυνατότητες της τεχνητής νοημοσύνης.

Τα διάφορα εργαλεία τεχνητής νοημοσύνης μπορούν να καταγράψουν και να αναφέρουν βασικά δεδομένα συστήματος ακόμα και χωρίς την ανθρώπινη επίβλεψη, αλλά δεν μπορούν να σχεδιάσουν έξυπνα σχέδια ανταπόκρισης σε απειλές. Η τελευταία δήλωση είναι σύμφωνη και με τα ευρήματα πρόσφατης έρευνας του ινστιτούτου Ponemon ότι το 55% των συναγερμών ασφαλείας που ανιχνεύονται από συστήματα τεχνητής νοημοσύνης απαιτεί ενέργειες από τον άνθρωπο.

  • Προκατειλημμένοι Αλγόριθμοι

Η τεχνητή νοημοσύνη έχει ένα ακόμα πρόβλημα: οι προκαταλήψεις και οι αντιλήψεις των δημιουργών των αλγορίθμων αποτυπώνονται σε αυτούς. Όπως σημειώνει και η καθηγήτρια του Stanford, Fei-Fei Li, συστήματα τεχνητής νοημοσύνης είναι “εισαγωγή προκαταλήψεων και παραγωγή προκαταλήψεων”. Παρότι οι αλγόριθμοι που βρίσκονται πίσω από την τεχνητή νοημοσύνη φαίνεται να είναι ουδέτεροι, τα δεδομένα που παράγονται από αυτούς δεν είναι. Αυτό που έχει σημασία είναι οι άνθρωποι που δημιουργούν αυτούς τους αλγορίθμους και γιατί τους δημιουργούν.

Για το ίδιο θέμα, ο Justin Sherman, ερευνητής κυβερνοσφάλειας στο ινστιτούτο New America έγραψε ότι: “Αυτό που παραβλέπεται συχνά είναι η διασύνδεση μεταξύ αλγορίθμων και προκαταλήψεων. Αντίθετα με το τι πιστεύουν πολλοί από εμάς, η τεχνολογία δεν είναι αντικειμενική. Οι αλγόριθμοι της τεχνητής νοημοσύνης και η διαδικασία λήψης αποφάσεων καθορίζονται από τα άτομα που τα δημιουργούν. Ο κίνδυνος των προκατειλημμένων αλγορίθμων είναι ήδη μεγάλος. Ως κοινωνία διατρέχουμε μεγάλο κίνδυνο εισάγοντας τις προκαταλήψεις μας – ρατσισμός, ξενοφοβία, σεξισμός, κοινωνικός αποκλεισμός – σε μηχανές που θα παραχθούν σε μαζικούς αριθμούς και θα θεωρούμε ότι λειτουργούν με τεχνολογική αντικειμενικότητα”.

  • Τεχνητή Νοημοσύνη: Εχθρός ή Φίλος;

Τα εργαλεία για την ανάπτυξη συστημάτων τεχνητής νοημοσύνης είναι διαθέσιμα σε όλους. Αναμένεται, λοιπόν, οι κακόβουλοι δρώντες να τα εκμεταλλευτούν και να δημιουργήσουν τεχνολογίες και τεχνικές κυβερνοεπιθέσεων βασισμένες στην τεχνητή νοημοσύνη, οι οποίες θα είναι πιο εξελιγμένες από ότι οι τεχνολογίες που χρησιμοποιούνται για την υπεράσπιση των οργανισμών.Οι εγκληματίες είναι το ίδιο εξειδικευμένοι με τις κοινότητες που αναπτύσσουν τεχνολογίες για την υπεράσπισή τους. Χρησιμοποιούν τις ίδιες τεχνικές, όπως έξυπνες επιθέσεις phishing ή ανάλυση της συμπεριφοράς των πιθανών στόχων για να επιλέξουν τον κατάλληλο τρόπο επίθεσης ή ακόμα “έξυπνο” κακόβουλο λογισμικό το οποίο κρύβεται όταν καταλάβει ότι κάποιος το παρακολουθεί”.

Οι πιο κοινοί τρόποι με τους οποίους οι κυβερνοεγκληματίες μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη είναι η μείωση της αποτελεσματικότητας των αλγορίθμων με μόλυνση των δεδομένων από τα οποία τροφοδοτούνται, κυβερνοεγκλήματα με χρήση chatbots τα οποία αναλύουν και μιμούνται την ανθρώπινη συμπεριφορά, απάτες κλοπής ταυτοτήτων, phishing και επιθέσεις άρνησης παροχής υπηρεσιών (Distributed Denial of Services, DDoS).

  • Υλοποίηση Τεχνολογίας Τεχνητής Νοημοσύνης

Πέρα από το τι μπορεί να κάνει η τεχνητή νοημοσύνη για να αυξήσει το επίπεδο της εταιρικής ασφάλειας, οι εταιρείες πρέπει να σκεφτούν τον τρόπο υλοποίησης αυτής της τεχνολογίας. Πως μπορούν οι οργανισμοί να αναπτύξουν αποτελεσματικά λύσεις τεχνητής νοημοσύνης ώστε να μεγιστοποιήσουν τα αποτελέσματα;

Αρχικά, οι εταιρείες πρέπει να σταματήσουν να σκέφτονται ότι η τεχνητή νοημοσύνη είναι μαγεία. Η τεχνητή νοημοσύνη δεν είναι πανάκεια και δεν θα λύσει όλες τις προκλήσεις ασφαλείας. Η τεχνητή νοημοσύνη θα αυξήσει την απόδοση μόνο εάν χρησιμοποιηθεί εκεί που προσθέτει πραγματική αξία, εάν βοηθά στην επίτευξη του σκοπού της εταιρείας. Είναι αναγκαίο οι ομάδες που στελεχώνουν τα κέντρα επιχειρήσεων ασφαλείας να κατανοήσουν τις δυνατότητες και τους περιορισμούς της τεχνητής νοημοσύνης.

Επίσης πρέπει να βεβαιωθούν ότι μπορούν να ωφεληθούν από την τεχνητή νοημοσύνη μέσω της αυτοματοποίησης των διαδικασιών της ανάλυσης τυποποιημένων απειλών ώστε οι άνθρωποι να εστιάσουν στο μικρό ποσοστό κακόβουλων και πολύπλοκων δραστηριοτήτων. Εκμεταλλευόμενοι τις δυνατότητες της τεχνητής νοημοσύνης, τα κέντρα επιχειρήσεων μπορούν να διπλασιάσουν τον αριθμό των περιστατικών που μπορούν να διαχειριστούν χωρίς να διπλασιάσουν τον αριθμό των αναλυτών.

  • Συμπέρασμα

Η τεχνητή νοημοσύνη είναι πολύ σημαντική και μπορεί να αλλάξει τις ζωές μας με τρόπους που δεν μπορούμε ακόμα να φανταστούμε. Είναι όμως αφελές να ισχυριζόμαστε ότι αυτό έχει ήδη συμβεί. Η τεχνητή νοημοσύνη έχει τεράστιες δυνατότητες και όπου έχει χρησιμοποιηθεί έχει βελτιώσει σημαντικά την ταχύτητα και την ακρίβεια. Εάν συνδυαστεί με τις κατάλληλες διαδικασίες και δεξιότητες καθώς και την κατάλληλη σχεδίαση για ενσωμάτωση στον τρόπο λειτουργίας του οργανισμού, τότε είναι πιθανό να μεγιστοποιήσουμε τα οφέλη της τεχνητής νοημοσύνης και να θέσουμε τα θεμέλια για τη μελλοντική μηχανική ευφυΐα.

* Ο Αναστάσιος Αραμπατζής είναι μέλος της Homo Digitalis, απόστρατος Αξιωματικός της Πολεμικής Αεροπορίας με πάνω από 25 χρόνια εμπειρία σε θέματα ασφάλειας πληροφοριών. Κατά τη θητεία του στην Π.Α. ήταν πιστοποιημένος αξιολογητής του ΝΑΤΟ σε θέματα κυβερνοασφάλειας και έχει τιμηθεί για τις γνώσεις του και την απόδοσή του. Σήμερα αρθρογραφεί για τη στήλη State of Security της εταιρείας Tripwire και για το blog της Venafi. Άρθρα του έχουν δημοσιευθεί σε πληθώρα έγκριτων ιστοσελίδων.


Διαφάνεια αλγορίθμων και λογοδοσία παρόχων επιγραμμικών υπηρεσιών: Ασκώντας το δικαίωμα αιτιολόγησης

Τα πνευματικά δικαιώματα στην ανωτέρω φωτογραφία ανήκουν στην Any IP Ltd .

της Θεοδώρας Φιρίγγου.*

Σημείωση: Το πρωτότυπο άρθρο είναι δημοσιευμένο στα αγγλικά. Η παρούσα εκδοχή είναι μεταφρασμένη στα ελληνικά από την ομάδα εθελοντών της Homo Digitalis.

Χρησιμοποιώντας τις διάφορες ηλεκτρονικές υπηρεσίες, δεν μπορούμε παρά να μην παρατηρήσουμε ότι βομβαρδιζόμαστε διαρκώς από προτάσεις για διαδικτυακό περιεχόμενο της αρεσκείας μας, προϊόντα, αλλά και υπηρεσίες διαφόρων διαφημιστών.

Το YouTube και το Netflix, για παράδειγμα, προβάλλουν προτεινόμενα βίντεο, το Spotify παρέχει βοήθεια για την ανακάλυψη νέας μουσικής με το Spotify Radar, ενώ το Facebook και άλλες πλατφόρμες διαφημίζουν προϊόντα σύμφωνα με τις προηγούμενες αναζητήσεις των χρηστών τους. Κοινός παρανομαστής για τη χρήση τέτοιων αλγοριθμικών συστημάτων από τους διάφορους παρόχους ηλεκτρονικών υπηρεσιών είναι η επιθυμία τους να “ικανοποιούν” το χρήστη, ενισχύοντας την εξατομικευμένη του ψηφιακή εμπειρία.

Ωστόσο, είναι αυτή η απόπειρα να εξατομικευθεί η αλληλεπίδρασή σου με την εκάστοτε υπηρεσία πράγματι τόσο αθώα και πώς ένας αλγόριθμος αποφασίζει για το τι θα σου άρεσε να δεις ή να ακούσεις;

Ίσως να σου έχει συμβεί: γνωρίζεις κάποιον, και έπειτα λαμβάνεις ξαφνικά πρόταση από το Facebook να κάνεις αίτημα φιλίας σε αυτό το άτομο· ή συζητάς για ένα προϊόν στην εφαρμογή Messenger  και το ίδιο προϊόν ύστερα διαφημίζεται στην αρχική σου σελίδα στο Facebook. Δεν είναι τρομακτικό; Και τι θα συμβεί εάν τα πράγματα γίνουν πιο σοβαρά, πχ. στην περίπτωση που ένας χρήστης καταλήξει εγκλωβισμένος σε μια φιλτραρισμένη φούσκα περιορισμένης θεώρησης του κόσμου, ή εάν υπάρξει θύμα διακριτικής μεταχείρισης κατά την προσφορά μιας προτεινόμενης θέσης εργασίας;

Όντας προβληματισμένη από μία σειρά αναπάντητων ερωτημάτων, επεδίωξα να διεκπεραιώσω μια έρευνα αναφορικά με το δικαίωμα αιτιολόγησης. Πέντε μήνες αργότερα και έχοντας διεξάγει εμπειρική έρευνα ασκώντας το δικαίωμα μου κατά παρόχων ηλεκτρονικών υπηρεσιών, έλαβα βραβείο για τη διατριβή μου στην αλγοριθμική λογοδοσία και το δικαίωμα αιτιολόγησης. Με αυτό το άρθρο θα ήθελα να μοιραστώ κάποιες από τις διαπιστώσεις μου μαζί με το κοινό της Homo Digitalis.

Εντοπισμός του προβλήματος

Εξαιτίας της πολυσύνθετης και αδιαφανούς φύσης των αλγοριθμικών συστημάτων, η εκτεταμένη χρήση τους στην αυτοματοποιημένη λήψη αποφάσεων, συμπεριλαμβανομένης της κατάρτισης προφίλ, έχει προξενήσει ερωτήματα σχετικά με θέματα διαφάνειας και λογοδοσίας. Οι αλγόριθμοι νοούνται ως ένα “μαύρο κουτί” και έτσι επιβραδύνουν κάθε απόπειρα αξιολόγησης της διαδικασίας λήψης αποφάσεων και των αποτελεσμάτων αυτής.

Ταυτόχρονα, οι διατάξεις της Ευρωπαϊκής νομοθεσίας για την προστασία των προσωπικών δεδομένων, όπως εκείνες του Γενικού Κανονισμού για την Προστασία Δεδομένων (“GDPR”), προβλέπουν την αρχή της διαφανούς επεξεργασίας και την αρχή της λογοδοσίας οι οποίες δεσμεύουν τον υπεύθυνο επεξεργασίας και θέτουν τις αναγκαίες εγγυήσεις για την τήρηση των αρχών αυτών. Μία από τις εγγυήσεις αυτές, είναι το δικαίωμα αιτιολόγησης, η ύπαρξη και το πεδίο εφαρμογής του οποίου έχει, ωστόσο, κινήσει μία εκτενή ακαδημαϊκή συζήτηση.

Το εάν η όχι η εφαρμογή του δικαιώματος αιτιολόγησης στην πράξη, αντικατοπτρίζει τον θεμελιώδη σκοπό του, υπήρξε το βασικό θέμα έρευνας της διατριβής μου. Στο πλαίσιο αυτό χρησιμοποίησα την ακόλουθη μεθοδολογία: Πρώτον, προκειμένου να προσδιορίσω το σκοπό του δικαιώματος, επικεντρώθηκα στην χαρτογράφηση και ανάλυση του ευρωπαϊκού νομοθετικού πλαισίου και της σχετικής βιβλιογραφίας.

Στη συνέχεια, χρησιμοποίησα εμπειρική έρευνα προκειμένου να αντιληφθώ πως λειτουργεί στη πράξη το δικαίωμα αιτιολόγησης. Συγκεκριμένα, άσκησα το εν λόγω δικαίωμα κατά πέντε (5) παρόχων επιγραμμικών υπηρεσιών, ρωτώντας τους αναφορικά με τον τρόπο λειτουργίας των αλγοριθμικών συστημάτων που χρησιμοποιούνται τόσο για προτάσεις εξατομικευμένου διαδικτυακού περιεχομένου όσο και για στοχευμένη διαφήμιση.

Το νομοθετικό πλαίσιο

Παρά την έλλειψη ενός συγκεκριμένου άρθρου για το δικαίωμα στην αιτιολόγηση τόσο στην Οδηγία 95/46 όσο και στον GDPR, το δικαίωμα απορρέει από το Άρθρο 22 και το σημείο 71 των διατάξεων του GDPR σχετικά με τις εγγυήσεις κατά της αυτοματοποιημένης λήψης αποφάσεων, και τα Άρθρα 13(2)(στ), 14(2)(ζ), και 15(1)(η) του GDPR όπως και το Άρθρο 12 της Οδηγίας 95/46.

Ειδικότερα, σύμφωνα με το Άρθρο 22 του GDPR ‘οι υπεύθυνοι επεξεργασίας οφείλουν να λαμβάνουν τα κατάλληλα μέτρα για την προστασία των δικαιωμάτων των υποκειμένων των δεδομένων, των ελευθεριών τους και των εννόμων συμφερόντων τους, τουλάχιστον το δικαίωμά εξασφάλισης ανθρώπινης παρέμβασης έναντι των υπεύθυνων, για να εκφράσουν τη δική τους οπτική γωνία και να προσβάλλουν την απόφαση.

Εξάλλου, όπως αποτυπώνεται στο Άρθρο 13-15 του GDPR, το υποκείμενο των δεδομένων πρέπει να έχει πρόσβαση στα προσωπικά δεδομένα και τις πληροφορίες σχετικά με ‘την ύπαρξη αυτοματοποιημένης λήψης αποφάσεων, ουσιώδης πληροφορία για τη λογική που επικρατεί, καθώς και τη σημασία και τις προβλεπόμενες συνέπειες μιας τέτοιας διαδικασίας για το υποκείμενο των δεδομένων’. Τέλος, σύμφωνα με το Άρθρο 12 της Οδηγίας Προστασίας Δεδομένων οι υπεύθυνοι οφείλουν να παρέχουν στα υποκείμενα των δεδομένων ΄γνώσεις για τη λογική που επικρατεί’ σε οποιαδήποτε αυτοματοποιημένη λήψη αποφάσεων.

Πεδίο και δυνατότητα εφαρμογής του δικαιώματος στην αιτιολόγηση

Μέσω της ανάλυσης των σχετικών νομοθετικών διατάξεων, της ακαδημαϊκής συζήτησης γύρω από αυτές, και των αντιφάσεων της επιχειρηματολογίας κατά του δικαιώματος στην αιτιολόγηση, κατέστη δυνατό να προσδιοριστεί ο σκοπός και το πεδίο εφαρμογής του δικαιώματος αυτού.

Ειδικότερα, από την ανάλυση αποδείχθηκε ότι το δικαίωμα στην αιτιολόγηση συνεπάγεται την παροχή σημαντικών πληροφοριών σχετικά με τη λογική που ακολουθείται, και η σημασία των παρεχόμενων πληροφοριών θα πρέπει να ερμηνεύεται με ευέλικτο τρόπο. Η πληροφορία μπορεί ενδεχομένως να αναφέρεται είτε στη λειτουργία του συστήματος, είτε σε μία συγκεκριμένη απόφαση και μπορεί να αποτελέσει είτε εκ των προτέρων είτε εκ των υστέρων αιτιολόγηση σε σχέση με το χρόνο κατά τον οποίο λήφθηκε η απόφαση.

Επιπλέον, προκειμένου να αξιολογηθεί κατά πόσο μια αιτιολόγηση είναι ή όχι ουσιαστική, η πληροφορία που παρέχεται πρέπει να εξετάζεται υπό το φως της λειτουργικής της αξίας (ιδίως σχετικά με το εάν δίνει τη δυνατότητα στα υποκείμενα των δεδομένων να ασκήσουν τα δικαιώματά τους). Επιπροσθέτως, η επεξήγηση πρέπει να αποβλέπει στην εξατομικευμένη διαφάνεια, υπό την έννοια της προσωπικής κατανόησης της πληροφορίας  σε ουσιαστικό βάθος.

Η πληροφορία πρέπει επίσης να είναι κατανοητή και να παρέχεται σε σαφή και απλή γλώσσα, προκειμένου ένα σύνηθες υποκείμενο δεδομένων (π.χ. συνήθως ένας χρήστης χωρίς εξειδίκευση σε τεχνολογικής φύσεως θέματα) να μπορεί να την αντιληφθεί πλήρως. Όσον αφορά στα κριτήρια εφαρμογής του δικαιώματος, πρέπει να λαμβάνει χώρα μία αυτοματοποιημένη λήψη απόφασης (συμπεριλαμβανομένης και της κατάρτισης προφίλ), η οποία πάρθηκε χωρίς καμία ανθρώπινη παρέμβαση.

Επιπλέον, η αυτοματοποιημένη απόφαση πρέπει να έχει έννομα ή εξίσου σημαντικά αποτελέσματα, τα οποία ωστόσο πρέπει να ερμηνεύονται υπό ευρεία έννοια, συμπεριλαμβανομένων υποθέσεων κατά τις οποίες οι ελευθερίες και τα δικαιώματα του υποκειμένου των δεδομένων απειλούνται ή ακόμα της υπόθεσης στοχευμένης διαφήμισης που στηρίζεται στην ανάλυση προφίλ.

Τέλος, το δικαίωμα στην επεξήγηση πρέπει να είναι σεβαστό ανεξάρτητα από  εμπορικά απόρρητα και δικαιώματα διανοητικής ιδιοκτησίας. Αυτό σημαίνει ότι τα εμπορικά απόρρητα και τα δικαιώματα διανοητικής ιδιοκτησίας δεν μπορούν να δικαιολογήσουν την άρνηση παροχής πληροφοριών και ότι το δικαίωμα προστασίας δεδομένων υπερισχύει του αυτών.

Ζητήματα συμμόρφωσης που ανακύπτουν

Λαμβάνοντας υπόψη το πεδίο και τη δυνατότητα εφαρμογής του δικαιώματος αιτιολόγησης, η εμπειρική μου έρευνα εστίασε στην εξέταση του κατά πόσο το δικαίωμα αυτό πληροί τους σκοπούς του όταν ασκείται στην πράξη.

Συγκεκριμένα, κατέθεσα έναν αριθμό αιτημάτων αιτιολόγησης που αφορούσαν προτεινόμενο διαδικτυακό περιεχόμενο και στοχευμένη διαφήμιση σε πέντε φορείς ηλεκτρονικών υπηρεσιών, ήτοι  Facebook, YouTube, LinkedIn, Spotify και Netflix. Δεν εκπλήσσει το γεγονός ότι τα αποτελέσματα της ανάλυσης της εμπειρικής έρευνας φανέρωσαν έναν μεγάλο αριθμό ζητημάτων συμμόρφωσης και χάσμα μεταξύ θεωρίας και πράξης.

Tόσο η υποβολή των αιτημάτων όσο και η λήψη ουσιωδών πληροφοριών από τους παρόχους αποδείχθηκε ιδιαίτερα απαιτητική ως διαδικασία: απαιτούσε νομικές γνώσεις επί του θέματος, οργάνωση, επιμονή και υπομονή. Με άλλα λόγια, είναι αμφίβολο κατά πόσο ένα σύνηθες υποκείμενο δεδομένων -ένας κανονικός άνθρωπος δηλαδή, χωρίς εξειδικευμένες γνώσεις- θα μπορούσε να διαχειριστεί επαρκώς την άσκηση των δικαιωμάτων του/της αντιμετωπίζοντας τέτοια εμπόδια.

Παρόλο που οι πολιτικές απορρήτου ήταν εύκολα προσβάσιμες, συχνά ήταν προβληματικές από πλευράς πληρότητας και σαφήνειας. Ο προσδιορισμός των κατάλληλων μέσων επικοινωνίας με τους υπεύθυνους επεξεργασίας ήταν ακόμα πιο δύσκολος. Ωστόσο, τα πιο ανησυχητικά ευρήματα προέκυψαν από την επικοινωνία με τους υπευθύνους. Ποικίλες δυσλειτουργίες, όπως η αποφυγή διοικητικού φόρτου εργασίας, έλλειψη γνώσης, η άγνοια, και άρνηση ικανοποίησης των αιτημάτων καθιστούσαν τη διαδικασία πολύπλοκη.

Επιπλέον, οι εξηγήσεις που δόθηκαν δεν ήταν ικανοποιητικές. Δόθηκαν γενικές, αποσπασματικές και παραπλανητικές πληροφορίες, οι οποίες δεν μπορούσαν να εκπληρώσουν τον σκοπό του δικαιώματος στην αιτιολόγηση,  δεδομένου ότι δεν θα μπορούσαν να θεωρηθούν ως ουσιώδεις πληροφορίες.

Κάποιοι υπεύθυνοι επεξεργασίας αρνήθηκαν να δώσουν πλήρη εξήγηση και δικαιολόγησαν τη στάση τους είτε χρησιμοποιώντας λόγους εμπορικού απορρήτου ή υποστήριξαν ότι το Άρθρο 22 του GDPR και συνεπώς το Άρθρο 15 (1)(η), δεν εφαρμόζονται καθώς η αυτοματοποιημένη διαδικασία δεν παράγει έννομα ή εξίσου σημαντικά αποτελέσματα. Βέβαια, κανένα από αυτά τα επιχειρήματα δεν αποτελούν βάσιμες δικαιολογίες στις οποίες οι υπεύθυνοι θα μπορούσαν να βασιστούν ώστε να αποφύγουν να παρέχουν εξήγηση στο υποκείμενο των δεδομένων.

Συνοψίζοντας, το πόρισμα μου από την εμπειρική έρευνα σε έναν περιορισμένο αριθμό φορέων ηλεκτρονικών υπηρεσιών απέδειξε ότι το δικαίωμα στην αιτιολόγηση δεν πληροί το πεδίο εφαρμογής του σύμφωνα με τις διατάξεις της Ευρωπαϊκής νομοθεσίας περί προστασίας προσωπικών δεδομένων όταν ασκείται στη πράξη κατά των υπεύθυνων επεξεργασίας. Το πιο ανησυχητικό είναι το γεγονός ότι επιβεβαιώθηκε ότι τα δικαιώματα των υποκειμένων των δεδομένων καταστρατηγούνται σε μεγάλο βαθμό στο διαδικτυακό περιβάλλον.

Τελικά, μάλλον πρέπει να σκεφτόμαστε διπλά πριν πανηγυρίσουμε αυτή τη γενναιόδωρα ‘ενισχυμένα προσωποποιημένη εμπειρία’ καθώς οι νομικές εγγυήσεις που μας προστατεύουν από δυσμενή επεξεργασία των προσωπικών μας δεδομένων, ειδικά κατά τη διάρκεια της αυτοματοποιημένης λήψης αποφάσεων και της κατάρτισης προφίλ, δεν φαίνεται να εφαρμόζονται από υπεύθυνους επεξεργασίας με δεσπόζουσα θέση στην αγορά. Είναι επομένως αμφίβολο ότι η επεξεργασία των προσωπικών μας δεδομένων γίνεται σύμφωνα με τις αρχές της διαφάνειας και της λογοδοσίας.

*Η Θεοδώρα Φιρίγγου είναι δικηγόρος με εξειδίκευση στο Ποινικό Δίκαιο (LL.M, University of Hamburg) και στο Δίκαιο Διανοητικής Ιδιοκτησίας, Πληροφορίας, Επικοινωνιών και Τεχνολογίας (LL.M IP/ICT Law, KUL). Επικεντρώνει την έρευνα και το ενδιαφέρον της στο δίκαιο προστασίας της ιδιωτικότητας και των προσωπικών δεδομένων και κυρίως στα ζητήματα που ανακύπτουν από τη χρήση νέων τεχνολογιών όπως η μηχανική εκμάθηση και η τεχνητή νοημοσύνη.


Πως να δημιουργήσετε και να χρησιμοποιήσετε ισχυρά passwords

Written by Vyron Kavalinis *

On the web, it is widespread that a website needs the user’s registration to display its content or provide its service or even allow to comment on an article. The registration of the user, and consequently, the account creation requires the use of a username and a password.

The username will need to be unique and no longer linked to the page itself to create the required account while the username and password combination proves the user’s identity and the correct completion give them access to the content of your page. Even in our email, if we want to sign in we will need a username (usually our email address) and a password.

The password is usually a combination of letters, symbols and numbers. The use of strong passwords is necessary to protect the user’s security and identity. An easy password is more likely to be guessed by someone else and therefore has access to our personal data.

Initially, an easy password is short. The bigger the password is, the harder  is to be guessed by someone, and the resulting combinations are much more. From researches into millions leaked passwords, it has been revealed that combinations and selections preferred by users are very easy and are in the form “123456”, “password”, “football” and other simple words that we all use in our everyday life, and it is therefore easy for a  third person to guess and find.

It is also worth mentioning the fact that a large number of users use the same password on all the pages they need to link. So if someone knows our email or our username then with a single password they can have access to all the pages we have an account, whether this page is our bank’s account or a shop that we are buying or even our own profile on Facebook.

The best way to increase security levels is to create more complex passwords. It is recommended that the password be long, usually over 12 characters, and be sentences that the user can easily remember.

A good way is the use of Online tools, which add words at random and create sentences for their use as passwords or setting up codes in accordance with some options determined by the user. In the text that follows we shall refer to some examples of such tools that you can use.

It is worth mentioning that a password with at least 12 characters can take few centuries for an invader to break it. In the current computer capacities and with the simultaneous use of many of them, this time might not be actual but still is so much to break. For example, according to researches that have been carried out, a supercomputer (having an efficiency as 100 computers at the same time) can break a 10-character password in 3 years.

It is not recommended to use the same password in every web site and application as also to not write down the passwords on simple text files or notebooks.

Moreover, the use of symbols and numbers  can really help as the password becomes more complicated and therefore more difficult for a third person to find it.

The use of password generators is a very good solution since the most enable the user to set the parameters of the password and to create one, ready for use. Generators’ use is very helpful as if necessary for a web site to use capital symbols and small will create a more complex password. For example in that case a human would allocate a password “Letmein!123”, while a password generator would allocate “lwIXgHeaWiq”. The second choice is more difficult to find even if it doesn’t include special characters and symbols.

The use of password generators doesn’t require specific and specialised knowledge from the user, while there are many online tools that can be used for the creation of our passwords. We can show you online password generators that you can use:

Strong password generator (https://www.strongpasswordgenerator.com/). It gives the opportunity to define the length of the code and also some options of configuration, like the use of “voice words”. With the use of voice words actually the generator shows the letter and number combination in words so the passwords be more memorable.

Norton Password Generator (https://my.norton.com/extspa/idsafe?path=pwd-gen|). Norton, known in the field of safety has set up an online tool for the creation of passwords. This specific tool gives many options as the choice of the length of the code and the use of capitals, symbols and numbers.

XKpassword (https://xkpasswd.net/s/). XKpassword is probably one of the few, who offer so many options for the creation of the password. A feature differentiating it from the majority of password generators is the selection of provider according to the rules of which the password will be created. Some of these examples are according to the frameworks of AppleID, WiFi etc.

Finally, we would recommend the use of password managers for the storage and the management of your passwords. Password managers are substantially programs, which manage your passwords and store them coded in order to be understood by someone other. Through the use of this programs you just need to know one password and this is your access code to your password manager.

With the use of password managers you don’t have to remember your passwords by heart, as they have addons for every known browser, that when you enter to a web site they immediately recognise through the relevant form and give you the possibility of automatic completing.

Some password managers, also authorise the automatic completion with random passwords when registering and their automatic storage.

Since there is the possibility for somebody to intercept the password from the password manager and therefore to have access to the others, many from password managers provide also extra safeguards in the event of unusual mobility.

One of the most well-known password managers is the LastPass and the 1Password. Both provide the possibility of free use, while upon payment subscription they unlock more options and functions. Both have admins for Chrome, Mozilla, Opera and operate with Windows, Linux and MacOS. It is also noteworthy that if you take notice that your main code has been intercepted you can request for your account to be deleted, while 1Password recognises the device with which you are connecting and if you wish to connect from a new one you have to complete the master password you have been given after your registration to the application automatically.

We shall mention that there have been notified various safety lapses in password managers. Despite all these, each and every company immediately takes all the necessary steps to fill these gaps and increase the safety of their services. Even after of those notifications their use is considered to be more safe than the storage of passwords within a simple file, which will not contain any type of encryption.

Homo Digitalis has no interest in suggesting the above tools. We recommend you use these tools as safe alternatives given the wide variety of such tools. It shall be noted that many of these tools might have as objective to intercept your data. Therefore, we recommend you be very careful when you are using such tools.

* Viron is a graduate from the Department of Informatics Engineering, TEI Crete. He works for a company, which operates in the field of Web hosting and domain names. He deals with the development of web sites and safety. In the past he has undertaken SSL certificates.


Ποιος "παίζει" με τα προσωπικά σου δεδομένα;

Της Αναστασίας Καραγιάννη

Τα βιντεοπαιχνίδια είναι πηγή διασκέδασης τόσο για τα παιδιά, όσο και για τους ενήλικες. Οι περισσότερες μελέτες που αφορούν τα βιντεοπαιχνίδια επικεντρώνονται στο περιεχόμενό τους,  στο αν υποκινούν τη βία ή αν είναι ουδέτερα, είτε στις επιδράσεις που έχουν στην ψυχολογία του παίκτη. Αναρωτήθηκε, όμως, κανείς, ποιος ‘κρύβεται’ πίσω από αυτά και τι κερδίζει από τις υπηρεσίες που προσφέρει στους παίκτες, οι οποίες συνήθως είναι δωρεάν;

Πριν από το 1986 για το ‘The Legend of Zelda’ στο NES, όπως και για τα υπόλοιπα παιχνίδια σε κονσόλα, ήταν δύσκολο, έως αδύνατο, να αποθηκεύουν τα δεδομένα των παικτών τους.

Σήμερα, οι προγραμματιστές βιντεοπαιχνιδιών χρησιμοποιούν προηγμένες μεθόδους πληροφορικής, όπως το Hadoop και το MapR για τη συλλογή, επεξεργασία και ανάλυση μαζικών δεδομένων (Big Data)[2], προκειμένου να κατανοήσουν καλύτερα τη συμπεριφορά των παικτών.

Ποια δεδομένα, όμως, μπορούν να συλλέξουν οι εταιρίες μέσα από τα βιντεοπαιχνίδια τους; Τα φυσικά χαρακτηριστικά ενός παίκτη, όπως τα χαρακτηριστικά του προσώπου του, η κίνηση του σώματος και τα φωνητικά δεδομένα, η τοποθεσία και οι πληροφορίες που συλλέγονται από τα κοινωνικά δίκτυα με τα οποία συνδέεται ο παίκτης είναι κάποια από αυτά.

Κάποια παιχνίδια, μάλιστα, περιέχουν αισθητήρες κίνησης, τους λεγόμενους data-gathering sensors, όπως η δημοφιλή κονσόλα Wii της Nintendo και αργότερα το Xbox Kinect.

Έτσι, οι εταιρίες συλλέγουν τα βιομετρικά δεδομένα του παίκτη, όπως το βάρος και τα χαρακτηριστικά του προσώπου του, που χρειάζονται για την παροχή των υπηρεσιών ή, αλλιώς, για την εκκίνηση του παιχνιδιού.

Για παράδειγμα, το Wii συνέλεξε δεδομένα που αφορούσαν την φυσική κατάσταση του παίκτη για το δημοφιλές παιχνίδι  άσκησης WiiFit[3].

Επιπλέον, εκτός από τα παραπάνω, παρακολουθείται και η κοινωνική συμπεριφορά του παίκτη από τις αποφάσεις που παίρνει κατά τη διάρκεια του παιχνιδιού, όπως η ιδιοσυγκρασία του, οι ηγετικές του ικανότητες, οι φόβοι και οι πολιτικές του πεποιθήσεις.

Δείτε για παράδειγμα τις ερωτήσεις στο παιχνίδι Catherine. “Επιλέγετε προσεκτικά ποια εσώρουχα θα φορέσετε κάθε μέρα;” “Έχετε εξαπατήσει ποτέ τον/την σύντροφό σας;” Το Catherine είναι ένα βιντεοπαιχνίδι που αναπτύχθηκε από τον Atlus και αφορά τις ερωτικές σχέσεις και τα ηθικά διλήμματα που προκύπτουν από την δέσμευση των συντρόφων.

Ο Vincent, ο πρωταγωνιστής του παιχνιδιού, πρέπει να αποφασίσει αν θα επιλέξει την κοπέλα του Katherine ή την γοητευτική κοπέλα Catherine. Το παιχνίδι κυκλοφόρησε από το Atlus για το PlayStation 3 και το Xbox 360 στην Ιαπωνία και τη Βόρεια Αμερική το 2011, ενώ για Microsoft Windows θα κυκλοφορήσει από τη Sega μέσα στο 2019.

Ακόμη, οι παίκτες χρειάζεται σε κάποια βιντεοπαιχνίδια να αγοράζουν και τα προϊόντα του, όπως στο Fortnite. Κατ’ αυτόν τον τρόπο, οι εταιρίες γνωρίζουν και αποθηκεύουν τα στοιχεία των πιστωτικών καρτών ή των τραπεζικών λογαριασμών, με τα οποία πραγματοποιείται η πληρωμή. Όλα αυτά τα δεδομένα χρησιμοποιούνται από τις εταιρίες προκειμένου να καταγράφουν ποιος χρησιμοποιεί τα προϊόντα τους και πως μπορούν να του τα προωθήσουν.

Ήδη από το 2005 με την κυκλοφορία των Xbox 360 είχαν συνδεθεί τα βιντεοπαιχνίδια με την παρακολούθηση των παικτών. Σύμφωνα με την Stéphanie Perotti η Ubisoft χρησιμοποιεί τα δεδομένα των πελατών της κυρίως για λόγους μάρκετινγκ αλλά και για δημογραφικές μελέτες που έχουν σχεδιαστεί για τη συνεχή βελτίωση των προϊόντων και των υπηρεσιών που προσφέρουν, ούτως ώστε να διασφαλιστεί ότι ανταποκρίνονται στις προσδοκίες των πελατών.

Εκτός, όμως, από τους λόγους μάρκετινγκ, οι εταιρείες μπορούν στην πραγματικότητα να βελτιώσουν τα  παιχνίδια που παράγουν με βάση τα δεδομένα των χρηστών τους. Ο προγραμματιστής της επιτυχημένης σειράς Candy Crush, διαπίστωσε ότι πολλοί χρήστες της εγκατέλειψαν το παιχνίδι στο επίπεδο 65. Έτσι, έκανε το Επίπεδο 65 ευκολότερο, ώστε οι χρήστες να συνεχίζουν να είναι σε θέση να παίζουν.

Τι μπορείτε να κάνετε, λοιπόν, για να αποτρέψετε τη συλλογή των προσωπικών σας δεδομένων; Καλό θα ήταν να είστε ιδιαίτερα προσεκτικοί όταν κατεβάζετε ένα παιχνίδι ή το εγκαθιστάτε.

Συγκεκριμένα, να ελέγχετε την πολιτική απορρήτου της εφαρμογής, τους όρους χρήσης και εγκατάστασης του παιχνιδιού, καθώς και πού δίνετε τη συγκατάθεσή σας για την συλλογή και επεξεργασία των προσωπικών σας δεδομένων.

Και αυτό διότι τις περισσότερες φορές οι εταιρίες ζητούν πρόσβαση στα δεδομένα σας. Θα θέλατε προκειμένου να παίξετε ένα βιντεοπαιχνίδι, η εταιρεία που το εμπορεύεται να βλέπει τι ακριβώς κάνετε όταν βρίσκεστε μπροστά στον υπολογιστή σας ή ποιος άλλος βρίσκεται στον ίδιο χώρο μαζί σας;

Τέλος, παρατηρούμε ότι τα βιντεοπαιχνίδια έχουν ενταχθεί πράγματι στην καθημερινή ζωή και την κουλτούρα των νέων. Αξίζει να επισημανθεί ότι σύμφωνα με μία έρευνα του nature human behavior το 94% των γονέων γνωρίζει ότι τα παιδιά τους παίζουν βιντεοπαιχνίδια, γι’ αυτό το λόγο και φροντίζουν να τα επιτηρούν. Ωστόσο, οι αντιδράσεις γύρω από τα βιντεοπαιχνίδια ποικίλουν.

Μιλώντας για τις αντιδράσεις και τις κριτικές που έχουν υποστηριχτεί γύρω από την κουλτούρα των βιντεοπαιχνιδιών αξίζει να γίνει μία σύντομη αναφορά στο #Gamergate. Πιο αναλυτικά, το #GamerGate είναι ένα διαδικτυακό κίνημα που ξεκίνησε κυρίως στα μέσα κοινωνικής δικτύωσης, στο Twitter και στο Facebook, τον Αύγουστο του 2014 εξαιτίας μίας δημοσίευσης του Eron Gjoni σε ένα blog.

Συγκεκριμένα, ο Eron αποκάλυψε την κρυφή σχέση της πρώην συντρόφου του, Zoe Quinn, με τον συντάκτη του Kotaku προκειμένου να γράψει μία θετική κριτική για το παιχνίδι της Depression Quest.

Έπειτα από τις αρνητικές κριτικές που δημοσίευσε ο Eron, η  Zoe Quinn δέχτηκε απειλές για την ζωή της μέσω email, ενώ έπεσε και θύμα hacking στους λογαριασμούς της σε Tumblr, Dropbox και Skype. Απειλές βιασμού και κατά της ζωής δέχθηκε και η Brianna Wu, η οποία μίλησε αρνητικά για τους υποστηρικτές του #Gamergate.

Αν πρέπει να προτείνουμε, λοιπόν, μία λύση στο πρόβλημα της παραβίασης της ιδιωτικότητας και των προσωπικών δεδομένων, σίγουρα αυτή δεν είναι η απαγόρευση, αλλά η προστασία και η ενημέρωση.

Για αυτόν τον λόγο, την επόμενη φορά που θα παίξετε, ελέγξτε νωρίτερα…ποιος παίζει με ποιον!

[1] https://saferinternet4kids.gr/press-newsletter/press/fortnite-2/.

[2] Marios M. Giakalaras,Christos P. Tsongidis, Posthuman:Biometrics, Big Data and Videogames,Department of Cultural Technology and Communication, University Of Aegean.

[3] Alexander Dean Cybulski, Enclosures at Play: Surveillance in the Code and Culture of Videogames.

[4] http://www.theesa.com/wp-content/uploads/2017/09/EF2017_Design_FinalDigital.pdf .

[5] Stephen R. Mallory, Cultivating GamerGate.


Facial Recognition: Ανυποψίαστοι πολίτες στο στόχαστρο των Βρετανικών αρχών επιβολής του νόμου

Γράφει ο Λευτέρης Χελιουδάκης

Πώς θα σου φαινόταν εάν ήσουν με τους φίλους σου ή την οικογένεια σου σε μία συναυλία και χωρίς να το γνωρίζεις κάμερες που χρησιμοποιούν σύστημα αναγνώρισης προσώπων κατέγραφαν την κάθε σου κίνηση; Το σενάριο αυτό δυστυχώς αποτελεί πραγματικότητα στο Ηνωμένο Βασίλειο, και δεν περιορίζεται μόνο σε συναυλίες , αλλά και σε άλλες εκδηλώσεις όπως αγώνες ποδοσφαίρου, ή ακόμα και σε πολυσύχναστους δρόμους, εμπορικά κέντρα και ειρηνικές διαμαρτυρίες!

Προτού μιλήσουμε με λεπτομέρειες για το τι ακριβώς συμβαίνει στο Ηνωμένο Βασίλειο και για το πώς αναγνωρισμένες οργανώσεις της κοινωνίας των πολιτών όπως η Privacy International  και η Liberty μάχονται κατά αυτού, ας δούμε τι είναι η τεχνολογία αναγνώρισης προσώπων και με ποιες τεχνικές επιτυγχάνεται.

Facial Recognition Software/ Λογισμικό Αναγνώρισης Προσώπου

Το λογισμικό Αναγνώρισης Προσώπου χρησιμοποιείται για την αναγνώριση ή την ταυτοποίηση ενός υποκειμένου με βάση την ψηφιακή του απεικόνιση σε μία φωτογραφία ή ένα βίντεο.

Θα μπορούσαμε να πούμε ότι η αναγνώριση/ταυτοποίηση ενός ανθρώπου με βάση την εν λόγω τεχνολογία χωρίζεται σε δύο στάδια: Α) την ανίχνευση και καταγραφή μέσω κάμερας συγκεκριμένων χαρακτηριστικών του προσώπου ενός ατόμου, όπως  την απόσταση μεταξύ του μετώπου και του σαγονιού, την απόσταση μεταξύ των ματιών, το σχήμα των ζυγωματικών, τις έσω και έξω γωνίες των ματιών και το βάθος αυτών, ή το πλάτος της μύτης, τα οποία δημιουργούν έναν μοναδικό αποτύπωμα του κάθε προσώπου και Β) την εξαγωγή αυτών των χαρακτηριστικών και τη σύγκρισή τους με ψηφιακές απεικονίσεις υποκειμένων σε υπάρχουσες βάσεις δεδομένων.

Διάφορες τεχνικές έχουν αναπτυχθεί στο πλαίσιο αυτής της τεχνολογίας. Παραδείγματα αυτών αποτελούν:

-η τρισδιάστατη μέθοδος αναγνώρισης προσώπου η οποία μπορεί να αντιμετωπίζει προβλήματα που δυσχεραίνουν την αναγνώριση/ταυτοποίηση προσώπων, όπως οι αλλαγές στο φωτισμό και στην έκφραση των προσώπων, ή η θέση των προσώπων σε προφίλ,

-η χρήση κάμερας θερμικής απεικόνισης, η οποία αναγνωρίζει το σχήμα του κεφαλιού ενός υποκειμένου, δεν επηρεάζεται από διάφορα αξεσουάρ όπως γυαλιά και μακιγιάζ και λειτουργεί αποδοτικά με μειωμένο ή καθόλου φωτισμό,

-η ανάλυση της υφής του δέρματος του προσώπου, η οποία εστιάζει και φωτογραφίζει ένα μικρό τμήμα της επιφάνειας του προσώπου (skinprint), αναγνωρίζοντας την υφή, τις γραμμές, και τους πόρους στο δέρμα του ατόμου, και

-η χρήση τεχνολογίας Deep Learning, η οποία αποτελεί την πλέον δημοφιλή τακτική τα τελευταία 4 χρόνια στον συγκεκριμένο τομέα, αυξάνοντας την ακρίβεια με την οποία το λογισμικό μπορεί να αναγνωρίζει/ταυτοποιεί  διαφορετικά πρόσωπα.

Τί συμβαίνει στο Ηνωμένο Βασίλειο;

Η χρήση τεχνολογίας αναγνώρισης προσώπου χρησιμοποιείται ήδη ως ένα πιλοτικό πρόγραμμα από τις αστυνομικές αρχές του Λονδίνου (London Metropolitan Police) και της Νότιας Ουαλίας (South Wales Police). Δεν υπάρχει καμία νομοθεσία που να επιτρέπει τη χρήση της εν λόγω τεχνολογίας από τις αστυνομικές αρχές, ενώ δεν έχουν εκδοθεί πολιτικές ορθής χρήσης αυτής της τεχνολογίας ή κατευθυντήριες οδηγίες από την κυβέρνηση. Επομένως, δεν υπάρχουν δικλείδες ασφαλείας για τα δικαιώματα και τις ελευθερίες των πολιτών.

Τεχνολογία αναγνώρισης προσώπων χρησιμοποιείται χωρίς προηγούμενη ενημέρωση σε φεστιβάλ μουσικής, σε αγώνες ποδοσφαίρου, σε πολυσύχναστους δρόμους και σε διαδηλώσεις.

Για παράδειγμα, τον Μάρτιο του 2018 η αστυνομία της Νότιας Ουαλίας χρησιμοποίησε τη τεχνολογία αυτή σε μία ειρηνική πορεία. Ο κ. Ed Bridges, κάτοικος του Cardiff, συμμετείχε σε αυτή την πορεία και μαζί με την Liberty ξεκίνησαν νομικές δράσεις για τον τερματισμό της χρήσης της εν λόγω τεχνολογίας από τις αστυνομικές αρχές. Λίγους μήνες αργότερα, και συγκεκριμένα τον Οκτώβριο του 2018 αποκαλύφθηκε ότι το Trafford Shopping Center, το τρίτο μεγαλύτερο εμπορικό κέντρο στο Ηνωμένο Βασίλειο, χρησιμοποιούσε κρυφά για έξι μήνες τεχνολογία αναγνώρισης προσώπων σε συνεργασία με τις αστυνομικές αρχές του Μάντσεστερ (Greater Manchester Police) και σκάναρε τα πρόσωπα περίπου 15 εκατομμυρίων ανθρώπων!

Όπως περιγράψαμε νωρίτερα, τα πρόσωπα των υποκειμένων πρέπει προκειμένου να ταυτοποιηθούν /αναγνωρισθούν να συγκριθούν με απεικονίσεις υποκειμένων σε υπάρχουσες βάσεις δεδομένων. Από πού λοιπόν προέρχονται  οι απεικονίσεις που βρίσκονται σε αυτές τις βάσεις δεδομένων;

Διάφορες είναι οι πηγές: Βάσεις Δεδομένων από πολίτες που κάποτε βρέθηκαν υπό κράτηση, αλλά που δεν κρίθηκαν απαραίτητα ένοχοι για κάποια παραβίαση του νόμου, από βάσεις δεδομένων των αστυνομικών αρχών που περιλαμβάνουν ανθρώπους με προβλήματα ψυχικής υγείας, ακόμη και από φωτογραφίες που βρίσκονται σε κοινωνικά δίκτυα!

Η εκστρατεία της Privacy International και της Liberty: Neighbourhood Watched

Δυστυχώς, η χρήση της τεχνολογίας αναγνώρισης προσώπου δεν είναι το μόνο «όπλο» στη διάθεση των αστυνομικών αρχών του Ηνωμένου Βασιλείου. Πλήθος οχληρών και παρεμβατικών τεχνολογιών χρησιμοποιούνται, όπως η παρακολούθηση την κοινωνικών μέσων δικτύωσης ή το απομακρυσμένο hacking σε συσκευές κινητής τηλεφωνίας!

Προκειμένου να ενισχύσουν την ευαισθητοποίηση του κοινού για το τι ακριβώς είναι ικανός να κάνει ο αστυνομικός της γειτονιάς τους, και αποσκοπώντας στην άσκηση πίεσης για μια δημόσια διαβούλευση με όλους τους εμπλεκόμενους κρατικούς και ιδιωτικούς φορείς, η Liberty και η Privacy International ξεκίνησαν την εκστρατεία «Neighbourhood Watched».

Η συγκεκριμένη εκστρατεία περιλαμβάνει λεπτομερές επεξηγηματικό υλικό σε απλή γλώσσα που αποτυπώνει με απλό και άμεσο τρόπο τις επιπτώσεις από την χρήση της εκάστοτε τεχνολογίας στα Ανθρώπινα Δικαιώματα.

Χαρακτηριστικά, η χρήση της τεχνολογίας αναγνώρισης προσώπων, δεν έρχεται σε σύγκρουση μόνο με την προστασία της ιδιωτικότητας. Τόσο η ελευθερία της έκφρασης όσο και η προστασία του συνέρχεσθαι και συνεταιρίζεσθαι περιορίζονται αναπόφευκτα, εφόσον όταν γνωρίζεις ότι η παραμικρή σου κίνηση σε δημόσιους χώρους βιντεοσκοπείται και το πρόσωπό σου μπορεί να ταυτοποιηθεί αυτόματα, αλλάζεις την συμπεριφορά σου, και μειώνεις την ενεργή συμμετοχή σου σε διαδηλώσεις και πορείες ή ακόμα και σε εκδηλώσεις ψυχαγωγικού χαρακτήρα.

Βέβαια, σημαντικά προβλήματα δημιουργούνται και αναφορικά με την απαγόρευση των διακρίσεων. Συγκεκριμένα, οι αστυνομικές αρχές συχνά στοχοποιούν συγκεκριμένες κοινότητες ή εκδηλώσεις με αποτέλεσμα να συγκεντρώνεται μεγάλη προσοχή σε αυτές και να ξεφεύγουν από τα «ρανταρ» των αστυνομικών αρχών άλλες παράνομες συμπεριφορές. Επομένως, οι συγκεκριμένες κοινότητες και εκδηλώσεις στιγματοποιούνται, και οδηγούνται αναπόφευκτα στο περιθώριο.

Περισσότερες πληροφορίες για την εκστρατεία και τις διάφορες παρεμβατικές τεχνολογίες που χρησιμοποιούνται από τις αστυνομικές αρχές στο Ηνωμένο Βασίλειο μπορείται να βρείτε εδώ


Στην τελική ευθεία για την ψηφοφορία της προτεινόμενης Ευρωπαϊκής Οδηγίας για την Πνευματική Ιδιοκτησία

Η ερχόμενη εβδομάδα είναι πολύ σημαντική για το μέλλον του διαδικτύου και την προάσπιση της ελευθερίας της έκφρασης & πληροφόρησης και την προστασία της ιδιωτικότητας κατά τη χρήση του.

Την Τρίτη 26 Μαρτίου το Ευρωπαϊκό Κοινοβούλιο θα κληθεί να ψηφίσει την προτεινόμενη ευρωπαϊκή οδηγία για την Πνευματική Ιδιοκτησία. Στο παρελθόν έχουμε φιλοξενήσει στην ιστοσελίδα μας λεπτομερή αρθρογραφία για τη συγκεκριμένη νομοθετική μεταρρύθμισή.

Η συγκεκριμένη νομοθεσία έχει διατάξεις οι οποίες έχουν θετικό χαρακτήρα. Ωστόσο άλλες διατάξεις της δημιουργούν σημαντικά προβλήματα. Μία από αυτές, και η πλέον σημαντική, είναι το Άρθρο 13, το οποίο κατά τη ψήφιση και εξαιτίας της αλλαγής στην αρίθμηση του κειμένου θα αποτελεί πλέον το Άρθρο 17.

Το Άρθρο 13 υποτίθεται ότι δημιουργήθηκε για να βελτιώσει την υπάρχουσα κατάσταση και να βοηθήσει του δημιουργούς να απολαύσουν τα δικαιώματα πνευματικής ιδιοκτησίας στα έργα τους. Ωστόσο, αποτυγχάνει να το επιτύχει και κυρίως προστατεύει τα συμφέροντα των μεγάλων δισκογραφικών, εκδοτικών, και κινηματογραφικών εταιριών και τα συμφέροντα των εταιριών που αναπτύσσουν λογισμικό ελέγχου περιεχομένου (content-control / filtering software).

Επίσης, το Άρθρο 13 δεν λύνει σε καμία περίπτωση τις σοβαρές παθογένειες του ήδη υπάρχοντος καθεστώτος. Συγκεκριμένα, δεν διαθέτει καμία πρόβλεψη για την αντιμετώπιση ψευδών ισχυρισμών (false claims) αναφορικά με δικαιώματα πνευματικής ιδιοκτησίας, ενώ οι γενικές, κακογραμμένες και ασαφείς διατάξεις του, θα οδηγήσουν σε σωρεία προδικαστικών ερωτημάτων προς το Δικαστήριο της Ευρωπαϊκής Ένωσης.

Αντιθέτως, δημιουργεί νέα προβλήματα και αδυνατεί να εξασφαλίσει την απαραίτητη ισορροπία μεταξύ αφενός του δικαιώματος στην προστασία της πνευματικής ιδιοκτησίας και αφετέρου των δικαιωμάτων στην ελευθερία της έκφρασης και της πληροφόρησης και του σεβασμού στην ιδιωτική ζωή.  Κάθε είδος υλικού, το οποίο ανεβάζουν οι χρήστες του διαδικτύου σε πλατφόρμες ανταλλαγής περιεχομένου, όπως φωτογραφίες, κείμενα, προσωπικά μηνύματα, βίντεο κ.α. θα υπόκεινται σε έλεγχο και δεν θα δημοσιεύεται στην περίπτωση που το λογισμικό φιλτραρίσματος κρίνει ότι υπάρχει κάποια παραβίαση.

Πλήθος ειδικών κρούουν τον κώδωνα του κινδύνου αναφορικά με τις επιπτώσεις που θα έχουν το Άρθρο 13 και τα φίλτρα των αναφορτώσεων  που αυτό επιτρέπει για την Ελευθερία της Έκφρασης και της Πληροφόρησης στο Διαδίκτυο και την ποικιλομορφία αυτού:

-Ο Ειδικός Εισηγητής του Οργανισμού των Ηνωμένων Εθνών για την Ελευθερία της Έκφρασης και της Πληροφόρησης, David Kaye, έχει επανειλημμένως εκφράσει την αντίθεσή του στο Άρθρο 13!

-O Ομοσπονδιακός Επίτροπος Προστασίας Προσωπικών Δεδομένων της Γερμανίας, Ulrich Kelber, έχει ρητά υπογραμμίσει πως το Άρθρο 13 οδηγεί στην γιγάντωση της δύναμης των γνωστών κολοσσών του Διαδικτύου, και δημιουργεί προκλήσεις για την προστασία της ιδιωτικότητας στο Διαδίκτυο!

­– Η Υπουργός Δικαιοσύνης και Προστασίας του Πολίτη της Γερμανίας , Katarina Barley, έχει καλέσει τους Γερμανούς Ευρωβουλευτές να καταψηφίσουν το Άρθρο 13!

-169 από τους πλέον εξειδικευμένους και αναγνωρισμένους ακαδημαϊκούς του χώρου της Πνευματικής Ιδιοκτησίας έχουν τονίσει ότι οι διατάξεις του Άρθρου 13 είναι παραπλανητικές!

Επίσης, ο αριθμός των ευρωβουλευτών που δεσμεύεται να καταψηφίσει το Άρθρο 13 στην ψηφοφορία της  Τρίτης αυξάνεται συνεχώς!

Ευρωβουλευτές που είναι ανεξάρτητοι ή που εκπροσωπούν ευρωπαϊκά κόμματα από κάθε πολιτικό χώρο, όπως οι Πράσινοι/Ευρωπαϊκή Ελεύθερη Συμμαχία (GREENS/EFA), η Ευρωπαϊκή Ενωτική Αριστερά / Βόρεια Πράσινη Αριστερά (GUE/NGL),  το Ευρωπαϊκό Λαϊκό Κόμμα (EPP),  η Προοδευτική Συμμαχία Σοσιαλιστών και Δημοκρατών (S&D), και η Συμμαχία Φιλελεύθερων και Δημοκρατών (ALDE) έχουν εκφράσει ανοιχτά την αντίθεσή τους στο Άρθρο 13!

Τέλος, πλήθος κόσμου εκφράζει τη δυσαρέσκεια του για το Άρθρο 13 και τις πολύ σοβαρές επιπτώσεις του. Στις διαδηλώσεις που έλαβαν χώρα σε ευρωπαϊκές πόλεις το Σάββατο 23/03 έδωσαν το παρόν περισσότεροι από 100.000 άνθρωποι.

Κάλεσε τους εκπροσώπους σου τις λίγες ημέρες που απομένουν!

Ζήτησέ τους να καταψηφίσουν το Άρθρο 13!


Το ελεύθερο και ανοιχτό διαδίκτυο σε χρειάζεται

Δύο εβδομάδες έμειναν μέχρι την τελική ψήφο στο Ευρωπαϊκό Κοινοβούλιο (πιθανότατα 26.03.2019), η οποία θα κρίνει το μέλλον του διαδικτύου. Πάνω από εκατό Ευρωβουλευτές (εκ των οποίων οι μόνοι Έλληνες είναι η κ. Σοφία Σακοράφα και ο κ. Νικόλαος Χουντής) έχουν ήδη δεσμευτεί ότι θα ψηφίσουν κατά του Άρθρου 13 και των φίλτρων αναφορτώσεων, ενώ πολίτες σε περισσότερες από 23 πόλεις Κρατών Μελών της Ευρωπαϊκής Ένωσης υψώνουν τις φωνές τους σε συλλαλητήρια κατά του Άρθρου 13.

Στην εκστρατεία Pledge2019 (Δέσμευση 2019), έχει συμμετάσχει μέχρι σήμερα πλήθος Ευρωπαίων πολιτών. Από τα τέλη Φλεβάρη, όταν και ξεκίνησε η εκστρατεία, έχουν πραγματοποιηθεί πάνω από 1200 κλήσεις και 72 ώρες συνομιλίας. Οι συγκεκριμένοι αριθμοί είναι πρωτοφανείς για ένα τόσο σύντομο χρονικό διάστημα και αποδεικνύουν περίτρανα το ενεργό ενδιαφέρον του κόσμου και την θέληση του να συμμετάσχει στην πολιτική συζήτησή, όταν του δίδεται βήμα. Επίσης, οι πολίτες με αυτόν τον τρόπο εκφράζουν την δυσαρέσκεια τους όσον αφορά τις ανυπόστατες κατηγορίες ότι το πλήθος των emails και των tweets που στάλθηκαν στους Ευρωβουλευτές το προηγούμενο διάστημα αποτελούσε ενέργειες ψεύτικων αυτοματοποιημένων λογαριασμών!!

Πλήθος ειδικών κρούουν τον κώδωνα του κινδύνου αναφορικά με τις επιπτώσεις που θα έχουν το Άρθρο 13 και τα φίλτρα των αναφορτώσεων  που αυτό επιτρέπει για την Ελευθερία της Έκφρασης και της Πληροφόρησης στο Διαδίκτυο και την ποικιλομορφία αυτού:

-Ο Ειδικός Εισηγητής του Οργανισμού των Ηνωμένων Εθνών για την Ελευθερία της Έκφρασης και της Πληροφόρησης, David Kaye, έχει επανειλημμένως εκφράσει την αντίθεσή του στο Άρθρο 13!

-O Ομοσπονδιακός Επίτροπος Προστασίας Προσωπικών Δεδομένων της Γερμανίας, Ulrich Kelber, έχει ρητά υπογραμμίσει πως το Άρθρο 13 οδηγεί στην γιγάντωση της δύναμης των γνωστών κολoσσών του Διαδικτύου, και δημιουργεί προκλήσεις για την προστασία της ιδιωτικότητας στο Διαδίκτυο!

-169 από τους πλέον εξειδικευμένους και αναγνωρισμένους ακαδημαϊκούς του χώρου της Πνευματικής Ιδιοκτησίας έχουν τονίσει ότι οι διατάξεις του Άρθρου 13 είναι παραπλανητικές!

-Η Διεθνής Ομοσπονδία Δημοσιογράφων (International Federation of Journalists – IFJ) έχει καλέσει τους Ευρωπαίους νομοθέτες να βελτιώσουν τις διατάξεις και να προσδώσουν την αναγκαία ισορροπία μεταξύ της προστασίας της Πνευματικής Ιδιοκτησίας και της Προστασίας της Ελευθερίας της Έκφρασης και της Πληροφόρησης!

– Ο Sir Tim (Tim Berners-Lee), ένας από τους δημιουργούς του World Wide Web έχει εκφράσει ανοικτά την αντίθεσή του προς το Άρθρο 13 και τους κινδύνους που αυτό δημιουργεί για το ανοιχτό διαδίκτυο.

Κανείς δεν μπορεί να ισχυρισθεί ότι δεν γνώριζε τις σημαντικές αρνητικές επιπτώσεις του Άρθρου 13! Πρέπει να δράσουμε και να πείσουμε τους Ευρωβουλευτές να αφήσουν στην άκρη τα διάφορα πολιτικά συμφέροντα και να υπερασπιστούν τα δικαιώματα των Ευρωπαίων Πολιτών!

Λάβε τώρα συμμετοχή στην εκστρατεία Pledge 2019, κάλεσε δωρεάν τους εκπροσώπους σου, και ζήτησε τους να δεσμευτούν κατά του Άρθρου 13!