Του Αναστάσιου Αραμπατζή*
Το τελευταίο χρονικό διάστημα υπάρχει έντονο ενδιαφέρον και επενδύσεις στον τομέα της Τεχνητής Νοημοσύνης από εταιρείες που ελπίζουν να αξιοποιήσουν τη δύναμη αυτόνομων λύσεων με δυνατότητες μάθησης. Η τεχνητή νοημοσύνη χρησιμοποιείται ήδη από οργανισμούς στον ασφαλιστικό κλάδο, στην έρευνα για τον καρκίνο του μαστού, σε χρηματοπιστωτικούς οργανισμούς και στην επιβολή του νόμου.
Εντούτοις, σύμφωνα με μία πρόσφατη έρευνα της ESET, οι υψηλές προσδοκίες των επιχειρήσεων και η παραπλανητική διαφήμιση προϊόντων τεχνητής νοημοσύνης έχουν δημιουργήσει μία υπερβάλλουσα δημοσιότητα σχετικά με την τεχνητή νοημοσύνη, σε σημείο που το 75% των υψηλόβαθμων στελεχών συστημάτων πληροφορικής να θεωρούν την τεχνητή νοημοσύνη ως πανάκεια για τα θέματα κυβερνοσφάλειας των εταιρειών τους. Τέτοιες προσδοκίες, σε συνδυασμό με το επίπεδο της τεχνολογίας της τεχνητής νοημοσύνης, θέτουν τους οργανισμούς σε κίνδυνο. Παρότι η τεχνητή νοημοσύνη είναι εκπληκτικά χρήσιμη στην υποβοήθηση λήψεως αποφάσεων από τους ανθρώπους, από μόνη της δεν μπορεί να αντικαταστήσει μία στρατηγική ασφάλειας πληροφοριών.
Ας πάρουμε για παράδειγμα τις προσπάθειες του Facebook να καταπολεμήσει και να μειώσει τις “ψευδείς ειδήσεις” που διαδίδονται με εκπληκτική ταχύτητα μέσω της πλατφόρμας του. Η πλατφόρμα κοινωνικής δικτύωσης χρησιμοποίησε τους καλύτερους μηχανικούς της για να αναπτύξουν εργαλεία τεχνητής νοημοσύνης για τον εντοπισμό και εξάλειψη ψευδών ειδήσεων. Παρά τις έντονες προσπάθειές τους, ο Greg Marra, διευθυντής παραγωγής στη Facebook, παραδέχθηκε ότι “μπορούμε να μειώσουμε την εμφάνιση ψευδών ειδήσεων μόνο κατά 80%”. Εάν η τεχνητή νοημοσύνη επιλύει μόνο το 80% των θεμάτων ψευδών ειδήσεων στο Facebook, τότε οι εταιρείες προϊόντων κυβερνοασφάλειας κάνουν μη ρεαλιστικούς ισχυρισμούς.
Η σκληρή αλήθεια είναι ότι μεγάλο μέρος του ενθουσιασμού που περιβάλλει την τεχνητή νοημοσύνη είναι υπερβολή. Εντούτοις η τεχνητή νοημοσύνη προσφέρει ελπίδες για υψηλής νοημοσύνης λύσεις. Είναι ώρα για ένα τεστ αλήθειας: τι μπορεί και τι δεν μπορεί να κάνει η τεχνητή νοημοσύνη;
- Η τεχνητή νοημοσύνη μπορεί να βοηθήσει στο επίπεδο κυβερνοασφάλειας ενός οργανισμού
Η αλήθεια είναι ότι ο τομέας της κυβερνοσφάλειας είχε ανάγκη μία τεχνολογία σαν την τεχνητή νοημοσύνη λόγω των σημαντικών αλλαγών στο τοπίο των απειλών και της έλλειψης εξειδικευμένου προσωπικού για τη στελέχωση θέσεων εργασίας κυβερνοασφάλειας.
Τα τελευταία χρόνια σχεδόν κάθε οργανισμός έχει μετασχηματιστεί ψηφιακά (digital transformation). Ο όρος “ψηφιακός μετασχηματισμός” υπονοεί τη χρήση ψηφιακών τεχνολογιών για την εκτέλεση μίας διαδικασίας ώστε αυτή να γίνει περισσότερο αποδοτική ή αποτελεσματική. Η γενική ιδέα είναι η χρήση της τεχνολογίας όχι μόνο για να αντιγράψουμε μία υφιστάμενη υπηρεσία σε ψηφιακή μορφή, αλλά για να μετασχηματίσουμε αυτή την υπηρεσία σε κάτι σημαντικά καλύτερο. Ο ψηφιακός μετασχηματισμός μπορεί να περιλαμβάνει πολλές τεχνολογίες, αλλά οι πιο σύγχρονες τάσεις είναι το cloud computing, το Internet of Things (IoT), τα μεγάλα δεδομένα (big data) και η τεχνητή νοημοσύνη.
Εκτός από τη χρήση τεχνολογίας, ο ψηφιακός μετασχηματισμός είναι μία αλλαγή στην κουλτούρα των οργανισμών η οποία επιβάλλει στους οργανισμούς να προκαλούν συνεχώς την υφιστάμενη κατάσταση, να πειραματίζονται και να μαθαίνουν από τις από αποτυχίες τους. Στη σημερινή εποχή το μόνο σταθερό είναι ότι όλα αλλάζουν και η κουλτούρα των οργανισμών πρέπει να διευκολύνει την αλλαγή.
Η χρήση τέτοιων τεχνολογιών έχει ανοίξει νέους ορίζοντες για τις ικανότητες των οργανισμών αλλά έχει επίσης δημιουργήσει νέες πολυπλοκότητες, διασυνδέσεις και σημεία τρωτοτήτων τα οποία οι κυβερνοεγκληματίες έμαθαν πολύ γρήγορα να εκμεταλλεύονται. Οι παραδοσιακές προσεγγίσεις της περιμετρικής ασφάλειας και κυβερνοσφάλειας δεν ισχύουν πλέον για τον νέο, ψηφιακό οργανισμό. Την ίδια στιγμή, οι ομάδες κυβερνοσφάλειας που αποτελούνται μόνο από ανθρώπους δεν μπορούν να επεξεργαστούν την πλημμύρα δεδομένων απειλών με την οποία έρχονται αντιμέτωποι κάθε μέρα.
Όπως αναφέρει χαρακτηριστικά η σελίδα Security Intelligence της IBM, οι αναλυτές δεδομένων ασφαλείας είναι υπερφορτωμένοι, υποστελεχωμένοι και παρουσιάζουν σημάδια κούρασης και εξόντωσης. Είναι ανθρωπίνως αδύνατο να συμβαδίσουμε με το διαρκώς εξελισσόμενο και εκτεινόμενο πεδίο των απειλών, ειδικά εάν λάβουμε υπόψη τις καθημερινές εργασίες και λειτουργίες ενός κέντρου επιχειρήσεων ασφαλείας (Security Operations Center, SOC). Τι μπορεί να κάνει η τεχνητή νοημοσύνη για να βελτιωθεί αυτή η κατάσταση; Σύμφωνα με μία πρόσφατη αναφορά του Ponemon, οι οργανισμοί οι οποίοι κατάφεραν να αναγνωρίσουν μια παραβίαση ασφαλείας σε λιγότερο από 100 ημέρες κέρδισαν περισσότερο από 1 εκατομμύριο δολάρια σε σύγκριση με αυτούς τους οργανισμούς όπου παρόμοια περιστατικά παρέμειναν άγνωστα για περισσότερο από 100 ημέρες. Παρομοίως, οι οργανισμοί που κατάφεραν να περιορίσουν την παραβίαση σε λιγότερο από 30 ημέρες κέρδισαν άνω του 1 εκατομμυρίου δολαρίων σε σύγκριση με αυτούς που χρειάστηκαν περισσότερο χρόνο.
Η ταχύτητα, ακρίβεια και υπολογιστική ισχύς της τεχνητής νοημοσύνης προσφέρουν μια μοναδική ευκαιρία για την προστασία ενός οργανισμού χωρίς περίμετρο ασφαλείας και για συνεχή επεξεργασία του τεράστιου όγκου δεδομένων απειλών που αντιμετωπίζουν οι οργανισμοί σε καθημερινή βάση. Αυτό γίνεται λόγω του ότι η τεχνητή νοημοσύνη λειτουργεί εξαιρετικά καλά σε επαναλαμβανόμενες εργασίες όπως η αναζήτηση συγκεκριμένων μοτίβων επιθέσεων. Έτσι, η υλοποίηση της τεχνητής νοημοσύνης στους οργανισμούς μπορεί να βοηθήσει στην αποτελεσματική αντιμετώπιση της έλλειψης πόρων που αντιμετωπίζουν τα περισσότερα κέντρα επιχειρήσεων ασφαλείας και μπορεί να προσφέρει οφέλη μεγέθους κλίμακας στην πρόληψη και αναγνώριση προσβολών, στην αναγνώριση απάτης και στην κακή χρησιμοποίηση πιστοποιητικών ταυτοποίησης.
Επιπρόσθετα, οι αλγόριθμοι τεχνητής νοημοσύνης μπορούν να εφαρμοστούν για την συμπεριφορική ανάλυση χρηστών και δικτύων. Για παράδειγμα οι αλγόριθμοι μπορούν να χρησιμοποιηθούν για τη διερεύνηση δραστηριοτήτων ανθρώπων και συσκευών ώστε να σηματοδοτηθούν πιθανές κακόβουλες δραστηριότητες εκ των έσω.
- Η Τεχνητή Νοημοσύνη Δεν Είναι Μαγεία
Ο Arthur Clarke είχε γράψει ότι “Οποιαδήποτε ικανοποιητικά προηγμένη τεχνολογία δεν διακρίνεται από τη μαγεία”. Αυτό όμως δεν είναι αλήθεια για την τεχνητή νοημοσύνη. Ο επικεφαλής Τεχνητής Νοημοσύνης της Google, Rodney Brooks, σημειώνει ότι “Η Τεχνητή Νοημοσύνη έχει υπερεκτιμηθεί ξανά και ξανά, και τη δεκαετία του 1960, και τη δεκαετία του 1980 και πάλι σήμερα, αλλά οι μακροπρόθεσμες προοπτικές της έχουν υποεκτιμηθεί”. Στην πραγματικότητα, σύμφωνα με τον Brooks, η Τεχνητή Νοημοσύνη είναι μία ακόμα εφαρμογή του νόμου του Amara, ο οποίος λέει ότι “Τείνουμε να υπερεκτιμάμε την επίδραση της τεχνολογίας βραχυπρόθεσμα, και να υποεκτιμούμε την μακροπρόθεσμη επίδρασή της”.
Ένα λάθος που κάνουμε είναι η τάση να θεωρούμε την Τεχνητή Νοημοσύνη ως ένα είδος “μαγικής σκόνης” που την ψεκάζουμε σε ένα οργανισμό και αυτός, ξαφνικά, γίνεται πιο έξυπνος. Ο Andrew Moore, επικεφαλής του Τμήματος Επιχειρήσεων Cloud AI της Google, είπε πρόσφατα ότι “η Τεχνητή Νοημοσύνη αφορά τη χρήση μαθηματικών ώστε οι μηχανές να παίρνουν αληθινά καλές αποφάσεις. Επί του παρόντος δεν αφορά την εξομοίωση της ανθρώπινης νοημοσύνης. Η επίλυση προβλημάτων τεχνητής νοημοσύνης περιλαμβάνει πολλή μηχανική, πολλά μαθηματικά και γραμμική άλγεβρα. Δεν είναι με κανένα τρόπο μία μαγικού τύπου λύση”.
Στην πραγματικότητα οι σημερινοί αλγόριθμοι τεχνητής νοημοσύνης δεν είναι τίποτα άλλο από παραδοσιακοί αλγόριθμοι εκμάθησης μηχανών. Η εκμάθηση μηχανών χρησιμοποιεί στατιστικές τεχνικές για να δώσει στους υπολογιστές την ικανότητα να “μαθαίνουν”. Χρησιμοποιούν δηλαδή δεδομένα για να βελτιώνουν σταδιακά την απόδοση των υπολογιστών σε συγκεκριμένες εργασίες χωρίς επιπρόσθετο προγραμματισμό. Ένα σύστημα εκμάθησης μηχανών είναι ένα σύνολο αλγορίθμων που δέχεται πακέτα δεδομένων και αποδίδει συσχετισμούς, προτάσεις και ίσως και αποφάσεις. Η εν λόγω τεχνολογία είναι ήδη πανταχού παρούσα: κάθε “συναλλαγή” μας με την Google, την Amazon, την Facebook και τη Spotify διευκολύνεται από συστήματα εκμάθησης μηχανών.
Εν κατακλείδι, όπως ανέφερε η Fei-Fei Li, καθηγήτρια στο Πανεπιστήμιο του Stanford, “δεν υπάρχει τίποτα το τεχνητό στην τεχνητή νοημοσύνη. Είναι εμπνευσμένη από ανθρώπους, έχει δημιουργηθεί από ανθρώπους και – το πιο σημαντικό – επηρεάζει τους ανθρώπους. Είναι ένα πολύ δυνατό εργαλείο που μόλις αρχίζουμε να το καταλαβαίνουμε και αυτό εμπεριέχει μεγάλη ευθύνη”.
- Η Τεχνητή Νοημοσύνη δεν Εξαλείφει την Ανθρώπινη Νοημοσύνη
Η τεχνητή νοημοσύνη εστιάζει κυρίως στην ανάπτυξη της εκμάθησης των μηχανών, ώστε να επεξεργάζονται τεράστιες ποσότητες δεδομένων απειλών. Η ικανότητα της τεχνητής νοημοσύνης να πραγματοποιεί αυτές τις δραστηριότητες χωρίς περιορισμούς και σε σχεδόν πραγματικό χρόνο, την κάνει ένα πολύτιμο σύμμαχο για την υλοποίηση ενός μοντέρνου, αποτελεσματικού προγράμματος κυβερνοασφάλειας. Αυτές οι δραστηριότητες μπορούν να πραγματοποιηθούν σε κάθε στάδιο της κυβερνοσφάλειας, επιτρέποντας στη τεχνητή νοημοσύνη να προσφέρει αξία πριν, κατά και μετά την εκδήλωση μίας κυβερνοεπίθεσης. Αλλά, η τεχνητή νοημοσύνη δεν αντιγράφει την ανθρώπινη ενόραση. Δεν αναιρεί την απαίτηση για ανθρώπινους εμπειρογνώμονες στην κυβερνοασφάλεια.
Όπως αναφέρεται και σε ένα άρθρο του περιοδικού Computer Weekly, τα εργαλεία εκμάθησης μηχανών είναι “πολύτιμα” για την ανάλυση κακόβουλου λογισμικού διότι είναι ικανά να μάθουν γρήγορα τη διαφορά μεταξύ καθαρών και μολυσμένων δεδομένων όταν τροφοδοτούνται με κατάλληλα δείγματα. Αυτές οι μηχανές είναι τόσο καλές όσο και τα δεδομένα που εισάγονται σε αυτές. Σε τελική ανάλυση, είναι ο άνθρωπος που χρειάζεται να ξέρει πως να ρωτήσει τις κατάλληλες ερωτήσεις ώστε να αξιοποιήσει στο μέγιστο τις δυνατότητες της τεχνητής νοημοσύνης.
Τα διάφορα εργαλεία τεχνητής νοημοσύνης μπορούν να καταγράψουν και να αναφέρουν βασικά δεδομένα συστήματος ακόμα και χωρίς την ανθρώπινη επίβλεψη, αλλά δεν μπορούν να σχεδιάσουν έξυπνα σχέδια ανταπόκρισης σε απειλές. Η τελευταία δήλωση είναι σύμφωνη και με τα ευρήματα πρόσφατης έρευνας του ινστιτούτου Ponemon ότι το 55% των συναγερμών ασφαλείας που ανιχνεύονται από συστήματα τεχνητής νοημοσύνης απαιτεί ενέργειες από τον άνθρωπο.
- Προκατειλημμένοι Αλγόριθμοι
Η τεχνητή νοημοσύνη έχει ένα ακόμα πρόβλημα: οι προκαταλήψεις και οι αντιλήψεις των δημιουργών των αλγορίθμων αποτυπώνονται σε αυτούς. Όπως σημειώνει και η καθηγήτρια του Stanford, Fei-Fei Li, συστήματα τεχνητής νοημοσύνης είναι “εισαγωγή προκαταλήψεων και παραγωγή προκαταλήψεων”. Παρότι οι αλγόριθμοι που βρίσκονται πίσω από την τεχνητή νοημοσύνη φαίνεται να είναι ουδέτεροι, τα δεδομένα που παράγονται από αυτούς δεν είναι. Αυτό που έχει σημασία είναι οι άνθρωποι που δημιουργούν αυτούς τους αλγορίθμους και γιατί τους δημιουργούν.
Για το ίδιο θέμα, ο Justin Sherman, ερευνητής κυβερνοσφάλειας στο ινστιτούτο New America έγραψε ότι: “Αυτό που παραβλέπεται συχνά είναι η διασύνδεση μεταξύ αλγορίθμων και προκαταλήψεων. Αντίθετα με το τι πιστεύουν πολλοί από εμάς, η τεχνολογία δεν είναι αντικειμενική. Οι αλγόριθμοι της τεχνητής νοημοσύνης και η διαδικασία λήψης αποφάσεων καθορίζονται από τα άτομα που τα δημιουργούν. Ο κίνδυνος των προκατειλημμένων αλγορίθμων είναι ήδη μεγάλος. Ως κοινωνία διατρέχουμε μεγάλο κίνδυνο εισάγοντας τις προκαταλήψεις μας – ρατσισμός, ξενοφοβία, σεξισμός, κοινωνικός αποκλεισμός – σε μηχανές που θα παραχθούν σε μαζικούς αριθμούς και θα θεωρούμε ότι λειτουργούν με τεχνολογική αντικειμενικότητα”.
- Τεχνητή Νοημοσύνη: Εχθρός ή Φίλος;
Τα εργαλεία για την ανάπτυξη συστημάτων τεχνητής νοημοσύνης είναι διαθέσιμα σε όλους. Αναμένεται, λοιπόν, οι κακόβουλοι δρώντες να τα εκμεταλλευτούν και να δημιουργήσουν τεχνολογίες και τεχνικές κυβερνοεπιθέσεων βασισμένες στην τεχνητή νοημοσύνη, οι οποίες θα είναι πιο εξελιγμένες από ότι οι τεχνολογίες που χρησιμοποιούνται για την υπεράσπιση των οργανισμών. “Οι εγκληματίες είναι το ίδιο εξειδικευμένοι με τις κοινότητες που αναπτύσσουν τεχνολογίες για την υπεράσπισή τους. Χρησιμοποιούν τις ίδιες τεχνικές, όπως έξυπνες επιθέσεις phishing ή ανάλυση της συμπεριφοράς των πιθανών στόχων για να επιλέξουν τον κατάλληλο τρόπο επίθεσης ή ακόμα “έξυπνο” κακόβουλο λογισμικό το οποίο κρύβεται όταν καταλάβει ότι κάποιος το παρακολουθεί”.
Οι πιο κοινοί τρόποι με τους οποίους οι κυβερνοεγκληματίες μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη είναι η μείωση της αποτελεσματικότητας των αλγορίθμων με μόλυνση των δεδομένων από τα οποία τροφοδοτούνται, κυβερνοεγκλήματα με χρήση chatbots τα οποία αναλύουν και μιμούνται την ανθρώπινη συμπεριφορά, απάτες κλοπής ταυτοτήτων, phishing και επιθέσεις άρνησης παροχής υπηρεσιών (Distributed Denial of Services, DDoS).
- Υλοποίηση Τεχνολογίας Τεχνητής Νοημοσύνης
Πέρα από το τι μπορεί να κάνει η τεχνητή νοημοσύνη για να αυξήσει το επίπεδο της εταιρικής ασφάλειας, οι εταιρείες πρέπει να σκεφτούν τον τρόπο υλοποίησης αυτής της τεχνολογίας. Πως μπορούν οι οργανισμοί να αναπτύξουν αποτελεσματικά λύσεις τεχνητής νοημοσύνης ώστε να μεγιστοποιήσουν τα αποτελέσματα;
Αρχικά, οι εταιρείες πρέπει “να σταματήσουν να σκέφτονται ότι η τεχνητή νοημοσύνη είναι μαγεία”. Η τεχνητή νοημοσύνη δεν είναι πανάκεια και δεν θα λύσει όλες τις προκλήσεις ασφαλείας. Η τεχνητή νοημοσύνη θα αυξήσει την απόδοση μόνο εάν χρησιμοποιηθεί εκεί που προσθέτει πραγματική αξία, εάν βοηθά στην επίτευξη του σκοπού της εταιρείας. Είναι αναγκαίο οι ομάδες που στελεχώνουν τα κέντρα επιχειρήσεων ασφαλείας να κατανοήσουν τις δυνατότητες και τους περιορισμούς της τεχνητής νοημοσύνης.
Επίσης πρέπει να βεβαιωθούν ότι μπορούν να ωφεληθούν από την τεχνητή νοημοσύνη μέσω της αυτοματοποίησης των διαδικασιών της ανάλυσης τυποποιημένων απειλών ώστε οι άνθρωποι να εστιάσουν στο μικρό ποσοστό κακόβουλων και πολύπλοκων δραστηριοτήτων. Εκμεταλλευόμενοι τις δυνατότητες της τεχνητής νοημοσύνης, τα κέντρα επιχειρήσεων μπορούν να διπλασιάσουν τον αριθμό των περιστατικών που μπορούν να διαχειριστούν χωρίς να διπλασιάσουν τον αριθμό των αναλυτών.
- Συμπέρασμα
Η τεχνητή νοημοσύνη είναι πολύ σημαντική και μπορεί να αλλάξει τις ζωές μας με τρόπους που δεν μπορούμε ακόμα να φανταστούμε. Είναι όμως αφελές να ισχυριζόμαστε ότι αυτό έχει ήδη συμβεί. Η τεχνητή νοημοσύνη έχει τεράστιες δυνατότητες και όπου έχει χρησιμοποιηθεί έχει βελτιώσει σημαντικά την ταχύτητα και την ακρίβεια. Εάν συνδυαστεί με τις κατάλληλες διαδικασίες και δεξιότητες καθώς και την κατάλληλη σχεδίαση για ενσωμάτωση στον τρόπο λειτουργίας του οργανισμού, τότε είναι πιθανό να μεγιστοποιήσουμε τα οφέλη της τεχνητής νοημοσύνης και να θέσουμε τα θεμέλια για τη μελλοντική μηχανική ευφυΐα.
* Ο Αναστάσιος Αραμπατζής είναι μέλος της Homo Digitalis, απόστρατος Αξιωματικός της Πολεμικής Αεροπορίας με πάνω από 25 χρόνια εμπειρία σε θέματα ασφάλειας πληροφοριών. Κατά τη θητεία του στην Π.Α. ήταν πιστοποιημένος αξιολογητής του ΝΑΤΟ σε θέματα κυβερνοασφάλειας και έχει τιμηθεί για τις γνώσεις του και την απόδοσή του. Σήμερα αρθρογραφεί για τη στήλη State of Security της εταιρείας Tripwire και για το blog της Venafi. Άρθρα του έχουν δημοσιευθεί σε πληθώρα έγκριτων ιστοσελίδων.