Έρευνα που πραγματοποιήθηκε από την Kaspersky και το Πανεπιστήμιο της Γάνδης διαπίστωσε ότι τα ρομπότ μπορούν να αποσπάσουν αποτελεσματικά ευαίσθητες πληροφορίες από τους ανθρώπους που τα εμπιστεύονται, πείθοντας τους να προβούν σε επισφαλείς ενέργειες.
Ο κόσμος επιταχύνει συνεχώς προς την αύξηση της ψηφιοποίησης και της κινητικότητας των υπηρεσιών, με πολλές βιομηχανίες και νοικοκυριά να στηρίζονται έντονα στην αυτοματοποίηση και τη χρήση ρομποτικών συστημάτων. Σύμφωνα με ορισμένες εκτιμήσεις, η τελευταία τάση θα αποτελέσει τον κανόνα για τα εύπορα νοικοκυριά μέχρι το 2040. Επί του παρόντος, τα περισσότερα από αυτά τα ρομποτικά συστήματα βρίσκονται στο στάδιο της ακαδημαϊκής έρευνας και είναι πολύ νωρίς για να συζητήσουμε πώς θα ενσωματωθούν τα μέτρα ψηφιακής ασφάλειας. Η έρευνα της Kaspersky και του Πανεπιστημίου της Γάνδης έχει βρει μια νέα και απροσδόκητη διάσταση του κινδύνου που συνδέεται με τη ρομποτική – τον κοινωνικό αντίκτυπο που έχει στη συμπεριφορά των ανθρώπων, καθώς και τους δυνητικούς κινδύνους και επιθέσεις που μπορεί να προκύψουν ως επακόλουθο.
Η έρευνα, στην οποία συμμετείχαν περίπου 50 άτομα, επικεντρώθηκε στην επίδραση ενός συγκεκριμένου κοινωνικού ρομπότ, που σχεδιάστηκε και προγραμματίστηκε να αλληλοεπιδρά με άτομα που χρησιμοποιούν ανθρώπινα κανάλια, όπως ομιλία ή μη λεκτική επικοινωνία. Υποθέτοντας ότι τα κοινωνικά ρομπότ μπορούν να παραβιαστούν και ότι ένας εισβολέας είχε πάρει τον έλεγχο σε αυτό το σενάριο, η έρευνα προέβλεπε τους πιθανούς κινδύνους για την ασφάλεια που σχετίζονται με τα ρομπότ που επηρεάζουν ενεργά τους χρήστες του οδηγώντας τους να προβούν σε ορισμένες ενέργειες, όπως:
• Να δώσουν πρόσβαση σε εγκαταστάσεις εκτός ορίων. Το ρομπότ τοποθετήθηκε κοντά σε μια ασφαλή είσοδο ενός κτιρίου μικτής χρήσης στο κέντρο της Γάνδης και ζήτησε από το προσωπικό να τους ακολουθήσει περνώντας από την πόρτα. Από προεπιλογή, η πρόσβαση στην περιοχή είναι δυνατή μόνο τοποθετώντας μια κάρτα ασφαλείας στους αναγνώστες πρόσβασης των θυρών. Κατά τη διάρκεια του πειράματος, δεν συμμορφώθηκαν όλοι οι υπάλληλοι με το αίτημα του ρομπότ, αλλά το 40% ξεκλείδωσε την πόρτα και την κράτησε ανοιχτή για να αφήσει το ρομπότ να εισέλθει στην ασφαλή περιοχή. Ωστόσο, όταν το ρομπότ παρουσιάστηκε ως διανομέας πίτσας, κρατώντας ένα κουτί από μια πασίγνωστη διεθνή μάρκα, το προσωπικό δέχθηκε πρόθυμα τον ρόλο του ρομπότ και φαινόταν λιγότερο πρόθυμο να αμφισβητήσει την παρουσία του ή τους λόγους για τους οποίους χρειαζόταν πρόσβαση στην ασφαλή περιοχή.
• Να τους αποσπάσουν ευαίσθητες πληροφορίες. Το δεύτερο μέρος της έρευνας επικεντρώθηκε στην απόκτηση προσωπικών πληροφοριών που θα χρησιμοποιούνταν συνήθως για την επαναφορά κωδικών πρόσβασης (συμπεριλαμβανομένης της ημερομηνίας γέννησης, του αγαπημένου χρώματος κ.λπ.). Και στην περίπτωση αυτή, χρησιμοποιήθηκε το κοινωνικό ρομπότ, αυτή τη φορά προσκαλώντας τους ανθρώπους να κάνουν φιλική συζήτηση. Για όλους εκτός από έναν συμμετέχοντα, οι ερευνητές κατάφεραν να λάβουν προσωπικές πληροφορίες με ρυθμό περίπου μία πληροφορία το λεπτό.
Σχολιάζοντας τα αποτελέσματα του πειράματος, ο Dmitry Galov, ερευνητής ασφάλειας στην Kaspersky, δήλωσε: «Στην αρχή της έρευνας εξετάσαμε το λογισμικό που χρησιμοποιείται στην ανάπτυξη του ρομποτικού συστήματος. Με ενδιαφέρον διαπιστώσαμε ότι οι προγραμματιστές με συνειδητή τους απόφαση αποκλείουν τους μηχανισμούς ασφαλείας και αντ’ αυτού επικεντρώνονται στην ενίσχυση της άνεσης και της αποδοτικότητας. Ωστόσο, όπως έδειξαν τα αποτελέσματα του πειράματος, οι προγραμματιστές δεν πρέπει να ξεχνούν την ασφάλεια μόλις ολοκληρωθεί η ερευνητική φάση. Εκτός από τις τεχνικές εκτιμήσεις, υπάρχουν βασικές πτυχές που πρέπει να ανησυχούν αναφορικά με την ασφάλεια της ρομποτικής. Ελπίζουμε ότι το κοινό μας σχέδιο και η είσοδός μας στον τομέα της ρομποτικής κυβερνοασφάλειας με συναδέλφους από το Πανεπιστήμιο της Γάνδης θα ενθαρρύνουν κι άλλους να ακολουθήσουν το παράδειγμά μας και να αυξήσουν την ευαισθητοποίηση του κοινού και της Τεχνολογικής Κοινότητας επάνω στο ζήτημα αυτό».
Ο Tony Belpaeme, Καθηγητής Τεχνητής Νοημοσύνης και Ρομποτικής στο Πανεπιστήμιο της Γάνδης, προσέθεσε: «Η επιστημονική βιβλιογραφία δείχνει ότι η εμπιστοσύνη στα ρομπότ και συγκεκριμένα στα κοινωνικά ρομπότ είναι πραγματικότητα και μπορεί να χρησιμοποιηθεί για να πείσει τους ανθρώπους να προβούν σε ενέργειες ή να αποκαλύψουν ευαίσθητες πληροφορίες. Σε γενικές γραμμές, όσο περισσότερο προσομοιάζει σε άνθρωπο το ρομπότ, τόσο περισσότερο έχει τη δύναμη να πείσει. Το πείραμά μας έδειξε ότι αυτό θα μπορούσε να φέρει σημαντικούς κινδύνους για την ασφάλεια: οι άνθρωποι τείνουν να μην τους εξετάζουν, υποθέτοντας ότι το ρομπότ είναι καλοπροαίρετο και αξιόπιστο. Αυτό παρέχει έναν δυνητικό αγωγό για κακόβουλες επιθέσεις και οι τρεις μελέτες περιπτώσεων που συζητήθηκαν στην έκθεση είναι μόνο ένα κλάσμα των κινδύνων ασφαλείας που σχετίζονται με τα κοινωνικά ρομπότ. Αυτός είναι ο λόγος για τον οποίον είναι σημαντικό να συνεργαστούμε τώρα για να κατανοήσουμε και να αντιμετωπίσουμε τους αναδυόμενους κινδύνους και τα τρωτά σημεία – θα ανταμειφθούμε στο μέλλον».
0 Post a Comment:
Δημοσίευση σχολίου