Saltar al contenido

Το AI θα μπορούσε να σταματήσει την υποκλοπή προβλέποντας τι θα πείτε

18 de noviembre de 2022
  • Οι ερευνητές έχουν επινοήσει μια μέθοδο για να ανακατεύουμε συνομιλίες για να νικήσουμε τα αδίστακτα μικρόφωνα από την καταγραφή των συνομιλιών μας.
  • Η μέθοδος είναι σημαντική αφού λειτουργεί σε πραγματικό χρόνο σε ροή ήχου και με ελάχιστη εκπαίδευση.
  • Οι ειδικοί επικροτούν την έρευνα, αλλά πιστεύουν ότι δεν είναι πολύ χρήσιμη για τον μέσο χρήστη smartphone.

Είμαστε περιτριγυρισμένοι από έξυπνες συσκευές με μικρόφωνα, αλλά τι γίνεται αν έχουν παραβιαστεί για να μας κρυφακούσουν; Σε μια προσπάθεια να προστατεύσουν τις συνομιλίες μας από τους κατασκοπευτές, οι ερευνητές του Πανεπιστημίου Κολούμπια ανέπτυξαν μια μέθοδο καμουφλάζ νευρικής φωνής που διακόπτει τα συστήματα αυτόματης αναγνώρισης ομιλίας σε πραγματικό χρόνο χωρίς να ενοχλεί τους ανθρώπους. «Με την εισβολή του [smart voice-activated devices] στη ζωή μας, η ιδέα του απορρήτου αρχίζει να εξατμίζεται καθώς αυτές οι συσκευές ακρόασης είναι πάντα ενεργοποιημένες και παρακολουθούν ό,τι λέγεται», είπε στο Lifewire μέσω email ο Charles Everette, Διευθυντής Cyber ​​Advocacy, Deep Instinct. «Αυτή η έρευνα είναι μια άμεση απάντηση στο χρειάζεται να κρύψουμε ή να καμουφλάρουμε τη φωνή και τις συνομιλίες ενός ατόμου από αυτούς τους ηλεκτρονικούς κρυφακούς, γνωστούς ή άγνωστους σε μια περιοχή.»

Μιλώντας Πάνω

Οι ερευνητές ανέπτυξαν ένα σύστημα που παράγει ήσυχους ήχους που μπορείτε να αναπαράγετε σε οποιοδήποτε δωμάτιο για να εμποδίσετε τα αδίστακτα μικρόφωνα να κατασκοπεύουν τις συνομιλίες σας. Ο τρόπος με τον οποίο αυτός ο τύπος τεχνολογίας καταπολεμά τις υποκλοπές θυμίζει την Everette ακουστικά ακύρωσης θορύβου. Αντί να παράγουν ήσυχους ήχους ψίθυρου για να ακυρώσουν τον θόρυβο του περιβάλλοντος, οι ερευνητές μεταδίδουν ήχους παρασκηνίου που διακόπτουν τους αλγόριθμους Τεχνητής Νοημοσύνης (AI) που ερμηνεύουν τα ηχητικά κύματα σε κατανοητό ήχο. Τέτοιοι μηχανισμοί για να καμουφλάρετε τη φωνή ενός ατόμου δεν είναι μοναδικοί, αλλά αυτό που ξεχωρίζει το Neural Voice Camouflage από τις άλλες μεθόδους είναι ότι λειτουργεί σε πραγματικό χρόνο σε ροή ήχου. «Για να λειτουργήσουμε με ζωντανό λόγο, η προσέγγισή μας πρέπει να προβλέπει [the correct scrambling audio] στο μέλλον, ώστε να μπορούν να παίζονται σε πραγματικό χρόνο», σημειώνουν οι ερευνητές στην εργασία τους. Επί του παρόντος, η μέθοδος λειτουργεί για την πλειοψηφία της αγγλικής γλώσσας. Ο Hans Hansen, Διευθύνων Σύμβουλος της Brand3D, δήλωσε στο Lifewire ότι η έρευνα είναι πολύ σημαντική δεδομένου ότι επιτίθεται σε μια σημαντική αδυναμία στα σημερινά συστήματα AI. Σε μια συνομιλία μέσω email, ο Hansen εξήγησε ότι τα τρέχοντα συστήματα τεχνητής νοημοσύνης βαθιάς εκμάθησης γενικά και η φυσική αναγνώριση ομιλίας ειδικότερα λειτουργούν μετά την επεξεργασία εκατομμυρίων εγγραφών δεδομένων ομιλίας που συλλέγονται από χιλιάδες ομιλητές. Αντίθετα, το Neural Το Voice Camouflage λειτουργεί αφού ρυθμιστεί σε μόλις δύο δευτερόλεπτα ομιλίας εισόδου. Προσωπικά, αν ανησυχώ για συσκευές που ακούν, η λύση μου δεν θα ήταν να προσθέσω άλλη συσκευή ακρόασης που επιδιώκει να δημιουργήσει θόρυβο φόντου.

Λάθος δέντρο;

Ο Brian Chappell, επικεφαλής στρατηγικής ασφαλείας στο BeyondTrust, πιστεύει ότι η έρευνα είναι πιο ωφέλιμη για τους επιχειρησιακούς χρήστες που φοβούνται ότι θα μπορούσαν να βρεθούν ανάμεσα σε παραβιασμένες συσκευές που ακούν λέξεις-κλειδιά που υποδεικνύουν ότι εκφωνούνται πολύτιμες πληροφορίες. «Εκεί που αυτή η τεχνολογία θα ήταν δυνητικά πιο ενδιαφέρουσα είναι σε μια πιο αυταρχική κατάσταση επιτήρησης όπου η ανάλυση βίντεο και φωνητικής εκτύπωσης τεχνητής νοημοσύνης χρησιμοποιείται εναντίον πολιτών», δήλωσε στο Lifewire μέσω email ο James Maude, επικεφαλής ερευνητής κυβερνοασφάλειας της BeyondTrust. Η Maude πρότεινε ότι μια καλύτερη εναλλακτική θα ήταν η εφαρμογή ελέγχων απορρήτου σχετικά με τον τρόπο λήψης, αποθήκευσης και χρήσης των δεδομένων από αυτές τις συσκευές. Επιπλέον, ο Chappell πιστεύει ότι η χρησιμότητα της μεθόδου του ερευνητή είναι περιορισμένη, καθώς δεν έχει σχεδιαστεί για να σταματήσει την ανθρώπινη υποκλοπή. «Για το σπίτι, να έχετε κατά νου ότι, τουλάχιστον θεωρητικά, η χρήση ενός τέτοιου εργαλείου θα κάνει το Siri, το Alexa, το Google Home και οποιοδήποτε άλλο σύστημα ενεργοποιείται με μια προφορική λέξη ενεργοποίησης να σας αγνοήσει», είπε ο Chappell.

Ένας επιχειρηματίας που κρύβεται κάτω από ένα τραπέζι συνεδριάσεων κρατώντας σημειώσεις για μια διάσκεψη μεταξύ άλλων ανθρώπων.

Ωστόσο, οι ειδικοί πιστεύουν ότι με την αυξανόμενη συμπερίληψη της τεχνολογίας AI/ML στις έξυπνες συσκευές μας, είναι απολύτως πιθανό αυτή η τεχνολογία να καταλήξει στα τηλέφωνά μας στο εγγύς μέλλον. Ο Maude ανησυχεί γιατί οι τεχνολογίες AI μπορούν να μάθουν γρήγορα να διακρίνουν μεταξύ θορύβου και πραγματικού ήχου. Πιστεύει ότι ενώ το σύστημα μπορεί να είναι αρχικά επιτυχημένο, θα μπορούσε γρήγορα να μετατραπεί σε παιχνίδι γάτας και ποντικιού καθώς μια συσκευή ακρόασης μαθαίνει να φιλτράρει τους θορύβους εμπλοκής. Πιο ανησυχητικό, η Maude επεσήμανε ότι οποιοσδήποτε το χρησιμοποιεί θα μπορούσε, στην πραγματικότητα, να τραβήξει την προσοχή στον εαυτό του, καθώς η διακοπή της αναγνώρισης φωνής θα φαινόταν ασυνήθιστη και μπορεί να υποδηλώνει ότι προσπαθείτε να κρύψετε κάτι. «Προσωπικά, αν ανησυχώ για συσκευές που ακούν, η λύση μου δεν θα ήταν να προσθέσω μια άλλη συσκευή ακρόασης που επιδιώκει να δημιουργήσει θόρυβο φόντου», μοιράστηκε η Maude. «Ειδικά επειδή απλώς αυξάνει τον κίνδυνο να χακαριστεί μια συσκευή ή μια εφαρμογή και να μπορέσει να με ακούσει.»