Βασικά Takeaways
- Νέα έρευνα αποκαλύπτει ότι οι άνθρωποι δεν μπορούν να διαχωρίσουν τις εικόνες που δημιουργούνται από AI από τις πραγματικές.
- Οι συμμετέχοντες αξιολόγησαν τις εικόνες που δημιουργήθηκαν με AI ως πιο αξιόπιστες.
- Οι ειδικοί πιστεύουν ότι οι άνθρωποι πρέπει να σταματήσουν να εμπιστεύονται οτιδήποτε βλέπουν στο Διαδίκτυο.
Το ρητό «το να βλέπεις είναι να πιστεύεις» δεν είναι πλέον σχετικό όταν πρόκειται για το διαδίκτυο και οι ειδικοί λένε ότι δεν πρόκειται να βελτιωθεί σύντομα. Μια πρόσφατη μελέτη διαπίστωσε ότι οι εικόνες προσώπων που παράγονται από την τεχνητή νοημοσύνη (AI) δεν ήταν μόνο εξαιρετικά φωτορεαλιστικές, αλλά φαινόταν επίσης πιο ενάρετες από τα πραγματικά πρόσωπα. «Η αξιολόγησή μας για τον φωτορεαλισμό των προσώπων που συνθέτουν AI δείχνει ότι οι κινητήρες σύνθεσης έχουν περάσει μέσα από την παράξενη κοιλάδα και είναι ικανοί να δημιουργήσουν πρόσωπα που είναι δυσδιάκριτα και πιο αξιόπιστα από τα πραγματικά πρόσωπα», παρατήρησαν οι ερευνητές.
Αυτό το άτομο δεν υπάρχει
Οι ερευνητές, η Δρ Sophie Nightingale από το Πανεπιστήμιο του Λάνκαστερ και ο καθηγητής Hany Farid από το Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ, διεξήγαγαν τα πειράματα αφού αναγνώρισαν τις ευρέως δημοσιευμένες απειλές των deep fakes, που κυμαίνονται από κάθε είδους διαδικτυακή απάτη έως τονωτικές εκστρατείες παραπληροφόρησης. «Ίσως η πιο καταστροφική είναι η συνέπεια ότι, σε έναν ψηφιακό κόσμο στον οποίο οποιαδήποτε εικόνα ή βίντεο μπορεί να παραποιηθεί, η αυθεντικότητα οποιασδήποτε άβολης ή ανεπιθύμητης εγγραφής μπορεί να τεθεί υπό αμφισβήτηση», υποστήριξαν οι ερευνητές. Υποστήριξαν ότι, ενώ έχει σημειωθεί πρόοδος στην ανάπτυξη αυτόματων τεχνικών για τον εντοπισμό ψεύτικο περιεχόμενο, οι τρέχουσες τεχνικές δεν είναι αρκετά αποτελεσματικές και ακριβείς ώστε να συμβαδίζουν με τη συνεχή ροή νέου περιεχομένου που ανεβάζεται στο διαδίκτυο. Αυτό σημαίνει ότι εναπόκειται στους καταναλωτές διαδικτυακού περιεχομένου να ξεχωρίσουν το πραγματικό από το ψεύτικο, προτείνει το δίδυμο. Η Jelle Wieringa, υπέρμαχος της ευαισθητοποίησης για την ασφάλεια στο KnowBe4, συμφώνησε. Είπε στο Lifewire μέσω email ότι η καταπολέμηση των πραγματικών απομιμήσεων είναι εξαιρετικά δύσκολο να γίνει χωρίς εξειδικευμένη τεχνολογία. «[Mitigating technologies] μπορεί να είναι ακριβό και δύσκολο να εφαρμοστεί σε διαδικασίες σε πραγματικό χρόνο, συχνά ανιχνεύοντας ένα deepfake μόνο εκ των υστέρων.» Με αυτήν την υπόθεση, οι ερευνητές πραγματοποίησαν μια σειρά πειραμάτων για να προσδιορίσουν εάν οι ανθρώπινοι συμμετέχοντες μπορούν να διακρίνουν τα τελευταίας τεχνολογίας συνθετικά πρόσωπα από τα πραγματικά πρόσωπα. Στις δοκιμές τους, διαπίστωσαν ότι παρά την εκπαίδευση για να βοηθήσει στην αναγνώριση των πλαστών, το ποσοστό ακρίβειας βελτιώθηκε μόνο σε 48% αν το ποσοστό αξιοπιστίας ανά έρευνα. θα μπορούσε να βοηθήσει τους ανθρώπους να αναγνωρίσουν τεχνητές εικόνες. Σε μια τρίτη μελέτη, ζήτησαν από τους συμμετέχοντες να αξιολογήσουν την αξιοπιστία των προσώπων, μόνο για να ανακαλύψουν ότι η μέση βαθμολογία για συνθετικά πρόσωπα ήταν 7,7% πιο αξιόπιστη από τη μέση βαθμολογία για πραγματικά πρόσωπα. Ο αριθμός μπορεί να μην ακούγεται πολύ, αλλά οι ερευνητές ισχυρίζονται ότι είναι στατιστικά σημαντικό.
Πιο βαθιά ψεύτικα
Τα βαθιά ψεύτικα αποτελούσαν ήδη μεγάλη ανησυχία και τώρα τα νερά έχουν θολώσει περαιτέρω από αυτή τη μελέτη, η οποία υποδηλώνει ότι τέτοιες υψηλής ποιότητας ψεύτικες εικόνες θα μπορούσαν να προσθέσουν μια εντελώς νέα διάσταση στις διαδικτυακές απάτες, για παράδειγμα, βοηθώντας στη δημιουργία πιο πειστικών διαδικτυακών πλαστών προφίλ. «Το μόνο πράγμα που οδηγεί την ασφάλεια στον κυβερνοχώρο είναι η εμπιστοσύνη που έχουν οι άνθρωποι στις τεχνολογίες, τις διαδικασίες και τους ανθρώπους που προσπαθούν να τις κρατήσουν ασφαλείς», δήλωσε ο Wieringa. «Τα βαθιά ψεύτικα, ειδικά όταν γίνονται φωτορεαλιστικά, υπονομεύουν αυτή την εμπιστοσύνη και, ως εκ τούτου, την υιοθέτηση και την αποδοχή της ασφάλειας στον κυβερνοχώρο. Μπορεί να οδηγήσει σε δυσπιστία των ανθρώπων για όλα όσα αντιλαμβάνονται.»
Ο Chris Hauk, πρωταθλητής προστασίας της ιδιωτικής ζωής των καταναλωτών στο Pixel Privacy, συμφώνησε. Σε μια σύντομη ανταλλαγή email, είπε στο Lifewire ότι το φωτορεαλιστικό βαθύ ψεύτικο θα μπορούσε να προκαλέσει «χάος» στο διαδίκτυο, ειδικά αυτές τις μέρες που είναι δυνατή η πρόσβαση σε όλα τα είδη λογαριασμών χρησιμοποιώντας την τεχνολογία αναγνώρισης φωτογραφίας.
Διορθωτικά μέτρα
Ευτυχώς, ο Greg Kuhn, Διευθυντής IoT, Prosegur Security, λέει ότι υπάρχουν διαδικασίες που μπορούν να αποφύγουν έναν τέτοιο δόλιο έλεγχο ταυτότητας. Είπε στο Lifewire μέσω email ότι τα συστήματα διαπιστευτηρίων που βασίζονται σε AI ταιριάζουν με ένα επαληθευμένο άτομο με μια λίστα, αλλά πολλά έχουν ενσωματωμένες δικλείδες ασφαλείας για τον έλεγχο της «ζωντανής». «Αυτοί οι τύποι συστημάτων μπορούν να απαιτήσουν και να καθοδηγήσουν έναν χρήστη να εκτελέσει ορισμένες εργασίες, όπως να χαμογελάσει ή να γυρίσει το κεφάλι προς τα αριστερά και μετά δεξιά. Αυτά είναι πράγματα που τα στατικά δημιουργημένα πρόσωπα δεν μπορούσαν να εκτελέσουν», μοιράστηκε ο Kuhn. Οι ερευνητές έχουν προτείνει οδηγίες για τη ρύθμιση της δημιουργίας και της διανομής τους για την προστασία του κοινού από τις συνθετικές εικόνες. Για αρχή, προτείνουν την ενσωμάτωση βαθιά ριζωμένων υδατογραφημάτων στα ίδια τα δίκτυα σύνθεσης εικόνας και βίντεο για να διασφαλιστεί ότι όλα τα συνθετικά μέσα μπορούν να αναγνωριστούν αξιόπιστα. Μέχρι τότε, ο Paul Bischoff, υπέρμαχος της ιδιωτικής ζωής και συντάκτης της έρευνας infosec στην Comparitech, λέει ότι οι άνθρωποι είναι μόνοι τους. «Οι άνθρωποι θα πρέπει να μάθουν να μην εμπιστεύονται πρόσωπα στο διαδίκτυο, όπως όλοι (ελπίζουμε) μάθαμε να μην εμπιστευόμαστε τα εμφανιζόμενα ονόματα στα email μας», είπε ο Bischoff στο Lifewire μέσω email.