Τα deepfakes αναπτύσσονται ταχύτερα απ’ ό,τι μπορούμε να κατανοήσουμε

Παγκόσμια διαμάχη για την τεχνολογία «Deepfakes»-Τι είναι και πως να τα αναγνωρίσετε

by Times Newsroom

Στο επίκεντρο του ενδιαφέροντος όσων ασχολούνται συστηματικά με το Διαδίκτυο, βρίσκονται σταθερά τα “Deepfakes”, με τη διαμάχη που εξελίσσεται γύρω από αυτά να παίρνει παγκόσμιες διαστάσεις. Διεθνώς, υπάρχει μια τάση ρύθμισης των deepfakes, η οποία, ωστόσο, εγείρει και πολλές αντιδράσεις.

Πρόσφατα η Google απαγόρευσε τους deepfake αλγόριθμους από το Google Colaboratory, τη δωρεάν υπηρεσία υπολογιστών της με πρόσβαση σε GPU. Ταυτόχρονα, αρκετές πολιτείες των ΗΠΑ έχουν θεσπίσει νόμους που τα ρυθμίζουν, σχέδιο νόμου της Κίνας απαιτεί αναγνώριση Μέσων, που δημιουργούνται από υπολογιστή και ο αναμενόμενος κανονισμός της Ε.Ε. για την τεχνητή νοημοσύνη μπορεί να περιλαμβάνει μια ρήτρα για τη συγκεκριμένη τεχνολογία.

Τα “Deepfakes”, σύμφωνα με τους ειδικούς της Kaspersky, αναφέρονται συνήθως σε διάφορα είδη συνθετικών Μέσων, που δημιουργούνται από υπολογιστή και περιλαμβάνουν άτομα, ενώ είναι κατασκευασμένα με βαθιά νευρωνικά δίκτυα. Αυτά μπορεί να είναι βίντεο, φωτογραφίες ή ηχογραφήσεις. Η χρήση της βαθιάς μάθησης, αντί των παραδοσιακών τεχνικών επεξεργασίας εικόνων, μειώνει δραστικά την προσπάθεια και την ικανότητα που απαιτείται για τη δημιουργία ενός πειστικού ψεύτικου.

Διάφοροι ειδικοί και ιδρύματα, όπως η Europol προειδοποιούν ότι η αυξανόμενη διαθεσιμότητα των deepfakes μπορεί να οδηγήσει σε περαιτέρω εξάπλωση της παραπληροφόρησης στο Διαδίκτυο.

Καταχρήσεις και εκβιασμοί

Αρχικά, ο όρος αναφερόταν σε ένα συγκεκριμένο κομμάτι λογισμικού, που είχε αποκτήσει δημοτικότητα στο Reddit. Το λογισμικό, το οποίο μπορούσε να “εισάγει” το πρόσωπο ενός ατόμου σε ένα βίντεο με ένα άλλο άτομο, χρησιμοποιήθηκε σχεδόν εξ ολοκλήρου για τη δημιουργία μη συναινετικού πορνό με διασημότητες.

Σύμφωνα με ορισμένες εκτιμήσεις, έως και το 96% του συνόλου των deepfakes είναι πορνογραφικά, υπογραμμίζοντας τις ανησυχίες σχετικά με τα deepfakes που χρησιμοποιούνται για κατάχρηση, εκβιασμό και δημόσια έκθεση.

Η τεχνολογία των deepfakes θα μπορούσε, επίσης, να βοηθήσει τους εγκληματίες του κυβερνοχώρου. Σε τουλάχιστον δύο περιπτώσεις, στην Αγγλία και το Χονγκ Κονγκ, έχει χρησιμοποιηθεί ένα deepfake φωνής για να εξαπατήσει εταιρείες να μεταφέρουν κεφάλαια σε απατεώνες, παριστάνοντας υπαλλήλους των αντίστοιχων εταιρειών.

Πρόσφατη έρευνα έδειξε ότι οι εμπορικοί αλγόριθμοι ανίχνευσης “ζωντάνιας”, που χρησιμοποιούνται από χρηματοπιστωτικά ιδρύματα στις διαδικασίες KYC (ταυτοποίηση στοιχείων), θα μπορούσαν να εξαπατηθούν από deepfakes, που δημιουργήθηκαν από φωτογραφίες ταυτότητας, δημιουργώντας νέα διανύσματα επίθεσης και καθιστώντας τις ταυτότητες που διέρρευσαν ένα ακόμη πιο σοβαρό ζήτημα.

Ένα άλλο ζήτημα είναι ότι τα deepfakes υπονομεύουν την εμπιστοσύνη στο περιεχόμενο ήχου και βίντεο, καθώς μπορούν να χρησιμοποιηθούν για κακόβουλους σκοπούς. Για παράδειγμα, σε μια πρόσφατη περίπτωση, μια ψεύτικη συνέντευξη του Έλον Μασκ χρησιμοποιήθηκε για την προώθηση μιας απάτης με κρυπτονομίσματα.

Θετική πλευρά

Δεν είναι όλα τα νέα άσχημα. Ο χειρισμός της εικόνας είναι τόσο παλιός, όσο και οι ίδιες οι εικόνες και το CGI υπάρχει εδώ και δεκαετίες, και τα δύο χρησιμοποιούνται ευρέως, όπως και τα deepfakes. Για παράδειγμα, σε ένα πρόσφατο βίντεο του Kendrick Lamar, Heart Part 5, η τεχνολογία deepfake χρησιμοποιήθηκε για να μεταμορφώσει το πρόσωπο του ράπερ σε άλλες διάσημες προσωπικότητες, όπως ο Kanye West.

Στην ταινία Top Gun: Maverick, χρησιμοποιήθηκε ένας αλγόριθμος για τη φωνή του χαρακτήρα του Val Kilmer, αφότου ο ηθοποιός έχασε τη φωνή του. Ένας αλγόριθμος deepfake χρησιμοποιήθηκε, επίσης, για τη δημιουργία μιας viral σειράς TikTok με πρωταγωνιστή τον ψεύτικο Tom Cruise.

Και μερικές νεοσύστατες επιχειρήσεις αναζητούν νέους τρόπους για να χρησιμοποιήσουν την τεχνολογία, για παράδειγμα, για να δημιουργήσουν ρεαλιστικά avatars.

Πως να τα ξεχωρίσετε

Με όλα τα ζητήματα εμπιστοσύνης, που αφορούν τα deepfakes, οι χρήστες μπορούν να αναρωτηθούν πώς να εντοπίσουν ένα deepfake. Ακολουθούν μερικές βασικές συμβουλές:

“- Ένα πειστικό deepfake, όπως αυτό με τον Tom Cruise, απαιτεί ακόμα πολλή εξειδίκευση και προσπάθεια – και μερικές φορές ακόμη κι έναν επαγγελματία, που θα αναλάβει τη μίμηση. Τα deepfakes, που χρησιμοποιούνται για απάτες, εξακολουθούν να είναι χαμηλής ποιότητας και μπορούν να εντοπιστούν παρατηρώντας αφύσικες κινήσεις των χειλιών, αφύσικα μαλλιά, αταίριαστα σχήματα προσώπου, ελάχιστα έως καθόλου βλεφαρίσματα, αναντιστοιχίες στο χρώμα του δέρματος. Λάθη στην απόδοση των ρούχων ή ένα χέρι, που περνάει πάνω από το πρόσωπο, μπορούν επίσης να προδώσουν ένα ερασιτεχνικό deepfake.

– Αν δείτε ένα διάσημο ή δημόσιο πρόσωπο να προβαίνει σε υπερβολικά αμφιλεγόμενες δηλώσεις ή προσφορές, που είναι πολύ καλές για να είναι αληθινές, ακόμα κι αν το βίντεο είναι πειστικό, προχωρήστε με τη δέουσα επιμέλεια και διασταυρώστε τις πληροφορίες με αξιόπιστες πηγές. Οι απατεώνες μπορούν σκόπιμα να κωδικοποιούν τα βίντεο για να κρύψουν τις ανεπάρκειες των deepfakes, επομένως η καλύτερη στρατηγική δεν είναι να κοιτάζετε το βίντεο αναζητώντας ενδείξεις, αλλά να χρησιμοποιείτε την κοινή λογική και τις δεξιότητες σας στον έλεγχο γεγονότων.

– Μια αξιόπιστη λύση ασφαλείας μπορεί να παρέχει την κατάλληλη υποστήριξη, εάν ένα deepfake υψηλής ποιότητας πείσει τους χρήστες να πραγματοποιήσουν λήψη τυχόν κακόβουλων αρχείων ή προγραμμάτων ή να επισκεφτούν τυχόν ύποπτους συνδέσμους ή ιστότοπους phishing”.

Πηγή: http://www.sepe.gr/

Σχετικά Άρθρα

Αυτή η ιστοσελίδα χρησιμοποιεί cookies για να βελτιώσει την εμπειρία σας. Συνεχίζοντας την περιήγησή σας, δίνετε την συγκατάθεσή σας για την χρήση των cookies. Aποδοχή