31.4 C
Athens
Παρασκευή, 21 Ιουνίου, 2024
ΑρχικήΕΠΙΜΟΡΦΩΣΗΠώς να εντοπίσετε ένα deepfake- O δημιουργός ενός εργαλείου ανίχνευσης μοιράζεται τα...

Πώς να εντοπίσετε ένα deepfake- O δημιουργός ενός εργαλείου ανίχνευσης μοιράζεται τα βασικά tips

Έχετε αναρωτηθεί πώς μπορείτε να καταλάβετε αν μία φωτογραφία ή ένα βίντεο έχει δημιουργηθεί μέσω τεχνητής νοημοσύνης;

Η αλήθεια είναι ότι δεν είναι εύκολη διαδικασία, ωστόσο υπάρχουν εργαλεία ανίχνευσης, κατασκευασμένα σε ερευνητικά εργαστήρια, που μπορούν να σας βοηθήσουν.

Για να χρησιμοποιήσετε αυτούς τους ανιχνευτές deepfake φωτογραφιών ή βίντεο, ανεβάζετε  ένα μέρος του υλικού που υποπτεύεστε ότι μπορεί να είναι ψεύτικο και ο ανιχνευτής θα δώσει μια ποσοστιαία πιθανότητα αν δημιουργήθηκε μέσω τεχνητής νοημοσύνης.

Ενώ οι κανονισμοί για τα deepfakes, ιδιαίτερα στις εκλογές, καθυστερούν τον γρήγορο ρυθμό των εξελίξεων της τεχνητής νοημοσύνης, πρέπει να βρούμε τρόπους για να καταλάβουμε εάν μια εικόνα, ο ήχος ή το βίντεο είναι πραγματικά αληθινό.

Ο Siwei Lyu είναι δημιουργός του DeepFake-o-meter, στο Πανεπιστήμιο του Buffalo. Το εργαλείο του είναι ανοιχτού κώδικα και δωρεάν, συγκεντρώνοντας περισσότερους από δώδεκα αλγόριθμους από άλλα ερευνητικά εργαστήρια σε ένα εργαλείο. Οι χρήστες μπορούν να ανεβάσουν τη φωτογραφία, το ηχητικό ή το βίντεο που τους ενδιαφέρει και να ενημερωθούν αν είναι προϊόν τεχνητής νοημοσύνης.

Στόχος του Lyu είναι οι δημοσιογράφοι, οι ερευνητές και οι καθημερινοί χρήστες να μπορούν να ανεβάζουν υλικό για να δουν αν είναι αληθινό. Η ομάδα του εργάζεται στους τρόπους κατάταξης των διαφόρων αλγορίθμων που χρησιμοποιεί για την ανίχνευση για να ενημερώσει τους χρήστες ποιος ανιχνευτής θα λειτουργούσε καλύτερα για την κατάστασή τους.

Ο Lyu μοιράστηκε με τον Guardian μερικές γνωστές περιπτώσεις deepfake από τo πρόσφατο παρελθόν για να δείξει τους τρόπους με τους οποίους μπορούμε να εντοπίσουμε ότι δεν είναι αληθινά.

«Πρέπει να υπάρχει ένας άνθρωπος – χειριστής για να κάνει την ανάλυση», είπε. «Νομίζω ότι είναι κρίσιμο να υπάρχει συνεργασία ανθρώπου-αλγορίθμου. Τα Deepfakes είναι ένα κοινωνικό-τεχνολογικό πρόβλημα. Δεν πρόκειται να λυθεί αποκλειστικά από την τεχνολογία. Πρέπει να έχει μια διεπαφή με τους ανθρώπους».

Ήχος

Μια ρομποτική κλήση που κυκλοφόρησε στο Νιου Χάμσαϊρ χρησιμοποιώντας τη φωνή του προέδρου Τζο Μπάιντεν κα δημιουργήθηκε από την τεχνητή νοημοσύνη, ενθάρρυνε τους ψηφοφόρους να μην προσέλθουν στις προκριματικές εκλογές των Δημοκρατικών. Πρόκειται για μια από τις πρώτες σημαντικές περιπτώσεις deepfake στις φετινές αμερικανικές εκλογές.

 

Όταν η ομάδα του Lyu επεξεργάστηκε ένα σύντομο απόσπασμα της κλήσης μέσω πέντε αλγορίθμων στο DeepFake-o-meter, οι τέσσερις έδειξαν ότι πρόκειται για deepfake.

Είναι πιο δύσκολο να ξεχωρίσει κανείς τα ηχητικά αρχεία, επειδή βασίζεται αποκλειστικά στην ακοή του.

Αλλά υπάρχουν κάποιες ενδείξεις σε αυτό το ηχητικό, και γενικά στα deepfakes ήχου, που πρέπει να προσέξετε.

Ο ήχος που δημιουργείται από την τεχνητή νοημοσύνη έχει συχνά πιο επίπεδο γενικό τόνο και δεν μοιάζει με τον τρόπο που μιλάμε συνήθως, αναφέρει ο Lyu. Δεν ακούς πολλά συναισθήματα. Μπορεί να μην υπάρχουν σωστοί αναπνευστικοί ήχοι, όπως όταν παίρνετε μια αναπνοή πριν μιλήσετε.

Δώστε προσοχή και στους θορύβους του φόντου. Μερικές φορές δεν υπάρχουν θόρυβοι περιβάλλοντος όταν θα έπρεπε. Ή, στην περίπτωση αυτής της κλήσης, υπάρχει πολύς θόρυβος στο παρασκήνιο, σχεδόν για να δώσει έναν αέρα πραγματικότητας που τελικά ακούγεται αφύσικος.

Φωτογραφίες

Με τις φωτογραφίες, βοηθάει να κάνετε μεγέθυνση και να εξετάζετε προσεκτικά για τυχόν «ασυνέπειες», όπως κτίρια με στραβές γραμμές ή χέρια με έξι δάχτυλα, σχολιάζει ο Lyu. Μικρές λεπτομέρειες όπως τα μαλλιά, τα στόματα και οι σκιές μπορούν να σας δώσουν ενδείξεις για το αν κάτι είναι αληθινό.

Πώς να εντοπίσετε ένα deepfake- O δημιουργός ενός εργαλείου ανίχνευσης μοιράζεται τα βασικά tips

Ένα παράδειγμα είναι οι φωτογραφίες του Τραμπ με τους μαύρους ψηφοφόρους που μια έρευνα του BBC διαπίστωσε ότι είχαν δημιουργηθεί από AI.

Η ομάδα του Lyu παρατήρησε αφύσικες περιοχές γύρω από το λαιμό και το πηγούνι του Tραμπ, ενώ τα δόντια των ανθρώπων ήταν πολύ αραιά.

Πέρα από αυτές τις οπτικές αλλοιώσεις, οι εικόνες που δημιουργούνται από AI φαίνονται πολύ γυαλιστερές σε πολλές περιπτώσεις.

«Είναι πολύ δύσκολο να το θέσουμε με ποσοτικούς όρους, αλλά υπάρχει αυτή η συνολική άποψη και εμφάνιση ότι η εικόνα φαίνεται πολύ πλαστική ή σαν πίνακας», είπε ο Lyu.

Βίντεο

Τα βίντεο, ειδικά αυτά των ανθρώπων, είναι πιο δύσκολο να παραποιηθούν σε σχέση με τις φωτογραφίες ή τον ήχο.

Για τη δοκιμή, ο Guardian έστειλε ένα deepfake βίντεο του Ουκρανού προέδρου Βολοντίμιρ Ζελένσκι που τον δείχνει να λέει στις ένοπλες δυνάμεις του να παραδοθούν στη Ρωσία, κάτι που δεν συνέβη.

Οι οπτικές ενδείξεις στο βίντεο περιλαμβάνουν αφύσικο βλέμμα με pixel, ανέφερε η ομάδα του Lyu. Οι άκρες του κεφαλιού του Ζελένσκι δεν είναι πολύ σωστές, είναι οδοντωτές και με εικονοστοιχεία, σημάδι ψηφιακής παραποίησης.

Μερικοί από τους αλγόριθμους ανίχνευσης εστιάζουν συγκεκριμένα στα χείλη, επειδή τα τρέχοντα εργαλεία βίντεο AI θα αλλάξουν κυρίως τα χείλη για να πουν πράγματα που δεν είπε κάποιος. Στα χείλη είναι που εντοπίζονται οι περισσότερες ασυνέπειες. Ένα παράδειγμα θα ήταν εάν ένας ήχος γράμματος που απαιτεί το χείλος να είναι κλειστό, όπως ένα B ή ένα P, αλλά το στόμα του deepfake δεν είναι εντελώς κλειστό, είπε ο Lyu. Όταν το στόμα είναι ανοιχτό, τα δόντια και η γλώσσα φαίνονται, είπε.

 

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ
Captcha verification failed!
Η βαθμολογία χρήστη captcha απέτυχε. Παρακαλώ επικοινωνήστε μαζί μας!
echo ‘’ ;