Πώς οι πλαστογραφίες με τεχνητή νοημοσύνη μετατρέπουν τις δορυφορικές εικόνες σε παραπληροφόρηση για τον πόλεμο

Τροποποιημένες εικόνες από επιθέσεις κυκλοφορούν καθώς οι μάχες εντείνονται σε όλη τη Μέση Ανατολή

Δορυφορικές εικόνες που φαίνεται να έχουν δημιουργηθεί ή τροποποιηθεί με τεχνητή νοημοσύνη μοιράστηκαν ευρέως στα μέσα κοινωνικής δικτύωσης το Σαββατοκύριακο, υπογραμμίζοντας τους κινδύνους της τεχνολογίας ως πιθανό μέσο παραπληροφόρησης σε καιρό πολέμου.

Μια εικόνα που κυκλοφόρησε στο X — συμπεριλαμβανομένης μιας ανάρτησης από τον επίσημο λογαριασμό της ιρανικής εφημερίδας Tehran Times — δείχνει μια δορυφορική εικόνα που ισχυρίζεται ότι απεικονίζει ζημιές σε ένα αμερικανικό ραντάρ στο Κατάρ μετά από μια ιρανική επίθεση με drone.

Η ανάλυση της FT αποκαλύπτει ότι πρόκειται για μια εικόνα που έχει τροποποιηθεί με AI από μια περιοχή στο Μπαχρέιν. Βίντεο που έχουν επαληθευτεί από την FT δείχνουν αρκετές επιθέσεις κοντά στο ραντάρ, και δορυφορικές εικόνες που τραβήχτηκαν από την Planet Labs την 1η Μαρτίου επιβεβαιώνουν ότι η περιοχή έχει υποστεί ζημιές.

Ωστόσο, η εικόνα του κατεστραμμένου ραντάρ παρουσιάζει σημάδια παραποίησης: οχήματα που εμφανίζονταν στη φωτογραφία «πριν» που τραβήχτηκε πριν από περισσότερο από ένα χρόνο παραμένουν στην ίδια θέση, οι σκιές πέφτουν ακριβώς στην ίδια γωνία με την προηγούμενη εικόνα και τμήματα της δομής του κτιρίου έχουν τροποποιηθεί. Ιστορικές δορυφορικές εικόνες δεν δείχνουν δομικές αλλαγές στην περιοχή εδώ και πολλά χρόνια.

Κατά τη στιγμή της δημοσίευσης, η ανάρτηση της Tehran Times είχε σχεδόν 1 εκατομμύριο προβολές, μοιράστηκε χιλιάδες φορές και παρέμεινε online για περισσότερο από 48 ώρες μετά τη δημοσίευσή της. Η FT εντόπισε περιπτώσεις όπου η εικόνα μοιράστηκε σε άλλες πλατφόρμες κοινωνικών μέσων και ιστότοπους.

Το επεισόδιο αντανακλά μια ευρύτερη αλλαγή στον πόλεμο της πληροφορίας, καθώς η γενετική τεχνητή νοημοσύνη καθιστά ευκολότερο το να κατασκευάζονται πειστικές οπτικές αποδείξεις και δυσκολότερο για το κοινό να διακρίνει μεταξύ τεκμηρίωσης και εξαπάτησης.

Σε απάντηση στην έξαρση των ψεύτικων βίντεο που κυκλοφορούν στην πλατφόρμα, η επικεφαλής προϊόντων της X, Nikita Bier, δημοσίευσε την Τρίτη ότι η εταιρεία θα εντείνει τις προσπάθειές της για τον περιορισμό του περιεχομένου που δημιουργείται από τεχνητή νοημοσύνη. Οι χρήστες που μοιράζονται υλικό χωρίς την κατάλληλη γνωστοποίηση θα αποκλείονται από την απόκτηση εσόδων για 90 ημέρες, ενώ οι επαναλαμβανόμενοι παραβάτες θα αντιμετωπίζουν μόνιμη αναστολή, δήλωσε η Bier.

Ο Brady Africk, ανεξάρτητος ερευνητής ανοιχτού κώδικα και διευθυντής δημοσίων σχέσεων στο American Enterprise Institute, δήλωσε ότι οι άνθρωποι τείνουν να εμπιστεύονται τις δορυφορικές εικόνες ως πηγή αλήθειας λόγω της πολύπλοκης τεχνολογίας που απαιτείται για τη λήψη τους.

«Οι δορυφορικές εικόνες μπορούν να παραποιηθούν όπως και άλλες εικόνες. Η τεχνητή νοημοσύνη έχει κάνει αυτό το έργο πολύ πιο εύκολο και αποτελεί σημαντική απειλή για τους ανθρώπους που προσπαθούν να βρουν πληροφορίες στο διαδίκτυο», δήλωσε ο Africk. Πρόσθεσε ότι ανησυχεί ότι η ταχεία βελτίωση αυτών των μοντέλων θα κάνει τα ψεύτικα πιο δύσκολο να εντοπιστούν σε μελλοντικές συγκρούσεις.

Δορυφορικές εικόνες

Η δυσκολία στην αναγνώριση μιας παραποιημένης δορυφορικής εικόνας, σε σύγκριση με ένα deepfake ενός ατόμου, είναι η «έλλειψη βιομετρικών στοιχείων», σύμφωνα με τον Henk van Ess, εμπειρογνώμονα σε μεθόδους διαδικτυακής έρευνας και συγγραφέα του ενημερωτικού δελτίου Digital Digging.

«Σε ένα πρόσωπο, μπορείς να αναζητήσεις περίεργο ανοιγοκλείσιμο των ματιών, αφύσικη υφή δέρματος, παραμορφωμένα αυτιά», είπε. «Σε μια δορυφορική εικόνα, κοιτάς κτίρια, δρόμους, έδαφος — πράγματα που δεν έχουν αυτά τα εγγενή χαρακτηριστικά. Και οι περισσότεροι άνθρωποι δεν έχουν ιδέα πώς πρέπει να μοιάζει μια γνήσια δορυφορική εικόνα από έναν συγκεκριμένο αισθητήρα σε μια συγκεκριμένη ανάλυση», είπε.

«Η βασική αλλαγή είναι η εξής: παλαιότερα χρειαζόταν μια κρατική υπηρεσία πληροφοριών με δεξιότητες στο Photoshop για να παραποιήσει μια δορυφορική εικόνα. Τώρα, οποιοσδήποτε έχει πρόσβαση σε ελεύθερα διαθέσιμα εργαλεία τεχνητής νοημοσύνης μπορεί να δημιουργήσει κάτι αρκετά πειστικό για να ξεγελάσει τους περιστασιακούς θεατές και να επηρεάσει τις αγορές. Το εμπόδιο έχει καταρρεύσει», πρόσθεσε ο van Ess.

Μια άλλη ευρέως διαδεδομένη εικόνα που έχει τροποποιηθεί με τεχνητή νοημοσύνη φαίνεται να είναι μια αναβαθμισμένη, έγχρωμη έκδοση μιας ασπρόμαυρης εικόνας που τραβήχτηκε από την αεροδιαστημική εταιρεία Airbus. Δεν είναι σαφές από πού προέρχεται η παραποιημένη εικόνα. Η εικόνα φέρει υδατογράφημα με το όνομα MizarVision, μιας κινεζικής νεοφυούς εταιρείας που ασχολείται με το διάστημα και έχει δημοσιεύσει τις τελευταίες εβδομάδες δορυφορικές φωτογραφίες της στρατιωτικής συγκέντρωσης των ΗΠΑ στη Μέση Ανατολή, αλλά η εικόνα δεν εμφανίζεται στις σελίδες της εταιρείας στα μέσα κοινωνικής δικτύωσης.

Η επίσημη σελίδα της MizarVision φέρει επί του παρόντος προειδοποίηση σχετικά με λογαριασμούς στα μέσα κοινωνικής δικτύωσης που ισχυρίζονται ότι διανέμουν τις εικόνες της.

Η MizarVision και η Tehran Times δεν απάντησαν στα αιτήματα για σχόλια.

Η χρήση τεχνητής νοημοσύνης για την προσθήκη χρώματος σε δορυφορικές εικόνες μπορεί να αλλάξει ελαφρώς τον τρόπο με τον οποίο οι άνθρωποι βλέπουν τη σκηνή, εισάγοντας διαφορές που μπορεί να μην υπάρχουν στην πραγματικότητα, σύμφωνα με τον Bo Zhao, καθηγητή ψηφιακής γεωγραφίας στο Πανεπιστήμιο της Ουάσιγκτον.

«Οι ασπρόμαυρες εικόνες δεν περιέχουν λεπτομέρειες και προοπτική των πραγμάτων ή διαφορές στο έδαφος», εξήγησε ο Zhao. «Με το χρώμα, γίνεται ευκολότερο να διακρίνουμε τις διαφορές».

Δορυφορικές εικόνες

Άλλα μέσα που έχουν δημιουργηθεί με τεχνητή νοημοσύνη έχουν επίσης διαδοθεί ευρέως, συμπεριλαμβανομένης μιας εικόνας που υπογραμμίζει τις φερόμενες ζημιές σε μια αμερικανική βάση κοντά στο Ερμπίλ του Ιράκ. Η εικόνα που έχει βελτιωθεί με τεχνητή νοημοσύνη δείχνει μια σφοδρή πυρκαγιά και ένα τεράστιο σύννεφο καπνού και πάλι περιέχει δομικές ασυνέπειες σε σύγκριση με πρόσφατες εικόνες που έχουν ληφθεί σε εκείνη την τοποθεσία.

Μια ανάρτηση που ισχυρίζεται ότι δείχνει το σώμα του ανώτατου ηγέτη του Ιράν, Αγιατολάχ Αλί Χαμενεΐ, να βγαίνει από τα ερείπια έχει μοιραστεί, αλλά παραμένει ανεπιβεβαίωτη και φαίνεται επίσης να έχει δημιουργηθεί με τεχνητή νοημοσύνη.

Ο конфлиκτος στη Μέση Ανατολή δεν είναι ο πρώτος πόλεμος που επηρεάζεται από την παραπληροφόρηση που προκαλείται από την τεχνητή νοημοσύνη. Υπήρξαν αναφορές για ψεύτικες δορυφορικές εικόνες μετά τον τετραήμερο конфлиκτο μεταξύ Ινδίας και Πακιστάν πέρυσι και παρόμοιες ισχυρισμοί έχουν γίνει κατά τη διάρκεια του πολέμου μεταξύ Ουκρανίας και Ρωσίας.

«Νομίζω ότι είναι σε μεγάλο βαθμό θέμα εκπαίδευσης και ευαισθητοποίησης, ώστε όσο το δυνατόν περισσότεροι άνθρωποι να γνωρίζουν τους τρόπους με τους οποίους μπορούν να χειραγωγηθούν τα ψηφιακά μέσα», δήλωσε ο Africk. «Οι άνθρωποι πρέπει να είναι πολύ αποφασιστικοί στην αναζήτηση αξιόπιστων πηγών που λειτουργούν υπό το βλέμμα του κοινού και το κάνουν με υπευθυνότητα».

 

Πρόσθετη αναφορά από τον Chris Cook

Απόδοση – Επιμέλεια: Τατιανή Σάγιεχ

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο