Δευτέρα 30 Οκτωβρίου 2023

Ισραήλ: Ο... απρόσμενος ρόλος της Τεχνητής Νοημοσύνης και η αναζήτηση της αλήθειας


Με έναν... απρόσμενο τρόπο επηρεάζει η αλματώδης πρόοδος που έχει σημειώσει τα τελευταία χρόνια η Τεχνητή Νοημοσύνη τον τρόπο που αντιδρά η κοινή γνώμη στις πληροφορίες που λαμβάνει για τον πόλεμο στο Ισράηλ, σύμφωνα με ανάλυση που δημοσιεύουν οι New York Times. Το επίμαχο άρθρο ξεκινά παραθέτοντας το παράδειγμα μιας φρικιαστικής εικόνας που κυκλοφόρησε στο διαδίκτυο και έδειχνε το απανθρακωμένο σώμα ενός παιδιού που έχασε τη ζωή του τις πρώτες μέρες της σύγκρουσης ανάμεσα στο Ισραήλ και τη Χαμάς. Ορισμένοι σχολιαστές στα μέσα κοινωνικής δικτύωσης έσπευσαν να την απορρίψουν ως «ψεύτικη εικόνα που δημιουργήθηκε μέσω AI», δηλαδή μέσω εργαλείων τεχνητής νοημοσύνης που μπορούν να παράγουν φωτορεαλιστικές εικόνες με λίγα μόνο κλικ.

Αρκετοί ειδικοί σε θέματα Α.Ι. έχουν έκτοτε αποφανθεί ότι πιθανότατα δεν χρησιμοποιήθηκε τεχνολογία AI για τη συγκεκριμένη εικόνα. Το πρόβλήμα είναι ότι οι αμφιβολίες για την αυθεντικότητά της είχαν ήδη εξαπλωθεί στο διαδίκτυο.

Από την τρομοκρατική επίθεση της Χαμάς εναντίον του Ισραήλ στις 7 Οκτωβρίου, παρατηρητές κατά της παραπληροφόρησης είχαν εκφράσει φόβους ότι ψεύτικες εικόνες που δημιουργούνται μέσω εργαλείων ΑΙ - συμπεριλαμβανομένων των ρεαλιστικών απεικονίσεων που είναι γνωστές ως deepfakes - θα μπορούσαν να χρησιμοποιηθούν για την πρόκληση σύγχυσης στο κοινό και για λόγους προπαγάνδας. Μέχρι στιγμής, έχουν δικαιωθεί ως προς την πρόβλεψή τους ότι η τεχνολογία θα έπαιζε καίριο ρόλο στη διαμόρφωση της κοινής γνώμης για τον πόλεμο - αλλά όχι ακριβώς για τον λόγο που πίστευαν.



Έρευνες για υλικό παραπληροφόρησης στο διαδίκτυο έχουν δείξει μέχρι στιγμής ότι οι fake εικόνες που έχουν δημιουργηθεί μέσω AI για τον πόλεμο είναι σχετικά λίγες και όχι ιδιαίτερα πειστικές. Ωστόσο, η πιθανότητα και μόνο να κυκλοφορεί περιεχόμενο Α.Ι. κάνει τους ανθρώπους να απορρίπτουν γνήσιες εικόνες, βίντεο και ηχητικά ντοκουμέντα ως fakes.

Σε φόρουμ και πλατφόρμες κοινωνικής δικτύωσης όπως το X, το Truth Social, το Telegram και το Reddit, σχολιαστές κατηγορούν πολιτικά πρόσωπα, μέσα ενημέρωσης και άλλους χρήστες ότι προσπαθούν να χειραγωγήσουν την κοινή γνώμη δημιουργώντας περιεχόμενο Α.Ι., ακόμη και όταν το επίμαχο υλικό είναι σχεδόν σίγουρα αυθεντικό.

«Ακόμη και με τα πρότυπα της "ομίχλης του πολέμου" που έχουμε συνηθίσει, αυτή η σύγκρουση είναι ιδιαίτερα μπερδεμένη», λέει ο Χάνι Φαρίντ, καθηγητής πληροφορικής στο Πανεπιστήμιο της Καλιφόρνιας στο Μπέρκλεϊ και ειδικός στην ψηφιακή εγκληματολογία, την Τεχνητή Νοημοσύνη και την παραπληροφόρηση. «H σκιά των deepfakes είναι πολύ, πολύ πιο βαριά τώρα - δεν χρειάζονται δεκάδες χιλιάδες, αρκούν λίγα για να εξαπλωθεί η αμφιβολία και τα πάντα να φαντάζουν ύποπτα».



Η τεχνολογία της Τεχνητής Νοημοσύνης έχει βελτιωθεί σημαντικά τον τελευταίο χρόνο, και πλέον μπορεί σχεδόν οποιοσδήποτε να δημιουργήσει ένα πειστικό fake εισάγοντας κείμενο σε δημοφιλείς «γεννήτριες» εικόνων, βίντεο ή ήχου - ή χρησιμοποιώντας πιο εξελιγμένα εργαλεία. Όταν κυκλοφόρησε ένα deepfake βίντεο του προέδρου της Ουκρανίας Βολοντίμιρ Ζελένσκι την άνοιξη του 2022, χλευάστηκε ευρέως ως πολύ κακοφτιαγμένο για να είναι αληθινό.

Αντίθετα, ένα παρόμοιο ψεύτικο βίντεο του προέδρου της Ρωσίας Βλαντίμιρ Πούτιν ήταν αρκετά πειστικό ώστε να το μεταδώσουν αρκετά ρωσικά ραδιοφωνικά και τηλεοπτικά δίκτυα τον περασμένο Ιούνιο.

«Τι συμβαίνει όταν κυριολεκτικά ό,τι ψηφιακό βλέπεις θα μπορούσε να είναι ψεύτικο;» διερωτήθηκε ο Μπιλ Μαρσελίνο, αναλυτής συμπεριφοράς και ειδικός σε θέματα AI της ερευνητικής ομάδα RAND Corporation σε πρόσφατη συνέντευξη Τύπου του, επισημαίνοντας ότι έχει επέλθει μια αλλαγή-ορόσημο στον τρόπο που εμπιστευόμαστε ή απορρίπτουμε τις πληροφορίες που λαμβάνουμε.



Εν μέσω ιδιαίτερα φορτισμένων συζητήσεων για τον πόλεμο στο Ισραήλ, πολλές από τις οποίες διεξάγονται σε πλατφόρμες κοινωνικής δικτύωσης που προσπαθούν να προστατεύσουν τους χρήστες τους από σοκαριστικό και ανακριβές περιεχόμενο, η εμπιστοσύνη συνεχίζει να «ξεφτίζει». Και τώρα, οι ειδικοί πιστεύουν ότι κακόβουλες οντότητες εκμεταλλεύονται τη διαθεσιμότητα της τεχνητής νοημοσύνης για να σπείρουν αμφιβολίες για γνήσιο υλικό. Η προσπάθειά τους αυτή ενισχύεται από την υπαρξη υλικού που όντως έχει δημιουργηθεί μέσω τεχνολογίας AI.

Μια ανάρτηση στο «X» με 1,8 εκατομμύρια προβολές υποτίθεται ότι έδειχνε οπαδούς ποδοσφαίρου σε γήπεδο της Μαδρίτης να κρατούν μια τεράστια παλαιστινιακή σημαία. Χρήστες της πλατφόρμας επισήμαναν ότι τα παραμορφωμένα σώματα στην εικόνα «πρόδιδαν» ότι δημιουργήθηκε με χρήση τεχνητής νοημοσύνης. Ένας λογαριασμός που συνδέεται με τη Χαμάς στο «X» κοινοποίησε μια εικόνα που υποτίθεται ότι έδειχνε έναν καταυλισμό για εκτοπισμένους Ισραηλινούς, όμως η ισραηλινή σημαία απεικονιζόταν με δύο μπλε αστέρια αντί για ένα. Η ανάρτηση αφαιρέθηκε αργότερα. Λογαριασμοί στο Truth Social και ένα κανάλι στο Telegram που συνδέεται με τη Χαμάς μοιράστηκαν εικόνες του Μπενιαμίν Νετανιάχου που ήταν δήθεν καλυμμένος με αίμα.

Πολύ περισσότερη προσοχή δόθηκε σε «ύποπτο» υλικό που δεν έφερε σημάδια παρεμβάσεων μέσω AI, όπως το βίντεο με τον διευθυντή ενός βομβαρδισμένου νοσοκομείου στη Γάζα να δίνει συνέντευξη Τύπου, που κάποιοι χαρακτήρισαν fake αλλά είχε καταγραφεί από διαφορετικές οπτικές γωνίες από πολλές πηγές.

Άλλα παραδείγματα ήταν πιο δύσκολο να κατηγοριοποιηθούν: Ο ισραηλινός στρατός έδωσε στη δημοσιότητα μια ηχογραφημένη συνομιλία μεταξύ δύο μελών της Χαμάς, την οποία είπε ότι υπέκλεψε. Υπάρχουν ωστόσο σχολιαστές στα social media που εξέφρασαν αμφιβολία για την αυθεντικότητά της, ενώ δίκτυα όπως το BBC και το CNN την αναπαρήγαγαν χωρίς να επιβεβαιώνουν ότι το ηχητικό ντοκουμέντο ήταν γνήσιο.






Σε μια προσπάθεια να ξεχωρίσουν την αλήθεια από την τεχνητή νοημοσύνη, ορισμένοι χρήστες των μέσων κοινωνικής δικτύωσης στράφηκαν σε εργαλεία ανίχνευσης, τα οποία ισχυρίζονται ότι εντοπίζουν την ψηφιακή χειραγώγηση, αλλά έχουν αποδειχθεί κάθε άλλο παρά αξιόπιστα. Μια δοκιμή από τους Times διαπίστωσε ότι οι ανιχνευτές εικόνων είχαν προβληματικές επιδόσεις στο παρελθόν, με λάθος «διαγνώσεις» τόσο για γνήσιες όσο και για fake φωτογραφίες.

Οι διαθέσιμες υπηρεσίες ανίχνευσης Α.Ι. θα μπορούσαν ενδεχομένως να είναι χρήσιμες ως μέρος μιας ευρύτερης σουίτας εργαλείων, αλλά είναι επικίνδυνες όταν αντιμετωπίζονται ως η "τελευταία λέξη" για την αυθεντικότητα του περιεχομένου, εξηγεί ο Χένρι Άτζερ, ειδικός στην χειραγώγηση περιεχομένου. Σύμφωνα με τον ίδιο, τα εργαλεία ανίχνευσης Deepfake δεν είναι παρά μια ψεύτικη λύση «σε ένα πολύ πιο σύνθετο και δυσεπίλυτο πρόβλημα».



Προς το παρόν, πάντως, οι χρήστες των μέσων κοινωνικής δικτύωσης που επιδιώκουν να εξαπατήσουν το κοινό βασίζονται λιγότερο σε φωτορεαλιστικές εικόνες τεχνητής νοημοσύνης και περισσότερο σε παλιό υλικό από προηγούμενες συγκρούσεις ή καταστροφές, το οποίο παρουσιάζουν ψευδώς ως την τρέχουσα κατάσταση στη Γάζα, λέει ο Άλεξ Μαχαντέβαν, διευθυντής του προγράμματος MediaWise για την εκπαίδευση στα μέσα ενημέρωσης, σημειώνοντας ότι τελικά δεν παίζει και τόσο σημαντικό ρόλο η «ποιότητα» της εξαπάτησης ή η καινοτομία της.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Αρχειοθήκη ιστολογίου