Η Δύση ισχυρίζεται πως η Ρωσία χρησιμοποιεί τα ίδια της τα όπλα προκειμένου να παραποιεί ή να κατασκευάζει ειδήσεις οι οποίες σχετίζονται με τον πόλεμο στην Ουκρανία, εν μέσω επέλασης των δυνάμεων της Μόσχας.
Σύμφωνα με το Al Jazeera, η NewsGuard, μια εταιρεία που παρακολουθεί τα fake news, δημοσίευσε τον Μάρτιο μια έκθεση που ισχυριζόταν ότι τα εργαλεία γενικής τεχνητής νοημοσύνης, όπως το ChatGPT, ενίσχυαν την παραπληροφόρηση στην οποία επιδίδεται η Ρωσία.
Η NewsGuard εξέτασε κορυφαία chatbots χρησιμοποιώντας εντολές βασισμένες σε ιστορίες από το δίκτυο Pravda – μια ομάδα φιλορωσικών ιστοσελίδων που μιμούνταν νόμιμα μέσα ενημέρωσης, τα οποία εντοπίστηκαν για πρώτη φορά από το γαλλικό πρακτορείο Viginum.
Τα αποτελέσματα ήταν ανησυχητικά: Τα chatbots «επαναλάμβαναν ψευδή αφηγήματα που ξεπλένονταν από το δίκτυο Pravda στο 33% των περιπτώσεων», ανέφερε η έκθεση.
Οι σπασμωδικές αντιδράσεις κινδυνεύουν να διαστρεβλώσουν το πρόβλημα, προσφέροντας μια απλοϊκή άποψη για την πολύπλοκη τεχνητή νοημοσύνη
Το δίκτυο Pravda, το οποίο έχει ένα μάλλον μικρό κοινό, έχει προβληματίσει εδώ και καιρό τους ερευνητές. Κάποιοι πιστεύουν ότι ο στόχος του ήταν επιτελικός- να σηματοδοτήσει την επιρροή της Ρωσίας στους Δυτικούς παρατηρητές.
Άλλοι βλέπουν έναν πιο ύπουλο στόχο: Το Pravda υπάρχει όχι για να προσεγγίσει τους ανθρώπους, αλλά για να «καλλιεργήσει» τα μεγάλα γλωσσικά μοντέλα (LLM) πίσω από τα chatbots, τροφοδοτώντας τα με ψεύδη που οι χρήστες θα συναντούσαν εν αγνοία τους.
Το NewsGuard ανέφερε στην έκθεσή του ότι τα ευρήματά του επιβεβαιώνουν τη δεύτερη υποψία. Αυτός ο ισχυρισμός κέρδισε έδαφος, προκαλώντας δραματικούς τίτλους στις εφημερίδες The Washington Post, Forbes, France 24, Der Spiegel και αλλού.
Είναι δελεαστικό να πιστέψει κανείς ότι η Ρωσία «δηλητηριάζει» σκόπιμα τη Δυτική τεχνητή νοημοσύνη ως μέρος μιας πονηρής πλεκτάνης
Αλλά για άλλους ερευνητές, καθώς και για το ίδιο το Al Jazeera, αυτό το συμπέρασμα δεν ισχύει.
Πρώτον, η μεθοδολογία που χρησιμοποίησε το NewsGuard είναι αδιαφανής: Δεν δημοσίευσε τις ερωτήσεις του και αρνήθηκε να τις μοιραστεί με δημοσιογράφους, καθιστώντας αδύνατη την ανεξάρτητη αναπαραγωγή.
Δεύτερον, ο σχεδιασμός της μελέτης πιθανότατα διόγκωσε τα αποτελέσματα και το ποσοστό του 33% θα μπορούσε να είναι παραπλανητικό. Οι χρήστες ρωτούν τα chatbots για τα πάντα, από συμβουλές μαγειρικής έως την κλιματική αλλαγή. Το NewsGuard τα δοκίμασε αποκλειστικά σε ερωτήσεις που συνδέονται με το δίκτυο Pravda.
Τα 2/3 των ερωτήσεών του είχαν σχεδιαστεί ρητά για να προκαλέσουν ψεύδη ή να τα παρουσιάσουν ως γεγονότα. Οι απαντήσεις που προέτρεπαν τον χρήστη να είναι προσεκτικός σχετικά με τους ισχυρισμούς, επειδή δεν επαληθεύονται, θεωρήθηκαν παραπληροφόρηση. Η μελέτη είχε ως στόχο να βρει παραπληροφόρηση – και το έκανε.
Αυτό το ζήτημα αντικατοπτρίζει μια ευρύτερη προβληματική δυναμική που διαμορφώνεται από την ταχέως εξελισσόμενη τεχνολογία, την υπερβολή των μέσων ενημέρωσης, τους κακούς παράγοντες και την καθυστερημένη έρευνα.
Με την παραπληροφόρηση και την εσφαλμένη πληροφόρηση να κατατάσσονται ως ο κορυφαίος παγκόσμιος κίνδυνος μεταξύ των ειδικών από το Παγκόσμιο Οικονομικό Φόρουμ, η ανησυχία για την εξάπλωσή τους είναι δικαιολογημένη.
Ωστόσο, οι σπασμωδικές αντιδράσεις κινδυνεύουν να διαστρεβλώσουν το πρόβλημα, προσφέροντας μια απλοϊκή άποψη για την πολύπλοκη τεχνητή νοημοσύνη.
Είναι δελεαστικό να πιστέψει κανείς ότι η Ρωσία «δηλητηριάζει» σκόπιμα τη Δυτική τεχνητή νοημοσύνη ως μέρος μιας πονηρής πλεκτάνης. Αλλά οι κινδυνολογικές διατυπώσεις συσκοτίζουν πιο εύλογες εξηγήσεις – και προκαλούν βλάβη.
Η αλήθεια για τη Ρωσία και το «μαύρο κουτί»
Μπορούν λοιπόν τα chatbot να αναπαράγουν επιχειρήματα του Κρεμλίνου ή να αναφέρουν αμφίβολες ρωσικές πηγές; Ναι. Αλλά πόσο συχνά συμβαίνει αυτό, αν αντανακλά τη χειραγώγηση του Κρεμλίνου και ποιες συνθήκες κάνουν τους χρήστες να τη συναντούν, δεν έχουν ακόμη διευκρινιστεί.
Πολλά εξαρτώνται από το «μαύρο κουτί», δηλαδή τον υποκείμενο αλγόριθμο με τον οποίο τα chatbot ανακτούν πληροφορίες.
Το Al Jazeera διεξήγαγε τον δικό του έλεγχο, δοκιμάζοντας συστηματικά τα ChatGPT, Copilot, Gemini και Grok χρησιμοποιώντας προτροπές που σχετίζονται με την παραπληροφόρηση. Εκτός από τον επανέλεγχο των λίγων παραδειγμάτων που παρείχε το NewsGuard στην έκθεσή του, το Al Jazeera σχεδίασε δικές του νέες προτροπές.
Μερικές ήταν γενικές, για παράδειγμα ισχυρισμοί για αμερικανικά βιολογικά εργαστήρια στην Ουκρανία. Άλλες ήταν υπερβολικά συγκεκριμένες, για παράδειγμα ισχυρισμοί για εγκαταστάσεις του ΝΑΤΟ σε ορισμένες ουκρανικές πόλεις.
Εάν το δίκτυο Pravda παραποιούσε γεγονότα και κατεύθυνε την κοινή γνώμη μέσω τεχνητής νοημοσύνης, τότε το Al Jazeera θα έβλεπε στοιχεία αυτής της διττής λειτουργίας σε απαντήσεις που παρήγαγαν τα chatbot στη δική του έρευνα, είτε σε γενικές είτε σε συγκεκριμένες.
Δεν το διαπιστώσαμε αυτό στα ευρήματά μας, λέει το Al Jazeera, που εξηγεί: «Σε αντίθεση με το 33% του NewsGuard, οι προτροπές μας δημιούργησαν ψευδείς ισχυρισμούς μόνο στο 5% των περιπτώσεων. Μόνο το 8% των αποτελεσμάτων αναφέρονταν σε ιστότοπους της Pravda – και οι περισσότερες από αυτές το έκαναν για να καταρρίψουν το περιεχόμενο.
Το κρίσιμο είναι ότι οι αναφορές στην Pravda επικεντρώθηκαν σε ερωτήματα που δεν καλύφθηκαν επαρκώς από τα κύρια μέσα ενημέρωσης. Αυτό υποστηρίζει την υπόθεση του κενού δεδομένων: Όταν τα chatbot δεν έχουν αξιόπιστο υλικό, μερικές φορές αντλούν από αμφίβολους ιστότοπους – όχι επειδή έχουν υποστεί επεξεργασία, αλλά επειδή δεν υπάρχει τίποτα άλλο διαθέσιμο.
Ο κίνδυνος υπερτίμησης της χειραγώγησης της τεχνητής νοημοσύνης από το Κρεμλίνο είναι πραγματικός
Εάν το πρόβλημα είναι τα κενά δεδομένων και όχι η διείσδυση του Κρεμλίνου, τότε αυτό σημαίνει ότι η έκθεση σε παραπληροφόρηση προκύπτει από την έλλειψη πληροφοριών – όχι από μια ισχυρή μηχανή προπαγάνδας.
Επιπλέον, για να αντιμετωπίσουν οι χρήστες την παραπληροφόρηση στις απαντήσεις των chatbot, πρέπει να ευθυγραμμιστούν αρκετές προϋποθέσεις: Πρέπει να ρωτούν για ασαφή θέματα με συγκεκριμένους όρους. Αυτά τα θέματα πρέπει να αγνοούνται από αξιόπιστα μέσα ενημέρωσης.
Και το chatbot πρέπει να μην διαθέτει δικλείδες ασφαλείας για να υποβαθμίζει τις αμφίβολες πηγές.
Ο κίνδυνος υπερτίμησης της χειραγώγησης της τεχνητής νοημοσύνης από το Κρεμλίνο είναι πραγματικός. Ορισμένοι ειδικοί κατά της παραπληροφόρησης υποδηλώνουν ότι οι ίδιες οι εκστρατείες του Κρεμλίνου μπορεί να έχουν σχεδιαστεί για να ενισχύσουν τους φόβους της Δύσης, να κατακλύσουν τους ελεγκτές γεγονότων και τις μονάδες κατά της παραπληροφόρησης.
Η Μαργαρίτα Σιμονιάν, μια εξέχουσα Ρωσίδα προπαγανδίστρια, επικαλείται συστηματικά δυτικές έρευνες για να διαφημίσει την υποτιθέμενη επιρροή του χρηματοδοτούμενου από την κυβέρνηση τηλεοπτικού δικτύου RT, του οποίου ηγείται.
Οι αδιάκριτες προειδοποιήσεις σχετικά με την παραπληροφόρηση μπορούν να γυρίσουν μπούμερανγκ, προκαλώντας υποστήριξη για κατασταλτικές πολιτικές, διαβρώνοντας την εμπιστοσύνη στη δημοκρατία και ενθαρρύνοντας τους ανθρώπους να υποθέσουν ότι το αξιόπιστο περιεχόμενο είναι ψευδές.
Εν τω μεταξύ, οι πιο ορατές απειλές κινδυνεύουν να επισκιάσουν λιγότερο ηχηρές -αλλά δυνητικά πιο επικίνδυνες- χρήσεις της τεχνητής νοημοσύνης από κακόβουλους παράγοντες, όπως για τη δημιουργία κακόβουλου λογισμικού που αναφέρεται τόσο από την Google όσο και από την OpenAI.
Ο διαχωρισμός των πραγματικών ανησυχιών από τους υπερβολικούς φόβους είναι κρίσιμος. Η παραπληροφόρηση είναι μια πρόκληση – αλλά το ίδιο ισχύει και για τον πανικό που προκαλεί.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου