Τελικά η τεχνητή νοημοσύνη μας βοηθάει ή μας (παρα)πληροφορεί;

Συγγραφή: Χατζησταυρίδου Φαίη

Επίβλεψη: Αλέξανδρος Πουλάκης

Περιεχόμενα

Εισαγωγή

Ορισμός παραπληροφόρησης

Ορισμός τεχνητής νοημοσύνης

Μέσα τεχνητής νοημοσύνης που συμβάλλουν στην παραπληροφόρηση

    i) Deepfakes (ορισμός και παραδείγματα)

    ii) Socialbots

Λόγοι διάδοσης παραπληροφόρησης μέσω ΤΝ

Δημοσιογραφία, τεχνητή νοημοσύνη και παραπληροφόρηση

Η θετική συμβολή της ΤΝ στη μείωση της παραπληροφόρησης

Συμπεράσματα και προτάσεις

Βιβλιογραφία

Εισαγωγή

Διανύουμε μια εποχή, η οποία θα μπορούσε να χαρακτηριστεί και ως ψηφιακή επανάσταση λόγω της ραγδαίας εξέλιξης της τεχνολογίας. Πράγματι, η τεχνολογία, μαζί με τις αναρίθμητες υπηρεσίες που προσφέρει, αποτελεί πλέον αναπόσπαστο κομμάτι της ζωής μας, καθώς έχει ενταχθεί με ποικίλους τρόπους, από τα κοινωνικά δίκτυα μέχρι και τους εξελιγμένους αλγορίθμους, στην καθημερινότητα των ανθρώπων. Την τεχνολογική εξέλιξη, ακολουθεί η εμφάνιση και μετέπειτα άνοδος της τεχνητής νοημοσύνης. Μέσω της ένταξής της στη ζωή μας, παρατηρούνται αλλαγές στον τρόπο σκέψης, ενημέρωσης, ακόμη και λήψης αποφάσεων. Ωστόσο, πέρα από τις δυνατότητες που προσφέρονται, υπάρχει πάντοτε και μία σκοτεινή πλευρά, η οποία αφορά τους κινδύνους που μπορεί να προκύψουν εύκολα εάν δεν τηρηθεί η απαραίτητη προσοχή. Η παραπληροφόρηση, αποτελεί δίχως αμφιβολία μία από τις αρνητικές συνέπειες που δύναται να επιφέρει η τεχνολογία και ειδικότερα η τεχνητή νοημοσύνη. Μέσω της δημιουργίας έξυπνων αλγορίθμων, προβάλλονται ολοένα και περισσότερο αληθοφανή, αν και ψευδή γεγονότα, τα οποία είναι εξαιρετικά δύσκολο να γίνουν αντιληπτά. Το ερώτημα είναι: είμαστε άραγε ικανοποιητικά εξοπλισμένοι για να αντιμετωπίσουμε και κυρίως να διαχειριστούμε αυτή τη νέα πραγματικότητα;

Η παρούσα έρευνα πραγματεύεται το φαινόμενο της παραπληροφόρησης και συγκεκριμένα την επίδραση που ασκεί στη διάδοση ή και στον περιορισμό της η ανερχόμενη και γνωστή σε όλους τεχνητή νοημοσύνη.

Ορισμός παραπληροφόρησης και τεχνητής νοημοσύνης

Αρχικά, είναι αναγκαίο να υπογραμμισθεί ότι η παραπληροφόρηση, δηλαδή η σκόπιμη διάδοση αναληθών γεγονότων με στόχο την άσκηση επιρροής στην κοινή γνώμη, δεν είναι ένα πρωτοεμφανιζόμενο φαινόμενο. Υπήρχε πολύ πριν την εμφάνιση της τεχνολογίας. Ωστόσο, η τελευταία και κυρίως η τεχνητή νοημοσύνη, συμβάλλουν αρνητικά στη διόγκωσή της, μέσω διάφορων τακτικών. Είναι λογικό, ότι σε μία εποχή που τα κοινωνικά δίκτυα και γενικότερα η τεχνολογία, τυγχάνουν ευρείας αποδοχής από το κοινό, ανεξαρτήτως ηλικίας, οι περιπτώσεις παραπληροφόρησης αυξάνονται ανησυχητικά(Εσκιάδη,2024). Αυτό συμβαίνει, καθώς η τεχνητή νοημοσύνη και γενικότερα η εμφάνιση της τεχνολογίας, έχουν περιορίσει σημαντικά την παραδοσιακή δημοσιογραφία. Οι πληροφορίες αντλούνται πλέον σχεδόν αποκλειστικά από το διαδίκτυο, με αποτέλεσμα να αυξάνεται η εμφάνιση παραπλανητικών πληροφοριών ολοένα και περισσότερο, με κάθε ευκαιρία που θα προκύψει (Εκσιάδη, 2024).

Η τεχνητή νοημοσύνη ή αλλιώς ΤΝ, αποτελεί τεχνολογία που επιτρέπει σε μηχανές να εκτελούν εργασίες οι οποίες συνήθως απαιτούν ανθρώπινη σκέψη. Είναι τομέας της επιστήμης των υπολογιστών και αφορά τη σχεδίαση διάφορων προγραμμάτων, τα οποία μπορούν και μιμούνται τόσο τη συμπεριφορά των ανθρώπων, όσο και τις γνωστικές τους ικανότητες (Αναστασοπούλου,2019).Οι ομοιότητες που παρουσιάζει σχετικά με την ανθρώπινη συμπεριφορά, αποδίδονται σε χαρακτηριστικά των αλγορίθμων της ΤΝ, όπως η μάθηση, η επίλυση προβλημάτων, ακόμη και η κατανόηση της φυσικής γλώσσας (Βλαχάδας, Κεφάλας, 2006). Αυτός ακριβώς είναι και ο δικαιολογητικός λόγος που χρησιμοποιείται από τόσο μεγάλο αριθμό ανθρώπων, αφού προσφέρει πληθώρα υπηρεσιών και κυρίως εξοικονόμηση χρόνου. Μέσω της τεχνητής νοημοσύνης, δημιουργούνται όμως και μέσα τα οποία μπορούν εύκολα να παραπλανήσουν τον αναγνώστη, όπως είναι τα deepfakes, τα social bots, τα clickbaits, καθώς και τα chat bots.

Μέσα τεχνητής νοημοσύνης που συμβάλλουν στην παραπληροφόρηση

Όσον αφορά τον όρο deepfakes, πρέπει να τονισθεί ότι είναι σύνθετος και προέρχεται από τις λέξεις “deep learning” (δηλαδή βαθιά μάθηση, ειδικότερη υποκατηγορία της μηχανικής) και “fake”(Παπαδοπούλου 2024).Οι όροι ‘μηχανική’ και ‘βαθιά’ μάθηση αποτελούν κατηγορίες της τεχνητής νοημοσύνης και δεν πρέπει να θεωρούνται ξεχωριστές έννοιες. Πιο συγκεκριμένα ο όρος deepfake, αφορά ψεύτικο φυσικά περιεχόμενο, στη δημιουργία του οποίου συμβάλλουν τεχνικές βαθιάς μάθησης. Οι προαναφερθείσες τεχνικές, επιτρέπουν στον υπολογιστή να αναπαράγει πρόσωπα, φωνές, ακόμη και κινήσεις με ιδιαίτερα ρεαλιστικό τρόπο. Πρόκειται για ένα είδος παραγωγικής τεχνητής νοημοσύνης και συνδέεται με την δημιουργία νέου υλικού, το οποίο όμως έχει ως βάση του ήδη υφιστάμενο. Με την άνοδο της παραγωγικής ΤΝ τα τελευταία χρόνια, είναι φυσικό να παρατηρηθεί και ανάλογη ύφεση των παραπλανητικών deepfakes. Αν και ο όρος δεν έχει μόνο αρνητικό περιεχόμενο, ο τρόπος με τον οποίο χρησιμοποιείται συνήθως του προσδίδει μία αρνητική χροιά (Παπαδοπούλου,2024).Για παράδειγμα, τα deepfakes μπορούν να χρησιμοποιηθούν με αρνητικό σκοπό, απεικονίζοντας σε βίντεο ανθρώπους να λένε και να κάνουν πράγματα, τα οποία δε συνέβησαν ποτέ. Η τακτική αυτή χρησιμοποιείται ως επί το πλείστον στον τομέα της πολιτικής και ειδικότερα όταν γίνεται λόγος για εκλογικές αναμετρήσεις.

Χαρακτηριστική περίπτωση χρήσης των deepfakes αποτελούν οι εκλογές που έλαβαν χώρα στη Νιγηρία το 2023. Πιο συγκεκριμένα, ένα βίντεο που συγκέντρωσε 6.000 προβολές, εμφάνιζε τον Αμερικανό δισεκατομμυριούχο Elon Musk να εκφράζει την υποστήριξή του στον υποψήφιο πρόεδρο Peter Ob (Χαλικιοπούλου,2024). Προφανώς το βίντεο αυτό είχε καθαρά σκοπό τον προσανατολισμό του κοινού υπέρ του υποψηφίου, αλλά ο εικονιζόμενος δεν προέβη ποτέ σε τέτοιες δηλώσεις. Αν και δεν ήταν αληθινό, η χρήση deepfake υλικού για την εμφάνιση ενός ανθρώπου που θεωρείται ότι ασκεί μεγάλη επιρροή να υποστηρίζει μια συγκεκριμένη θέση, παρακίνησε αρκετούς ανυποψίαστους πολίτες (Χαλικοπούλου,2024). Γίνεται έτσι αντιληπτό, ότι η τεχνητή νοημοσύνη χρησιμοποιήθηκε και χρησιμοποιείται γενικά για να παραπληροφορήσει το κοινό, ακόμη και σε πολιτικό επίπεδο, θέτοντας προκλήσεις στο πεδίο της ενημέρωσης.

Μία ακόμη μορφή τεχνητής νοημοσύνης η οποία συμβάλλει αδιαμφισβήτητα στην αύξηση της παραπληροφόρησης είναι τα λεγόμενα social bots, δηλαδή τα γνωστά  “ρομπότ” των κοινωνικών δικτύων. Αποτελούν λογισμικά προγράμματα που λειτουργούν συχνά αυτόνομα και συναντώνται σε πλατφόρμες κοινωνικής δικτύωσης όπως το Instagram και το Twitter. Μιμούνται την ανθρώπινη συμπεριφορά και σκοπός τους είναι να δημιουργούν και να αναπαράγουν περιεχόμενο, προσποιούμενα ότι είναι πραγματικοί χρήστες (Δαμουλάκης,2020). Σχολιάζουν, κοινοποιούν δημοσιεύσεις και, το κυριότερο, αλληλοεπιδρούν με άλλους χρήστες. Ακριβώς λόγω της ευρείας απήχησης των κοινωνικών δικτύων στις μέρες μας, τα social bots συναντώνται όλο και συχνότερα, με αποτέλεσμα η διανομή ειδησεογραφικού υλικού να μη γίνεται με τον θεμιτό τρόπο. Τα κοινωνικά ρομπότ τείνουν στη δημοσίευση ανακριβούς περιεχομένου. Δε διεξάγεται ο σωστός έλεγχος, ενώ συχνά οι δημοσιεύσεις τους παρουσιάζουν μια άποψη ως δημοφιλή, μολονότι μη αληθινή, στοχεύοντας αποκλειστικά στην προσέλκυση ενδιαφέροντος και όχι πραγματικά στην ενημέρωση. Τα παραπάνω έχουν ως αποτέλεσμα τη δημιουργία σύγχυσης μεταξύ των χρηστών και φυσικά την υπονόμευση της κριτικής σκέψης (Καζελίδης,2024).

                Τα social bots, συχνά διασφαλίζουν το ενδιαφέρον του κοινού και με τη χρήση των clickbaits, τα οποία υπό αυτή την έννοια αποτελούν πλέον μια ακόμη έκφανση της τεχνητής νοημοσύνης. Τα clickbaits, είναι τίτλοι, εικόνες, ακόμη και περιγραφές με ξεκάθαρο στόχο να τραβήξουν την προσοχή του κοινού και να επιτευχθεί το πολυζήτητο “κλικ” στο εκάστοτε άρθρο, βίντεο ή σύνδεσμο. Η τεχνητή νοημοσύνη συνδέεται πλέον με τη δημιουργία click baits, καθώς χρησιμοποιείται συχνά για τον σκοπό αυτό αφού οι αλγόριθμοι ελέγχουν ζητήματα τα οποία φαίνεται να έχουν περισσότερη απήχηση και ζήτηση και συσχετίζουν τους παραπλανητικούς τίτλους με αυτά (Χρυσανθοπούλου,2024).Τα παραπάνω έχουν φυσικά, ως αποτέλεσμα τον αποπροσανατολισμό των πολιτών, καθώς οι τίτλοι δε συμβαδίζουν ουδέποτε με το περιεχόμενο, με αποτέλεσμα να ενισχύεται το φαινόμενο της παραπληροφόρησης.

Λόγοι διάδοσης παραπληροφόρησης μέσω ΤΝ

Βάσει των προαναφερθέντων, η παραπληροφόρηση μέσω της τεχνητής νοημοσύνης φαίνεται να προκαλείται κυρίως για δύο λόγους. Ο πρώτος λόγος διάδοσης παραπλανητικών ειδήσεων μέσω της ΤΝ, σχετίζεται με το γεγονός ότι πλέον τα “εργαλεία” της τεχνητής νοημοσύνης (όπως είναι για παράδειγμα το ChatGPT), είναι τόσο εύκολα προσβάσιμα, με αποτέλεσμα να παρατηρείται χρήση τους από ένα εξαιρετικά μεγάλο κοινό. Αυτό έχει ως αποτέλεσμα και την συνακόλουθη παραγωγή και δημιουργία υλικού. Με τον τρόπο αυτόν, επιτρέπεται σε άτομα χωρίς τις απαραίτητες- υπό άλλες συνθήκες- δεξιότητες να δημιουργούν υλικό, εικόνες, βίντεο, ακόμη και έντυπα μέσα, τα οποία είναι αρκετά πιθανόν να διαμοιραστούν με τους υπόλοιπους χρήστες και να τους από προσανατολίσουν, χωρίς ιδιαίτερη προσπάθεια (Χριστοφορίδου,2023). Δίνουμε το κλασικό παράδειγμα των αναρτήσεων στα κοινωνικά δίκτυα. Εάν ένας χρήστης, στην προσπάθειά να μοιραστεί με το κοινό του ένα ζήτημα επικαιρότητας , παραθέσει υλικό που ο ίδιος έχει αντλήσει από εργαλεία της τεχνητής νοημοσύνης, χωρίς να έχει προβεί σε ιδιαίτερο έλεγχο, μπορεί να συμβάλλει εύκολα στην εξάπλωση ανακριβών πληροφοριών, επηρεάζοντας πλήθος ανθρώπων.

Ο δεύτερος λόγος που οφείλεται-εκτός των άλλων παραγόντων- και η τεχνητή νοημοσύνη στην αύξηση της παραπληροφόρησης, είναι φυσικά η ιδιαίτερα χαμηλή ειδησεογραφική παιδεία, κυρίως δε των νέων ανθρώπων. Λόγω της καθημερινής τριβής μας με τα κοινωνικά δίκτυα, ερχόμαστε αντιμέτωποι με πλήθος κατασκευασμένων πληροφοριών, οι οποίες, χωρίς την απαραίτητη εμπειρία, είναι δύσκολο να γίνουν αντιληπτές. Η πλειοψηφία, αρκείται μόνο με τις ειδήσεις που προβάλλονται σε εφαρμογές που ενδεχομένως ήδη διαθέτουν, χωρίς να δίνεται η αναγκαία σημασία στην αναζήτηση περαιτέρω έμπιστου περιεχομένου (Χρυσανθοπούλου,2024). Μάλιστα, έρευνες έχουν δείξει ότι οι έφηβοι της γενιάς Gen Z των Ηνωμένων Πολιτειών, καταναλώνουν περισσότερες κατασκευασμένες ειδήσεις λόγω της εκτεταμένης χρήσης αλγορίθμων και κοινωνικών δικτύων, από ότι άνθρωποι της ίδιας γενιάς, αλλά μεγαλύτερων ηλικιών (Χρυσανθοπούλου, 2024). Γίνεται έτσι αντιληπτό, ότι ειδικότερα οι έφηβοι, καθίστανται καταναλωτές ειδήσεων στην εποχή της κυριαρχίας της τεχνητής νοημοσύνης και, συνεπώς, είναι πιο επιρρεπείς στην κατανάλωση και μετέπειτα στη μετάδοση ανακριβών πληροφοριών, λόγω της καθημερινής επαφής τους με κείμενα πιστευτά, αλλά όχι πάντοτε αληθινά.

Δημοσιογραφία, τεχνητή νοημοσύνη και παραπληροφόρηση

Η εκτεταμένη χρήση της τεχνητής νοημοσύνης , έχει επηρεάσει σημαντικά και τον τομέα της δημοσιογραφίας. Φυσικά, το γεγονός αυτό, όπως θα αναλυθεί παρακάτω, συνεπάγεται και το αυξανόμενο κύμα παραπληροφόρησης. Ειδικότερα, αυτό προκαλείται αφενός μέσω της χρήσης εφαρμογών τεχνητής νοημοσύνης από τους ίδιους τους εργαζόμενους στον κλάδο, αφετέρου από την προτίμηση που δείχνει ο κόσμος υπέρ της αναζήτησης πληροφοριών στο διαδίκτυο(Χριστοφορίδου 2024; Χρυσανθοπούλου 2024).

Σχετικά με τη χρήση τεχνητής νοημοσύνης από τους δημοσιογράφους για την παραγωγή υλικού, το πρόβλημα εντοπίζεται κυρίως στην περίπτωση δημιουργίας βασικών πηγών ενημέρωσης, όπως είναι τα Άρθρα, με χρήση- ή και αποκλειστικά μέσω τεχνητής νοημοσύνης (ή αλλιώς AI generated articles) (Εσκιάδη,2024). Κύριος στόχος στον δημοσιογραφικό τομέα, αλλά και σε κάθε άλλη περίπτωση προσπάθειας διάδοσης πληροφοριών, είναι να παραχθεί υλικό αξιόπιστο και ικανό να προσελκύσει το ενδιαφέρον από τους αναγνώστες. Οι αλγόριθμοι που χρησιμοποιούνται για τη δημιουργία ειδησεογραφικού υλικού, στερούνται τόσο ανθρώπινης δημιουργικότητας, όσο και αξιοπιστίας. Λαμβάνουν πληροφορίες από ενδεχομένως ανακριβείς πηγές και τις αναπαράγουν, με αποτέλεσμα να παράγεται περιεχόμενο αμφίβολης αυθεντικότητας .Δημιουργείται έτσι, ένας αυτοματισμός ειδήσεων, με ολική έλλειψη ανθρώπινης εποπτείας και ειδικότερα συντακτικής επίβλεψης (Εσκιάδη,2024).

Για τη δημιουργία Άρθρων, συχνά παρατηρείται και το φαινόμενο χρήσης των γνωστών “chatbots” που αποτελούν συστήματα υπολογιστών. Είναι κατά κάποιον τρόπο ψηφιακοί συνομιλητές και αλληλοεπιδρούν με τους χρήστες, απαντώντας συνήθως ερωτήσεις. Βρίσκονται συνήθως σε ιστοσελίδες, από ηλεκτρονικά καταστήματα εταιρειών, μέχρι και σε εφαρμογές τεχνητής νοημοσύνης (όπως το ChatGPT, το Gemini) (Εσκιάδη,2024).  Βασίζονται σε τεράστιες ποσότητες δεδομένων, αλλά δεν είναι πάντα σωστά ενημερωμένα ή αλάνθαστα. Για παράδειγμα, σε μία ερώτηση ιατρικού περιεχομένου, η απάντηση που θα δοθεί μετά από έρευνα, μπορεί να φαίνεται σοβαρή, αλλά να είναι επιστημονικά λάθος Η χρήση τους, αν και παράγει εύκολες και γρήγορες πληροφορίες, δεν οδηγεί σε ξεκάθαρα συμπεράσματα. Η συγγραφή κειμένων που διενεργείται από αλγορίθμους, ιδίως μέσω των chatbots δεν οδηγεί σε καμία περίπτωση στη σωστή επαλήθευση ειδήσεων ( Γιολτζίδου, 2024). Συνεπώς, γίνεται εύκολα αντιληπτό ότι τα περιθώρια παροχής ή ακόμη και παραγωγής αναληθών πληροφοριών από τους αλγορίθμους είναι μεγάλα (Εσκιάδη, 2024).

Η συγγραφή κειμένων με χρήση τεχνητής νοημοσύνης, παρατηρείται φυσικά και σε εθνικό επίπεδο . Αν και υποστηρίζεται ότι η προσφυγή στο νέο αυτό μοντέλο τεχνολογίας γίνεται κατά κύριο λόγο συμπληρωματικά και όχι συστηματικά, δεν παύει να ισχύει το γεγονός ότι ελλοχεύουν πάντοτε κίνδυνοι (Γιολτζίδου,2024).Λόγω της απουσίας εκπαίδευσης των δημοσιογράφων για την αντιμετώπιση ή και αποφυγή περιεχομένου που μπορεί να οδηγήσει στην παραπληροφόρηση, δε διενεργείται σωστά η επαλήθευση ειδήσεων. Φυσικά, πρέπει να τονίσουμε ότι το φαινόμενο αυτό παρατηρείται ως επί το πλείστον από τις νεότερες γενιές δημοσιογράφων, οι οποίες έχουν και μεγαλύτερη επαφή με την τεχνολογία (Γιολτζίδου,2024).

Καταλήγουμε λοιπόν στο συμπέρασμα ότι η τεχνολογία, και ειδικότερα η τεχνητή νοημοσύνη έχουν οδηγήσει στην αμφισβήτηση και ίσως υποτίμηση των παραδοσιακών πηγών ειδησεογραφίας (Εσκιάδη,2024). Το κοινό, προτιμάει πλέον να ενημερώνεται μέσω διαδικτύου, καθώς είναι πιο προσιτό και δύναται να αντλήσει κανείς πληροφορίες από την άνεση του σπιτιού του. Αυτή η πρακτική όμως, έχει ως αποτέλεσμα την αύξηση των περιστατικών παραπληροφόρησης. Διαφέρει σημαντικά η αξιοπιστία που έχει ένα κείμενο που έχει συνταχθεί υπό ανθρώπινη εποπτεία με αυτήν που προσφέρει ο αλγόριθμος (Εσκιάδη,2024).

Η Θετική συμβολή της ΤΝ στην μείωση της παραπληροφόρησης

Πέρα από τις προαναφερθείσες αρνητικές συνέπειες της τεχνητής νοημοσύνης, η νέα εποχή και η εξέλιξη της τεχνολογίας μπορούν, με σωστή χρήση, να τις μετριάσουν. Πιο συγκεκριμένα, η παραπληροφόρηση, μπορεί μεν να προκαλείται πλέον σε έναν μεγάλο βαθμό από την ευρεία χρήση της τεχνητής νοημοσύνης, αξίζει δε να σημειωθεί ότι δύναται να βοηθήσει και στον περιορισμό της. Φυσικά, για ακόμη μία φορά, όλα εξαρτώνται από τη σωστή χρήση της (Δαμουλάκης,2020).

Χαρακτηριστική είναι η χρήση της ΤΝ στην περίπτωση του Παλαιστινιακού πολέμου που ξεκίνησε στις 7 Οκτωβρίου του 2023. Η προσπάθεια κάλυψης του πολέμου από ειδησεογραφικά κανάλια από όλον τον κόσμο, διενεργήθηκε σε ένα μέρος με τη βοήθεια της ΤΝ και πολλές φορές έγινε λόγος για δημιουργία αναληθών ειδήσεων και κατά συνέπεια παραπληροφόρηση του κοινού. Ωστόσο, διεξήχθη έρευνα που αφορούσε τη σύγκριση κατασκευασμένων από τεχνητή νοημοσύνη εικόνων με τις πραγματικές και κατά πόσο οι πρώτες δύναται να ενημερώσουν σωστά το κοινό (Ιακώβου,2024). Συγκεκριμένα, με τη αρωγή της τεχνητής νοημοσύνης, δημιουργήθηκαν εικόνες μέσω διάφορων αλγορίθμων που προσφέρει ( στην περίπτωση αυτή τα προγράμματα DeepAI και DALL-E), οι οποίες βασίστηκαν στις λεζάντες των πραγματικών εικόνων που δημοσιοποιήθηκαν και στόχευαν τόσο στην ευαισθητοποίηση του κοινού για τον υφιστάμενο πόλεμο, όσο και στη παροχή πληροφοριών για τα τεκταινόμενα. Οι εικόνες που συγκρίθηκαν, παρουσίαζαν πρόσωπα καθώς και τα κατεστραμμένα από τον πόλεμο τοπία. Έπειτα από ερωτηματολόγιο το οποίο κλήθηκε να συμπληρώσει το κοινό, έγινε αντιληπτό ότι οι κατασκευασμένες εικόνες μπορούν-υπό περιπτώσεις- να δημιουργήσουν περιεχόμενο έγκυρο και να αντικατοπτρισουν με ακρίβεια την κατάσταση στην εμπόλεμη ζώνη. Δύναται δηλαδή να ανταποκριθούν τόσο στην περιγραφή που δίνεται κατά το στάδιο δημιουργίας, όσο και στις αξίες ειδησεογραφικών μέσων. Φυσικά, οι χρήστες που είναι πιο εξοικειωμένοι με την τεχνολογία μπορούν να αντιληφθούν πιο εύκολα εάν μια εικόνα είναι κατασκευασμένη. Ωστόσο, στη συγκεκριμένη περίπτωση παρουσιάστηκε μία θετική πτυχή της τεχνητής νοημοσύνης, καθώς δημιουργήθηκαν εικόνες που μπόρεσαν πράγματι να παρέχουν όσο το δυνατόν ορθότερη ενημέρωση (Ιακώβου,2024).

Σε ένα άλλο επίπεδο, η τεχνητή νοημοσύνη χρησιμοποιεί εξελιγμένους αλγόριθμους, και μπορεί να συμβάλλει με τη σειρά της ενίοτε και στην καταπολέμηση της παραπληροφόρησης. Ειδικότερα, οι αλγόριθμοι αυτοί είναι σε θέση να εντοπίζουν συγκεκριμένες λέξεις και εκφράσεις που μπορούν να πληροφορήσουν το κοινό. Η διαδικασία αυτή μπορεί να γίνει αρχικά μέσω επεξεργασίας κειμένων που υποβάλουν οι χρήστες προς έλεγχο σε διάφορες εφαρμογές τεχνητής νοημοσύνης, ή και με γενικότερο εντοπισμό παραπλανητικών άρθρων και αναρτήσεων (Ζουμπάκης,2024). Κυρίως όμως παρατηρείται στα κοινωνικά δίκτυα. Διάφορες πλατφόρμες κοινωνικών δικτύων στρέφονται προς την τεχνητή νοημοσύνη για να περιορίσουν την έκταση ανακριβούς και αμφίβολης προέλευσης υλικού. Αυτό επιτυγχάνεται με τον περιορισμό της ορατότητας των συγκεκριμένων δημοσιεύσεων ή ακόμη και μέσω της προειδοποίησης του κοινού.

Έρευνες μάλιστα αποδεικνύουν με γεγονότα ότι η τεχνητή νοημοσύνη μπορεί πράγματι να βοηθήσει στη μείωση της παραπληροφόρησης. Αυτό δύναται να επιτευχθεί μέσω διάφορων μεθοδολογιών, όπως η μηχανική και η βαθιά μάθηση, καθώς και η επεξεργασία γλώσσας. Μετά από σύγκριση μοντέλων ΤΝ, το συμπέρασμα κατέληγε στο γεγονός ότι, ενώ υπάρχει έλλειψη ελεγμένων δεδομένων στους περισσότερους αλγορίθμους, όταν τα συστήματα ΤΝ συνδυάζονται με τεχνικές επεξήγησης των αποφάσεών τους, είναι ιδιαίτερα αποτελεσματικά στη μείωση της παραπληροφόρησης (Iqbal et al., 2023).

Συμπεράσματα και προτάσεις

Η τεχνολογία και διάφορες εκφάνσεις τις, όπως η τεχνητή νοημοσύνη καταλαμβάνουν πλέον σημαντικό κομμάτι της καθημερινότητας των ανθρώπων. Ανεξαρτήτως ηλικίας, όλοι στηριζόμαστε τις ευχέρειες που μας προσφέρονται μέσω των διάφορων εργαλείων της. Φυσικά, όπως και κάθε άλλη καινοτομία και σε κάθε άλλη περίπτωση, όλα εξαρτώνται από τη σωστή χρήση της τεχνητής νοημοσύνης. Η γενικότερη επαφή του κόσμου με τη νέα αυτή δυνατότητα είναι απίθανο να περιοριστεί. Ωστόσο, η τεχνητή νοημοσύνη συνοδεύεται πάντοτε από ρίσκα, καθώς και ηθικά διλήμματα. Ένα από αυτά αποτελεί δίχως αμφιβολία η παραπληροφόρηση, η οποία μάλιστα μας αφορά άμεσα καθώς μπορεί να θέσει σε κίνδυνο τις δημοκρατικές αξίες και να θίξει συνάμα την κοινωνική συνοχή. Ο κίνδυνος αυτός, όπως έχει αναφερθεί παραπάνω οφείλεται πλέον σε μεγάλο βαθμό στην τεχνητή νοημοσύνη, η οποία συμβάλλει αρνητικά στην όξυνσή του. Τα μέσα παραπληροφόρησης που προκύπτουν από την ΤΝ, δηλαδή τα deepfakes, τα κοινωνικά ρομπότ, τα social bots, μέχρι και τα clickbaits, δε θα σταματήσουν να υφίστανται. Είναι όμως θεμιτή η μείωση των αρνητικών συνεπειών που επιφέρουν με την κατάλληλη ρύθμισή τους. Δηλαδή, θα λειτουργούσε θετικά η δημιουργία νέων προγραμμάτων τεχνητής νοημοσύνης- ή ακόμη και η αναβάθμιση των ήδη υφιστάμενων- πιο ανθεκτικών και συνακόλουθα έγκυρων. Φυσικά, τίποτε δε θα έχει σημασία χωρίς την απαραίτητη εκπαίδευση και ευαισθητοποίηση των πολιτών για το ζήτημα αυτό. Επιβάλλεται συστηματική ενημέρωση πάνω στο συγκεκριμένο θέμα, ώστε να βελτιωθεί η κριτική μας σκέψη, κυρίως των μεγαλύτερων ηλικιών που δεν είναι εξοικειωμένοι με την τεχνολογία. Με τον τρόπο αυτόν οι πολίτες θα αποκτήσουν μεγαλύτερη εμπειρία, με αποτέλεσμα να είναι σε θέση να αναγνωρίζουν τις ψευδείς ειδήσεις και να τις αντιμετωπίζουν με τον κατάλληλο τρόπο. Μόνο έτσι θα επιτευχθεί η σωστή, ηθική και διαφανής χρήση της τεχνητής νοημοσύνης. Το κοινό θα αναζητά άφοβα πληροφορίες και θα εξαλειφθεί σε μεγάλο βαθμό το φαινόμενο τις παραπληροφόρησης. Επομένως, λύση στο πρόβλημα της παραπληροφόρησης φαίνεται να αποτελεί η υιοθέτηση πρακτικών για ασφαλή και ηθική χρήση στον τομέα της τεχνητής νοημοσύνης.

ΒΙΒΛΙΟΓΡΑΦΙΑ

1)Παπαδοπούλου, Α. Δ. (2024). Η τεχνολογία και οι προκλήσεις της Παραγωγικής Τεχνητής Νοημοσύνης και των Deepfakes: Υιοθέτηση βέλτιστων πρακτικών ασφαλούς και ηθικής χρήσης [Μεταπτυχιακή εργασία, Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης, Νομική Σχολή & Σχολή Οικονομικών και Πολιτικών Επιστημών]. https://ikee.lib.auth.gr/record/361309/files/GRI-2025-47676.pdf

2)Shao, C., Ciampaglia, G. L., Varol, O., Flammini, A., & Menczer, F. (n.d.). The spread of fake news by social bots [Technical report]. Indiana University, Bloomington. https://www.researchgate.net/profile/Onur-Varol/publication/318671211_The_spread_of_low-credibility_content_by_social_bots_see_httpsdoiorg101038s41467-018-06930-7/links/597f568f458515687b4af30f/The-spread-of-low-credibility-content-by-social-bots-see-https-doiorg-101038-s41467-018-06930-7.pdf

3)Εσκιάδη, Ι. Γ. (2024). Πώς διαμορφώνεται το μέλλον της δημοσιογραφίας με τη χρήση τεχνητής νοημοσύνης; Στο 3ο Ετήσιο Ελληνόφωνο Επιστημονικό Συνέδριο Εργαστηρίων Επικοινωνίας σε Ελλάδα και Κύπρο, Δημοσιογραφία, Μέσα και Επικοινωνία: Σύγχρονες προκλήσεις στην εποχή της Τεχνητής Νοημοσύνης (σ. 277). Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης. https://eproceedings.epublishing.ekt.gr/index.php/cclabs/article/view/8081/7104

4)Γιολτζίδου, Γ., Γιολτζίδου, Φ., & Χρυσάφης, Θ. (2024). Δημοσιογραφική κουλτούρα και τεχνητή νοημοσύνη – Η περίπτωση της Ελλάδας. Εισήγηση στο 3ο Ετήσιο Ελληνόφωνο Επιστημονικό Συνέδριο Εργαστηρίων Επικοινωνίας σε Ελλάδα και Κύπρο: Δημοσιογραφία, Μέσα και Επικοινωνία – Σύγχρονες προκλήσεις στην εποχή της Τεχνητής Νοημοσύνης, Θεσσαλονίκη, Ελλάδα. https://eproceedings.epublishing.ekt.gr/index.php/cclabs/article/view/8059/7083

5)Χρυσανθοπούλου, Κ. (2024). Πώς νέοι και έφηβοι αλληλεπιδρούν με ειδησεογραφικό περιεχόμενο σε μέσα που χρησιμοποιούν τεχνολογίες ΤΝ. Στο 3ο Ετήσιο Ελληνόφωνο Επιστημονικό Συνέδριο Εργαστηρίων Επικοινωνίας σε Ελλάδα και Κύπρο, Δημοσιογραφία, Μέσα και Επικοινωνία: Σύγχρονες προκλήσεις στην εποχή της Τεχνητής Νοημοσύνης (σ. 58). Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης. https://eproceedings.epublishing.ekt.gr/index.php/cclabs/article/view/8060/7084

6)Χριστοφορίδου, Α. Δ., & Καϊμάκη, Β. (2024). Η δημιουργία ψεύτικων εικόνων και η αντίληψη του κοινού: Διαδικτυακή έρευνα. Στο 3ο Ετήσιο Ελληνόφωνο Επιστημονικό Συνέδριο Εργαστηρίων Επικοινωνίας σε Ελλάδα και Κύπρο, Δημοσιογραφία, Μέσα και Επικοινωνία: Σύγχρονες προκλήσεις στην εποχή της Τεχνητής Νοημοσύνης (σ. 156). Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης. https://eproceedings.epublishing.ekt.gr/index.php/cclabs/article/view/8069/7093

7)Χαλικιοπούλου, Ε., & Αντωνούδης, Χ. (2024). Οι προκλήσεις της τεχνητής νοημοσύνης στο πεδίο της ενημέρωσης στις Νιγηριανές εκλογές του 2023: Η περίπτωση του Nigerian Fact-Checkers’ Coalition (NFC). Στο 3ο Ετήσιο Ελληνόφωνο Επιστημονικό Συνέδριο Εργαστηρίων Επικοινωνίας σε Ελλάδα και Κύπρο, Δημοσιογραφία, Μέσα και Επικοινωνία: Σύγχρονες προκλήσεις στην εποχή της Τεχνητής Νοημοσύνης (σ. 26). Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης. https://eproceedings.epublishing.ekt.gr/index.php/cclabs/article/view/8035/7073

8)Ιακώβου, Η. (2024). Εικόνες, ειδησεογραφία και τεχνητή νοημοσύνη: Η μελέτη της περίπτωσης του πολέμου Ισραήλ-Χαμάς. Κτίσις, Κυπριακό Πανεπιστήμιο Τεχνολογίας. https://ktisis.cut.ac.cy/bitstream/20.500.14279/32698/1/BSc_Isaiana_Iacovou_2024.pdf

9)Καζελίδης, Ι. Μ. Α. (2024). Ανίχνευση bots στο Twitter με χρήση συνελικτικών νευρωνικών δικτύων και μοντέλων transformer [Διπλωματική εργασία, Εθνικό Μετσόβιο Πολυτεχνείο, Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών]. Εθνικό Μετσόβιο Πολυτεχνείο. https://dspace.lib.ntua.gr/xmlui/bitstream/handle/123456789/58921/Diploma_Thesis_Kazelidis_Ioannis_Michail.pdf?sequence=1

10)Iqbal, A., Shahzad, K., Khan, S. A., & Chaudhry, M. S. (2023). The relationship of artificial intelligence (AI) with fake news detection (FND): A systematic literature review. Global Knowledge, Memory and Communication, 71(9), 1283–1306. https://doi.org/10.1108/GKMC-12-2022-0279

11)Δαμουλάκης, Α. (2020). Ψευδείς ειδήσεις, κοινωνικά δίκτυα και μηχανισμοί παραπληροφόρησης [Τελική εργασία, Εθνικό Κέντρο Δημόσιας Διοίκησης και Αυτοδιοίκησης]. Αποθετήριο ΕΣΔΔΑ. http://repositoryesdda.ekdd.gr/jspui/handle/123456789/474

12)Ζουμπάκης, Α. Α. (2024). Τεχνητή νοημοσύνη και κυβερνοασφάλεια σε εφαρμογές άμυνας και ασφάλειας: Απειλές, λύσεις και στρατηγικές επιπτώσεις [Μεταπτυχιακή διπλωματική εργασία]. https://polynoe.lib.uniwa.gr/xmlui/handle/11400/6763

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top