ΓΔ: 1401.58 0.28% Τζίρος: 97.06 εκ. € Τελ. ενημέρωση: 17:25:01 DATA
Φωτο: Shutterstock

ChatGPT: Τα συν και πλην της τεχνητής νοημοσύνης για πληροφόρηση - δημοκρατία

Η τεχνητή νοημοσύνη μπορεί να έχει εξαιρετικά αποστελέσματα στο fact checking, δηλαδή του ελέγχου της ορθότητας κάποιων πληροφοριών. Από την άλλη είναι ακόμα εύκολο να εξαπατηθεί και να εξαπατήσει.

Αμέσως μετά το ντεμπούτο του ChatGPT πέρυσι, οι ερευνητές δοκίμασαν τι θα έγραφε το chatbot τεχνητής νοημοσύνης αφού του τέθηκαν ερωτήσεις με θεωρίες συνωμοσίας και ψευδείς αφηγήσεις. Τα αποτελέσματα -σε γραπτά που μορφοποιήθηκαν ως άρθρα ειδήσεων, δοκίμια και τηλεοπτικά σενάρια- ήταν τόσο ανησυχητικά που οι ερευνητές ήταν ξεκάθαροι σχετικά με το πόσο επικίνδυνη μπορεί να είναι αυτή η τεχνολογία σε έναν κόσμο όπου το ευρύ κοινό δεν έχει τις απαραίτητες ψηφιακές γνώσεις για την χρησιμοποιήσει ορθά. Κάποιοι μάλιστα μίλησαν για το πιο ισχυρό όπλο παραπληροφόρησης του μέλλοντος. Κανείς, ωστόσο, δεν μπορεί να αρνηθεί ότι δημιουργεί και πολλά πλεονεκτήματα για την ενημέρωση και τη δημοκρατία.

Ο αντιπρόεδρος της Εθνικής Επιτροπής Βιοηθικής και Τεχνοηθικής και βασικός ερευνητής του ΕΚΚΕ, Χαράλαμπος Τσέκερης, αναφέρει στο ΑΠΕ-ΜΠΕ το παράδειγμα του fact checking, δηλαδή του ελέγχου της ορθότητας κάποιων πληροφοριών. Από την άλλη πλευρά όμως είναι εύκολο, τουλάχιστον ακόμα, αυτή η τεχνολογία να εξαπατηθεί και να εξαπατήσει. Αυτό συμβαίνει γιατί «παράγει κείμενο που είναι συντακτικά σωστά και καλογραμμένο και μπορεί να περιγράψει ό,τι του ζητηθεί», δηλώνει στο ΑΠΕ-ΜΠΕ ο καθηγητής του Τμήματος Πληροφορικής και Τηλεπικοινωνιών, Μανόλης Κουμπαράκης.

Ο Χαράλαμπος Τσέκερης κάνει λόγο για μία τεχνολογία που είναι σαν νόμισμα με δύο όψεις και εναπόκειται σε αυτόν που την έχει στα χέρια του πώς θα την χρησιμοποιήσει.

«Εδώ ισχύει αυτό που ονομάζεται δυαδικότητα της τεχνολογίας, δηλαδή το ChatGPT μπορεί να χρησιμοποιηθεί και για το fact checking, δηλαδή για τον έλεγχο αξιοπιστίας της πληροφορίας, και της είδησης, μπορεί να χρησιμοποιηθεί για ενδυνάμωση της ενημέρωσης, και αναβάθμιση της δημοκρατίας, κάτι το οποίο σπεύδουν να τονίσουν πολλοί ειδικοί, αλλά από την άλλη μπορεί να χρησιμοποιηθεί και για τη διασπορά και εξάπλωση παραποιημένων ειδήσεων και παραπληροφόρησης. Αν και το ίδιο το ChatGPT, όπως αναφέρεται στο site του, έχει προγραμματιστεί για μην εξαπλώνει ψευδείς ειδήσεις και για να αναφέρει σε αρμόδιες αρχές όσους προσπαθούν να διαδώσουν ρητορική μίσους ή φασιστικό περιεχόμενο. Ωστόσο, είναι ακόμα μία καινούργια τεχνολογία η οποία είναι ακόμα ευάλωτη και έχουν γίνει πολλά πειράματα πάνω σε αυτή την τεχνολογία και φαίνεται ότι πολύ εύκολα μπορεί κανείς να χρησιμοποιήσει αυτή την τεχνολογία για να διαδώσει πληροφορίες. Είναι ένα μεγάλο σημείο πειραματισμού, το ChatGPT αλλά και παρόμοιες αναδυόμενες τεχνολογίες που θα δούμε την επόμενη περίοδο», λέει στο ΑΠΕ-ΜΠΕ.

Ο Μανόλης Κουμπαράκης εξηγεί ότι το ChatGPT θα μπορούσε να χρησιμοποιηθεί για τη διασπορά ψευδών ειδήσεων και για παραπληροφόρηση καθώς παράγει κείμενα που είναι συντακτικά σωστά και καλογραμμένα και μπορεί να περιγράψει ό,τι του ζητηθεί (με εξαίρεση αν του ζητήσουμε να μας πει πχ, πώς θα κάνουμε κακό σε κάποιον, πώς να κατασκευάσουμε μια βόμβα κλπ.) «Είναι ιδιαίτερα δύσκολο για έναν άνθρωπο να καταλάβει αν ένα απλό κείμενο παράχθηκε από το chatGPT ή έναν δημοσιογράφο. Τονίζω τη λέξη απλό», λέει. Ωστόσο θεωρεί ότι το chatGPT δεν μπορεί ακόμα να γράψει τα ποιοτικά άρθρα τα οποία μπορούμε να διαβάσουμε σήμερα σε μια καλή εφημερίδα ή σε ένα ειδησεογραφικό site. «Άρθρα που για παράδειγμα περιέχουν αναφορές σε πηγές, πραγματικά γεγονότα, καλή χρήση της ελληνικής γλώσσας κλπ», προσθέτει χαρακτηριστικά. 

Παράλληλα, μια τεχνολογία που ουσιαστικά θέλει να προσομοιάσει τον ανθρώπινο νου αλλά δεν έχει κριτική σκέψη ή εμπειρίες είναι εύκολο να εξαπατηθεί.

«Αυτή τη στιγμή είναι εύκολο να εξαπατηθεί ώστε να παράγει κείμενο που δεν είναι αληθές. Έχω δοκιμάσει να του ζητήσω να μου πει πώς να κάνω κακό σε ένα ζώο και έχει αρνηθεί λέγοντας ότι δεν είναι σωστό να κάνουμε κακό στα ζώα. Υπάρχουν όμως περιπτώσεις που χρήστες έχουν πείσει το chatGPT να μην υπακούσει στους περιορισμούς που του έχουν βάλει οι μηχανικοί που το ανέπτυσσαν και, για παράδειγμα, να παραγάγει κείμενο που περιέχει διάφορες βρισιές», λέει ο κ. Κουμπαράκης.

Οι ειδικοί θεωρούν ότι είναι απαραίτητο να δημιουργηθούν οι κατάλληλοι μηχανισμοί ελέγχου της αξιοπιστίας του περιεχομένου που παράγεται από το ChatGPT ώστε να ελέγχεται η είδηση, αλλά και να εντοπίζεται η πηγή που μετέδωσε ψευδή είδηση, αν εντοπιστεί κάτι τέτοιο. Όμως, ακόμα και σε αυτήν την περίπτωση ο έλεγχος αυτών των τεχνολογιών που ωριμάζουν και ξεπερνιούνται πολύ γρήγορα είναι δύσκολος.

«Οι νόμοι ακόμα σε επίπεδο Ευρωπαϊκής Ένωσης που υπάρχει νομοθετική παραγωγή είναι πολύ δύσκολο να ρυθμίσουν ένα υπερπολύπλοκο πληροφοριακό κόσμο ο οποίος δημιουργεί δικά του δίκτυα, αυτοοργανούμενα δίκτυα που καθιστούν την από πάνω προς τα κάτω ρύθμιση πάρα πολύ δύσκολη και καθιστούν σχεδόν ανέφικτο τον διαφωτισμό και την ορθή ενημέρωση, πόσω μάλλον τη ρύθμιση. Η ρύθμιση είναι πολύ δύσκολη σε τέτοια περιβάλλοντα, μάλιστα με παγκόσμιες πλατφόρμες, οι οποίες δεν υπόκεινται σε κανόνες εποπτείας και ελέγχου αλλά διακηρύσσουν ότι έχουν δική τους εσωτερική εποπτεία και έλεγχο αλλά κανείς δεν μπορεί να τους εμπιστευτεί», εξηγεί ο κ. Τσέκερης και προσθέτει ότι «αυτό που είναι απολύτως απαραίτητο να κατακτήσουν οι σύγχρονες κοινωνίες προκειμένου να μην απειλούνται είναι «η ευρύτερη γραμματοσύνη για την τεχνητή νοημοσύνη και τα μεγάλα γλωσσικά μοντέλα, την παραγωγική τεχνητή νοημοσύνη και την κατανάλωση περιεχομένου μέσα σε τέτοια ψηφιακά περιβάλλοντα και ψηφιακά δίκτυα που όχι απλά είναι νέοι χώροι επικοινωνίας είναι νέοι κοινωνικοί χώροι που παράγουν αξίες, συμπεριφορές και τρόπους γνώσης. Και αυτό είναι κάτι πολύ δύσκολο γιατί τα περιβάλλοντα αυτά αλλάζουν πολύ γρήγορα και είναι πολύ δύσκολη η προσαρμογή σε αυτά τα περιβάλλοντα και η γνωστική προσαρμογή».

Με άλλα λόγια, οι αλλαγές είναι τόσο γρήγορες που μέχρι να μάθει κανείς και να προσαρμοστεί στο τρέχον περιβάλλον, γίνεται νέα αλλαγή κι έτσι η γνώση πολύ γρήγορα καθίσταται ξεπερασμένη.

Ο κ. Κουμπαράκης τονίζει ότι δεν υπάρχουν κανόνες ακόμα, αλλά σύντομα θα γίνουν σχετικές προσπάθειες μια που υπάρχει η δυνατότητα να χρησιμοποιήσει κάποιος το chatGPT σαν writing assistant χωρίς να σημαίνει αυτό ότι θέλει να «κλέψει». Πάντως αυτή τη στιγμή κάποια πανεπιστήμια έχουν ήδη απαγορεύσει τη χρήση του. Επίσης, έχουν αρχίσει να εμφανίζονται και συστήματα που μπορούν να βρουν αν κάτι έχει γραφτεί από το chatGPT, συστήματα εντοπισμού δηλαδή τα οποία στο μέλλον θα είναι ιδιαίτερα χρήσιμα.

Google news logo Ακολουθήστε το Business Daily στο Google news

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Artificial Intelligence, Texniti Noimosini
ΤΕΧΝΟΛΟΓΙΑ

Οι ΗΠΑ σκέφτονται να περιορίσουν τις εξαγωγές τσιπ τεχνητής νοημοσύνης

Η πολιτική θα βασιστεί σε ένα νέο πλαίσιο για τη διευκόλυνση της διαδικασίας αδειοδότησης για αποστολές τσιπ AI σε κέντρα δεδομένων σε μέρη όπως τα Ηνωμένα Αραβικά Εμιράτα και η Σαουδική Αραβία.
cyber attack-cyber security
ΤΕΧΝΟΛΟΓΙΑ

Τα 10,5 τρισ. δολ. θα φτάσουν το 2025 οι απώλειες λόγω κυβερνοεπιθέσεων

Η παγκόσμια αγορά κυβερνοασφάλειας εκτιμάται ότι θα αυξηθεί μέχρι το 2026 στα 270 δισ. δολάρια έναντι 170 δισ. το 2020. Παρουσιάζει όμως σήμερα τεράστιο κενό δεξιοτήτων 20.000 ανοιχτές θέσεις εργασίας στην Ελλάδα.
Artificial Intelligence, Texniti Noimosini
ΤΕΧΝΟΛΟΓΙΑ

ΕΕ: Τίθενται σε εφαρμογή κανόνες ρύθμισης της Τεχνητής Νοημοσύνης

Ο νέος νόμος κατηγοριοποιεί διαφορετικούς τύπους τεχνητής νοημοσύνης ανάλογα με τον κίνδυνο, ενώ σκοπός είναι η διασφάλιση του σεβασμού των θεμελιωδών δικαιωμάτων των πολιτών της ΕΕ.