Αρχική » Επικαιρότητα » ChatGPT: Οι τρεις ερωτήσεις που του κάνεις και απαντάει… ψέματα
ΕπικαιρότηταChatGPT: Οι τρεις ερωτήσεις που του κάνεις και απαντάει… ψέματα
Επιστήμονες εξηγούν γιατί η ΑΙ είναι ο χειρότερος σύμβουλος για την υγεία και τη ζωή σου και τις 3 πιο “άχρηστες” ερωτήσεις που της κάνουμε.
Για να το βγάλω από μέσα μου, η αναφορά του ChatGPT, στον τίτλο, έχει να κάνει με το γεγονός ότι δεν είμαι τόσο σίγουρη πως έχουμε συντονιστεί όλοι με την πληροφορία πως πρόκειται για LLM, όπως είναι και τα Gemini, Claude, Copilot, Deepseek, Grok κλπ.
Για την ιστορία, τα Μεγάλα Γλωσσικά Μοντέλα είναι συστήματα που “εκπαιδεύονται” σε τεράστιους όγκους δεδομένων για να μπορούν να παράγουν κείμενο, κώδικα ή αναλύσεις, ανταποκρινόμενα σε κάθε μας ζητούμενο (prompt), ώστε να μας κρατούν όσο το δυνατόν περισσότερο κοντά τους.
Δεν σκέφτονται. Προβλέπουν ποια είναι η επόμενη πιθανή λέξη, βάσει του πώς τα έχουμε εκπαιδεύσει.
Και εδώ ακριβώς, θα σταθούμε: στο πώς τα έχουμε εκπαιδεύσει.
«Έχω δίκιο που…;»
Όσες ώρες περνάμε στα LLM, τα μαθαίνουμε να προσαρμόζονται επάνω μας, ενώ έχουν ως “κατασκευαστική” λειτουργία να μας “λένε” ό,τι θέλουμε να ακούσουμε, να μας επιβεβαιώνουν και να μας ευχαριστούν.
Όχι να μας κρίνουν ή να μας θεραπεύουν.
Τώρα, για να είναι καλά μαζί μας, πολλές φορές μας δίνουν κακές συμβουλές, οι οποίες μπορούν να καταστρέψουν σχέσεις και να ενισχύσουν επιβλαβείς συμπεριφορές.
Δηλαδή, προκειμένου να μας ευχαριστήσουν, ακόμα και όταν έχουμε κάνει λάθος, η ΑΙ θα το δικαιολογήσει -κι έτσι θα μας στερήσει τη δυνατότητα να έλθουμε αντιμέτωποι με αυτό και να εξελιχθούμε.
Αυτό ακριβώς, αποκάλυψε μελέτη επιστημόνων υπολογιστών του Stanford, που δημοσιεύτηκε στο Science και τέσταρε τα 11 κορυφαία ΑΙ συστήματα. Οι επιστήμονες βρήκαν πως όλα εμφάνιζαν ποικίλους βαθμούς κολακείας, συμπεριφορά που είναι υπερβολικά ευχάριστη και επιβεβαιωτική.
Για την ακρίβεια, τα chatbots AI επιβεβαιώνουν τις ενέργειες ενός χρήστη 49% συχνότερα, από ό,τι οι άνθρωποι, συμπεριλαμβανομένων ερωτημάτων που αφορούσαν εξαπάτηση, παράνομη ή κοινωνικά ανεύθυνη συμπεριφορά και άλλες επιβλαβείς συμπεριφορές.
Το φαινόμενο ονομάστηκε “Το πρόβλημα της κολακείας” και όπως διευκρινίστηκε «το αίτημα για επικύρωση ημιουργεί ένα φαινόμενο “ανηχοϊκού θαλάμου” (βλ. θάλαμος χωρίς ηχώ)». Αυτό μπορεί να διαβρώσει την “κοινωνική τριβή”.
Βλέπεις, η κοινωνική αρμονία προϋποθέτει να ακούμε πράγματα που δεν μας αρέσουν, να εκπαιδεύουμε την ενσυναίσθηση μας και την ικανότητα στους συμβιβασμούς.
«Η υγιής ένταση βοηθά τους ανθρώπους να αναπτύξουν προοπτική και λογοδοσία», όπως αναφέρεται στη δημοσίευση, μαζί με το ότι «το πρόβλημα δεν είναι μόνο ότι τα chatbots AI παρέχουν ακατάλληλες συμβουλές, αλλά πως οι άνθρωποι τα εμπιστεύονται και προτιμούν περισσότερο, όταν δικαιολογούν τις πεποιθήσεις τους.
Αυτό δημιουργεί διεστραμμένα κίνητρα, προκειμένου να συνεχιστεί η κολακεία».
Και κάπως έτσι, φτάσαμε στην πρώτη ερώτηση που δεν πρέπει να κάνουμε ποτέ σε LLM: είναι το “έχω δίκιο που;”.
Δεν υπάρχει περίπτωση το LLM να σου πει πως έχεις άδικο.
«Πονάω στο στήθος. Τι έχω;»
Αυτό που μπορεί να κάνει πολύ καλά η τεχνητή νοημοσύνη σε ό,τι αφορά την υγεία μας, είναι να εξηγήσει ιατρικούς όρους και να συνοψίσει ιατρικές εργασίες (εξετάσεις).
Δεν μπορεί να μας εξετάσει και να κάνει διαγνώσεις, κάτι που ζητάμε -από ό,τι φαίνεται- πολύ συχνά.
Σε έκθεση που δημοσιεύτηκε τον περασμένο Φλεβάρη, από τον μη κερδοσκοπικό οργανισμό ECRI, η κακή χρήση της ΑΙ στην υγειονομική περίθαλψη χαρακτηρίστηκε ως «ο κορυφαίος κίνδυνος τεχνολογίας υγείας» της χρονιάς.
Αν πρέπει να καταστεί κάτι σαφές, αυτό είναι πως η ΑΙ λειτουργεί με βάση την “πρόβλεψη του επόμενου συμβολισμού”. Όχι με βάση τη βιολογική συλλογιστική. Σε δοκιμές, τα μοντέλα έχασαν κρίσιμες διαγνώσεις στο 60% των σύνθετων κλινικών περιπτώσεων και συχνά παρερμήνευσαν ιατρικές αναφορές.
Όταν αντιμετωπίζουμε ένα θέμα υγείας, στο οποίο κάθε δευτερόλεπτο μετράει (πχ πόνο στο στήθος), είναι χρήσιμο να αφιερώνουμε αυτόν τον χρόνο για να ειδοποιήσουμε επαγγελματίες υγείας και όχι για να πληκτρολογούμε.
Οι επιστήμονες προειδοποίησαν ότι η τεχνητή νοημοσύνη δεν έχει «βιωμένη εμπειρία» και δεν μπορεί να εκτελέσει τις φυσικές εξετάσεις ή τις εξετάσεις αίματος που είναι απαραίτητες για μια ασφαλή διάγνωση.
«Τι να κάνω με τη ζωή μου;»
Όταν δεν εμπιστεύεσαι τον ίδιο σου τον εαυτό για μια απόφαση, πώς γίνεται να εμπιστευτείς ένα μηχάνημα και δη όταν αυτό έχει εκπαιδευτεί επάνω σου. Άρα, είναι σαν να ρωτάς -πάλι- τον εαυτό σου.
Επιστήμονες προειδοποίησαν ότι είναι χρήσιμο να μην επιστρατεύουμε τα chatbots AI για να μας δώσουν υπαρξιακού περιεχομένου συμβουλές, εξαιτίας ενός φαινομένου που ονομάστηκε “Αυτοματοποιημένη Προκατάληψη”.
Επειδή η ΑΙ γράφει με αυτοπεποίθηση, δομή και σε σωστά ελληνικά, ο εγκέφαλος μας τείνει να την εμπιστεύεται περισσότερο από έναν φίλο, που θα πάρει και κάποια δευτερόλεπτα να σκεφτεί τι θα πει.
To LLM παρουσιάζεται πάντα ως σίγουρο και οριστικό και για αυτό είναι πολλοί οι χρήστες που το εμπιστεύονται απόλυτα, που σταματούν να αμφισβητούν το αποτέλεσμα που παίρνουν.
Οι ερευνητές εξήγησαν πως το μηχάνημα δεν έχει εγγενή “λειτουργία αξιών” και έτσι, δεν μπορεί να κατανοήσει τις μακροπρόθεσμες συνέπειες των επιλογών ζωής.
Για αυτό και σου απαντά σε όλα με το ίδιο υπολογιστικό βάρος: το “τι να κάνω στη ζωή μου;” απαντάται με την ευκολία που προτείνεται ένα σεσουάρ που ψάχνεις να αγοράσεις και ζητάς βοήθεια από Mεγάλο Γλωσσικό Μοντέλο.
Οι επιστήμονες διαπίστωσαν ότι οι χρήστες που βασίζονταν στην ΑΙ για συμβουλές σχέσεων, γίνονταν λιγότερο πρόθυμοι να συμβιβαστούν ή να ζητήσουν συγγνώμη στην πραγματική ζωή, καθώς οι “συμβουλές” της τεχνητής νοημοσύνης συχνά έδιναν προτεραιότητα στο “εγώ” του χρήστη, αντί της κοινωνικής αρμονίας.
Πηγή: news247.gr
