Τελευταία Νέα
Διεθνή

Σοκ από μελέτη του Stanford: Η τεχνητή νοημοσύνη ενισχύει την ηθική τύφλωση – Σοβαρός κίνδυνος για την κοινωνία

Σοκ από μελέτη του Stanford: Η τεχνητή νοημοσύνη ενισχύει την ηθική τύφλωση – Σοβαρός κίνδυνος για την κοινωνία
Η μελέτη, που δημοσιεύθηκε στο επιστημονικό περιοδικό Science από ερευνητές του τμήματος πληροφορικής του Stanford, αποκαλύπτει επικίνδυνες τάσεις στον τρόπο με τον οποίο τα συστήματα τεχνητής νοημοσύνης αλληλεπιδρούν με χρήστες
Μια νέα, άκρως ανησυχητική μελέτη από το Stanford φέρνει στο φως μια σκοτεινή διάσταση της τεχνητής νοημοσύνης, η οποία φαίνεται να λειτουργεί όχι ως εργαλείο καθοδήγησης, αλλά ως μηχανισμός επιβεβαίωσης λανθασμένων συμπεριφορών.
Τα ευρήματα προκαλούν έντονο προβληματισμό, καθώς αποκαλύπτουν ότι τα AI chatbots επιβεβαιώνουν τους χρήστες έως και 49% περισσότερο από ό,τι οι άνθρωποι — ακόμη και όταν αυτοί κάνουν ξεκάθαρα λάθος.
Η μελέτη, που δημοσιεύθηκε στο επιστημονικό περιοδικό Science από ερευνητές του τμήματος πληροφορικής του Stanford, αποκαλύπτει επικίνδυνες τάσεις στον τρόπο με τον οποίο τα συστήματα τεχνητής νοημοσύνης αλληλεπιδρούν με χρήστες που αναζητούν συμβουλές για κοινωνικά και διαπροσωπικά ζητήματα.
Αντί να λειτουργούν ως αντικειμενικοί σύμβουλοι, τα AI μοντέλα φαίνεται να υιοθετούν μια «δουλοπρεπή» στάση, ενισχύοντας τις απόψεις των χρηστών και δημιουργώντας έναν φαύλο κύκλο επιβεβαίωσης που υπονομεύει την προσωπική ευθύνη.
Η ερευνητική ομάδα, υπό την καθοδήγηση της υποψήφιας διδάκτορος Myra Cheng, ανέλυσε απαντήσεις από 11 κορυφαία μοντέλα τεχνητής νοημοσύνης, μεταξύ των οποίων τα Claude, Gemini και ChatGPT.
Χρησιμοποιώντας ένα σύνολο σχεδόν 12.000 κοινωνικών σεναρίων, οι ερευνητές διαπίστωσαν ότι ακόμη και σε περιπτώσεις όπου η ανθρώπινη κοινότητα είχε ξεκάθαρα κρίνει ότι ένα άτομο είχε άδικο, τα AI μοντέλα τάσσονταν υπέρ του χρήστη στο 51% των περιπτώσεων.

Ανησυχία

Τα αποτελέσματα της έρευνας είναι ιδιαίτερα ανησυχητικά.
Σε πειράματα με 2.400 συμμετέχοντες, όσοι έλαβαν «κολακευτικές» απαντήσεις από AI ήταν σημαντικά λιγότερο πρόθυμοι να ζητήσουν συγγνώμη, να αναγνωρίσουν τα λάθη τους ή να επιδιώξουν συμφιλίωση σε πραγματικές συγκρούσεις.
Ακόμη πιο ανησυχητικό είναι το γεγονός ότι αυτοί οι χρήστες έδειξαν σαφή προτίμηση σε τέτοιου είδους AI: ήταν κατά 13% πιο πιθανό να το χρησιμοποιήσουν ξανά.
Ο καθηγητής Dan Jurafsky, συν-συγγραφέας της μελέτης, προειδοποιεί ότι η «δουλοπρέπεια» της τεχνητής νοημοσύνης ενισχύει τον εγωκεντρισμό και την ηθική ακαμψία των χρηστών, δημιουργώντας μια στρεβλή εικόνα της πραγματικότητας.
Το πιο ανησυχητικό στοιχείο;
Οι χρήστες δεν μπορούν καν να αντιληφθούν τη μεροληψία αυτή.
Όταν τους ζητήθηκε να αξιολογήσουν την αντικειμενικότητα των απαντήσεων, δεν διέκριναν διαφορά μεταξύ ουδέτερων και «δουλοπρεπών» απαντήσεων.
Η έρευνα έρχεται να ενισχύσει ήδη υπάρχουσες ανησυχίες ότι τα AI chatbots μπορούν να συμβάλουν σε σοβαρές αρνητικές επιπτώσεις, όπως αυτοτραυματισμούς ή βίαιες συμπεριφορές σε ευάλωτες ομάδες.

Το φαινόμενο επεκτείνεται

Πλέον, οι επιστήμονες φοβούνται ότι το φαινόμενο επεκτείνεται στο σύνολο της κοινωνίας, αλλοιώνοντας τον τρόπο με τον οποίο οι άνθρωποι αντιλαμβάνονται την κριτική και διαχειρίζονται τις διαπροσωπικές συγκρούσεις.
Ιδιαίτερη ανησυχία εκφράζεται για τους νέους, οι οποίοι στρέφονται ολοένα και περισσότερο στην τεχνητή νοημοσύνη για καθοδήγηση σε προσωπικά ζητήματα.
Η Myra Cheng προειδοποιεί ότι υπάρχει πραγματικός κίνδυνος οι άνθρωποι να χάσουν βασικές κοινωνικές δεξιότητες, τονίζοντας ότι η AI δεν πρέπει να αντικαθιστά την ανθρώπινη επαφή σε τέτοιες περιπτώσεις.
Την ίδια στιγμή, ο Wynton Hall, συγγραφέας του βιβλίου Code Red: The Left, the Right, China, and the Race to Control AI, κρούει τον κώδωνα του κινδύνου για την επίδραση της τεχνητής νοημοσύνης στην ψυχική υγεία των εφήβων. Ιδιαίτερα επικίνδυνα χαρακτηρίζει τα λεγόμενα «AI companions», τα οποία —όπως υποστηρίζει— όχι μόνο δεν προσφέρουν ουσιαστικά οφέλη, αλλά ενδέχεται να εκθέσουν τους ανήλικους σε ακατάλληλο περιεχόμενο και στρεβλές αντιλήψεις.
Καθώς η τεχνητή νοημοσύνη διεισδύει όλο και βαθύτερα στην καθημερινότητα, η μελέτη του Stanford λειτουργεί ως ηχηρό καμπανάκι κινδύνου: μήπως, τελικά, οι μηχανές δεν μας βοηθούν να γίνουμε καλύτεροι, αλλά μας παγιδεύουν στις χειρότερες εκδοχές του εαυτού μας;

www.bankingnews.gr

Ρoή Ειδήσεων

Σχόλια αναγνωστών

Δείτε επίσης