Η μελέτη προσπάθησε να αναλύσει την ανθρώπινη συμπεριφορά στο πλαίσιο των εκλογών και ρώτησε πόσο με ακρίβεια ένα γλωσσικό μοντέλο GPT-3 θα μπορούσε να προβλέψει τα πρότυπα ψήφου με βάση κοινωνικοδημογραφικούς παράγοντες όπως το φύλο, την ηλικία, την τοποθεσία, τη θρησκεία, τη φυλή και την οικονομική κατάσταση ενός ατόμου.
Την Τεχνητή Νοημοσύνη (AI) την δημιούργησαν άνθρωποι και την εμπλούτισαν κατά τέτοιο τρόπο, ώστε η ΑΙ έφτασε να γνωρίζει τους ανθρώπους καλύτερα από όσο γνωρίζουν οι άνθρωποι το εργαλείο που δημιούργησαν, ή μπορούν οι ίδιοι να προβλέψουν συμπεριφορές.... αυτό το κάνει η ΑΙ: «μαντεύει» και απεικονίζει με σχεδόν μαθηματική ακρίβεια την ανθρώπινη συμπεριφορά.
Μια μελέτη από ειδικούς της ΑΙ στο Πανεπιστήμιο Brigham Young, με τίτλο «Out of One, Many: Using Language Models to Simulate Human Samples», διαπίστωσε ότι τα προγράμματα πρόβλεψης AI παρουσίασαν σε εντυπωσιακή ακρίβεια αυτό που αποκαλούν «αλγοριθμική πιστότητα» ή ακριβής αντιστοίχιση με την πραγματική ανθρώπινη συμπεριφορά.
H «ανάγνωση» των ψηφοφόρων
«Επειδή αυτά τα εργαλεία τεχνητής νοημοσύνης είναι βασικά εκπαιδευμένα σε πράγματα που παράγουν οι άνθρωποι, πράγματα που γράφουμε, έγγραφα που φτιάχνουμε, ιστοσελίδες που γράφουμε, μπορούν να μας αντανακλούν πολλά ενδιαφέροντα και σημαντικά πράγματα για τον εαυτό μας», δήλωσε ο Ethan Busby, πολιτικός ψυχολόγος και συν-συγγραφέας της μελέτης, στους The Epoch Times.
«Όπως αν κάποιος διάβαζε το ημερολόγιό σας από την αρχή μέχρι το τέλος, θα ήξερε πολλά πράγματα για εσάς και ποια πράγματα δεν μας αρέσουν.
«Με παρόμοιο τρόπο», είπε ο Busby, «αυτά τα εργαλεία έχουν διαβάσει τόσα πολλά πράγματα που έχουν δημιουργήσει οι άνθρωποι και μπορούν να αναπαράγουν ή να μας πουν πράγματα για τον εαυτό μας που δεν γνωρίζαμε απαραίτητα».
Η μελέτη προσπάθησε να αναλύσει την ανθρώπινη συμπεριφορά στο πλαίσιο των εκλογών και ρώτησε πόσο με ακρίβεια ένα γλωσσικό μοντέλο GPT-3 θα μπορούσε να προβλέψει τα πρότυπα ψήφου με βάση κοινωνικοδημογραφικούς παράγοντες όπως το φύλο, την ηλικία, την τοποθεσία, τη θρησκεία, τη φυλή και την οικονομική κατάσταση ενός ατόμου.
Οι συγγραφείς χρησιμοποίησαν αυτούς τους παράγοντες για να δημιουργήσουν «δείγματα πυριτίου» ή σύνθετες περσόνες που βασίζονται σε διάφορους συνδυασμούς αυτών των χαρακτηριστικών.
«Μπορείτε βασικά να ζητήσετε από αυτά τα εργαλεία να βάλουν τον εαυτό τους σε ένα συγκεκριμένο πλαίσιο μυαλού και να προσποιηθούν ότι είναι ουσιαστικά αυτό το άτομο, να προσποιηθούν ότι έχουν αυτά τα χαρακτηριστικά», είπε ο Busby.
Ρώτησαν το πρόγραμμα πώς θα ψήφιζαν αυτά τα «δείγματα πυριτίου» σε συγκεκριμένες εκστρατείες και, στη συνέχεια, συνέκριναν τα αποτελέσματα με την πραγματική συμπεριφορά των ψηφοφόρων στις εκλογές μεταξύ 2012 και 2020, χρησιμοποιώντας δεδομένα από τις αμερικανικές μελέτες Εθνικών Εκλογών.
Για παράδειγμα, ο Busby είπε, σχετικά με τις εκλογές του 2016, «Θα μπορούσαμε να πούμε τι είδους ομάδες θα είναι κομβικές στο Οχάιο;»
Αυτό που βρήκαν ήταν ότι η τεχνητή νοημοσύνη έμαθε γρήγορα να προβλέπει με ακρίβεια πώς θα ψήφιζαν οι άνθρωποι, με βάση τα χαρακτηριστικά τους.
Αριστερά και Δεξιά καταδικάζουν την τεχνητή νοημοσύνη, όταν... κοστίζουν εκλογές
Η τεχνητή νοημοσύνη είναι πολύ χρήσιμη σε οργανισμούς που θέλουν να στοχεύσουν πράγματα όπως εκστρατείες ανταλλαγής πολιτικών μηνυμάτων ή προσπάθειες συγκέντρωσης κεφαλαίων.
Ωστόσο, ορισμένοι πολιτικοί αναλυτές έχουν σηκώσει κόκκινες σημαίες σχετικά με αυτό, συνάγοντας την αδικία και την παρέμβαση στις εκλογές.
Ο βαθμός της αγανάκτησής τους, ωστόσο, εξαρτάται σε μεγάλο βαθμό από το αν οι υποψήφιοι ή οι αιτίες τους πέτυχαν ή απέτυχαν.
Το 2017, η εφημερίδα The Guardian, μια αριστερή βρετανική εφημερίδα, έγραψε μια σειρά άρθρων υποστηρίζοντας ότι ο συντηρητικός επιχειρηματίας της τεχνολογίας Robert Mercer, τον οποίο αποκάλεσε «ο δισεκατομμυριούχος των μεγάλων δεδομένων που διεξάγει πόλεμο στα κυρίαρχα μέσα μαζικής ενημέρωσης», είχε χρηματοδοτήσει μια στρατηγική εκστρατείας χρησιμοποιώντας AI για να παρακάμπτουν τις «αφηγήσεις» των κυρίαρχων μέσων ενημέρωσης.
Αυτό, υποστήριξε η εφημερίδα, παρέσυρε παράνομα τους ψηφοφόρους υπέρ του Donald Trump, με αποτέλεσμα τη νίκη του στις προεδρικές εκλογές το 2016.
Στη συνέχεια, το 2020, το Forbes, μια δεξιά έκδοση, δημοσίευσε ένα άρθρο με τίτλο «Πώς η Τεχνητή Νοημοσύνη επηρέασε τις ενδιάμεσες εκλογές».
Αυτό το άρθρο αποδοκίμαζε τη χρήση της τεχνητής νοημοσύνης από τους Δημοκρατικούς για να στοχεύσουν εκστρατείες συγκέντρωσης κεφαλαίων σε πιθανούς δωρητές, επιτρέποντάς τους να δαπανούν μαζικά τους Ρεπουμπλικάνους σε στενούς αγώνες και να προσφέρουν θετικά αποτελέσματα για το Δημοκρατικό Κόμμα.
Οι επικριτές της τεχνητής νοημοσύνης λένε ότι αυτά τα προγράμματα δεν χρησιμοποιούνται μόνο για ανάλυση ψηφοφόρων αλλά και για χειραγώγηση ψηφοφόρων.
Μια έκθεση του 2022 από την Rand Corp. με τίτλο «Τεχνητή Νοημοσύνη, Deepfakes και Παραπληροφόρηση», προειδοποίησε για «πόλεμο παραπληροφόρησης», αν και σε μεγάλο βαθμό από την αριστερή προοπτική.
Μεταξύ των μέσων χειραγώγησης που ανέφερε ήταν παραπλανητικές εικόνες ή βίντεο που κοινοποιήθηκαν στα μέσα κοινωνικής δικτύωσης, γνωστά ως «μιμίδια».
«Η Ρωσία χρησιμοποίησε μιμίδια για να στοχεύσει τις εκλογές του 2016 στις ΗΠΑ», ανέφερε η έκθεση.
«Η Κίνα χρησιμοποίησε μιμίδια για να στοχεύσει διαδηλωτές στο Χονγκ Κονγκ και όσοι προσπαθούσαν να αμφισβητήσουν την αποτελεσματικότητα των εμβολίων για τη νόσο του κορωνοϊού 2019 χρησιμοποίησαν τα «μιμίδια» ως αγαπημένο εργαλείο».
Σύμφωνα με τον Ραντ, αυτά τα μιμίδια, μαζί με «ιστοσελίδες ψεύτικων ειδήσεων», έχουν «σπείρει διχασμό στο αμερικανικό εκλογικό σώμα και αύξησαν την υιοθέτηση θεωριών συνωμοσίας».
Μετάβαση της τεχνητής νοημοσύνης από τον πληθυσμό στην προσωπική ανάλυση
Ενώ η AI είναι αποτελεσματική σε συγκεντρωτικό επίπεδο στην παρατήρηση ανθρώπων, στον εντοπισμό μοτίβων, στην εκμάθηση των συνηθειών μας και στο συμπέρασμα, με βάση αυτό, τι θα κάνουμε σε διάφορες καταστάσεις, το να φτάσουμε στο ατομικό επίπεδο είναι πιο δύσκολο.
«Νομίζω ότι σε ατομικό επίπεδο, μάλλον είναι εντάξει, δεν είναι τέλειο.
Δεν είναι 100% επιτυχημένη στην πρόβλεψη συγκεκριμένων ανθρώπων, όχι σχεδόν τόσο καλά όσο και στο να προβλέπεις ομάδες και να συγκεντρώνεις», είπε ο Busby.
Όποιος έχει ρωτήσει το ChatGPT, ένα πρόσφατα δημοφιλές πρόγραμμα αναζήτησης τεχνητής νοημοσύνης, για τον εαυτό του ή για άτομα που γνωρίζει, συχνά διαπιστώνει ότι ορισμένες από τις πληροφορίες είναι σωστές και ορισμένες από αυτές είναι λάθος.
«Αυτά τα μοντέλα, όλα, το ChatGPT και οποιοδήποτε από αυτά που χρησιμοποιούνται από το Facebook ή άλλα, μερικές φορές έχουν μια τάση σε αυτό που ονομάζεται «παραισθήσεις»», είπε ο Busby.
«Αυτό σημαίνει ότι απλώς επινοούν πράγματα που δεν είναι αλήθεια».
Αλλά πιστεύει ότι η τεχνητή νοημοσύνη σύντομα θα βελτιωθεί στο να ξεκαθαρίζει τα δεδομένα της.
"Υπάρχει απλώς μεγάλη πίεση από εταιρείες, πολιτικούς, εκστρατείες - θέλουν να μάθουν πώς θα ανταποκριθεί αυτό το άτομο σε αυτό το μήνυμα", είπε.
«Νομίζω ότι θα δοθεί μεγάλη έμφαση στην προσπάθεια ανάπτυξης αυτού του είδους της ακρίβειας, αλλά δεν νομίζω ότι είμαστε ακόμα εκεί».
Το Διαδίκτυο σε γνωρίζει καλύτερα
Περνώντας το σε προσωπικό επίπεδο, μια έκθεση του 2019 στο Scientific American με τίτλο «Το Διαδίκτυο σε γνωρίζει καλύτερα από τον σύζυγό σου», ανέλυσε ένα πρόγραμμα που ονομάζεται Apply Magic Sauce.
Το πρόγραμμα ζητά από τα υποκείμενα μερικές πληροφορίες, όπως κάτι που έχουν γράψει, μηνύματα ηλεκτρονικού ταχυδρομείου ή ιστολόγια, μαζί με πληροφορίες σχετικά με τη δραστηριότητά τους στα μέσα κοινωνικής δικτύωσης.
Με βάση αυτές τις εισροές, το Apply Magic Sauce θα μπορούσε να δημιουργήσει «ένα λεπτομερές ψυχόγραμμα ή προφίλ προσωπικότητας, που περιλαμβάνει την υποτιθέμενη ηλικία και το φύλο σας, είτε αγχώνεστε είτε αγχώνεστε εύκολα, πόσο γρήγορα ενδίδετε σε παρορμήσεις και αν είστε πολιτικά και κοινωνικά συντηρητική ή φιλελεύθερη».
Η έκθεση διαπίστωσε ότι αναλύοντας τα «μου αρέσει» (likes) των ανθρώπων στα μέσα κοινωνικής δικτύωσης, τα προγράμματα τεχνητής νοημοσύνης ήταν σε θέση να ζωγραφίσουν ένα ακριβές πορτρέτο της προσωπικότητάς τους.
«Αν το λογισμικό είχε μόλις 10 [μου αρέσει] για ανάλυση, ήταν σε θέση να αξιολογήσει αυτό το άτομο όσο και ένας συνάδελφος», ανέφερε η έκθεση.
«Δοθέντων 70 likes, ο αλγόριθμος ήταν τόσο ακριβής όσο ένας φίλος.
Με 300, ήταν πιο επιτυχημένη από τη/το σύζυγο του ατόμου».
Stop στην καλύτερη... γνωριμία της ΑΙ σε προσωπικό επίπεδο
«Οι οργανώσεις θα ενδιαφέρονται πολύ για το «Πώς μπορούμε να σας καταλάβουμε σε προσωπικό επίπεδο;» είπε ο Busby.
«Με κάνει να νιώθω άβολα να με παρακολουθούν και να μοντελοποιούμαι με αυτόν τον τρόπο από ένα εργαλείο τεχνητής νοημοσύνης».
Οι πιο σκοτεινές δυνατότητες της τεχνητής νοημοσύνης έχουν γίνει πρωταρχικό θέμα τις τελευταίες εβδομάδες, με επείγουσες εκκλήσεις από επιστήμονες και ειδικούς της τεχνολογίας να περιορίσουν την ανάπτυξή της έως ότου οι άνθρωποι κατανοήσουν καλύτερα τις χρήσεις και τα αποτελέσματά της.
Στις 22 Μαρτίου, μια ανοιχτή επιστολή, που έχει υπογραφεί μέχρι στιγμής από 50.000 άτομα, συμπεριλαμβανομένου του συνιδρυτή της Apple, Steve Wozniak και του επιχειρηματία τεχνολογίας Elon Musk, ζητούσε να σταματήσει άμεσα η ανάπτυξη γενικής τεχνητής νοημοσύνης ή αυτόνομων συστημάτων νοημοσύνης που μπορούν να εξελιχθούν πέρα από την εκτέλεση συγκεκριμένων εργασιών και θεωρητικά ξεπερνούν την ανθρώπινη νοημοσύνη.
«Τα συστήματα τεχνητής νοημοσύνης με ανθρώπινη-ανταγωνιστική νοημοσύνη μπορούν να θέτουν σοβαρούς κινδύνους για την κοινωνία και την ανθρωπότητα, όπως φαίνεται από εκτεταμένη έρευνα και αναγνωρίζεται από κορυφαία εργαστήρια τεχνητής νοημοσύνης», ανέφερε η επιστολή.
Βαθιά αλλαγή
«Η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να αντιπροσωπεύει μια βαθιά αλλαγή στην ιστορία της ζωής στη Γη και θα πρέπει να σχεδιαστεί και να διαχειρίζεται με ανάλογη φροντίδα και πόρους».
Εάν μπορεί να περιοριστεί για να αποφευχθούν τα κακόβουλα και χειραγωγικά στοιχεία, η τεχνητή νοημοσύνη «έχει την ικανότητα και τη δυνατότητα να επεκτείνει πραγματικά τις δυνατότητές μας σε πολλούς τομείς και να λύσει πολλά από τα προβλήματα που αντιμετωπίζουμε», είπε ο Busby.
«Μερικά από τα πράγματα που υποθέσαμε ότι οι υπολογιστές δεν μπορούσαν να κάνουν καλά, όπως να γράψουν μυθιστορήματα ή να δημιουργήσουν κάτι νέο από το τίποτα, μπορεί να κάνει αυτά τα πράγματα.
Η τεχνητή νοημοσύνη μπορεί να βοηθήσει να απαντηθούν ερευνητικά ερωτήματα, αλλά δεν μπορεί να αποφασίσει τι πρέπει να ερευνήσουμε, ποιοι είναι οι στόχοι μας ή τι είδους κοινωνία θα πρέπει να έχουμε, είπε.
«Η [AI] μας αναγκάζει να σκεφτούμε προσεκτικά τι συνεισφέρουμε», είπε.
"Μας υπενθυμίζει τι είναι τόσο μοναδικό ή κάτι που προσφέρουμε που είναι ξεχωριστό, για να μας βοηθήσει να επικεντρωθούμε σε αυτά τα πράγματα αντί στα κοσμικά πράγματα που οι υπολογιστές και αυτού του είδους οι αλγόριθμοι μπορούν πραγματικά να αυτοματοποιήσουν γρήγορα."
www.bankingnews.gr
Μια μελέτη από ειδικούς της ΑΙ στο Πανεπιστήμιο Brigham Young, με τίτλο «Out of One, Many: Using Language Models to Simulate Human Samples», διαπίστωσε ότι τα προγράμματα πρόβλεψης AI παρουσίασαν σε εντυπωσιακή ακρίβεια αυτό που αποκαλούν «αλγοριθμική πιστότητα» ή ακριβής αντιστοίχιση με την πραγματική ανθρώπινη συμπεριφορά.
H «ανάγνωση» των ψηφοφόρων
«Επειδή αυτά τα εργαλεία τεχνητής νοημοσύνης είναι βασικά εκπαιδευμένα σε πράγματα που παράγουν οι άνθρωποι, πράγματα που γράφουμε, έγγραφα που φτιάχνουμε, ιστοσελίδες που γράφουμε, μπορούν να μας αντανακλούν πολλά ενδιαφέροντα και σημαντικά πράγματα για τον εαυτό μας», δήλωσε ο Ethan Busby, πολιτικός ψυχολόγος και συν-συγγραφέας της μελέτης, στους The Epoch Times.
«Όπως αν κάποιος διάβαζε το ημερολόγιό σας από την αρχή μέχρι το τέλος, θα ήξερε πολλά πράγματα για εσάς και ποια πράγματα δεν μας αρέσουν.
«Με παρόμοιο τρόπο», είπε ο Busby, «αυτά τα εργαλεία έχουν διαβάσει τόσα πολλά πράγματα που έχουν δημιουργήσει οι άνθρωποι και μπορούν να αναπαράγουν ή να μας πουν πράγματα για τον εαυτό μας που δεν γνωρίζαμε απαραίτητα».
Η μελέτη προσπάθησε να αναλύσει την ανθρώπινη συμπεριφορά στο πλαίσιο των εκλογών και ρώτησε πόσο με ακρίβεια ένα γλωσσικό μοντέλο GPT-3 θα μπορούσε να προβλέψει τα πρότυπα ψήφου με βάση κοινωνικοδημογραφικούς παράγοντες όπως το φύλο, την ηλικία, την τοποθεσία, τη θρησκεία, τη φυλή και την οικονομική κατάσταση ενός ατόμου.
Οι συγγραφείς χρησιμοποίησαν αυτούς τους παράγοντες για να δημιουργήσουν «δείγματα πυριτίου» ή σύνθετες περσόνες που βασίζονται σε διάφορους συνδυασμούς αυτών των χαρακτηριστικών.
«Μπορείτε βασικά να ζητήσετε από αυτά τα εργαλεία να βάλουν τον εαυτό τους σε ένα συγκεκριμένο πλαίσιο μυαλού και να προσποιηθούν ότι είναι ουσιαστικά αυτό το άτομο, να προσποιηθούν ότι έχουν αυτά τα χαρακτηριστικά», είπε ο Busby.
Ρώτησαν το πρόγραμμα πώς θα ψήφιζαν αυτά τα «δείγματα πυριτίου» σε συγκεκριμένες εκστρατείες και, στη συνέχεια, συνέκριναν τα αποτελέσματα με την πραγματική συμπεριφορά των ψηφοφόρων στις εκλογές μεταξύ 2012 και 2020, χρησιμοποιώντας δεδομένα από τις αμερικανικές μελέτες Εθνικών Εκλογών.
Για παράδειγμα, ο Busby είπε, σχετικά με τις εκλογές του 2016, «Θα μπορούσαμε να πούμε τι είδους ομάδες θα είναι κομβικές στο Οχάιο;»
Αυτό που βρήκαν ήταν ότι η τεχνητή νοημοσύνη έμαθε γρήγορα να προβλέπει με ακρίβεια πώς θα ψήφιζαν οι άνθρωποι, με βάση τα χαρακτηριστικά τους.
Αριστερά και Δεξιά καταδικάζουν την τεχνητή νοημοσύνη, όταν... κοστίζουν εκλογές
Η τεχνητή νοημοσύνη είναι πολύ χρήσιμη σε οργανισμούς που θέλουν να στοχεύσουν πράγματα όπως εκστρατείες ανταλλαγής πολιτικών μηνυμάτων ή προσπάθειες συγκέντρωσης κεφαλαίων.
Ωστόσο, ορισμένοι πολιτικοί αναλυτές έχουν σηκώσει κόκκινες σημαίες σχετικά με αυτό, συνάγοντας την αδικία και την παρέμβαση στις εκλογές.
Ο βαθμός της αγανάκτησής τους, ωστόσο, εξαρτάται σε μεγάλο βαθμό από το αν οι υποψήφιοι ή οι αιτίες τους πέτυχαν ή απέτυχαν.
Το 2017, η εφημερίδα The Guardian, μια αριστερή βρετανική εφημερίδα, έγραψε μια σειρά άρθρων υποστηρίζοντας ότι ο συντηρητικός επιχειρηματίας της τεχνολογίας Robert Mercer, τον οποίο αποκάλεσε «ο δισεκατομμυριούχος των μεγάλων δεδομένων που διεξάγει πόλεμο στα κυρίαρχα μέσα μαζικής ενημέρωσης», είχε χρηματοδοτήσει μια στρατηγική εκστρατείας χρησιμοποιώντας AI για να παρακάμπτουν τις «αφηγήσεις» των κυρίαρχων μέσων ενημέρωσης.
Αυτό, υποστήριξε η εφημερίδα, παρέσυρε παράνομα τους ψηφοφόρους υπέρ του Donald Trump, με αποτέλεσμα τη νίκη του στις προεδρικές εκλογές το 2016.
Στη συνέχεια, το 2020, το Forbes, μια δεξιά έκδοση, δημοσίευσε ένα άρθρο με τίτλο «Πώς η Τεχνητή Νοημοσύνη επηρέασε τις ενδιάμεσες εκλογές».
Αυτό το άρθρο αποδοκίμαζε τη χρήση της τεχνητής νοημοσύνης από τους Δημοκρατικούς για να στοχεύσουν εκστρατείες συγκέντρωσης κεφαλαίων σε πιθανούς δωρητές, επιτρέποντάς τους να δαπανούν μαζικά τους Ρεπουμπλικάνους σε στενούς αγώνες και να προσφέρουν θετικά αποτελέσματα για το Δημοκρατικό Κόμμα.
Οι επικριτές της τεχνητής νοημοσύνης λένε ότι αυτά τα προγράμματα δεν χρησιμοποιούνται μόνο για ανάλυση ψηφοφόρων αλλά και για χειραγώγηση ψηφοφόρων.
Μια έκθεση του 2022 από την Rand Corp. με τίτλο «Τεχνητή Νοημοσύνη, Deepfakes και Παραπληροφόρηση», προειδοποίησε για «πόλεμο παραπληροφόρησης», αν και σε μεγάλο βαθμό από την αριστερή προοπτική.
Μεταξύ των μέσων χειραγώγησης που ανέφερε ήταν παραπλανητικές εικόνες ή βίντεο που κοινοποιήθηκαν στα μέσα κοινωνικής δικτύωσης, γνωστά ως «μιμίδια».
«Η Ρωσία χρησιμοποίησε μιμίδια για να στοχεύσει τις εκλογές του 2016 στις ΗΠΑ», ανέφερε η έκθεση.
«Η Κίνα χρησιμοποίησε μιμίδια για να στοχεύσει διαδηλωτές στο Χονγκ Κονγκ και όσοι προσπαθούσαν να αμφισβητήσουν την αποτελεσματικότητα των εμβολίων για τη νόσο του κορωνοϊού 2019 χρησιμοποίησαν τα «μιμίδια» ως αγαπημένο εργαλείο».
Σύμφωνα με τον Ραντ, αυτά τα μιμίδια, μαζί με «ιστοσελίδες ψεύτικων ειδήσεων», έχουν «σπείρει διχασμό στο αμερικανικό εκλογικό σώμα και αύξησαν την υιοθέτηση θεωριών συνωμοσίας».
Μετάβαση της τεχνητής νοημοσύνης από τον πληθυσμό στην προσωπική ανάλυση
Ενώ η AI είναι αποτελεσματική σε συγκεντρωτικό επίπεδο στην παρατήρηση ανθρώπων, στον εντοπισμό μοτίβων, στην εκμάθηση των συνηθειών μας και στο συμπέρασμα, με βάση αυτό, τι θα κάνουμε σε διάφορες καταστάσεις, το να φτάσουμε στο ατομικό επίπεδο είναι πιο δύσκολο.
«Νομίζω ότι σε ατομικό επίπεδο, μάλλον είναι εντάξει, δεν είναι τέλειο.
Δεν είναι 100% επιτυχημένη στην πρόβλεψη συγκεκριμένων ανθρώπων, όχι σχεδόν τόσο καλά όσο και στο να προβλέπεις ομάδες και να συγκεντρώνεις», είπε ο Busby.
Όποιος έχει ρωτήσει το ChatGPT, ένα πρόσφατα δημοφιλές πρόγραμμα αναζήτησης τεχνητής νοημοσύνης, για τον εαυτό του ή για άτομα που γνωρίζει, συχνά διαπιστώνει ότι ορισμένες από τις πληροφορίες είναι σωστές και ορισμένες από αυτές είναι λάθος.
«Αυτά τα μοντέλα, όλα, το ChatGPT και οποιοδήποτε από αυτά που χρησιμοποιούνται από το Facebook ή άλλα, μερικές φορές έχουν μια τάση σε αυτό που ονομάζεται «παραισθήσεις»», είπε ο Busby.
«Αυτό σημαίνει ότι απλώς επινοούν πράγματα που δεν είναι αλήθεια».
Αλλά πιστεύει ότι η τεχνητή νοημοσύνη σύντομα θα βελτιωθεί στο να ξεκαθαρίζει τα δεδομένα της.
"Υπάρχει απλώς μεγάλη πίεση από εταιρείες, πολιτικούς, εκστρατείες - θέλουν να μάθουν πώς θα ανταποκριθεί αυτό το άτομο σε αυτό το μήνυμα", είπε.
«Νομίζω ότι θα δοθεί μεγάλη έμφαση στην προσπάθεια ανάπτυξης αυτού του είδους της ακρίβειας, αλλά δεν νομίζω ότι είμαστε ακόμα εκεί».
Το Διαδίκτυο σε γνωρίζει καλύτερα
Περνώντας το σε προσωπικό επίπεδο, μια έκθεση του 2019 στο Scientific American με τίτλο «Το Διαδίκτυο σε γνωρίζει καλύτερα από τον σύζυγό σου», ανέλυσε ένα πρόγραμμα που ονομάζεται Apply Magic Sauce.
Το πρόγραμμα ζητά από τα υποκείμενα μερικές πληροφορίες, όπως κάτι που έχουν γράψει, μηνύματα ηλεκτρονικού ταχυδρομείου ή ιστολόγια, μαζί με πληροφορίες σχετικά με τη δραστηριότητά τους στα μέσα κοινωνικής δικτύωσης.
Με βάση αυτές τις εισροές, το Apply Magic Sauce θα μπορούσε να δημιουργήσει «ένα λεπτομερές ψυχόγραμμα ή προφίλ προσωπικότητας, που περιλαμβάνει την υποτιθέμενη ηλικία και το φύλο σας, είτε αγχώνεστε είτε αγχώνεστε εύκολα, πόσο γρήγορα ενδίδετε σε παρορμήσεις και αν είστε πολιτικά και κοινωνικά συντηρητική ή φιλελεύθερη».
Η έκθεση διαπίστωσε ότι αναλύοντας τα «μου αρέσει» (likes) των ανθρώπων στα μέσα κοινωνικής δικτύωσης, τα προγράμματα τεχνητής νοημοσύνης ήταν σε θέση να ζωγραφίσουν ένα ακριβές πορτρέτο της προσωπικότητάς τους.
«Αν το λογισμικό είχε μόλις 10 [μου αρέσει] για ανάλυση, ήταν σε θέση να αξιολογήσει αυτό το άτομο όσο και ένας συνάδελφος», ανέφερε η έκθεση.
«Δοθέντων 70 likes, ο αλγόριθμος ήταν τόσο ακριβής όσο ένας φίλος.
Με 300, ήταν πιο επιτυχημένη από τη/το σύζυγο του ατόμου».
Stop στην καλύτερη... γνωριμία της ΑΙ σε προσωπικό επίπεδο
«Οι οργανώσεις θα ενδιαφέρονται πολύ για το «Πώς μπορούμε να σας καταλάβουμε σε προσωπικό επίπεδο;» είπε ο Busby.
«Με κάνει να νιώθω άβολα να με παρακολουθούν και να μοντελοποιούμαι με αυτόν τον τρόπο από ένα εργαλείο τεχνητής νοημοσύνης».
Οι πιο σκοτεινές δυνατότητες της τεχνητής νοημοσύνης έχουν γίνει πρωταρχικό θέμα τις τελευταίες εβδομάδες, με επείγουσες εκκλήσεις από επιστήμονες και ειδικούς της τεχνολογίας να περιορίσουν την ανάπτυξή της έως ότου οι άνθρωποι κατανοήσουν καλύτερα τις χρήσεις και τα αποτελέσματά της.
Στις 22 Μαρτίου, μια ανοιχτή επιστολή, που έχει υπογραφεί μέχρι στιγμής από 50.000 άτομα, συμπεριλαμβανομένου του συνιδρυτή της Apple, Steve Wozniak και του επιχειρηματία τεχνολογίας Elon Musk, ζητούσε να σταματήσει άμεσα η ανάπτυξη γενικής τεχνητής νοημοσύνης ή αυτόνομων συστημάτων νοημοσύνης που μπορούν να εξελιχθούν πέρα από την εκτέλεση συγκεκριμένων εργασιών και θεωρητικά ξεπερνούν την ανθρώπινη νοημοσύνη.
«Τα συστήματα τεχνητής νοημοσύνης με ανθρώπινη-ανταγωνιστική νοημοσύνη μπορούν να θέτουν σοβαρούς κινδύνους για την κοινωνία και την ανθρωπότητα, όπως φαίνεται από εκτεταμένη έρευνα και αναγνωρίζεται από κορυφαία εργαστήρια τεχνητής νοημοσύνης», ανέφερε η επιστολή.
Βαθιά αλλαγή
«Η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να αντιπροσωπεύει μια βαθιά αλλαγή στην ιστορία της ζωής στη Γη και θα πρέπει να σχεδιαστεί και να διαχειρίζεται με ανάλογη φροντίδα και πόρους».
Εάν μπορεί να περιοριστεί για να αποφευχθούν τα κακόβουλα και χειραγωγικά στοιχεία, η τεχνητή νοημοσύνη «έχει την ικανότητα και τη δυνατότητα να επεκτείνει πραγματικά τις δυνατότητές μας σε πολλούς τομείς και να λύσει πολλά από τα προβλήματα που αντιμετωπίζουμε», είπε ο Busby.
«Μερικά από τα πράγματα που υποθέσαμε ότι οι υπολογιστές δεν μπορούσαν να κάνουν καλά, όπως να γράψουν μυθιστορήματα ή να δημιουργήσουν κάτι νέο από το τίποτα, μπορεί να κάνει αυτά τα πράγματα.
Η τεχνητή νοημοσύνη μπορεί να βοηθήσει να απαντηθούν ερευνητικά ερωτήματα, αλλά δεν μπορεί να αποφασίσει τι πρέπει να ερευνήσουμε, ποιοι είναι οι στόχοι μας ή τι είδους κοινωνία θα πρέπει να έχουμε, είπε.
«Η [AI] μας αναγκάζει να σκεφτούμε προσεκτικά τι συνεισφέρουμε», είπε.
"Μας υπενθυμίζει τι είναι τόσο μοναδικό ή κάτι που προσφέρουμε που είναι ξεχωριστό, για να μας βοηθήσει να επικεντρωθούμε σε αυτά τα πράγματα αντί στα κοσμικά πράγματα που οι υπολογιστές και αυτού του είδους οι αλγόριθμοι μπορούν πραγματικά να αυτοματοποιήσουν γρήγορα."
www.bankingnews.gr
Σχόλια αναγνωστών