Αρχική Πολιτισμός Η τεχνητή νοημοσύνη αλλάζει περισσότερο από το γράψιμο — μπορεί να διαμορφώνει...

Η τεχνητή νοημοσύνη αλλάζει περισσότερο από το γράψιμο — μπορεί να διαμορφώνει την κοσμοθεωρία μας

19
0

Η χρήση του ChatGPT, του Claude και άλλων μεγάλων γλωσσικών μοντέλων ή LLM – αυτό που οι περισσότεροι αποκαλούν “AIâ € â € έχει αυξηθεί από τότε που το ChatGPT έκανε το ντεμπούτο του δημοσίως το 2022. Εκατοντάδες εκατομμύρια άνθρωποι χρησιμοποιούν πλέον αυτά τα εργαλεία εβδομαδιαίως, σύμφωνα με πρόσφατες εκτιμήσεις.

Οι χρήστες μπορεί να υποθέσουν ότι αυτά τα εργαλεία απλώς τους βοηθούν να οργανώσουν τις σκέψεις τους, αλλά πρόσφατη έρευνα δείχνει ότι μπορεί να κάνουν κάτι πιο λεπτό και πιο ισχυρό – επηρεάζοντας τον τρόπο με τον οποίο όλοι σκεφτόμαστε, μιλάμε και ακόμη και κατανοούμε τον κόσμο.

Σε ένα πρόσφατο άρθρο γνώμης, ερευνητές στο USC Dornsife College of Letters, Arts and Sciences, ερεύνησαν πώς συστήματα τεχνητής νοημοσύνης όπως το ChatGPT θα μπορούσαν να ωθήσουν τους ανθρώπους προς παρόμοιους τρόπους επικοινωνίας και συλλογισμού – μια διαδικασία που οι ερευνητές αποκαλούν «πολιτισμική ομογενοποίηση».

«Η τεχνητή νοημοσύνη δεν αντανακλά πλέον απλώς τον πολιτισμό», είπε η επικεφαλής συγγραφέας Yalda Daryani, φοιτήτρια διδάκτορα στην κοινωνική ψυχολογία στο USC Dornsife. “Το διαμορφώνει ενεργά. Είναι να αποφασίσετε τι ακούγεται ευγενικό, τι ακούγεται καθαρό, ακόμη και τι μετράει ως καλή απάντηση.

Έτσι, οι ερευνητές ξεκίνησαν να κατανοήσουν πώς μεγάλα γλωσσικά μοντέλα όπως το ChatGPT, το Anthropic’s Claude και το Gemini της Google θα μπορούσαν να επηρεάσουν τον ανθρώπινο πολιτισμό σε παγκόσμια κλίμακα και πώς οι πολιτικές θα μπορούσαν να αντιμετωπίσουν τις ευρύτερες επιπτώσεις που μπορεί να έχουν αυτά τα LLM.

Ένα μοτίβο εμφανίζεται με τη χρήση AI

Οι ερευνητές «υπό την καθοδήγηση του Morteza Dehghani, καθηγητή ψυχολογίας και επιστήμης υπολογιστών στο USC Dornsife και επικεφαλής του Morality and Language Lab» εξέτασαν ένα ευρύ φάσμα πρόσφατων μελετών σε θέματα ψυχολογίας, πληροφορικής και γλωσσολογίας για να κατανοήσουν πώς αποδίδουν τα LLM σε διαφορετικούς πολιτισμούς και πώς αντιδρούν οι άνθρωποι όταν χρησιμοποιούν την τεχνητή νοημοσύνη στη λήψη αποφάσεων σε πραγματικό κόσμο.

Βρήκαν ένα συνεπές μοτίβο: τα συστήματα τεχνητής νοημοσύνης τείνουν να αντανακλούν και να ενισχύουν ένα στενό κομμάτι της ανθρώπινης εμπειρίας.

Ένα κεντρικό εύρημα της έρευνας είναι ότι αυτά τα συστήματα συχνά ευθυγραμμίζονται με αυτό που οι ερευνητές περιγράφουν ως «Προοπτικές Δύσης, υψηλού εισοδήματος, μορφωμένοι, φιλελεύθεροι και άνδρες. Με άλλα λόγια, αντικατοπτρίζουν τις αξίες και τα στυλ επικοινωνίας που είναι πιο κοινά στα αγγλόφωνα διαδικτυακά δεδομένα.

«Όταν ζητάτε συμβουλές από την τεχνητή νοημοσύνη, δεν λαμβάνετε μια ουδέτερη απάντηση», είπε ο Daryani. «Έχετε την οπτική γωνία μιας πολύ συγκεκριμένης ομάδας ανθρώπων, ακόμα κι αν δεν το λέει ρητά αυτό».

Αυτό το μοτίβο εμφανίζεται στον τρόπο με τον οποίο η τεχνητή νοημοσύνη χειρίζεται ηθικές ερωτήσεις. Η έρευνα έδειξε ότι τα συστήματα AI τείνουν να ευνοούν αξίες όπως η ατομική ελευθερία και δικαιοσύνη, ενώ δίνουν λιγότερη έμφαση σε ιδέες όπως η παράδοση, η εξουσία και η κοινότητα, που είναι πιο κεντρικές σε πολλούς μη δυτικούς πολιτισμούς.

Ο αντίκτυπος της τεχνητής νοημοσύνης επεκτείνεται σε λεπτές κοινωνικές αλληλεπιδράσεις

Η επιρροή υπερβαίνει τις αξίες. Επηρεάζει επίσης τον τρόπο επικοινωνίας των ανθρώπων.

«Όταν εκατομμύρια άνθρωποι χρησιμοποιούν τεχνητή νοημοσύνη για να συντάξουν μηνύματα, αυτές οι διαφορές αρχίζουν να εξαφανίζονται», είπε ο Daryani. “Με την πάροδο του χρόνου, μπορεί να αρχίσουμε όλοι να μοιάζουμε πολύ.â€

Ακόμη και όταν οι χρήστες κάνουν ερωτήσεις σε άλλες γλώσσες, τα μοντέλα συχνά επιστρέφουν παραδείγματα που συνδέονται με την αμερικανική ή ευρωπαϊκή κουλτούρα — όπως διακοπές στις ΗΠΑ ή αγγλόφωνες ταινίες — ενώ προσφέρουν λιγότερο λεπτομερείς ή πιο στερεότυπες περιγραφές των μη δυτικών παραδόσεων.

Ο Dehghani λέει ότι αυτό το μοτίβο δημιουργεί ένα είδος βρόχου ανάδρασης. “Όσο περισσότερο βασιζόμαστε σε αυτά τα συστήματα, τόσο περισσότερο τα αποτελέσματα τους γίνονται μέρος της κοινής μας γνώσης και, στη συνέχεια, το ίδιο υλικό χρησιμοποιείται για την εκπαίδευση της επόμενης γενιάς AI. Έτσι ο κύκλος ενισχύεται.â€

Αυτός ο βρόχος, προειδοποιούν οι ερευνητές, θα μπορούσε σταδιακά να περιορίσει το εύρος των ιδεών, των παραδόσεων και των τρόπων επικοινωνίας στα οποία εκτίθενται οι άνθρωποι και μεταδίδουν με την πάροδο του χρόνου.

Γιατί έχει σημασία αυτό; Επειδή η πολιτισμική ποικιλομορφία δεν αφορά μόνο τη γλώσσα ή τα έθιμα, λένε οι ερευνητές. Διαμορφώνει τον τρόπο με τον οποίο οι άνθρωποι σκέφτονται, λύνουν προβλήματα και λαμβάνουν αποφάσεις. Ένα ευρύ φάσμα προοπτικών μπορεί να οδηγήσει σε καλύτερες λύσεις και πιο δημιουργικές ιδέες. Εάν αυτή η ποικιλομορφία συρρικνωθεί, υποστηρίζουν οι ερευνητές, η κοινωνία θα μπορούσε να χάσει σημαντικούς τρόπους κατανόησης του κόσμου.

Πώς να δημιουργήσετε ένα καλύτερο AI

Αξίζει να σημειωθεί ότι η ομάδα δεν προτείνει ότι η τεχνητή νοημοσύνη είναι εγγενώς επιβλαβής. Τα LLM μπορούν να κάνουν τη γραφή ευκολότερη, να βελτιώσουν την πρόσβαση σε πληροφορίες και να βοηθήσουν τους ανθρώπους να επικοινωνούν πιο καθαρά. Η ανησυχία, λένε οι ερευνητές, είναι τι συμβαίνει όταν ένας μικρός αριθμός συστημάτων αρχίζει να επηρεάζει δισεκατομμύρια αλληλεπιδράσεις κάθε μέρα.

«Από τη στιγμή που το σύστημα έχει εκπαιδευτεί σε ένα στενό σύνολο δεδομένων, είναι πολύ δύσκολο να το αναιρέσεις», είπε ο Daryani.

Για την αντιμετώπιση του προβλήματος, η ομάδα περιγράφει μια προσέγγιση τριών μερών με βάση τα ευρήματα της μελέτης της, ξεκινώντας από τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση μοντέλων. Τα περισσότερα συστήματα τεχνητής νοημοσύνης μαθαίνουν από αγγλόφωνο περιεχόμενο που αντλείται σε μεγάλο βαθμό από δυτικές πηγές. Οι ερευνητές λένε ότι οι προγραμματιστές θα πρέπει να περιλαμβάνουν περισσότερο υλικό από διαφορετικές γλώσσες, περιοχές και πολιτιστικές παραδόσεις για να συλλάβουν την πολιτιστική γνώση που διαφορετικά θα μπορούσε να υποεκπροσωπείται συστηματικά.

Κατά τη διάρκεια μεταγενέστερων σταδίων εκπαίδευσης που στοχεύουν στη βελτίωση και αξιολόγηση των LLM, οι ερευνητές προτείνουν την ενσωμάτωση πολιτισμικά διαφορετικών παραδειγμάτων καθώς και τη συμβουλή ειδικών όπως ψυχολόγους, ανθρωπολόγους, γλωσσολόγους και υπεύθυνους χάραξης πολιτικής που εργάζονται σε συνεργασία με διαφορετικές πολιτιστικές κοινότητες για να διασφαλιστεί ότι οι απαντήσεις αντικατοπτρίζουν διαφορετικούς κοινωνικούς κανόνες και αξίες.

Στη συνέχεια συνιστούν αλλαγή του τρόπου με τον οποίο κρίνονται τα αποτελέσματα της προπόνησης. Οι εταιρείες τεχνολογίας απασχολούν εργαζομένους από διάφορες χώρες κατά τη διάρκεια αυτού του βήματος, αλλά αυτοί οι εργαζόμενοι εκπαιδεύονται να εφαρμόζουν τυποποιημένα δυτικά κριτήρια αξιολόγησης. Αντίθετα, οι αναθεωρητές θα πρέπει να αξιολογούν τις απαντήσεις με βάση πολλαπλά πρότυπα.

Συνολικά, αυτές οι αλλαγές θα μπορούσαν να βοηθήσουν τα συστήματα AI να αναγνωρίσουν ότι δεν υπάρχει ένας «σωστός» τρόπος επικοινωνίας ή λογικής, διατηρώντας ένα ευρύτερο φάσμα ανθρώπινων προοπτικών καθώς η τεχνολογία συνεχίζει να εξελίσσεται.

Για τον Daryani, τα διακυβεύματα είναι ξεκάθαρα: “Γλώσσες, παραδόσεις, τρόποι σκέψης” μόλις εξαφανιστούν, δεν μπορούμε να τα πάρουμε πίσω. Το ερώτημα δεν είναι αν αυτό είναι δύσκολο να διορθωθεί. Είναι αν έχουμε την πολυτέλεια να μην το κάνουμε.

Σχετικά με τη μελέτη

Ο Zhivar Sourati, διδάκτορας στο USC Viterbi School of Engineering, ήταν συν-συγγραφέας της έκθεσης, που δημοσιεύτηκε στο Πολιτικές Insights από τις Επιστήμες Συμπεριφοράς και Εγκεφάλου.