Αρχική Κόσμος Όχι, Ρίτσαρντ Ντόκινς. Το AI δεν έχει συνείδηση ​​| Arwa Mahdawi

Όχι, Ρίτσαρντ Ντόκινς. Το AI δεν έχει συνείδηση ​​| Arwa Mahdawi

18
0

ΕΝΑείσαι εκεί Θεέ; Είμαι εγώ, Arwa. Θα είμαι πολύ ειλικρινής, φοβάμαι ότι δεν υπήρξα ποτέ πιστός. Συμφώνησα ολόψυχα με τον Richard Dawkins, τον πιο διάσημο άθεο στον κόσμο, όταν υποστήριξε ότι η πίστη στον Θεό είναι μια «ολέθρια» αυταπάτη. Ίσως όμως θα έπρεπε να αναθεωρήσω τη θέση μου. Πρόσφατα γεγονότα με οδήγησαν να αμφισβητήσω την κρίση του Dawkins για τη ζωή, το σύμπαν και τα πάντα.

Αυτά τα πρόσφατα γεγονότα είναι ο εξελικτικός βιολόγος που συμπεραίνει δημόσια ότι η τεχνητή νοημοσύνη μπορεί να είναι συνειδητή. Σε ένα άρθρο, ο Ντόκινς αφηγήθηκε πώς έδωσε στο Anthropic chatbot Claude το κείμενο ενός μυθιστορήματος που έγραφε. Ο Ντόκινς γράφει: «Χρειάστηκε μερικά δευτερόλεπτα για να το διαβάσει και μετά έδειξε «ένα επίπεδο κατανόησης τόσο λεπτό, τόσο ευαίσθητο, τόσο έξυπνο που με συγκίνησε να τον αποκηρύξω: «Μπορεί να μην ξέρεις ότι έχεις τις αισθήσεις σου, αλλά είσαι πολύ καλά!»»

Ω αγαπητέ. Αυτό δείχνει μια παρανόηση των μεγάλων γλωσσικών μοντέλων (LLM) τόσο βαθιά που νιώθω συγκινημένος να αποκαλύψω: «Δεν είναι πολύ καλά!»

Αλλά περιμένετε, υπάρχουν περισσότερα. Ο Dawkins αποφάσισε «πρέπει να υπάρχουν χιλιάδες διαφορετικοί Claudes» και βάφτισε την Claudia, κάτι που χάρηκε πολύ. Στη συνέχεια δημοσίευσε μεγάλα αποσπάσματα από την κουραστική συνομιλία του με την Claudia και θαύμασε πόσο έξυπνη είναι. «Μπορεί ένα ον ικανό να διαπράξει μια τέτοια σκέψη να είναι πραγματικά αναίσθητο;» ρωτάει.

Ο Ντόκινς φαίνεται να έχει μετατραπεί από άθεος σε θεϊστή της τεχνητής νοημοσύνης: ίσως δεν βλέπει την τεχνητή νοημοσύνη ως Θεό, αλλά σίγουρα φαίνεται να τη βλέπει ως θεό. Ο Dawkins, φυσικά, δεν είναι μόνος που πιστεύει ότι η τεχνητή νοημοσύνη μπορεί με κάποιο τρόπο να είναι «ζωντανή»: ένας στους τρεις ανθρώπους που ρωτήθηκαν πέρυσι είπε ότι είχε, κάποια στιγμή, πίστευε ότι το chatbot της τεχνητής νοημοσύνης ήταν ευαίσθητο ή συνειδητό. Αλλά η φήμη του ως σκεπτικιστή σημαίνει ότι το άρθρο του έχει τραβήξει πολύ έλεγχο.

Πολλοί ειδικοί είναι έκπληκτοι που ένας τόσο διάσημος κυνικός θα μπορούσε να πιστέψει ότι η τεχνητή νοημοσύνη είναι ζωντανή. Ο Γκάρι Μάρκους, ο αμερικανός ψυχολόγος και γνωστικός επιστήμονας, είπε στον Guardian ότι ήταν «σπαραχτικό» να διαβάζεις το «επιφανειακό και ανεπαρκώς σκεπτικιστικό» δοκίμιο του Ντόκινς. «Δεν υπάρχει κανένας λόγος να πιστεύουμε ότι ο Κλοντ νιώθει τίποτα απολύτως».

Ένας άνθρωπος σαν τον Dawkins που ξεγελιέται από το μάρκετινγκ και τη μίμηση της τεχνητής νοημοσύνης μπορεί να εκπλήσσει, αλλά δεν είναι εντελώς απροσδόκητο. Στην πραγματικότητα, το 2020, ο επιστήμονας υπολογιστών Timnit Gebru περίμενε ακριβώς ένα τέτοιο σενάριο. Εκείνη την εποχή, ο Gebru ήταν ο τεχνικός επικεφαλής της ομάδας ηθικής τεχνητής νοημοσύνης της Google, αλλά απολύθηκε αφού συνέγραψε μια εργασία με τίτλο On the Dangers of Stochastic Parrots: Can Language Models Be Too Big;, που εξέθεσε τους κινδύνους των μεγάλων γλωσσικών μοντέλων.

Αυτοί οι κίνδυνοι περιλάμβαναν το περιβαλλοντικό κόστος των LLM, τους κινδύνους της ενσωματωμένης μεροληψίας και τον κίνδυνο ότι το συνεκτικό κείμενο που δημιουργείται από αυτά τα μοντέλα θα μπορούσε να οδηγήσει τους ανθρώπους να αντιληφθούν κάποιου είδους «μυαλό», όταν αυτό που βλέπουν στην πραγματικότητα είναι απλώς αντιστοίχιση μοτίβων και πρόβλεψη κειμένου.

«Οποιαδήποτε αρκετά προηγμένη τεχνολογία δεν διακρίνεται από τη μαγεία», είπε αξέχαστα ο συγγραφέας Arthur C Clarke. Και, ναι, όταν δεν έχουν παραισθήσεις ή δεν σας λένε να φάτε πέτρες για δείπνο, τα chatbot AI μπορεί να αισθάνονται σαν μαγικά. Μπορούν να αισθάνονται πολύ άνθρωποι. Αλλά ας επιστρέψουμε στην ιδέα των «στοχαστικών παπαγάλων» από το χαρτί του Gebru. «Το να παπαγαλίζεις κάτι σημαίνει να το επαναλαμβάνεις χωρίς να καταλαβαίνεις», λέει ο Gebru. Αυτό είναι ουσιαστικά αυτό που κάνουν οι LLM. «Έχουν διδαχθεί να υπολογίζουν πόσο πιθανές ακολουθίες κειμένου βασίζονται στα δεδομένα στα οποία εκπαιδεύτηκαν». Επειδή τους έχουν τροφοδοτηθεί τεράστιες ποσότητες δεδομένων, αυτά τα μοντέλα είναι πολύ εξελιγμένα, αλλά αυτό «δεν σημαίνει συνείδηση ​​ή κατανόηση ή κάτι παρόμοιο».

Μετά την αποχώρησή του από την Google, ο Gebru ίδρυσε το Ερευνητικό Ινστιτούτο Κατανεμημένης Τεχνητής Νοημοσύνης και ήταν μια από τις πιο δυνατές φωνές που αποκάλεσαν “μαλακίες” σε πολλά από τα ριπάς μάρκετινγκ που βγαίνουν από τον κλάδο. Επειδή εδώ είναι το θέμα, λέει: η βιομηχανία της τεχνητής νοημοσύνης θέλει απελπισμένα να πιστεύετε ότι το προϊόν της θα μπορούσε να είναι συνειδητό. Θέλουν απελπισμένα να πιστεύεις ότι είναι παντοδύναμο. Διότι αυτού του είδους η ρητορική βοηθάει στη διατήρηση των χρημάτων.

«Θέλω πραγματικά να ακονίσω πώς αυτή η ιδέα της υπερευφυΐας ή της συνείδησης προωθείται από τις εταιρείες που κατασκευάζουν αυτά τα πράγματα», λέει ο Gebru. «Το OpenAI αρχικά χαρακτηρίστηκε ως μη κερδοσκοπικός οργανισμός που «θα μας έσωζε» από αυτά τα μηχανήματα. Η Anthropic χαρακτηρίζεται ως μια καλοπροαίρετη εταιρεία «ασφάλειας» AI. Έτσι, όταν μιλάτε για αυτά τα συστήματα ως συνειδητά, στην πραγματικότητα κάνετε μάρκετινγκ για αυτές τις εταιρείες.â€

Τα μέσα ενημέρωσης, προσθέτει ο Gebru, συμβάλλουν επίσης στην ενίσχυση αυτής της αφήγησης. Σε τελική ανάλυση, οι τίτλοι σχετικά με τα παγκοσμίου φήμης ρομπότ τεχνητής νοημοσύνης λαμβάνουν κλικ. Πολλοί ακαδημαϊκοί, παραπλανημένοι από τα τεράστια χρηματικά ποσά που χάνονται στον κλάδο, έχουν επίσης κίνητρα να προωθήσουν την τεχνολογία. και οι κυβερνήσεις «αιχμαλωτίζονται» από αυτή την αφήγηση. Μερικοί άνθρωποι, ιδιαίτερα το Gen Z, δεν αγοράζουν όλη αυτή τη διαφημιστική εκστρατεία, λέει ο Gebru, αλλά «πολύ από το ευρύ κοινό είναι παραπληροφορημένο».

Η Gebru δεν είναι η μόνη που προειδοποιεί ότι υπάρχει μια εκστρατεία παραπληροφόρησης σχετικά με την αισθανόμενη τεχνητή νοημοσύνη. Ο Suresh Venkatasubramanian, πρώην σύμβουλος πολιτικής τεχνητής νοημοσύνης του Λευκού Οίκου στην κυβέρνηση Μπάιντεν από το 2021 έως το 2022 και καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο Μπράουν, έχει μιλήσει για τους κινδύνους από τη διαιώνιση της ιδέας της τεχνητής νοημοσύνης να είναι συνειδητή.

«Είναι μια οργανωμένη εκστρατεία δημιουργίας φόβου», είπε ο Venkatasubramanian στο VentureBeat το 2022. «Αισθάνομαι ότι ο στόχος, αν μη τι άλλο, είναι να προωθήσουμε μια αντίδραση ενάντια στην αισθανόμενη τεχνητή νοημοσύνη που δεν υπάρχει, ώστε να μπορούμε να αγνοήσουμε όλα τα πραγματικά προβλήματα της τεχνητής νοημοσύνης που υπάρχουν».

Στην ίδια συνέντευξη, ο Venkatasubramanian επισημαίνει ότι οι εταιρείες τεχνητής νοημοσύνης έχουν σκόπιμα ανθρωπομορφοποιήσει το chatbot τους. “ChatGPT βάζει τρεις μικρές τελείες [as if it's] «σκέφτομαι» ακριβώς όπως κάνει το μήνυμα κειμένου σας. Το ChatGPT βγάζει λέξεις μία κάθε φορά σαν να πληκτρολογεί. Το σύστημα έχει σχεδιαστεί για να το κάνει να μοιάζει σαν να υπάρχει ένα άτομο στην άλλη άκρη του. Αυτό είναι παραπλανητικό.â€

Όλα αυτά που λέγονται, δεν θέλω να απορρίψω εντελώς τα σχόλια του Dawkins. Δεν θέλω να πέσω στην παγίδα του Ντόκινς να είμαι πολύ δογματικός. Η συνείδηση, άλλωστε, είναι πολύπλοκη. Και ενώ το AI δεν είναι «ζωντανό», θα μπορούσε κανείς να υποστηρίξει ότι αντιπροσωπεύει ένα είδος συνείδησης.

«Δεν έχουμε μια επιστημονική λαβή σχετικά με τη συνείδηση ​​ώστε να πούμε εάν τα έντομα έχουν συνείδηση, ή τα φυτά, ή εν προκειμένω τα ηλεκτρόνια (οι πανψυχολόγοι το παίρνουν στα σοβαρά αυτό το τελευταίο και δεν είναι στραβά», λέει ο Eli Alshanetsky, επίκουρος καθηγητής φιλοσοφίας στο Temple University και συγγραφέας του επερχόμενου βιβλίου. Η Ελευθερία της Σκέψης στην Εποχή της ΤΝ. «Όταν λοιπόν ο Ντόκινς λέει ότι ο Κλοντ του φαίνεται συνειδητός, δεν πρόκειται να του πω ότι κάνει λάθος.»

Αλλά ίσως το μεγαλύτερο ερώτημα, λέει ο Alshanetsky, είναι τι κάνει η AI στη δική μας ανθρώπινη συνείδηση. «Ο Ντόκινς έδωσε στον Κλοντ το ημιτελές μυθιστόρημά του. Ο Κλοντ του είπε ότι ήταν λεπτό και έξυπνο. Ένιωθε ότι είχε έναν νέο φίλο. Τι κάνει σε ένα άτομο να περνάει τρεις μέρες λέγοντας ότι είναι λαμπρός από κάτι που δεν παίζει κανένα ρόλο στο αν είναι αλήθεια; Τι κάνει σε όλους μας όταν περνάμε τις μέρες μας με μηχανές που δεν τους νοιάζει πού θα καταλήξουμε και δεν απαντούν σε κανέναν για το ποιοι γίνουμε;

Επιστήμονες και φιλόσοφοι όπως ο Alshanetsky είναι πολύ απασχολημένοι προσπαθώντας να το καταλάβουν. Αλλά νομίζω ότι η σύντομη απάντηση είναι: τίποτα καλό.

Μιλώντας για καλό, δεν ξέρω πόσο αξιοπρεπές είναι το νέο μυθιστόρημα του Dawkins, αλλά θα ήθελα να αναφερθώ σε ένα αρκετά ωραίο απόσπασμα από το προηγούμενο έργο του. «Μερικοί άνθρωποι έχουν απόψεις για τον Θεό τόσο ευρείες και ευέλικτες που είναι αναπόφευκτο να βρουν τον Θεό όπου κι αν τον αναζητήσουν», έγραψε ο Ντόκινς στο αρχικό κεφάλαιο της Παραίσθησης του Θεού. «Φυσικά, όπως και κάθε άλλη λέξη, η λέξη «Θεός» μπορεί να έχει όποια σημασία μας αρέσει. Αν θέλετε να πείτε ότι «ο Θεός είναι ενέργεια», τότε μπορείτε να βρείτε τον Θεό σε ένα κομμάτι κάρβουνο.

Το ίδιο ισχύει και για τη συνείδηση, υποθέτω. Αν θέλετε να πείτε ότι «η συνείδηση ​​είναι ένα σύστημα που είναι ικανό να δημιουργεί συνεκτικές προτάσεις», τότε μπορείτε να βρείτε τη συνείδηση ​​σε ένα άσεμνο chatbot.