“Όλο και περισσότεροι άνθρωποι συνειδητοποιούν τους κινδύνους και τις προκλήσεις που συνδέονται με την τεχνητή νοημοσύνη. Ελπίζω ότι αυτό θα οδηγήσει σε έναν πιο ηθικό και δημοκρατικό προσανατολισμό αυτής της τεχνολογίας», παρατηρεί αυτός ο ειδικός, ο Βέλγος φιλόσοφος Mark Coeckelbergh, ειδικός στα μέσα και την τεχνολογία στο Πανεπιστήμιο της Βιέννης, σε συνέντευξή του στο Περιφερειακό Κέντρο Πληροφοριών των Ηνωμένων Εθνών στις Βρυξέλλες.
Εμπειρογνώμονες από την Ανεξάρτητη Διεθνή Επιστημονική Ομάδα για την Τεχνητή Νοημοσύνη θα υπηρετήσουν για τρία χρόνια για να προωθήσουν την επιστημονική γνώση και να διασφαλίσουν ότι οι διεθνείς συζητήσεις ενημερώνονται από τα καλύτερα διαθέσιμα δεδομένα.
Σύμφωνα με τον Γενικό Γραμματέα του ΟΗΕ Αντόνιο Γκουτέρες, «σε έναν κόσμο όπου η τεχνητή νοημοσύνη προχωρά με ιλιγγιώδη ταχύτητα, αυτή η ομάδα θα παρέχει αυτό που έλειπε μέχρι τώρα: αυστηρές και ανεξάρτητες επιστημονικές αναλύσεις που θα επιτρέπουν σε όλα τα κράτη μέλη, ανεξάρτητα από τις τεχνολογικές τους ικανότητες, να συμμετέχουν επί ίσοις όροις.

Ο Mark Coeckelbergh είναι ειδικός στα μέσα και την τεχνολογία.
Έχετε γράψει πολλά βιβλία στα αγγλικά για την τεχνητή νοημοσύνη. Αποδεικνύετε ότι η τρέχουσα τροχιά είναι επιβλαβής για την ανθρωπότητα. Για τι;
Mark Coeckelbergh : Όπως χρησιμοποιείται και αναπτύσσεται επί του παρόντος, η τεχνητή νοημοσύνη υπονομεύει τη δημοκρατία με πολλούς τρόπους. Μπορεί να χρησιμοποιηθεί για τη χειραγώγηση των ψηφοφόρων και των εκλογών με πρωτοφανείς τρόπους. Νέα είναι και η εξατομικευμένη στόχευση ψηφοφόρων με βάση τα προσωπικά τους δεδομένα.
Ακόμη πιο ανησυχητικό, κατά τη γνώμη μου, είναι η υπονόμευση των ίδιων των θεμελίων των δημοκρατιών μας. Η αρχή της ισότητας υπονομεύεται, για παράδειγμα, από τις έντονες ασυμμετρίες εξουσίας μεταξύ πολιτών και ψηφιακών κολοσσών. Η αρχή της ελευθερίας διακυβεύεται από τα μέσα επιτήρησης που είναι τώρα διαθέσιμα.
Ο τύπος του περιβάλλοντος γνώσης που δημιουργείται με αυτόν τον τρόπο είναι επίσης προβληματικός. Δεν ξέρουμε πια πώς να διακρίνουμε την αλήθεια από το ψέμα. Η φιλόσοφος Hannah Arendt μας είχε ήδη προειδοποιήσει: όποιος επιδιώκει να ελέγξει τους πολίτες έχει κάθε συμφέρον να εκμεταλλευτεί τη σύγχυση. Τότε η προπαγάνδα γίνεται πιο αποτελεσματική και αυτό θα μπορούσε να οδηγήσει στον ολοκληρωτισμό.
Στο δεύτερο μέρος του βιβλίου, δείχνω πώς μπορούμε να αλλάξουμε τα πράγματα και να τροποποιήσουμε το περιβάλλον στο οποίο αναπτύσσεται η τεχνητή νοημοσύνη προκειμένου να τη χρησιμοποιήσουμε στην υπηρεσία της δημοκρατίας.
Είστε συν-συγγραφέας ενός βιβλίου με τίτλο «Επικοινωνιακή Τεχνητή Νοημοσύνη». Ποιος είναι ο αντίκτυπος αυτής της τεχνολογίας;
Mark Coeckelbergh: Η εργασία πραγματεύεται τα μεγάλα γλωσσικά μοντέλα (GML) και τη φιλοσοφική τους σημασία. Ξαφνικά, έχουμε ένα εργαλείο ικανό να παράγει κείμενο, μια ικανότητα που προηγουμένως προοριζόταν για ανθρώπους. Γιατί δεν είμαστε ούτε μηχανές ούτε ζώα.
Σύμφωνα με μια φιλοσοφική παράδοση, μας ορίζουν το «λόγος», οι λέξεις. Ωστόσο, είναι οι μηχανές που παράγουν λέξεις. Σε αυτό το βιβλίο, αμφισβητούμε τις επιπτώσεις αυτής της εξέλιξης για την έννοια του συγγραφέα, για τη γλώσσα και την επικοινωνία.
Όταν γράφουμε με GML, για παράδειγμα, είναι σαφές ότι δεν είμαστε πλέον συγγραφείς με την παραδοσιακή έννοια του όρου. Αλλά μετά, τι είμαστε; Και αυτό γράφει ακόμα; Είμαστε αναγκασμένοι να ξανασκεφτούμε τι σημαίνει να είσαι συγγραφέας και να γράφεις.
Οι απειλές τεχνητής νοημοσύνης κυμαίνονται από παραπληροφόρηση έως περιβαλλοντική ζημιά έως ανεξέλεγκτη τεχνητή νοημοσύνη… Ποιος πιστεύετε ότι είναι ο μεγαλύτερος κίνδυνος;
Mark Coeckelbergh: Επικεντρώθηκα στους πολιτικούς κινδύνους, αλλά υπάρχει και ένας σημαντικός κίνδυνος, πιο ψυχολογικής φύσης, που συνδέεται με το φαινόμενο του εθισμού και την εξάρτησή μας από την τεχνολογία.
Ο κίνδυνος δεν έγκειται τόσο στην επίγνωση ή την κυριαρχία της τεχνητής νοημοσύνης, αλλά σε πολύ συγκεκριμένους κινδύνους για την εκπαίδευση και την έκθεση ευάλωτων ατόμων, όπως παιδιά, άτομα με ψυχικές διαταραχές ή πολύ απομονωμένα άτομα.
Αυτά τα προβλήματα θα γίνονται πιο έντονα καθώς τα chatbot γίνονται όλο και πιο πειστικά και μιμούνται όλο και περισσότερο ένα άτομο.
Πώς πιστεύετε ότι η τεχνητή νοημοσύνη αλλάζει την αντίληψή μας για την αλήθεια;
Η τεχνητή νοημοσύνη διευκολύνει την παραπληροφόρηση. Τότε γίνεται δύσκολο να ξεχωρίσεις το αληθινό από το ψεύτικο. Οποιαδήποτε πληροφορία μπορεί να είναι ψευδής. Οποιοδήποτε απόσπασμα, ηχογράφηση βίντεο ή ήχου μπορεί να παραποιηθεί. Αυτή η σύγχυση είναι επικίνδυνη για τη δημοκρατία.
Σε ένα πλαίσιο απουσίας παγκόσμιας διακυβέρνησης τεχνητής νοημοσύνης, θα είναι σε θέση η ομάδα εμπειρογνωμόνων να διατυπώσει δεσμευτικές συστάσεις;
Mark Coeckelbergh: Πολύ καλή ερώτηση. Το έργο της ομάδας εμπειρογνωμόνων και συμβουλευτικών οργάνων είναι ουσιαστικό, ακόμη και σε ένα πλαίσιο όπου η πολυμέρεια βρίσκεται υπό σοβαρή δοκιμασία. Στην προσωπική μου εργασία, έχω υποστηρίξει την παγκόσμια διακυβέρνηση της τεχνητής νοημοσύνης, καθιέρωσα κατευθυντήριες γραμμές και παρείχα καθοδήγηση. Αν και είναι απίθανο να εγκριθούν σύντομα δεσμευτικοί κανόνες, είναι σημαντικό να προετοιμαστούμε για αυτούς.
Η ομάδα των εμπειρογνωμόνων θεωρείται πάνω από όλα ως ένας επιστημονικός φορέας. Ως εκ τούτου, η έμφαση θα δοθεί λιγότερο στη διακυβέρνηση παρά στην επιστημονική εμπειρογνωμοσύνη. Φυσικά, θα μοιραστώ την τεχνογνωσία μου στην ηθική της τεχνητής νοημοσύνης, ιδιαίτερα σε όλα αυτά τα ζητήματα.
Χρησιμοποιείτε κοινωνικά δίκτυα;
Mark Coeckelbergh: Ναι, φυσικά. Ως ακαδημαϊκός, είναι απαραίτητο να γίνετε γνωστός και να δημοσιεύσετε τα αποτελέσματά σας. Προσωπικά χρησιμοποιώ και τα κοινωνικά δίκτυα για να έχω επαφή.
Ποιο είναι το τελευταίο παράδειγμα παραπληροφόρησης που σας έκανε εντύπωση;
Mark Coeckelbergh: Αυτό που μου κάνει εντύπωση είναι ότι, για παράδειγμα, στην πλατφόρμα X (πρώην Twitter), ο Έλον Μασκ φαίνεται να ευνοεί ορισμένες ομιλίες και λογοκρίνει απόψεις που τον δυσαρεστούν. Βλέπω ότι είναι ένα πολύ αποτελεσματικό εργαλείο προπαγάνδας αυτές τις μέρες. Αυτός είναι και ένας από τους λόγους που έγραψα ένα άρθρο με τίτλο «τεχνοφασισμός».
Υπάρχουν λόγοι ελπίδας για το μέλλον της τεχνητής νοημοσύνης;
Mark Coeckelbergh: Ναι, βλέπω ότι σήμερα, όλο και περισσότεροι άνθρωποι συνειδητοποιούν τους κινδύνους και τις προκλήσεις που συνδέονται με την τεχνητή νοημοσύνη. Ελπίζω ότι αυτό θα οδηγήσει σε μια πιο ηθική και δημοκρατική κατεύθυνση για αυτήν την τεχνολογία. Η τεχνητή νοημοσύνη πρέπει να είναι μια τεχνολογία που ωφελεί όλους.


![[Photos] Ηφαίστειο: Η λάβα συναντά τη θάλασσα και προσφέρει πολύτιμο πεδίο μελέτης για τους επιστήμονες](https://imazpress.com/medias/static/images/0804095001773908089.jpg)



