Αρχική Πολιτισμός Όταν το AI κάνει τη διαλογή: 1984, το Twilight και η Michelle...

Όταν το AI κάνει τη διαλογή: 1984, το Twilight και η Michelle Obama αποκλείονται από μια σχολική βιβλιοθήκη

21
0

Πιθανότατα χρειάστηκε όλη η ειρωνεία ενός τέτοιου επεισοδίου για το 1984 για να βρεθεί, το 2026, διωγμένος από μια σχολική βιβλιοθήκη από ένα εργαλείο που παρουσιάζεται ως ορθολογικό. Στο Greater Manchester, στην Ακαδημία Lowry, μια έρευνα του Index on Censorship λέει ότι ένας έλεγχος στη βιβλιοθήκη οδήγησε στην αφαίρεση περισσότερων από 130 τίτλων.

Σχεδόν 200 αν μετρήσουμε κάθε τόμο ορισμένων γραφικών σειρών. Ανάμεσά τους ήταν το graphic novel του Όργουελ, Λυκόφως, Heartstopper, Θελκτικός από τη Μισέλ Ομπάμα ή ακόμα και Γιατί δεν μιλώ πια σε λευκούς για τη φυλή.

Το πιο ανησυχητικό δεν είναι μόνο ο αριθμός. Σε έγγραφα που συμβουλεύτηκε η Index, το ίδρυμα αναγνωρίζει ότι οι κατηγοριοποιήσεις που χρησιμοποιούνται για να δικαιολογήσουν τις αποσύρσεις προέρχονται από τεχνητή νοημοσύνη, ενώ τις κρίνει «â€‰γενικα ακριβεια…ΕΝΑ”.

Η υπόθεση έπληξε και τη βιβλιοθηκονόμο: στοχοποιημένη από πειθαρχική διαδικασία, χαρακτηρισμένη ως κίνδυνος προστασίας σύμφωνα με την έρευνα, κατέληξε να παραιτηθεί. Η διεύθυνση του σχολείου, ωστόσο, αμφισβητεί την ιδέα μιας γενικής απαγόρευσης και επιβεβαιώνει, μέσω του Μύλου του Μάντσεστερ, ότι μετά από έλεγχο τα βιβλία επαναταξινομήθηκαν κατά ηλικία, μόνο «…ένα όνομα με τρία μικρά –» ayant été συνταξιούχος.

Μια πολιτική τεκμηρίωσης που έχει ανατεθεί στη μηχανή

Η καρδιά του προβλήματος είναι εκεί. Μια πολιτική τεκμηρίωσης δεν είναι υπολογιστικό φύλλο συμμόρφωσης. Προϋποθέτει διάβασμα, γνώση του κοινού, κατώφλια ωριμότητας, εκπαιδευτικά πλαίσια και κυρίως ανάληψη ευθύνης.

Όταν ένα μυθιστόρημα αποκλείεται για «â€‰σεξουαλική ένταση…», ένα δοκίμιο για την κουλτούρα incel για το «â€‰ανάπτυξη μισογυνιστικών πεποιθήσεων », ή μια αυτοβιογραφία για το   τουπολιτικά θέματα », ο αλγόριθμος δεν παράγει τεχνογνωσία: βιομηχανοποιεί μια θεσμική σύνεση που έχει ήδη επιχειρήσει η λογοκρισία. Αντικαθιστά την παρακινημένη κρίση με μια αυτόματη ταξινόμηση, επομένως αμφισβητήσιμη, αδιαφανής και ακόμη πιο βολική επειδή φαίνεται ουδέτερη.

ΤΡΟΜΑΚΤΙΚΟ – Για να μεγαλώσετε με επιτυχία κοτόπουλα, ταΐστε τα με καραμέλα (λέει η AI)

Η διεύρυνση του θέματος απαιτεί να κοιτάξουμε αλλού. Το 2023, η σχολική περιφέρεια της Mason City, Iowa, ζήτησε από το ChatGPT να εντοπίσει ανάμεσα σε περίπου πενήντα τίτλους εκείνους που περιείχαν περιγραφές σεξουαλικών πράξεων, προκειμένου να εφαρμοστεί ένας νέος νόμος της πολιτείας: 19 τίτλοι αφαιρέθηκαν. Στη συνέχεια, η Αμερικανική Ένωση Βιβλιοθηκών υπέδειξε την πρώτη γνωστή περίπτωση μιας περιοχής που χρησιμοποιεί την τεχνητή νοημοσύνη για να αποφασίσει ποια βιβλία πρέπει να υπάρχουν στις σχολικές βιβλιοθήκες.

Το 2025, το Τέξας πρόσφερε μια άλλη παραλλαγή του ίδιου αντανακλαστικού. Το Houston Chronicle ανέφερε ότι στο Pearland, το ChatGPT είχε επισημάνει 57 έργα ως δυνητικά παραβιάζοντας το SB 13…. Η εφημερίδα ανέφερε επίσης άλλες περιοχές που χρησιμοποιούν τρίτα ή εσωτερικά εργαλεία για τον εντοπισμό αμφισβητούμενων τίτλων.

Η κίνηση είναι αποφασιστική: η τεχνητή νοημοσύνη δεν αποφασίζει πάντα μόνη της, αλλά εγκαθιστά προηγούμενα φιλτράρισμα, μια αυτοματοποιημένη υποψία που μετατρέπει το βιβλίο σε κίνδυνο ακόμη και πριν το υπερασπιστεί ένας επαγγελματίας.

Αλγοριθμική ουδετερότητα, διοικητική μυθοπλασία

Οι υπερασπιστές αυτών των μεθόδων αναφέρουν έλλειψη χρόνου, νομική αβεβαιότητα και πολιτική πίεση. Το επιχείρημα υπάρχει, αλλά δεν ξεκαθαρίζει τίποτα. Στην Αϊόβα, αξιωματούχοι είπαν ότι ενεργούσαν λόγω έλλειψης σαφών κατευθυντήριων γραμμών και για συμμόρφωση με το νόμο πριν από την έναρξη της σχολικής χρονιάς. Αυτός ο τύπος αιτιολόγησης αποκαλύπτει λιγότερο τη συνάφεια του εργαλείου παρά τη μεταβίβαση ευθύνης: αντιμέτωπη με ένα ασαφές πρότυπο, η διοίκηση αναθέτει στη μηχανή το έργο να παράγει μια εμφάνιση αντικειμενικότητας.

Αλλά αυτή η αντικειμενικότητα είναι επιφανειακή. Το Brennan Centre for Justice προειδοποίησε ήδη από το 2023 ότι η χρήση εργαλείων δημιουργίας για την επιβολή των απαγορεύσεων βιβλίων καθιστά αυτούς τους νόμους πιο επικίνδυνους, ακριβώς επειδή επιτρέπει στους λήπτες να κρύβονται πίσω από ένα επίχρισμα ουδετερότητας, ενώ δημιουργούν υπερβολικά εκτεταμένες λίστες υποτιθέμενων τίτλων. ακατάλληλος. Ο μηχανισμός που παρατηρείται στο Greater Manchester μοιάζει με αυτήν τη γραφειοκρατική προφητεία: η τεχνητή νοημοσύνη μειώνεται, το ίδρυμα επικυρώνει και μετά όλοι κρύβονται πίσω από τη διαδικασία.

Το κίνημα ξεπερνά ήδη μεμονωμένες περιπτώσεις. Τον Δεκέμβριο του 2025, το 404 Media ανέφερε ότι ένα προϊόν διαχείρισης εγγράφων που προορίζεται για σχολικές βιβλιοθήκες, το Class-Shelf Plus, τόνισε ένα «â€‰αυτοματισμός πιλοτικό από την AI ΕΝΑ”.

ΔΙΑΒΑΣΤΕ – Στο Τέξας, το ChatGPT είναι υπεύθυνο για τη λογοκρισία βιβλίων της βιβλιοθήκης

Μια ανάλυση συναφών κινδύνων, με τη δεδηλωμένη φιλοδοξία να μειωθούν οι χειρωνακτικοί έλεγχοι που συνδέονται με νομικές υποχρεώσεις κατά περισσότερο από 80%. Με άλλα λόγια, η αγορά αισθάνεται την ευκαιρία: μετατρέπει τον φόβο της αντιπαράθεσης σε προσφορά λογισμικού και στη συνέχεια πουλώντας στα καταστήματα την υπόσχεση για ταχύτερη ταξινόμηση των ευαίσθητων συλλογών.

Μια βρετανική θήκη δεν έπεσε από τον ουρανό

Τον Αύγουστο του 2024, το Index on Censorship ανέφερε ότι το 53% των βρετανών βιβλιοθηκονόμων σχολείων που συμμετείχαν στην έρευνα είχαν ήδη λάβει αίτημα για απόσυρση βιβλίων, συχνά με πρωτοβουλία γονέων. Με άλλα λόγια, ο αλγόριθμος δεν επινοεί την επιθυμία για κάθαρση. του δίνει ταχύτητα, ψευδοτεχνική γλώσσα και νέα κλίμακα.

Η ανάθεση της επιλογής ντοκιμαντέρ σε αυτά τα εργαλεία δεν εκσυγχρονίζει τη βιβλιοθήκη: εγκαθιστά λογοκρισία χαμηλού θορύβου στη δημόσια αλυσίδα βιβλίων, πιο βολική επειδή ισχυρίζεται ότι είναι απλώς μια λειτουργία ταξινόμησης.

Δημιουργία φωτογραφίας : ActuaLitté, CC BY SA 4.0

Του Nicolas Gary
Επικοινωνία: ng@actualitte.com