Ένας επικεφαλής τεχνολογίας μιας εταιρείας fintech με έδρα την Αργεντινή ισχυρίστηκε ότι η εταιρεία τεχνητής νοημοσύνης Anthropic έκλεισε απότομα την πρόσβαση της εταιρείας του στο chatbot Claude χωρίς προηγούμενη προειδοποίηση ή σαφή εξήγηση, εγείροντας ανησυχίες για την εξάρτηση από εργαλεία τεχνητής νοημοσύνης.
Ο Πάτο Μολίνα, είπε ότι η δράση διέκοψε τις λειτουργίες και επηρέασε τους υπαλλήλους που εξαρτώνται από το εργαλείο για την καθημερινή τους εργασία.Â
Χωρίς προηγούμενη προειδοποίηση, περιορισμένη σαφήνεια
Σε μια ανάρτηση στο X, ο Molina επέκρινε τη διαδικασία απάντησης, αμφισβητώντας γιατί οι χρήστες έπρεπε να υποβάλουν μια φόρμα Google για να κάνουν έφεση κατά της απόφασης. Περιέγραψε την εμπειρία ως κακή τόσο από πλευράς διεπαφής χρήστη όσο και από πλευράς εξυπηρέτησης πελατών.
https://publish.twitter.com/?query=https%3A%2F%2Ftwitter.com%2Fpatomolina%2Fstatus%2F2045254152377323970&widget=Tweet
Μοιράστηκε επίσης μια επικοινωνία από την Anthropic δηλώνοντας ότι τα αυτοματοποιημένα συστήματά της είχαν εντοπίσει σήματα που συνδέονται με πιθανή παραβίαση των πολιτικών χρήσης. Το μήνυμα ανέφερε ότι τα ευρήματα εξετάστηκαν εσωτερικά πριν ανακληθεί η πρόσβαση στον Claude.
“Για να ασκήσετε έφεση στην απόφασή μας, συμπληρώστε αυτήν τη φόρμα ή μάθετε περισσότερα σχετικά με τη διαδικασία προσφυγών εδώ”, πρόσθεσε το μήνυμα που εστάλη από την ομάδα διασφαλίσεων του Anthropic.
Ο Molina αργότερα είπε ότι η εταιρεία δεν ενημερώθηκε για τη συγκεκριμένη παράβαση πολιτικής και είχε λάβει μόνο ένα email που τους ειδοποιούσε για την αναστολή.
Σύμφωνα με τον Molina, η κίνηση άφησε περισσότερους από 60 υπαλλήλους χωρίς πρόσβαση σε ένα κρίσιμο εργαλείο, συμπεριλαμβανομένων των ενσωματώσεων, των ροών εργασίας και των προηγούμενων συνομιλιών. Είπε ότι είτε χάθηκαν είτε τέθηκαν σε αναμονή, επηρεάζοντας τις καθημερινές λειτουργίες.
«Ποια συγκεκριμένη πολιτική παραβιάσαμε, δεν έχω την παραμικρή ιδέα: απλά πήραμε ένα email και αυτό ήταν, αντίο Κλοντ».
Η Anthropic αποφάσισε να τερματίσει ολόκληρο τον οργανισμό μας για εικαζόμενη παραβίαση των όρων χρήσης του. Ποια συγκεκριμένη πολιτική παραβιάσαμε, δεν έχω ιδέα: απλά λάβαμε ένα email και τέλος, αντίο Claude. Εάν θέλετε να ασκήσετε έφεση κατά του μέτρου, πρέπει να συμπληρώσετε ένα… https://t.co/L3E6hPDeht
— Pato Molina (@patomolina) 17 Απριλίου 2026
Σε μια μεταγενέστερη ενημέρωση, ο Μολίνα είπε ότι η πρόσβαση αποκαταστάθηκε, αποδίδοντας το περιστατικό σε “ψευδώς θετικό”. Πρόσθεσε ότι το ζήτημα επιλύθηκε αφού τέθηκε δημόσια.Â
Μας αποκατέστησαν την πρόσβαση. Προφανώς ήταν ψευδώς θετικό. Και όπως πάντα: το Twitter είναι μια υπηρεσία. https://t.co/8GcHFI6t3u pic.twitter.com/ajwkLgSD5o
— Pato Molina (@patomolina) 18 Απριλίου 2026
Προειδοποίηση για εξάρτηση από AI
Ο Μολίνα περιέγραψε το επεισόδιο ως ένα προειδοποιητικό παράδειγμα για εταιρείες που βασίζονται σε εργαλεία τεχνητής νοημοσύνης σε κρίσιμα συστήματα. Είπε ότι οι εταιρείες θα πρέπει να αποφεύγουν να εξαρτώνται εντελώς από έναν μόνο πάροχο.
Περιέγραψε επίσης τους συμβιβασμούς της χρήσης πολλαπλών πλατφορμών τεχνητής νοημοσύνης. Ενώ η διαφοροποίηση μπορεί να βοηθήσει στη διατήρηση της συνέχειας κατά τη διάρκεια διακοπών, μπορεί να αυξήσει το κόστος και να κατακερματίσει τις ροές εργασίας.Â
Πρώτη Δημοσίευση στιςΕΝΑ20 Απριλίου 2026, 4:01:02 μ.μ. IST







