Ενώ Microsoft πιέζει πάντα περισσότερο Δεύτερος πιλότος au cÅ“ur αυτοί Windows, Microsoft 365 και ολόκληρο το επαγγελματικό του οικοσύστημα, μια σύνθεση που προσδιορίζεται στις συνθήκες χρήσης της προκαλεί έκπληξη. Η EULA (συμφωνία άδειας χρήσης τελικού χρήστη) της υπηρεσίας υποδεικνύει ότι το Copilot προορίζεται για ψυχαγωγικούς σκοπούς, διευκρινίζοντας ακόμη και ότι το εργαλείο AI μπορεί να κάνει λάθη και ότι δεν πρέπει να βασίζεται σε αυτό για πραγματικές συμβουλές. Μια αναφορά που είναι αναμφίβολα νομικά συνετή, αλλά που συγκρούεται μετωπικά με τον τρόπο με τον οποίο η εταιρεία παρουσιάζει σήμερα τον βοηθό τεχνητής νοημοσύνης της στο ευρύ κοινό και στις επιχειρήσεις.
Μια φόρμουλα που αποδυναμώνει την ιστορία της Microsoft
Η αντίθεση είναι εντυπωσιακή: αφενός, η Microsoft πουλά το Copilot ως μοχλό παραγωγικότητας και αποτελεσματικότητας ικανό να υποστηρίξει καθημερινές επαγγελματικές χρήσεις και, αφετέρου, οι δικές της συνθήκες μας υπενθυμίζουν ασπρόμαυρο ότι το εργαλείο δεν είναι εγγυημένο, μπορεί να παράγει ανακριβείς απαντήσεις και δεν πρέπει να χρησιμεύει ως βάση αναφοράς για σημαντικές αποφάσεις. Αυτό το φαινομενικό παράδοξο απεικονίζει τη θεμελιώδη ασάφεια της τρέχουσας γενετικής τεχνητής νοημοσύνης: η τελευταία «πωλείται» (με όλη την έννοια του όρου) ως βοηθός υψηλού επιπέδου, ενώ νομικά πλαισιώνεται ως ένα λανθασμένο σύστημα που χρησιμοποιείται με τη μεγαλύτερη προσοχή.

Η Microsoft υπόσχεται ήδη μια αναθεώρηση του κειμένου
Αντιμέτωπη με τις αντιδράσεις που προκάλεσε αυτή η διατύπωση, η Microsoft ανέφερε ότι ήταν μια περιγραφή που κληρονομήθηκε από μια παλαιότερη φάση του προϊόντος και ότι σύντομα επρόκειτο να γίνει ενημέρωση. Με άλλα λόγια, η εταιρεία αναγνωρίζει σιωπηρά ότι αυτή η αναφορά δεν ευθυγραμμίζεται πλέον με τον τρόπο με τον οποίο τοποθετείται πλέον το Copilot. Το πρόβλημα είναι ότι αυτού του είδους η ασυμφωνία αναπόφευκτα τροφοδοτεί τη δυσπιστία σε μια εποχή που οι εκδότες τεχνητής νοημοσύνης επιδιώκουν ακριβώς να καθησυχάσουν για την ωριμότητα των εργαλείων τους.
Μια προφύλαξη ότι ολόκληρη η βιομηχανία εφαρμόζεται σε παρόμοιες μορφές
Η Microsoft δεν είναι η μόνη που προστατεύει τον εαυτό της με αυτόν τον τρόπο. Άλλοι σημαντικοί παίκτες της τεχνητής νοημοσύνης, όπως το OpenAI ή το xAI, μας υπενθυμίζουν επίσης ότι τα μοντέλα τους δεν πρέπει να θεωρούνται ως μια ενιαία πηγή αλήθειας. Αυτή η προσοχή έχει γίνει ένα σχεδόν τομεακό αντανακλαστικό: εξαιρετικές εταιρείες τεχνητής νοημοσύνης επαινούν τη δύναμη των εργαλείων τους, ενώ επιμένουν στα νομικά τους έγγραφα στο γεγονός ότι αυτά τα ίδια εργαλεία μπορεί να έχουν παραισθήσεις, να κάνουν λάθη ή να παράγουν ατελές περιεχόμενο.
Στο τέλος, η Microsoft αναμφίβολα θα διορθώσει τη φόρμουλα της EULA της, αλλά η ουσία θα παραμείνει η ίδια: η τεχνητή νοημοσύνη μπορεί να μας βοηθήσει με έναν ακόμη πιο αποτελεσματικό τρόπο… χωρίς ποτέ να εξαλείψει εντελώς την ανάγκη για ανθρώπινη κρίση.





