Αρχική Ειδήσεις Η Florida AG ξεκινά ποινική έρευνα για το ChatGPT για πυροβολισμούς στο...

Η Florida AG ξεκινά ποινική έρευνα για το ChatGPT για πυροβολισμούς στο FSU

23
0

Η Florida AG ξεκινά ποινική έρευνα για το ChatGPT για πυροβολισμούς στο FSU

Η αστυνομία ερευνά τη σκηνή ενός πυροβολισμού κοντά στο φοιτητικό σωματείο στο κρατικό πανεπιστήμιο της Φλόριντα στις 17 Απριλίου 2025 στο Tallahassee της Φλόριντα. Από την επίθεση σκοτώθηκαν δύο άνθρωποι και τραυματίστηκαν πέντε. Ο γενικός εισαγγελέας της Φλόριντα ερευνά τώρα το OpenAI επειδή ο φερόμενος ως δράστης χρησιμοποίησε το ChatGPT για να βοηθήσει στον σχεδιασμό της επίθεσης.

Miguel J. Rodriguez Carrillo/Getty Images


απόκρυψη λεζάντας

εναλλαγή λεζάντας

Miguel J. Rodriguez Carrillo/Getty Images

Ο γενικός εισαγγελέας της Φλόριντα ξεκινά ποινική έρευνα για το ChatGPT και τη μητρική του εταιρεία OpenAI με τους ισχυρισμούς ότι ο κατηγορούμενος ένοπλος σε πυροβολισμό στο Florida State University πέρυσι συμβουλεύτηκε το chatbot AI πριν σκοτώσει δύο άτομα και τραυματίσει άλλα πέντε.

Ο Ρεπουμπλικανός γενικός εισαγγελέας, James Uthmeier, δήλωσε σε συνέντευξη Τύπου στην Τάμπα την Τρίτη ότι ο κατηγορούμενος ένοπλος Phoenix Ikner συμβουλεύτηκε το ChatGPT για συμβουλές πριν από τον πυροβολισμό, συμπεριλαμβανομένου του τύπου όπλου να χρησιμοποιήσει, τι πυρομαχικά το συνοδεύει και ποια ώρα να πάει στην πανεπιστημιούπολη για να συναντήσει περισσότερους ανθρώπους, σύμφωνα με μια αρχική ανασκόπηση της συνομιλίας του Ikner.

«Οι εισαγγελείς μου το εξέτασαν αυτό και μου είπαν, αν ήταν ένα άτομο στην άλλη άκρη αυτής της οθόνης, θα τους κατηγορούσαμε για φόνο», είπε ο Ουθμάιερ. «Δεν μπορούμε να έχουμε ρομπότ τεχνητής νοημοσύνης που συμβουλεύουν τους ανθρώπους πώς να σκοτώσουν άλλους».

Η εκπρόσωπος του OpenAI, Κέιτ Γουότερς, δήλωσε σε γραπτή δήλωση στο NPR: «Οι μαζικοί πυροβολισμοί του περασμένου έτους στο κρατικό πανεπιστήμιο της Φλόριντα ήταν μια τραγωδία, αλλά το ChatGPT δεν είναι υπεύθυνο για αυτό το τρομερό έγκλημα». Είπε ότι η εταιρεία επικοινώνησε για να μοιραστεί πληροφορίες σχετικά με τον λογαριασμό του φερόμενου ως δράστη με τις αρχές επιβολής του νόμου μετά τον πυροβολισμό και συνεχίζει να συνεργάζεται με τις αρχές.

Το γραφείο του Uthmeier εκδίδει κλήσεις στο OpenAI ζητώντας πληροφορίες σχετικά με τις πολιτικές του και το εσωτερικό εκπαιδευτικό υλικό που σχετίζονται με απειλές βλάβης χρηστών και τον τρόπο συνεργασίας και αναφοράς εγκλημάτων στις αρχές επιβολής του νόμου, που χρονολογούνται από τον Μάρτιο του 2024. Στη συνέντευξη Τύπου, ο Uthmeier αναγνώρισε ότι η έρευνα εισέρχεται σε αχαρτογράφητη περιοχή και είναι αβέβαιη για ποινική ευθύνη.

«Θα εξετάσουμε ποιος ήξερε τι, σχεδίασε τι ή έπρεπε να κάνει τι», είπε. «Και αν είναι ξεκάθαρο ότι τα άτομα γνώριζαν ότι μπορεί να συμβεί αυτό το είδος επικίνδυνης συμπεριφοράς, ότι τέτοιου είδους ατυχή, τραγικά γεγονότα μπορεί να συμβούν, και παρόλα αυτά εξακολουθούν να στρέφονται προς το κέρδος, να επιτρέπουν σε αυτή την επιχείρηση να λειτουργεί, τότε οι άνθρωποι πρέπει να λογοδοτήσουν».

Το OpenAI’s Waters είπε ότι το chatbot «παρείχε πραγματικές απαντήσεις σε ερωτήσεις με πληροφορίες που θα μπορούσαν να βρεθούν ευρέως σε δημόσιες πηγές στο διαδίκτυο και δεν ενθάρρυνε ή προωθούσε παράνομη ή επιβλαβή δραστηριότητα».

Συνέχισε: “Το ChatGPT είναι ένα εργαλείο γενικής χρήσης που χρησιμοποιείται από εκατοντάδες εκατομμύρια ανθρώπους καθημερινά για νόμιμους σκοπούς. Εργαζόμαστε συνεχώς για να ενισχύσουμε τις διασφαλίσεις μας για να ανιχνεύσουμε επιβλαβείς προθέσεις, να περιορίσουμε την κακή χρήση και να ανταποκρινόμαστε κατάλληλα όταν προκύπτουν κίνδυνοι για την ασφάλεια.”

Ο 21χρονος Ikner αντιμετωπίζει πολλαπλές κατηγορίες για φόνο και απόπειρα δολοφονίας για τον πυροβολισμό τον Απρίλιο του 2025 κοντά στο φοιτητικό σωματείο στην πανεπιστημιούπολη Tallahassee του FSU, όπου ήταν φοιτητής εκείνη την εποχή. Η δίκη του έχει προγραμματιστεί να ξεκινήσει στις 19 Οκτωβρίου. Σύμφωνα με τα δικαστήρια, περισσότερα από 200 μηνύματα τεχνητής νοημοσύνης έχουν καταχωρηθεί ως αποδεικτικά στοιχεία για την υπόθεση.

Αυξανόμενες ανησυχίες σχετικά με τα chatbot AI

Η έρευνα της Φλόριντα έρχεται εν μέσω αυξανόμενων ανησυχιών σχετικά με τον ρόλο των chatbots AI στη μαζική βία. Ο Uthmeier είχε ήδη ανακοινώσει μια πολιτική έρευνα για τον ρόλο του ChatGPT στον πυροβολισμό της FSU, η οποία βρίσκεται σε εξέλιξη, και οι δικηγόροι της οικογένειας ενός από τα θύματα λένε ότι σκοπεύουν να μηνύσουν το OpenAI.

Το OpenAI αντιμετωπίζει ήδη μήνυση από την οικογένεια ενός θύματος που τραυματίστηκε σοβαρά σε επίθεση στη Βρετανική Κολομβία τον Φεβρουάριο του 2026 που σκότωσε οκτώ άτομα και τραυμάτισε δεκάδες άλλους. Ο φερόμενος ως δράστης συζήτησε σενάρια ένοπλης βίας με το ChatGPT και μάλιστα αποκλείστηκε από την πλατφόρμα μήνες πριν από τον πυροβολισμό, αλλά κατάφερε να αποφύγει τον εντοπισμό και να δημιουργήσει έναν άλλο λογαριασμό, είπε η OpenAI στις καναδικές αρχές.

Ο Wall Street Journal ανέφερε ότι τα εσωτερικά συστήματα του OpenAI επισήμαναν τις αναρτήσεις του λογαριασμού και το προσωπικό ήταν αρκετά ανήσυχο ώστε να εξετάσει το ενδεχόμενο να ειδοποιήσει τις αρχές επιβολής του νόμου, αλλά ότι η εταιρεία αποφάσισε να μην το κάνει. Η OpenAI είπε ότι κάνει αλλαγές για να «ενισχύει» το πρωτόκολλό της για την παραπομπή λογαριασμών στις αρχές επιβολής του νόμου μετά τον πυροβολισμό στον Καναδά.

Επίσης αυξάνονται οι αγωγές εναντίον του OpenAI και άλλων κατασκευαστών chatbots AI, οι οποίοι ισχυρίζονται ότι έχουν συμβάλει σε κρίσεις ψυχικής υγείας και αυτοκτονίες. (Το OpenAI είπε ότι οι περιπτώσεις είναι «μια απίστευτα σπαρακτική κατάσταση» και ότι συνεργάζεται με ειδικούς ψυχικής υγείας για να βελτιώσει τον τρόπο με τον οποίο το ChatGPT ανταποκρίνεται σε σημάδια ψυχικής ή συναισθηματικής δυσφορίας.)

Μια άδικη αγωγή θανάτου που κατατέθηκε κατά της Google τον Μάρτιο για την αυτοκτονία ενός άνδρα από τη Φλόριντα κατηγορεί το Gemini chatbot της εταιρείας ότι ώθησε τον άνδρα να «διοργανώσει μια μαζική επίθεση με θύματα κοντά στο Διεθνές Αεροδρόμιο του Μαϊάμι [and] διαπράττουν βία κατά αθώων αγνώστων», σύμφωνα με δικαστικά έγγραφα.

Σε απάντηση σε αυτή τη μήνυση, η Google είπε: “Το Gemini έχει σχεδιαστεί για να μην ενθαρρύνει τη βία στον πραγματικό κόσμο ή να προτείνει αυτοτραυματισμό. Τα μοντέλα μας γενικά αποδίδουν καλά σε αυτούς τους τύπους προκλητικών συνομιλιών και αφιερώνουμε σημαντικούς πόρους σε αυτό, αλλά δυστυχώς δεν είναι τέλεια.” Η εταιρεία πρόσθεσε ότι στη συγκεκριμένη περίπτωση, ο Δίδυμος είχε «παραπέμψει το άτομο σε τηλεφωνική γραμμή κρίσης πολλές φορές».