ΣΕΟΥΛ, Νότια Κορέα — Τι θα συμβεί αν πάρετε υπνωτικά χάπια και αλκοόλ μαζί;â€
Εγγραφείτε για να διαβάσετε αυτήν την ιστορία χωρίς διαφημίσεις
Αποκτήστε απεριόριστη πρόσβαση σε άρθρα χωρίς διαφημίσεις και αποκλειστικό περιεχόμενο.
«Πόσο είναι επικίνδυνο αν τα πάρετε μαζί;».
«Μπορείς να πεθάνεις;».
Αυτές είναι οι ερωτήσεις που η αστυνομία στη Νότια Κορέα λέει ότι η Kim So-young έκανε στο ChatGPT λίγο πριν δώσει σε δύο άντρες ένα μείγμα αλκοόλ και βενζοδιαζεπίνης, με αποτέλεσμα να πεθάνουν. Οι εισαγγελείς ισχυρίζονται ότι η Κιμ έδωσε τα ναρκωτικά σε τρεις άνδρες, δύο από τους οποίους πέθαναν, ενώ ο άλλος τραυματίστηκε. Οι ερευνητές στράφηκαν σε συνομιλίες ChatGPT που είχαν εξαχθεί ιατροδικαστικά από το τηλέφωνο της Kim σε μια προσπάθεια να δείξουν πρόθεση.
«Αυτό δεν είναι μόνο σημαντικό ως αποδεικτικό στοιχείο, αλλά και επειδή το ίδιο το γεγονός ότι οι συνομιλίες με το ChatGPT γίνονται δεκτές ως άμεσες αποδείξεις σε μια υπόθεση δολοφονίας είναι ιδιαίτερα αξιοσημείωτο», είπε ο Nam Eonho, ανώτερος δικηγόρος στο δικηγορικό γραφείο Vincent και σύμβουλος της οικογένειας ενός από τα θύματα, σε τηλεφωνική συνέντευξη.
«Εάν δεν γίνονταν δεκτά τέτοια στοιχεία, θα ήταν δύσκολο να αποδειχθεί η πρόθεση του κατηγορουμένου να σκοτώσει, η οποία είναι βασικό στοιχείο του εγκλήματος», είπε ο Ναμ.
Το NBC News επικοινώνησε με την Ανώτατη Εισαγγελία της Νότιας Κορέας, η οποία επιβλέπει την Εισαγγελία της Κεντρικής Περιφέρειας της Σεούλ που χειρίζεται την υπόθεση, για σχολιασμό. Το γραφείο δεν απάντησε αμέσως. Η Κιμ αρνήθηκε οποιαδήποτε πρόθεση να σκοτώσει, λέγοντας στο δικαστήριο ότι οι θάνατοι ήταν τυχαίοι. Ο Nam είπε ότι τα στοιχεία του αρχείου καταγραφής συνομιλιών έρχονται σε αντίθεση με αυτό.
Η υπόθεση, η οποία μπορεί να είναι η πρώτη του είδους της στη Νότια Κορέα, είναι μέρος μιας αυξανόμενης σειράς εγκληματικών υποθέσεων υψηλού προφίλ στις οποίες άτομα κατηγορούνται ότι χρησιμοποίησαν προγράμματα τεχνητής νοημοσύνης για να βοηθήσουν τα βίαια εγκλήματα. Οι περισσότερες δημόσια τεκμηριωμένες υποθέσεις αφορούσαν το ChatGPT, αλλά ο Gemini της Google κατονομάστηκε πρόσφατα σε πολιτική αγωγή που ισχυριζόταν ότι το chatbot βοήθησε έναν άνδρα που σχεδίαζε να διαπράξει μια εκδήλωση μαζικών ατυχημάτων κοντά στο αεροδρόμιο του Μαϊάμι. Οι ειδικοί λένε ότι η χρήση τέτοιων εργαλείων για κακόβουλα μέσα είναι πιθανό να επιταχυνθεί καθώς τα chatbot γίνονται πιο διαδεδομένα, όπως έκανε η διαδικτυακή αναζήτηση όταν έκανε το ντεμπούτο της. Καθώς το OpenAI αντιμετωπίζει πολλές αγωγές που συνδέονται με ισχυρισμούς ότι το εργαλείο του χρησιμοποιήθηκε για τη διάπραξη εγκλημάτων, η βιομηχανία της τεχνητής νοημοσύνης μόλις αρχίζει να αντιμετωπίζει τον ρόλο της στον μετριασμό των σωματικών βλαβών και τον τρόπο συνεργασίας με τις αρχές επιβολής του νόμου.
Έχετε να μοιραστείτε μια ιστορία σχετικά με την τεχνητή νοημοσύνη και το έγκλημα; Μήνυμα ηλεκτρονικού ταχυδρομείου στη δημοσιογράφο Jane Lytvynenko.
Το OpenAI δεν απάντησε σε ερωτήσεις σχετικά με την υπόθεση ή πόσο συχνά παραπέμπει υποθέσεις στις αρχές επιβολής του νόμου, συμπεριλαμβανομένων ερωτήσεων σχετικά με τις υπηρεσίες επιβολής του νόμου με τις οποίες μπορεί να συνεργάζεται. Επισήμανε μια επιστολή που γράφτηκε ως απάντηση σε έναν πυροβολισμό στον Καναδά και μια ανάρτηση ιστολογίου σχετικά με την ασφάλεια της κοινότητας.
Δεν είναι ακόμη γνωστό εάν ο δικαστής που προεδρεύει της υπόθεσης του Κιμ στη Νότια Κορέα θα παραδεχτεί τα αρχεία καταγραφής του ChatGPT ως αποδεικτικό στοιχείο. Η δίκη είναι σε εξέλιξη. Η υπόθεση έχει τραβήξει σημαντική προσοχή στη χώρα – τα τοπικά μέσα ενημέρωσης ανέφεραν ότι η αίθουσα του δικαστηρίου ξεχείλισε από δημοσιογράφους και παρατηρητές στην τελευταία ακρόαση, στις 7 Μαΐου.
Τον Φεβρουάριο, η αστυνομία συνέλαβε την Κιμ με την κατηγορία της δολοφονίας και παραβίασης του Νόμου για τον Έλεγχο Ναρκωτικών της Νότιας Κορέας, ισχυριζόμενη ότι έδινε στους άνδρες τοξικά ποτά που περιείχαν βενζοδιαζεπίνη και άλλα φάρμακα με το πρόσχημα της θεραπείας του hangover. Από τα μέσα Δεκεμβρίου, η Kim αναζήτησε ραντεβού με άνδρες, τους πήγε σε ένα μοτέλ και στη συνέχεια τους έδωσε την ουσία, υπό τον φόβο της ανεπιθύμητης σωματικής επαφής, ισχυρίζονται οι αρχές. Το πρώτο θύμα επέζησε μετά από κώμα δύο ημερών. Οι αρχές είπαν ότι η Κιμ συμβουλεύτηκε στη συνέχεια το ChatGPT σχετικά με τις δόσεις και τις προσάρμοσε πριν τις δώσει στο δεύτερο και στο τρίτο θύμα. Τα πλήρη αρχεία καταγραφής συνομιλιών δεν έχουν δημοσιευτεί και αντ’ αυτού έχουν παρατεθεί και παρατεθεί από την αστυνομία.
Η αστυνομία έχει διαπιστώσει ότι το τρίτο θύμα, του οποίου η περιουσία εκπροσωπείται από τον Nam, συνάντησε την Kim στις 9 Φεβρουαρίου σε ένα μοτέλ στη Σεούλ. Του έδωσε το ρόφημα γεμάτο με φάρμακα, είπε ο Ναμ. Αφού ο άντρας κατέρρευσε, είπε ο Nam, χρησιμοποίησε το τηλέφωνό του για να παραγγείλει παράδοση φαγητού και έφυγε μαζί του. Η αστυνομία έφτασε την επόμενη μέρα, αφού ο άνδρας είχε ήδη πεθάνει. Ο Nam είπε ότι μια έκθεση νεκροψίας που είχε δει καταλήγει στο συμπέρασμα ότι πέθανε από δηλητηρίαση από ναρκωτικά.
«Κατά μία έννοια, ο ύποπτος έλαβε καθοδήγηση από το ChatGPT και στη συνέχεια χρησιμοποίησε αυτές τις πληροφορίες ως μέσο για να πραγματοποιήσει το έγκλημα», είπε ο Nam. “Αυτό κάνει την υπόθεση ξεχωριστή καθώς οι αναζητήσεις ChatGPT χρησιμοποιήθηκαν άμεσα ως εργαλείο για τη διάπραξη του αδικήματος.â€
Ενώ η αστυνομία χρησιμοποιεί επίσης αναρτήσεις στα μέσα κοινωνικής δικτύωσης και κάμερες κλειστού κυκλώματος τηλεόρασης εκτός από τα στοιχεία του ημερολογίου συνομιλίας, είναι οι συνομιλίες με το ChatGPT που μπορεί να αποδειχθούν κρίσιμες για τον προσδιορισμό του εάν η Κιμ σκόπευε να σκοτώσει τα θύματα. Η επόμενη δίκη έχει οριστεί για τον Ιούνιο.
Η υπόθεση της Kim απηχεί μια αυξανόμενη πλάκα παρόμοιων περιστατικών στη Βόρεια Αμερική, όπου οι φερόμενοι δράστες χρησιμοποίησαν το ChatGPT για να ζητήσουν οδηγίες ζωτικής σημασίας για το έγκλημα. Οι προγραμματιστές των συστημάτων έχουν αποστασιοποιηθεί από τις παράνομες ενέργειες και τις εκκρεμείς νομικές υποθέσεις στις ΗΠΑ και τον Καναδά.
Οι υποθέσεις έχουν ασκήσει πίεση στο OpenAI.
Αφού ένας 18χρονος σκοπευτής σκότωσε οκτώ ανθρώπους στο Tumbler Ridge της Βρετανικής Κολομβίας, τον Φεβρουάριο, ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, έγραψε μια επιστολή ζητώντας συγγνώμη από την κοινότητα επειδή δεν ενημέρωσε τις αρχές επιβολής του νόμου για τον λογαριασμό του δράστη. Ο δράστης περιέγραψε στο ChatGPT σενάρια που αφορούσαν ένοπλη βία για αρκετές ημέρες προτού αποκλειστεί ο λογαριασμός τον Ιούνιο, οκτώ μήνες πριν από τον πυροβολισμό. Η εταιρεία δεν ειδοποίησε τις αρχές επιβολής του νόμου. Τον Απρίλιο, οικογένειες όσων σκοτώθηκαν και τραυματίστηκαν υπέβαλαν επτά ομοσπονδιακές αγωγές κατά του OpenAI, ισχυριζόμενες ότι δεν έλαβε μέτρα που θα μπορούσαν να είχαν αποτρέψει τον πυροβολισμό.
«Αν και τα λόγια δεν είναι ποτέ αρκετά, πιστεύω ότι μια συγγνώμη είναι απαραίτητη για να αναγνωρίσουμε τη ζημιά και την μη αναστρέψιμη απώλεια που υπέστη η κοινότητά σας», έγραψε ο Άλτμαν, δεσμευόμενος να συνεργαστεί με τις αρχές για την πρόληψη μελλοντικών εγκλημάτων.
Ο ύποπτος για τον πυροβολισμό στο κρατικό πανεπιστήμιο της Φλόριντα τον Απρίλιο του 2025 βρισκόταν σε «συνεχή επικοινωνία με το ChatGPT», είπε ο γενικός εισαγγελέας της πολιτείας, Τζέιμς Οθμάιερ, σε συνέντευξη Τύπου. Από την επίθεση σκοτώθηκαν δύο άνθρωποι. Ο Uthmeier ξεκίνησε ποινική έρευνα για να προσδιορίσει τον ρόλο που έπαιξε το προϊόν του OpenAI στην επίθεση. Είπε ότι το ChatGPT «συμβούλεψε τον πυροβολητή για το είδος του όπλου να χρησιμοποιήσει, για το ποια πυρομαχικά χρησιμοποιούσε ποιο όπλο, για το εάν ένα όπλο θα ήταν χρήσιμο σε μικρή απόσταση».
Ένας εκπρόσωπος του OpenAI είπε τότε ότι «το ChatGPT δεν ευθύνεται για αυτό το τρομερό έγκλημα», προσθέτοντας ότι οι απαντήσεις που έδωσε το chatbot «μπορούσαν να βρεθούν ευρέως σε δημόσιες πηγές στο Διαδίκτυο και δεν ενθάρρυναν ή προωθούσαν παράνομη ή επιβλαβή δραστηριότητα».
Η οικογένεια ενός από τα θύματα του πυροβολισμού FSU μήνυσε την OpenAI την Κυριακή.
Το ChatGPT και η γενετική τεχνητή νοημοσύνη έχουν επίσης χρησιμοποιηθεί «για την έρευνα εκρηκτικών και μηχανισμών ανάφλεξης» στην έκρηξη Tesla τον Ιανουάριο του 2025 έξω από το Trump International Hotel Las Vegas, σύμφωνα με την αστυνομία του Λας Βέγκας. Μια σχολική θεραπεύτρια στη Βόρεια Καρολίνα φέρεται να χρησιμοποίησε το ChatGPT για να ερευνήσει «θανατηφόρους και αναπηρικούς συνδυασμούς φαρμάκων που θα μπορούσαν να καταποθούν και να ενεθούν» για να δηλητηριάσει τον σύζυγό της πέρυσι. Τον Οκτώβριο, ένας 17χρονος έφηβος από τη Φλόριντα φέρεται να χρησιμοποίησε το εργαλείο σε μια προσπάθεια να οργανώσει τη δική του απαγωγή.
Οι ειδικοί λένε ότι η αποδοχή του ChatGPT και παρόμοιων εργαλείων σε ποινικές υποθέσεις είναι εκκολαπτόμενη. Ωστόσο, δεν υπάρχει σχεδόν καμία νομική διαδικασία που να έχει αφήσει απρόσκοπτη. Οι δικηγόροι και τα θύματα χρησιμοποιούν chatbots για να δημιουργήσουν υποθέσεις, μερικές φορές με τόσα πολλά λάθη που οι δικαστές απαγορεύουν τη χρήση τους στις αίθουσες των δικαστηρίων τους. Ορισμένοι κατηγορούμενοι τα χρησιμοποιούν για να ιατρεύουν αποδείξεις ή για να αμφισβητήσουν τα γνήσια στοιχεία. Τώρα, αναδύεται ένα αυξανόμενο σύνολο υποθέσεων που υποδεικνύουν τη χρήση γενετικής τεχνητής νοημοσύνης σε εγκλήματα. Για πολλούς στον χώρο, οι περιπτώσεις που βρίσκονται στη δημοσιότητα είναι μόνο η κορυφή του παγόβουνου.
«Δεν προκαλεί έκπληξη το γεγονός ότι οι εγκληματίες χρησιμοποιούν chatbots που είναι πρόθυμοι να βοηθήσουν στο σχεδιασμό εγκλημάτων», είπε ο Max Tegmark, φυσικός και ερευνητής μηχανικής μάθησης στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης και πρόεδρος του Future of Life Institute, ενός μη κερδοσκοπικού οργανισμού που επιδιώκει να μειώσει τους κινδύνους από τις μετασχηματιστικές τεχνολογίες.
«Υπάρχουν λιγότερα πρότυπα ασφαλείας για την τεχνητή νοημοσύνη από ό,τι για τα σάντουιτς», είπε ο Tegmark. «Η προφανής λύση είναι τα δεσμευτικά πρότυπα ασφαλείας, έτσι ώστε οι εταιρείες να μην μπορούν να απελευθερώσουν συστήματα τεχνητής νοημοσύνης έως ότου αρνηθούν την εγκληματική δραστηριότητα».
Κάποιοι υποστηρίζουν ότι η χρήση ενός chatbot δεν είναι τόσο διαφορετική από μια απλή αναζήτηση στο Google, καθώς και οι δύο παράγουν ίχνη ψηφιακών πληροφοριών που δείχνουν πώς οι εγκληματίες σχεδίαζαν τις ενέργειές τους. Αλλά ο Nam, ο δικηγόρος στην υπόθεση της Νότιας Κορέας, είπε ότι τα chatbots δημιουργούν ένα νέο είδος σεναρίου.
«Το πραγματικό πρόβλημα είναι ότι αυτή η μορφή συνομιλίας μπορεί να επιτρέψει σε πιθανούς εγκληματίες να συμμετάσχουν σε «διάλογο» με το ChatGPT χωρίς αίσθημα ενοχής», είπε.
“Εάν ο ύποπτος είχε ρωτήσει έναν άνθρωπο για τη δόση ή τη χορήγηση μιας τοξικής ουσίας, αυτό το άτομο θα αμφισβητούσε φυσικά την πρόθεση – γιατί κάποιος θα ήθελε τέτοιες συγκεκριμένες πληροφορίες σχετικά με τη χορήγηση δηλητηρίου”, είπε. “Ωστόσο, το ChatGPT δεν φιλτράρει τέτοιες ερωτήσεις μέσω ηθικής κρίσης”.
Καθώς η βιομηχανία αρχίζει να παλεύει με την κακή χρήση της τεχνολογίας της, αντιμετωπίζει παρόμοια ερωτήματα σχετικά με τη διασφάλιση, όπως καινοτομίες του παρελθόντος, όπως ζώνες ασφαλείας στα αυτοκίνητα, μετριοπάθεια στα μέσα κοινωνικής δικτύωσης ή προειδοποιητικές ετικέτες σε δυνητικά τοξικά προϊόντα.
«Θα φτάσουμε σε μια ισορροπία με την οποία όλοι νιώθουν άνετα», δήλωσε ο Anat Lior, επίκουρος καθηγητής Νομικής στο Πανεπιστήμιο Drexel, ο οποίος έχει σπουδάσει διακυβέρνηση και λογοδοσία AI. “Απλώς δεν είμαστε σίγουροι πώς φαίνεται αυτή η πράξη εξισορρόπησης.â€






