Αρχική Πολιτισμός Πόλεμοι ρομπότ; «Η τεχνολογία δεν είναι έτοιμη», διαβεβαιώνει ένας ειδικός

Πόλεμοι ρομπότ; «Η τεχνολογία δεν είναι έτοιμη», διαβεβαιώνει ένας ειδικός

12
0


Η χρήση ανθρωποειδών ρομπότ Phantom MK-1 στην Ουκρανία δεν σημαίνει ότι οι πόλεμοι πρόκειται να γίνουν από ευφυείς μηχανές, υποστηρίζει ένας ειδικός.

• Διαβάστε επίσης: Παραπληροφόρηση στη Μέση Ανατολή: AI, ένα νέο όπλο πολέμου στα μέσα ενημέρωσης

• Διαβάστε επίσης: Η αμερικανική κυβέρνηση θεωρεί «απαράδεκτο» τον κίνδυνο που θέτει η Anthropic

• Διαβάστε επίσης: Ο Τραμπ «ξέρει τι κάνει»: ο πόλεμος δεν κλονίζει τα στρατεύματα της MAGA

Σύμφωνα με τον Karim Jerbi, καθηγητή στο τμήμα ψυχολογίας του Πανεπιστημίου του Μόντρεαλ και κάτοχο ερευνητικής έδρας στην υπολογιστική νευροεπιστήμη και τη γνωστική απεικόνιση, η ανάπτυξη αυτού του τύπου τεχνολογίας απέχει πολύ από το να έχει φτάσει στο σημείο όπου τα ρομπότ θα καταστρέφουν το ένα το άλλο στο πεδίο της μάχης.

“Αυτή η ιδέα ότι θα έχουμε στρατούς να πολεμούν ο ένας τον άλλον τώρα, χιλιάδες ρομπότ εναντίον ενός άλλου στρατού χιλιάδων ρομπότ. “Αυτό είναι πραγματικά επιστημονική φαντασία, αυτό βλέπουμε στις ταινίες”, είπε σε μια συνέντευξη στην εκπομπή του Benoit Dutrizac στο ραδιόφωνο και την τηλεόραση QUB, που μεταδόθηκε ταυτόχρονα στους 99,5 FM στο Μόντρε.

«Η εταιρεία Θεμέλιο που προσφέρει ακριβώς το ρομπότ MK1, θέλει να πιστεύουμε ότι ίσως είναι μια σχεδόν ηθική και ηθική απόφαση να στέλνουμε ρομπότ για να σκοτωθούν και όχι ανθρώπους, ενώ γνωρίζουμε ότι η τεχνολογία δεν είναι έτοιμη και γνωρίζουμε ότι είναι ακόμα ένας ηγέτης της επιχείρησης που θέλει να σας πουλήσει τα εμπορεύματά του», πρόσθεσε ο ειδικός.

Πόλεμοι ρομπότ; «Η τεχνολογία δεν είναι έτοιμη», διαβεβαιώνει ένας ειδικός

Capture d’écran YouTube / Foundation RoboticsÂ

Το Phantom Mk-1 κατά τη διάρκεια μιας δοκιμής βάδισης

Σύμφωνα με το τελευταίο, υπάρχουν πολλά παραδείγματα που αποδεικνύουν ότι αυτά τα ανθρωποειδή ρομπότ δεν είναι έτοιμα να αναπτυχθούν μαζικά σε εμπόλεμες ζώνες.

«Αν κοιτάξεις YouTubeθα βρείτε και βίντεο όπου έκαναν δοκιμές για να το δουν να κινείται, να κινείται. Δεν ξέρω αν έχετε δει και βίντεο με ρομπότ που παίζουν ποδόσφαιρο: δεν είναι πολύ γρήγορο, σπάει συνέχεια», αναφέρει ο Karim Jerbi.

«Είμαστε σε καταστάσεις όπου ακόμα δυσκολευόμαστε να δούμε ένα ρομπότ που θα μπορεί να διπλώνει σωστά τα ρούχα, οπότε δίνοντάς του ένα Καλάσνικοφ στο χέρι και βλέποντας τι θα συμβεί με αυτό, νομίζω ότι είναι ακόμα αρκετά περίπλοκο», προσθέτει.

Ο τελευταίος αναφέρει χαρακτηριστικά ένα βίντεο όπου το Phantom MK-1, κατά τη διάρκεια μιας δοκιμής, κινείται με δυσκολία σε μια επιφάνεια όπου έχουν σκορπιστεί αρκετές μπανανόφλουδες.

“Έχετε ένα ρομπότ που δεν μπορεί να διασχίσει μια επιφάνεια με φλούδες μπανάνας, που δίνει μια άμεση στρατηγική στους Ρώσους να πετάξουν χιλιάδες μπανανόφλουδες στην Ουκρανία. Στη συνέχεια, κέρδισαν τον πόλεμο χάρη στις μπανανόφλουδες, οπότε βρισκόμαστε σε μια ελαφρώς γελοία κατάσταση”, εξηγεί ο ειδικός.

Ο Karim Jerbi επιμένει ότι η τεχνολογία απλά δεν είναι έτοιμη και ότι οι εταιρείες σε αυτόν τον τομέα προσπαθούν να κάνουν το κοινό να πιστέψει το αντίθετο για καθαρά εμπορικούς λόγους.

«Γνωρίζουμε πολύ καλά ότι ο πόλεμος είναι μια πολύ προσοδοφόρα επιχείρηση», συνοψίζει ο καθηγητής στο τμήμα ψυχολογίας του Πανεπιστημίου του Μόντρεαλ.

Ηθικό ζήτημα

Η χρήση αυτόνομων ρομπότ και τεχνητής νοημοσύνης σε πολεμικές καταστάσεις θέτει επίσης ηθικό πρόβλημα, υπογραμμίζει ο κ. Τζέρμπι.

“Δεν θέλουμε μια τεχνητή νοημοσύνη στον στρατό που είναι αυτόνομο, με άλλα λόγια, που να μπορεί να λαμβάνει αποφάσεις χωρίς ανθρώπινη παρέμβαση. Αφαιρούμε τον άνθρωπο από τον βρόχο, τώρα έχετε για παράδειγμα ένα drone ή ένα ρομπότ που θα σαρώσει με αυτές τις κάμερες την εικόνα αυτού που βλέπει σε πραγματικό χρόνο, ενδεχομένως να εντοπίσει έναν στόχο, να αποφασίσει ότι αυτός ο στόχος πρέπει να εξαλειφθεί και μετά από αυτό μπορεί να τον εξαλείψει. λέει.

Ωστόσο, τα σφάλματα τεχνητής νοημοσύνης είναι αναπόφευκτα, ισχυρίζεται ο ειδικός.

“Το AI δεν είναι αλάνθαστο. Χρησιμοποιείς το Chat GPT, μερικές φορές σου δίνει τη σωστή απάντηση, μερικές φορές σου δίνει ανοησίες. […] Αν είναι λάθος συνταγής που ζητάτε από το ChatGPT, μπορεί να μην είναι το τέλος του κόσμου. Αλλά αν υπάρχει ένα λάθος στην επιλογή ενός στόχου και μετά βρεθούμε με ένα drone που πρόκειται να βομβαρδίσει ένα σχολείο ή ένα ασθενοφόρο σε κατάσταση πολέμου, τότε βρισκόμαστε σε μια πραγματική μεγάλη στρατιωτική γκάφα», αναφέρει ο κάτοχος μιας ερευνητικής έδρας στην υπολογιστική νευροεπιστήμη και τη γνωστική απεικόνιση.

“Η αφαίρεση των ανθρώπων από το βρόχο με αυτόνομη τεχνητή νοημοσύνη, το πραγματικό ζήτημα, είναι πραγματικά το ηθικό ζήτημα της ώθησης της απόφασης στη μηχανή και στον αλγόριθμο. Και λέμε στον εαυτό μας: ποιος είναι υπεύθυνος όταν υπάρχει στρατιωτική γκάφα; Είναι ο αλγόριθμος; Αυτή είναι η εταιρεία που δημιούργησε το ρομπότ;”, ρωτά ο Karim Jerbi.

Πιστεύει ότι πρέπει να έχουμε βαθύ προβληματισμό για τη χρήση της τεχνητής νοημοσύνης, ιδιαίτερα σε στρατιωτικό επίπεδο και για την ευθύνη της τεχνητής νοημοσύνης.

«Όταν υπάρχουν κέρδη που προηγούνται της ηθικής και των ανθρωπίνων δικαιωμάτων γενικότερα, υπάρχει πραγματικό πρόβλημα», συνοψίζει.

Για να δείτε ολόκληρη τη συνέντευξη, δείτε το παραπάνω βίντεο.