Αρχική Πολιτισμός Εγγύηση ασφαλούς και βιώσιμης τεχνολογικής ανάπτυξης.

Εγγύηση ασφαλούς και βιώσιμης τεχνολογικής ανάπτυξης.

19
0

Στο πλαίσιο της ανάπτυξης των ψηφιακών τεχνολογιών, η διαδικτυακή απάτη γίνεται πιο περίπλοκη. Η τεχνολογία Deepfake (η οποία προσομοιώνει εικόνες ανθρώπινων προσώπων, μια συστολή «βαθιάς μάθησης» και «ψεύτικης») αξιοποιείται για να υποδυθεί αγαπημένα πρόσωπα, οργανισμούς και επιχειρήσεις προκειμένου να κλέψει περιουσία. Μπροστά σε αυτήν την πραγματικότητα, είναι απαραίτητο να ενισχυθεί η διαχείριση των ψηφιακών πλατφορμών, να βελτιωθούν τα νομικά πλαίσια και να ευαισθητοποιηθούν οι πολίτες για τους κινδύνους του κυβερνοχώρου.

Σύμφωνα με μια Έρευνα Κυβερνοασφάλειας του 2025 που διεξήχθη από την Εθνική Ένωση Κυβερνοασφάλειας, ο αριθμός των θυμάτων διαδικτυακής απάτης μειώθηκε σημαντικά μεταξύ 2024 και 2025. Πιο συγκεκριμένα, περίπου ένα στα 555 άτομα θα πέσει θύματα απάτης, ή 0,18%, σε σύγκριση με 0,45% της κοινής προσπάθειας και των δοκιμών μας στο 202 αρχές, εταιρείες τεχνολογίας, επαγγελματικές οργανώσεις και μέσα ενημέρωσης για την ευαισθητοποίηση του κοινού. Ωστόσο, είναι σημαντικό να σημειωθεί ότι οι μέθοδοι απάτης δεν έχουν εξαφανιστεί, αλλά εξελίσσονται και γίνονται πιο εξελιγμένες. Η χρήση της τεχνολογίας deepfake, ειδικότερα, καθιστά δυνατή την πλαστογράφηση εικόνων, φωνών και ταυτοτήτων, καθιστώντας έτσι πολύ πιο δύσκολη τη διάκριση μεταξύ πραγματικών θυμάτων και απατεώνων.

Σύμφωνα με τον κ. Vu Duy Hien, Αναπληρωτή Γενικό Γραμματέα και Επικεφαλής Γραφείου της Εθνικής Ένωσης Κυβερνοασφάλειας, η ανάλυση της τρέχουσας κατάστασης όσον αφορά την διαδικτυακή απάτη αποκαλύπτει θετικές εξελίξεις, αλλά και πολλές προκλήσεις. Σήμερα, οι εικόνες, οι φωνές και τα βίντεο δεν είναι πλέον αρκετά αξιόπιστα για την επαλήθευση μιας ταυτότητας. Η τεχνολογία Deepfake συχνά συνοδεύεται από σενάρια ευαίσθητα στον χρόνο, ωθώντας τους χρήστες να λάβουν βιαστικές αποφάσεις και να παραμελήσουν τα απαραίτητα βήματα επαλήθευσης. Επομένως, η προστασία των προσωπικών δεδομένων είναι πρωταρχικής σημασίας, καθώς τα deepfakes είναι πραγματικά αποτελεσματικά μόνο όταν τροφοδοτούνται από πραγματικά δεδομένα. Η αδιάκριτη κοινή χρήση εικόνων, φωνών και προσωπικών πληροφοριών σε μέσα κοινωνικής δικτύωσης ή πλατφόρμες άγνωστης προέλευσης μπορεί ακούσια να επιτρέψει την περίπλοκη κλοπή ταυτότητας.

Τα Deepfakes αντιπροσωπεύουν μια από τις πιο σοβαρές προκλήσεις της εποχής της τεχνητής νοημοσύνης (AI), καθώς η γραμμή μεταξύ αλήθειας και ψέματος γίνεται όλο και πιο θολή. Ο Vu Duy Hung, ειδικός στο Hung AI Creative, δήλωσε: “Αυτό που βλέπετε και ακούτε δεν είναι απαραίτητα αληθινό. Από εικόνες και φωνές έως βίντεο, τα σημερινά εργαλεία τεχνητής νοημοσύνης καθιστούν δυνατή τη δημιουργία ψεύτικο περιεχόμενο που είναι εξαιρετικά ρεαλιστικό, εύκολα προσβάσιμο και δύσκολο να διακριθεί με γυμνό μάτι…

Πέρα από τον κίνδυνο διαδικτυακής απάτης, η διαχείριση του περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη αντιπροσωπεύει μια νέα, περίπλοκη και λεπτή πρόκληση. Πράγματι, ορισμένα chatbot AI έχουν χρησιμοποιηθεί για τη δημιουργία και τη διανομή ευαίσθητου ψεύτικο περιεχόμενο (deepfakes) που υπονομεύει σοβαρά τα ανθρώπινα δικαιώματα, την τιμή, την αξιοπρέπεια και το απόρρητο στο διαδίκτυο. Ενόψει αυτής της κατάστασης, είναι απαραίτητο να δημιουργηθούν κατάλληλοι και αποτελεσματικοί μηχανισμοί διαχείρισης για τον έλεγχο και τον μετριασμό των κινδύνων, διασφαλίζοντας παράλληλα ένα διαφανές, υπεύθυνο και βιώσιμο περιβάλλον ανάπτυξης για τις τεχνολογίες τεχνητής νοημοσύνης.

Ο αναπληρωτής καθηγητής Tran Thanh Nam, αντιπρύτανης του Πανεπιστημίου Εκπαίδευσης του Εθνικού Πανεπιστημίου του Βιετνάμ στο Ανόι και ειδικός στο Γαλλο-βιετναμέζικο Ινστιτούτο Ψυχολογίας, υπογραμμίζει τα αίτια αυτής της κατάστασης: η ζωή σε έναν κόσμο κορεσμένο από πληροφορίες κάνει τους νέους ευάλωτους στις διαδικτυακές απάτες. Η ταχύτητα και ο φόβος της απώλειας (FOMO) οδηγούν σε έλλειψη αυτοελέγχου και κακή αξιολόγηση κινδύνου. Το ομαδικό αποτέλεσμα, η τυφλή εμπιστοσύνη σε ψευδείς πληροφορίες που διαδίδονται στα μέσα κοινωνικής δικτύωσης, η έλλειψη κριτικής σκέψης, η έλλειψη ψηφιακών οικονομικών γνώσεων, η προτεραιότητα που δίνεται στην ταχύτητα έναντι της επαλήθευσης και η ανάγκη για αναγνώριση και προσοχή κάνουν πολλούς νέους να πέφτουν εύκολα στην παγίδα.

Αντιμέτωποι με την ταχεία ανάπτυξη της τεχνητής νοημοσύνης, είναι απαραίτητο να εκπαιδεύσουμε προληπτικά την κοινότητα με τις κατάλληλες γνώσεις, δεξιότητες και συμπεριφορές. Σύμφωνα με τους ειδικούς, οι χρήστες θα πρέπει να είναι ιδιαίτερα προσεκτικοί όταν αντιμετωπίζουν αιτήματα για μεταφορές, επιβεβαιώσεις συναλλαγών ή προσωπικές πληροφορίες που μεταδίδονται μέσω τηλεφώνου, SMS ή βίντεο, ακόμη και αν προέρχονται από γνωστούς γνωστούς, διαχειριστές, οργανισμούς ή πλατφόρμες. Η συστηματική επαλήθευση πληροφοριών με πολλές επίσημες πηγές ή η άμεση επαφή με την ενδιαφερόμενη οντότητα είναι απαραίτητη για τον περιορισμό των κινδύνων. Η ευαισθητοποίηση του κοινού και η παροχή των μέσων για τον εντοπισμό των deepfakes και τη θέσπιση μέτρων πρόληψης και ελέγχου είναι σήμερα μια επείγουσα ανάγκη για την ασφάλεια των πληροφοριών και την ψηφιακή ασφάλεια.

Αντιμέτωπες με αυτήν την κατάσταση, οι αρχές έχουν προειδοποιήσει τακτικά τους πολίτες να τους προστατεύουν κατά τις διαδικτυακές συναλλαγές, τις αγορές και τις αλληλεπιδράσεις τους, τελειοποιώντας παράλληλα το νομικό πλαίσιο σχετικά με την τεχνητή νοημοσύνη. Σύμφωνα με τον κ. Tran Van Son, Αναπληρωτή Διευθυντή του Εθνικού Ινστιτούτου Ψηφιακών Τεχνολογιών και Ψηφιακού Μετασχηματισμού (Υπουργείο Επιστήμης και Τεχνολογίας), ο Νόμος για την Τεχνητή Νοημοσύνη, που εγκρίθηκε από την Εθνοσυνέλευση στις 10 Δεκεμβρίου 2025 και τέθηκε σε ισχύ την 1η Μαρτίου 2026, θεσπίζει ένα σχετικά πλήρες νομικό πλαίσιο για την ταξινόμηση των επιπτώσεων των κινδύνων. ενδυνάμωση των φορέων διαχείρισης για την παρακολούθηση, την επέμβαση και την αντιμετώπιση αδικημάτων που διαπράττονται από συστήματα τεχνητής νοημοσύνης.

Ο νόμος απαγορεύει αυστηρά τη χρήση deepfakes για δόλιους ή παράνομους σκοπούς. Επίσης, απαιτεί το περιεχόμενο που δημιουργείται ή τροποποιείται από AI να φέρει ετικέτα και να υπόκειται σε λύσεις αναγνώρισης για σκοπούς διαχείρισης και ιχνηλασιμότητας. Το Υπουργείο Επιστήμης και Τεχνολογίας είναι το κεντρικό όργανο που είναι υπεύθυνο, εντός της κυβέρνησης, για την κρατική διαχείριση της τεχνητής νοημοσύνης και τον καθορισμό κατευθυντήριων γραμμών σχετικά με την ταξινόμηση κινδύνου και την αξιολόγηση συμμόρφωσης. Εάν εντοπιστεί κίνδυνος ζημιάς ή σοβαρού συμβάντος, απαιτείται από την αρμόδια αρχή να αναστείλει προσωρινά, να αποσύρει ή να επανεκτιμήσει το σύστημα.

Για σοβαρές παραβιάσεις, συμπεριλαμβανομένων εκείνων που αφορούν περιεχόμενο επιβλαβές για παιδιά ή διαταράσσουν την κοινωνική τάξη και ασφάλεια, οι επηρεαζόμενοι οργανισμοί και άτομα όχι μόνο υπόκεινται σε περιορισμούς ή αναστολές των υπηρεσιών τους βάσει του νόμου περί τεχνητής νοημοσύνης, αλλά ενδέχεται επίσης να υπόκεινται σε διοικητικές κυρώσεις, ποινική δίωξη και αποζημίωση για ζημίες που προβλέπονται από το νόμο.

Αυτή η προσέγγιση καταδεικνύει ξεκάθαρα τη δέσμευση για την ενθάρρυνση της καινοτομίας, ενώ απορρίπτει σθεναρά την κατάχρηση της τεχνητής νοημοσύνης που υπονομεύει τα ανθρώπινα δικαιώματα και τα κοινωνικά συμφέροντα, διασφαλίζοντας ότι αυτή η τεχνολογία αναπτύσσεται με ασφαλή, υπεύθυνο και βιώσιμο τρόπο.

Πηγή: https://nhandan.vn/bao-dam-cong-nghe-phat-trien-an-toan-ben-vung-post949630.html