H νέα... μόδα λέγεται Deepfake-Πώς δρουν οι επιτήδειοι και ξεγελούν πολίτες
Γιώργος Χατζηπαναγή 15:33 - 04 Νοεμβρίου 2023
Χρόνο με το χρόνο μεγαλώνουν τα ερωτήματα που αφορούν την εξέλιξη της τεχνολογίας και κατά πόσον αυτή αποτελεί ευχή ή κατάρα για τον άνθρωπο. Από τη θετική σκοπιά, ο άνθρωπος σήμερα έχει ελεύθερη πρόσβαση στην πληροφορία και μπορεί να μελετήσει και να ενημερωθεί για οποιοδήποτε θέμα ή ακόμα να επιλέξει ποια είναι η καλύτερη πηγή πληροφόρησης για τον ίδιο. Από την άλλη όμως, η τεχνολογία κρύβει μεγάλες παγίδες και χρειάζεται κριτική σκέψη ώστε ο ανθρώπινος νους να αποφύγει τις παγίδες που μπορεί να βρεθούν μπροστά του, μέσα από την τεχνολογία.
Η ανάπτυξη αλλά και η εξέλιξη το τελευταίο διάστημα του AI ( Artificial Intelligence), δηλαδή της τεχνητής νοημοσύνης, δημιουργεί μεγάλες ευκαιρίες για γνώση στους ανθρώπους, αλλά ταυτόχρονα προκαλεί και πολλά προβλήματα, γιατί κάποιοι επιτήδειοι εκμεταλλεύονται το συγκεκριμένο εργαλείο, ώστε να επωφεληθούν οικονομικά ή εμπορικά.
Μέσω του AI, επιτήδειοι επιχειρούν να εξαπατήσουν πολίτες με πολλούς και διάφορους τρόπους, ένας εκ των οποίων και τα Deepfake βίντεο που δημιουργούν. Ουσιαστικά πρόκειται για τεχνητά βίντεο, τα οποία χρησιμοποιούν αλγόριθμο, ο οποίος μαθαίνει τα τεχνικά χαρακτηριστικά ενός προσώπου και το αντικαθιστά με ένα άλλο πρόσωπο.
Μιλώντας στον REPORTER, το μέλος του Δικανικού Εργαστηρίου Ηλεκτρονικών Δεδομένων της Υποδιεύθυνσης Ηλεκτρονικού Εγκλήματος, Μάριος Λεμονιάτης, εξήγησε ότι παρουσιάζεται κάποιος πολύ πειστικά ότι παριστάνει έναν άλλο άνθρωπο. «Είναι σε έξαρση αυτό το θέμα τους τελευταίους μήνες και αυτό οφείλεται στο ΑΙ (Artificial Intelligence). Μετά το Chat GPT και άλλες εφαρμογές που δημιουργούνται με τεχνητή νοημοσύνη πλέον, παρατηρήθηκε και μεγάλη αύξηση όσον αφορά τα deepfake video», ανέφερε ο κ. Λεμονιάτης.
ΔΙΑΒΑΣΤΕ ΕΔΩ:Fake μηνύματα από ξενοδοχεία, τράπεζες και κρατικές υπηρεσίες-Πώς ξεγελούν ανυποψίαστους πολίτες
Πρώτος στόχος οι ηθοποιοί
Οι επιτήδειοι έχουν θέσει ως στόχο την εξαπάτηση των πολιτών με πρόσωπα πολύ γνωστά, τα οποία όταν κάποιος τα βλέπει να μιλούν για ένα θέμα που τους ενδιαφέρει, θα το παρακολουθήσουν και θα λάβουν υπόψιν την γνώμη τους.
Όπως τόνισε το μέλος της Υποδιεύθυνσης Ηλεκτρονικού Εγκλήματος, «το target group είναι κυρίως ηθοποιοί, που φαίνεται να μιλούν για κάποια θέματα ή κάποια γεγονότα, αλλά στην ουσία είναι άλλοι άνθρωποι οι οποίοι αλλάζουν την μορφή τους μέσω τoυ ΑΙ και παρουσιάζονται σαν να είναι οι ίδιοι οι ηθοποιοί που μιλούν». Σημείωσε μάλιστα πως «πολλά περιστατικά εντοπίζονται μέσω του Τik Τok, όπου φαίνεται κάποιοι να έχουν πάρει την μορφή πολύ γνωστών προσώπων, όπως ο Τομ Κρουζ, ο Μόργκαν Φρίμαν και πολλοί άλλοι. Όταν χρησιμοποιούν αυτά τα πρόσωπα παίρνουν πολλές προβολές και κερδίζουν περισσοτερα χρήματα».
Η μέθοδος του Deepfake έχει χρησιμοποιηθεί αρχικά και βέβαια νομότυπα, σε ταινίες, όπου παρουσιάζουν ένα ηθοποιό να μιλά, ενώ στην ουσία δεν είχε καμία συμμετοχή. Σε εκείνη την περίπτωση ωστόσο, ο άνθρωπος που παριστάνουν πληρώνεται και επωφελείται από την προβολή του. Πλέον αυτή η μέθοδος υιοθετήθηκε και από τους επιτήδειους, για να θησαυρίζουν στην πλάτη άλλων ανθρώπων και χωρίς μάλιστα να έχουν οι διάσημοι καμία σχέση και καμία γνώση για ότι συμβαίνει.
«Πλέον τα Deepfake δεν είναι μόνο σε βίντεο, αλλά έχουν προχωρήσει ένα βήμα παρακάτω οι επιτήδειοι και μπορεί να μιλάς ζωντανά με κάποιον και αυτός ο κάποιος να έχει τη μορφή ενός ηθοποιού ή τελοσπάντον κάποιου γνωστού», σημείωσε ο κ. Λεμονιάτης.
ΔΙΑΒΑΣΤΕ ΕΔΩ:Η δήθεν πατέντα της Κύπριας φοιτήτριας, τα «θαυματουργά» φάρμακα για την στύση και οι καταγγελίες
Οι συμβουλές στο κοινό για να ξεχωρίζουν μια απάτη
Για να μπορέσουν οι πολίτες να ξεφύγουν από μια τέτοια απάτη, θα πρέπει να έχουν δύο βασικά κριτήρια. Το πρώτο κα κυριότερο είναι η κριτική σκέψη και το δεύτερο κάποια στοιχεία που δίνει στον θεατή το ίδιο το βίντεο που παρακολουθεί ή η συνομιλία στην οποία συμμετέχει.
«Αν μιλά ένας πολίτης με κάποιο που παριστάνει έναν άλλο, όταν μετακινεί το κεφάλι του, θα παρατηρήσετε ότι κολλά λίγο το βίντεο. Αυτό συμβαίνει διότι το βίντεο και ο αλγόριθμος δυσκολεύονται να αντιληφθούν την κίνηση.
Επίσης, τα Deepfake που βλέπουμε για να καταλάβουμε αν είναι ή όχι αληθινά, πρέπει να αναπτύξουμε την κριτική μας σκέψη. Δηλαδή να ρωτάς τον εαυτό σου ποιος και γιατί κοινοποίησε το βίντεο».
Πρέπει, είπε, «να διερωτάσαι εάν θα μπορεί να έλεγε ένας άνθρωπος αυτά που τον ακούς να λέει; Για παράδειγμα αν ακούς τον Τομ Κρουζ να μιλά για ένα θέμα στην Κύπρο πρέπει να καταλάβεις ότι κάτι πηγαίνει λάθος. Πρέπει να είμαστε υποψιασμένοι για το ποιος λέει κάτι, αλλά και τι λέει».
Τέτοια περιστατικά παρουσιάστηκαν και στην Κύπρο, ωστόσο δεν είναι τόσο μεγάλης κλίμακάς προς το παρόν, όσο σε άλλες χώρες. Ως εκ τούτου, η Υποδιεύθυνση Ηλεκτρονικού Εγκλήματος καλεί τους πολίτες να είναι ιδιαίτερα προσεχτικοί και να φιλτράρουν όσα ακούν ή βλέπουν και αν κρίνουν ότι κάτι εμπίπτει στην συγκεκριμένη κατηγορία να το καταγγέλλουν άμεσα στις Αρχές για να διερευνηθεί.