Η ανάπτυξη της τεχνητής νοημοσύνης δυστυχώς έφερε μαζί της και ένα νέο είδος εγκλήματος, όπου ο καθένας μπορεί να αντικαταστήσει το πρόσωπο και τη φωνή οποιουδήποτε και να τον βάλει να κάνει και να λέει ό,τι εκείνος θέλει.
H νέα, επικίνδυνη, απάτη που καραδοκεί στο διαδίκτυο, είναι τα γνωστά deepfake, βίντεο στα οποία με τη βοήθεια της τεχνητής νοημοσύνης, κάποιο πρόσωπο, ο κάθε ένας από εμάς, φαίνεται να λέει ή να κάνει κάτι που δεν είναι πραγματικό.
Ο δημιουργός του πλαστού βίντεο αντικαθιστά το πρόσωπο, το σώμα και τη φωνή όποιου θέλει και τον βάζει να κάνει και να λέει ό,τι εκείνος θέλει.
Τα βίντεο αυτά στην αρχή έγιναν για πλάκα και ήταν ακίνδυνα
«Υπάρχουν πολλές διάσημες εφαρμογές που μπορούν να αλλάξουν το πρόσωπό σας να πάρουν το δικό σας πρόσωπο και να το βάλουν επάνω στο πρόσωπο ενός διάσημου ηθοποιού που υπάρχει ένα συγκεκριμένο βιντεάκι που χορεύει που τραγουδάει και ξαφνικά να χορεύετε και να τραγουδάτε», ανέφερε ο Βασίλης Ζωγράφος, υποψήφιος διδάκτωρ Πληροφορικής και Επιστήμης Δεδομένων.
Όμως, οι κίνδυνοι από αυτό το λογισμικό είναι πλέον πολλοί. Γυναίκες έχουν καταγγείλει πως έχουν πέσει θύμα εκδικητικής πορνογραφίας με πλαστές φωτογραφίες ευαίσθητου περιεχομένου να… μοιράζονται στο διαδίκτυο.
Σε άλλο deepfake βίντεο που αναπαράχθηκε διεθνώς o Βολοντίμιρ Ζελένσκι εμφανίζεται να αποδέχεται την ήττα από την Ρωσία και να ζητά από τους Ουκρανούς να σταματήσουν να πολεμούν. Αυτό το παραπλανητικό βίντεο τελικά αποσύρθηκε από όλες τις πλατφόρμες στο ίντερνετ, αφού όμως είχε ήδη προκαλέσει τεράστια αναστάτωση.
Κάποια άλλα θύματα είναι η Τέιλορ Σουίφτ, ο Ντόναλντ Τραμπ, η Σκάρλετ Γιοχάνσον και πολλοί άλλοι.
Σε άλλο βίντεο, Έλληνας καθηγητής φαίνεται να προωθεί δήθεν ειδικό φάρμακο για ηλικιωμένους.
Με ανακοίνωσή της η Ελληνική Αστυνομία μας καλεί όλους να είμαστε ιδιαίτερα προσεκτικοί. Ψεύτικες διαφημίσεις σε μέσα κοινωνικής δικτύωσης και ιστοσελίδες αλλά και δημοφιλή πρόσωπα που εμφανίζονται να προωθούν δήθεν επενδυτικά προγράμματα ή υποτιθέμενα «θαυματουργά» φάρμακα, έχουν κατακλύσει το διαδίκτυο.
Θύματα 4.000 διασημότητες
Περισσότεροι από 250 Βρετανοί διασημότητες είναι μεταξύ των χιλιάδων διάσημων ανθρώπων που πέφτουν θύματα βαθιάς ψεύτικης πορνογραφίας, σύμφωνα με έρευνα.
Μια ανάλυση του Channel 4 News των πέντε ιστοσελίδων deepfake με τις περισσότερες επισκέψεις βρήκε ότι σχεδόν 4.000 διάσημα άτομα περιλαμβάνονταν στη λίστα, εκ των οποίων 255 ήταν Βρετανοί.
Περιλαμβάνουν γυναίκες ηθοποιούς, τηλεοπτικούς αστέρες, μουσικούς και YouTubers, που δεν κατονομάζονται, τα πρόσωπα των οποίων τοποθετήθηκαν σε πορνογραφικό υλικό με χρήση τεχνητής νοημοσύνης.
Η έρευνα διαπίστωσε ότι οι πέντε τοποθεσίες έλαβαν 100 εκατομμύρια προβολές σε διάστημα τριών μηνών, σύμφωνα με τον Guardian.
Εκεί που το ψέμα μοιάζει αλήθεια
Η παρουσιάστρια του ΕΡΤNews Αντριάννα Παρασκευοπούλου που έπεσε θύμα του deepfake τόνισε: «Ήταν σοκαριστικό γιατί ήμουν εγώ, το πρόσωπό μου, ήταν η φωνή μου ήταν το περιβάλλον της δουλειάς μου δηλαδή το δελτίο ειδήσεων της ΕΡΤ μέχρι που στα πρώτα δευτερόλεπτα όταν υπήρχε και η απάντηση του συνεντευξιαζόμενου αναρωτήθηκα αν έχω κάνει ποτέ τέτοια συνέντευξη που αποκλείεται ποτέ στη ζωή μου να είχα πει κάτι τέτοιο».
Το δεύτερο σοκ ήρθε όταν η παρουσιάστρια της εκπομπής «Συνδέσεις» Χριστίνα Βίδου επικοινώνησε με τις Αρχές και δήλωσε «Μου είπαν να σου πω κάτι ρε Χριστίνα; Δεν πρόκειται να βρεις άκρη. Γιατί αυτή τη στιγμή αυτοί ας τους πούμε χάκερς είναι ένα μεγάλο δίκτυο δεν είναι κάτι που λειτουργεί και η έδρα του είναι εδώ μόνο στην Ελλάδα. Μπορεί αυτό το δίκτυο να έχει σέρβερς σε πάρα πολλές χώρες»
Ο Γιάννης Αντετοκούνμπο μέσω του δελτίου ειδήσεων του EΡΤNEWS και τη Βούλα Μαλλά, να εμφανίζεται ξαφνικά να μοιράζει αφειδώς εκατομμύρια.
Ο διευθυντής της Δίωξης Ηλεκτρονικού Εγκλήματος Βασίλης Παπακώστας δήλωσε: «Έχουμε δει βίντεο που αφορά sextortion, σεξουαλικό εκβιασμό και εκβιασμό. Παίρνουν το κεφάλι, το βάζουν σε ένα γυμνό σώμα και φαίνεται ότι αυτό είναι γυμνό. Έχουμε δει για παίγνια, για παράνομο στοιχηματισμό για παράδειγμα». Επίσης πρόσθεσε: «Χρειάζεται καταρχήν αρκετό υλικό φωνής και πλάνων από το πρόσωπο αλλά χρειάζεται και αρκετές ώρες. Δεν είναι κατι που μπορεί να φτιαχτεί μέσα σε μισή ώρα».
Μόνο το 2023 τη Δίωξη Ηλεκτρονικού Εγκλήματος απασχόλησαν 15 υποθέσεις παραπλανητικών βίντεο χωρίς κάποια σύλληψη την ώρα που το 2022 δεν υπήρξε ούτε μία.