Αλγόριθμος ΑΙ «γδύνει» ανυποψίαστες γυναίκες με την τεχνολογία Deepfake

POP UP TEAM
/
22 Οκτωβρίου, 2020

Τουλάχιστον 100.000 γυναίκες σε όλο τον κόσμο έχουν πέσει εν αγνοία τους θύματα μιας νέας εφαρμογής τεχνητής νοημοσύνης (ΑΙ) που παραποιεί φωτογραφίες τους και τις εμφανίζει γυμνές, διαπίστωσε αμερικανική εταιρεία κυβερνοασφάλειας, προειδοποιώντας ότι η τακτική έχει ήδη χρησιμοποιηθεί για εκβιασμούς.

Η εφαρμογή, διαθέσιμη στην υπηρεσία αποστολής μηνυμάτων Telegram, είναι ένα ακόμα ανησυχητικό παράδειγμα της τεχνολογίας Deepfake, η οποία χρησιμοποιεί τεχνικές μηχανικής μάθησης για να αλλάζει τα πρόσωπα ή τα σώματα των εικονιζόμενων σε φωτογραφίες ή βίντεο.

DeepNude 2.0

Το θέμα ήρθε στη δημοσιότητα το 2019, όταν το Vice αποκάλυψε την ύπαρξη του DeepNude, μιας εφαρμογής που έσβηνε τα ρούχα σε φωτογραφίες γυναικών και τα αντικαθιστούσε με γυμνά σώματα. Η κατακραυγή που ακολούθησε ανάγκασε τους δημιουργούς της εφαρμογής να την αποσύρουν εντός 24 ωρών και να δεσμευτούν ότι δεν θα λανσάρουν νέα έκδοση.

Τώρα, η εταιρεία κυβερνοασφάλειας Sensity AI, η οποία ειδικεύεται σε θέματα κατάχρησης παραποιημένων μέσων, προειδοποιεί ότι μια παρόμοια εφαρμογή έχει συγκεντρώσει τουλάχιστον 45.000 χρήστες στο Telegram από το λανσάρισμά της τον Ιούλιο του 2019 –περίπου ένα μήνα μετά την απόσυρση του DeepNude. Οποιοσδήποτε μπορεί να ανεβάσει μια φωτογραφία μέσω του app του Telegram για να παραλάβει δωρεάν τη γυμνή βερσιόν μέσα σε λίγα λεπτά.

«Συνήθως πρόκειται για νεαρά κορίτσια» λέει στο MIT Technology Review ο Τζόρτζιο Πατρίνι, διευθύνων σύμβουλος της Sensity. «Κάποιες φορές είναι δυστυχώς προφανές ότι πρόκειται για ανήλικα πρόσωπα» επισημαίνει.

H εταιρεία του επικοινώνησε τόσο με τη διεύθυνση του Telegram όσο και με τις αρμόδιες διωκτικές αρχές, συμπεριλαμβανομένου του FBI. Μέχρι στιγμής πάντως η εφαρμογή συνεχίζει να λειτουργεί κανονικά.

Σύμφωνα με τη Sensity, το Telegram φιλοξενεί ξεχωριστούς λογαριασμούς στους οποίους οι χρήστες ανεβάζουν τις «γυμνές» δημιουργίες τους. Αν το αποτέλεσμα αρέσει στους άλλους ακολούθους, ο δημιουργός αμείβεται με πόντους για να αποκτήσει πρόσβαση σε επιπλέον λειτουργίες.

Εκβιασμοί

Η τεχνολογία Deepfake έχει χρησιμοποιηθεί στο παρελθόν για εκφοβισμό και εκβιασμό σε βάρος γυναικών δημοσιογράφων, είχε αναφέρει το Huffington Post. Ο Πατρίνι δήλωσε ότι έχει μιλήσει με γυναίκες infuencers στο YouTube οι οποίες έπεσαν θύματα της νέας εφαρμογής όταν δήθεν γυμνές φωτογραφίες τους εστάλησαν στους σπόνσορές τους.

Οι αλγόριθμοι Deepfake έχουν ήδη θορυβήσει τις Αρχές ορισμένων χωρών όπως οι ΗΠΑ, όπου το Κογκρέσο ψήφισε νόμο που επιτρέπει στα θύματα να διεκδικούν αποζημιώσεις για δυσφήμιση. Στην πολιτεία της Βιρτζίνια, οι εικόνες Deepfake έχουν απαγορευτεί, ενώ εταιρείες όπως η Google και η Facebook αναπτύσσουν τεχνικές για τον εντοπισμό παραποιημένων εικόνων. Στη Βρετανία, αναφέρει το BBC, η κυβέρνηση ανέθεσε σε επιτροπή του Κοινοβουλίου να επανεξετάσει τη σχετική νομοθεσία και να γνωμοδοτήσει για το θέμα το 2021.

Ωστόσο οι τεχνολογίες Deepfake συνεχίζουν να εξαπλώνονται σε χώρες όπου δεν υπάρχει ακόμα σαφές νομοθετικό πλαίσιο. Σύμφωνα με την Sensity, ακόμα 380 σελίδες που ειδικεύονται στο «γδύσιμο» ανυποψίαστων γυναικών φιλοξενούνται στη ρωσική πλατφόρμα δικτύωσης VK.

Η VK διαβεβαίωσε με ανακοίνωσή της στο MIT Technology Review ότι δεν εγκρίνει την πρακτική και μπλοκάρει τους χρήστες που διακινούν τέτοιο περιεχόμενο.

Στο VK φέρεται να φιλοξενούνται επίσης διαφημίσεις του Deepfake app στο Telegram. Σύμφωνα με έρευνα της Sensity, το 70% των χρηστών του app δήλωσαν προέρχονται από τη Ρωσία και άλλες πρώην σοβιετικές χώρες.

Όσον αφορά τις προτιμήσεις τους, οι περισσότεροι χρήστες δήλωσαν ότι ανεβάζουν κυρίως φωτογραφίες κοριτσιών με τα οποία γνωρίζονται, ενώ στη δεύτερη θέση έρχονται οι διασημότητες.

 

Με πληροφορίες από in.gr

Tags :

Μοιράσου το ...

popup-logo-white

Διαπιστευμένο Μέλος στο Μητρώο Online Media του Υπουργείου Ψηφιακής Πολιτικής, Τηλεπικοινωνιών & Ενημέρωσης

© 2024 Spread Media - All Rights Reserved