ΚΛΕΙΣΙΜΟ
Αυτές τις κεφαλές του νέου πυραύλου της Ρωσίας που έπεσε στην Ουκρανία δεν τις προλαβαίνει ούτε το μάτι...
prodeals

Μάστιγα: Παιδόφιλοι χρησιμοποιούν την τεχνητή νοημοσύνη για να μετατρέψουν διάσημους καλλιτέχνες σε παιδιά

Οι πλαστές αυτές εικόνες που μάλιστα είχαν στηθεί κατά τρόπο τέτοιο που να φαίνονται ιδιαιτέρως σεξουαλικές

Μάστιγα: Παιδόφιλοι χρησιμοποιούν την τεχνητή νοημοσύνη για να μετατρέψουν διάσημους καλλιτέχνες σε παιδιά

Εικόνες γνωστών ηθοποιών και τραγουδιστών που με τη βοήθεια της τεχνητής νοημοσύνης (ΑΙ) είχαν μετατραπεί σε παιδιά εντόπισε το Ίδρυμα Internet Watch Foundation (IWF).

Οι πλαστές αυτές εικόνες που μάλιστα είχαν στηθεί κατά τρόπο τέτοιο που να φαίνονται ιδιαιτέρως σεξουαλικές, κυκλοφορούν σε φόρουμ του σκοτεινού Διαδικτύου, την ώρα που έτσι κι αλλιώς, αυτό κατακλύζεται από εικόνες πραγματικών θυμάτων παιδικής σεξουαλικής κακοποίησης.

Λεπτομέρειες της υπόθεσης φέρνει στο φως η τελευταία έκθεση του IWF σε μία προσπάθεια να ευαισθητοποιήσει το κοινό για τους κινδύνους των παιδεραστών που χρησιμοποιούν συστήματα AI με αυτόν τον καταχρηστικό τρόπο δημιουργώντας παράνομο περιεχόμενο.

Δείτε αναλυτικά ολόκληρη την έκθεση του IWF

Σύμφωνα με το BBC, τον περασμένο Μάιο, η υπουργός Εσωτερικών Suella Braverman και ο υπουργός Εσωτερικής Ασφάλειας των ΗΠΑ Alejandro Mayorkas εξέδωσαν κοινή δήλωση δεσμευόμενοι να αντιμετωπίσουν την «ανησυχητική αύξηση των απεχθών εικόνων που δημιουργούνται από την τεχνητή νοημοσύνη παιδιών που υφίστανται σεξουαλική εκμετάλλευση από παιδόφιλους».

Η έκθεση του IWF περιγράφει λεπτομερώς πώς οι ερευνητές κατέγραφαν επί ένα μήνα εικόνες τεχνητής νοημοσύνης σε έναν ιστότοπο κακοποίησης παιδιών στο σκοτεινό Διαδίκτυο και βρήκαν σχεδόν 3.000 πλαστές και παράνομες -σύμφωνα με τη βρετανική νομοθεσία- εικόνες. Οι αναλυτές είπαν ότι υπάρχει μια νέα τάση «αρπακτικών» να βγάζουν μεμονωμένες φωτογραφίες αληθινών θυμάτων παιδικής κακοποίησης και να αναδημιουργούν περισσότερες εικόνες σε διαφορετικά περιβάλλοντα σεξουαλικής κακοποίησης.

Ένας φάκελος που βρήκαν περιείχε 501 εικόνες ενός πραγματικού θύματος που ήταν περίπου 9-10 ετών όταν δέχθηκε σεξουαλική κακοποίηση.

Στο φάκελο, τα «αρπαχτικά» μοιράστηκαν επίσης ένα αρχείο μοντέλου τεχνητής νοημοσύνης για να επιτρέψουν σε άλλους να δημιουργήσουν περισσότερες εικόνες. Το ίδρυμα IWF λέει ότι ορισμένες από τις εικόνες, συμπεριλαμβανομένης αυτής των διασημοτήτων ως παιδιά, είναι εξαιρετικά ρεαλιστικές και θα ήταν δυσδιάκριτες σε ανεκπαίδευτα μάτια. Η έκθεση δεν προσδιορίζει ποιες διασημότητες στοχοποιήθηκαν.

Η οργάνωση είπε ότι δημοσιοποιεί την έρευνα για να τεθεί το θέμα στην ημερήσια διάταξη στη Σύνοδο Κορυφής AI της κυβέρνησης του Ηνωμένου Βασιλείου την επόμενη εβδομάδα στο Bletchley Park.

Σε ένα μήνα, το IWF ερεύνησε 11.108 εικόνες τεχνητής νοημοσύνης που είχαν κοινοποιηθεί σε ένα φόρουμ κακοποίησης παιδιών στο σκοτεινό διαδίκτυο:

Από αυτές, οι 2.978 επιβεβαιώθηκαν ως εικόνες που παραβιάζουν τη νομοθεσία του Ηνωμένου Βασιλείου – που σημαίνει ότι απεικόνιζαν σεξουαλική κακοποίηση παιδιών

Περισσότερες από μία στις πέντε από αυτές τις εικόνες (564) ταξινομήθηκαν ως κατηγορία Α, το πιο σοβαρό είδος εικόνων

Περισσότερες από τις μισές (1.372) από αυτές τις εικόνες απεικόνιζαν παιδιά δημοτικού σχολείου (επτά έως 10 ετών)
Επίσης, 143 εικόνες απεικόνιζαν παιδιά ηλικίας τριών έως έξι ετών, ενώ δύο εικόνες απεικόνιζαν μωρά (κάτω των δύο ετών)

Τον Ιούνιο, το IWF προειδοποιούσε για τους κινδύνους της χρήσης του AI για τέτοιους σκοπούς: «Οι χειρότεροι εφιάλτες μας έγιναν πραγματικότητα», δήλωσε η Σούζι Χάργκρειβς, διευθύνουσα σύμβουλος του IWF. Νωρίτερα αυτό το έτος, προειδοποιήσαμε ότι οι εικόνες τεχνητής νοημοσύνης θα μπορούσαν σύντομα να γίνουν δυσδιάκριτες από πραγματικές εικόνες παιδιών που υποφέρουν από σεξουαλική κακοποίηση και ότι θα μπορούσαμε να αρχίσουμε να βλέπουμε αυτές τις εικόνες να πολλαπλασιάζονται με πολύ πιο γρήγορους ρυθμούς. Τώρα έχουμε ξεπεράσει αυτό το σημείο».

Μια φωτογραφία χίλιες λέξεις: Ακολούθησε το pronews.gr στο Instagram για να «δεις» τον πραγματικό κόσμο!

Η έκθεση του IWF επισημαίνει ότι αν και τα παιδιά δεν βλάπτονται άμεσα κατά τη δημιουργία του περιεχομένου, οι εικόνες εξομαλύνουν τη ληστρική αυτή συμπεριφορά και σπαταλούν αστυνομικές δυνάμεις σε έρευνες παιδιών που δεν υπάρχουν.

ΤΕΛΕΥΤΑΙΕΣ ΕΙΔΗΣΕΙΣ
defencenet.ae
ΔΕΙΤΕ ΟΛΑ ΤΑ ΝΕΑ
ΣΧΟΛΙΑΣΤΕ ΤΟ ΑΡΘΡΟ

Tο pronews.gr δημοσιεύει κάθε σχόλιο το οποίο είναι σχετικό με το θέμα στο οποίο αναφέρεται το άρθρο. Ο καθένας έχει το δικαίωμα να εκφράζει ελεύθερα τις απόψεις του. Ωστόσο, αυτό δεν σημαίνει ότι υιοθετούμε τις απόψεις αυτές και διατηρούμε το δικαίωμα να μην δημοσιεύουμε συκοφαντικά ή υβριστικά σχόλια όπου τα εντοπίζουμε. Σε κάθε περίπτωση ο καθένας φέρει την ευθύνη των όσων γράφει και το pronews.gr ουδεμία νομική ή άλλα ευθύνη φέρει.

Δικαίωμα συμμετοχής στη συζήτηση έχουν μόνο όσοι έχουν επιβεβαιώσει το email τους στην υπηρεσία disqus. Εάν δεν έχετε ήδη επιβεβαιώσει το email σας, μπορείτε να ζητήσετε να σας αποσταλεί νέο email επιβεβαίωσης από το disqus.com

Όποιος χρήστης της πλατφόρμας του disqus.com ενδιαφέρεται να αναλάβει διαχείριση (moderating) των σχολίων στα άρθρα του pronews.gr σε εθελοντική βάση, μπορεί να στείλει τα στοιχεία του και στοιχεία επικοινωνίας στο [email protected] και θα εξεταστεί άμεσα η υποψηφιότητά του.