Η Apple ανακοίνωσε τον Αύγουστο πως θα κυκλοφορήσει ένα νέο χαρακτηριστικό ασφαλείας για την προστασία των παιδιών.

Η CSAM τεχνολογία θα σκάναρε τις φωτογραφίες ενός χρήστη στο iCloud και θα τις αντιπαρέβαλε με μία βάση δεδομένων με εικόνες παιδικής κακοποίησης. Πολλά σημαίνοντα πρόσωπα όμως αλλά και κυβερνήσεις υποστήριξαν πως αυτό θα ανοίξει τον Ασκό του Αιόλου και πως η τεχνολογία αυτή θα μπορεί να χρησιμοποιηθεί από εταιρίες και κυβερνήσεις για τον εντοπισμό οποιουδήποτε υλικού, βάζοντας τέλος στην ιδιωτικότητα του χρήστη.

Η Apple υποστήριξε σθεναρά την άποψή της, ωστόσο οι πιέσεις του κόσμου φαίνεται πως ήταν πολλές και έτσι η Apple ανακοίνωσε πως θα καθυστερήσει την κυκλοφορία του νέου χαρακτηριστικού.

Τον προηγούμενο μήνα ανακοινώσαμε τα σχέδιά μας για χαρακτηριστικά που σκοπεύουν να βοηθήσουν στην προστασία των παιδιών από επιτήδειους που χρησιμοποιούν εργαλεία επικοινωνίας για να τα προσελκύσουν και να τα εκμεταλλευτούν και να μειώσουμε τη διάδοση του υλικού παιδικής σεξουαλικής κακοποίησης (CSAM). Βάσει του feedback των πελατών μας, ακτιβιστών, ερευνητών και άλλων, αποφασίσαμε να πάρουμε περισσότερο χρόνο στη διάρκεια των επόμενων μηνών για να συλλέξουμε απόψεις και να κάνουμε βελτιώσεις πριν δώσουμε στην κυκλοφορία αυτά τα πολύ σημαντικά για την ασφάλεια των παιδιών χαρακτηριστικά.

Μια φωτογραφία χίλιες λέξεις: Ακολούθησε το pronews.gr στο Instagram για να «δεις» τον πραγματικό κόσμο!

Όπως καταλαβαίνετε και από τη γλώσσα που χρησιμοποιεί η Apple, δε μιλάμε για ακύρωση της CSAM τεχνολογίας αλλά για μία καθυστέρηση, ενώ είναι πολύ νωρίς για να γνωρίζουμε το τι είδους αλλαγές θα κάνει στο σύστημα. Να θυμίσουμε πως αρχικά το νέο χαρακτηριστικό ήταν προγραμματισμένο να κυκλοφορήσει με το iOS 15 και το macOS Monterey, ωστόσο τώρα δεν είναι ξεκάθαρο το πότε θα κυκλοφορήσει.