16
Τάσεις και Ενδιαφέροντα

Το iPhone εντοπίζει το ακατάλληλο περιεχόμενο

Το iPhone εντοπίζει το ακατάλληλο περιεχόμενο
Οι νέες δυνατότητες που ανακοίνωσε η Apple θα σαρώνουν αυτόματα το iPhone για εικόνες κακοποίησης παιδιών και ακατάλληλο περιεχόμενο ειδοποιώντας τον χρήστη. Στις λειτουργίες αυτές περιλαμβάνεται το Messages, το Photos, αλλά και η Siri.

Η Apple έχει αποφασίσει να ασφαλίσει το δικό της οικοσύστημα και ειδικά τα iPhones και, εδώ και αρκετό καιρό, προσθέτει λειτουργίες οι οποίες έχουν ως στόχο την προστασία των προσωπικών δεδομένων των χρηστών – κάποιες φορές προκαλώντας τη μήνη άλλων εταιρειών, όπως το Facebook. Η εταιρεία από το Cupertino, όμως, δεν φαίνεται να κάνει πίσω. Τώρα, μετά από αρκετές διαρροές που είχαν εμφανιστεί, αποφάσισε να ανακοινώσει τη δημιουργία ενός εργαλείου το οποίο σαρώνει τα iPhones για φωτογραφίες που σχετίζονται με την κακοποίηση ανηλίκων. Η αρχή γίνεται με τα νέα iOS 15, watchOS 8 και macOS Monterey, και θα αφορά λειτουργίες στο Messages, στο Photos αλλά και στη Siri.

Ξεκινώντας από το Messages, το app θα εμφανίζει ειδοποίηση, τόσο στη συσκευή του παιδιού όσο και των γονέων του, όταν στέλνει ή λαμβάνει φωτογραφίες με σεξουαλικό περιεχόμενο. Όποτε κάποιος στέλνει σε ένα παιδί κάποια απρεπή φωτογραφία, το app θα τη θολώνει και θα εμφανίζει αρκετές προειδοποιήσεις. Όπως φαίνεται από screenshots τα οποία δημοσίευσε η εταιρεία, μια από τις ειδοποιήσεις λέει (σε ελεύθερη μετάφραση): «Δεν φταις εσύ, αλλά οι ευαίσθητες φωτογραφίες ή τα βίντεο μπορούν να χρησιμοποιηθούν για να σε βλάψουν».

Επιπροσθέτως, αν κάποιο παιδί επιλέξει να αγνοήσει τις προειδοποιήσεις και να δει την εν λόγω εικόνα, οι γονείς του θα λάβουν ειδοποίηση. Παρόμοιες προειδοποιήσεις υπάρχουν και για την περίπτωση όπου κάποιο παιδί επιχειρήσει να στείλει τέτοιο υλικό.

Η εταιρεία αναφέρει πως η λειτουργία αυτή χρησιμοποιεί σύστημα machine learning, ενώ η επεξεργασία των εν λόγω εικόνων γίνεται στην ίδια τη συσκευή και δεν αποστέλλονται δεδομένα, μέσω internet, στην ίδια, ούτε η Apple έχει πρόσβαση σε αυτές τις εικόνες ή δεδομένα.

Η Apple θα βάλει παρόμοιους μηχανισμούς και στα iOS και iPadOS, οι οποίοι θα επιτρέπουν την ανίχνευση υλικού παιδικής πορνογραφίας όποτε κάποιος επιχειρεί να ανεβάσει υλικό στο iCloud. Η εταιρεία αναφέρει πως σκοπεύει να ενημερώνει το National Center for Missing and Exploited Children (NCMEC), το οποίο με τη σειρά του θα ενημερώνει τις κατάλληλες υπηρεσίες στις ΗΠΑ. Το σύστημα της Apple έχει σχεδιαστεί με γνώμονα την προστασία των δεδομένων των χρηστών και χρησιμοποιεί τις πλέον σύγχρονες τεχνολογίες κρυπτογραφίας για να “ανιχνεύει” τέτοιες εικόνες, χωρίς να παραβιάζει την ιδιωτικότητα των χρηστών. Με απλά λόγια, κανένα ανθρώπινο μάτι δεν θα έχει πρόσβαση στις φωτογραφίες οποιουδήποτε χρήστη, παρά μόνο εάν ο χρήστης αυτός ξεπεράσει ένα όριο σε υλικό παιδικής πορνογραφίας – το οποίο όριο έχει προσδιοριστεί μέσα από το σύστημα της Apple, το οποίο παρέχει εξαιρετικά υψηλό ποσοστό ακρίβειας στην ανίχνευση τέτοιων φωτογραφιών και διασφαλίζει ακρίβεια μεγαλύτερη από μία στο ένα τρισεκατομμύριο.

Τέλος, η Siri καθώς και οι λειτουργίες αναζήτησης στα iOS και macOS θα μπορούν να κατευθύνουν τους χρήστες σε πηγές που αφορούν την ασφάλεια των παιδιών – για παράδειγμα, ο χρήστης θα μπορεί να ρωτήσει τη Siri για το πώς μπορεί να αναφέρει παιδική εκμετάλλευση. Επίσης, η Siri θα μπορεί να επέμβει εάν κάποιος προσπαθεί να κάνει αναζήτηση για προβληματικό υλικό, λέγοντας πως «το ενδιαφέρον σε αυτό το θέμα είναι ζημιογόνο και προβληματικό», ενώ θα δίνει στον χρήστη πηγές για την παροχή βοήθειας (ψυχολογικής, υποθέτουμε) για αυτό.

Και μια που το άρθρο αναφέρεται σε Apple και iPhone, έχε υπόψη σου ότι μπορείς να εκδηλώσεις ενδιαφέρον και τα νέα iPhone 13 συμπληρώνοντας τη φόρμα που θα βρεις στο ηλεκτρονικό κατάστημα ΓΕΡΜΑΝΟΣ και COSMOTE και φυσικά να βρεις όλες τις σειρές των παλαιότερων γενιών του δημοφιλούς κινητού.