Τον περασμένο Αύγουστο η Apple ανακοίνωσε ότι ως το τέλος του χρόνου θα θέσει σε λειτουργία μια νέα τεχνολογία, με την ονομασία NeuralHash η οποία θα σκανάρει ενεργά τις βιβλιοθήκες των χρηστών του iCloud Photos, του αποθηκευτικού υπολογιστικού νέφους της εταιρείας, για hashtags (τα γνωστά #…) σε φωτογραφίες που έχουν ταυτοποιηθεί ή παραπέμπουν σε εικόνες παιδικής πορνογραφίας. Μάλιστα, το σκανάρισμα θα είναι υποχρεωτικό και οι χρήστες δεν θα μπορούν να το απενεργοποιήσουν μέσω των συσκευών τους.

Αν και ο στόχος της εταιρείας είναι -προφανώς- ευγενής (η καταπολέμηση της παιδικής πορνογραφίας είναι ένα τεράστιο ζήτημα), ερευνητές και ομάδες για τα δικαιώματα στο διαδίκτυο αντέδρασαν αρνητικά στην μονομερή ανακοίνωση της Apple, υποστηρίζοντας ότι η νέα αυτή τεχνολογία ανοίγει ακόμα μια κερκόπορτα για έλεγχο του περιεχομένου των συσκευών από κυβερνήσεις ή μυστικές υπηρεσίες. Μάλιστα, ήδη έχει αρχίσει η συλλογή υπογραφών αλλά και οι αιτήσεις από πολύ σοβαρούς φορείς, που καλούν την Apple να μην προχωρήσει στην εφαρμογή της συγκεκριμένης τεχνολογίας.

Αναλυτές του χώρου της τεχνολογίας αναφέρουν ότι η κίνηση της Apple προκαλεί δικαιολογημένες αντιδράσεις γιατί:

  • είναι μονομερής και «οριζόντια»
  • γίνεται χωρίς συζήτηση με την κοινωνία
  • δεν γίνεται λόγος για ζητήματα ασφαλείας.

Μάλιστα, ήδη έχει διαπιστωθεί ότι το NeuralHash δεν είναι τόσο ασφαλές, όσο η Apple ισχυριζόταν, με την εταιρεία να ανακοινώνει ότι θα υπάρξει καθυστέρηση στην εφαρμογή του, ώστε να υπάρξει input και από άλλες πλευρές. Δεδομένου, δε, ότι η Apple επιδιώκει ενεργά να «πουλήσει» την εικόνα μιας εταιρείας που σέβεται και προστατεύει τα δικαιώματα και τα προσωπικά δεδομένα των χρηστών της, η απόφαση για το NeuralHash φαίνεται ότι πλήττει την εικόνα της εταιρείας περισσότερο απ’ όσο η ίδια θα επιθυμούσε.

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο

Source