Με δηλώσεις στο Wired, η Apple τερματίζει τις αρχικές ανακοινώσεις που είχαν γίνει τον Αύγουστο του '21 για σκανάρισμα των φωτ/φιων που αποθηκεύονται στο iCloud για τον εντοπισμό γνωστού υλικού παιδικής σεξουαλικής κακοποίησης (CSAM).
After extensive consultation with experts to gather feedback on child protection initiatives we proposed last year, we are deepening our investment in the Communication Safety feature that we first made available in December 2021. We have further decided to not move forward with our previously proposed CSAM detection tool for iCloud Photos. Children can be protected without companies combing through personal data, and we will continue working with governments, child advocates, and other companies to help protect young people, preserve their right to privacy, and make the internet a safer place for children and for us all.
Τελικά είχε τη τύχη του AirPower.
Ας είναι καλά όλος αυτός ο κόσμος -της λογικής- που φώναζε τόσο καιρό.
Μετά, ας έχει τη τύχη του AirPower.
Τελευταία επεξεργασία από: nikosgnr, 08/12/2022 - 13:53