Η Apple ανακοινώνει τεχνολογία παρακολούθησης για τη πρόληψη και ανίχνευση της παιδικής κακοποίησης | Το τέλος του Privacy
#61
Δημοσίευση 24/08/2021 - 15:05
Ad
#62
Δημοσίευση 24/08/2021 - 15:16
#63
Δημοσίευση 25/08/2021 - 10:22
Πολύ σωστά τα λες. Αλλά το πρόβλημα είναι ότι δημιουργείτε μια πίσω πόρτα και για άλλου είδους παρακολουθήσεις.Pedofiles, beware!
Αυτός είναι ο φόβος.
Sent from my iPhone using Tapatalk
#64
Δημοσίευση 25/08/2021 - 10:42
Η Apple εξήγησε αναλυτικά πως θα λειτουργεί το σύστημα. Το θέμα είναι αν την εμπιστεύεσαι.Πολύ σωστά τα λες. Αλλά το πρόβλημα είναι ότι δημιουργείτε μια πίσω πόρτα και για άλλου είδους παρακολουθήσεις.
Αυτός είναι ο φόβος.
Sent from my iPhone using Tapatalk
Αν πάλι δεν την εμπιστεύεσαι, μην έχεις ευαίσθητα δεδομένα στο κινητό σου. Άλλωστε, θα μπορούσε θεωρητικά να έχει ήδη backdoor και να μην το ξέρεις.
Εγώ προσωπικά επειδή παρακολουθώ το track record της σε θέματα ιδιωτικότητας εδώ και χρόνια, για την ώρα δεν ανησυχώ.
#65
Δημοσίευση 25/08/2021 - 11:58
Όλοι αυτοί βασίζονται στο ότι τους εμπιστευόμαστε.Η Apple εξήγησε αναλυτικά πως θα λειτουργεί το σύστημα. Το θέμα είναι αν την εμπιστεύεσαι.
Αν πάλι δεν την εμπιστεύεσαι, μην έχεις ευαίσθητα δεδομένα στο κινητό σου. Άλλωστε, θα μπορούσε θεωρητικά να έχει ήδη backdoor και να μην το ξέρεις.
Εγώ προσωπικά επειδή παρακολουθώ το track record της σε θέματα ιδιωτικότητας εδώ και χρόνια, για την ώρα δεν ανησυχώ.
Sent from my iPhone using Tapatalk
#66
Δημοσίευση 25/08/2021 - 11:58
Τελευταία επεξεργασία από: AvgoustisP, 25/08/2021 - 11:59
#67
Δημοσίευση 25/08/2021 - 12:13
Όλοι αυτοί βασίζονται στο ότι τους εμπιστευόμαστε.
Sent from my iPhone using Tapatalk
Αν δεν υπαρχει σχεση εμπιστοσυνης, τοτε καλο ειναι να κυκλοφορεις με burner phone. Και παλι, κρινεις βασει του παρελθοντος/ιστορικου καθε εταιριας. Αν πχ περιμενεις απο την google ή το Facebook να προστατευσει την ιδωτικοτητα σου, good luck with that.
#68
Δημοσίευση 25/08/2021 - 13:03
Earlier this month, Apple unveiled a system that would scan iPhone and iPad photos for child sexual abuse material (CSAM). The announcement sparked a civil liberties firestorm, and Apple’s own employees have been expressing alarm. The company insists reservations about the system are rooted in “misunderstandings.” We disagree.
We wrote the only peer-reviewed publication on how to build a system like Apple’s — and we concluded the technology was dangerous. We’re not concerned because we misunderstand how Apple’s system works. The problem is, we understand exactly how it works.
A foreign government could, for example, compel a service to out people sharing disfavored political speech. That’s no hypothetical: WeChat, the popular Chinese messaging app, already uses content matching to identify dissident material. India enacted rules this year that could require pre-screening content critical of government policy. Russia recently fined Google, Facebook and Twitter for not removing pro-democracy protest materials.
The company’s latest defense of its system is that there are technical safeguards against misuse, which outsiders can independently audit. But Apple has a record of obstructing security research. And its vague proposal for verifying the content-matching database would flunk an introductory security course
Jonathan Mayer - Assistant professor of computer science and public affairs at Princeton University
Anunay Kulshrestha - Graduate researcher at the Princeton University Center for Information Technology Policy - PhD candidate in the department of computer science.
#69
Δημοσίευση 03/09/2021 - 16:50
Στον "πάγο" προς το παρόν...
Update as of September 3, 2021: Previously we announced plans for features intended to help protect children from predators who use communication tools to recruit and exploit them and to help limit the spread of Child Sexual Abuse Material. Based on feedback from customers, advocacy groups, researchers, and others, we have decided to take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features.
#70
Δημοσίευση 03/09/2021 - 17:54
Sent from my iPhone using Tapatalk
#71
Δημοσίευση 03/09/2021 - 18:36
Στον "πάγο" προς το παρόν...
Update as of September 3, 2021: Previously we announced plans for features intended to help protect children from predators who use communication tools to recruit and exploit them and to help limit the spread of Child Sexual Abuse Material. Based on feedback from customers, advocacy groups, researchers, and others, we have decided to take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features.
Ας είναι καλά όλος αυτός ο κόσμος -της λογικής- που φώναζε τόσο καιρό.
Μετά, ας έχει τη τύχη του AirPower.
#72
Δημοσίευση 03/09/2021 - 19:12
Απλά θα το κάνουν χωρίς να το ανακοινώσουν.
Sent from my iPhone using Tapatalk Pro
#73
Δημοσίευση 03/09/2021 - 23:37
σε αντίθεση με μερικούς εδώ μέσα που ακούν apple και είναι διατιθεμενοι να μην πω τι και το θεωρούσαν απλά λογικόΑς είναι καλά όλος αυτός ο κόσμος -της λογικής- που φώναζε τόσο καιρό.
Μετά, ας έχει τη τύχη του AirPower.
#74
Δημοσίευση 04/09/2021 - 00:34
Η πλακα ειναι οτι καποιες google,facebook κλπ μας εχουν παρει και τα σωβρακα και καποιοι εδω μεσα πιστευουν οτι ειναι ευπρεπως ενδεδυμενοι.
#75
Δημοσίευση 04/09/2021 - 00:41
σαν να ακούω τον κουλη ,εμείς δεν κάψαμε 112 ανθρώπους απλά τα δυο τρίτα της δασικής μας έκτασης ,να το πω πιο απλά ,αν νοιαζόμασταν τι κανείς η άλλη πλατφόρμα ίσως και να είμασταν εκεί ,για να είμαστε εδώ κάτι άλλο έχουμε στο μυαλό μαςΗ πλακα ειναι οτι καποιες google,facebook κλπ μας εχουν παρει και τα σωβρακα και καποιοι εδω μεσα πιστευουν οτι ειναι ευπρεπως ενδεδυμενοι.
Ad
Χρήστες που διαβάζουν αυτό το θέμα: 0
0 μέλη, 0 επισκέπτες, 0 ανώνυμοι χρήστες