Apple mempertaruhkan reputasi mereka untuk memastikan data yang dikumpulkan dari Anda tetap pribadi. Bagaimana? Dengan menggunakan sesuatu yang disebut "Privasi Differensial."
Apple menjelaskannya seperti itu:
Apple menggunakan teknologi Privasi Differensial untuk membantu menemukan pola penggunaan sejumlah besar pengguna tanpa mengorbankan privasi individu. Untuk mengaburkan identitas seseorang, Differential Privacy menambahkan gangguan matematika ke sampel kecil dari pola penggunaan individu. Semakin banyak orang berbagi pola yang sama, pola umum mulai muncul, yang dapat menginformasikan dan meningkatkan pengalaman pengguna.
Filosofi di balik Differential Privacy adalah ini: setiap pengguna yang perangkatnya, apakah itu iPhone, iPad, atau Mac, menambahkan komputasi ke kumpulan data agregat yang lebih besar (gambar besar yang terbentuk dari berbagai gambar yang lebih kecil), tidak boleh diungkapkan sebagai sumbernya, apalagi data apa yang mereka kontribusikan.
Apple bukan satu-satunya perusahaan yang melakukan ini, baik Google maupun Microsoft menggunakannya lebih awal. Namun Apple mempopulerkannya dengan membicarakannya secara detail pada intisari WWDC 2016-nya.
Jadi bagaimana ini berbeda dari data anonim lainnya, Anda bertanya? Nah, data anonim masih dapat digunakan untuk menyimpulkan informasi pribadi jika Anda cukup mengetahui tentang seseorang.
Misalnya, peretas dapat mengakses basis data anonim yang mengungkapkan penggajian perusahaan. Katakanlah mereka juga tahu bahwa Karyawan X pindah ke area lain. Peretas kemudian dapat dengan mudah query database sebelum dan setelah Karyawan X bergerak dan dengan mudah menyimpulkan penghasilannya.
Untuk melindungi informasi sensitif Karyawan X, Privasi Diferensial mengubah data dengan "noise" matematika dan teknik lain seperti jika Anda menanyakan database, Anda hanya akan menerima perkiraan berapa banyak (atau siapa pun) Karyawan X dibayar.
Oleh karena itu, privasinya terjaga karena "perbedaan" antara data yang diberikan dan kebisingan yang ditambahkan ke dalamnya, sehingga cukup jelas sehingga hampir tidak mungkin untuk mengetahui apakah data yang Anda lihat sebenarnya adalah milik individu tertentu.
Privasi Differensial adalah konsep yang relatif baru, tetapi gagasannya adalah bahwa hal itu dapat memberi perusahaan wawasan yang tajam berdasarkan data dari para penggunanya, tanpa mengetahui apa persis data itu mengatakan atau dari siapa asalnya.
Apple, misalnya, bergantung pada tiga komponen untuk mengambil alih fungsi Differential Privacy pada perangkat Mac atau iOS Anda: hashing, subsampling, dan noise injection.
Hashing mengambil string teks dan mengubahnya menjadi nilai yang lebih pendek dengan panjang tetap dan mencampur kunci-kunci ini menjadi string acak yang tidak dapat diubah dari karakter unik atau "hash". Ini mengaburkan data Anda sehingga perangkat tidak menyimpannya dalam bentuk aslinya.
Subsampling berarti bahwa alih-alih mengumpulkan setiap kata tipe orang, Apple hanya akan menggunakan sampel yang lebih kecil darinya. Sebagai contoh, katakanlah Anda memiliki percakapan teks panjang dengan seorang teman secara bebas menggunakan emoji. Alih-alih mengumpulkan seluruh percakapan itu, subsampling malah menggunakan hanya bagian-bagian yang diminati Apple, seperti emoji.
Akhirnya, perangkat Anda menyuntikkan kebisingan, menambahkan data acak ke dalam dataset asli untuk membuatnya lebih samar. Ini berarti bahwa Apple mendapatkan hasil yang disamarkan sedikit dan oleh karena itu tidak tepat.
Semua ini terjadi di perangkat Anda, jadi sudah dipersingkat, dicampur, diambil sampelnya, dan diburamkan sebelum dikirim ke cloud untuk dianalisis oleh Apple.
Ada berbagai macam kasus di mana Apple mungkin ingin mengumpulkan data untuk meningkatkan aplikasi dan layanannya. Namun sekarang, Apple hanya menggunakan Privasi Differensial dalam empat bidang tertentu.
Mari gunakan emoji sebagai contoh. Di iOS 10, Apple memperkenalkan fitur pengganti emoji baru di iMessage. Ketik kata "cinta," dan Anda dapat menggantinya dengan emoji hati. ketik kata "anjing," dan-Anda dapat menebaknya-Anda dapat menggantinya dengan emoji anjing.
Demikian pula, ada kemungkinan bagi iPhone Anda untuk memprediksi emoji apa yang Anda inginkan seperti itu, jika Anda mengetik pesan “Saya akan memandu anjing” iPhone Anda akan membantu menyarankan emoji anjing.
Jadi, Apple mengambil semua bagian kecil dari data iMessage yang dikumpulkannya, memeriksa mereka secara keseluruhan, dan dapat menyimpulkan pola dari apa yang diketik orang dan dalam konteks apa. Ini berarti iPhone Anda dapat memberikan Anda pilihan yang lebih cerdas karena manfaat dari semua percakapan teks yang dibuat orang lain dan berpikir, "ini mungkin emoji yang Anda inginkan."
Kelemahan ke Differential Privacy adalah bahwa ia tidak memberikan hasil yang akurat dalam sampel kecil. Kekuatannya terletak pada pembuatan data spesifik yang tidak jelas sehingga tidak dapat dikaitkan dengan satu pengguna. Agar bekerja dan bekerja dengan baik, banyak pengguna harus berpartisipasi.
Ini seperti melihat foto yang di-bitmap sangat dekat. Anda tidak akan bisa melihat apa itu jika Anda melihat hanya beberapa bit, tetapi ketika Anda melangkah mundur dan melihat semuanya, gambar menjadi lebih jelas dan lebih jelas, bahkan jika itu tidak super tinggi. resolusi.
Jadi, untuk meningkatkan penggantian dan prediksi emoji (antara lain), Apple perlu mengumpulkan data iPhone dan Mac dari seluruh dunia untuk memberikan gambaran yang lebih jelas tentang apa yang dilakukan orang dan dengan demikian meningkatkan aplikasi dan layanannya. Ini berubah menjadi semua data acak, berisik, crowdsourced, dan tambang untuk pola-seperti berapa banyak pengguna yang menggunakan emoji persik di tempat "pantat."
Jadi, kekuatan Differential Privacy bergantung pada Apple yang mampu memeriksa sejumlah besar data agregat, sambil memastikan bahwa tidak ada yang lebih bijak tentang siapa yang mengirim mereka data itu.
Jika Anda masih belum yakin bahwa Differential Privacy tepat untuk Anda, Anda beruntung. Anda dapat memilih keluar dari pengaturan perangkat Anda.
Pada perangkat iOS Anda, ketuk buka "Pengaturan" dan kemudian "Privasi".
Pada layar Privasi, ketuk "Diagnostik & Penggunaan".
Akhirnya, pada layar Diagnostics & Usage, tap "Don't Send".
Pada macOS, buka System Preferences dan klik "Keamanan & Privasi".
Dalam preferensi Keamanan & Privasi, klik tab "Privasi" dan kemudian pastikan "Kirim data diagnostik & penggunaan ke Apple" tidak dicentang. Perhatikan bahwa Anda perlu mengklik ikon kunci di sudut kiri bawah dan masukkan kata sandi sistem Anda sebelum Anda dapat melakukan perubahan ini.
Tentunya, ada banyak lagi ke Differential Privacy, baik dalam teori maupun aplikasi, dari penjelasan yang disederhanakan ini. Daging dan kentang itu sangat bergantung pada beberapa matematika yang serius dan dengan demikian, itu bisa menjadi sangat berat dan rumit.
Namun, semoga ini memberi Anda gambaran tentang cara kerjanya dan Anda merasa lebih yakin tentang perusahaan yang mengumpulkan data tertentu tanpa takut diidentifikasi.