Google Tolak Pulihkan Akun Pengguna yang Mengambil Foto Selangkangan Anaknya untuk Kebutuhan Medis

By Nad

nusakini.com - Internasional - Google telah menolak untuk memulihkan akun seorang pria setelah salah menandai gambar medis yang dia ambil dari selangkangan putranya sebagai materi pelecehan seksual anak (CSAM), New York Times pertama kali melaporkan. Para ahli mengatakan itu adalah jebakan yang tak terhindarkan dalam mencoba menerapkan solusi teknologi untuk masalah sosial.

Para ahli telah lama memperingatkan tentang keterbatasan sistem deteksi gambar pelecehan seksual anak otomatis, terutama karena perusahaan menghadapi tekanan peraturan dan publik untuk membantu mengatasi keberadaan materi pelecehan seksual.

“Perusahaan-perusahaan ini memiliki akses ke sejumlah besar data tentang kehidupan orang-orang. Dan tetap saja mereka tidak memiliki konteks tentang kehidupan orang yang sebenarnya,” kata Daniel Kahn Gillmor, staf teknolog senior di ACLU. "Ada banyak hal di mana fakta hidup Anda tidak dapat dibaca oleh raksasa informasi ini." Dia menambahkan bahwa penggunaan sistem ini oleh perusahaan teknologi yang "bertindak sebagai proxy" untuk penegakan hukum menempatkan orang pada risiko "disapu" oleh "kekuatan negara."

Pria itu, yang hanya diidentifikasi sebagai Mark oleh New York Times, mengambil gambar selangkangan putranya untuk dikirim ke dokter setelah menyadari bahwa bagian tubuh itu meradang. Dokter menggunakan gambar itu untuk mendiagnosis putra Mark dan meresepkan antibiotik. Saat foto diunggah secara otomatis ke cloud, sistem Google mengidentifikasinya sebagai CSAM. Dua hari kemudian, Gmail Mark dan akun Google lainnya, termasuk Google Fi, yang menyediakan layanan teleponnya, dinonaktifkan karena "konten berbahaya" yang merupakan "pelanggaran berat terhadap kebijakan perusahaan dan mungkin ilegal", Times melaporkan, mengutip pesan di ponselnya. Dia kemudian mengetahui bahwa Google telah menandai video lain yang dia miliki di teleponnya dan bahwa departemen kepolisian San Francisco membuka penyelidikan terhadapnya.

Mark dibebaskan dari segala kesalahan kriminal, tetapi Google telah mengatakan akan tetap pada keputusannya.

"Kami mengikuti hukum AS dalam mendefinisikan apa yang dimaksud dengan CSAM dan menggunakan kombinasi teknologi pencocokan hash dan kecerdasan buatan untuk mengidentifikasi dan menghapusnya dari platform kami," kata Christa Muldoon, juru bicara Google.

Muldoon menambahkan bahwa staf Google yang meninjau CSAM telah dilatih oleh para ahli medis untuk mencari ruam atau masalah lainnya. Mereka sendiri, bagaimanapun, bukan ahli medis dan ahli medis tidak diajak berkonsultasi saat meninjau setiap kasus, katanya.

Itu hanya salah satu cara sistem ini dapat menyebabkan kerusakan, menurut Gillmor. Untuk mengatasi, misalnya, batasan apa pun yang mungkin dimiliki algoritme dalam membedakan antara gambar pelecehan seksual yang berbahaya dan gambar medis, perusahaan sering kali melibatkan manusia. Tetapi orang-orang itu sendiri secara inheren terbatas dalam keahlian mereka, dan mendapatkan konteks yang tepat untuk setiap kasus memerlukan akses lebih lanjut ke data pengguna. Gillmor mengatakan itu adalah proses yang jauh lebih mengganggu yang masih bisa menjadi metode yang tidak efektif untuk mendeteksi CSAM.

"Sistem ini dapat menyebabkan masalah nyata bagi orang-orang," katanya. “Dan bukan hanya karena saya tidak berpikir bahwa sistem ini dapat menangkap setiap kasus pelecehan anak, tetapi mereka memiliki konsekuensi yang sangat buruk dalam hal positif palsu bagi orang-orang. Kehidupan orang-orang dapat benar-benar dijungkirbalikkan oleh mesin dan manusia dalam lingkaran hanya membuat keputusan yang buruk karena mereka tidak memiliki alasan untuk mencoba memperbaikinya.”

Gillmor berpendapat bahwa teknologi bukanlah solusi untuk masalah ini. Bahkan, hal itu dapat menimbulkan banyak masalah baru, katanya, termasuk menciptakan sistem pengawasan yang kuat yang dapat secara tidak proporsional merugikan mereka yang berada di pinggiran.

“Ada mimpi tentang semacam solusi tekno, [di mana orang berkata], 'Oh, well, Anda tahu, ada aplikasi untuk saya menemukan makan siang yang murah, mengapa tidak ada aplikasi untuk menemukan solusi untuk masalah ini? masalah sosial yang pelik, seperti pelecehan seksual terhadap anak?'” katanya. “Yah, kamu tahu, mereka mungkin tidak dapat diselesaikan dengan jenis teknologi atau keahlian yang sama.” (theguardian/dd)