Masalah dalam kepercayaan algoritme dan etika kecerdasan buatan memotivasi adanya gerakan sejumlah lembaga dan bisnis di seluruh dunia. Adanya kekhawatiran tentang ancaman deepfake ke wacana sosial dan kepercayaan online yang terus naik, sekelompok pemangku kepentingan termasuk Facebook. Kemitraan tentang AI, Microsoft, dan akademisi dari AS dan Inggris saat ini telah berpegang pada Deepfake Detection Challenge (DFDC) dalam menghadirkan kumpulan data baru bagi para peneliti dan pengembang teknologi dalam menggunakan produk teknologi baru untuk mengidentifikasi video yang diubah dengan kecerdasan buatan.
Dalam sebuah postingan blogger, CTO Facebook Mike Schroepfer menjelaskan bahwa perusahaan sedang bertugas dalam dataset video deepfake yang tersedia secara bebas untuk penggunaan komunitas, dengan aktor berbayar yang telah menyetujui penggunaan gambar mereka dalam dataset. Facebook juga akan berkontribusi lebih dari $ 10 juta untuk mendanai kolaborasi dan hadiah bagi para pemenang tantangan. Parameter dan dataset tantangan akan diuji dalam sesi kerja teknis di Konferensi Internasional tentang Visi Komputer (ICCV) yang akan datang pada bulan Oktober.
Setelah tes awal ini, peluncuran dan pelepasan DFDC akan diadakan pada Konferensi Sistem Pemrosesan Informasi Saraf (NeurIPS) pada bulan Desember. Facebook akan berpartisipasi dalam tantangan, tetapi tidak bersaing untuk mendapatkan hadiah uang. Profesor Hany Farid, Profesor di Departemen Teknik Listrik & Ilmu Komputer dan Sekolah Informasi, UC Berkeley berpendapat bahwa untuk berpindah dari era informasi ke era pengetahuan, masyarakat harus lebih teliti dalam membedakan asli dan palsu, menghargai konten yang dipercaya dari konten yang tidak dipercaya serta mendidik generasi berikutnya untuk menjadi warga digital yang lebih baik. Hal ini akan membutuhkan investasi di seluruh bidang, termasuk dalam upaya penelitian industri/ universitas/ LSM untuk mengembangkan dan mengoperasionalkan teknologi yang dapat dengan cepat dan akurat menentukan konten mana yang otentik.
DoD Mempekerjakan Ahli Etika Untuk Pusat AI
Gov melaporkan The US Department of Defense (DoD) bersama dengan Joint Artificial Intillegence Center (JAIC) memandu upaya departemen di lapangan. JAIC diluncurkan setahun yang lalu dengan staf kerangka yang telah berkembang menjadi sekitar 60 karyawan, dengan kantor pusat dan permintaan anggaran $ 268 juta. Direktur Angkatan Udara JAIC Letnan Jenderal Jack Shanaha menjelaskan bahwa posisi yang akan diisi merupakan seseorang yang tidak hanya melihat standar teknis namun juga seorang ahli etika.
Letnan Jenderal Jack menambahkan bahwa mereka akan membawa seseorang yang memiliki latar belakang etika kemudian pengacara di dalam departemen akan melihat bagaimana mereka benar-benar membawa ini ke Departemen Pertahanan. Shanahan ingin JAIC tidak hanya menjadi teknologi AI di lapangan, tetapi juga berfungsi sebagai “pusat keunggulan.” Dia juga mencatat bahwa sementara beberapa negara lain seperti Rusia dan Cina mungkin memiliki keuntungan dalam akses cepat ke data karena pembatasan yang lebih sedikit. Berdasarkan privasi dan kebebasan sipil, ini tidak serta merta berarti keuntungan di lapangan. Namun, Shanahan ingin memperkuat ikatan antara pemerintah AS, industri, dan akademisi.
India Mengeluarkan Peraturan Untuk Melindungi Adanya Bias Algoritmik
Dalam editorial untuk Observer Research Foundation (ORF), University of Illinois — Associate Urbana-Champaign, Profesor Rakesh Kumar, berpendapat bahwa dengan banyaknya penggunaan teknologi komputer untuk pengambilan keputusan di berbagai bidang masyarakat India, pemerintah perlu membuat undang-undang perlindungan terhadap bias algoritme. Kumar menjabarkan masalah historis dan contoh-contoh yang masuk akal dari bias algoritmie potensial di India dan tempat-tempat lain dan meninjau lanskap hukum terkini di India. Saat ini bahkan Eropa melarang keputusan otomatis semata-mata dalam kasus-kasus di mana mungkin ada dampak signifikan atau hukum pada individu, dan hak untuk human-in-the-loop dan hak yang tidak mengikat dalam penjelasan semua kasus lain.
Kumar menambahkan pembuat kebijakan, industri, dan masyarakat sipil harus saling bermusyawarah untuk kerangka kerja yang sesuai bagi India. Minimal harus ada keterlibatan manusia yang diperlukan dalam desain dan evaluasi model komputer. Undang-undang yang menangani diskriminasi juga dapat diperbarui untuk menerapkannya pada interaksi digital. Kumar menyarankan bahwa pemerintah India perlu bertindak untuk mengatur pembelajaran komputer dan model AI sehingga mereka tidak semakin memperdalam perpecahan sosial.
Sebagai penyedia jasa biometrik, PT ASLI RI menyediakan beberapa macam inovasi solusi biometrik software dan hardware berdasar dari sidik jari, wajah, iris, suara, telapak tangan, hingga kecocokan jejak kaki. Produk dan solusi milik PT ASLI RI telah dipakai selama beberapa tahun oleh aplikasi sipil ataupun forensik, seperti lintas perbatasan, investigasi kriminal, sistem identifikasi nasional, registrasi pemilihan umum, pemeriksaan duplikasi dan verifikasi, penerbitan paspor dan beberapa proyek berskala nasional. Untuk penawaran dan pemesanan segera hubungi kami.
Sumber : Biometricupdate.com/201909/ai-concerns-prompt-deepfake-challenge-civil-society-criticism-and-new-dod-ethicist-position