Trend Bikin ‘Avatar’ Dengan AI: Ada Pelecehan dan Sensasionalisme Yang Perlu Kamu Tahu

Belakangan ini, kalau kamu cek sosial media, rasanya banyak banget yang lagi ikut tren Artificial Intelligence (AI) Avatar. Namun kamu juga harus kenali bahwa ada potensi eksploitasi dan pelecehan jika teknologi Avatar AI ini disalahgunakan.

Banyak yang bilang kalau tren bikin avatar dengan teknologi AI ini: seru!

Potret buatan AI ini, bisa menampilkan potret-potret gambar avatar yang identik dengan wajahmu. Ia bisa menampilkan berbagai gaya artistik seperti ‘anime’ sampai ‘peri.’

Aplikasi Lensa yang dimiliki oleh Sunnyvale, adalah satu di antara perusahaan di balik tren itu. Prisma Labs yang berbasis di California, AS, ini membuat aplikasi prisma yang menggunakan AI untuk menggandakan foto dalam berbagai gaya artistik. 

CEO dan Co-Founder Prisma Labs adalah Andrey Usoltsev dan Alexey Moiseenkov, yang menurut profil Linkedin keduanya sama-sama pernah bekerja di raksasa teknologi Rusia Yandex. 

Sebagaimana pesaing mereka, Facetune, Lensa hadir dengan koleksi alat (tools) pengeditan foto serta video yang canggih. Lensa bisa mengedit ruang tamu yang berantakan jadi kayak di suatu tempat yang latar belakangnya artistik. Sampai bisa juga AI itu mengedit wajah penggunanya jadi mulus dan ‘kantung mata’ jadi tidak kelihatan. 

Sisi Gelap: Diskriminasi dan Standarisasi Kecantikan Mainstream

Banyak yang bertanya, apakah memang editan potret buatan AI itu semirip itu sama pengguna aslinya?

Dilansir Washington Post, hasil yang ditampilkan oleh AI Avatar itu bisa sangat relatif. Beberapa pengguna dengan kulit gelap mengatakan bahwa mereka mengalami banyak “gangguan” dan distorsi (pengaburan) pada Avatar mereka. Dibandingkan teman-teman mereka yang berkulit terang. 

Tak hanya itu, orang-orang Asia dan orang-orang yang menggunakan jilbab juga ada yang mengalami potensi lebih tinggi atas ‘ketidakakuratan’ dalam potret AI mereka. 

Mengapa hal ini bisa terjadi? Ini tak lain karena kurangnya representasi orang berkulit gelap yang ditampilkan dalam teknik AI Avatar di sistem ‘pelatihan gambarnya’. 

“Model-model di AI Avatar ini masih cenderung menganalisis dan mereduksi gambar orang berkulit gelap dengan lebih buruk,” kata Pendiri Algorithmic Justice Organization AI for the People, Mutale Nkonde. 

Pada teknologi AI tersebut, Mutale Nkonde bilang, ada yang perlu diwaspadai pula soal potensi teknologi pengenalan wajah ini bisa disalahgunakan kaitannya dengan kasus hukum. Misalnya, menciptakan peluang diskriminasi yang menakutkan. Teknologi ini katanya, sudah berkontribusi setidaknya 3 penangkapan yang salah terhadap laki-laki kulit hitam.    

“Dari apa yang dia lihat, hasil aplikasi ini juga berdampak untuk perempuan cenderung (standarisasi kecantikan—red) ke arah ‘perempuan kulit putih yang seksi secara umum’,” katanya. 

“Itu bisa sangat merusak harga diri perempuan dan perempuan kulit hitam,” imbuhnya. 

Hal inilah yang kemudian juga memunculkan kekhawatiran tentang ketidaksetaraan dalam pencitraan AI Avatar. Meski di satu sisi, ada juga pihak yang bilang kalau AI Avatar ini juga punya sisi baik yaitu jadi ruang ekspresi bagi gender non-biner. Sebab, pengguna Lensa bisa juga memilih jenis kelamin Avatar AI-nya, termasuk opsi non-binary. Sehingga, pada beberapa orang trans dia bisa merayakan kesempatan untuk melihat “versi diri” mereka.

Bagaimana Soal Privasi di AI Avatar?

Pihak Prisma Labs mengklaim bahwa Lensa tidak membagikan data atau informasi apapun yang diambil dari fotomu dengan pihak ketiga. Meskipun, kebijakan privasi mereka memberikan ‘ruang untuk itu’. 

Perusahaan teknologi itu menambahkan, hanya menggunakan foto yang kamu berikan untuk menghasilkan Avatar. Kemudian mereka akan menghapus setiap kumpulan foto, bersama dengan model pembelajaran mesin yang dilatih dari gambarmu, setelah proses selesai. 

“Prisma Labs tidak menggunakan foto yang kamu berikan untuk melatih jaringan pengenalan wajah,” kata Usoltsev, CEO Prisma Labs kepada Washingtonpost

Namun, dirinya menolak untuk mengatakan, apakah Prisma Labs menyimpan data apapun berdasarkan fotomu. Perusahaan itu mengatakan “perusahaan menyimpan minimal”

Menyoal itu, Pakar AI memberikan keterangan kalau kumpulan gambar ‘raksasa’ yang digunakan untuk melatih AI, yang disebut LAION, itu dihapus dari internet tanpa adanya ‘kebijaksanaan’. Dengan kata lain, aturan dan kebijakannya masih minim. 

Ini bisa dilihat dari adanya kasus seorang artis yang menurut Pakar AI, menemukan foto dari catatan medis pribadinya di database. Untuk memeriksa apakah gambar atau fotomu digunakan untuk ‘melatih’ sistem AI, para pakar menyarankan untuk mengunjungi laman HaveIBeenTrained.com.

Soal keamanan data privasi, Pakar AI, juga mengingatkan adanya potensi eksploitasi dan pelecehan jika teknologi Avatar AI ini disalahgunakan. Mereka mencontohkan, pengguna aplikasi bisa mengunggah foto siapapun—tidak hanya diri sendiri tapi juga misalnya potret perempuan telanjang atau berpose sensual— parahnya lagi jika sampai objektivikasi terhadap perempuan berusia anak, maka tentu saja ini sangat membahayakan. 

Meskipun, aplikasi seperti Lensa mengatakan bahwa aplikasi tersebut hanya untuk pengguna minimal berusia 13 tahun. Tapi, artinya usia anak-anak 14-18 tahun masih bisa riskan menjadi korban eksploitasi seksual atau pelecehan. 

“Model difusi stabil dilatih pada konten internet tanpa filter. Jadi, itu mencerminkan bias yang dimasukkan manusia ke dalam gambar yang mereka hasilkan,” kata Lensa dalam FAQ-nya.

Belum adanya jaminan keamanan dan perlindungan hak kekayaan intelektual, tampaknya juga bisa menjadi ancaman. Beberapa kreator seni memang penuh semangat mengadopsi pencitraan AI ini. Namun di saat yang sama, mereka juga bisa terancam karena teknologi AI ini bisa “mengambil” karyanya. 

Perlu diingat, hasil AI itu didasarkan pada seni nyata dari seniman sungguhan, yang kemudian karyanya “diambil”, tanpa kompensasi. 

“Tidak ada yang benar-benar memahami bahwa sebuah program yang mengambil karya seni semua orang dan kemudian menghasilkan seni konsep (AI—red), sebenarnya sudah mempengaruhi pekerjaan kami,” kata Jon Lam, seorang seniman cerita di perusahaan video game Riot Games. 

Lam juga merasakan dampak dari munculnya AI ini, temannya sesama pekerja seni mesti kehilangan pekerjaan setelah bosnya menggunakan kreasi mereka untuk ‘melatih AI’. Kemudian, seniman sungguhannya malah tidak lagi diperlukan oleh perusahaan. 

Dalam banyak kasus, Lam menyayangkan, LAION atau gambar yang “dilatih AI” ini juga menggunakan gambar yang ada hak cipta di bawahnya. Ini jelas, melanggar hak cipta karya dan merugikan seniman. Perusahaan AI tanpa persetujuan bisa saja “mengambil” karya seniman, dan mengambil untung darinya. Perusahaan bisa memasang tarif untuk setiap hasil AI yang diunduh pengguna.

“Saya melihat masa depan yang sangat buruk jika kita tidak mengendalikan (aturan perlindungan—-red) hal ini sekarang. Saya tidak ingin itu terjadi, dampaknya tidak hanya untuk seniman, semua orang bisa terpengaruh,” pungkas Lam.

Nurul Nur Azizah

Bertahun-tahun jadi jurnalis ekonomi-bisnis, kini sedang belajar mengikuti panggilan jiwanya terkait isu perempuan dan minoritas. Penyuka story telling dan dengerin suara hujan-kodok-jangkrik saat overthinking malam-malam.
Republikasi artikel ini, klik tombol di bawah

Creative Commons License

1. Silakan lakukan republikasi namun tidak boleh mengedit artikel ini, cantumkan nama penulis, dan sebut bahwa artikel ini sumbernya dari konde.co, tautkan URL dari artikel asli di kata “konde.co”. Anda bebas menerbitkan ulang artikel ini baik online maupun cetak di bawah lisensi Creative Commons.

2. Artikel kami juga tidak boleh dijual secara terpisah atau menyebarkannya ke pihak lain demi mendapatkan keuntungan material.

Let's share!