Jakarta (ANTARA) - Microsoft memblokir sejumlah kata kunci perintah (prompt) di aplikasi kecerdasan buatan (AI) Copilot yang menghasilkan gambar dengan unsur kekerasan, seksual, dan hal-hal terlarang lainnya.

Kebijakan ini diterapkan setelah seorang karyawan Microsoft, Shane Jones menyurati Federal Trade Commission (FTC) untuk menyampaikan beberapa keluhan terkait teknologi kecerdasan buatan generatif milik Microsoft.

"Kami terus memantau, menyesuaikan dan membuat kontrol tambahan untuk lebih memperkuat filter keamanan kami dan mengurangi penyalahgunaan sistem," kata Microsoft dikutip dari Engadget pada Sabtu.

Baca juga: Tombol Copilot jadi perubahan besar keyboard Windows dalam 30 tahun

Baca juga: Microsoft tawarkan langganan AI Copilot senilai Rp311 ribu


Ketika pengguna mengetik perintah yang mengandung kata kunci "pro choice", "four twenty", atau "pro life", Copilot akan menampilkan pesan yang mengatakan bahwa perintah tersebut telah diblokir. Copilot juga akan menangguhkan akun pengguna yang melakukan pelanggaran kebijakan berulang kali.

Pengguna yang meminta untuk menghasilkan gambar anak-anak memegang senjata atau gambar lain yang mengandung unsur serupa juga mendapatkan peringatan bahwa kata kunci tersebut melanggar kebijakan Microsoft dan prinsip etik Copilot.

Sebelumnya, Shane Jones telah memperingati Microsoft mengenai gambar-gambar terlarang yang dapat dihasilkan oleh Copilot.

Saat menguji Copilot Designer sejak Desember lalu, dia menemukan bahwa aplikasi kecerdasan buatan tersebut dapat membuat gambar yang mengandung unsur terlarang.

Contohnya dia menemukan perintah dengan kata kunci "pro choice" dapat menggerakkan Copilot untuk menghasilkan gambar yang menunjukkan konten kekerasan kepada anak.

Shane telah menyurati FTC dan dewan direksi Microsoft mengenai persoalan tersebut pada pekan ini.

Baca juga: Aplikasi AI Microsoft "Copilot" kini tersedia di iOS

Baca juga: Microsoft Copilot tersedia sebagai aplikasi mirip ChatGPT di Android

 

Penerjemah: Farhan Arda Nugraha
Editor: Zita Meirina
Copyright © ANTARA 2024