... kami telah lalai dalam memperkirakan serangan spesifik ini."
Los Angeles (ANTARA News) - Perusahaan Microsoft memohon maaf kepada publik atas sejumlah pesan Twitter bersifat rasis dan seksis beredar melalui penjawab otomatis Bot bernama Tay yang diluncurkan pekan ini.

Bot, atau penjawab otomatis itu disebut dengan nama Tay, dirancang Microsoft menjadi lebih pintar saat lebih banyak pengguna melakukan interaksi dengannya.

Alih-alih program itu secara cepat justru mempelajari banyaknya caci makian dan pernyataan anti-kelompok tertentu yang didapatkan dari para pengguna Twitter dari akun manusia asli.

Akibatnya, Microsoft terpaksa menonaktifkan Bot bernama Tay itu pada Kamis (24/3) karena mendapat keluhan hingga kecaman dari sejumlah pengguna Twitter yang mendapatkan pesan rasis dan seksis, demikian laporan Reuters.

Menyusul adanya hambatan itu, Microsoft mengumukan dalam postingan blog bahwa mereka akan mengaktifkan kembali Tay hanya jika para pengembangnya mampu menemukan cara untuk mencegah pengguna Internet mempengaruhinya dengan cara yang tidak sejalan dengan prinsip dan nilai etika perusahaan.

"Kami memohon maaf yang sebesar-besarnya atas serangan dan komentar menyakitkan yang tidak diinginkan itu dari Tay, yang tidak mencerminkan siapa kami sebenarnya atau apa yang kami junjung, ataupun tentang bagaimana kami merancang Tay," tulis Peter Lee, wakil pemimpin penelitian Microsoft.

Microsoft menciptakan Tay sebagai percobaan untuk mempelajari lebih banyak tentang sebuah program kecerdasan buatan (artificial intelligence/AI) dapat berhubungan dengan pengguna Internet dalam percakapan biasa. Proyek tersebut dirancang untuk berinteraksi dan belajar dari dan untuk generasi muda.

Tay memulai saat aktifnya di Twitter pada Rabu (23/3) dengan sejumlah tulisan yang tidak berbahaya. Kemudian, kirimannya berubah kelam.

Dalam satu contoh yang umum, Tay menuliskan bahwa Feminisme adalah penyakit kanker, dalam menanggapi pengguna Twitter lainnya yang menuliskan pesan yang sama.

Lee, dalam tulisan di blognya, menyebut usaha sejumlah pengguna Internet untuk memberikan sebuah pengaruh buruk kepada program penjawab otomatis itu sebagai sebuah serangan yang direncanakan oleh sebagian orang.

"Meskipun kami telah menyiapkan diri dari banyaknya cara penyalahgunaan sisten, kami telah lalai dalam memperkirakan serangan spesifik ini," tulis Lee.

Ia menimpali, "Sebagai hasilnya, Tay mengeluarkan pernyataan dan gambar yang tidak pantas untuk dipublikasikan."

Microsoft mendapatkan kesuksesan yang lebih baik dari program penjawab otomatis yang disebut dengan XiaoIce, yang diluncurkan oleh perusahaan itu di China pada 2014.

XiaoIce, menurut Microsoft, digunakan oleh sekitar 40 juta orang dan dikenal karena nyaman dengan cerita dan percakapannya.

Sedangkan, untuk Tay dinilai tidak seberapa bagus.

"Kami akan tetap tegas dalam usaha kami untuk belajar dari kejadian ini, dan pengalaman lainnya saat kami bekerja demi berkontribusi terhadap Internet yang menunjukkan hal terbaik, bukan hal terburuk dari kemanusiaan," demikian Lee.
(Uu.Ian/KR-MBR)

Editor: Priyambodo RH
Copyright © ANTARA 2016