Bisakah Teknologi Ini Menghentikan Perundungan?

Bisakah Teknologi Ini Menghentikan Perundungan? – Perundungan dapat membuat kehidupan seseorang berubah kelam dan meninggalkan luka abadi, tetapi kecerdasan buatan hadir untuk mencoba membasminya.

Putus cinta dari cinta pertama bukanlah hal yang mudah. Bagi Nikki Mattocks yang saat ini berusia 18 tahun, putus cinta menjadi pengalaman yang traumatis. Bukannya berakhir tenang, putusnya ia dari sang kekasih justru membuat teman teman sang mantan kekasih menyerangnya dimedia sosial dengan berbagai pesan kebencian. Salah satunya bahkan memintanya bunuh diri.

Saya jadi sering menutup diri. Pesan pesan itu membuat saya depresi dan membuat saya overdosis obat. Ia hanya satu diantara jutaan orang di seluruh dunia yang menjadi korban perundungan. Bahkan ditengah masyarakat modern dan progresif seperti saat ini, perundungan seringkali tidak ditanggapi serius dan biasanya hanya dianggap sebagai bagian dari puber. Faktanya perundungan menimpa sekitar seperlima hingga sepertiga anak disekolah saja. Angka yang sama juga menimpa orang dewasa ditempat kerja.

Penelitian juga menunjukkan bahwa perundungan dapat meninggalkan ‘luka abadi’ dalam kehidupan seseorang, menyebabkan kerusakan jangka panjang pada kesehatan, kesejahteraan, dan hubungan-hubungan korban di masa depan. Sementara itu, meningkatnya rentang waktu yang kita habiskan di dunia maya justru semakin membuka kesempatan atas berbagai bentuk perundungan, yang meski tidak bertatap muka, memiliki efek yang sama menghancurkannya. Anak-anak muda yang menjadi korban perundungan di dunia siber (cyber bullying) mengalami depresi lebih berat dibandingkan mereka yang tidak menjadi korban, dan setidaknya dua kali lebih memungkinkan menyakiti diri sendiri dan melakukan bunuh diri.

Beruntung bagi Mattocks, masa-masa putus cinta dan perundungan siber itu ia alami sesaat sebelum ia memasuki bangku kuliah. Di lingkungan barunya itu, ia menjalin pertemanan dengan orang-orang yang bersedia membantunya.

“Hal ini (perundungan siber) mengubah cara pandang saya,” ungkapnya. “Hal ini membuat saya menjadi pribadi yang lebih baik dan kuat.” Mattocks sekarang bekerja sebagai aktivis kesehatan jiwa, membantu mereka yang menghadapi perundungan. Ia percaya banyak yang harus dilakukan untuk menghentikan perundungan di dunia maya.

Meskipun akses terhadap teknologi meningkatkan potensi seseorang dirundung — 59% remaja AS mengaku pernah dirundung di dunia maya — di saat yang sama, hal itu juga bisa membantu menghentikannya. Komputer yang dilengkapi kecerdasan buatan alias AI (Artificial Inteligence) kini dioperasikan untuk menemukan dan menangani kasus-kasus perundungan.

“Hampir tidak mungkin seseorang memeriksa satu per satu unggahan secara manual untuk menentukan jika ditemukan masalah,” papar Gilles Jacobs, peneliti bahasa di Universitas Ghent di Belgia. “AI adalah kunci untuk mendeteksi dan menangani secara otomatis aksi perundungan dan pesan-pesan yang memancing permusuhan.”

Timnya menguji coba sebuah mesin pembaca algoritma untuk menemukan kata-kata dan ungkapan-ungkapan yang berhubungan dengan tindak perundungan di media sosial AskFM, yang memperbolehkan penggunanya untuk bertanya dan menjawab pertanyaan. Mesin tersebut berhasil mendeteksi dan memblokir hampir dua pertiga ungkapan ejekan dalam hampir 114.000 unggahan berbahasa Inggris dan jauh lebih akurat dibandingkan pencarian menggunakan kata kunci sederhana. Namun tetap saja, mesin itu masih kesulitan membaca ucapan-ucapan bernada sarkastik.

Tulisan-tulisan bernada hinaan sulit dideteksi, karena orang-orang menggunakan bahasa yang kasar untuk berbagai alasan, dan beberapa pernyataan paling kejam justru tidak menggunakan kata-kata kasar. Peneliti di Universitas McGill di Montreal, Kanada, menguji coba sejumlah algoritma untuk mendeteksi ujaran kebencian dengan mengajarkan algoritma-algoritma tersebut bagaimana sejumlah komunitas di situs Reddit mengejek perempuan, warga kulit hitam, dan mereka yang kelebihan berat badan dengan menggunakan kata-kata tertentu.

“Temuan saya menunjukkan bahwa kami perlu penyaring ujaran kebencian individual untuk target ujaran kebencian yang berbeda,” tutur Haji Saleem, salah satu peneliti. Yang mengesankan, alat itu lebih lebih akurat dibandingkan alat lain yang dilatih hanya untuk mencari kata kunci dan juga mampu memilah ungkapan serangan halus, seperti kata “binatang” yang dapat bermakna merendahkan seseorang.

Latihan pendeteksian perundungan online itu bukan sekadar sesuatu yang bersifat akademik. Ambil contoh, raksasa media sosial Instagram. Dalam survei pada tahun 2017, 42% pengguna dari kalangan remaja pernah menerima perundungan di Instagram, tertinggi di antara media sosial lainnya yang dipelajari dalam penelitian tersebut. Dalam sejumlah kasus ekstrem, sejumlah korban berakhir bunuh diri. Dan, bukan hanya remaja yang jadi target perundungan — gitaris Queen Brian May juga jadi salah satu yang diserang di Instagram.

“Hal ini membuat saya mengingat kembali kejadian-kejadian yang menimpa anak-anak yang dirundung hingga akhirnya bunuh diri gara-gara unggahan di media sosial dari ‘teman-teman’ mereka, yang kemudian mengejek mereka,” ujar May. “Sekarang saya melihat sendiri seperti apa rasanya berada di lingkungan yang aman, santai, terbuka, tanpa menahan sesuatu, lalu gara-gara sebuah kata, tiba-tiba dicabik-cabik.”

Instagram kini menggunakan sistem AI pengenal gambar dan teks untuk mendeteksi foto, video, dan kalimat keterangan yang bermuatan perundungan. Meski perusahaan tersebut telah menggunakan “bullying filter” untuk menyembunyikan komentar negatif sejak tahun 2017, baru belakangan ini Instagram menggunakan mesin untuk mendeteksi serangan pada penampilan atau karakter pengguna, seperti pada foto-foto split-screen. Mesin itu juga mencari kalimat ancaman terhadap seseorang yang muncul pada foto maupun keterangannya.

Instagram mengatakan bahwa mengidentifikasi dan menghapus konten-konten tersebut secara aktif menjadi tindakan yang krusial, karena banyak korban yang tidak melaporkan sendiri insiden yang menimpa mereka. Tindakan itu juga memungkinkan untuk dilakukannya tindakan lanjutan bagi siapa saja yang berulang kali mengunggah konten bersifat menyerang. Akan tetapi, bahkan dengan tindakan-tindakan tersebut, sebenarnya, perundung paling licik akan tetap bisa menciptakan ‘laman ujaran kebencian’ bersifat anonim untuk mengolok-olok korban mereka dan mengirimkan pesan pribadi atau pesan langsung (dirrect messages) yang menyakitkan.

Sementara itu, perundungan juga terjadi di dunia nyata dalam berbagai bentuk. Terbongkarnya kasus pelecehan seksual baru-baru ini di perusahaan teknologi besar di Silicon Valley memberikan pencerahan betapa perundungan dan aksi diskriminasi dapat berdampak di lingkungan kerja. Hampir separuh perempuan pernah mengalami tindak diskriminasi saat bekerja di industri teknologi Eropa. Apakah teknologi dapat menjadi solusi juga dalam hal ini?

Salah satu solusinya adalah Spot – sebuah chatbot alias mesin percakapan buatan, yang dibuat untuk membantu para korban melaporkan kasus pelecehan di lingkungan kerja secara akurat dan aman. Mesin itu menghasilkan percakapan dengan penanda waktu yang dapat disimpan pengguna atau diserahkan kepada atasan mereka, secara anonim jika memang perlu. Tujuannya adalah untuk “mengubah ingatan menjadi sebuah bukti”, ujar Julia Shaw, psikolog di University College London dan salah satu pencipta Spot.

Rekaman dengan penanda waktu di sekitar momen terjadinya suatu insiden akan mempersulit mereka yang meragukan kejadian tersebut ketika nantinya korban diminta untuk mengingat kejadian tersebut, seperti apa yang coba dilakukan oleh penentang Christine Blasey Ford saat bersaksi melawan Brett Kavanaugh yang diduga melakukan pelecehan terhadapnya.

Alat lain bernama Botler AI melangkah lebih jauh dengan memberikan nasihat kepada para korban pelecahan seksual. Diuji coba pada lebih dari 300.000 dokumen kasus pengadilan di AS dan Kanada, alat itu menggunakan sistem pemrosesan bahasa alamiah untuk menilai apakah seorang pengguna telah menjadi korban pelecehan seksual di mata hukum, lalu dapat membuat laporan insiden terkait, yang mana dapat diberikan penggunanya kepada tim HRD atau kepolisian. Versi pertama alat itu dioperasikan selama enam bulan dan mencapai tingkat akurasi sebesar 89%.

“Salah satu pengguna kami diserang secara seksual oleh seorang politikus dan ia mengatakan bahwa alat ini memberinya rasa percaya diri yang ia butuhkan dan mendorongnya untuk mengambil tindakan,” ujar Amir Morajev, penemu Botler AI. “Ia melaporkan kejadian tersebut dan kasusnya tengah ditangani.”

Kecerdasan buatan (AI) bukan hanya bisa menghentikan perundungan, tetapi juga bisa menyelamatkan nyawa orang. Sekitar 3.000 orang di seluruh dunia bunuh diri setiap hari. Itu sama dengan kematian setiap 40 detik sekali. Namun memperkirakan apakah seseorang berisiko melakukan bunuh diri adalah hal yang sangat sulit.

Meski faktor seperti latar belakang seseorang bisa menjadi petunjuk, tak ada satu pun faktor yang cukup kuat untuk memprediksi seseorang untuk mengakhiri nyawanya. Yang membuat hal ini lebih menantang adalah karena praktisi kesehatan jiwa seringkali harus melihat bukti terlebih dahulu dan menilai risiko yang ada dari pembicaraan telepon selama lima menit. Akan tetapi, mesin cerdas bisa membantunya.

“AI bisa mengumpulkan banyak informasi dan menyusunnya dengan cepat, yang dapat membantu mencari dari banyaknya faktor risiko,” ungkap Martina Di Simplicio, dosen psikiatri klinis senior di Imperial College London, Inggris.

Ilmuwan di Vanderbilt University Medical Center dan Florida State University menguji coba mesin pembaca algoritma untuk memeriksa rekaman kesehatan para pasien yang memiliki kecenderungan untuk menyakiti diri sendiri. Algoritma-algoritma tersebut mampu memprediksi apakah seorang pasien berniat untuk mengakhiri hidup mereka pada pekan setelah mereka menyakiti diri dengan tingkat akurasi 92%.

“Kami dapat mengembangkan algoritma yang hanya mengandalkan data yang telah dikumpulkan secara rutin selama perawatan untuk memprediksi risiko adanya pikiran maupun perilaku menjurus bunuh diri,” kata Colin Walsh, asisten profesor Informatika Biomedis di Vanderbilt University Medical Center di Nashville, Tennessee, yang memimpin penelitian tersebut.

Meskipun penelitian itu memberikan harapan bahwa spesialis kesehatan jiwa akan memiliki alat lain untuk membantu mereka melindungi siapa saja yang memiliki risiko itu di masa yang akan datang, masih ada hal lain yang harus dilakukan.

“Algoritma yang dikembangkan dalam penelitian ini dapat dengan akurat menjawab pertanyaan siapa yang akan mencoba bunuh diri, tapi bukan kapan seseorang akan mati,” ujar para peneliti. “Meskipun informasi akurat mengenai siapa yang berisiko mencoba bunuh diri adalah hal yang sangat penting untuk mengambil keputusan klinis tentang risiko tersebut, hal itu tidak memadai untuk menentukan risiko yang paling mungkin terjadi.”

Penelitian lain oleh para ilmuwan di Carnegie Mellon University di Pittsburgh, Pennsylvania, mampu mengenali orang-orang yang memiliki pikiran untuk bunuh diri dengan tingkat akurasi hingga 91%. Mereka menanyakan 34 peserta untuk berpikir tentang 30 konsep tertentu berkaitan dengan aspek positif dan negatif dari kehidupan dan kematian, sementara otak mereka dipindai menggunakan mesin fMRI. Para peneliti lantas menggunakan mesin pembaca algoritma untuk menemukan “penanda syaraf” pada konsep-konsep tersebut.

Para peneliti menemukan perbedaan pada cara orang sehat dan orang dengan kecenderungan bunuh diri memikirkan berbagai konsep, termasuk konsep “kematian” dan konsep “keceriaan”. Komputer berhasil memisahkan — dengan 94% tingkat akurasi — antara sembilan orang dengan pikiran bunuh diri yang memang pernah mencoba bunuh diri dengan delapan orang yang belum pernah mencobanya, dengan melihat perbedaan-perbedaan yang ada.

“Orang dengan pola pikir bunuh diri memiliki aktivasi emosi rasa malu, namun tidak demikian dengan mereka yang sehat,” ujar Marcel Just, direktur Center for Cognitive Brain Imaging di Carnegie Mellon University. Ia yakin bahwa suatu hari, terapis dapat menggunakan informasi tersebut untuk merancang perawatan yang dipersonalisasi bagi masing-masing pasien yang memiliki pikiran untuk bunuh diri, dengan mungkin mencoba membuat mereka mengurangi pemikiran bahwa rasa malu berkaitan dengan kematian.

Meski perawatan khusus tersebut terdengar futuristik, raksasa media sosial dan mesin pencari mencoba untuk mengidentifikasi mereka yang tengah menghadapi krisis. Contohnya, ketika seseorang mengetik sesuatu yang berhubungan dengan percobaan bunuh diri di Google, mesin pencari tersebut justru akan memunculkan layanan bantuan kesehatan jiwa seperti The Samaritans, alih-alih menampilkan apa yang mereka cari.

Tahun lalu, Facebook mulai menggunakan AI untuk mengidentifikasi unggahan pengguna yang mungkin berisiko bunuh diri. Situs media sosial lain, termasuk Instagram, juga telah mulai mengeksplorasi kemungkinan AI dapat menangani persebaran gambar-gambar bermuatan aksi menyakiti diri dan unggahan-unggahan yang berkaitan dengan bunuh diri.

Facebook menguji coba algoritma mereka untuk mengenali pola kata, baik di unggahan utama maupun di kolom komentar yang dapat membantu mengonfirmasi ada tidaknya ekspresi kecenderungan bunuh diri. Hal-hal tersebut digabungkan dengan rincian lain termasuk apakah pesan-pesan itu diunggah di waktu dini hari. Semua data tersebut kemudian dimasukkan ke dalam algoritma yang mampu menentukan apakah unggahan pengguna Facebook terkait perlu ditinjau tim Operasi Komunitas Facebook, yang nantinya dapat memberikan alarm jika mereka menilai seseorang dalam bahaya.

Dalam kasus-kasus serius, Facebook dapat menghubungi aparat setempat dan sejauh ini pernah bekerjasama dengan petugas responden pertama untuk melakukan lebih dari 1.000 pemeriksaan kondusifitas situasi.

“Kami bukan dokter, dan kami tidak mencoba untuk membuat diagnosa kesehatan mental,” jelas Dan Muriello, anggota tim teknisi yang menciptakan alat tersebut. “Kami mencoba untuk mendapatkan informasi bagi orang yang tepat secepatnya.”

Facebook bukan satu-satunya pihak yang menganalisa teks dan perilaku untuk memprediksi apakah seseorang menderita masalah kesehatan jiwa. Maria Liakata, profesor dari Universitas Warwick, Inggris, juga tengah melakukan penelitian untuk mendeteksi perubahan suasana hati dari unggahan di media sosial, pesan teks, dan data telepon genggam.

“Tujuannya yaitu untuk dapat memonitor secara pasif… dan memprediksi perubahan suasana hati dan orang-orang yang berisiko secara terpercaya,” ujarnya. Ia berharap bahwa teknologi itu mampu ditanamkan ke dalam sebuah aplikasi yang dapat membaca pesan pada telepon genggam pengguna.

Meski pendekatan tersebut dapat memicu masalah privasi, ribuan orang telah lebih dulu bersedia membagikan pemikiran terdalam mereka kepada aplikasi dengan kecerdasan buatan dengan harapan hal itu dapat membantu mereka menangani depresi, yang mana merupakan salah satu pertanda bunuh diri. Aplikasi seluler seperti Woebot and Wysa memberikan kesempatan bagi penggunanya untuk mencurahkan segala permasalahan yang mereka hadapi kepada mesin robot yang akan merespon dengan cara-cara yang telah disetujui untuk tujuan perawatan, seperti terapi perilaku kognitif.

Dengan cara yang sama, mesin juga diharapkan mampu terlibat untuk menghapuskan aksi perundungan. Namun hingga kecerdasan buatan berhasil menyempurnakan cara untuk mendeteksi taktik perundungan yang paling halus dan lihai, tanggung jawab untuk menghentikan perundungan ada di tangan kita.

Bagaimana dengan anda guys? Pasti pernah ngalamin yang namanya putus cinta kan. Ayuk tulis komentar anda dibawah ini. Biar mendapatkan cerita menarik dan lebih seru lagi dari sebelumnya..

Scroll to Top