Model pembelajaran mesin mendeteksi kesalahan informasi, murah, dan transparan — ScienceDaily
Most Popular

Model pembelajaran mesin mendeteksi kesalahan informasi, murah, dan transparan — ScienceDaily

Seorang profesor matematika Universitas Amerika dan timnya menciptakan model statistik yang dapat digunakan untuk mendeteksi informasi yang salah di postingan sosial. Model tersebut juga menghindari masalah kotak hitam yang terjadi pada machine learning.

Dengan penggunaan algoritma dan model komputer, pembelajaran mesin semakin berperan dalam membantu menghentikan penyebaran informasi yang salah, tetapi tantangan utama bagi para ilmuwan adalah kotak hitam ketidaktahuan, di mana para peneliti tidak memahami bagaimana mesin sampai pada keputusan yang sama seperti pelatih manusia.

Menggunakan kumpulan data Twitter dengan tweet informasi yang salah tentang COVID-19, Zois Boukouvalas, asisten profesor di Departemen Matematika dan Statistik AU, Sekolah Tinggi Seni dan Sains, menunjukkan bagaimana model statistik dapat mendeteksi informasi yang salah di media sosial selama peristiwa seperti pandemi atau bencana alam . Dalam penelitian yang baru diterbitkan, Boukouvalas dan rekan-rekannya, termasuk mahasiswa AU Caitlin Moroney dan Ilmu Komputer Prof. Nathalie Japkowicz, juga menunjukkan bagaimana keputusan model selaras dengan keputusan yang dibuat oleh manusia.

“Kami ingin tahu apa yang dipikirkan mesin ketika membuat keputusan, dan bagaimana serta mengapa mesin itu cocok dengan manusia yang melatihnya,” kata Boukouvalas. “Kami tidak ingin memblokir akun media sosial seseorang karena model membuat keputusan yang bias.”

Metode Boukouvalas adalah jenis pembelajaran mesin menggunakan statistik. Ini bukan bidang studi yang sepopuler pembelajaran mendalam, jenis pembelajaran mesin yang kompleks dan berlapis-lapis, dan kecerdasan buatan. Model statistik efektif dan menyediakan cara lain, yang agak belum dimanfaatkan, untuk melawan informasi yang salah, kata Boukouvalas.

Untuk satu set pengujian 112 tweet yang nyata dan salah informasi, model mencapai kinerja prediksi yang tinggi dan mengklasifikasikannya dengan benar, dengan akurasi hampir 90 persen. (Menggunakan kumpulan data yang ringkas seperti itu adalah cara yang efisien untuk memverifikasi bagaimana metode tersebut mendeteksi tweet yang salah informasi.)

“Yang penting dari temuan ini adalah bahwa model kami mencapai akurasi sambil menawarkan transparansi tentang bagaimana mendeteksi tweet yang merupakan informasi yang salah,” tambah Boukouvalas. “Metode pembelajaran mendalam tidak dapat mencapai akurasi seperti ini dengan transparansi.”

Sebelum menguji model pada dataset, peneliti terlebih dahulu mempersiapkan diri untuk melatih model. Model hanya sebaik informasi yang diberikan manusia. Bias manusia diperkenalkan (salah satu alasan di balik bias dalam teknologi pengenalan wajah) dan kotak hitam dibuat.

Para peneliti dengan hati-hati memberi label tweet sebagai informasi yang salah atau nyata, dan mereka menggunakan seperangkat aturan yang telah ditentukan sebelumnya tentang bahasa yang digunakan dalam informasi yang salah untuk memandu pilihan mereka. Mereka juga mempertimbangkan nuansa dalam bahasa manusia dan fitur linguistik yang terkait dengan informasi yang salah, seperti postingan yang lebih banyak menggunakan kata benda, tanda baca, dan karakter khusus. Seorang sosio-linguis, Prof. Christine Mallinson dari University of Maryland Baltimore County, mengidentifikasi tweet untuk gaya penulisan yang terkait dengan informasi yang salah, bias, dan sumber yang kurang dapat diandalkan di media berita. Maka sudah waktunya untuk melatih modelnya.

“Begitu kami menambahkan masukan tersebut ke dalam model, ia mencoba memahami faktor-faktor mendasar yang mengarah pada pemisahan informasi yang baik dan buruk,” kata Japkowicz. “Ini mempelajari konteks dan bagaimana kata-kata berinteraksi.”

Misalnya, dua tweet dalam kumpulan data berisi “sup kelelawar” dan “covid” secara bersamaan. Tweet diberi label informasi yang salah oleh para peneliti, dan model mengidentifikasinya seperti itu. Model tersebut mengidentifikasi tweet tersebut memiliki ujaran kebencian, bahasa hiperbolik, dan bahasa yang sangat emosional, yang semuanya terkait dengan informasi yang salah. Hal ini menunjukkan bahwa model membedakan di masing-masing tweet ini keputusan manusia di balik pelabelan, dan mematuhi aturan para peneliti.

Langkah selanjutnya adalah memperbaiki antarmuka pengguna untuk model tersebut, serta menyempurnakan modelnya agar dapat mendeteksi misinformasi postingan sosial yang menyertakan gambar atau multimedia lainnya. Model statistik harus mempelajari bagaimana berbagai elemen dalam posting sosial berinteraksi untuk menciptakan informasi yang salah. Dalam bentuknya saat ini, model tersebut paling baik digunakan oleh ilmuwan sosial atau orang lain yang sedang meneliti cara untuk mendeteksi informasi yang salah.

Terlepas dari kemajuan dalam pembelajaran mesin untuk membantu memerangi informasi yang salah, Boukouvalas dan Japkowicz sepakat bahwa kecerdasan manusia dan literasi berita tetap menjadi garis pertahanan pertama dalam menghentikan penyebaran informasi yang salah.

“Melalui pekerjaan kami, kami merancang alat berdasarkan pembelajaran mesin untuk memperingatkan dan mendidik masyarakat untuk menghilangkan informasi yang salah, tetapi kami sangat percaya bahwa manusia perlu berperan aktif untuk tidak menyebarkan informasi yang salah sejak awal,” kata Boukouvalas.

Sumber Cerita:

Materi disediakan oleh Universitas Amerika. Asli ditulis oleh Rebecca Basu. Catatan: Konten dapat diedit untuk gaya dan panjangnya.

Posted By : togel hongkonģ