Mulai dari tuduhan yang membuat presiden Universitas Harvard mengundurkan diri pada bulan Januari, hingga pengungkapan pada bulan Februari tentang teks yang dijiplak dalam laporan tinjauan sejawat, dunia akademis telah diguncang oleh kasus-kasus plagiarisme tahun ini.
Namun, masalah yang lebih besar muncul dalam penulisan ilmiah. Penggunaan alat kecerdasan buatan (AI) generatif yang cepat – yang membuat teks sebagai respons terhadap perintah – telah menimbulkan pertanyaan tentang apakah ini merupakan plagiarisme dan dalam situasi apa hal tersebut diperbolehkan. “Ada spektrum penggunaan AI yang sangat luas, mulai dari yang sepenuhnya ditulis oleh manusia hingga yang sepenuhnya ditulis oleh AI – dan di tengah-tengahnya, ada gurun luas yang penuh dengan kebingungan,” ujar Jonathan Bailey, konsultan hak cipta dan plagiarisme yang berbasis di New Orleans, Louisiana.
Alat bantu AI generatif seperti ChatGPT, yang didasarkan pada algoritme yang dikenal sebagai model bahasa besar (LLM), dapat menghemat waktu, meningkatkan kejelasan, dan mengurangi hambatan bahasa. Banyak peneliti sekarang berpendapat bahwa alat tersebut diperbolehkan dalam beberapa keadaan dan penggunaannya harus diungkapkan sepenuhnya.
Namun, alat bantu tersebut memperumit perdebatan yang sudah ada mengenai penggunaan karya orang lain yang tidak semestinya. LLM dilatih untuk menghasilkan teks dengan mencerna sejumlah besar tulisan yang telah diterbitkan sebelumnya. Akibatnya, penggunaannya dapat menghasilkan sesuatu yang mirip dengan plagiarisme – jika seorang peneliti menyatakan bahwa hasil kerja mesin sebagai hasil kerja mereka sendiri, misalnya, atau jika mesin menghasilkan teks yang sangat mirip dengan hasil kerja seseorang tanpa menyebutkan sumbernya. Alat-alat ini juga dapat digunakan untuk menyamarkan teks yang sengaja dijiplak, dan penggunaan alat ini sulit dikenali. “Mendefinisikan apa yang sebenarnya kita maksud dengan ketidakjujuran akademis atau plagiarisme, dan di mana batas-batasnya, akan sangat, sangat sulit,” kata Pete Cotton, seorang ahli ekologi di University of Plymouth, Inggris.
Dalam survei tahun 2023 terhadap 1.600 peneliti, 68% responden mengatakan bahwa AI akan membuat plagiarisme menjadi lebih mudah dan lebih sulit dideteksi. “Semua orang khawatir tentang orang lain yang menggunakan sistem ini, dan mereka khawatir tentang diri mereka sendiri yang tidak menggunakannya saat seharusnya,” kata Debora Weber-Wulff, seorang spesialis plagiarisme di University of Applied Sciences Berlin. “Semua orang agak bingung dengan hal ini.”
Plagiarisme bertemu dengan AI
Plagiarisme, yang didefinisikan oleh US Office of Research Integrity sebagai “penggunaan ide, proses, hasil, atau kata-kata orang lain tanpa memberikan penghargaan yang sesuai”, adalah masalah yang sudah tidak asing lagi. Sebuah studi tahun 2015 memperkirakan bahwa 1,7% ilmuwan telah mengakui melakukan plagiarisme dan 30% mengenal kolega yang telah melakukannya1.
LLM dapat memperburuk keadaan. Plagiarisme yang disengaja atas teks yang ditulis oleh manusia dapat dengan mudah disamarkan jika seseorang meminta LLM untuk memparafrasekan kata-katanya terlebih dahulu. Alat ini dapat diminta untuk memparafrasekan dengan cara yang canggih, seperti dengan gaya jurnal akademis, kata Muhammad Abdul-Mageed, seorang ilmuwan komputer dan ahli bahasa di University of British Columbia di Vancouver, Kanada.
Pertanyaan utamanya adalah apakah menggunakan konten yang tidak diatribusikan yang ditulis sepenuhnya oleh mesin – dan bukan oleh manusia – dianggap sebagai plagiarisme. Belum tentu, kata banyak peneliti. Sebagai contoh, European Network for Academic Integrity, yang mencakup universitas dan individu, mendefinisikan penggunaan alat AI yang dilarang atau tidak dideklarasikan untuk menulis sebagai “pembuatan konten yang tidak sah” dan bukan sebagai plagiarisme2. “Plagiarisme, bagi saya, adalah sesuatu yang diatribusikan kepada orang lain yang dapat diidentifikasi,” kata Weber-Wulff. Meskipun ada beberapa contoh AI generatif yang menghasilkan teks yang terlihat hampir identik dengan konten yang ditulis oleh manusia, namun biasanya tidak cukup mirip untuk dianggap sebagai plagiarisme, tambahnya.
Namun, beberapa orang berpendapat bahwa alat bantu AI generatif melanggar hak cipta. Baik plagiarisme maupun pelanggaran hak cipta adalah penggunaan karya orang lain secara tidak patut, dan meskipun plagiarisme merupakan pelanggaran etika akademik, penggunaan karya berhak cipta secara tidak sah dapat dianggap sebagai pelanggaran hukum. “Sistem AI ini dibangun berdasarkan hasil kerja jutaan atau ratusan juta orang,” kata Rada Mihalcea, seorang ilmuwan komputer di Universitas Michigan di Ann Arbor.
Beberapa perusahaan media dan penulis telah memprotes apa yang mereka anggap sebagai pelanggaran hak cipta oleh AI. Pada bulan Desember 2023, The New York Times meluncurkan gugatan hak cipta terhadap raksasa teknologi Microsoft dan OpenAI, perusahaan AS di balik LLM GPT-4, yang menggerakkan chatbot ChatGPT. Gugatan tersebut mengklaim bahwa kedua perusahaan tersebut menyalin dan menggunakan jutaan artikel surat kabar tersebut untuk melatih LLM, yang sekarang bersaing dengan konten publikasi. Gugatan tersebut mencakup contoh-contoh di mana perintah menyebabkan GPT-4 mereproduksi beberapa paragraf artikel surat kabar hampir kata demi kata.
Pada bulan Februari, OpenAI mengajukan mosi ke pengadilan federal untuk membatalkan sebagian dari gugatan tersebut, dengan alasan bahwa “ChatGPT sama sekali bukan pengganti langganan” The New York Times. Juru bicara Microsoft mengatakan bahwa “alat bertenaga AI yang dikembangkan secara sah harus diizinkan untuk berkembang secara bertanggung jawab”, dan “alat tersebut juga bukan pengganti peran penting yang dimainkan oleh jurnalis”.
Jika pengadilan memutuskan bahwa melatih AI pada teks tanpa izin merupakan pelanggaran hak cipta, “hal itu akan menjadi goncangan besar bagi perusahaan AI”, kata Bailey. Tanpa rangkaian pelatihan yang ekstensif, alat seperti ChatGPT “tidak akan ada”, katanya.
Ledakan AI
Terlepas dari apakah itu disebut plagiarisme atau tidak, penggunaan AI dalam penulisan akademis telah meledak sejak ChatGPT dirilis pada November 2022.
Dalam pracetak yang diperbarui pada bulan Juli3, para peneliti memperkirakan bahwa setidaknya 10% abstrak dalam makalah biomedis dalam enam bulan pertama tahun 2024 telah menggunakan LLM untuk menulis – setara dengan 150.000 makalah per tahun. Para penulis, yang dipimpin oleh ilmuwan data Dmitry Kobak dari University of Tübingen di Jerman, menganalisis 14 juta abstrak di database akademik PubMed yang telah diterbitkan antara tahun 2010 dan Juni 2024. Mereka menunjukkan bahwa kemunculan LLM dikaitkan dengan peningkatan penggunaan kata-kata bergaya – seperti ‘menggali’, ‘menampilkan’, dan ‘menggarisbawahi’ – dan kemudian menggunakan pola kata yang tidak biasa ini untuk memperkirakan proporsi abstrak yang telah diproses menggunakan AI (lihat ‘AI dalam karya ilmiah’). “Kemunculan asisten penulis berbasis LLM telah memberikan dampak yang belum pernah terjadi sebelumnya dalam literatur ilmiah,” tulis mereka.
Kobak dan rekan-rekannya menemukan bahwa makalah dari negara-negara seperti Cina dan Korea Selatan menunjukkan tanda-tanda penggunaan LLM yang lebih banyak dibandingkan dengan makalah dari negara-negara yang menggunakan bahasa Inggris sebagai bahasa dominan. Namun, kata Kobak, penulis dari kelompok negara yang terakhir ini mungkin juga menggunakan alat bantu ini, namun dengan cara yang lebih sulit dikenali. Penggunaan LLM “pasti akan terus meningkat”, Kobak memprediksi, dan “mungkin akan semakin sulit untuk dideteksi”.
Penggunaan perangkat lunak yang tidak diungkapkan dalam penulisan akademis bukanlah hal yang baru. Sejak tahun 2015, Guillaume Cabanac, seorang ilmuwan komputer di Universitas Toulouse, Prancis, dan rekan-rekannya telah menemukan makalah omong kosong yang dibuat oleh perangkat lunak yang disebut SCIgen, dan makalah yang berisi ‘frasa yang disiksa’ yang dibuat oleh perangkat lunak otomatis yang menerjemahkan atau memparafrasekan teks. “Bahkan sebelum adanya AI generatif, orang-orang sudah memiliki alat untuk terbang di bawah radar,” kata Cabanac.
Dan beberapa penggunaan AI dalam penulisan akademis memiliki nilai. Para peneliti mengatakan bahwa AI dapat membuat teks dan konsep menjadi lebih jelas, mengurangi hambatan bahasa, dan meluangkan waktu untuk bereksperimen dan berpikir. Hend Al-Khalifa, seorang peneliti teknologi informasi di King Saud University di Riyadh, mengatakan bahwa sebelum alat AI generatif tersedia, banyak koleganya yang menggunakan bahasa Inggris sebagai bahasa kedua akan kesulitan untuk menulis makalah. “Sekarang, mereka fokus pada penelitian dan menghilangkan kerumitan menulis dengan alat-alat ini,” katanya.
Namun, masih ada kebingungan mengenai kapan penggunaan AI dianggap sebagai plagiarisme atau melanggar etika. Soheil Feizi, seorang ilmuwan komputer di University of Maryland, College Park, mengatakan bahwa menggunakan LLM untuk memparafrasekan konten dari makalah yang sudah ada jelas merupakan plagiarisme. Namun, menggunakan LLM untuk membantu mengekspresikan ide – baik dengan membuat teks berdasarkan perintah yang terperinci, atau dengan mengedit draf – seharusnya tidak dihukum jika dilakukan secara transparan. “Kita harus mengizinkan orang untuk memanfaatkan model bahasa yang besar agar dapat mengekspresikan ide mereka dengan mudah dan dengan cara yang lebih jelas,” kata Feizi.
Banyak jurnal sekarang memiliki kebijakan yang mengizinkan penggunaan LLM pada tingkat tertentu. Setelah awalnya melarang teks yang dihasilkan oleh ChatGPT, Science memperbarui kebijakannya pada November 2023 untuk mengatakan bahwa penggunaan teknologi AI dalam menulis naskah harus diungkapkan secara lengkap – termasuk sistem dan petunjuk yang digunakan. Penulis bertanggung jawab atas keakuratan dan “memastikan bahwa tidak ada plagiarisme”, katanya. Nature juga mengatakan bahwa penulis naskah penelitian harus menggunakan bagian metode untuk mendokumentasikan penggunaan LLM. (Tim berita dan fitur Nature secara editorial independen dari tim jurnalnya).
Analisis terhadap 100 penerbit akademis besar dan 100 jurnal berperingkat tinggi menemukan bahwa pada Oktober 2023, 24% penerbit dan 87% jurnal memiliki panduan tentang penggunaan AI generatif4. Hampir semua yang memberikan panduan mengatakan bahwa alat AI tidak dapat disertakan sebagai penulis, tetapi kebijakannya berbeda pada jenis penggunaan AI yang diizinkan dan tingkat pengungkapan yang diperlukan. Panduan yang lebih jelas tentang penggunaan AI dalam penulisan akademik sangat dibutuhkan, kata Weber-Wulff.
Untuk saat ini, penggunaan LLM yang merajalela untuk menulis karya ilmiah dibatasi oleh keterbatasannya, kata Abdul-Mageed. Pengguna perlu membuat petunjuk terperinci yang menggambarkan audiens, gaya bahasa, dan subbidang penelitian. “Sebenarnya sangat sulit bagi model bahasa untuk memberikan apa yang Anda inginkan,” katanya.
Namun para pengembang sedang membangun aplikasi yang akan memudahkan para peneliti untuk menghasilkan konten ilmiah khusus, kata Abdul-Mageed. Daripada harus menulis perintah yang mendetail, di masa depan pengguna dapat memilih dari menu pilihan yang tersedia dan menekan sebuah tombol untuk membuat sebuah makalah dari awal, katanya.
Pekerjaan detektif
Adopsi LLM yang cepat untuk menulis teks telah disertai dengan banyaknya alat yang bertujuan untuk mendeteksinya. Meskipun banyak yang membanggakan tingkat akurasi yang tinggi – lebih dari 90%, dalam beberapa kasus – penelitian menunjukkan bahwa sebagian besar tidak memenuhi klaim mereka. Dalam sebuah penelitian yang diterbitkan pada bulan Desember lalu5 , Weber-Wulff dan rekan-rekannya menilai 14 alat pendeteksi AI yang banyak digunakan di dunia akademis. Hanya 5 alat yang secara akurat mengidentifikasi 70% atau lebih teks sebagai teks yang ditulis oleh AI atau manusia, dan tidak ada yang mendapat skor di atas 80%.
Akurasi pendeteksi turun di bawah 50%, rata-rata, ketika menemukan teks yang dibuat oleh AI yang telah diedit oleh seseorang dengan mengganti sinonim dan menyusun ulang kalimat. Teks semacam itu “hampir tidak terdeteksi oleh alat yang ada saat ini”, tulis para penulis. Penelitian lain menunjukkan bahwa meminta AI untuk memparafrasekan teks beberapa kali secara drastis mengurangi keakuratan pendeteksi6.
Ada masalah lain dengan pendeteksi AI. Sebuah penelitian menunjukkan bahwa mereka cenderung salah mengklasifikasikan tulisan bahasa Inggris sebagai buatan AI jika tulisan tersebut ditulis oleh orang yang bahasa Inggrisnya bukan bahasa pertama7. Feizi mengatakan bahwa pendeteksi tidak dapat secara andal membedakan antara teks yang sepenuhnya ditulis oleh AI dan kasus-kasus di mana seorang penulis menggunakan layanan berbasis AI yang memoles teks dengan membantu tata bahasa dan kejelasan kalimat. “Membedakan kasus-kasus ini akan sangat sulit dan tidak dapat diandalkan – dan dapat menyebabkan tingkat positif palsu yang sangat besar,” katanya. Dituduh secara salah menggunakan AI, tambahnya, dapat “sangat merusak reputasi para pelajar atau mahasiswa”.
Batas antara penggunaan AI yang sah dan tidak sah kemungkinan akan semakin kabur. Pada bulan Maret 2023, Microsoft mulai memasukkan alat AI generatif ke dalam aplikasinya, termasuk Word, PowerPoint, dan Outlook. Beberapa versi asisten AI-nya, yang disebut Copilot, dapat membuat draf atau mengedit konten. Pada bulan Juni, Google juga mulai mengintegrasikan model AI generatifnya, Gemini, ke dalam alat seperti Docs dan Gmail.
“AI menjadi begitu tertanam dalam segala hal yang kita gunakan, saya pikir akan semakin sulit untuk mengetahui apakah sesuatu yang telah Anda lakukan telah dipengaruhi oleh AI,” kata Debby Cotton, seorang spesialis dalam pendidikan tinggi di Plymouth Marjon University, Inggris. “Saya rasa hal ini akan terus berkembang lebih cepat daripada yang bisa kita ikuti.”