Penerapan Large Languange Models Dalam Pembaruan Artikel Biografi Wikipedia
DOI:
https://doi.org/10.62712/juktisi.v4i2.499Keywords:
Wikipedia, Biografi, Berita, Pembaruan Artikel, Large Language Models, Natural Language Processing (NLP)Abstract
Wikipedia merupakan sumber informasi daring yang sangat populer di Indonesia, namun pembaruan artikelnya masih sangat bergantung pada kontribusi penyunting. Pada kategori artikel biografi, pembaruan informasi secara berkala sangat penting karena adanya perkembangan karier dan peristiwa terkini dari tokoh yang bersangkutan. Penelitian ini bertujuan untuk mengeksplorasi penerapan Large Language Models (LLM) dalam menambahkan informasi baru ke artikel biografi Wikipedia Indonesia dengan referensi dari satu artikel berita daring. Model utama yang digunakan adalah Gemma 3 yang kemudian dibandingkan dengan model baseline Phi-3-mini. Penelitian ini juga menguji efektivitas lima strategi prompting yang berbeda, yaitu simple prompt, system prompt (en), system prompt (id), one-shot, dan prompt chaining untuk mengarahkan model dalam menghasilkan keluaran yang relevan dan sesuai dengan gaya Wikipedia. Proses fine-tuning dilakukan menggunakan data berbentuk kombinasi artikel Wikipedia sebelum diperbarui, artikel berita sebagai referensi, dan teks berisi informasi baru yang relevan untuk ditambahkan ke dalam artikel Wikipedia sebagai target keluaran. Evaluasi dilakukan dengan metrik ROUGE untuk mengukur kesamaan antara hasil keluaran model dan referensi dari penyunting Wikipedia. Hasil penelitian menunjukkan bahwa fine-tuning model Gemma 4B secara signifikan meningkatkan performa, khususnya pada strategi prompt chaining dengan rata-rata skor ROUGE-1 sebesar 0.3687. Dibandingkan dengan baseline Phi-3-mini, model Gemma memberikan hasil yang lebih konsisten dan relevan. Temuan ini menunjukkan bahwa pendekatan berbasis LLM dapat menjadi solusi potensial dalam membantu proses pembaruan artikel biografi Wikipedia.
Downloads
References
Wikipedia contributors, “Wikipedia.” Accessed: Apr. 04, 2024. [Online]. Available: https://id.wikipedia.org/wiki/Wikipedia
Wikimedia Foundation, “Wikimedia Statistics.” Accessed: Apr. 04, 2024. [Online]. Available: https://stats.wikimedia.org/
Wikipedia contributors, “Wikipedia.” Accessed: Apr. 04, 2024. [Online]. Available: https://id.wikipedia.org/wiki/Wikipedia:Pengumuman/Artikel
Wikimedia Fondation, “Wikimedia.” Accessed: Apr. 04, 2024. [Online]. Available: https://petscan.wmcloud.org/
E. Kasneci et al., “ChatGPT for good? On opportunities and challenges of large language models for education,” Apr. 01, 2023, Elsevier Ltd. doi: 10.1016/j.lindif.2023.102274.
M. A. K. Raiaan et al., “A Review on Large Language Models: Architectures, Applications, Taxonomies, Open Issues and Challenges,” IEEE Access, vol. 12, pp. 26839–26874, 2024, doi: 10.1109/ACCESS.2024.3365742.
P. J. Liu et al., “Generating Wikipedia by Summarizing Long Sequences,” Jan. 2018, [Online]. Available: http://arxiv.org/abs/1801.10198
S. Banerjee and P. Mitra, “WikiWrite: Generating Wikipedia Articles Automatically.” [Online]. Available: https://en.wikipedia.org/wiki/Wikipedia:Notability
R. Chandraseta and M. L. Khodra, “Composing Indonesian Paragraph for Biography Domain using Extracive Summarization,” 2019.
R. Yang et al., “Evaluating Large Language Models on Wikipedia-Style Survey Generation”, doi: 10.48550/arXiv.2308.10410.
Y. Shao, Y. Jiang, T. A. Kanell, P. Xu, O. Khattab, and M. S. Lam, “Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models,” Feb. 2024, [Online]. Available: http://arxiv.org/abs/2402.14207
Y. Liu et al., “Understanding LLMs: A Comprehensive Overview from Training to Inference,” Jan. 2024, [Online]. Available: http://arxiv.org/abs/2401.02038
A. Vaswani et al., “Attention Is All You Need,” 2017.
M. Abdin et al., “Phi-3 Technical Report: A Highly Capable Language Model Locally on Your Phone,” Aug. 2024, [Online]. Available: http://arxiv.org/abs/2404.14219
Gemma Team et al., “Gemma 3 Technical Report,” Mar. 2025, [Online]. Available: http://arxiv.org/abs/2503.19786
E. J. Hu et al., “LoRA: Low-Rank Adaptation of Large Language Models,” Jun. 2021, [Online]. Available: http://arxiv.org/abs/2106.09685
C.-Y. Lin, “ROUGE: A Package for Automatic Evaluation of Summaries.”
Downloads
Published
How to Cite
Issue
Section
License
Copyright (c) 2025 Najma Qalbi Dwiharani

This work is licensed under a Creative Commons Attribution 4.0 International License.
Najma Qalbi Dwiharani




