Penerapan Large Languange Models Dalam Pembaruan Artikel Biografi Wikipedia

Authors

  • Najma Qalbi Dwiharani Universitas Pendidikan Indonesia
  • Yudi Wibisono Universitas Pendidikan Indonesia
  • Yaya Wihardi Universitas Pendidikan Indonesia

DOI:

https://doi.org/10.62712/juktisi.v4i2.499

Keywords:

Wikipedia, Biografi, Berita, Pembaruan Artikel, Large Language Models, Natural Language Processing (NLP)

Abstract

Wikipedia merupakan sumber informasi daring yang sangat populer di Indonesia, namun pembaruan artikelnya masih sangat bergantung pada kontribusi penyunting. Pada kategori artikel biografi, pembaruan informasi secara berkala sangat penting karena adanya perkembangan karier dan peristiwa terkini dari tokoh yang bersangkutan. Penelitian ini bertujuan untuk mengeksplorasi penerapan Large Language Models (LLM) dalam menambahkan informasi baru ke artikel biografi Wikipedia Indonesia dengan referensi dari satu artikel berita daring. Model utama yang digunakan adalah Gemma 3 yang kemudian dibandingkan dengan model baseline Phi-3-mini. Penelitian ini juga menguji efektivitas lima strategi prompting yang berbeda, yaitu simple prompt, system prompt (en), system prompt (id), one-shot, dan prompt chaining untuk mengarahkan model dalam menghasilkan keluaran yang relevan dan sesuai dengan gaya Wikipedia. Proses fine-tuning dilakukan menggunakan data berbentuk kombinasi artikel Wikipedia sebelum diperbarui, artikel berita sebagai referensi, dan teks berisi informasi baru yang relevan untuk ditambahkan ke dalam artikel Wikipedia sebagai target keluaran. Evaluasi dilakukan dengan metrik ROUGE untuk mengukur kesamaan antara hasil keluaran model dan referensi dari penyunting Wikipedia. Hasil penelitian menunjukkan bahwa fine-tuning model Gemma 4B secara signifikan meningkatkan performa, khususnya pada strategi prompt chaining dengan rata-rata skor ROUGE-1 sebesar 0.3687. Dibandingkan dengan baseline Phi-3-mini, model Gemma memberikan hasil yang lebih konsisten dan relevan. Temuan ini menunjukkan bahwa pendekatan berbasis LLM dapat menjadi solusi potensial dalam membantu proses pembaruan artikel biografi Wikipedia.

Downloads

Download data is not yet available.

References

Wikipedia contributors, “Wikipedia.” Accessed: Apr. 04, 2024. [Online]. Available: https://id.wikipedia.org/wiki/Wikipedia

Wikimedia Foundation, “Wikimedia Statistics.” Accessed: Apr. 04, 2024. [Online]. Available: https://stats.wikimedia.org/

Wikipedia contributors, “Wikipedia.” Accessed: Apr. 04, 2024. [Online]. Available: https://id.wikipedia.org/wiki/Wikipedia:Pengumuman/Artikel

Wikimedia Fondation, “Wikimedia.” Accessed: Apr. 04, 2024. [Online]. Available: https://petscan.wmcloud.org/

E. Kasneci et al., “ChatGPT for good? On opportunities and challenges of large language models for education,” Apr. 01, 2023, Elsevier Ltd. doi: 10.1016/j.lindif.2023.102274.

M. A. K. Raiaan et al., “A Review on Large Language Models: Architectures, Applications, Taxonomies, Open Issues and Challenges,” IEEE Access, vol. 12, pp. 26839–26874, 2024, doi: 10.1109/ACCESS.2024.3365742.

P. J. Liu et al., “Generating Wikipedia by Summarizing Long Sequences,” Jan. 2018, [Online]. Available: http://arxiv.org/abs/1801.10198

S. Banerjee and P. Mitra, “WikiWrite: Generating Wikipedia Articles Automatically.” [Online]. Available: https://en.wikipedia.org/wiki/Wikipedia:Notability

R. Chandraseta and M. L. Khodra, “Composing Indonesian Paragraph for Biography Domain using Extracive Summarization,” 2019.

R. Yang et al., “Evaluating Large Language Models on Wikipedia-Style Survey Generation”, doi: 10.48550/arXiv.2308.10410.

Y. Shao, Y. Jiang, T. A. Kanell, P. Xu, O. Khattab, and M. S. Lam, “Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models,” Feb. 2024, [Online]. Available: http://arxiv.org/abs/2402.14207

Y. Liu et al., “Understanding LLMs: A Comprehensive Overview from Training to Inference,” Jan. 2024, [Online]. Available: http://arxiv.org/abs/2401.02038

A. Vaswani et al., “Attention Is All You Need,” 2017.

M. Abdin et al., “Phi-3 Technical Report: A Highly Capable Language Model Locally on Your Phone,” Aug. 2024, [Online]. Available: http://arxiv.org/abs/2404.14219

Gemma Team et al., “Gemma 3 Technical Report,” Mar. 2025, [Online]. Available: http://arxiv.org/abs/2503.19786

E. J. Hu et al., “LoRA: Low-Rank Adaptation of Large Language Models,” Jun. 2021, [Online]. Available: http://arxiv.org/abs/2106.09685

C.-Y. Lin, “ROUGE: A Package for Automatic Evaluation of Summaries.”

Downloads

Published

2025-08-04

How to Cite

Dwiharani, N. Q., Yudi Wibisono, & Yaya Wihardi. (2025). Penerapan Large Languange Models Dalam Pembaruan Artikel Biografi Wikipedia. Jurnal Komputer Teknologi Informasi Sistem Informasi (JUKTISI), 4(2), 804–813. https://doi.org/10.62712/juktisi.v4i2.499