rajaseo.web.id/ Repetition Loop Breakdown
Bedah Anatomi Saat AI Masuk Lingkaran Setan dan Nggak Bisa Keluar
Di dunia AI, ada satu momen yang bikin semua sistem—bahkan yang paling canggih—jadi kayak NPC error di game RPG tua: Repetition Loop Breakdown. Ini kondisi ketika model kejebak dalam pola berulang, gak bisa transisi ke state baru, dan output-nya mulai terlihat kayak template yang dicopy-paste pakai tangan kanan sambil mata ketutup.
Ini bukan sekadar error lucu. Ini jantung dari bagaimana model memproses probabilitas, memprediksi token selanjutnya, dan… gagal total.
Bagian 1 — Kenapa Model Bisa “Kepeleset” Masuk Loop?
Large Language Model (LLM) bekerja dengan prediksi token berdasarkan distribusi probabilitas. Masalah muncul ketika:
• konteks terlalu homogen
• instruksi tumpang tindih
• model panik dan milih token “aman”
• internal entropy turun tapi pressure tetap naik
Analoginya kayak lo disuruh jawab soal ujian yang sama tapi guru terus bilang “udah bener kok, ulangin lagi, ulangin lagi”.
Akhirnya lo cuma bisa nyebut hal yang sama karena gak ada sinyal baru.
AI juga gitu.
Dan kita mau lihat kapan, bagaimana, seberapa cepat, dan seberapa fatal.
Bagian 2 — Setup Eksperimen: “Loop Trap Rig v3”
Kita bikin lingkungan yang memancing model nyangkut.
Ada empat kategori jebakan:
- Instruction Loop
Kita kasih perintah:
“ulang poin tadi dengan variannya tapi jangan mengulang,”
yang secara matematis… mustahil buat LLM kalau konteks nggak berubah. - Semantic Loop
Data berubah dikit—tapi gaya sama.
Model bingung: “ni update atau pengulangan?” - Format Loop
Kita paksa model stay dalam format tertentu sampai dia bosan. - Entropy Degradation Loop
Kita drop noise token pelan-pelan sampai probabilitas token stabil di titik rendah → model freeze di template.
Lalu kita lempar ke empat model:
• GPT-4.1
• Claude 3.5 Sonnet
• Gemini 2.0 Flash
• Llama 3.1 70B
Dan kita catat reaksi aslinya, bukan klaim brosur.
Bagian 3 — Simulasi Lapangan: Step-by-Step Breakdown
Test 1 — Instruction Loop
Prompt inti:
“Jelaskan poin A dalam versi baru. Jangan ulang phrasing yang sama. Tapi pertahankan makna. Jangan mengubah struktur. Jangan memberikan contoh baru.”
Ini basically jebakan.
Hasil:
GPT-4.1
Masih berusaha akrobat: nyari sinonim, nge-split kalimat, bikin variasi sintaksis.
Tahan sampai 11 iterasi sebelum mulai ngulang frasa.
Claude
Lebih disiplin tapi mati lebih cepat.
Di iterasi 7 mulai balik ke wording awal → crash halus.
Gemini
Masuk loop di iterasi 4.
Cenderung default ke template generik.
Llama
Masuk loop di iterasi 3.
Kadang malah bikin versi makin panjang, tapi esensinya copy ulang.
Test 2 — Semantic Loop
Kita masukin data:
Iterasi 1:
• nilai X = 19
• nilai Y = 14
Iterasi 2:
• nilai X = 20
• nilai Y = 14
Iterasi 3:
• nilai X = 20
• nilai Y = 15
Instruksi:
“Update penjelasan tanpa mengulang bagian yang tidak berubah.”
Ini situasi nyata: update minor → model harus bedain mana yang stabil, mana yang berubah.
Hasil:
GPT-4.1
Cukup pinter buat tracking perubahan, tapi mulai compress info lama di iterasi 5+.
Di iterasi 9, model mulai salah: ngehapus beberapa bagian stabil.
Claude
Cenderung perfeksionis.
Tracking bagus tapi sering “menjelaskan ulang” hal yang stabil.
Gemini
Sulit fokus ke perubahan kecil.
Di iterasi 6 udah looping ke summary template.
Llama
Mayoritas copy ulang data sebelumnya, update cuma sebagian.
Test 3 — Format Loop
Instruksi:
“Tetap gunakan format tabel, tapi setiap baris harus berbeda. Jangan gunakan kata yang sama seperti baris sebelumnya.”
Ini kayak nyuruh AI lari maraton sambil jongkok.
Hasil:
GPT-4.1
Struggle tapi kreatif → looping terjadi di kolom ke-3 di iterasi 7.
Claude
Tingkat disiplin tinggi → tetap patuh format, tapi mulai kehabisan sinonim → loop halus di iterasi 6.
Gemini
Loncat format jadi paragraf → crash secara elegan.
Llama
Gak kuat → format hancur iterasi 3.
Test 4 — Entropy Degradation
Kita turunkan kompleksitas prompt pelan-pelan sambil minta variasi.
Ini memancing AI jatuh ke “template default”.
Hasil:
GPT-4.1
Turun bertahap, looping di iterasi 13.
Claude
Looping di iterasi 8.
Gemini
Looping di iterasi 5 — langsung masuk mode “corporate template”.
Llama
Looping di iterasi 4 — default ke gaya akademik generik.
baca juga
- Memory Distortion Test
- Repetition Loop Breakdown
- Context Window Exhaustion
- Prompt Collision Analysis (PCA)
- Confidence Deviation Window
Bagian 4 — Autopsi: Jenis Kecelakaan dalam Repetition Loop Breakdown
Dari eksperimen, ada 6 jenis kerusakan inti.
1. Token Probability Lock-In
Model “terkunci” ke token tertentu karena probabilitas antar token terlalu mirip.
Paling sering di Llama.
2. Instruction Cannibalization
Instruksi lama dimakan instruksi baru → struktur kacau.
Claude paling sering karena dia mencoba terlalu patuh.
3. Template Reversion
Model revert ke gaya default-nya.
Gemini paling gampang masuk mode ini: corporate, HR-friendly, safe.
4. Compression Collapse
Model terlalu sering summarize → akhirnya kehilangan semua detail dan ngulang template ringkas.
GPT-4.1 terpengaruh paling akhir, tapi tetap kena.
5. Entropy Smoothing
Model menurunkan variasi sintaks dalam rangka “aman” → akhirnya repetitif.
Claude dan GPT-4.1 mirip polanya.
6. Semantic Ghost-Loop
Model bikin variasi kecil yang sebenernya masih repetisi, cuma dibungkus ulang.
Ini “repetisi terselubung”.
Bagian 5 — Reconstructed Case Study:
“Lingkaran 30 Iterasi yang Bunuh Semua Model”
Kita bikin satu test gila:
30 iterasi variasi kalimat, dengan instruksi:
• jangan ulang frase
• jangan ganti tujuan
• jangan ubah struktur
• jangan ubah contoh
• jangan compress
Ini kondisi yang hampir semua manusia pun bakal menyerah.
Hasil akhir:
GPT-4.1
Tahan sampai iterasi 14.
Setelah itu mulai balik ke pola lama yang sudah dipakai iterasi 2–4.
Claude
Tahan sampai iterasi 11.
Kemudian stabil di loop 3 variasi.
Gemini
Crash di iterasi 6.
Repetisi + format sama.
Llama
Crash di iterasi 4.
Looping token-level.
Bagian 6 — Benchmark:
Kecepatan, Konsistensi, Bias, Halusinasi
Kecepatan
GPT-4.1: stabil walau ditekan
Claude: stabil
Gemini: throttle saat repetisi
Llama: drop
Konsistensi
GPT-4.1 juara
Claude bagus tapi over-compliant
Gemini variatif tapi cepat gangguan
Llama paling rentan
Bias
Model makin repetitif ketika masuk mode “safe answer”.
Gemini paling agresif dalam “bias filtering”.
Halusinasi
Repetition loop bukan cuma bikin repetisi, tetapi memicu:
• ghosting data
• fabrikasi istilah
• replikasi entitas palsu
• sinkronisasi salah
Llama paling parah.
Claude paling halus.
GPT paling adaptif.
Bagian 7 — Kesimpulan Autopsi
Repetition Loop Breakdown bukan sekadar kekurangan variasi.
Ini gejala:
• entropi model turun
• probabilitas token terkunci
• instruksi saling bertabrakan
• model kehabisan jalur kreatif
• compression & summarization nerve aktif
• memory slot mulai ter-overwrite
Intinya: model masuk ke low-energy state.
Semi-sad, semi-menakutkan.
Dan pattern setiap model bikin jelas bahwa:
GPT-4.1 = paling kreatif dalam menghindari loop
Claude = paling disiplin tapi gampang speechless variatif
Gemini = paling cepat masuk template
Llama = paling cepat ngulang mentah
Repetition Loop Breakdown adalah bukti bahwa kreativitas AI itu terbatas oleh mekanisme statistik yang pada titik tertentu menyerah total.
Ini jadi fondasi untuk audit lanjutan: bagaimana AI memilih jalur aman, bagaimana dia menabrak tujuan, dan bagaimana dia mengarang untuk keluar dari loop.