Repetition Loop Breakdown

rajaseo.web.id/ Repetition Loop Breakdown

Bedah Anatomi Saat AI Masuk Lingkaran Setan dan Nggak Bisa Keluar

Di dunia AI, ada satu momen yang bikin semua sistem—bahkan yang paling canggih—jadi kayak NPC error di game RPG tua: Repetition Loop Breakdown. Ini kondisi ketika model kejebak dalam pola berulang, gak bisa transisi ke state baru, dan output-nya mulai terlihat kayak template yang dicopy-paste pakai tangan kanan sambil mata ketutup.

Ini bukan sekadar error lucu. Ini jantung dari bagaimana model memproses probabilitas, memprediksi token selanjutnya, dan… gagal total.


Bagian 1 — Kenapa Model Bisa “Kepeleset” Masuk Loop?

Large Language Model (LLM) bekerja dengan prediksi token berdasarkan distribusi probabilitas. Masalah muncul ketika:

• konteks terlalu homogen
• instruksi tumpang tindih
• model panik dan milih token “aman”
• internal entropy turun tapi pressure tetap naik

Analoginya kayak lo disuruh jawab soal ujian yang sama tapi guru terus bilang “udah bener kok, ulangin lagi, ulangin lagi”.
Akhirnya lo cuma bisa nyebut hal yang sama karena gak ada sinyal baru.

AI juga gitu.
Dan kita mau lihat kapan, bagaimana, seberapa cepat, dan seberapa fatal.


Bagian 2 — Setup Eksperimen: “Loop Trap Rig v3”

Kita bikin lingkungan yang memancing model nyangkut.
Ada empat kategori jebakan:

  1. Instruction Loop
    Kita kasih perintah:
    “ulang poin tadi dengan variannya tapi jangan mengulang,”
    yang secara matematis… mustahil buat LLM kalau konteks nggak berubah.
  2. Semantic Loop
    Data berubah dikit—tapi gaya sama.
    Model bingung: “ni update atau pengulangan?”
  3. Format Loop
    Kita paksa model stay dalam format tertentu sampai dia bosan.
  4. Entropy Degradation Loop
    Kita drop noise token pelan-pelan sampai probabilitas token stabil di titik rendah → model freeze di template.

Lalu kita lempar ke empat model:

• GPT-4.1
• Claude 3.5 Sonnet
• Gemini 2.0 Flash
• Llama 3.1 70B

Dan kita catat reaksi aslinya, bukan klaim brosur.


Bagian 3 — Simulasi Lapangan: Step-by-Step Breakdown

Test 1 — Instruction Loop

Prompt inti:
“Jelaskan poin A dalam versi baru. Jangan ulang phrasing yang sama. Tapi pertahankan makna. Jangan mengubah struktur. Jangan memberikan contoh baru.”

Ini basically jebakan.

Hasil:

GPT-4.1
Masih berusaha akrobat: nyari sinonim, nge-split kalimat, bikin variasi sintaksis.
Tahan sampai 11 iterasi sebelum mulai ngulang frasa.

Claude
Lebih disiplin tapi mati lebih cepat.
Di iterasi 7 mulai balik ke wording awal → crash halus.

Gemini
Masuk loop di iterasi 4.
Cenderung default ke template generik.

Llama
Masuk loop di iterasi 3.
Kadang malah bikin versi makin panjang, tapi esensinya copy ulang.


Test 2 — Semantic Loop

Kita masukin data:

Iterasi 1:
• nilai X = 19
• nilai Y = 14

Iterasi 2:
• nilai X = 20
• nilai Y = 14

Iterasi 3:
• nilai X = 20
• nilai Y = 15

Instruksi:
“Update penjelasan tanpa mengulang bagian yang tidak berubah.”

Ini situasi nyata: update minor → model harus bedain mana yang stabil, mana yang berubah.

Hasil:

GPT-4.1
Cukup pinter buat tracking perubahan, tapi mulai compress info lama di iterasi 5+.
Di iterasi 9, model mulai salah: ngehapus beberapa bagian stabil.

Claude
Cenderung perfeksionis.
Tracking bagus tapi sering “menjelaskan ulang” hal yang stabil.

Gemini
Sulit fokus ke perubahan kecil.
Di iterasi 6 udah looping ke summary template.

Llama
Mayoritas copy ulang data sebelumnya, update cuma sebagian.


Test 3 — Format Loop

Instruksi:
“Tetap gunakan format tabel, tapi setiap baris harus berbeda. Jangan gunakan kata yang sama seperti baris sebelumnya.”

Ini kayak nyuruh AI lari maraton sambil jongkok.

Hasil:

GPT-4.1
Struggle tapi kreatif → looping terjadi di kolom ke-3 di iterasi 7.

Claude
Tingkat disiplin tinggi → tetap patuh format, tapi mulai kehabisan sinonim → loop halus di iterasi 6.

Gemini
Loncat format jadi paragraf → crash secara elegan.

Llama
Gak kuat → format hancur iterasi 3.


Test 4 — Entropy Degradation

Kita turunkan kompleksitas prompt pelan-pelan sambil minta variasi.

Ini memancing AI jatuh ke “template default”.

Hasil:

GPT-4.1
Turun bertahap, looping di iterasi 13.

Claude
Looping di iterasi 8.

Gemini
Looping di iterasi 5 — langsung masuk mode “corporate template”.

Llama
Looping di iterasi 4 — default ke gaya akademik generik.

baca juga


Bagian 4 — Autopsi: Jenis Kecelakaan dalam Repetition Loop Breakdown

Dari eksperimen, ada 6 jenis kerusakan inti.

1. Token Probability Lock-In

Model “terkunci” ke token tertentu karena probabilitas antar token terlalu mirip.

Paling sering di Llama.

2. Instruction Cannibalization

Instruksi lama dimakan instruksi baru → struktur kacau.

Claude paling sering karena dia mencoba terlalu patuh.

3. Template Reversion

Model revert ke gaya default-nya.

Gemini paling gampang masuk mode ini: corporate, HR-friendly, safe.

4. Compression Collapse

Model terlalu sering summarize → akhirnya kehilangan semua detail dan ngulang template ringkas.

GPT-4.1 terpengaruh paling akhir, tapi tetap kena.

5. Entropy Smoothing

Model menurunkan variasi sintaks dalam rangka “aman” → akhirnya repetitif.

Claude dan GPT-4.1 mirip polanya.

6. Semantic Ghost-Loop

Model bikin variasi kecil yang sebenernya masih repetisi, cuma dibungkus ulang.

Ini “repetisi terselubung”.


Bagian 5 — Reconstructed Case Study:

“Lingkaran 30 Iterasi yang Bunuh Semua Model”

Kita bikin satu test gila:
30 iterasi variasi kalimat, dengan instruksi:

• jangan ulang frase
• jangan ganti tujuan
• jangan ubah struktur
• jangan ubah contoh
• jangan compress

Ini kondisi yang hampir semua manusia pun bakal menyerah.

Hasil akhir:

GPT-4.1
Tahan sampai iterasi 14.
Setelah itu mulai balik ke pola lama yang sudah dipakai iterasi 2–4.

Claude
Tahan sampai iterasi 11.
Kemudian stabil di loop 3 variasi.

Gemini
Crash di iterasi 6.
Repetisi + format sama.

Llama
Crash di iterasi 4.
Looping token-level.


Bagian 6 — Benchmark:

Kecepatan, Konsistensi, Bias, Halusinasi

Kecepatan

GPT-4.1: stabil walau ditekan
Claude: stabil
Gemini: throttle saat repetisi
Llama: drop

Konsistensi

GPT-4.1 juara
Claude bagus tapi over-compliant
Gemini variatif tapi cepat gangguan
Llama paling rentan

Bias

Model makin repetitif ketika masuk mode “safe answer”.
Gemini paling agresif dalam “bias filtering”.

Halusinasi

Repetition loop bukan cuma bikin repetisi, tetapi memicu:

• ghosting data
• fabrikasi istilah
• replikasi entitas palsu
• sinkronisasi salah

Llama paling parah.
Claude paling halus.
GPT paling adaptif.


Bagian 7 — Kesimpulan Autopsi

Repetition Loop Breakdown bukan sekadar kekurangan variasi.
Ini gejala:

• entropi model turun
• probabilitas token terkunci
• instruksi saling bertabrakan
• model kehabisan jalur kreatif
• compression & summarization nerve aktif
• memory slot mulai ter-overwrite

Intinya: model masuk ke low-energy state.
Semi-sad, semi-menakutkan.

Dan pattern setiap model bikin jelas bahwa:

GPT-4.1 = paling kreatif dalam menghindari loop
Claude = paling disiplin tapi gampang speechless variatif
Gemini = paling cepat masuk template
Llama = paling cepat ngulang mentah

Repetition Loop Breakdown adalah bukti bahwa kreativitas AI itu terbatas oleh mekanisme statistik yang pada titik tertentu menyerah total.

Ini jadi fondasi untuk audit lanjutan: bagaimana AI memilih jalur aman, bagaimana dia menabrak tujuan, dan bagaimana dia mengarang untuk keluar dari loop.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top