Overview
この research は、large language model を heuristic algorithm の改善ループに組み込んだとき、なぜ大胆な探索よりも安全な微修正に寄りやすいのかを扱っています。中心的な問いは、より良い解に届く可能性がある局面でも、なぜ system が小さな edit ばかりを選び続けるのかという点です。
empirical experiment と framework analysis を合わせて、保守性がどこで混入するのか、そして evaluation design が exploration の質にどう影響するのかを追っています。
Key Features
Bias Analysis
heuristic algorithm を進化させる場面で、LLM がどのように保守的な振る舞いを見せるかを分析しています。
Local Optima Problem
大胆な構造変更ではなく、小さな改善のループに落ち込みやすい理由を検証しています。
Evolutionary Frameworks
ShinkaEvolve と OpenEvolve を test bed として使い、反復的な algorithm generation を観察しています。
Hypothesis Validation
bias が evolution loop のどこで入り込み、どう軽減できるかを仮説検証しています。
Technologies Used
Python ShinkaEvolve OpenEvolve OpenAI API Anthropic API NumPy Genetic Algorithms
Challenges Overcome
- LLM が高インパクトな algorithm modification を避けがちなこと。
- model が local optimization pattern に閉じ込められやすいこと。
- evaluation loop 側の bias が exploration を止めやすいこと。
Outcomes & Impact
- algorithm evolution における recurring bias pattern を特定しました。
- 反復探索で保守化が起きる理由について working hypothesis を整理しました。
- mitigation strategy を検証するための experiment を継続しています。