Bir model atomları simüle edemiyorsa, sonucu tahmin etmek için 'kimyayı' icat etmek zorunda kalır. @m_finzi @ShikaiQiu @yidingjiang @Pavel_Izmailov @zicokolter @andrewgwils'ın "Entropiden Epiplexity'ye" adlı eserine bilgi teorik temel ve ölçülebilir ölçümler sunan bu büyüleyici yeni ön baskıya göz atın. Çalışma, 'mükemmel' sınırsız gözlemcilerin daha yüksek seviyeli yapıyı öğrenmeye zorlanmadığını, sadece mikrofiziği simüle edebildiklerini gösteren çok ilginç bir çalışma sunuyor. Örneğin, anlamlı genelleştirilebilir yasaları (Epiplexity tarafından yakalanan yapısal içerik) keşfetmek için bir sistemin genellikle hesaplama olarak sınırlandırılması gerekir. Bu yasalar, bilim insanlarının sürekli veya makro ölçek teorisi dediği şeye benzeebilir, ancak fonksiyonel haritalamayı ölçekten bağımsız bir yapısal modele doğuştan yakalar. Bu, bilim ve keşif için yapay zekanın çeşitli uygulamaları için son derece önemlidir. Ayrıca LifeGPT (Jaime Berkovich ve diğerleri) ile yaptığımız önceki ampirik bulgularla da güzel bir bağlantı kuruyor. Bu durumda, Unutkan Nedensel Maskeleme uygulayarak, modelin tarihe dayanma yeteneğini yapay olarak kısıtladık. Makale, bulduklarımızla tutarlı ilkeli bir açıklama sunuyor: bu kısıtlama, modeli tarihe özgü ipuçlarına daha az dayanmaya ve bunun yerine hesaplama kısıtlı bir dünyada Hayat Oyunu'nun daha fazla yeniden kullanılabilir üst düzey dinamiklerini öğrenmeye zorladı. Ayrıca, kural setini (tersi problem) çıkarmanın ileri simülasyondan daha zengin temsiller elde ettiğini bulduğumuz AutomataGPT ile de örtüşüyor. Teori, daha zor ters görevi çözmenin, modelin hesaplama açısından verimli bir nedensel yapıyı yakalamaya zorladığı fikrini destekler; bu da sadece desenleri eşleştirmek veya kaba kuvvet hesaplamasına güvenmek yerine sistemin 'kaynak kodu'nu etkili şekilde çıkarır. @JaimeBerkovich