Jos malli ei pysty simuloimaan atomeja, sen on keksittävä 'kemia' lopputuloksen ennustamiseksi. Tutustu tähän kiehtovaan uuteen esipainokseen, joka tarjoaa informaatioteoreettisen perustan sekä mitattavia mittareita "Entropiasta epiplexityyn", kirjoittanut @m_finzi @ShikaiQiu @yidingjiang @Pavel_Izmailov @zicokolter @andrewgwils. Työ tarjoaa erittäin mielenkiintoisen tutkimuksen, joka osoittaa, että 'täydellisiä' rajoittamattomia havaitsijoita ei pakoteta oppimaan korkeamman tason rakennetta – he voivat yksinkertaisesti simuloida mikrofysiikkaa. Esimerkiksi, jotta voidaan löytää merkityksellisiä yleistettäviä lakeja (Epiplexityn tallentama rakenteellinen sisältö), järjestelmän on tyypillisesti oltava laskennallisesti rajoitettu. Nämä lait voivat muistuttaa sitä, mitä tutkijat kutsuvat jatkuvuus- tai makroskaalateoriaksi, mutta ne vangitsevat funktoriaalisen kartoituksen skaala-agnostiseen rakenteelliseen malliin. Tämä on erittäin merkityksellistä monissa tekoälyn sovelluksissa tieteessä ja löytämisessä. Se liittyy myös hyvin aiempiin empiirisiin havaintoihin LifeGPT:llä (Jaime Berkovich ym.). Tässä tapauksessa soveltamalla unohtavaa kausaalista peittämistä rajoitimme keinotekoisesti mallin kykyä nojata historiaan. Artikkeli tarjoaa periaatteellisen selityksen, joka on yhdenmukainen havaitsemamme kanssa: tämä rajoite pakotti mallin luottamaan vähemmän historiaan liittyviin vihjeisiin ja oppimaan enemmän uudelleenkäytettäviä, korkeamman tason Elämän Pelin dynamiikkaa laskennallisesti rajoitetussa maailmassa. Se on myös linjassa AutomataGPT:n tulosten kanssa, joissa havaitsimme, että sääntöjoukon (käänteisongelman) päättely tuottaa rikkaampia esityksiä kuin eteenpäin suuntautuva simulaatio. Teoria tukee ajatusta, että vaikeamman käänteisen tehtävän ratkaiseminen pakottaa mallin kaappaamaan laskennallisesti tehokkaan kausaalirakenteen – käytännössä poimimalla järjestelmän 'lähdekoodin' sen sijaan, että vain sovitettaisiin kuvioita tai luottaisiin raakavoimalaskentaan. @JaimeBerkovich