Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Hvis en modell ikke har råd til å simulere atomene, blir den tvunget til å oppfinne 'kjemien' for å forutsi utfallet. Sjekk ut denne fascinerende nye preprinten som gir et informasjonsteoretisk grunnlag sammen med kvantifiserbare mål «From Entropy to Epiplexity» av @m_finzi @ShikaiQiu @yidingjiang @Pavel_Izmailov @zicokolter @andrewgwils. Verket tilbyr en svært interessant studie som viser at 'perfekte' ubegrensede observatører ikke tvinges til å lære høyere strukturer – de kan ganske enkelt simulere mikrofysikken. For eksempel, for å oppdage meningsfulle generaliserbare lover (strukturelt innhold fanget opp av Epiplexity), må et system vanligvis være beregningsmessig begrenset. Disse lovene kan ligne det forskere kaller kontinuums- eller makroskalateori, men de fanger iboende den funksjonelle kartleggingen inn i en skala-agnostisk strukturmodell.
Dette er svært relevant for en rekke anvendelser innen KI innen vitenskap og oppdagelse. Det henger også godt sammen med våre tidligere empiriske funn med LifeGPT (Jaime Berkovich m.fl.). I dette tilfellet, ved å bruke glemsk kausal maskering, begrenset vi kunstig modellens evne til å stole på historie. Artikkelen gir en prinsipiell forklaring som er i tråd med det vi fant: denne begrensningen tvang modellen til å stole mindre på historiespesifikke ledetråder og i stedet lære mer gjenbrukbare høyere nivå-dynamikker i Game of Life i en beregningsbegrenset verden.
Det samsvarer også med våre resultater med AutomataGPT, hvor vi fant at det å utlede regelsettet (det inverse problemet) gir rikere representasjoner enn fremoversimulering. Teorien støtter ideen om at løsningen av den vanskeligere inverse oppgaven tvinger modellen til å fange en beregningseffektiv kausal struktur – og effektivt trekke ut systemets 'kildekode' i stedet for bare å matche mønstre eller stole på brute-force compute.
@JaimeBerkovich
Topp
Rangering
Favoritter
