Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Conner Brown
Raadsman van senator Lummis. Werken aan een rijke Amerikaanse toekomst.
Dit is uiterst zorgwekkend als het waar is.
Ik kan bevestigen dat er de afgelopen drie maanden een sterke verschuiving op de Hill is geweest om de de minimis vrijstelling alleen tot stablecoins te beperken.
BPI blijft in gesprek met wetgevers om uit te leggen wat een strategische blunder dit zou zijn voor de VS.
We hebben jaren aan dit probleem gewerkt—we kunnen het niet op het laatste moment laten slippen.

Marty Bent13 uur geleden
Hoor dat ondanks alle inspanningen en lobbywerk voor de bitcoin de minimis belastingvrijstelling, het niemand minder is dan @coinbase die het achter de schermen probeert te vernietigen om alleen stablecoins te pushen.
Blijkbaar vertellen ze aan wetgevers dat, "Niemand gebruikt bitcoin als geld. Een de-minimis vrijstelling voor bitcoin is een hand-out die DOA zal zijn."
40
BPI blijft een diep team van talent opbouwen.
We zijn ongelooflijk gelukkig dat Sam zich bij het team voegt en ik kan niet wachten om te zien wat hij gaat creëren.

Bitcoin Policy Institute10 mrt, 21:02
We zijn verheugd om @SamLyman33 te verwelkomen bij het Bitcoin Policy Institute als onze nieuwe Hoofd Onderzoek. Sam komt bij BPI vandaan van het Amerikaanse Ministerie van Financiën, waar hij diende als senior adviseur en hoofd speechschrijver van Minister Bessent. Zijn expertise in beleid rond digitale activa en publieke communicatie zal van onschatbare waarde zijn terwijl we onze onderzoeksinspanningen uitbreiden.

94
De wereld verandert sneller dan wij ons kunnen voorstellen.

Andrej Karpathy10 mrt, 06:28
Drie dagen geleden heb ik autoresearch tuning nanochat ongeveer 2 dagen op het depth=12 model gelaten. Het vond ongeveer 20 wijzigingen die de validatieverlies verbeterden. Ik heb deze wijzigingen gisteren getest en ze waren allemaal additief en overgedragen naar grotere (depth=24) modellen. Door al deze wijzigingen op te stapelen, heb ik vandaag gemeten dat de "Tijd tot GPT-2" op het leaderboard daalt van 2,02 uur naar 1,80 uur (ongeveer 11% verbetering), dit zal de nieuwe leaderboard-entry zijn. Dus ja, dit zijn echte verbeteringen en ze maken een daadwerkelijk verschil. Ik ben mild verrast dat mijn allereerste naïeve poging al zo goed werkte bovenop wat ik dacht dat al een redelijk handmatig goed afgesteld project was.
Dit is een eerste voor mij omdat ik erg gewend ben om de iteratieve optimalisatie van neurale netwerktraining handmatig te doen. Je komt met ideeën, je implementeert ze, je controleert of ze werken (betere validatieverlies), je komt met nieuwe ideeën op basis daarvan, je leest wat papers voor inspiratie, enzovoort. Dit is het dagelijkse brood van wat ik al 2 decennia doe. Het is wild om te zien dat de agent deze hele workflow van begin tot eind en helemaal zelf uitvoerde terwijl hij ongeveer 700 wijzigingen autonoom doorliep. Het keek echt naar de reeks resultaten van experimenten en gebruikte dat om de volgende te plannen. Het is nog niet nieuw, baanbrekend "onderzoek", maar alle aanpassingen zijn "echt", ik heb ze niet handmatig eerder gevonden, en ze stapelen zich op en hebben nanochat daadwerkelijk verbeterd. Onder de grotere dingen bijvoorbeeld:
- Het merkte een vergissing op dat mijn parameterloze QKnorm geen scaler multiplier had, waardoor mijn aandacht te diffuus was. De agent vond multipliers om het te verscherpen, wat wijst op toekomstig werk.
- Het ontdekte dat de Value Embeddings echt houden van regularisatie en ik paste er geen toe (oeps).
- Het vond dat mijn banded attention te conservatief was (ik vergat het af te stemmen).
- Het ontdekte dat de AdamW-betas helemaal in de war waren.
- Het stelde het gewicht verval schema af.
- Het stelde de netwerkinitialisatie af.
Dit is bovenop al het afstemmen dat ik al over een goede periode heb gedaan. De exacte commit is hier, van deze "ronde 1" van autoresearch. Ik ga "ronde 2" starten, en parallel kijk ik naar hoe meerdere agents kunnen samenwerken om parallelisme te ontgrendelen.
Alle LLM frontier labs zullen dit doen. Het is de eindbaasstrijd. Het is natuurlijk veel complexer op schaal - je hebt niet gewoon een enkel train.py-bestand om af te stemmen. Maar het doen is "gewoon engineering" en het gaat werken. Je start een zwerm agents, je laat ze samenwerken om kleinere modellen af te stemmen, je promoot de meest veelbelovende ideeën naar steeds grotere schalen, en mensen (optioneel) dragen bij aan de randen.
En meer algemeen kan *elke* metriek waar je om geeft die redelijk efficiënt te evalueren is (of die meer efficiënte proxy-metrieken heeft zoals het trainen van een kleiner netwerk) door een agentenzwerm worden autoresearched. Het is de moeite waard om na te denken of jouw probleem ook in deze categorie valt.

244
Boven
Positie
Favorieten
