Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Può sembrare stupido, ma uno dei più grandi trucchi per la produttività quando si utilizza Claude Code con Opus 4.1 è questo: dopo aver chiesto a CC di implementare una funzionalità o correggere un bug o qualsiasi altra cosa, e dopo che dice di aver completato tutto, devi semplicemente ripetere la seguente frase a lui più e più volte fino a quando non riesce a trovare più errori (cosa che a volte richiede fino a 7 o 8 tentativi!):
"Ottimo, ora voglio che tu legga attentamente tutto il nuovo codice che hai appena scritto e il codice esistente che hai appena modificato con "occhi freschi," cercando con molta attenzione eventuali bug, errori, problemi, questioni, confusione, ecc."
Sì, questo richiede un po' di tempo, ma ecco perché è così utile avere un sacco di sessioni di CC aperte contemporaneamente. Poi puoi semplicemente ruotare tra di esse, incollando quella frase di nuovo e di nuovo.
In qualche modo, il fatto di avere "occhi freschi" cambia il modo in cui percepisce ciò che ha appena scritto in un modo davvero utile.
Stranamente, questo trucco non sembra funzionare altrettanto bene con il pensiero di GPT-5-- tende semplicemente a dire "Sì, tutto sembra a posto!" Claude è molto più incline a mettere in discussione e a fare errori superficiali la prima volta, ma è bravo a catturarli se gli si dà abbastanza opportunità.
2,52K
Chiunque in OpenAI abbia deciso di rompere l'API per GPT-5 (e o3, è un problema vecchio) cambiando il parametro "max_tokens" in "max_completion_tokens" nel tentativo di rendere le cose più chiare... hai commesso un grande errore. Non coprirà mai le innumerevoli ore sprecate dai programmatori su codice rotto.

1,14K
Dopo diversi giorni di intenso utilizzo di GPT-5 tramite Cursor e tramite il modello GPT-5 Pro nell'app web, confermo tutto ciò che ho detto riguardo al fatto che sia un modello molto più intelligente e migliore nella programmazione rispetto a Opus 4.1.
Mi piace ancora Opus e trovo che l'ergonomia di Claude Code sia migliore in molti modi, ma se stai cercando di affrontare compiti veramente difficili che richiedono un pensiero davvero intelligente basato sui principi fondamentali e competenze di informatica, GPT-5 è di un altro livello.
Ma sospetto che questo emerga solo quando la modalità di sforzo di ragionamento è impostata almeno su medio, e si manifesta realmente con l'impostazione di alto sforzo.
Un buon esempio di problema è la preparazione delle "redlines" di due lunghi e complessi documenti legali. Non versioni diverse dello stesso documento, ma due documenti diversi che provengono da un modello generale condiviso.
Questo è un problema molto, molto difficile da affrontare bene e richiede molti trucchi e euristiche intelligenti per fornire prestazioni e qualità di output decenti (sto parlando di utilizzare tecniche di programmazione tradizionali qui, non di utilizzare LLM per fare questo confronto).
GPT-5 con l'agente Cursor può semplicemente generare più idee migliori e più intelligenti (ma pragmatiche) più velocemente e implementarle correttamente e senza troppa assistenza, rispetto a Opus 4.1.
Dipende da cosa stai lavorando, però. Penso ancora di preferire il codice frontend in NextJS di Opus, per esempio.
Ma dovresti assolutamente verificare di persona sui tuoi problemi reali e non fidarti di tutte le molte persone che dicono che il modello fa schifo e che è prova che abbiamo raggiunto un muro.
O stanno usando la cattiva versione gratuita senza pensarci, o non hanno idea di come fare richieste efficaci, o lasciano che i loro sentimenti nei confronti di OpenAI e Altman influenzino le loro opinioni.
35,91K
Divertente che la demo di GPT-5 stia enfatizzando quanto sia un grande scrittore... e poi mostri pura spazzatura turbo con i trattini in ogni altra frase. Dovrebbero concentrarsi sulle demo di codifica, che sono molto più impressionanti!
Inoltre, odio che stiano deprecando tutti i vecchi modelli...
1,31K
Penso che il più alto complimento che posso fare a @patrickc e al team di Stripe sia che hanno una reputazione e un track record così ottimi nel creare interfacce UI/UX davvero curate e intuitive per i loro servizi, che è molto utile citarli per nome nei prompt di codifica per ottenere risultati migliori dagli agenti di codifica AI.
Ad esempio, ho una variante di questo salvata nel mio editor di testo e la incollo in Claude Code almeno 10 volte al giorno:
"Voglio che tu faccia un lavoro spettacolare costruendo componenti UI/UX di livello assoluto per visualizzare questi report di valutazione, mostrando sia i dettagli che come "badges" o "schede di riepilogo", con un intenso focus nel rendere il più visivamente attraente, user-friendly, intuitivo, elegante, curato, di qualità "Stripe-level" possibile per questo, sfruttando le buone librerie che fanno già parte del progetto."
Poi gli dico che qualunque cosa abbia creato non è davvero così buona ("orribile" o "incredibilmente brutta") anche se è già piuttosto buona, e che deve MIGLIORARLA DRAMMATICAMENTE per raggiungere davvero i livelli di delizia e eleganza, lucidità, intuitività, ecc. di Stripe.
Fondamentalmente, applicando la Tecnica di Gaslighting di Steve Jobs per ottenere iterativamente risultati "incredibilmente ottimi".
E sì, questo funziona incredibilmente bene se continui a farlo ripetutamente. Il trucco è che devi includere TUTTI quegli aggettivi, altrimenti si ridurrà a icone che girano e pulsano come acrobati ("elegante" e "visivamente attraente"); hai bisogno degli altri termini come "curato" e "intuitivo" e "Stripe-level" per temperare il tutto in modo che sia anche un po' minimalista e piacevole da usare nella pratica.
Sono contento di non dover lavorare per me come agente AI :/
1,65K
Ho appena letto il nuovo documento GSPO del team Qwen.
È divertente quanto questi grandi miglioramenti teorici, nonostante abbiano una base fondamentale apparentemente profonda (in questo caso, che ottimizzare attraverso sequenze di token è meglio che ottimizzare singoli token), alla fine si riducano semplicemente a far fluire meglio i gradienti evitando problemi di condizionamento numerico.
Quando fai un passo indietro e lo guardi, GSPO è fondamentalmente un modo per ottenere un migliore condizionamento numerico mediando le cose insieme di più negli aggiornamenti per evitare bump rumorosi (quasi come usare il momentum in rmsprop o Adam) e anche ignorando aggiornamenti che porterebbero a situazioni "pericolose" dal punto di vista numerico in termini di condizionamento.
Ma tutto ciò ha senso da una prospettiva storica, poiché l'apprendimento profondo è davvero esploso quando abbiamo capito come evitare il problema del gradiente che svanisce/esplode usando cose come il momentum negli ottimizzatori. Quindi, in un certo senso, questo è semplicemente l'ultimo passo in quella tradizione di navigare nel paesaggio della perdita in modo più robusto per evitare di "guidare in un fosso."
3,29K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari