Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aaron Levie
CEO @box - Libera la potenza dei tuoi contenuti con l'intelligenza artificiale
L'IA sfumerà i confini tra molte funzioni nel tempo, poiché ora puoi iniziare a fare cose sia più in alto che più in basso nella gerarchia, o espanderti ad altre funzioni adiacenti. Un'area molto ovvia è che i PM dovrebbero quasi sempre presentarsi con prototipi funzionali.

Kaz Nejatian16 ore fa
Stiamo aggiungendo una sezione di codifica a tutti i nostri colloqui per Product Manager presso @Shopify.
Inizieremo con i colloqui per APM. Ci aspettiamo che i candidati costruiscano un prototipo del prodotto che hanno suggerito nel colloquio di caso.
Non ci sono scuse per i PM che non costruiscono prototipi.
17,97K
In Box, trascorriamo molto tempo a testare Box AI con nuovi modelli su dati non strutturati per vedere in quali aree di lavoro conoscitivo si comportano meglio.
Come abbiamo visto dai benchmark, GPT-5 offre un salto significativo nelle capacità rispetto a GPT-4.1 in ragionamento, matematica, logica, programmazione e altre aree di lavoro. Ecco alcuni esempi di come questi miglioramenti si manifestano nel mondo reale:
*GPT 5 contestualizza meglio le informazioni. Quando si esegue l'estrazione dei dati come l'importo finale in USD su una fattura senza etichette di valuta ma con un indirizzo a Londra, GPT 5 risponde correttamente che è necessaria una conversione da USD a GBP. In confronto, GPT 4.1 ha visto la fattura finale e l'ha restituita, assumendo la valuta (in modo errato).
* GPT-5 offre una migliore analisi multimodale. Per la dichiarazione annuale di una società pubblica, a GPT-5 viene chiesto di isolare una cella in una tabella da un'immagine che mostra le variazioni nei componenti del capitale della società. La parte superiore della tabella chiarisce che tutti gli importi delle azioni sono in migliaia, e GPT-5 dichiara chiaramente questa conversione, mentre GPT-4.1 non lo fa, confondendosi dato che la tabella dice azioni e la legenda dice quote.
* GPT-5 si comporta meglio con alti livelli di complessità nei prompt e nei dati. Quando si esegue l'estrazione dei dati su un curriculum per tutte le date di inizio lavoro, i nomi delle posizioni lavorative e i nomi dei datori di lavoro, GPT-5 è stato in grado di estrarre ogni pezzo di dato mentre GPT-4.1 sembra essere sopraffatto e non ha estratto gli stessi campi data la dimensione del prompt e la complessità del documento.
* GPT-5 è molto più chiaro ed esplicito nelle sue risposte. In un accordo di outsourcing con 6 diversi servizi esplicitamente discussi, quando viene chiesto riguardo ai "5 servizi specifici nel contratto", GPT-5 restituirà i primi 5 e chiederà se era intenzionale che il sesto non fosse stato menzionato. In confronto, GPT-4.1 ha semplicemente restituito i primi 5 senza ulteriori avvertenze, il che può portare a confusione per l'utente.
* GPT-5 è migliore nell'interpretazione dei dati in campi complessi. Per un grafico di citometria a flusso, tipicamente usato in immunologia, GPT-5 ha identificato correttamente un'alta proporzione di cellule morte e ha fornito cause plausibili che potrebbero portare a tale situazione, mentre GPT-4.1 ha fornito ragionamenti minimi, necessitando di ulteriori conferme per avere delle ipotesi dai dati grezzi.
* GPT-5 è migliore nell'identificare incoerenze nel codice. Quando viene chiesto di identificare problemi in un dato file di codice python, mentre sia GPT-5 che 4.1 possono identificare errori reali che portano a malfunzionamenti, solo GPT-5 è stato in grado di dedurre problemi più sottili, come stampare la variabile errata quando ciò non avrebbe senso nel contesto del programma.
Questi miglioramenti in matematica, ragionamento, logica e qualità delle risposte in finestre di contesto più lunghe sono incredibilmente utili per gli utenti finali nel lavoro quotidiano, ma si manifesteranno ancora di più con agenti AI a lungo termine, specialmente quando non c'è un umano nel loop per verificare le informazioni a ogni passaggio.
È fantastico vedere che questi miglioramenti continuano ad arrivare nei più recenti modelli di AI, poiché ciò porterà a agenti AI in grado di essere utilizzati in aree di lavoro sempre più critiche.
72,38K
È chiaro che attualmente siamo su una traiettoria in cui i modelli di intelligenza artificiale continuano a migliorare nelle capacità relative alla matematica, al ragionamento, alla logica, all'uso di strumenti e in vari compiti specifici di settore che miglioreranno man mano che verranno generati più dati di addestramento.
Sebbene ci saranno dibattiti su quanto questi progressi si tradurranno in cambiamenti significativi nei casi d'uso quotidiani per i consumatori, *avranno* un impatto notevole su molte categorie di lavoro conoscitivo. Sbloccheranno progressivamente nuovi casi d'uso in ambito sanitario, legale, servizi finanziari, scienze della vita, ecc., dove i modelli possono eseguire compiti sempre più critici in modo affidabile.
In un recente podcast con Alex Kantrowitz, Dario Amodei ha trovato un ottimo modo di inquadrare questo concetto, affermando che se si migliorasse la capacità di un modello di intelligenza artificiale per passare da una laurea triennale in biochimica a una laurea magistrale in biochimica, una piccola percentuale della popolazione dei consumatori noterebbe l'impatto, ma i casi d'uso aziendali per una compagnia come Pfizer aumenterebbero in modo significativo come risultato di ciò.
Dovremmo iniziare a prevedere che questa è ora l'era in cui ci troviamo con l'IA. Quindi, come si manifesterà questo nel mondo reale? Si manifesterà attraverso agenti IA che si occupano di casi d'uso applicati. Agenti IA per la programmazione, il lavoro legale, i segretari medici, l'estrazione dei dati, l'elaborazione delle richieste di risarcimento assicurativo, i test di penetrazione, e così via.
L'opportunità attuale è costruire agenti IA per settori e domini con una profonda comprensione di quello spazio. Qui è dove l'impatto dell'ingegneria del contesto, una profonda comprensione dei flussi di lavoro, le connessioni ai dati aziendali e interfacce utente specializzate (che consentono agli utenti di distribuire, gestire e orchestrare questi agenti) inizieranno a contare molto.
Significherà anche costruire una distribuzione che si allinei a quel particolare settore o dominio. Probabilmente significherà qualche forma di ingegneria distribuita per non solo aiutare i clienti a implementare gli agenti, ma anche per apprendere rapidamente quali flussi di lavoro gli agenti sono ottimizzati e riportare queste informazioni nella piattaforma centrale.
In definitiva, questi mercati saranno vinti dai soggetti che sapranno meglio collegare i processi aziendali di oggi (che spesso sono disordinati e non sono stati progettati per l'automazione) a un mondo in cui gli agenti sono integrati in questi flussi di lavoro. Questa è l'era dell'IA in cui ci troviamo ora.
76,9K
Non siamo affatto vicini al punto ottimale per qualsiasi stabilizzazione nella capacità dell'IA, ma ironicamente ci sono molti casi d'uso commerciali per l'IA che vengono semplicemente bloccati a causa della rapidità con cui la tecnologia avanza. Ecco perché le architetture a prova di futuro sono così importanti.

Ethan Mollick11 ago, 18:39
Quando e se lo sviluppo dell'IA raggiungerà un plateau (e non ci sono indicazioni che ciò stia accadendo), potrebbe effettivamente accelerare l'integrazione dell'IA nelle nostre vite, perché diventa più facile capire quali prodotti e servizi sono necessari per completare l'IA. In questo momento, le capacità stanno cambiando troppo rapidamente.
3,85K
Il concetto di core vs. context è fondamentale da considerare quando si cerca di capire con cosa le persone si ricostruiranno utilizzando l'IA.
Le aziende portano funzioni "core" che le differenziano. Questo è ciò che costituisce il loro prodotto o servizio principale, come vendono ai clienti, le cose che guidano la loro cultura, e così via.
Al contrario, esternalizzano il "context" che è essenziale per essere a posto, ma che offre solo svantaggi se gestito male. Una regola empirica facile da considerare è se un cliente noterebbe mai se l'azienda svolgesse quella funzione direttamente o meno.
Il software enterprise è quasi sempre "context". Queste sono aree come i loro sistemi CRM o HR, infrastruttura, gestione dei dati, e così via. Questi sono necessari per gestire un'attività su larga scala, ma raramente si ha un vantaggio nel cercare di sviluppare un proprio sistema. Esistono solo poche eccezioni, e quasi sempre è perché hai bisogno di una soluzione per servire il tuo "core" che nessun fornitore offre (come se avessi bisogno di software personalizzato per una catena di approvvigionamento verticalmente integrata).
Indipendentemente da come un'azienda inizia, alla fine quasi sempre separa il lavoro e il valore tra core e context nel tempo. È l'unico modo per rimanere competitivi e alla fine allocare risorse nelle aree ottimali.
Quindi, anche se un'azienda *potrebbe* riscrivere il proprio software enterprise con l'IA, in realtà non lo farebbe. Gli aggiornamenti di versione, la sicurezza, le funzionalità normative, i bug, gli SLA, i servizi professionali necessari, ecc. renderebbero tutto ROI negativo.
Come sottolinea bucco, il vero rischio sono versioni migliori di questi strumenti che sono AI-first. Questo è ciò a cui prestare attenzione dal punto di vista della disruption.


BuccoCapital Bloke10 ago, 01:04
Penso che il rischio che le aziende costruiscano i propri sistemi di registrazione - ERP, ITSM, CRM, ecc. - sia incredibilmente basso.
Le aziende non sono stupide. Non hanno competenze in questo campo, le poste in gioco sono enormemente alte e, indipendentemente da quanto sia facile, dovrebbero comunque mantenerlo e ottimizzarlo, il che, in ultima analisi, è una distrazione dal loro vero business. Lo stesso motivo per cui AWS, Azure e GCP sono aziende così incredibili.
Penso sinceramente che le persone che credono a questo non abbiano mai lavorato in un'azienda reale o vivano semplicemente in fogli di calcolo senza comprendere come viene acquistato e venduto il software enterprise.
Tuttavia, penso che il rischio che i fornitori SaaS legacy vengano battuti da concorrenti nativi dell'IA sia molto più alto.
Figma ha mangiato il pranzo di Adobe perché la collaborazione era nativa nel cloud e Adobe non è riuscita ad adattarsi. Questo è il tipo di rischio che dovrebbe tenere svegli di notte questi sistemi legacy di registrazione, non le persone che cercano di codificare un sostituto.
195,75K
Ottimo thread. Qualunque cosa un agente AI sia in grado di fare, può anche essere ingannato per farlo. Dovresti assumere che se un agente può accedere ai dati, un utente alla fine potrà ottenere quei dati. La sicurezza degli agenti, i controlli di accesso e le barriere di protezione deterministiche saranno fondamentali.

mbg8 ago, 21:49
abbiamo dirottato gli agenti dello studio Copilot di Microsoft e li abbiamo costretti a rivelare le loro conoscenze private, a svelare i loro strumenti e a permetterci di utilizzare per scaricare interi record CRM
questi sono agenti autonomi.. nessun umano nel loop
#DEFCON #BHUSA @tamirishaysh

90,68K
Ci sono molte conversazioni su come sarà il futuro del software nelle imprese. Ecco come penso si svilupperà.
Per i flussi di lavoro deterministici in cui il costo di un errore è elevato, le imprese tenderanno a scegliere piattaforme core per le loro funzioni più comuni, importanti e ripetibili all'interno dell'organizzazione. Pensate a buste paga, ERP, CRM, ITSM, supporto clienti, ECM/gestione documentale, e così via. Queste sono aree in cui si desidera che qualcosa venga fatto sempre allo stesso modo.
Ognuna di queste piattaforme dovrà essere progettata per essere AI-first, il che significa che avranno interfacce utente ottimizzate per interagire con i flussi di lavoro e i dati tramite AI, e saranno completamente progettate per consentire agli agenti AI di operare all'interno delle piattaforme. Col tempo, ci aspettiamo che l'uso di questi sistemi si orienti molto di più verso gli agenti AI piuttosto che verso le persone. Il modello di accesso rimane per gli utenti, ma il consumo diventa il modello per gli agenti. Alcuni attori consolidati raggiungeranno lo stato finale, ma altri non si adatteranno abbastanza rapidamente e scompariranno.
Ci sarà quindi un nuovo gruppo di aziende effettivamente solo per agenti, costruite appositamente per automatizzare specifici tipi di lavoro (e soprattutto per lavori non deterministici). I loro modelli di business si orienteranno ancora di più verso il consumo. Pensate a Claude Code o Devins (probabilmente con qualche strato di interfaccia utente per gestire gli agenti) ma per varie funzioni lavorative. Probabilmente vedremo centinaia o migliaia di queste emergere nel tempo. Test di penetrazione, codifica, ricerca di bug, revisioni di conformità, analisi finanziarie, e così via. Questo è un grande spazio in cui le startup andranno piuttosto bene perché tendono a non esserci attori consolidati in queste categorie.
Interagiremo con questi vari agenti attraverso un mix delle piattaforme software a cui sono collegati (come Box AI o Agentforce), tramite API in altri sistemi, e sistemi di flussi di lavoro orizzontali che collegano insieme agenti attraverso le piattaforme (come ServiceNow, IBM Watsonx, Google Agentspace, e così via).
E naturalmente, gli utenti consumeranno spesso questi agenti tramite esperienze di chat orizzontali (come ChatGPT, Claude, Perplexity, Grok, Copilot, ecc.) tramite MCP o altri tipi di connessioni dirette. Gli utenti lavoreranno comunemente in questi sistemi di chat orizzontali, estraendo agenti, dati e flussi di lavoro dalle varie piattaforme Agentic secondo necessità. Quando rilevante, salteranno nelle piattaforme core per completare flussi di lavoro, rivedere informazioni, ecc.
Ci sarà anche una lunga coda di esperienze in cui gli utenti possono generare micro app al volo quando hanno bisogno di applicazioni rapide o casi d'uso automatizzati, quando non c'è un pezzo di software ovvio per farlo. Questo potrebbe avvenire direttamente nei sistemi di chat orizzontali, in strumenti come Replit, Lovable, o in strumenti di automazione dei flussi di lavoro, ecc. Mi aspetto che questo sia più per gli utenti esperti che hanno bisogno di un collante tra più sistemi o dove non esiste ancora alcun software.
Il risultato è che il software diventa sempre più importante nel tempo, anche se le modalità con cui interagiamo cambiano ed espandono. Simile a come passiamo facilmente tra i nostri telefoni e computer desktop, anche se potrebbero facilmente convergere, il futuro offrirà un mix di modi di interagire con il software.
127,32K
Sebbene affascinante, l'idea che l'IA generi ogni interfaccia utente al volo è probabilmente meno probabile di quanto le persone pensino. I benefici dell'iper personalizzazione probabilmente non supereranno la necessità di dover riapprendere un'app ogni volta che la si utilizza o i rischi che le cose si rompano in modi inaspettati.

Ben South9 ago, 01:59
Chiunque abbia vissuto un grande redesign sa che generare UI al volo non sarà una cosa per la maggior parte dei prodotti.
110,65K
La divisione del lavoro degli agenti AI sarà fondamentale per massimizzare l'impatto degli agenti.
Da tempo abbiamo una divisione del lavoro nelle organizzazioni perché avere esperti individuali che si passano i compiti l'uno con l'altro è più efficace che un gruppo di generalisti che cerca di fare le cose in modo diverso ogni volta. Gli agenti AI presentano la stessa dinamica.
Perché gli agenti AI funzionino, è necessario avere la giusta quantità di contesto riguardo al compito che stanno cercando di completare. Questo significa una profonda comprensione del dominio, un insieme di conoscenze da cui partire, istruzioni chiare e un insieme di strumenti da utilizzare. Troppo poco contesto e l'agente fallirà. Tuttavia, allo stesso modo, man mano che più informazioni entrano nella finestra di contesto, sappiamo che i modelli possono diventare subottimali.
Per un processo aziendale complesso, se metti tutta la documentazione, la descrizione del flusso di lavoro e le istruzioni nella finestra di contesto, sappiamo che questo può portare a una degradazione del contesto, che porta a risultati peggiori.
L'architettura logica quindi, in futuro, è di dividere gli agenti in unità atomiche che corrispondono ai giusti tipi di compiti e poi far lavorare insieme questi agenti per completare il loro lavoro.
Stiamo già vedendo questo svolgersi in modo efficace negli agenti di codifica. Ci sono sempre più esempi che emergono con persone che impostano subagenti che possiedono parti specifiche di un codice sorgente o di un'area di servizio. Ogni agente è responsabile di una parte del codice e c'è documentazione adatta agli agenti per il codice. Poi, quando è necessario lavorare in quell'area rilevante del codice sorgente, un agente orchestratore coordina con questi subagenti.
Potremmo vedere questo schema applicarsi probabilmente a quasi qualsiasi area di lavoro conoscitivo in futuro. Questo permetterà agli agenti AI di essere utilizzati per molto più che casi d'uso specifici e si estenderà a potenziare interi flussi di lavoro nell'impresa.
Anche se i modelli AI migliorano per gestire finestre di contesto più ampie e i livelli di intelligenza aumentano, non è ovvio che questa architettura scompaia mai. È probabile che il ruolo di ciascun agente si espanda man mano che le capacità migliorano, ma linee di separazione chiare tra subagenti potrebbero sempre portare a risultati migliori.
73,71K
Inizialmente si pensava che un singolo agente AI potesse gestire flussi di lavoro arbitrariamente grandi. Invece, il modello che sembra funzionare è quello di distribuire subagenti che hanno specializzazione per compito per evitare il deterioramento del contesto. La divisione del lavoro tra agenti AI potrebbe essere il futuro.

martin_casado5 ago, 10:02
.@levie ha fatto una grande osservazione.
L'uso degli agenti va contro la narrativa semplicistica dell'AGI di avere meno agenti, ma più potenti, con compiti sempre più complessi.
Invece, stiamo tendendo verso un numero maggiore di agenti con compiti ben definiti, ristretti e specifici. Generalmente da parte di professionisti.
67,27K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari