Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Thomas Wolf
Cofundador de @HuggingFace - código abierto y ciencia abierta
Estoy muy orgulloso de ver a Hugging Face FineWeb impulsando algunos de los mejores LLMs que existen.
Acabo de verlo en el nuevo informe técnico de GLM 4.5 (el modelo llm agentic recién de código abierto que compite con Claude 4, Grok 4, o3) y he oído hablar de él en muchos otros casos:
Compartir abiertamente herramientas y conocimientos para construir modelos de IA SOTA es una misión fundamental en @huggingface. Creemos que es esencial garantizar la diversidad en el campo y prevenir una concentración excesiva de poder en manos de solo unas pocas empresas.
¡Grandes felicitaciones al equipo de FineWeb! 🎉
6,37K
Un conjunto de modelos realmente buenos para el edge se lanzó esta semana
- Jan lanza un modelo de 4B optimizado para ejecutar tareas agentivas localmente - supera a Perplexity Pro en varias evaluaciones
- LiquidAI lanza modelos multimodales para texto+imagen con versiones de 450M y 1.6B optimizadas para baja latencia

👋 Jan12 ago, 15:55
Presentamos Jan-v1: modelo 4B para búsqueda web, una alternativa de código abierto a Perplexity Pro.
En nuestras evaluaciones, Jan v1 ofrece un 91% de precisión en SimpleQA, superando ligeramente a Perplexity Pro mientras se ejecuta completamente de forma local.
Casos de uso:
- Búsqueda web
- Investigación profunda
Construido sobre la nueva versión de Qwen's Qwen3-4B-Thinking (hasta 256k de longitud de contexto), ajustado para razonamiento y uso de herramientas en Jan.
Puedes ejecutar el modelo en Jan, llama.cpp o vLLM. Para habilitar la búsqueda en Jan, ve a Configuración → Funciones experimentales → Activar, luego Configuración → Servidores MCP → habilita un MCP relacionado con la búsqueda como Serper.
Usa el modelo:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Créditos al equipo de @Alibaba_Qwen por Qwen3 4B Thinking y a @ggerganov por llama.cpp.
10,79K
¡El equipo de OpenAI ha estado trabajando duro! gpt-oss es una bestia
Bienvenidos de nuevo, amigos, es genial tenerlos en la comunidad de código abierto otra vez. Estoy emocionado de ver lo que la gente construirá sobre gpt-oss.
En el ámbito personal, ha sido un placer trabajar con el equipo de OpenAI y amigos durante los últimos meses, han sido increíblemente receptivos a los comentarios de la comunidad. Me atrevo a pensar que eso ha hecho que el modelo sea aún mejor para muchos casos de uso.
Ahora vayan a probarlo en

10,95K
La lectura de IA en formato largo ha vuelto y acabamos de lanzar la lectura definitiva de verano.
Inspirados por los likes de Stripe Press, nos enorgullece anunciar el primer libro de HF Press: una edición en PDF de longitud de libro del Ultra-Scale Playbook, cuidadosamente elaborada.
Más de 200 páginas densas para aprender los fundamentos y lo avanzado de:
- paralelismo 5D (DP, TP, PP, EP, FSDP)
- ZeRO
- Flash Attention
- superposición de computación/comunicación y cuellos de botella
Todo con introducciones teóricas accesibles y más de 4,000 experimentos de escalado.
Todo lo que necesitas saber para entrenar tu propio DeepSeek V3 o LLama 5 :)
Descárgalo gratis con tu suscripción a HF PRO ✨
Consíguelo en:

50,34K
Recuerdo haberme quedado tan impresionado cuando añadí el modelo transformers XL de Yang Zhilin como el tercer modelo en la biblioteca de transformers a principios de 2019.
No me sorprende que ahora esté enviando cosas increíblemente impresionantes con Moonshot AI.
Es una larga historia que debería contar algún día, pero de alguna manera, este pequeño equipo de Google fue uno de los primeros en entender realmente el poder de escalar los datos de entrenamiento.
14,83K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado