Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Thomas Wolf
Co-founder di @HuggingFace - open-source dan open-science
Sangat bangga melihat Hugging Face FineWeb memberdayakan beberapa LLM terbaik di luar sana.
Baru saja melihatnya di laporan teknologi GLM 4.5 baru (model agen llm sumber terbuka yang baru bersaing dengan Claude 4, Grok 4, o3) dan mendengarnya dalam banyak kasus lain:
Berbagi alat & pengetahuan secara terbuka untuk membangun model SOTA AI adalah misi inti di @huggingface. Kami percaya sangat penting untuk menjamin keragaman di lapangan dan mencegah terlalu banyak konsentrasi kekuasaan di tangan hanya beberapa perusahaan.
Selamat besar untuk tim FineWeb! 🎉
6,41K
Satu set model yang sangat bagus untuk edge dirilis minggu ini
- Jan merilis model 4B yang dioptimalkan untuk menjalankan tugas agen secara lokal - mengungguli Perplexity Pro pada beberapa eval
- LiquidAI merilis model multimoda untuk teks+gambar dengan versi 450M dan 1.6B yang dioptimalkan untuk latensi rendah

👋 Jan12 Agu, 15.55
Memperkenalkan model Jan-v1: 4B untuk pencarian web, alternatif sumber terbuka untuk Perplexity Pro.
Dalam evals kami, Jan v1 memberikan akurasi SimpleQA 91%, sedikit mengungguli Perplexity Pro saat berjalan sepenuhnya secara lokal.
Kasus penggunaan:
- Pencarian web
- Penelitian Mendalam
Dibangun di atas versi baru Qwen3-4B-Thinking Qwen (hingga 256k panjang konteks), disesuaikan untuk penalaran dan penggunaan alat pada bulan Jan.
Anda dapat menjalankan model dalam Jan, llama.cpp, atau vLLM. Untuk mengaktifkan pencarian pada bulan Jan, buka Pengaturan → Fitur Eksperimental → Aktif, lalu Pengaturan → Server MCP → mengaktifkan MCP terkait pencarian seperti Serper.
Gunakan modelnya:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Kredit untuk tim @Alibaba_Qwen untuk Qwen3 4B Thinking & @ggerganov untuk llama.cpp.
10,82K
Tim OpenAI telah memasak! GPT-OSS adalah binatang buas
Selamat datang kembali teman-teman, senang sekali Anda berada di komunitas sumber terbuka lagi. Bersemangat untuk melihat apa yang akan dibangun orang di atas gpt-oss.
Di sisi pribadi, sangat menyenangkan bekerja dengan tim dan teman-teman OpenAI selama beberapa bulan terakhir, mereka sangat menerima umpan balik dari komunitas. Saya suka berpikir itu membuat model menjadi lebih baik untuk banyak kasus penggunaan.
Sekarang coba di

10,98K
Pembacaan AI bentuk panjang kembali dan kami baru saja menjatuhkan bacaan musim panas terbaik.
Terinspirasi oleh orang-orang seperti Stripe Press, kami dengan bangga mengumumkan buku pertama dari HF Press: edisi PDF Ultra-Scale Playbook yang dibuat dengan cermat dan panjang.
Lebih dari 200 halaman padat untuk mempelajari dasar-dasar dan lanjutan:
- Paralelisme 5D (DP, TP, PP, EP, FSDP)
-Nol
- Perhatian Flash
- Tumpang tindih komputasi/komunikasi dan kemacetan
Semua dengan intro teori yang dapat diakses dan 4.000+ eksperimen penskalaan.
Semua yang perlu Anda ketahui untuk melatih DeepSeek V3 atau LLama 5 Anda sendiri :)
Gratis untuk diunduh dengan langganan ✨ HF PRO Anda
Dapatkan di:

50,36K
Saya ingat sangat terkesan ketika saya menambahkan model transformator XL Yang Zhilin sebagai model ketiga di perpustakaan transformator pada awal 2019
tidak heran dia sekarang mengirimkan hal-hal yang mengesankan dengan Moonshot AI
ini adalah cerita panjang yang harus saya ceritakan suatu hari nanti, tetapi di satu sisi, tim Google kecil ini adalah salah satu yang pertama benar-benar memahami kekuatan penskalaan data pelatihan
14,86K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal