Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meta
Gamefi-veteranspiller
Investeringer og investeringer i primær- og sekundærprosjekter
🏅Medgründer @Opensky_888
🏅 Kjernemedlemmer @InFuture_Web3
Rapporter om dagens @anoma kamp!
For tiden har den totale poengsummen nådd 6.92 millioner, og den totale rangeringen er rundt 450.
For meg personlig bør det jeg kan spille i fremtiden være å gjette stigningen og fallet og ballen.
Gjett stigning og fall i henhold til børsen K-line-innsats hver dag, i utgangspunktet stabil inntekt på 150 000 poeng
Topprangeringen kan i utgangspunktet spille en avgjørende rolle i rangeringen er også å gjette stigning og fall. Fisker du reker er det 2,000 poeng om dagen, noe som ikke er kostnadseffektivt. For å være ærlig, ikke spill spilleautomater uten livet til den europeiske keiseren. Jeg kastet inn hundretusenvis av poeng, for ikke å nevne, det var et direkte tap. Xiaoqiu ser ut til å ha redusert andelen uttak i det siste, og testnettet må holde stand 💰 i sluttfasen
Men når man ser gårsdagens nyheter, bør i utgangspunktet @anoma NFT-er komme snart. Det er klart at noen brukere av Yapper- og anoma-testnettene kan få en hviteliste. Hvis du ikke er på listen, skynd deg å rulle den opp, og topp 100 av 3M bør ha en viss hvit. Den første raden av testnettet bør være basert på stigen for å gi sikker på å treffe og FCFS.
Venner på det siste toget kommer til å komme på!

36,02K
Fordi jeg har fulgt med på @campnetworkxyz nylig, har jeg også studert ARCoin i Camp-økosystemet de siste to dagene. Personlig føler jeg at vinkelen er ganske god, og gjør den geografiske plasseringen av den virkelige verden til en ressurs på kjeden.
Fra Camp-økosystemets perspektiv er det ARCoin faktisk gjør å digitalisere konseptet geospace. Brukere kan ha en digital del av et ekte sted og deretter plassere IP-innhold og lokale annonser på den delen.
Logikken bak hele mønsteret er ganske klar:
1️⃣ Skaper-nivå
Det handler ikke lenger bare om å lage virtuelt innhold, men om å knytte innholdet direkte til et bestemt sted i den virkelige verden. For eksempel kan brukere plassere kunstverk på en digital del av en kaffebar eller vise IP på et landemerke.
2️⃣ Annonseringsnivå for merkevare
Et ekte "plassering + innhold" annonseringssystem. Merkevarer kan kjøpe annonseplass direkte på et populært sted, og det er gjennomsiktig og sporbart på kjeden.
3️⃣ Eierens inntektsnivå
Brukere som eier en del av en lokalisasjon, kan motta en andel av alle forretningsaktiviteter som forekommer på denne lokalisasjonen. Det er som en digital versjon av eiendom i den virkelige verden.
Det mest interessante er at denne modusen er kombinert med @campnetworkxyz IP-remix-mekanisme. Hvis du eier en digital del av et landemerke, kan andre skapere gjenskape der du befinner deg, og inntektene fordeles automatisk i henhold til forhåndsinnstilte regler.
Personlig føler jeg at ARCoin kan bli en mer banebrytende applikasjon i Camp-økosystemet, tross alt fungerer den som en bro som forbinder IP på kjeden og verdiflyt i den virkelige verden.

35,35K
Fra et teknisk view@0G_labs er kjernemotsetningen å løse motsetningen mellom skalering og desentralisering. Alle tidligere løsninger har vært et kompromiss mellom de to, enten raskt, men sentralisert, eller desentralisert, men ekstremt tregt.
0G Labs' gjennombrudd ligger i DiLoCoX-rammeverket, som vellykket trente en AI-modell med 10,7 milliarder parametere ved 1 Gbps båndbredde. Dette tallet virker ikke som mye, men det er faktisk 10 ganger større enn PrimeIntellects Intellect-1! Og båndbredden som brukes er båndbredden til et vanlig kontor.
Enda viktigere, dette teknologiske gjennombruddet åpner direkte den siste milen av DeAI. Tidligere, basert på store LLM-modeller, var alles oppfatning at desentralisert AI var fremtiden, men faktisk er trening av store LLM-modeller i utgangspunktet avhengig av superdatasentre. Nå kan du gjøre denne jobben med distribuert vanlig utstyr, og effektiviteten er ikke dårlig.
🌟Demontering av 0G modulær arkitektur
0G-lagring: Desentralisert lagring
0G DA: Lag for datatilgjengelighet
0G-servering: AI-slutningstjeneste
0G-kjede: Konsensusnettverk med høy ytelse
Denne kombinasjonen gir 50 GB/s gjennomstrømning for hele systemet, noe som er 50 000 ganger raskere og 100 ganger billigere enn eksisterende konkurrenter.
Forbes-rapporten nevnte et sentralt poeng: dette er ikke bare et teknologisk show, men en reell omgjøring av AI til et offentlig gode. Når trening av store modeller ikke lenger krever skyhøy infrastruktur, og når ordinære utviklere også kan delta i oppbyggingen av KI, vil hele bransjemønsteret stokkes om. Og @0G_labs er den som endrer mønsteret.
36,55K
Det er totalt 452 lover og 56 681 ord, og er det ikke skrevet fra begynnelse til slutt at det er fire ord 'rettferdighet og rettferdighet'? Er ikke rettferdighet alles enkleste følelsesmessige behov?
Nylig så jeg en historie om dommere som bruker AI, og jeg følte bare frysninger i ryggen etter å ha lest den. Advokaten brukte AI til å skrive rettsmateriale, men som et resultat fant han på en haug med falske saker, og hvis han ble oppdaget, ville han bli bøtelagt og saken ville bli trukket. Men dommere er forskjellige, hver dommers dom vil bli en presedens, og påfølgende saker må refereres. Hvis AI gjør en feil i denne lenken, vil feilen bli uendelig forstørret.
En skilsmissesak involverer for eksempel barnefordeling. Dommeren brukte AI for å bistå dommen, og AI hallusinerte og ga et helt feil juridisk grunnlag. Dommeren vedtok den direkte. Når dommen er avgjort, blir den en presedens. Senere, da jeg møtte en dommer i en lignende sak, fant jeg denne presedensen og følte at det var slik den ble dømt før, så jeg fortsatte å bruke den forrige dommen. Sluttresultatet er en AI-feil som kan påvirke tusenvis av familier. Hvordan kan vi snakke om rettferdighet og rettferdighet?
Spørsmålet nå er at AI-teknologi faktisk kan forbedre rettslig effektivitet, og nøkkelen er hvordan man kan unngå problemet med AI-hallusinasjoner samtidig som effektiviteten forbedres.
Derfor har det blitt så viktig å verifisere nettverket. Det er ikke for å forhindre bruk av AI på rettsområdet, men for å sikre at hvert forslag og analyse gitt av AI har blitt verifisert flere ganger. For eksempel, @Mira_Network kryssverifiserer flere AI-modeller, sier AI A en konklusjon, og AI B og AI C må også beregne uavhengig og komme til enighet før resultatene kan sendes, og filtrere ut mulige feil før informasjonen når dommeren.
Fremtiden til AI er ikke å erstatte menneskelig dømmekraft, men å hjelpe oss med å gjøre dømmekraft mer pålitelig. Men forutsetningen er at det først må være en @Mira_Network slik verifiseringsmekanisme for å sikre at denne hjelperen ikke slipper kjeden i kritiske øyeblikk.

41,83K
Siden @0G_labs og Web3Labs lanserte 0G Global Accelerator, har mange oppstartsteam rundt om i verden sendt inn sine egne prosjekter. Selv om de utvalgte prosjektene ennå ikke er annonsert, gleder alle seg til Demo-dagen i Hong Kong 29. Felles for disse applikasjonene er at de alle er dypt integrert rundt 0G-teknologistabelen.
Noen nøkkelområder har blitt retningen 🎯 for 0Gs oppmerksomhet
1️⃣AI-drevne prediksjonsmarkeder
Tradisjonelle prediksjonsmarkeder som Polymarket er fortsatt avhengige av menneskeskapte og tvisteløsningsmekanismer, mens disse nye prosjektene utforsker selvforbedrende orakelnettverk og multimodellløsningsmekanismer. Ett prosjekt utvikler til og med en ny modell som knytter tro til pris, med AI-drevet markedsskaping og resultatvalidering.
2️⃣ Innfødt AI-handelsplattform
Det er ikke for å legge til AI-funksjoner til eksisterende DeFi-plattformer, men for å bygge AI Agents opprinnelige utførelsesmiljø fra bunnen av. Noen prosjekter bruker MCP til å dynamisk integrere datastrømmer på tvers av markeder slik at systemet kontinuerlig kan tilpasse seg endrede markedsforhold.
3️⃣ Tokeniserte AI-agenter/smarte NFT-er
0Gs ERC-7857 iNFT-standard muliggjør opprettelse, eierskap, opplæring og inntektsgenerering av AI-agenter på kjeden. Det er nå flere prosjekter som utforsker alt fra agentmarkedsplasser av forbrukerkvalitet til tjenester drevet utelukkende av omsettelige iNFT-er.
4️⃣ Desentralisert vitenskap
DeSci-prosjektet fokuserer på kombinasjonen av AI med dataeierskap og lagring, noe som er i tråd med 0Gs verdier av lagringsapplikasjonsmoduler og AI som et fellesgode.
@0G_labs Som den første AI-native L1, gir den den manglende infrastrukturen til fullstendig AI på kjeden gjennom modulær arkitektur, verifiserbar resonnement og AI-spesifikt utførelseslag.
Fra disse signalene kan det sees at byggherrer leter etter et teknisk grunnlag som lar agenter, modeller og data operere tillitsløst, og at komponerbarhet er standardfunksjonen. Dette sammenfaller med designfilosofien til 0G.

34,77K
Flere og flere begynner å innse at AI går gjennom en "hard fork". Fra den "store modellen" som ønsket å gjøre alt tidligere, har den sakte skiftet til en mer fokusert "profesjonell modell". @OpenledgerHQ De fem grunnene som er nevnt i tweeten er flervalgsspørsmål som hele bransjen gjør.
Fra det praktiske applikasjonsnivået er generell AI som et universelt verktøy, den kan gjøre hva som helst, men den kan ikke gjøre noe. Spesialisert AI, derimot, er en løsning skreddersydd for spesifikke scenarier.
🎯 Løs problemer på en målrettet måte
Spesialiserte AI-modeller er dypt optimalisert for spesifikke felt. AI trenger ikke å behandle irrelevante data og scenarier, og all datakraft og parametere er fokusert på å løse problemer i ett vertikalt felt. Effekten av dette fokuset er en eksponentiell økning.
🔍 Forklarbarhet blir et rigid behov
I høyrisikoscenarier som finans kan du ikke bare stole på den svarte boksen for å gi svar. Regulatoriske krav, samsvarskrav og ansvarsbestemmelse krever alle at hvert trinn i AIs resonneringsprosess kan spores og verifiseres. Spesialiserte modeller kan utforme tilsvarende beslutningsveier for bestemte scenarier.
⛓️ Verifisering og klareringsmekanismer på kjeden
Blokkjedeteknologi gjør at AIs resonneringsprosess kan registreres og verifiseres permanent. Spesialisert kunstig intelligens med sertifikatlagring på kjeden kan bygge en komplett tillitskjede. Hvert resonnement og hver beslutningsnode har et spor å følge, som bare er nødvendig for bedriftsscenarier som krever revisjon og samsvar.
📊 Løs problemet med hallusinasjoner
Hallusinasjonen til generell AI kommer i stor grad fra kompleksiteten og mangfoldet i treningsdataene. Spesialisert AI kan redusere hallusinasjonsraten betydelig ved å begrense omfanget og kvaliteten på treningsdata. I vertikale felt er datakvaliteten kontrollerbar, kunnskapsgrensene er klare, og det er mer sannsynlig at modeller gir nøyaktige og pålitelige svar.
💰 Omberegning av kostnadseffektivitet
Selv om generell AI kan virke som om én modell kan løse alle problemer, er den faktiske distribusjonskostnaden ekstremt høy. Spesialisert kunstig intelligens kan oppnå bedre resultater med mindre modellskalaer, lavere slutningskostnader og mer fleksibel distribusjon.
Bak disse fem punktene som @OpenledgerHQ har lagt frem, er det faktisk et svar på de reelle behovene til bransjen. Dette er ikke bare en kamp om ruter, men også et valg av effektivitet og landbarhet. Store modeller representerer utforskning, og profesjonelle modeller representerer industrialisering.
Et team som Openledger som distribuerer infrastruktur på kjeden vil sannsynligvis være nedstrøms infrastrukturleverandør for denne endringsbølgen.

35,87K
Etter å ha hørt på @anoma's AMA i går, følte jeg at anoma var veldig rask.
Helt fra begynnelsen av å bygge anoma til å gå til testnettet hver dag for å sykle
Det føles som om tiden flyr, fra spenningen ved å glede seg til TGE til roen i nåtiden. Til og med litt motvillig til å skille seg av med testnettet som er i ferd med å ta slutt.
I går kveld lanserte også et nytt spill "spilleautomat", som var forventet å bruke Fitcoin som brikke i spillet som det forrige spillet. Uventet valgte jeg poeng til slutt.
Som vi alle vet, bestemmer det totale antallet poeng rangeringen av rangeringer, og viktigheten av rangering er selvinnlysende drevet av testnet-merkevarebelønninger. Jeg er faktisk den typen person som har rett rygg, og jeg gikk nettopp på nettet i går og mistet 100 000 poeng, og resultatet ble naturlig nok ikke gjenopprettet. Det sies at hovedpremien også kan få 1 million poeng.
Etter suksessen med stutteri i dag, er det totale antallet poeng 5,56 millioner, og rangerer rundt 500. Forbered 100 små knotter og se hva som skjer!
Stud avsluttet, med totalt 5.79 millioner poeng og rangert som nummer 427. Sammenlignet med Studs 100 små baller ble det oppnådd totalt 230 000 poeng. I gjennomsnitt tjenes 2300 poeng per ball.
For tiden har testnettet utstedt totalt rundt 25 000 koder, og det offisielle estimatet er å utstede 30 000. Det er fortsatt 5 000 som ikke blir sendt. Rangert blant de 500 beste, nesten de 2 % beste av testnettet. Men for å være ærlig, da jeg bestilte 100 baller, ønsket jeg virkelig å være "intensjonsdrevet". Fortell den at jeg vil bestille 100 baller, og hodebunnen min vil krible 🤣
I tillegg til å følge opp interaksjonen til det @anoma testnettet hver dag, husk å gå til DC hver onsdag for å sende inn bevis på bidrag. Dc-rollen bør også være i øyeblikksbildet i det senere stadiet, så husk å ta den hvis du har sjansen. Et annet poeng å merke seg er NFT, du må finne en måte å få tak i det på. Jeg håper alle kan få store resultater til slutt!



40,1K
Når mange nevner AI, tenker de på LLM-modeller, intelligente spørsmål og svar og AGI-veikart, men faktisk er det få som virkelig innser én ting: kjerneverdislagmarken til AI i fremtiden er sannsynligvis ikke i selve modellen, men i innholdsmaterialet den spiser, det vil si IP.
Den nåværende verdsettelsen av den globale IP-økonomien er 61,9 billioner dollar. Men problemet er at en så enorm innholdsressurs i utgangspunktet er låst i en haug med kontrakter, sentraliserte plattformer, juridiske rammer og lukkede systemer. AI ønsker å bruke den til å passere fem nivåer først for å drepe seks generaler, og den kan også tråkke på torden.
Derfor kan de fleste nåværende AI-modeller bare fange opp data i hemmelighet. Artikler, bilder, lyder og videoer på Internett blir alle stille matet til modellen for læring. Men denne måten, med utbruddet av opphavsrettsproblemer, plattformblokader og flere og flere rettssaker, er i utgangspunktet usikker.
@campnetworkxyz idé er klar: ikke blokker eller stjel, men la selve IP-en være på kjeden og bli en programmerbar ressurs som kan kombineres lovlig og lisensieres transparent.
Dette er også den mest jordnære delen av leiren. Det er ikke å bygge en AI-innholdsplattform, men å direkte bygge et sett med underliggende protokoller og infrastruktur, slik at alle skapere og IP-innehavere kan registrere innholdet sitt i kjeden, skrive ned lisensvilkårene og definere inntektsfordelingsmetoden. Hvis du vil bruke en AI-modell, betaler du direkte i henhold til betingelsene.
Det viktigste er at hele prosessen kan kombineres. Fremtidige AI-modeller absorberer ikke data i en stor svart boks, men er som byggeklosser, som fritt distribuerer lisensierbare innholdsmoduler i henhold til forskjellige innholdskilder, bruksområder og stiler. Utgangspunktet for alt dette er at hver IP er satt på kjeden og har lisensvilkår + inntektslogikk.
Denne saken er viktig fordi den forvandler forholdet mellom AI og IP fra passiv utvinning og utnyttelse til en slags peer-to-peer-samarbeid. Skapere er ikke lenger ofre for plagiering, men blir leverandører av AI-opplæring og deltakere i kommersielle gevinster.
Jeg personlig er enig i @campnetworkxyz syn på at "Det største markedet AI vil berøre er IP". Uansett hvor sterk modellen er, må den vedlikeholdes av data. Uansett hvor mye innhold det er, hvis det ikke brukes i samsvar, vil det før eller siden legge miner ⛺️ for seg selv
41,22K
Når mange snakker om handelsverktøy, er det ikke noe mer enn raskere, mer besparende og jevnere. Men hvis du ofte gjør transaksjoner med flere kjeder, spesielt på tvers av Solana, ETH, Base og BSC, vil du forstå at disse ordene er enkle å si, og det som egentlig kan gjøres er i utgangspunktet ingen.
@LABtrade_ ønsker i hovedsak å være et infrastrukturlag for transaksjoner med flere kjeder. Hvilken handelsprogramvare brukes vanligvis, men hastigheten er raskere, håndteringsgebyret er lavere og funksjonene er sterkere. Denne ideen er faktisk ganske smart, og tvinger ikke brukere til å endre vanene sine, men optimaliserer nederst. Fra datasynspunktet er 20-dagers handelsvolum på 150 millioner amerikanske dollar, 700 000 amerikanske dollar i inntekter fortsatt ganske sterkt.
LAB tilbyr fire produkter: handelsroboter, apper, sidefelt, nettleserplugins. Disse verktøyene fungerer sømløst på alle handelsterminaler. Du trenger ikke å bytte plattform, du trenger ikke å tilpasse deg grensesnittet på nytt, og nyt raskere hastigheter og lavere avgifter direkte i miljøet du er kjent med.
Fra et forretningslogisk synspunkt har LAB forstått et veldig praktisk smertepunkt. Den største hodepinen for alle å gjøre transaksjoner på kjeden er dyre gebyrer, lav hastighet og komplekse operasjoner. Tradisjonelle DEX-avgifter starter på 1 %, og du må vente på bekreftelse, og opplevelsen er virkelig ikke god. LAB har redusert gebyret til 0,5 % og har ingen terskel for handelsvolum, noe som fortsatt er svært attraktivt for detaljinvestorer.
Fra investoroppstillingens perspektiv ledes Lemniscap av Animoca, OKX Ventures og Mirana, som er kjente institusjoner i sirkelen. Denne porteføljen er ganske pålitelig, i det minste viser den at prosjektet har bestått due diligence i institusjonen.
Fra et teknisk perspektiv støtter LAB allerede mainstream-kjeder som Solana, Ethereum, Base og BSC. Støtte for flere kjeder er virkelig en nødvendighet i det nåværende økologiske fragmenteringsmiljøet, og brukere trenger ikke å bytte lommebøker og verktøy frem og tilbake mellom forskjellige kjeder.
Generelt er ideen om LAB-prosjektet fortsatt god, den fanger opp brukernes reelle behov, og dataytelsen er også i orden. Men om den kan få et godt fotfeste i den harde konkurransen vil ta tid å verifisere. For venner som ønsker å delta, anbefales det å teste vannet med en liten mengde først, oppleve produktet og deretter bestemme om du vil delta dypt.
Portal:

34,74K
I dag lanserte @OpenledgerHQ sitt eget minispill Octoman, og jeg tenkte å spille tilfeldig for å få tiden til å gå, men jeg kunne ikke stoppe så snart jeg kom i gang. Kjernespillet i dette spillet er å kontrollere en blekksprutmann til å svinge seg rundt i luften og fly så langt som mulig, men denne enkle mekanikken er vanedannende.
Kjernen i spillet er Timing Timing Timing!!
Operasjonslogikken til spillet er ikke komplisert, bare to piltaster på mobiltelefonen pluss en knapp for å skyte edderkoppsilke, og datamaskinen kan gjøres med tre WAD-knapper. Men hvis du virkelig vil spille dette spillet bra, er nøkkelen å mestre rytmen til fysikkmotoren. Når du skal slippe edderkoppsilken og når du skal ta den igjen, hvis du mestrer denne timingen, vil du kunne fly langt og jevnt i luften.
Det som er interessant er at hver gang du oppdaterer din personlige rekord, vil systemet automatisk generere et eksklusivt poengkort. Dette kortet er ikke laget tilfeldig, men vil låse opp karakterbilder av forskjellige sjeldenheter basert på poengsummen din. Jo høyere poengsum, jo sjeldnere karakter, og dette designet vil virkelig stimulere deg til å fortsette å slå rekorder.
Nå har de et todagers arrangement med enkle regler. Du kan tweete poengkortet ditt, @OpenledgerHQ det og legge til hashtaggen #iloveplayingoctoman. Det er tydelig at de vil at spillerne virkelig skal engasjere seg.
Fra et produktdesignperspektiv er Octoman ganske smart. Selve spillet er enkelt nok til at alle kan plukke opp, men det krever øvelse og ferdigheter for å spille bra. Scorekortsystemet gir spillerne en grunn til å vise seg frem, og spredning av sosiale medier kan bringe inn nye brukere.
Jeg spilte tilfeldig selv og scoret 551 poeng. Ga meg direkte en liten ninjablekksprut! Dette bildet er direkte fullt, og det passer perfekt til avataren min. Jeg har ikke tenkt å slå gjennom, så får det være. Kjærlighet, kjærlighet!!

22,76K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til