Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Lo que esto me hace pensar es en la visión humana.
Es fácil olvidar, y la mayoría de nosotros ni siquiera aprendimos, que la visión humana tampoco tiene una gran cobertura.
Tenemos un foco muy estrecho y de alta fidelidad, rodeado de una amplia periferia de baja fidelidad.
La razón por la que nuestra visión se siente mucho más "completa" que eso para nosotros es que los datos que obtiene nuestro cerebro anterior son en realidad el resultado de una gran cantidad de posprocesamiento en otras áreas del cerebro.
Una vez, mientras ayudaba a una estudiante de doctorado en psicología perceptual con un código C ++ para su investigación de tesis, descubrí accidentalmente cómo borrar partes de este modelo posprocesado.
Esto crea un efecto en el que se puede mostrar algo, un estímulo, al ojo, pero hacerlo invisible para el cerebro.
Fue una de las sensaciones más extrañas que he sentido. Al principio, pensé que había introducido un error y que el código que presentaba el estímulo visual de la prueba ya no se ejecutaba, porque no podía verlo.
Pero cuando pasé con un depurador, el estímulo estaba ahí. Simplemente se estaba borrando de mi corteza visual antes de que mi mente consciente lo "viera".
La estudiante de doctorado miró esto, se encogió de hombros, dijo "raro" en un tono de voz poco curioso y volvió al tema de su estudio. Y me puse loco y deseché mis planes de invitarla a salir.
De todos modos, menciono esto porque me hace sospechar que el enfoque de hardware "panóptico" siempre estuvo condenado en la práctica, si incluso la naturaleza no hace las cosas de esa manera y, en cambio, sustituye el posprocesamiento pesado por una entrada sin procesar detallada.
Sospecho que, al igual que en nuestra evolución biológica, la evolución de nuestros sistemas informáticos llegará a un punto en el que la computación adicional es mucho más barata que los mejores periféricos.
Aunque tal vez John está a punto de decirme que esto sucedió hace años y simplemente no he estado prestando atención.

13 ago, 00:15
Ha habido muchos equipos locos de muchas cámaras creados con el propósito de capturar video espacial completo.
Recuerdo una conversación en Meta que era básicamente "vamos a apoyarnos lo más posible en la visión por computadora geométrica clásica antes de mirar los algoritmos de aprendizaje automático", y apoyé esa dirección. Eso fue hace muchos años, cuando ML todavía se sentía como una alquimia impredecible y, por supuesto, ¡quieres maximizar tu uso de la verdad fundamental!
Se dedicó un gran esfuerzo de ingeniería a la calibración, sincronización y procesamiento de datos de la cámara, pero nunca cumplió realmente con la visión. No importa cuántas cámaras tenga, cualquier objeto en movimiento complejo tendrá áreas ocluidas, y los "agujeros en la realidad" se destacan claramente para un espectador que no está exactamente en uno de los puntos de la cámara.
Incluso cuando tiene buena visibilidad, las ambigüedades en la fotogrametría multicámara hacen que las cosas sean menos precisas de lo que le gustaría. También hubo algunos experimentos para ver qué tan bien se podía hacer la reconstrucción de escenas 3D de las cámaras Quest usando computación fuera de línea, y la respuesta seguía siendo "no muy buena", con superficies bastante abultadas. Muchas reconstrucciones en 3D se ven increíbles desplazándose en el feed de su teléfono, pero no tan bien ampliadas a una representación de realidad virtual totalmente inmersiva y en contraste con una foto tradicional de alta calidad.
Realmente necesita antecedentes sólidos para impulsar el problema de ajuste y llenar los vacíos de cobertura. Para las escenas arquitectónicas, puede obtener algo de kilometraje de los priores planos simples, pero la IA generativa moderna es el último prior.
Incluso si los locos equipos de cámara cumplieran plenamente la promesa, aún no habrían habilitado un buen ecosistema de contenido. YouTube no habría tenido éxito si todos los creadores necesitaran una cámara RED Digital Cinema.
La generación de fotos 3D estereoscópicas (¡bastante buena!) en Quest Instagram es un pequeño paso hacia el futuro. Hay caminos para video estéreo y estático 6DOF, y eventualmente para video 6DOF.
Haga que todo sea inmersivo, luego permita el ajuste personalizado de los medios conscientes de la inmersión.

12.03K
Populares
Ranking
Favoritas