SpaceX revela el servicio Starlink ‘Premium’ mensual de $ 500 con velocidades de hasta 500 Mbps — clon

La ola actual de inteligencia artificial se remonta a 2012, y un concurso acadÃĐmico que midiÃģ quÃĐ tan bien los algoritmos podÃan reconocer objetos en fotografÃas.
Ese aÃąo, los investigadores descubrieron que introducir miles de imÃĄgenes en un algoritmo inspirado libremente en la forma en que las neuronas del cerebro responden a las entradas produjo un gran salto en la precisiÃģn . El avance provocÃģ una explosiÃģn en la investigaciÃģn acadÃĐmica y la actividad comercial que estÃĄÂ transformando algunas empresas e industrias .
Ahora, un nuevo truco, que consiste en entrenar el mismo tipo de algoritmo de IA para convertir imÃĄgenes 2D en una rica vista 3D de una escena, estÃĄ generando entusiasmo en el mundo de los grÃĄficos por computadora y la IA. La tÃĐcnica tiene el potencial de revolucionar los videojuegos , la realidad virtual , la robÃģtica y la conducciÃģn autÃģnoma . Algunos expertos creen que incluso podrÃa ayudar a las mÃĄquinas a percibir y razonar sobre el mundo de una manera mÃĄs inteligente, o al menos similar a la humana .
âHace mucho calor, hay un gran revueloâ, dice Ken Goldberg, especialista en robÃģtica de la Universidad de California, Berkeley, que estÃĄ utilizando la tecnologÃa para mejorar la capacidad de los robots mejorados con IA para captar formas desconocidas. Goldberg dice que la tecnologÃa tiene “cientos de aplicaciones”, en campos que van desde el entretenimiento hasta la arquitectura.
El nuevo enfoque implica el uso de una red neuronal para capturar y generar imÃĄgenes en 3D a partir de unas pocas instantÃĄneas en 2D, una tÃĐcnica denominada “representaciÃģn neuronal”. SurgiÃģ de la fusiÃģn de ideas que circulaban en grÃĄficos por computadora e IA, pero el interÃĐs explotÃģ en abril de 2020 cuando investigadores de UC Berkeley y Google demostraron que una red neuronal podÃa capturar una escena de manera fotorrealista en 3D simplemente viendo varias imÃĄgenes en 2D de ella.
Ese algoritmo explota la forma en que la luz viaja por el aire y realiza cÃĄlculos que calculan la densidad y el color de los puntos en el espacio 3D. Esto hace posible convertir imÃĄgenes 2D en una representaciÃģn 3D fotorrealista que se puede ver desde cualquier punto posible. Su nÚcleo es el mismo tipo de red neuronal que el algoritmo de reconocimiento de imÃĄgenes de 2012, que analiza los pÃxeles en una imagen 2D. Los nuevos algoritmos convierten pÃxeles 2D en el equivalente 3D, conocido como vÃģxeles. Los videos del truco, que los investigadores llamaron Neural Radiance Fields, o NeRF, cautivaron a la comunidad cientÃfica.
âHace 20 aÃąos que me dedico a la visiÃģn por computadora, pero cuando vi este video, pensÃĐ: ‘Vaya, esto es simplemente increÃble’â, dice Frank Dellaert , profesor de Georgia Tech.
Para cualquiera que trabaje en grÃĄficos por computadora, explica Dellaert, el enfoque es un gran avance. La creaciÃģn de una escena 3D detallada y realista normalmente requiere horas de minucioso trabajo manual. El nuevo mÃĐtodo hace posible generar estas escenas a partir de fotografÃas ordinarias en minutos. TambiÃĐn proporciona una nueva forma de crear y manipular escenas sintÃĐticas. âEs seminal e importante, lo cual es una locura para decir de un trabajo que solo tiene dos aÃąosâ, dice.
Dellaert dice que la velocidad y la variedad de ideas que han surgido desde entonces han sido impresionantes. Otros han utilizado la idea para crear selfies en movimiento (o ” nerfies “), que te permiten moverte alrededor de la cabeza de una persona en funciÃģn de algunas imÃĄgenes fijas; para crear avatares en 3D a partir de una sola fotografÃa; y desarrollar una forma de volver a iluminar automÃĄticamente las escenas de manera diferente .
El trabajo ha ganado tracciÃģn en la industria con una velocidad sorprendente. Ben Mildenhall , uno de los investigadores detrÃĄs de NeRF que ahora estÃĄ en Google, describe el florecimiento de la investigaciÃģn y el desarrollo como “un maremoto lento”.
Los investigadores de Nvidia , que fabrica chips de computadora tanto para IA como para juegos de computadora, publicaron artÃculos que usan NeRF para generar imÃĄgenes 3D a partir de colecciones de fotos , para producir texturas mÃĄs realistas en animaciÃģn y seÃąalan avances para videojuegos . Facebook (ahora Meta) ha desarrollado un enfoque similar a NeRF que podrÃa usarse para desarrollar escenas en el tan cacareado Metaverse de Mark Zuckerberg . Yann LeCun, cientÃfico jefe de IA en Meta y pionero del enfoque que sacudiÃģ las cosas en 2012, califica el nuevo trabajo de “fascinante” y los resultados “bastante impresionantes”.
NeRF puede ser especialmente Útil para mÃĄquinas que operan en el mundo real. Goldberg, quien es uno de los principales expertos mundiales en agarre robÃģtico, y sus colegas usaron NeRF para entrenar a los robots para que den sentido a los objetos transparentes , normalmente un desafÃo debido a la forma en que estos objetos reflejan la luz, permitiÃĐndoles inferir la forma de un objeto basado en en una imagen de vÃdeo.
Los fabricantes de autos sin conductor tambiÃĐn estÃĄn encontrando usos para la idea. Durante una presentaciÃģn en agosto, Andrej Karpathy , director de IA de Tesla , dijo que la compaÃąÃa estaba usando la tecnologÃa para generar escenas 3D necesarias para entrenar sus algoritmos de conducciÃģn autÃģnoma para reconocer y reaccionar ante mÃĄs escenarios en la carretera.
Las ideas detrÃĄs de NeRF bien pueden ser importantes para la propia IA. Esto se debe a que comprender las propiedades fÃsicas del mundo real es crucial para darle sentido.
âEstos mÃĐtodos, que surgieron de los grÃĄficos por computadora, estÃĄn teniendo un gran impacto en la IAâ, dice Josh Tenenbaum , profesor del MIT que estudia los principios computacionales detrÃĄs del aprendizaje y la inferencia humanos.
Tenenbaum seÃąala el trabajo de Vincent Sitzmann , un profesor asistente reciÃĐn nombrado en el MIT. En 2019, Sitzmann y otros introdujeron por primera vez la idea de utilizar la representaciÃģn neuronal para generar representaciones 3D de objetos basadas en un nÚmero limitado de imÃĄgenes 2D de ellos.
El trabajo de Sitzmann no produce una imagen 3D fotorrealista completa: el algoritmo infiere la forma aproximada de un objeto a partir de una imagen incompleta. Esto es algo que los humanos hacen de forma rutinaria, seÃąala Tenenbaum. âSi quiero levantar algo, como la taza de cafÃĐ que tengo delante, mi sistema de percepciÃģn adivina implÃcitamente dÃģnde estÃĄ la parte posterior de la taza cuando cierro la mano alrededor de ellaâ, dice.
MÃĄs recientemente, Sitzmann; Semon Rezchikov , investigador de Harvard; y otros han mostrado una forma mÃĄs eficiente desde el punto de vista computacional para que una red neuronal represente una escena. Los mÃĐtodos en los que estÃĄn trabajando podrÃan permitir que los programas de IA identifiquen objetos por sus formas 3D, reconociendo un automÃģvil o una taza, incluso si el diseÃąo es radicalmente diferente de lo que ha visto antes.
En otras palabras, NeRF y las ideas relacionadas podrÃan, en Última instancia, permitir que la IA aprenda sobre el mundo de una manera mÃĄs sofisticada, allanando el camino para que los robots operen en entornos complejos y desconocidos sin cometer errores garrafales.
Tenenbaum dice que la evidencia de la ciencia cognitiva tambiÃĐn sugiere que el cerebro humano hace algo similar cuando una persona mira a su alrededor. âEs complicadoâ, dice sobre los pasos computacionales involucrados. âPero el cerebro tambiÃĐn es complicadoâ.
InformaciÃģn extraÃda de Wired, puedes ingresar en su sitio web https://www.wired.com/
Comparte esto:
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en Telegram (Se abre en una ventana nueva)
- Haz clic para imprimir (Se abre en una ventana nueva)