¡Todos los productos son NUEVOS y con 1 AÑOS de garantía!

Bateríasadaptador.es baterías Pago Seguro y Sencillo,Transmisión de Datos con Cifrado SSL.Nuestro objetivo consiste en la satisfacción de nuestros clientes.

PS5 y Xbox Series X necesitan algo más que gráficos: así funcionan Tempest Engine y Project Acoustics, su sonido por 'ray tracing'

PlayStation 5 y Xbox Series X ya están cerca. Aún tendremos que esperar varios meses para poder hacernos con estas consolas de nueva generación (tanto Sony como Microsoft han asegurado que llegarán a las tiendas antes de Navidad), pero al menos tenemos la información que necesitamos acerca de ambas máquinas para intuir con cierta precisión qué experiencia van a proponernos.

Si nos ceñimos a su hardware y dejamos a un lado los juegos que ya han sido anunciados para ambas consolas hasta ahora observaremos que las características que más ruido están haciendo son su capacidad gráfica y su unidad de almacenamiento SSD. Sin embargo, estos no son en absoluto los únicos subsistemas del hardware de estas máquinas que nos prometen un avance muy significativo frente a lo que nos han propuesto PS4 y Xbox One. En materia de sonido PlayStation 5 y Xbox Series X ponen sobre la mesa unas innovaciones tan atractivas como las que condicionan sus gráficos y el rendimiento de su almacenamiento secundario. Esta es la razón por la que el audio es el auténtico protagonista de este artículo.

Qué tienen en común TrueAudio Next de AMD y el 'ray tracing' para iluminación
Las presentaciones en las que Microsoft y Sony han ido desvelando las características de sus próximas consolas reflejan con claridad que el itinerario de estas dos compañías para la nueva generación concluye en una meta común: la búsqueda del máximo realismo. La técnica de renderizado que recurre al trazado de rayos (ray tracing) ocupa una posición central en lo que se refiere a los gráficos, pero lo curioso es que el sonido de ambas máquinas también se beneficiará de una innovación que tiene mucho en común con el trazado de rayos para iluminación.

Los algoritmos de renderizado mediante trazado de rayos imitan cómo se comporta la luz en el mundo real para generar imágenes bidimensionales a partir de modelos en 3D con un acabado fotorrealista

Los fundamentos de ambas técnicas son tan similares que la mayor parte de los medios de comunicación y los foros se refieren a la que persigue recrear el sonido como ray tracing de audio (incluso NVIDIA lo llama así), cuando, en realidad, lo ideal sería llamarla trazado de ondas de sonido. En cualquier caso, la denominación de esta tecnología no es realmente lo importante. Lo relevante es saber cómo funciona, y, sobre todo, qué impacto pretende tener en nuestra experiencia.

Para que podamos identificar cómo funciona el trazado de ondas de sonido y en qué medida se parece al ray tracing para iluminación nos viene bien repasar brevemente en qué consiste este último. Los algoritmos de renderizado mediante trazado de rayos imitan cómo se comporta la luz en el mundo real para generar imágenes bidimensionales a partir de modelos en 3D con un acabado fotorrealista. En el mundo real la interacción entre la luz y los objetos es compleja, y si queremos que nuestra imagen sea fotorrealista es necesario que nuestro algoritmo imite esta complejidad.

El renderizado mediante ray tracing resuelve este reto recreando unas líneas imaginarias que parten desde el punto en el que está situada la cámara virtual, que es el punto exacto desde el que observamos la escena en 3D. Esas líneas, o rayos, prosiguen su trayectoria hasta «chocar» con alguno de los objetos de la escena tridimensional, y cuando se produce esta colisión el motor de renderizado lleva a cabo unos cálculos matemáticos muy complejos para averiguar cuál debe ser el tono exacto que tiene que tener cada píxel de la imagen. Pero hay algo más.

Para obtener un acabado fotorrealista es necesario que el algoritmo tenga en cuenta que una parte de la luz que incide sobre la superficie de los objetos se refleja, y esa luz reflejada también interacciona con otros objetos del entorno, generando una cascada de interacciones que no es fácil resolver. Cuando un rayo incide sobre la superficie de un objeto puede generar tres nuevos tipos de rayos: refracciones, reflexiones y sombras. La precisión con la que el algoritmo de renderizado resuelve estas interacciones condiciona el acabado final que va a tener el fotograma bidimensional que estamos recreando.

El coste computacional que tiene el 'ray tracing' es muy alto, pero los procesadores gráficos tienen algo a su favor: en su arquitectura prevalece de forma natural el paralelismo a gran escala

El ray tracing aplicado a la iluminación imita de una forma bastante precisa la manera en que funciona nuestro sistema visual, y si está bien implementado puede devolvernos unas imágenes con un realismo asombroso. Para que el resultado esté a la altura es imprescindible resolver otros retos, pero no es necesario que compliquemos más este artículo desarrollándolos. Si os apetece conocer con más precisión cómo funciona el trazado de rayos os sugiero que leáis el artículo en el que lo explicamos de forma pormenorizada.

Todo lo que hemos visto hasta ahora nos permite intuir que el coste computacional que tiene el ray tracing es muy alto. Un procesador de propósito general puede llevar a cabo los cálculos de un algoritmo de trazado de rayos, pero habitualmente su rendimiento será muy bajo y difícilmente nos permitirá disfrutar una cadencia de imágenes por segundo en tiempo real suficiente para que nuestra experiencia con los juegos sea óptima. Sin embargo, los procesadores gráficos tienen algo a su favor: en su arquitectura prevalece de forma natural el paralelismo a gran escala, por lo que es posible introducir unidades específicas para resolver de una forma eficiente los cálculos que requieren los algoritmos de renderizado mediante trazado de rayos. Esto es, precisamente, lo que ha hecho NVIDIA en sus GPU de la familia GeForce RTX. Y también lo que hará AMD en sus próximos procesadores gráficos.

Aunque no hemos indagado en los detalles más complejos, ya conocemos de una forma lo suficientemente certera cómo funciona el ray tracing para iluminación, lo que puede ayudarnos a entender también cómo funciona y qué persigue el trazado de ondas sonoras. Al igual que los motores de renderizado de imágenes que recurren a esta técnica, los algoritmos de renderizado del sonido mediante trazado de ondas aspiran a recrear un campo sonoro envolvente lo más realista posible. Y para lograrlo deben emular cómo se propaga el sonido a través del aire desde la posición de la fuente que lo emite y cómo esas ondas sonoras interaccionan con los objetos y las superficies del entorno, absorbiendo una parte de la energía acústica y reflejando otra parte en una dirección diferente.

Los algoritmos de renderizado del sonido mediante trazado de ondas aspiran a recrear un campo sonoro envolvente lo más realista posible
De nuevo, tal y como sucede cuando tratamos con la luz, la complejidad de este proceso es muy alta. Si el algoritmo de recreación del sonido es capaz de resolver correctamente todas esas interacciones podría ofrecernos un campo sonoro preciso, muy realista y completamente envolvente, pero, al igual que el trazado de rayos, el coste computacional que requiere llevar a cabo todos los cálculos es muy alto para un procesador de propósito general. Afortunadamente, tal y como sucede con el ray tracing, la arquitectura inherentemente paralela de los procesadores gráficos les permite enfrentarse a este reto con muchas más garantías que a los procesadores de propósito general.

Además, al lidiar con el audio hay otro reto en el que aún no hemos indagado: no todos percibimos el sonido exactamente de la misma forma. Las características físicas de nuestra cabeza y nuestras orejas intervienen en la forma en que nuestro sistema auditivo recoge el sonido, lo que también tiene un impacto perceptible en nuestra experiencia que, idealmente, el algoritmo de renderizado de audio debería tener en cuenta.