Inicio Noticiero Digital O los diseñadores de CGI se ponen las pilas o nuestros televisores...

O los diseñadores de CGI se ponen las pilas o nuestros televisores seguirán poniendo sus películas contra las cuerdas

Quién iba a decirlo. ‘Iron Man’, la película de 2008 dirigida por Jon Favreau, tiene un CGI (imágenes generadas por ordenador) más convincente que buena parte de las últimas películas estrenadas por Marvel. Algunas de las secuencias de ‘Spider-Man: No Way Home’ o ‘Doctor Strange en el multiverso de la locura’ tienen un acabado sorprendentemente menos logrado que el de la producción que puso la primera piedra del universo cinematográfico de Marvel.

‘Iron Man’ llegó a las salas de cine aproximadamente catorce años antes que las dos películas que acabo de mencionar, y, aun así, su acabado visual está mejor pulido. Lo preocupante es que este no es un caso aislado. Ni afecta solo a Marvel. Ahí va otro ejemplo si cabe más revelador: ‘Parque Jurásico’, la producción con la que Steven Spielberg nos dejó boquiabiertos en 1993, tiene un CGI y unos efectos especiales más creíbles y mejor resueltos que los de muchas películas estrenadas casi tres décadas después.

Un CGI mal resuelto puede arruinar la suspensión de la incredulidad

Es evidente que a los artistas involucrados en el diseño del CGI de las películas actuales no se les ha olvidado cómo deben hacer su trabajo. Entonces ¿qué ha provocado este descenso de la calidad de las imágenes generadas por ordenador? Una de las causas consiste en que cada vez más películas recurren a esta técnica, y, además, el CGI está presente cada vez en más metraje, lo que con frecuencia reduce el tiempo del que disponen los diseñadores para refinar el acabado de las imágenes.

No obstante, esto no es todo. También hay una razón de naturaleza técnica que explica por qué con frecuencia el CGI no da la talla: habitualmente se renderiza a 2K (2048 x 1080 puntos). Sin embargo, la mayor parte de las películas que se filman con cámaras digitales se ruedan con resolución 4K. Ambos elementos deben convivir en un mismo fotograma, por lo que para homogeneizar esta diferencia de resolución es necesario procesar las imágenes filmadas a 4K para pasarlas a 2K.

Después, una vez que se ha realizado la integración a esta última resolución de los elementos digitales y el metraje filmado originalmente a 4K todos los fotogramas se escalan a 4K utilizando algoritmos de inteligencia artificial. Este último procedimiento de escalado es necesario debido a que algunas salas de cine proyectan las imágenes utilizando proyectores 4K, y, sobre todo, porque los televisores con panel 4K UHD dominan el mercado doméstico con una claridad insultante.

Si el CGI no está muy bien resuelto el renderizado a 2K y su posterior escalado a 4K pueden no estar a la altura cuando disfrutamos ese contenido en un televisor con panel 4K UHD

El problema es que si el CGI no está muy bien resuelto el renderizado a 2K y su posterior escalado a 4K pueden no estar a la altura cuando disfrutamos ese contenido en un televisor con panel 4K UHD, especialmente si utilizamos un dispositivo de última hornada que es capaz de recuperar una gran cantidad de información. Actualmente buena parte de las salas de cine proyecta a resoluciones inferiores a 4K, por lo que si el CGI está cuidado el hecho de que esté renderizado originalmente a 2K en este contexto no es demasiado problemático.

Sin embargo, los televisores con panel 4K UHD no perdonan. Muchas de las películas que en los cines parecen tener un CGI correcto nos ofrecen una experiencia mucho menos satisfactoria cuando las vemos en nuestro televisor 4K UHD. Con frecuencia los elementos digitales de algunos fotogramas no resultan todo lo creíbles que deberían ser, y cuando se da esta situación la magia del cine puede irse al garete debido a que la suspensión de la incredulidad deja de funcionar.

She Hulk

El CGI de las primeras imágenes que vimos de ‘She-Hulk’, que llegará a Disney+ el próximo 17 de agosto, dejaba mucho que desear. En el último tráiler de esta serie parece haber mejorado, pero saldremos de dudas cuando comprobemos cómo luce en las teles 4K UHD.

Cuando vemos una película, especialmente si es de ciencia ficción, fantasía, acción o aventuras, los espectadores aceptamos voluntariamente la necesidad de dejar a un lado el criterio que utilizamos habitualmente para juzgar el mundo real. Aceptamos las reglas que nos propone la película debido a que si no lo hacemos es esencialmente imposible que podamos disfrutarla. Eso sí, para que este acuerdo tácito funcione es necesario que lo que vemos nos parezca coherente. Y no siempre lo es.

Un CGI mal ejecutado puede arruinar nuestra experiencia por mucha buena intención que pongamos de nuestra parte. Puede sacarnos de la película, sobre todo si su presencia en el metraje es constante. Y esto sucede habitualmente en las películas de superhéroes que se prodigan tanto en las carteleras desde hace años, de ahí que algunas producciones que cuentan con personajes de Marvel y DC hayan sido criticadas por muchos aficionados por tener un CGI deficiente.

Si queremos que el CGI no flaquee cuando vemos las películas que lo utilizan en un televisor 4K UHD lo ideal es que esté renderizado originalmente en 4K

La solución a este problema pasa por refinar las imágenes generadas por ordenador sin dejarse atenazar por los apretados plazos con los que trabajan las productoras cinematográficas. Películas como ‘Iron Man’, ‘Parque Jurásico’ y muchas otras demuestran que es posible elaborar un CGI creíble y muy satisfactorio. Y los cineastas lo saben. Pero esto no basta. Si en nuestras casas tenemos mayoritariamente televisores 4K UHD y queremos que el CGI no flaquee cuando vemos las películas que lo utilizan en ellos no cabe duda de que lo ideal es que esté renderizado originalmente en 4K.

El problema es que el tiempo es un recurso muy valioso, y no está claro que las productoras estén dispuestas a dilatar más el que invierten en la postproducción de algunas de sus películas. El otro ingrediente de la receta, el renderizado a 4K, también representa un compromiso importante debido a que el esfuerzo computacional que es necesario afrontar para renderizar un fotograma a esa resolución es mucho mayor que el que implica hacerlo a 2K. En cualquier caso, tarde o temprano los cineastas tendrán que pasar por el aro. De lo contrario nuestros televisores continuarán sacando a relucir todas las imperfecciones de su trabajo.

Publicidad