La meilleure démonstration des avancées technologiques de Final Fantasy XIII est certainement sa partie cinématique. Il faut dire que le premier épisode sur console de nouvelle génération compte neuf heures de séquences cinématiques, dont six lues en temps réel par la console. Afin de produire six heures de vidéo sans jamais faire de compromis sur la qualité technique, l’équipe du jeu a dû faire preuve d’organisation et de polyvalence. C’est ce que Yûsuke Tanaka (directeur de l’animation des cinématiques) et Koji Kobayashi (réalisateur des cinématiques) sont venus expliquer lors de cette conférence, qui est une redite en anglais d’une autre présentation faite en japonais en décembre 2009 lors du SIGGRAPH Asia 2009.
Yûsuke Tanaka et Koji Kobayashi
Yûsuke Tanaka a travaillé sur tous les Final Fantasy du VII au X-2 avant de prendre la tête de l’équipe chargée de l’animation des personnages dans les cinématiques du XIII. Koji Kobayashi, de son côté, a été artiste en chef pour les séquences cinématiques de ces mêmes épisodes, à l’exception du X. En revanche, il a participé au film Les Créatures de l’esprit. Avant toute chose, ils ont tenu à expliquer la composition de l’équipe de développement de FFXIII. Les branches directement concernées par la réalisation des séquences sont indiquées en rouge :
Pour concevoir ces six heures de vidéo, les programmeurs avaient seize mois devant eux. La tâche était bien sûr immense, mais l’équipe savait qu’elle ne pouvait pas faire machine arrière : elle devait créer un volume énorme en un temps limité sans sacrifier la qualité. Il fallait à tout prix mettre en place l’ordre dans lequel le travail serait réalisé, et les tâches qui pouvaient être accomplies en même temps. L’organisation passait par la mise en place d’une équipe où chacun avait un rôle précis. Au total, 120 personnes ont travaillé sur les graphismes du jeu, dont 40 spécifiquement sur les cinématiques.
Voici l’organisation du travail mise en place par l’équipe de Tanaka et Kobayashi.
– Ecriture du scénario
Avant de se lancer dans la réalisation des cinématiques, il faut un matériau sur lequel travailler. Dans le cas d’un jeu, il s’agit bien sûr du scénario, qui est imaginé et écrit par une équipe spécialisée. Comme la mise en scène des séquences cinématiques nécessite un travail long et précis et qu’elle implique plusieurs équipes, les scénaristes ne peuvent plus se permettre de changer l’un ou l’autre détail quand le développement avance. Cela était envisageable sur la première PlayStation car les graphismes étaient le plus souvent en 2D et il n’y avait aucun doublage, mais sur PS3, trop de facteurs entrent en jeu pour se permettre un changement radical qui soit trop tardif.
Un aperçu du storyboard original
– Planification, conception et vérification du storyboard
Une fois le scénario prêt, la première étape est toujours celle du storyboard. Une équipe spécialisée noircit ainsi des pages entières, sous la direction d’un réalisateur (Yoshinori Kanada dans le cas de FFXIII), pour décider de la mise en scène de chaque plan du jeu.
Les graphismes de la première étape sont très grossiers
– Première étape
A partir des données fournies par l’équipe de storyboard, les programmeurs conçoivent une première version des cinématiques grâce au logiciel MotionBuilder d’AutoDesk. Le résultat est très grossier, mais permet d’obtenir une bonne idée de ce vers quoi la réalisation de la cinématique tend. Ils ont choisi ce logiciel pour trois raisons : il possède de nombreuses fonctions, il est compatible avec les OS 64 bit et il gère bien les données de motion capture. Ce dernier atout est essentiel car la MC est précisément l’étape suivante.
Pour la MC, il faut les bons accessoires
– Préparation, enregistrement et traitement de la motion capture
L’équipe chargée des cinématiques prépare des documents de travail basés sur le storyboard ainsi que des accessoires pour aider les acteurs lors de l’enregistrement de la motion capture. Grâce aux fonctions de MotionBuilder, les données obtenues lors des phases de MC sont intégrées aux scènes de l’étape 1, et les ajustements nécessaires sont opérés en vue de la préparation de l’étape 2. Même si le logiciel est très complet, l’équipe de Square Enix y a tout de même ajouté un plugin permettant de manipuler les angles de caméra.
Un outil permet de transférer les données vers le moteur du jeu
– Deuxième étape
A ce moment de la conception, les données sont transmises au moteur du jeu, le Crystal Tools. Cela est possible grâce à un outil développé en interne par Square Enix, qui convertit les fichiers du format MotionBuilder à celui de Crystal Tools. L’un des logiciels de ce moteur, CutEditor, est entièrement dédié à l’édition des cinématiques, et sert donc d’alternative pour continuer le travail. Cependant, maintenant qu’une version plus précise des cinématiques a été créée, le travail va devoir être réparti entre plusieurs équipes : les animateurs et les créateurs d’effets visuels. Le squelette est en place, il lui faut désormais les muscles et la peau.
L’animation des corps demande des ajustements
– Animation
A partir des données générées pour la mise au point de la deuxième étape, l’équipe chargée de l’animation répartit son travail entre deux groupes : le premier, qui compte le plus de programmeurs, se consacre à l’animation des corps, tandis que le deuxième est chargé des animations faciales. Si les deux groupes travaillent simultanément, les programmeurs des animations faciales dépendent d’une autre équipe, celle des doublages. En terme d’animation du corps, la motion capture ne suffit pas à réaliser l’ensemble de l’animation des personnages du jeu, il faut procéder à des trucages pour certaines séquences de cascades.
Pour cet épisode, la synchronisation labiale a été très soignée
– Animation faciale
Une partie de la synchronisation labiale est automatisée grâce à VORERO, un logiciel de reconnaissance des phonèmes conçu par Asahi Kasei. Cependant, dans certains cas (par exemple, une réplique trop rapide), le logiciel n’arrive pas à suivre, ce qui contraint les animateurs à procéder à une synchronisation manuelle. La finalisation de l’animation ne peut avoir lieu qu’une fois les doublages définitifs enregistrés.
Le contenu en temps réel doit parfois correspondre aux cinématiques pré-calculées
– Préparation et conception des effets
En réalité, l’équipe chargée des effets visuels se met au travail dès la fin de la première étape. A partir de ce premier prototype des séquences, ils imaginent les effets qu’ils vont devoir créer. Une fois la deuxième étape passée, la vraie création peut commencer. Pour cela, les programmeurs utilisent EffectEditor, l’un des logiciels du moteur Crystal Tools, capable de gérer les shaders. L’une des particularités de ce logiciel est qu’il permet de visualiser chaque effet tel qu’il apparaîtra dans le jeu, et de le manipuler à partir d’une manette. Cette fonction est idéale pour modifier rapidement sur PC un élément qui pose problème à l’écran.– Intégration des données
A ce moment, toutes les données conçues par les animateurs et les créateurs d’effets spéciaux sont regroupées pour constituer les graphismes tels qu’ils sont visibles dans le jeu. Les cinématiques sont montées, les animations terminées, les textures appliquées, il ne reste plus qu’un élément, et non des moindres.
Une image sans filtre, puis avec flou de distance, et enfin effet de brillance
– Eclairage
La dernière étape avant la finalisation des cinématiques est le travail d’éclairage, qui est lui aussi rendu plus facile par l’existence d’un outil de visualisation sur écran. A cela, il faut ajouter les différents filtres tels que l’ajustement des couleurs, le flou de distance et le rayonnement. Tout cela peut être géré grâce au moteur Crystal Tools.
En conclusion de cette présentation, Yûsuke Tanaka n’a pas caché qu’il n’était pas entièrement satisfait du degré de qualité atteint à cause du timing serré, mais qu’il est prêt à repousser encore une fois les limites de la technologie sur un prochain projet. Il faut dire que le prestige de Square Enix est en jeu.