Bâtisseurs et spectateurs

Mes premières expériences de jeu en réseau remontent à une époque de terminaux
texte, avec des MUD (Multi User Dungeon). Ces jeux, hérités des aventures
textuelles, ajoutaient une composante multi joueur, dans laquelle il était
possible de croiser d’autres joueurs et d’interagir.

Exploration, découverte, combat, énigmes,… C’était sympa. Il me manquait
cependant une composante : pouvoir agir sur le monde. L’étudiant qui m’avait
fait découvrir les MUDs, lui, était opérateur d’un de ces jeux et pouvait donc
modifier, changer les règles, ajouter des morceaux. Créer.

Cette partie me manquait cruellement et j’ai donc commencé la programmation
réseau, avec plus ou moins de succès, à ce moment là. Les mondes proposés me
semblaient trop statiques.

Un peu plus tard, une composante graphique a été jouée. Crossfire, en vue de
dessus, m’a occupé un bon moment. Son principal soucis était la stabilité de
ses serveurs, démarrés par-ci par-là par des universitaires. Les mêmes
composantes y étaient : exploration, découverte, combat, énigmes,… Il était
possible d’éditer le monde lorsqu’on était administrateur. Mais pas en tant
que joueur.

C’est là que je me suis essayé à la construction de parties du monde, ancêtre
de ce que l’on nommerait MOD à présent.

L’immersion, avec son affichage graphique, était meilleure qu’avec le MUD,
mais permettait moins de fantaisie (il y a des choses qui s’écrivent et ne se
dessinent pas).

Le jeu d’aventure en réseau s’est mis en pause pour moi après cela. L’arrivée
de Doom a réveillé le jeu à plusieurs, mais cela restait du local, il n’y
avait plus cette dimension MMO à une époque où le terme n’existait pas.

C’est avec Everquest que je me suis replongé dans un monde fantasy en réseau.
Le terme MMO est apparu, désignant pour moi quelque chose qui existait déjà,
avec cependant une nouveauté : des serveurs stables, et, avec la popularité
grandissante d’Internet, des joueurs plus variés et nombreux.

Le manque constant

Et encore une fois, après avec exploré, découvert, rencontré quelques joueurs,
j’ai constaté que le monde ne bougeait pas. Des factions de joueurs se sont
montées, sur ce jeu comme les autres, pour faire du RP (Roleplay) et
d’inventer des histoires dans l’histoire. Mais dans un monde parfaitement
immobile, difficile d’amener un semblant de vie.

À partir de là, j’ai regardé les MMOs et les jeux en lignes en général d’assez
loin. Demandant un investissement en temps considérable pour pallier à
l’immobilité du concept, et surtout, n’offrant au joueur aucun moyen
d’influer sur le monde. À part peut-être pour quelques joueurs très influents.

J’ai bien entendu vu passer EVE Online, dont les concepts novateurs étaient
attirant, en plus d’offrir une vraie possibilité d’influence et un monde
vivant. Cependant, après quelques discussions, j’ai compris que là encore, à
mois d’un investissement considérable en temps, il était impossible d’y jouer.

Creuser, construire

Un jour, j’ai découvert Minecraft. Dans une version du début. On ne me l’a pas
vraiment présenté, j’ai du voir ça au détour d’une annonce sur un site. Je
l’ai lancé, j’ai vu des trucs construits, la nuit est tombé, je suis mort.
Bref, une première partie de Minecraft standard lorsque personne n’explique le
jeu.

J’ai mis un peu de temps, en revenant de temps en temps au jeu, avant de
comprendre que ce jeu avait exactement ce qui me manquait dans tous les jeux
d’aventures en ligne auxquels j’avais joué précédemment : la possibilité de
modifier le jeu en tant que simple joueur.

Suivant les serveurs, les règles changent. Certains ferment les modifications
pour offrir un clone d’un autre jeu ; Minecraft en temps que plateforme permet
aussi cela. D’autres laissent complètement ouverts, mais comprennent
rapidement que certains joueurs prennent leur plaisir à gâcher celui des
autres.

Et puis certains serveurs trouvent un équilibre et offrent quelques règles et
laissent les joueurs créer ce qu’ils ont envie. Un peu comme dans un jeu de
rôle qui offre un monde et quelque règles puis laissent les joueurs agirent et
prenant les responsabilités de leurs actions.

Construire...

Construire…

Aventures spontanées

Exploration du monde, découvertes d’endroits (construits par le serveur ou par
les joueurs), combats, énigmes, interactions entre joueurs, entre aide ou
confrontations. Les caractéristiques d’un MMO sont là.

Mais Minecraft y ajoute selon moi le sel essentiel à une expérience vivante :
la possibilité d’intervenir sur le monde, de la modifier, d’avoir une vraie
influence.

Et ainsi de bâtir son expérience, plutôt que d’être spectateur d’une
expérience décidée.

Mon FPS est plus grand que le tiens

Votre jeu est-il en 60 FPS ou en 30 ? Ou bien c’est pas grave car il est en 1080p ? Est-ce que 720@60 est mieux que 1080@30 ? Et d’ailleurs, c’est quoi ça, au fait, un FPS ? First Person Shooter c’est ça ? Qu’est ce que tout ça vient faire dans des débats sur l’image la plus belle et la plus fluide. À moins que…

(à la fin de l’article, vous trouverez de quoi jouer avec les FPS)

On respire un coup

À longueur de forum ou de fil Facebook, en commentaires dans les news du plus célèbre au plus obscure des sites de jeu vidéo, les débats font rages pour savoir quel jeu à la plus belle image, le plus beau rendu. Au point qu’il est difficile parfois de savoir si le jeu offre une expérience ludique intéressante.

L’un des termes, dégainé rapidement, est l’argument du FPS, Frame Per Second. À la décharge des commentateurs effrénés, ce ne sont pas eux qui ont commencé, mais bien le service marketing de certains gros hits ou de techno qui ressortent régulièrement que si tu n’as pas ton gros FPS, t’es rien qu’un produit dérivé de F2P en Flash qui spam les amis Facebook.

Vous voyez la bataille faire rage, mais vous n’êtes pas très sûr de vous ? Vous ne voulez pas engager le bout de l’orteil dans une suite de commentaire où vous vous feriez traiter de n00b sur sept générations ?

Voici quelques éléments pour vous aider à ne pas entrer dans le débat, à prendre un peu de hauteur ou de recul, selon votre choix. Ou plutôt, d’y aller à votre vitesse.

Frame Per Second

Le principe est simple : combien d’images est-ce que la machine affiche en une seconde lorsque vous jouez ? Cette mesure qui ne sert pas seulement à bomber le torse est importante car elle donne une idée (partielle) de la fluidité perçue. Et de cette fluidité va découler l’immersion, la réactivité du jeu et une partie du plaisir de jouer.

L’illusion du mouvement par une suite d’images profite de notre vision imparfaite pour faire bosser notre système oculaire et surtout le cerveau qui est derrière afin de donner l’illusion du mouvement. Ce n’est pas différent du cinéma et ça se fait tout seul. Il n’y a pas besoin de forcer.

À combien c’est bien ?

C’est très variable. Le cinéma ordinaire est normalisé à 24 images par seconde, les télévisions française en SECAM à environ 25 images par seconde et américain/japonaises à 30 images par seconde. Les écrans cathodiques correspondants étant rafraîchis respectivement 50 et 60 fois par seconde (tout simplement car le courant à la prise est à cette fréquence, c’était juste plus simple).

Ça suffisait bien. Alors qu’apporte plus d’images : une plus grande fluidité, moins d’effort sur le système oculaire et donc moins de fatigue. Globalement, c’est plus agréable.

De plus, les images de synthèses et digitales sont plus crues et plus nettes qu’une image filmée. Les mouvements étant moins lissés par le flou, les sauts entre les images se voient un peu plus. Plus d’images permettent de garder une image générée propre et nette sans avoir recours à des procédés de flous de mouvement. C’est beau, c’est net, c’est précis.

Les écrans cathodiques, c’est dépassé

Cette phrase, qui fait hurler les amateurs de retro gaming par amour du pixel baveux, sous entend que les problèmes de rafraîchissement, initialement dus au balayage d’un faisceau d’électron sur la surface du tube, n’aurait plus court.

Il se présente cependant toujours, bien que différent. Mais l’image doit bien être rafraîchie, et chaque pixel change de couleur à un moment où à un autre. Pour le confort de la perception, mieux vaut que l’image soit cohérente lors du changement.

Cette cohérence est assurée par la synchronisation verticale ainsi que par l’adéquation du nombre d’images générée avec la vitesse de rafraîchissement de l’écran dans sa globalité (c’est-à-dire que l’on fait abstraction de la technique physique de l’affichage ici).

De la cohérence avant tout

Votre esprit affûté a sans nul doute remarqué que pour les US, 30 était la moitié de 60 et que pour la France, 25 était la moitié de 50 (à vrai dire, la division par 2 fonctionne de la même manière dans les deux pays… ce n’est pas le sujet).

C’est la partie adéquation. Le nombre d’image généré comme une division entière du nombre de rafraîchissement est une bonne idée. En effet, si il y a plus d’images (finales) générées que de rafraîchissements, il y aura des images en trop qui au mieux ne serviront pas, au pire étaient calculées pour facilité le travail d’interprétation du spectateur. S’il y a moins d’images mal réparties, il peut y avoir un effet de saccade.

Par exemple, 2 images sont générées pour 3 rafraîchissements. Au mieux, 1 image sera affichée pendant un rafraîchissement et les 2 autres pendant un autre rafraîchissement. L’alternance d’une image deux fois plus longue que la suivante va être désagréable.

Cet effet, un peu moins prononcé, était très visible avec les magnétoscopes qui transcodaient le NTSC à 60 Hz vers le PAL à 50 Hz. Particulièrement dans des séquences avec une image de décor se déplaçant horizontalement ou verticalement pendant quelques secondes.

Et de la synchronisation

La partie synchronisation est celle qui attend que le système d’affichage signal qu’il a fini son rafraîchissement et va en commencer un nouveau pour présenter au système une nouvelle image toute prête.

(petite aparté ici : j’évoque les systèmes affichages courant et majoritaire, il y a des exceptions dont je pourrai parler une autre fois)

Cette partie, lorsqu’elle est ignorée (ou désactivée) permet à un système de ne plus être esclave du taux de rafraîchissement. Le prix à payer est un méchant effet de déchirement horizontal de l’image : la partie haute et la partie basse de l’image ne correspondent pas. Pire, l’endroit de la déchirure peut varier d’une image à l’autre.

Mais moi je veux du 50 !

C’est vrai ça ! Pourquoi parler de 60 FPS, ou 30 FPS, alors que le rafraîchissement des télévisions françaises est à 50 FPS ?

Car il ne l’est plus obligatoirement depuis un bout de temps maintenant. Sur la fin de l’ère cathodique, les écrans télé étaient déjà capable en grande partie de se rafraîchir à 50 Hz ou 60 Hz. Les moniteurs d’ordinateurs eux, étaient capables d’afficher à plusieurs taux. Mais pas n’importe quel taux tout de même.

C’est encore plus vrai avec l’ère des écrans numériques/plats.

Bon mais alors pourquoi 60 et pas 50 ? Par adéquation au standard américain j’imagine. D’un point de vue jeu vidéo, cela signifie qu’il y a moins de temps pour le rendu d’une image. Pour la perception visuelle, 60 est meilleur que 50. Aujourd’hui, l’important est surtout de respecter la cohérence du système de rafraîchissement et de rester constant.

60 Hz est d’ailleurs ce qui va sortir de votre console dernière génération sur votre télé pas trop vieille. Lorsque vous jouez sur un ordinateur personnel, la fréquence peut être différente.

La constance

On l’a déjà vu, caser 2 images dans 3 rafraîchissement, ça donne quelque chose de désagréable. Plus qu’un FPS élevé à tout prix, l’importance primordiale est de maintenir un FPS constant. Et les variations seront plus désagréables, pour une image synchronisée à l’affichage, que le FPS sera important.

Un jeu qui oscille entre 60 FPS et 30 FPS amènera une forte impression de saccade si le jeu est dynamique.

D’ailleurs, si beaucoup d’observateurs d’écran ne font pas la différence entre du 60 FPS ou du 30 FPS (si si, même des professionnels), à peu près tout le monde détecte l’inconstance.

Les variations de FPS ont qui plus est des effets de bords. La simulation physique la plus simple qui soit est mise à mal par une variation. En effet, le jeu doit calculer la position de chaque élément à l’écran pour l’image suivante. Pour les objets en mouvements, il faut donc prévoir une position cohérente avec sa vitesse simulée. La position étant une fonction du temps, les calculs se font en choisissant quel sera le temps passé entre l’image affichée actuellement et la suivante en train d’être calculée.

Le moyen le plus simple pour faire ce choix est de regarder l’historique. Et généralement pas plus loin que le dernier temps obtenu : le temps entre les deux dernières images affichées.

C’est physique

Si ce temps était d’environ 16 ms (temps entre deux images à 60 FPS) alors les calculs de déplacement vont positionner les objets tels qu’ils devraient l’être 16 ms après l’image actuellement affichée.

Oui mais… mais… si le calcul de cet image est plus long. Oh pas de beaucoup, il suffit d’avoir dépassé et d’avoir pris 17 ms pour descendre à 30 FPS (pourvu que la synchronisation verticale soit respectée). Et bien la nouvelle image affichée présentera des objets ayant parcouru une distance pendant 16 ms… mais après une attende de 32 ms !

Autrement dit, les objets auront instantanément vu leur vitesse divisée par deux.

À partir de là, cela peut devenir catastrophique : le programme doit-il considérer que c’était une erreur et faire comme si de rien n’était, garder un temps d’intervalle de 16 ms ? Ou bien se caler sur 32 ms ? S’il fait le choix de 32 ms mais que le calcul de l’image revient sous les 16 ms, les objets vont alors voir leur vitesse être multipliée par 2 sur cette image.

Et l’oscillation entre les deux accentue l’effet de saccade.

Pour ces raisons, certains jeux bloquent artificiellement leur FPS à plus bas qu’ils ne pourraient tourner (généralement 30 FPS, très courant sur consoles). D’autres choisissent de tourner le plus vite possible et proposent de désactiver la synchro, pour éviter le côté « loupé de peu ». Certains réintègre une passe de simulation physique en cas de calculs trop longs, avec le risque que ce soit justement la physique qui soit coûteuse et donc entrer dans un cercle vicieux.

Les techniques sont nombreuses et variées.

Quoiqu’il arrive, 16 ms, c’est court, très court, et faire tourner un jeu chargé en éléments (par rapport à son époque) est une décision de projet qui demande une attention de tous les instants et une volonté éditoriale.

Et maintenant, on s’amuse

Je vous propose un petit programme pour vous amuser avec les FPS.

 

Playstation Plus : La bonne idée ?

Après quelques mois à me dire que c’était inutile, quelques mois à me dire que les jeux offerts étaient quand même intéressants, et enfin quelques mois à me dire que ça me permettrait d’avoir une petite collection le jour ou je déciderais de m’acheter une Playstation 4, j’ai craqué, et je me suis pris un abonnement Playstation Plus.

La bonne idée pour Sony ?

Jusqu’ici, le online chez Sony était gratuit, et pour pouvoir gérer des frais importants avec leur nouvelle console, ils ont décidé de le rendre payant. Une annonce plutôt mal accueillie au départ par les joueurs, mais que Sony a réussi à faire passer plutôt facilement, en ne proposant pas un nouvel abonnement, mais juste une service supplémentaire du programme Playstation Plus, qui existe depuis 2010…

En plus du online pour Playstation 4, le programme Playstation Plus offre tout un tas de services :

  • Stockage de sauvegarde sur le Cloud
  • Avatars et fonds d’écrans
  • Tests de jeux pendant une heure gratuitement
  • Réductions sur des jeux
  • Bêta test en exclusivité
  • Démos de jeux en avance par rapport aux utilisateurs normaux
  • Des jeux « gratuits » tous les mois

Il y a un côté VIP avec les démos, bêta test, et autres avatars, les réductions ne concernent pas forcément toujours des jeux qui nous intéressent, mais ce sont essentiellement les jeux gratuits qui jusqu’ici motivaient les joueurs à s’abonner.

En résumé, chaque mois, vous aurez la possibilité de télécharger un ou plusieurs jeux gratuitement, pour PS3, PSVita, et PS4. Cela veut dire que si vous avez les trois dernières consoles de Sony, ça fait minimum 3 jeux gratuits par mois (et en réalité, c’est souvent plus), parmi les mieux notés, ce qui correspond à des jeux ayant une note Metacritics au dessus de 70, comme le précise Sony sur son site, on parle donc de jeux populaires, vous ne les apprécierez peut-être pas tous, et bien sûr ça ne sera pas non plus les dernières nouveautés, même si sur Playstation 4 ils n’ont logiquement pas eu le choix le premier mois.

Il faut cependant bien comprendre le fonctionnement de ce que Sony appelle la « collection de jeux instantanée ».
Les jeux téléchargés sont à vous toute la durée de votre abonnement, il y a comme une sorte de compteur qui désactivera le jeu lorsque votre abonnement prendra fin, si vous vous réabonnez, que ce soit tout de suite après la fin de votre ancien abonnement, ou plusieurs mois après, les jeux seront de nouveau actifs.
Vous pouvez consulter la date de validité du jeu directement depuis les informations (en faisant triangle sur le jeu sur votre PS3 par exemple).
Il y a apparemment quelques exceptions, cela concernerait certains jeux dématérialisés qui n’affichent pas de date de fin de validité dans les informations, je n’ai pas pu vraiment avoir de confirmations sur ce point.

Donc en gros, c’est comme si vous vous abonniez à un service de VOD, vous avez plein de films, mais à la fin de l’abonnement vous n’avez plus rien, si ce n’est une petite collection de trophées…

Sony n’est pas le seul à proposer un tel système, Microsoft offre également des jeux à ses abonnés avec le service Game with Gold.
Toutes les deux semaines un jeu est téléchargeable, on constate cependant qu’il y a moins de gros « hits » proposés, et actuellement ça ne concerne que la Xbox 360, rien pour la Xbox One.
Il y a par contre une grosse différence, c’est qu’à l’inverse de Sony, les jeux offerts le sont pour de bon, à la fin de votre abonnement, ils continueront tous de fonctionner.

Même si son offre n’est pas parfaite, Sony offre quand même tout un tas de services intéressants, et pour les nouveaux joueurs Playstation 4, ça fait passer la pilule du online payant.

La bonne idée pour les gamers ?

Honnêtement, je n’aurais jamais payé un tel abonnement si ça n’avait concerné que le jeu en ligne, mais quand on commence à agiter devant mon nez tout un tas de jeux, là ça me parle, même si ces derniers ne me sont pas vraiment offerts, mais loués.

Il faut savoir que vous pouvez acheter tous les jeux gratuits, même si vous n’avez pas encore la console, ainsi en m’abonnant j’ai pu commencer à me constituer une collection de jeux Playstation 4 et c’est peut-être précisément ce qui m’a motivé pour m’abonner.

Je savais que c’était le dernier mois pour récupérer Resogun gratuitement, et que la Playstation 4 était en rupture de stock. En m’abonnant, j’ai pu le mettre dans ma collection instantanée, et dès que la Playstation 4 arrivera chez moi, je pourrais directement le récupérer.

Je ne suis pas particulièrement fan de dématérialisé, parce que j’ai l’impression de ne pas avoir le jeu, pourtant là c’est exactement ça, je n’ai pas le jeu, je le loue clairement, comme si je m’étais abonné à une médiathèque, et bizarrement, ça ne me gêne pas tant que ça au final.

L’abonnement coute à l’année presque 50 euros, c’est le prix d’un jeu neuf en boite, et pour ce prix on a donc minimum 12 jeux par console, soit 36 si on a les trois consoles, ça donne 1,39 euros la location du jeu à l’année, et je compte bien le minimum, puisque depuis que je suis abonné il y a eu bien plus d’un jeu par mois. Quelque part, le tarif me convient pour de la location, et si parmi ces jeux il y en a vraiment un que j’adore, si il existe en boite, je l’achèterais de toute façon.

Donc si je regarde ce que me coute l’abonnement, le nombre de jeux que j’ai déjà pu récupérer et ceux que je récupèrerais, ça me semble acceptable.

Je me demande juste jusqu’à quand ce service existera, et fonctionnera pour les vieilles consoles, car bien sûr il y aura bien un jour ou Sony songera à couper tout ça pour faire des économies…

La bonne idée pour vendre des carte mémoire et des disques durs…

Une chose est sûre, c’est qu’on a besoin d’espace avec ces jeux dématérialisés, et je me suis vite retrouvé à court de place que ce soit sur ma PS3 80 Go que sur ma PSVita.

Je me suis donc enfin décidé à changer le disque dur de ma PS3, ce qui a été une aventure un peu stressante… En fait, ça faisait un bon moment que je voulais le faire, entre les jeux installés et les démos de plus en plus grosse, le petit 80 Go était devenus bien insuffisant.

J’ai d’ailleurs eu une petite pensée pour les gens qui ont acheté une PS3 Slim 12 Go toute neuve, profité des 15 jours d’abonnement gratuit au Playstation Plus offert avec, et découvert qu’ils n’avaient pas la place de télécharger Little Big Planet Karting, proposé dernièrement, puisque celui-ci nécessitait 14 Go d’espace disque. Comme on dit chez nous : Lolisme.

J’ai du également acheter plusieurs cartes pour PS Vita, et une fois de plus j’ai râlé sur ce support propriétaire ultra cher…

La Playstation 4 est de base équipée d’un disque de 500 Go, mais vu la taille des jeux, on sera vite à court d’espace, et pour le moment il n’est pas trop question de pouvoir gérer l’installation de jeux sur disque externe chez Sony, il va falloir garder un tournevis pas loin de la console.

Bien sûr, je pourrais télécharger un jeu et le supprimer quand j’ai fini d’y jouer pour faire de la place, et le re-télécharger quand je veux puisqu’il est dans ma liste de téléchargement, sauf que ce n’est pas si facile que ça…

Je ne sais pas pour vous, mais moi je ne planifie pas mes sessions je jeux, donc si j’ai une petite heure de libre, même si j’ai une bonne connexion, et que les serveurs de Sony sont dans un bon jour, ça risque de me démotiver si je dois télécharger 5 Go avant de commencer ma partie… Alors en attendant, j’archive sur des gros disques, et plusieurs cartes.

La bonne idée pour faire de l’argent ?

Je n’aurais probablement pas acheté les jeux que j’ai découvert grâce au Playstation Plus, et au passage j’ai acheté deux nouvelles cartes mémoires pour PS Vita, donc oui, c’est bien joué de la part de Sony, ils ont gagné un peu plus d’argent que prévu avec moi.
Et pour les joueurs Playstation 4, c’est clairement ce qui permet d’accepter plus facilement le online payant.

Par contre, j’ai quand même lu et entendu quelques abonnés carrément dire « Maintenant je n’achète plus de jeux, j’attends qu’ils soient gratuits… ».
En effet, si on est pas un joueur accroc qui a un besoin physique de jouer à toutes les nouveautés quand elles sortent, on peut très bien choisir d’attendre pour certains jeux.
Tous ne finissent pas gratuits, mais par exemple sur les trois derniers mois, Sony a offert aux abonnés Playstation Plus quelques gros jeux sur PS3 : DmC : Devil May Cry, Tomb Raider, et Bioschock Infinite.
En ce qui me concerne, il n’y en a qu’un seul qui m’intéressait, mais pour pas mal de joueurs c’est clairement un bon plan. Surtout pour les joueurs qui achetaient et revendaient leurs jeux une fois terminés.

Alors d’un côté on se retrouve à payer pour jouer online sur une console Sony, mais de l’autre certains joueurs décident de ne plus acheter autant de jeux qu’avant…. Je n’ai pas les chiffres, mais je me demande si tout ceci est vraiment rentable ? J’imagine que oui, sinon ils l’auraient arrêter depuis le temps !

La bonne idée pour lutter contre le piratage et l’occasion ?

Vous le savez les constructeurs et éditeurs font leur possible pour lutter contre le piratage mais aussi la revente des jeux d’occasion.

Avec des jeux qu’on loue 1,39 euros maximum, et dématérialisé, ils ont peut-être trouvé une solution.

En tout cas, chez Microsoft ça s’organise dans ce sens, et je pense qu’il va falloir s’habituer à ces systèmes d’abonnement, et de location.

Je continuerais toujours d’acheter des jeux en boite, tant que ça sera possible, mais je le répète souvent, je suis un joueur marginal, je n’influence pas beaucoup le business, et je n’arrêterais pas les joueurs qui aujourd’hui achètent tout en dématérialisé. Les choses ne vont pas dans le sens que je souhaiterait, mais je reste un fan de jeux vidéo, et ce que je veux c’est jouer.

L’offre Playstation Plus m’a fait découvrir de bons jeux que je n’aurais jamais acheté, notamment des jeux dématérialisés, et rien que pour ça je ne regrette pas du tout de m’être abonné.

La Wii U fête ses un an : L’heure d’un premier bilan

Il y a tout juste un an, le 18 novembre 2012, sortait la Wii U dans la zone nord américaine, la console est ensuite arrivée le 30 novembre en Europe, puis le 8 décembre au Japon.
Cet anniversaire est l’occasion de faire un premier petit bilan.

Avec un hardware en retard techniquement par rapport à ce qu’on serait en droit d’attendre en 2012, Nintendo continue sur sa lancée en proposant une alternative aux consoles dites « classiques » et au PC, en visant un public plus large de joueurs occasionnels, jeunes ou non, et en offrant toujours des jeux à la communauté de fidèles fans de la marques.

L’idée de Nintendo est de dire aux 100 millions d’acheteurs de la Wii : Maintenant, vous pouvez passer sur Wii U, la console est HD, tout les accessoires que vous avez sont compatibles, et en plus on vous rajoute le Gamepad qui permettra tout un tas de nouvelles possibilités !

Malheureusement, plusieurs erreurs importantes ont été commises dès le départ, les ventes n’ont pas été à la hauteur, et les gros titres se font encore attendre… 

Communication Breakdown

Lors de la première présentation de ce qu’on appelait encore « le projet café », le gamepad étant mis en avant mais à aucune moment la console n’était clairement au premier plan, il fallait bien observer les vidéos pour l’apercevoir rapidement à côté d’une télévision.
Les commentaires sur les réseaux sociaux ou les forums évoquaient alors « un nouvel accessoire », et puis certains ont quand même fini par comprendre qu’il s’agissait bien d’une nouvelle console en voyant des images de jeux.

Si la confusion vient dans une premier temps de la présentation, elle vient également du choix du nom.
Je vois bien un type en costume expliquer avec des tas d’arguments tout à fait recevables le pourquoi du choix d’un tel nom, mais dans une logique de nommage claire pour le consommateur, Wii 2 c’était moins chiadé, mais ça serait plus facilement passé.

La plupart des vendeurs de jeux se sont rapidement heurtés à des joueurs occasionnels, ou des parents complètement perdus pensant qu’il s’agissait d’un nouvel accessoire, et encore aujourd’hui il leur arrive d’avoir à expliquer ce qu’est vraiment la Wii U.

Un nom plus clair, et un stand montrant bien la machine et le gamepad pendant la première présentation aurait surement facilité les choses.

Le Gamepad confortable, mais pas indispensable

Le gamepad apporte tout un tas de possibilités, parfois ce sont des idées de gameplay plus ou moins intéressantes, parfois il ne s’agit que d’un peu de confort de jeu.

On parlait beaucoup de gameplay asymétrique au départ, et finalement ça n’est pas beaucoup exploité en dehors des party games, je souhaiterais vraiment voir un peu plus de jeux se pencher sur ces possibilités et pousser vraiment les idées de gameplay, avec du FPS et STR mélangé, avec des modes en lignes, je ne crois pas forcément Nintendo capable de proposer de telles choses, mais je me demande si ça intéresse les autres éditeurs également…

Le Gamepad peut-être aussi utilisé comme un deuxième écran de jeu, comme une Nintendo DS de salon par exemple. Il deviendra un radar, un viseur, vous permettra de fouiller un environnement en sortant de l’écran TV, etc.

Dans Sonic & All Star Racing Transformed, le gamepad peut servir pour un cinquième joueur en plus des quatre autres qui seront en écran splitté sur la TV.

C’est également assez pratique comme deuxième écran pour gérer le menu pause par exemple, ça évite d’appuyer sur le bouton START. Dans un Zelda pour parler d’un jeu qu’une majorité d’entre vous connait, on a le plan, les objets, et on gère tout ça facilement, c’est clairement pas indispensable, mais bien pratique.

On voit déjà les autres constructeurs proposer quelque chose dans cet esprit, que ce soit la PS Vita chez Sony, ou Smartglass avec les tablettes et Smartphones Windows 8 ou Android pour Microsoft.

Avec la Wii U, le gamepad est d’office avec la console, un jeu peut utiliser l’accessoire puisque tous les joueurs l’ont.
Pour les concurrents, il faudra un accessoire supplémentaire, alors dans le cas de Smartglass on sait que beaucoup d’utilisateurs ont un Smartphone, mais pour Sony, il va falloir vendre des PS Vita… Ce n’est pas dit que les éditeurs suivent tous en proposant de vrais possibilités de jeux sur un deuxième écran, on peut donc s’attendre à très peu de prises de risques, et à pas mal de fonctionnalités gadget…

Dernier point pour les jeux au gameplay dit classique, il y a la possibilité de pouvoir jouer directement sur le Gamepad et de ne plus occuper l’écran de TV. Cela évite pas mal de conflits dans le salon, et même pour un célibataire fan de foot, ça permet de continuer à jouer tout en laissant le match sur la télévision. C’est quelque chose que j’ai rapidement appris à apprécier, et qui m’a probablement permis de finir plus rapidement certains jeux, et puisqu’on parlait de concurrence juste au dessus, j’espère retrouver cette feature avec la PS4 et la Xbox One !

Les jeux Nintendo se font attendre

Quand on se demande si on doit acheter une console Nintendo, c’est généralement parce qu’on aime les jeux Nintendo, que ce soit les jeux de l’univers Mario et notamment Mario Kart, ou Zelda par exemple. De ce point de vue là, Nintendo tente de faire son job, mais avec pas mal de difficultés…

La sortie de la console était accompagnée de New Super Mario Bros. U, suivi plusieurs mois plus tard d’une sorte de suite avec New Super Luigi U. Les jeux sont bons, mais pour les fans de Mario qui venaient de finir New Super Mario Bros. 2 sur 3DS c’était un peu trop tôt, et avec la version Luigi, on pourrait craindre l’overdose !

Au niveau des autres grandes licences, nous n’aurons eu qu’un remake de The Legend of Zelda: The Wind Waker, certes réussi mais les fans de longue date attendent surtout un nouvel épisode.

On notera tout de même l’excellent Pikmin 3 dont je vous avais parlé, et que je vous recommande chaudement.

Nintendo a également sorti quelques party games, comme Nintendo Land avec une petit moitié de jeux intéressants, un Game & Wario rigolo mais pas particulièrement inspiré, et Wii Party U que je n’ai pas encore testé.

Dans la série des jeux qui vous font vous lever de votre canapé, il y a le remake HD de Wii Sport disponible en téléchargement, et Wii Fit U qui fait ressortir la balance board du placard.

Au final, à moins d’être un fan extrême de Mario qui se jette sur le moindre niveau supplémentaire, de Pikmin, ou de n’avoir jamais joué à The Wind Waker, il n’y a pas vraiment de killer app pour le moment.

Les jeux tiers exclusifs

Les éditeurs tiers et Nintendo, c’est une histoire bien compliquée. Si on regarde bien, sur Wii U, on a essentiellement Ubisoft, Activision, et Warner Bros Interactive qui ont sorti plusieurs jeux, mais pas forcément beaucoup d’exclusivités…

Ubisoft semblait vouloir faire confiance à Nintendo en proposant pour la sortie de la machine Zombi U, une exclusivité et une nouvelle licence qui plus est, mais devait penser que la console se vendrait autant que la Wii – ce qui était hautement improbable – et n’a surement pas rentabilisé son jeu qui pourtant n’est pas mal du tout.

Ensuite, alors que tout le monde l’attendait, il y a eu le report de Rayman Legends, ce qui d’après moi fut une très mauvaise idée. La perte d’exclusivité a moins donné envie aux joueurs d’acheter le jeu, c’est peut-être irrationnel mais c’est pourtant quelque chose que j’ai constaté en lisant quelques discussions sur différents forums. De plus la période choisie pour la sortie n’était franchement pas idéale, et le jeu n’a clairement pas eu les ventes qu’il méritait.

J’ai bien peur qu’Ubisoft ne fasse plus beaucoup d’effort pour proposer des jeux exclusifs sur Wii U, ce serait dommage, car la version de Rayman Legends Wii U est clairement la meilleure.

De son côté Sega a développé Sonic Lost World, qui n’est pas aussi bon qu’on l’espérait mais qui reste un Sonic 3D bien agréable je trouve, mais notez que le jeu est édité par Nintendo, tout comme Mario & Sonic aux Jeux Olympiques d’Hiver de Sotchi 2014, mais ça n’a rien d’étonnant vu que le jeu utilise leurs personnages…

Nintendo est également l’éditeur des jeux Platinum Game, comme le bien barré Wonderful 101, et Bayonetta 2 qui malgré les hurlements des fans désespérés ne sera donc pas une exclusivité temporaire comme je l’ai pensé au départ.
Je suis d’ailleurs assez impatient de tester le jeu, mais j’ai un peu peur qu’il ne se vende pas beaucoup, et je me demande ce que ce partenariat donnera sur le long terme si les jeux peinent à se vendre…

Comme on le voit, Nintendo se retrouve souvent à devoir éditer lui même certains jeux, c’est également le cas avec Monster Hunter Tri ou Lego City Undercover par exemple.

Beaucoup d’éditeurs se seront contentés de faire des portages jusqu’ici, et au final il y a assez peu de vraies exclusivités.

Cette situation ne devrait pas changer radicalement avant un moment. Le parc de consoles installées n’est pas très rassurant, vu qu’il dépasse à peine les 4 millions. Les éditeurs se sont habitués ces dernières années à sortir des jeux sur des machines bien en place, que ce soit la Wii avec ses 100 millions de machines vendues, ou les Xbox 360 et PS3 avec environ 80 millions chacune.

Yves Guillemot le PDG d’Ubisoft commentait clairement la situation de Nintendo en disant « Ils doivent en vendre plus », sous entendu « pour qu’on se remette à faire des jeux exclusifs dessus ». Quoi qu’il en soit, et même sans jeux exclusifs, Ubisoft reste assez lié à Nintendo, et plusieurs jeux sont encore prévus dessus.

De son côté, Nintendo continue son petit bonhomme de chemin, et explique qu’ils ne sortiront pas le chéquier pour acheter des portages de jeux, on peut les comprendre, je ne crois pas que les joueurs qui ont acheté leur Wii U ont fait l’impasse sur la PS3 et la Xbox 360, et de plus dans l’avenir, je ne pense pas que les portages vers une génération moins puissante de console soit très valorisant. 

Quels jeux pour relancer la console ?

Avec seulement deux jeux dépassant le million de ventes dans le monde, Nintendo n’a pas encore vraiment de killer app, il faudra bien qu’elles arrivent, et on sait déjà qu’il y en a quelques unes en préparation.

On attend pour le 29 novembre Super Mario 3D World qu’on espère encore mieux que l’épisode 3DS, en 2014 on n’aura à priori des nouvelles de Mario Kart 8, de Super Smash Bros. U, de Donkey Kong Country : Tropical Freeze, d’un nouveau Zelda dont on a pas encore vu une seule image, et pourquoi pas un nouveau Métroid, même si on ne sait pas trop qui pourrait le développer.

Je n’arrête pas de le dire, mais j’aimerais vraiment un F-Zero, ne serait-ce qu’un remake de la version Gamecube en HD avec un mode Online, et puis pourquoi pas quelques circuits des précédents jeux pour les nostalgiques, malheureusement ça n’est pas au programme.

Dans les licences Nintendo qui marchent bien, on peut attendre un Fire Emblem, puisqu’il y a vraiment moyen de faire quelque chose de qualité avec le Gamepad, mais pour le moment pas de nouvelles.

Chez les tiers, dans les jeux attendus, il y a Bayonetta 2 dont je parlais juste avant, et ce qu’on appelle X ou le nouveau Xenoblade, qui devrait attirer un certain type de joueurs, mais sans faire exploser les compteurs, Xenoblade Chronicles ne s’était pas vendu à plus d’un million d’exemplaire malgré le parc installé de Wii

Les jeux indépendant et dématérialisés sont aussi présent, il y a de la qualité, et Nintendo semble essayer de faire bouger son eShop, mais là encore ça ne va pas bien vite.

En résumé, les jeux arrivent, mais au compte goute, et en dehors de Mario Kart 8 on ne sait pas ce qui pourrait faire exploser les ventes.

C’est vrai, l’offre est vraiment limitée, mais rappelez vous la Wii s’était essentiellement vendue au départ pour Wii Sport.

Aujourd’hui, Nintendo propose une très grandes quantité de pack pour sa console, du premier pack premium avec Zombi U sorti au départ jusqu’au futur pack avec Wii Fit U et tous les accessoires nécessaires, il y en a presque tout le monde.

packs_wii_u

Quelques exemples de packs Wii U

Et il y a fort à parier que dès l’année prochaine on assistera à une baisse de prix, et que des packs complets sortiront.

La Wii U : Nouvelle Dreamcast ? Dernière console de Nintendo ?

Voila la comparaison régulièrement faite pour parler d’une console qui ne se vend pas, on nous sort la carte Dreamcast, c’est idiot, la comparaison n’a pas lieu d’être.
L’échec de la Dreamcast ne s’explique pas en quelques lignes, je reviendrais peut-être dessus un jour, mais Nintendo n’est clairement pas dans la même situation que Sega à l’époque.

La Wii U ne renouvellera pas l’exploit de la Wii, c’est évident, mais s’en sortira correctement malgré tout sur le long terme.

Nintendo a toujours été à part, particulièrement depuis la Nintendo 64, et a toujours réussi à résister. On annonçait leur mort avant même de commencer à envisager sérieusement celle de Sega à l’époque. Nintendo devait mourir avec la Nintendo 64, avec la Gamecube, et même après le démarrage fulgurant de la Wii certains disaient que ça dureraient pas…

Certains expliquent qu’ils vont arrêter les consoles de salon, parce qu’ils n’arriveront pas à suivre face à Sony et Microsoft, et d’autres en rajoutent en disant que même au niveau des portables ils ne tiendront pas face à la concurrence de l’iPhone, oubliant au passage qu’Android est largement majoritairement sur ce marché.

Je crois que les consoles vont de toute façon changer, les consoles de salons ne peuvent pas se contenter d’être des PC, et les consoles portables doivent faire face à la concurrence des tablettes ou des smartphones.

Sony l’a peut-être essayé trop tôt, et sans succès, mais je pense que Nintendo devrait s’intéresser à cette infographie, et se pencher sur la question sérieusement sur la possibilité d’une console pouvant servir de smartphone.

Et même sans aller dans ce sens, Nintendo a encore une image vraiment différente, les parents sont bien plus confiant lorsqu’ils achètent une DS ou une 3DS à leurs enfants qu’une PSP ou une PS Vita.
Leurs choix sur le online et notamment la possibilité ou non de discuter, peuvent paraitre étonnants, mais en tant que père, je suis rassuré de voir qu’ils font attention à ce que les enfants font avec leurs consoles de jeux. Et je sais que j’aurais bien plus de facilité à conseiller une console Nintendo à un enfant qu’une console concurrente, un PC, ou autre tablette tactile.

Alors, le bilan est positif ou négatif ?

Qu’on soit gamer, hater, ou fanboy, on est tous d’accord, le bilan est négatif.

La console ne se vend pas bien, en un an elle aura eu du mal à dépasser les 4 millions de ventes, et n’a que 2 jeux ayant dépassé le million de vente, Nintendo Land et New Super Mario Bros. U. A titre de comparaison, la Playstation 3 qui avait eu un départ assez difficile a terminé sa première année avec moins de 6 millions de consoles vendues, c’est plus mais pas tant que ça si on considère que c’est une console qui représentait une vraie nouvelle génération, par contre il y avait beaucoup de jeux prévus dessus, et l’avenir semblait bien plus prometteur, alors que les jeux attendus sur Wii U ne sont pas nombreux…

Pour les fans il n’y a pas assez de jeux, même si juste avant la date anniversaire en Europe nous auront Super Mario 3D World.

Et enfin, le Gamepad ne fait pas la différence comme a pu le faire la Wiimote en son temps, d’autant que la concurrence propose quelque chose d’équivalent, même si la facture sera évidemment plus salée…

Mais on n’est pas dans un cas ou on achète une console déjà morte, Nintendo a encore pas mal de cartes à jouer.

La Wii U a d’ors et déjà perdu la guerre de la « nouvelle génération », mais c’est une console qui va continuer à nous proposer de bons jeux pendant encore quelques années. Il faut espérer que Nintendo a déjà songé à une suite, car ils ne pourront pas capitaliser comme ils l’ont fait avec la Wii, il faudra un peu plus vite s’aligner techniquement avec la concurrence cette fois ci.

Si vous hésitez à l’acheter, c’est que vous n’avez pas assez de jeux qui vous tentent dessus, alors je vous conseillerais d’attendre la prochaine baisse de prix, qui interviendra surement après la sortie de Mario Kart 8, et là vous pourrez me balancer des carapaces dans la tronche en ligne, et ça ben ça met tout le monde d’accord.

Doritos Gate, un an après…

Nous sommes aujourd’hui le 24 octobre 2013, et l’affaire du Doritos Gate fête ses un an.

En effet, c’est le 24 octobre 2012 que le chroniqueur Robert Florence, a publié son article « A table of Doritos » sur Eurogamer, qui a créé une sorte de petit « scandale » dans le milieu de la presse vidéo-ludique.

Il y a quelques temps de cela, un autre scandale a bien failli éclater ici même sur Gamedaba

Le Auchan-marque-pouce Gate

Voici une photo de votre serviteur, Moriarty, contributeur sur Gamedaba, qui aurait pu déjà faire mille fois le tour des réseaux sociaux et créer un buzz plus fort qu’un tweet d’un homme politique ivre.
Avant que cet énorme scandale ne finisse par éclater, j’ai décidé de moi même la publier, et de m’expliquer.

Il est ou le problème ?

Il est ou le problème ?

Vous pourrez constater sur cette photo la présence discrète de produits marque pouce lors de ce qui pourrait ressembler à une présentation du jeu Derrick – Meurtre dans un parterre de fleurs.

J’entends déjà une foule en colère hurler que je suis un vendu qui fait des présentation de jeux, sponsorisé par Auchan, ressortant de vieux articles pour prouver que je fais régulièrement une publicité éhontée pour l’enseigne au petit oiseau, comme par exemple « 20 euros de réduction sur Starcraft II et Diablo III« , ou « Baisse de prix pour la Wii U ?« .
Les plus vils me traitent également de Nintendo-Boy, en voyant à côté de moi ce petit champignon qui se dandine quand le soleil l’illumine.

Eh bien non, tout ceci est faux, et je m’insurge qu’on ose croire que je suis un vendu !

Je n’ai jamais fait la présentation de ce jeu, je ne l’ai d’ailleurs jamais testé, il est encore aujourd’hui sous blister, car d’après de récentes ventes aux enchères, j’ai appris qu’un blister pourrait multiplier par 200 le prix d’un jeu, alors dans le doute, je l’ai conservé. D’après mes calculs je pourrais le revendre 1000 euros… Enfin à peu près. Si toutefois vous voulez en savoir plus sur ce jeu, vous pouvez lire la critique de Clem2K !

Ensuite, j’ai moi même payé ce paquet de chips et cette limonade, afin de créer ce cliché pour essayer de créer le buzz il y a des mois, et je n’avais toujours pas eu le temps d’écrire sur ce sujet… Non je n’ai même pas honte, tous les moyens sont bon pour faire de l’audience !

Et pour finir, franchement, regardez bien, ce n’est pas moi sur la photo, c’est une peluche ! Un peu de sérieux les gars !

Si je parle des prix Auchan, Carrefour, Toys’R’Us, ou autre, c’est parce que je reçois les pubs, et quand je vois des promos, je partage… Je suis un mec à la cool moi ! Si j’étais un vendu, ça se verrait, avec des paquets de chips Auchan, et pas marque pouce !

Voilà, maintenant qu’on en a fini avec ça… Comment ça ? Quel champignon ? Non mais ça va aller oui ? Bon ! Revenons au sujet initial…

Le Doritos Gate est probablement le plus gros scandale que la presse vidéo ludique ait connu… Enfin bon… Le plus gros de fin 2012. Je veux dire… C’est un gros micro scandale quoi.

Non parce que mine de rien, on en a pas mal parlé , certains sites ont même modifié leur charte comme Eurogamer ou VG247, mais finalement maintenant tout le monde s’en fout un peu, tout est reparti plus ou moins comme avant, et il n’y a bien qu’ici qu’on va en parler et fêter son anniversaire ! Il faut nous comprendre, en bon gros blog amateur, il y a des sujets qu’on doit obligatoirement traiter, même un après, pour le principe.

Raconte-nous cette histoire de Fajitas Gate !

Tout a commencé avec cet article de Robert Florence dénonçant d’une certaine façon le manque d’intégrité et d’indépendance des journalistes de jeux vidéo.

Dans un premier temps, il commente une photo magique, celle de Geoff Keighley, un journaliste canadien installé avec un regard complètement vide à côté d’une publicité pour Halo 4, plusieurs bouteilles de Moutain Dew (une boisson qui peut dissoudre les souris), et un bon gros paquet de Doritos, qui donnera son nom à ce scandale.

Geoff Keighley

Geoff Keighley en train de penser à une souris dissoute dans du Moutain Dew.

Il parlera ensuite d’une cérémonie appelée Games Media Awards qui décerne des prix aux meilleurs journalistes, et pendant laquelle un concours était organisé, reservé aux journalistes bien sûr, qui devaient tweeter un message promotionnel, pour ensuite peut-être gagner une PS3.

Un concours qui ne semblait poser aucun problème à la journaliste Lauren Wainwright pointée du doigts dans la première version de l’article… Je dis bien première version, parce qu’elle a demandé à ce qu’on supprime son nom de l’article, c’était bien sûr sans compter sur l’effet Streisand, et on a retrouvé rapidement l’article original sur les forums de NeoGaf entre autre.
Par la suite, quelques internautes sont allés fouiller son CV pour se rendre compte qu’elle travaillait en freelance aussi bien pour des groupes de presse que pour Square Enix, ce qui mine de rien permet de douter un peu de son indépendance quand elle parle par exemple de Tomb Raider…

Le CV de Lauren Wainwright sur Journalisted avant et après l'affaire.

Le CV de Lauren Wainwright sur Journalisted avant et après l’affaire.
Image récupéré sur le blog « Common Sense ».

Ne nous arrêtons pas uniquement sur Lauren, vous imaginez bien que ce n’est pas la seule à avoir participé à ce concours, et à ne pas voir de mal la dedans… Et ce n’est pas non plus la seule à avoir travaillé pour des éditeurs…

Mais voilà, le sujet commence à tourner sur les réseaux sociaux et sur les forums spécialisés, à grand coup de « Vous êtes tous des vendus je le savais ! », et cette histoire a bien entendu fini par éclabousser la presse française, pointant notamment ce test de Call of Duty Black Ops 2 sur la version française du site d’eurogamer (tiens donc !), réalisé par Julien Chevron qui après une rapide recherche sur Google est référencé comme attaché de presse pour Activision

Blocage territorial : Consoles xénophobes et jeux sans titre de séjour ?

Le blocage territorial, appelé parfois zonage, on encore regional lockout chez les anglo-saxons, vous connaissez sûrement, c’est ce qui vous empêche de profiter de films ou de jeux importés, même si ils ne sont jamais sortis dans votre pays. Un système qu’une société qui nous vante les mérites de la mondialisation et du libre échange nous impose pour nous empêcher de consommer comme on le voudrait, et nous prive parfois d’œuvres pour des raisons principalement économiques…

Ah oui c’est vrai, pourquoi ?

Problèmes électriques, normes vidéo, différences de prix suivant les pays, règles de classification, permettre une meilleure expérience online avec des services spécifiques tout en respectant les règles de contrôle parental de chaque zones… On peut entendre tout un tas de raisons, bonnes, mauvaises ou fantaisistes, pour justifier ça.

Mais il y a quand mêmes des raisons que j’arrive à comprendre :

  • Éviter qu’un pays ne vende pas de jeux parce que dans l’autre il est vendu moins cher frais de port inclus. Et c’est vrai que je me rends compte quand j’achète des jeux neuf aux USA que je les paye moins cher qu’un jeu neuf en France, même avec les frais de port.
  • Éviter qu’un jeu qui va être traduit pour l’Europe ne se vende pas parce que les joueurs ont acheté la version américaine qui sort plus tôt…

On nous parle de différence de prix, mais les pires différences que j’ai pu constater concernaient souvent des jeux d’une même zone. Amusez vous à regarder les prix des jeux en France et en Angleterre, c’est affligeant de voir de telles différences, les prix en Angleterre sont bien plus bas, et bizarrement, on n’a aucune contrainte qui nous empêche d’acheter nos jeux chez nos voisins d’outre-manche, c’est la même zone, pas de frais de douanes, rien, les magasins français ne peuvent pas les concurrencer, et tout le monde s’en fout.

Pour les dates de sorties, aujourd’hui on assiste à des sorties avec quelques jours d’écarts, et parfois même des sorties mondiales. Ce n’est pas forcément facile, mais pas impossible de commencer à traduire le jeu alors que celui-ci est en développement. C’est le cas de pas mal de productions depuis plusieurs années d’ailleurs, et je ne peux qu’encourager les plus grands studios à continuer dans cette voie.

Et on ne demande pas forcément à voir tous les jeux traduits dans toutes les langues, un jeu 12+ pourrait être simplement proposé en anglais, ça remotiverait nos jeunes collégiens à bosser en cours au lieu de chouiner ! Quand je pense que j’ai commencé à apprendre l’anglais en jouant à Ultima IV…

Au pire, le jeu peut sortir de suite en anglais, et ensuite les patchs seront récupérables pour les traductions. J’imagine qu’on pourrait même proposer des outils de traduction pour la communauté, comme c’est le cas pour certains logiciels PC.

Enfin, les traductions, c’est un vaste débat…

J’ai pu également lire des commentaires de personnes disant « Sans blocage territorial on pourrait se dire que les jeux ne seraient pas localisés », ce qui pourrait presque paraître pertinent, si on oubliait tout simplement que la localisation c’est la traduction du jeu. Ce n’est pas parce qu’une console est region free que le jeu sera dans la langue automatiquement, et que les joueurs parleront tous japonais ! Si l’annonce de la traduction est faites assez rapidement, les joueurs attendront sagement en grognant juste un peu parce que c’est parfois trop long.

J’ai fait un rêve…

Depuis mon adolescence, je rêve qu’un jour, même sur les consoles de salon Nintendo qui ont toujours refusé les jeux étrangers, les jeux japonais, américains ou européens puissent tous s’afficher fièrement dans des étagères de collectionneurs, comme des frères et sœurs. Je rêve que ces jeux puissent s’installer et se lancer, pour permettre à tous de jouer, partout dans le monde, et qu’il n’y ait plus de barrières culturelle.

Je rêve que cet auvergnat de Brives-Charensac puisse importer et jouer à un jeu japonais jamais sorti en France…

J’ai eu l’impression que ce rêve allait devenir réalité…

Il y a quelques années, quand Sony a annoncé que la Playtation 3 ne serait pas zonée, c’était une grande nouvelle, puis quand plus tard ils ont inclus la possibilité de zoner les jeux, et qu’on a du attendre Persona 4 Arena pendant presque un an, c’était déjà moins drôle.

La Playstation 4 semble garder le même système, et depuis son changement de cap, Microsoft nous a annoncé que la Xbox One ne bloquerait pas les jeux non plus. Il ne reste plus qu’à espérer que les éditeurs n’empêcheront pas leurs jeux de tourner chez nous.

Et puis il y a le cas Nintendo…

Toutes leurs consoles de salon ont été zonées, c’est aussi le cas de la récente Wii U, vu le catalogue on ne peut pas encore trop se plaindre, et en général les jeux Nintendo sortent partout dans le monde… Oui, je sais Mother, entre autre, j’ai bien dit en général !

Par contre, avec Nintendo, on avait l’habitude d’avoir des consoles portables region free, c’était donc la folie de l’import sur Game Boy, Game Boy Advance, Nintendo DS. Et puis un jour est arrivé la DS i, zonée pour les jeux exclusivement DS i, et puis la 3DS, zonée bien comme il faut, poussant des joueurs acharnés à devoir acheter des consoles américaines, et peut-être un jour Japonaise…

Récemment sur IGN, Satoru Iwata est revenu sur ce sujet, expliquant que chaque zone a sa propre culture, restrictions, et règles de classification. Il espère qu’on apprécie voir les produits sortir partout dans le monde, et oui on est content, mais pour les quelques rares titres qui ne sortiront pas ? Est-ce qu’on aura un patch qui fera sauter la zone, ou est-ce qu’on doit juste considérer que nous n’avons pas le droit d’y jouer parce qu’on est étranger ?

Les conséquences du blocage territorial

L’homme a cette tendance à toujours vouloir faire ce qui est interdit, et de tout temps, dès la sortie d’une nouvelle console, on a toujours vu des joueurs chercher des moyens de faire passer les jeux imports, du petit coup de lime sur la megadrive, aux adaptateurs, puces, et disques de boot.

Généralement, quand on commençait à installer des puces ou autre, le système ne se contentait pas de juste faire sauter le zonage, par exemple, le disque de boot pour Dreamcast permettait de lancer des jeux gravés, et les puces pour Playstation 1 et Playstation 2 lançait les jeux imports, et les jeux gravés…

Bien sûr, le piratage existerait même sans zonage, mais c’est parfois pour juste faire sauter ce problème de région qu’un joueur se retrouve avec un moyen de faire passer des copies…

Le côté obscur est plus rapide, plus facile, plus séduisant… Et si une seule fois tu t’engages sur le chemin du côté obscur, à jamais il dominera ton destin.

Une conséquence bien plus fâcheuse c’est qu’un joueur doit parfois faire un choix pour sa console.

Quand les jeux intéressants arrivent, et qu’une console est zonée, on fini par prendre une console dans une zone précise pour être sûr de faire tourner un maximum de jeux. Ainsi alors que je suis en France, j’ai par exemple décidé d’acheter une Playstation 2 américaine pour faire tourner les jeux imports PS1 et PS2, et je n’ai jamais acheté un seul jeu en France, même ceux qui étaient localisés, vu que ma console ne les faisais pas tourner. Ce système de zone a donc fait perdre un client potentiel, tout ça pour seulement quelques jeux non traduits (Chrono Cross sur PS1, Suikoden 3 sur PS2, entre autre…). Et chez Gamedaba, il y a un petit jeune qui a une 3DS américaine, qui ne donnera donc pas un euro à Nintendo Europe tant que la console sera zonée…

Et on en a pas encore fini avec ça…

La prochaine génération de console n’aura pas de blocage territorial, en tout cas pas directement via la console, mais certains jeux pourront être bloqués.

Et avec des jeux de plus en plus dématérialisés, et des markets sur internet, on aura une autre façon d’empêcher les joueurs de récupérer les jeux, comme ce satané Puzzle & Dragons qui ne veut pas s’installer sur ma tablette android parce que je suis en France.

puzzle_&_dragons

Mais pourquoi vous voulez pas que je joue à votre jeu !?

Qu’on me bloque l’accès aux services online avec un jeu import, à la limite je comprends, et même si je souhaiterais pouvoir jouer à Dragon Quest X, je me vois mal sympathiser avec d’autres joueurs vu mon faible niveau en Japonais, mais qu’on m’empêche complètement d’accéder à quelque chose qui n’est pas sorti dans mon pays, ça me donne l’impression d’être considéré comme un paria, qui n’a pas le droit de toucher à certains type d’œuvre, comme si un groupe d’illuminés voulait m’empêcher d’avoir accès à leur culture. Et permettez moi de dire que je suis furibond (oui) de voir que ces problèmes sont encore et toujours présents sur nos consoles aujourd’hui, et d’être obliger d’errer pendant des mois sur les sites de hackers pour savoir si la 3DS sera dézonnée, avant de finalement craquer pour une console américaine.

Il existe actuellement une pétition pour demander à Nintendo de supprimer le blocage territorial sur la 3DS et la Wii U, je l’ai bien entendu signé, même si je sais que chez Nintendo ils ne changeront pas aussi facilement de politique que cela, je souhaite qu’ils soient conscient de notre mécontentement, et je vous invite à aller vous aussi la signer.

Peut-être un jour pourront nous crier : Region-free at last !

Que la couleur soit !

Après avoir parcouru un tout petit morceau des débuts de l’affichage graphique des jeux vidéo dans l’article précédent, je continue ma vision personnelle de ce voyage.

Nous avions laissé les jeux vidéos sur des machines principalement dédiées à l’affichage de texte en noir et blanc. Ajoutons dans cet article un peu de couleurs.

La couleur est un vaste problème. Le premier étant que la grande majorité des moniteurs n’a pas de couleurs. C’est une époque de domination de l’écran à affichage monochrome, vert ou ocre. Mais cela existe, particulièrement pour les ordinateurs dits familiaux.

Le problème côté informatique est que la couleur est une information supplémentaire et qu’une information, on l’a vu dans l’article précédent, cela doit se stocker et donc nécessite de la mémoire.

Extrait de publicité GAI

Extrait de publicité DAI. Scanné par Frédéric Goset pour le site Abandonware Magazines

Mais la couleur est attendue, elle est même mise en avant dans les articles qui présentent de nouvelles machines. Combien de couleurs, choisies dans une palette à combien de possibilités ?

Pour offrir de la couleur en n’augmentant pas drastiquement la mémoire nécessaire, les astuces sont nombreuses et très diverses. Certaines machines n’admettent un changement de couleur que caractère par caractère. D’autres font un compromis entre taille du pixel et couleur.

La série de Amstrad CPC, au milieu des années 80, fonctionne comme cela : il y a trois mode d’affichages appelés avec grande originalité les modes 0, 1 et 2. Tous ces modes offrent le même nombre de lignes graphiques (200) mais diffèrent par leur nombre de pixels en largeur et le nombre de couleurs simultanément disponibles.

En fait, chaque ligne dispose de 640 bits de données. En mode 2, le plus précis, chaque bit représente un pixel, et la définition est donc de 640 par 200. Cependant, un bit ne code que deux informations, 0 et 1, soit deux couleurs différentes. Le CPC permet d’allouer à 0 une couleur et à 1 une autre couleur, les deux choisies parmi une palette prédéfinie.

En mode 0, chaque pixel est représenté par 4 bits. Cela donne un choix de 16 couleurs choisies parmi la même palette. Par contre, le nombre de pixel en largeur fait chuter la définition à 160 par 200.

Le mode 1 est le mode intermédiaire, et le mode par défaut dans lequel la machine s’allume : 320 par 200 et 4 couleurs.

Haute définition monochrome ou arc-en-ciel en gros pixels, ce type de choix était assez standard pour les machines de cet époque, lorsqu’elles offraient ce choix.

La couleur sur ce système n’est pas donnée directement mais passe par un concept de palette et de crayons. La palette est l’ensemble des couleurs que l’ordinateur est capable de générer vers l’affichage. 8, 16, 32 ou même 4096, cela dépend. À chaque crayon, dont le nombre est moins grand, est ensuite assigné une de ces couleurs.

Le nombre de crayons va déterminer le nombre de couleurs affichables simultanément à l’écran (hors astuce). Leur nombre réduit permet d’utiliser peu de mémoire tout en permettant d’utiliser une palette plus étendue.

Palette de 27 couleurs (combinaison des possibilités avec les composantes Rouge Verte Bleue à des valeurs nulles, moyennes, pleines). C'est la palette de l'Amstrad CPC.

Palette de 27 couleurs (combinaison des possibilités avec les composantes Rouge Verte Bleue à des valeurs nulles, moyennes, pleines). C’est la palette de l’Amstrad CPC.

Mais la stratégie des Amstrad CPC n’est pas la seule. Une autre consiste à se reposer sur la méthode des caractères semi graphiques déjà évoqués précédement et de donner aux blocs une couleur d’écriture (bloc allumé) et une couleur de fond (bloc éteint).

Ainsi, le ZX Spectrum code ses attributs de couleurs sur une grille de 32 par 24 qui correspond à son nombre de colonnes et lignes en mode texte. Dans chacune des cases de cette grille se trouve une couleur de fond et une couleur d’écriture. Le choix de couleur se fait sur une palette de 8 couleurs en mode soit normal, soit brillante, soit 16 teintes (en fait, 15, car le noir mat ou brillant se rend de la même façon). Chaque couleur peut donc être codée sur 4 bits, soit 8 bits pour les deux couleurs.

Cela donne 768 octets pour coder toutes les couleurs, ce qui est très acceptable à l’époque et très en dessous des 24ko qui auraient été nécessaire pour coder la possibilité de 16 couleurs sur chacun des pixels de la résolution graphique de 256 par 192.

Ce compromis provoque un artefact graphique bien reconnaissable. Comme les couleurs choisies sont forcément les mêmes pour un bloc graphique de 8 par 8 pixels, il arrive que la couleur d’un décors « bave » sur un élément en mouvement, ou inversement.

Exemple d'Attribute/Color clash (illustration du domaine publique disponible sur Wikipedia)

Exemple d’Attribute/Color clash (illustration du domaine publique disponible sur Wikipedia)

Je vous conseille d’aller jeter un œil à cette page avec des illustrations qui gèrent cet artefact.

Au fur et à mesure des générations, le nombre de couleurs pouvant être générées par la puce graphique va augmenter. Le nombre de couleurs pouvant être affichées simultanément aussi.

Progressivement vont être possible des modes marketés « vraies couleurs » où la palette est vaste et où toutes les couleurs sont affichables simultanément. Les modes où chaque pixels est codé sur 16 bits, pour un total de 65536 couleurs puis sur 24 bits, pour un total de 16 milions (et quelques) couleurs.

À ce stade là, la compétition entre carte graphique s’était déplacée sur un autre tableau dont je parlerai plus tard : la 3D.

Jeux et contenus téléchargeables : La grande dématérialisation !

Voila un sujet qui revient régulièrement dans les conversations entre passionnés de jeux vidéos, et dont je veux parler depuis que Gamedaba existe.

Si les jeux dématérialisés existent depuis bien plus longtemps qu’on ne le pense, ça ne fait que quelques années que le fait d’acheter et de télécharger un jeu sur internet s’est banalisé. Le phénomène a pris bien plus d’ampleur avec les supports mobiles, à tel point qu’aujourd’hui on n’a aucun mal à voir une machine sortir sans aucun lecteur pour un quelconque support physique.

Le passage au tout dématérialisé est pratiquement ineluctable, et ne se fera pas sans victimes.
Je pourrais me contenter de dire : « Le dématérialisé c’est le mal ! », mais je ne suis pas si manichéen en réalité, et puis ce n’est vraiment pas mon genre de faire aussi court !

1981 : Des début difficiles

Vous ne le savez peut-être pas, mais la première console a avoir offert la possibilité de télécharger des jeux était l’Intellivision avec le service en ligne PlayCable en 1981, le système ayant été testé à partir de 1979.
A l’aide du PlayCable adapter, et en passant par le simple câble antenne, les gamers de l’époque pouvaient déjà télécharger des jeux. L’argument de vente était simple : «Avec PlayCable, vous paierez vos jeux moins cher ! », comme le montre cette publicité d’époque.

C’est pourtant à cause du prix, mais aussi de la limitation de la mémoire que cet accessoire n’a pas vraiment été un succès commercial, et qu’il a été arrêté en 1983.

À peu près à la même période, Atari a également tenté le coup avec la cartouche GameLine pour Atari 2600 qui ce coup ci se branchait sur la ligne téléphonique, les jeux était rapidement téléchargés, mais ne pouvait être joué qu’un certain nombre de fois, il fallait payer à nouveau pour rejouer. Ce système a disparut également en 1983, il ne faut pas oublié que c’est cette année qu’a eu lieu le fameux krach du jeu vidéo aux États-Unis.

Gameline Atari 2600

Cartouche Gameline pour Atari 2600
Source : 8-bitcentral

Du côté de Nintendo, il y a eu un modem pour la Famicom en 1988, le Family Computer Network System, qui permettait de faire des achats en bourse, des transactions bancaires, et on pouvait – via le service Super Mario Club – avoir accès à des astuces, des reviews et previews de jeux, on pouvait même y lire des blagues, consulter la météo…
Assez avant-gardiste, le Family Computer Network System était malheureusement un énième accessoire à acheter et couteux, qui proposait des services similaires à ceux qu’on avait avec un ordinateur, et faute de proposer un réel contenu comme des jeux, il n’a pas vraiment marché.

Famicom Network System

Famicom Network System
Source : Wikipédia

C’est en 1995 avec le Satellaview pour Super Famicom, sorti uniquement au Japon, que Nintendo a vraiment proposé un accessoire permettant de télécharger des jeux et de regarder des vidéos, le tout via une chaine satellite appelée St. GIGA. L’accessoire venait se brancher sous la console, et il fallait également insérer une cartouche BS-X dans laquelle on pouvait mettre une carte mémoire de 8 megabyte pour stocker les jeux téléchargés. De nombreux jeux sont sorti via ce service, on pourra notamment citer BS Zelda no Densetsu, BS Zelda no Densetsu : Inishie no Sekiban, Zelda no Densetsu : Kamigami no Triforce, BS Dragon Quest, BS F-Zero Grand Prix 1 et 2, Chrono Trigger: Jet Bike Special, ou encore Radical Dreamers dont le scénario fait un lien entre Chrono Trigger et Chrono Cross.
Sorti en 1995 au moment ou la nouvelle génération s’installait, et très couteux puisqu’il fallait compter en plus des 18000 yen de l’accessoire, le prix d’une installation satellite, le Satellaview peut-être encore un peu trop en avance n’aura pas non plus été un grand succès, les services fermeront en 2000.

Satellaview Super Famicom

La Super Famicom avec le Satellaview
Source : Wikipédia

La Megadrive de Sega avait également eu droit à des systèmes de téléchargement, le premier datant de 1990 était un adaptateur appellé Megamodem disponible au Japon, et qui proposait quelques jeux, notamment la série des Phantasy Star II: Text Adventure, et plus précisément Nei’s Adventure, que j’avais apperçut dans un Megadrive Fan à l’époque, et qui me faisait rêver en bon fan de Phantasy Star.

Megamodem

Le Megamodem branché derrière une Megadrive
Source : Wikipédia

Quelques années plus tard en 1994, un nouveau système sortira en occident cette fois, appellé SegaChannel. Proposé aux USA, au Canada, en Argentine, au Royaume-Uni, au Chilie, et en Australie, ce service proposait des jeux qui existaient parfois en cartouche mais pas forcément sortie dans tous les pays, dans des versions différentes ou avec des éléments supprimés à cause des limitations du système. Le service a rencontré son public assez rapidement aux USA, mais ça n’a pas duré, en effet, en 1994 la Megadrive (appelée Genesis en Amérique du nord) avait déjà 5 ans, et c’est cette même année qu’à été annoncé la Saturn, puis la Playstation.
Le projet SegaChannel a tout de même duré presque 4 ans, puisqu’il a été fermé en 1998 un peu avant que ne sorte la Dreamcast.

SegaChannel

La cartouche SegaChannel General Instrument
Source : blamethecontrolpad.com

J’arrêterais là ce qui finirait presque par ressembler à un cours d’histoire, je n’ai pas évoqué les micro ordinateurs volontairement pour ne parler que des consoles, et je me suis arrêté avec la génération 16bits, mais on peut quand même voir que le téléchargement de jeu, ça ne date pas d’hier, et que ce soit par le câble téléphonique, par le câble antenne, ou même par satellite, les constructeurs ont presque tous essayé de nous proposer des systèmes de téléchargement.

Au début était le pixel…

… en fait, pas vraiment. Si je devais écrire la genèse du jeu vidéo, je dirais qu’au début était l’électron. Mais comme il y a probablement des centaines d’articles, dossiers et livres spécialisés sur l’histoire des jeux vidéo, je n’écrirai pas cette genèse.

J’aimerais cependant faire un petit voyage dans l’affichage des jeux vidéos, ce premier contact entre le joueur et le jeu. Car il faut bien l’avouer, si quelques expériences vidéoludiques ont voulu faire passer le son avant l’image, ou encore si des armées de commentateurs réclament à cors et à cris du gameplay profond, des IAs avec du répondant ou un scénario bien ficelé, au final, une bonne jaquette et quelques bons screenshot font 90% du travail de séduction.

Ce voyage ne sera pas exhaustif et se reposera essentiellement sur mon expérience. Y sera appliquée un filtre bien involontaire de brouillard dû au temps qui passe. Ce voyage sera aussi un voyage du côté technique.

L’électron, donc.

Il y a encore peu de temps, les écrans de nos ordinateurs étaient composés d’une surface en verre sur laquelle venait s’écraser un faisceau d’électrons. Et c’est ce système qui me fit voir ma première image animée : un oscilloscope. Cet oscilloscope au bout d’un générateur de courant alternatif doit constituer le premier jeu vidéo auquel j’ai pu jouer. En jouant sur le facteur d’échelle, la phase et plusieurs autres boutons auxquels je ne comprenais rien mais ayant un effet évident sur la courbe qui s’affichait, je me suis inventé mon premier jeu/jouet vidéo, sans aucun autre but que la génération d’une image sinusoïdale plutôt régulière, mais mouvante.

Ce principe n’était finalement pas si éloigné de Pong et de ses carrés manipulés par des potentiomètres.

Cependant, cet électron à la base de l’affichage a rapidement été détrôné par une abstraction bien plus simple : le pixel.

Le gros pixel

Afficher, pour un ordinateur et si on laisse de côté les couleurs, consiste à allumer ou éteindre une série de zones formant un quadrillage. Le pixel, c’est ça : la plus petite unité connue par la machine pouvant être allumée ou éteinte. Plus tard, elle pourra gérer son intensité ou sa couleur, mais ne grillons pas les étapes.

Au tout début des années 80, ces pixels sont peu nombreux et ce nombre varie d’une machine à une autre. Comme il faut bien stocker l’état allumé/éteint de ces pixels et que la mémoire est chères, les constructeurs trouvent des astuces pour trouver un bon compromis entre la résolution (le nombre de pixels) et le prix des machines.

Une astuce toute simple est de considérer l’écran comme une matrice encore plus grosses de caractères. Après tout, ces ordinateurs sont surtout là pour gérer la comptabilité ou écrire des lettres. Maintenir la table des caractères affichés n’est pas très coûteux. Un affichage de 64 colonnes par 16 lignes, cela fait 1024 positions ; tout pile 1ko, ce qui est jouable pour une machine pouvant aller jusqu’à 48ko de RAM (TRS-80 Model 3). Mais s’il fallait retenir une table des pixels allumés indépendante, le coût augmenterait. Avec des caractères de 8 par 8 pixels, cela donnerait une résolution de 512 pixels par 128, soit 8ko en noir et blanc.

Alors, pourquoi ne pas avoir des caractères spéciaux qui ne sont pas des chiffres ou des lettres, mais plutôt des arrangements de pixels pour former les différents arrangements possibles ? C’est exactement le principe des caractères semi-graphiques. En affichant les bons, comme du texte, il est possible de former une image.

Galaxy Invasion sur TRS-80

Avec une grille de 2 par 3, cela fait 64 combinaisons. Dans une table de 128 caractères, cela permet des caractères, des chiffres et des caractères semi-graphiques.

Vous pouvez vous amuser avec cette configuration grâce à ce petit programme en ligne d’émulation d’affichage à base de caractères semi-graphique.

Forcément, avec quelques signes graphiques que l’on peut mélanger à des caractères alpha numérique, il faut compter sur le pouvoir d’interprétation du cerveau. Mais ça marche.

Parfois d’ailleurs, les caractères alphanumériques sont suffisants, comme dans ce jeu estampillé Star Trek.

Time Trek sur TRS-80

À suivre !

Wii U : La revi U ! Tout ce qu’il faut savoir sur la Wii U

Après l’avoir réservée quelques semaines plus tôt, j’ai donc récupéré la Wii U lors d’une soirée la veille de sa sortie officielle chez Virgin, en version Pack Premium avec l’offre New Super Mario Bros. U pour 1 euro de plus, avec en plus quelques avantages fidélités plutôt sympa.
Quels sont ses défauts ? Est-ce qu’elle vaut le coup ?
Après quelques heures de tests, je vais essayer de vous éclairer un maximum sur cette nouvelle console de Nintendo, une fois de plus dans un de ces articles interminables dont j’ai le secret.

La Wii U c’est la nouvelle console portable de Nintendo ?

Ne rigolez pas, un type racontait sur un forum qu’il avait entendu un vendeur dire ça à un client !
Il semble qu’une partie des gens ne comprenne pas du tout ce qu’est la Wii U, ça pourrait faire rire quand on s’y connait un peu, mais il faut quand même se souvenir que lors de la conférence sur la console à l’E3 2011, certains ont cru qu’il s’agissait d’un accessoire pour la Wii, je lisais les commentaires de spéctateurs regardant en live la conférence, et j’en revenais pas, même sur les forums de sites spécialisés, on voyait l’incompréhension la plus totale au sujet de cette nouvelle console.

La Wii U c’est bien une nouvelle console de salon, comparable à une Playstation 3 ou une Xbox 360, et avec une manette principale appelée gamepad et équipée d’un écran tactile, qui permet de nouvelles possibilités de gameplay, mais aussi – et ce surement de là que vient cette confusion – de continuer avec certains jeux sa partie sur la manette pour libérer l’écran de télévision, la console restant allumée. Le gamepad est donc un contrôleur, et un « écran » portable, pas une « console portable ».

Le gamepad : jeu multi écran, jeu asymétrique, et « cloud gaming » en local

Il est important de bien comprendre à quoi peut servir le gamepad, parce que ce n’est pas forcément évident au départ, et pourtant c’est vraiment la différence qu’offre Nintendo avec cette console en plus des fonctionnalités traditionnelles.

Le jeu multi écran, on connait déjà – ne serait-ce qu’avec la Nintendo DS – avec le gamepad la Wii U peut potentiellement proposer tout ce que la Nintendo DS propose en terme d’interactivité, avec deux écrans, la télévision, et celui du gamepad.
Avec son écran tactile le gamepad permet d’avoir des contrôles en plus que ceux qui sont offert avec les boutons traditionnels, et aussi d’intéragir avec l’autre écran, comme en faisant un mouvement de lancé avec un Shuriken vers l’écran TV qui affiche des cibles, comme dans le jeu Takamaru’s Ninja Castle proposé dans la compilation Nintendo Land.

Nintendo Land - Takamaru's Ninja Castle

Nintendo Land – Takamaru’s Ninja Castle

Le jeu asymétrique, c’est simplement un jeu ou les différents joueurs n’ont pas les mêmes possibilités de jeux, du fait qu’ils n’utilisent pas le même contrôleur.
Pour illustrer ça simplement, il faut imaginer un jeu, ou le premier joueur a un gamepad et doit lancer une balle à l’aide de son écran tactile, le deuxième doit la taper à l’aide d’une Wiimote, et le troisième doit courir et la rattraper avec un contrôleur pro.
Plusieurs contrôleurs, plusieurs règles, plusieurs objectifs. Tout le monde joue, mais pas de la même façon.
A l’instar d’un Natural Selection 2 sur PC qui mélange un gameplay STR et FPS, on pourrait imaginer dans l’avenir du jeu asymétrique des MMO ou un ou plusieurs joueur seraient chargés de gérer une base, la création de bâtiment, et de troupes, avec des règles proches d’un STR, et les troupes créés et autres véhicules seraient contrôlées par d’autres joueurs à la manière d’un FPS, à chaque mort d’un soldat ou perte d’un véhicule, le joueur récupérerait le soldat suivant si il en reste dans les troupes envoyés au combat… Bref, y a moyen de mélanger les genres pour obtenir du jeu franchement très fun. Mais comme on dit : « Faut qu’c’est bien fait !« , et je vois plus un jeu de ce type arriver sur PC que sur Wii U, mais on ne sait jamais !

Pour finir, le gamepad propose ce que j’appellerais du cloud gaming en local, c’est une fonction mise en avant avec New Super Mario Bros. U par exemple, vous commencez votre partie sur votre téléviseur, puis viens l’heure d’un programme en direct immanquable pour quelqu’un qui vit avec vous (parents, conjoint, chat…), pas de problème, vous pouvez continuer votre partie sur le gamepad dans votre coin, comme avec une console portable, à la différence que le gamepad ne calcule pas le jeu, c’est la Wii U toujours allumée qui calcule le jeu, et l’envoi en vidéo compressée sur le gamepad.

Ce dernier point est fondamental pour comprendre ce que fait le gamepad. Il ne calcule rien du jeu, il reçoit toujours quelque chose de calculé par la Wii U, ce que vous voyez est toujours de la vidéo, que ce soit le jeu, ou les menus d’un jeu ou de la console.
On peut aisément s’en rendre compte en voyant Mario et sa casquette rouge un peu pixelisée, même si c’est très léger, et que ça ne gène en rien pour jouer, c’est le signe d’une compression, le rouge ça bave toujours un peu.

Le gamepad décompresse donc de la vidéo qu’il reçoit de la Wii U, et peut également compresser et envoyer la vidéo prise par la web cam.