Hardware Mag 55

Page 1

5,90 €

oct./novembre 2011 n°55

La bible du

l’architecture

des GPU processeur La carte graphique vue de l’intérieur

Du Sempron 140 CPU au Core i7,

p.112

700 benchs quelle puce de la bureautique simple à l’encodage intensif ? p.18

Guide de l’OC

téléphonie IP De grosses économies grâce à votre PC ou smartphone

p.72

p.34

5 GHz en aircooling facile ! Bulldozer : le retour d’AMD ?

Personnalisez Windows Media Center

Créez une bibliothèque ultrastylée Lisez tous les formats audio/vidéo/ sous-titres sans accroc p.78

Boostez vos débits réseau

Wi-Fi jusqu’à 15 Mo/s Ethernet à plus de 200 Mo/s en quelques clics p.58

Lian LI PC-90 : il réinvente l’espace interne

TESTS

HFX PowerNAS Serveur WHS 2011

Corsair CX430 V2

Le retour d’une référence

SSD

M4 amélioré, Sandforce moins cher, notre choix ! p.122

L 19293 - 55 - F: 5,90 € - RD

BEL/LUX : 6,5 € - CH : 11,80 FS - CAN : 10,25 $ DOM: 6,10 € NCL/S : 710 CFP - NCL/A : 1500 CFP - POL/S : 750 CFP



EDITO

55

HARDWARE MAGAZINE

Vous êtes tous des pirates ! Une fois n’est pas coutume, nous avons upgradé le PC qui sert à sortir les fichiers PDF de votre magazine favori. Le passage d’un vieux disque dur au SSD est clairement la plus grosse révolution, les logiciels de PAO n’étant pas ce qu’il y a de plus léger à manier. 8 gigas de RAM, c’est surement trop pour cette bécane allumée deux jours par mois, mais au prix de la RAM de nos jours, qui passerait à côté ? Enfin, l’adoption d’un Core i7 à la place du vieux Core 2 Duo rend la transformation des maquettes en PDF aussi rapide que l’éclair, la barre de progression s’affiche à peine, le pied ! Mais, c’est vrai qu’en comparaison du jour béni de 2006 où le Mac est parti au rebut, il s’agit d’une modeste satisfaction.

Courrier des lecteurs : Email : lecteurs@techage.fr Abonnements : Axiome Abonnement Presse Hardware Magazine L’Engarvin 06390 COARAZE Pour tout renseignement sur les abos : 06 26 64 23 29 abo@axiomegroup.biz

A propos de petits plaisirs, le superbe, l’énorme, l’ultime (ou pas) coffret StarWars est sorti en Blu-ray ! Alors que notre chef vénéré n’a toujours pas trouver de super star destroyer en leasing, Luke et ses potes vont pouvoir sauver la galaxie en 1 920 x 1080 avec un son à couper le souffle :) Enfin ça, ça sera le jour où les logiciels PC auront corrigé les betises de Lucas. Parano, il n’a pas pu résister à utiliser la dernière évolution des protections anti copie, les films étant à leur sortie inutilisables sur PC (et certaines platines de salon, d’ailleurs). Snif. N’empêche qu’acheter des films légalement et ne pas pouvoir les regarder, quelle déception :( Les téléchargeurs de MKV n’auront pas eu ce problème, eux… Bande de vilains, va. Ça rappelle Canal Sat qui a brusquement changé son cryptage pour que les chaînes HD ne soient reçues que sur décodeur officiel. Abonnés légaux avec un CAM légal sur PC, acheteurs de bluray légaux, vous devez être responsables de tout le piratage de la terre pour être ainsi punis ! Tipiacs !

Administrateur délégué et Directeur de la publication : Christian Marbaix RDC délégué : Thomas Olivaux Chef de rubrique : Benjamin Bouix Rédacteurs : Tridam ; Pierre Caillault

Imprimeur : M Arts Graphiques, imprimé en Italie sur papier 100% recyclé Conception graphique : David Benamou Maquettiste : Cyril Albo

Agence de presse MPM Editions RDC : Jérémy Panzetta Rédacteur : Manuel Da Costa

Publicité : Régie COM’CONSULT Stéphanie Chauvin techage@comconsult.fr

N° de commission paritaire : 0913 U 83994 - Dépôt légal : quatrième trimestre 2011

Hardware Magazine est édité par Tech.Age SA au capital de 78300 € 53, route d’Arlon, L-1140 Luxembourg L’envoi de tout texte, photo ou vidéo implique l’acceptation par l’auteur de leur libre publication dans le journal. Les documents ne sont pas retournés. La loi du 11 mars 1957 n’autorisant aux termes des alinéas 2 et 3 de l’article 41 d’une part que « des copies ou reproductions strictement réservées à l’usage du copiste et non destinées à une utilisation collective» et d’autre part que les analyses et courtes citations dans un but d’exemple et d’illustration, « toute représentation ou reproduction, intégrale ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause, est illicite » (alinea premier de l’article 40). Cette représentation ou reproduction, par quelques procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants de l’ancien code pénal.

Textes, photos : copyright 2011 Tech.Age SAS


18

54

128

58

72

78

HARDWARE MAGAZINE 55 Octobre/Novembre 2011

SOMMAIRE News 6 10

Le meilleur du hardware Cas pratiques

Dossier 18

34

votre CPU. Nous avons atteint 5 GHz en aircooling et vous, que vaut votre processeur une fois overclocké ?

Que valent les CPU de 2011 ? Jusqu’ou les overclocker ? Overclocking : jusqu’à 5 Mhz facile en aircooling Vous cherchez votre nouveau CPU et vous ne savez pas vers quel modèle vous tourner ? Nous vous expliquons ici les éléments principaux à surveiller, détaillons le fonctionnement d’un CPU pour mieux comprendre l’influence de divers paramètres, simplifions les gammes des deux fondeurs afin d’y voir plus clair lors du choix sans oublier tous les benchs nécessaires à un choix clair. L’overclocking n’est pas délaissé, que ce soit par besoin ou par plaisir, avec un guide plateforme par plateforme pour tirer le maximum de

54

AMD FX. Les premiers CPU Bulldozer décuplent les cores, le cache et les fréquences Enfin là… ou pas ! AMD retarde encore d’un mois son tant attendu processeur FX. Pour le meilleur ou pour le pire ? En attendant, revue de détail sur l’architecture Bulldozer et tout ce qui est déjà connu des prochains CPU.

58

Boostez vos débits réseau Diagnostic, mises au point, trucs et astuces pour résoudre les problèmes et booster les performances de votre réseau, ce guide vous fera passer avec peu d’efforts jusqu’à 14 Mo/s en Wi-Fi, simplement en optimisant des paramètres. Mêmes gains à espérer pour l’Ethernet avec un beau 120 et même 240 Mo/s en cumulant deux prises !

Pratique 72

Le meilleur de la téléphonie IP sur PC Cumulant confort et économies, la VoIP est en plein essort, et se montre plus compétitive que les offres téléphoniques IP des prestataires Internet. Voici l’étude des meilleures solutions pour téléphoner moins cher sur les mobiles notamment, depuis son PC ou sur smartphone.

78

Personnaliser Windows Media Center Windows Media Center est une excellente centrale multimédia dont les capacités sont constamment améliorées. Nous avons sélectionné les meilleurs plugins et utilitaires pour afficher vos films et séries dans un juke-box élégant, lire n’importe quel format de fichiers audio et vidéo, et personnaliser les menus de l’interface. Vous n’avez plus qu’à suivre ce guide de configuration étape par étape.


96

Du port série à Thunderbolt De quelques octets par seconde via une prise grosse comme la main aux fibres, retour sur 30 ans de prises et périphériques externes.

102 Les softs du mois 104 Geekitude 108 Windows 8 : des rumeurs à la réalité

Bien plus qu’un restylage, Windows 8 apportera un gros lot de nouveautés. Pour la plupart très prometteuses. Microsoft bouge lentement mais dans le bon sens !

112 L’architecture des GPU

Après le fonctionnement du rendu 3D, nous nous attaquons à l’implémentation de son traitement dans les GPU. GeForce et Radeon actuels, mais également Graphic Core Next, voici comment fonctionnent les GPU.

Tests

55 NUMERO

AU TOP

122 Le Lian Li PC-90 réinvente l’espace

Capable d’accueillir douze disques durs et les plus grands formats de cartes mères, le PC-90 de Lian Li étonne aussi par sa taille raisonnable et l’originalité de son châssis. Reste à voir si le boîtier est efficace en termes de montage et de refroidissement.

125 Adata BN 400 et Corsair CX 430 V2

Corsair renouvelle une référence, la CX430 V2, promettant un meilleur rendement. Restera-t-elle la reine des blocs à moins de 40 € ? La BN 400 W à 50 €, première alimentation ADATA, clone Cougar pour le meilleur.

108 Windows 8

Des nouveaux menus HD à la gestion ultra optimisée des ressources : revue de détails

122 Lian Li PC-90

Un châssis original et compact acceuillant les plus grandes cartes mères.

126 MSI Z68A-GD65 et Z68MA-G45

Après l’ASRock Fatal1ty, la MSI Z68A-GD65 (G3) est la deuxième carte mère compatible PCI-E 3.0 qui passe entre nos mains. Est-ce un critère suffisant pour craquer ? Vendue à peine plus de 100 €, la Z68MA-G45 démocratise, quant à elle, le Z68 et son format la suppose idéale pour le home cinéma.

125 Corsair CX430 V2

Rendement amélioré pour notre référence à moins de 40 €

128 HFX PowerNAS 2011

Propulsé par Windows Home Server 2011, le PowerNAS 2011 de HFX est un PC en forme de NAS à cinq baies de stockage hebergé dans un boîtier compact.

132 Les Crucial M4 vont-ils résister aux

derniers SandForce ?

L’arrivée de nouveaux SSD SandForce moins chers et d’un firmware boostant les performances des Crucial M4 est l’occasion de faire le point sur le meilleur choix à faire pour un disque système.

136 Les configs de la rédac

126 MSI Z68A-GD65 (G3) Prête pour le PCI-Express 3.0

et nouveau look UEFI

132 Crucial M4

Encore meilleur avec le noueau firmware !


Le meilleur du hardware IDF 2011 : Haswell fonctionnel, 2 W pour 100 Gflops en 2018

Comme chaque année, l’automne marque l’arrivée de l’Intel Developer Forum et de nombreuses informations sur les produits Intel à venir, mais également sur les développements à plus long terme en cours chez le constructeur. De manière de plus en plus évidente, aidé par le manque de compétition d’AMD, c’est sur la baisse de la consommation que se focalise Intel et non plus sur les performances pures, bien que ce point ne soit pas négligé pour autant. Le fondeur nous en apprend ainsi un petit peu plus sur le CPU Haswell de 2013, tout d’abord en démontrant qu’il est déjà fonctionnel et ensuite, en dévoilant un die relativement petit, impliquant qu’après Sandy Bridge et Ivy Bridge, la première incarnation de cette future architecture restera sur une base quad core. Il faut dire que ce CPU a pour cible principale la concrétisation de la plateforme Ultrabook qui consiste, pour rappel, à proposer des PC portables compacts, mais néanmoins puissants. En plus de réduire l’enveloppe thermique de la plateforme de 50 %, Haswell devrait réduire de plus de 20 fois la consommation en mode veille connecté. Ce mode, dans lequel le PC peut continuer à recevoir en continu des e-mails, des news, etc., pourra ainsi fonctionner 10 jours sur batterie. Pour Intel, lorsque le rendement énergétique devient crucial, le fait de posséder ses propres usines est plus que jamais un facteur déterminant dans le succès de ses futurs produits. La conception des futures architectures peut intégrer plus tôt les atouts d’un procédé de fabrication à venir, et celui-ci peut être adapté plus finement aux objectifs visés.

hm55

Le fondeur précise développer dorénavant la version SoC de son procédé de fabrication en même temps que la version classique, de quoi accélérer le développement de la plateforme Atom, et en profite pour tacler ses concurrents qui, il faut l’avouer, ont toujours une guerre en retard sur le front des procédés de fabrication. Pour pousser plus loin la réduction de la consommation, Intel étudie la possibilité Mooly Eden, vice-président du PC Client Group, sort de son chapeau un sample de Haswell, dont un exemplaire fonctionnel de faire fonctionner tourne dans le système que vous pouvez apercevoir derrière lui. les CPU à la tension seuil du transistor de plus ou moins 0,4 V, ce qui baisse la consommation de 5 à 10 fois par rapport à la tension nominale actuelle, certes avec une réduction drastique de la fréquence. Etant donné qu’il s’agit de la limite physique du transistor, il est nécessaire de faire de très gros efforts sur le plan du design, pour s’assurer un bon fonctionnement. Les chercheurs d’Intel y sont finalement parvenus avec un CPU de test, dénommé Claremont, basé sur un core Pentium et qui, avec une consommation de 10 mW, peut être alimenté par une petite cellule photovoltaïque et fonctionner sans le moindre dissipateur, tout en étant capable de multiplier sa fréquence par 10 dans d’autres conditions. La mémoire est également dans la ligne de mire pour réduire la consommation, alors que les besoins en bande passante vont exploser. L’Hybrid Memory Cube consiste ainsi à empiler des cellules mémoire sur une couche de logique telle qu’un CPU. Une proximité qui permet de mettre en place des bus très rapides, mais peu gourmands. Intel a fait la démonstration d’un module de ce type de 512 Mo capable de débiter 128 Go/s, avec un rendement énergétique multiplié par 7. De quoi atteindre les objectifs d’une plateforme 100 Gflops tenant dans 2 W d’ici 2018, contre 200 W aujourd’hui ?

Ce core Pentium fonctionne à la tension seuil des transistors et ne consomme alors que 10 mW.

Intel a une longueur d’avance sur la concurrence en termes de technologie de fabrication.

6 Hardware Magazine


NEWS

Ivy Bridge se dévoile

Ivy Bridge est le nom de code du successeur de Sandy Bridge, attendu pour début 2012. Ce CPU quad core représente un « Tick » dans la stratégie d’Intel puisqu’il inaugure un nouveau procédé de fabrication, le 22 nm, sans apporter de changements d’architecture majeurs. Composé de 1,4 milliard de transistors, ce CPU quad core est 20 % plus complexe que Sandy Bridge. Au niveau de la partie CPU, il apportera quelques nouvelles instructions, pour la génération des nombres aléatoires, pour éviter les attaques de type escalade de privilèges, pour convertir le format compact FP16 (utilisé en HDR) en FP32 traité par le CPU et vice versa. Pour gagner quelques points de performances, les divisions sont deux fois plus rapides et l’instruction MOV est traitée directement au niveau du renommage des registres, sans passer par une unité d’exécution. Pour réduire la consommation, Intel s’est attardé à la mémoire avec un power gating des I/O et le support de la mémoire DDR3L. Ce n’est pas tout, puisque le CPU est capable de rediriger les demandes d’interruption (IRQ) vers le core qui est actif, alors qu’actuellement, elles le sont toujours vers le premier core qui peut être au repos et réveillé sans que cela ne soit utile. Mais pour aller plus loin, c’est avant tout une caractérisation plus précise de la tension CPU à différents états ou fréquences, tant pour les cores que pour le system agent, qui va permettre de réduire la consom-

Avec Ivy Bridge, le GPU intégré, à gauche, prend plus d’importance.

mation, d’autant plus qu’elle est accompagnée de deux nouveaux TDP, TDP Up et TDP Down. TDP Up pourra, par exemple, servir à profiter d’un meilleur refroidissement du portable, une fois connecté à une base d’accueil, pour donner plus de marge au CPU, alors que TDP Down facilitera les designs les plus compacts. Le CPU sera certifié aux trois TDP et il reviendra au fabricant d’en faire une utilisation ou pas. Ivy Bridge ULV disposera ainsi de TDP de 13, 17 et 33 W. C’est cependant le core graphique qui évolue le plus, Intel ayant probablement été piqué au vif par Llano à ce niveau. Alors qu’il représentait un peu moins de 20 % de la surface du die de Sandy Bridge, il occupe plus de 30 % de celui d’Ivy Bridge. Cette montée en puissance de la partie graphique s’explique par le support de DirectX 11 et d’OpenCL 1.1, mais pas seulement. L’architecture a été revue en profondeur, pour pouvoir évoluer plus facilement. Intel opère ici un changement identique à celui effectué par AMD et nVidia :

le recouplage des unités de texturing avec les unités de calcul. Cette proximité est plus efficace et permet d’en augmenter le nombre plus facilement. Si Intel se refuse à parler officiellement du nombre d’unités, nos informations font état de 16 EU et 8 unités de texturing, contre 12 EU et 4 unités de texturing dans Sandy Bridge. Le fabricant insiste sur le fait d’avoir privilégié le rendement à la multiplication du nombre d’unités, ainsi chaque EU voit sa puissance de calcul doubler. Ajoutez à cela diverses petites optimisations, une augmentation du nombre de registres et l’ajout d’un cache L3 pour éviter de saturer le LLC et nous devrions obtenir un gain de 60 % selon Intel. Notez, pour terminer, que le moteur vidéo Quick Sync évolue lui aussi, en supportant plus de formats tant pour le décodage que l’encodage qui devrait pouvoir monter en qualité. Pour afficher tout cela, pas moins de trois sorties vidéo indépendantes seront gérées.


Acer lance un écran 23’’ 1 920 x 1 080 2 ms qui se vante d’afficher une image 3D pour à peine 220 €. Il ne faudra pas confondre le GR235H avec ses cousins dits 120 Hz, puisqu’il utilise la 3D par polarisation, moins coûteuse mais aussi moins qualitative que la 3D stéréoscopique (résolution verticale divisée par deux, luminosité réduite). Enermax annonce enfin sa gamme finale d’alimentations Platinum et pourrait bien être le premier à atteindre les étals français. La Platimax est une alimentation modulaire multirail, dont la puissance varie de 600 à 1 200 W. La plus petite d’entre elles, toutefois, est annoncée à 180 €. Aïe ! Samsung a dévoilé un concept qui devrait voir le jour début 2012 : le graveur DVD externe sans fil. Le Wi-Fi a été retenu pour communiquer avec le PC, les tablettes ou les smartphones de la marque. Il ne reste plus qu’à insérer une pile à combustible pour s’affranchir du dernier fil et ce sera parfait. Les fréquences 4G 2.6 GHz ont été attribuées aux quatres opérateurs mobiles français. L’Arcep a imposé un minimum de 7.5 Mo/s en 4G, une révolution quand la 3G n’atteint même pas 2 Mo/s. Les fréquences 4G 800 MHz nécessitant moins d’antennes pour une converture équivalente et plus adaptées aux zones urbaines seront négociées en décembre, permettant aux opérateurs de mettre en place leurs réseaux : vivement la suite ! Club 3D dévoile des GTX560 et GTX560 Ti Green Edition. Elles consomment 10 % de moins grâce à un PCB maison, le tout en conservant les fréquences de fonctionnement des cartes de référence. De vraies cartes basse consommation donc, bien plus intéressantes que les cartes castrées ou underclockées que dissimulent souvent ces termes marketing. Creative renomme son processeur X-Fi en Sound Core3D. La nouvelle famille de cartes son s’appellera désormais Sound Blaster Recon3D mais rien ne change par rapport aux cartes existantes. La marque tiendra toutefois ces cartes à la disposition de tiers comme MSI, Asus ou Gigabyte qui pourraient les proposer en bundle avec des cartes mères.

8 Hardware Magazine

SSD Intel 710 et MLC « HET »

Les nouveaux SSD Intel 710 sont enfin arrivés. Ils remplacent les X25-E et visent donc le marché professionnel. Leur prix en atteste : 649 $ la version 100 Go, 1 289 $ le 200 Go et 1 929 $ le 300 Go. Alors que les SSD grand public les plus rapides du moment (les SandForce équipés de MLC Toshiba 32 nm) affichent des tarifs de 2 €/Go, le 710 coûte plutôt 6 €/Go ! Et pour couronner le tout, il s’agit du même contrôleur SATA 2 que le 320 mais avec un nouveau firmware, l’accent ayant été mis sur la fiabilité plutôt que sur les performances. Aussi, on retrouve de la MLC 25 nm dite HET (High Endurance Technology) qui s’avère être de la MLC classique, dont la durée de rétention (temps moyen au bout duquel les données stockées dans les cellules peuvent être altérées) a été réduite de 12 à 3 mois, mais dont la limite des cycles d’écriture a été multipliée par 30. Dès lors, si le X25-E était une solution séduisante pour les particuliers fortunés, il n’en sera pas de même pour le 710 qui répond à des exigences bien particulières. Moins délirants, les Kingston KC100 sont des SSD aussi destinés au monde professionnel, mais bien plus abordables. A 340 €, la version 120 Go, c’est déjà nettement plus raisonnable. Il utilise la même base que le SSD HyperX, à savoir de la MLC 25 nm certifiée 5 000 cycles (au lieu de 3 000 pour les autres SSD) et un contrôleur SandForce SF2281. Mais Kingston paye quelques licences de plus à SandForce, afin d’activer des options supplémentaires du contrôleur, notamment les fonctions avancées du SMART permettant de surveiller l’usure et la fiabilité du SSD, ainsi que le double cryptage des données en AES 128 bits et 256 bits. De son côté, Adata suit la tendance en lançant un SSD SandForce équipé de puces asynchrones. Le S510 sera uniquement disponible en 120 Go et à un tarif logiquement inférieur à celui du S511 utilisant de la mémoire synchrone. La différence de tarif s’explique par le fait que la mémoire asynchrone est beaucoup moins à l’aise sur des données non compressibles que la mémoire synchrone, les débits étant divisés par deux en lecture par exemple. Enfin, OCZ lance son RevoDrive Hybrid. Nous vous en parlions au retour du Computex, il s’agit d’un SSD PCIExpress 4x combiné à un disque dur 2,5’’. Les spécifications et le prix sont désormais arrêtés et il est question de deux SF2281 gérant chacun 50 Go de mémoire Flash (une grappe RAID 0 de 100 Go en somme) qui atteignent 910 Mo/s en lecture, 810 Mo/s en écriture et 120k IOPS en écriture 4k aléatoire. Le disque dur est un modèle 1 To

Intel se met au watercooling

Les CPU Sandy Bridge-E seront vendus nus, c’està-dire sans le moindre système de refroidissement, Intel estimant qu’ils ciblent les amateurs avisés qui préféreront dans tous les cas opter pour le système de leur choix. Le fabricant lancera, par contre, parallèlement un kit de watercooling tout-en-un, le RTS2011LC. Comme pour plusieurs autres marques, il s’agit en réalité d’un dérivé du 570LC d’Asetek. Intel ne communique pas encore de tarif pour ce système, mais précise ne pas avoir prévu de bundle avec ses CPU.

5 400 tpm qui n’est évidemment pas aussi rapide (tout au plus 120 Mo/s au bout des plateaux). Les deux supports sont combinés à la façon d’un SSD Caching : les données les plus utilisées sont traitées depuis la mémoire Flash à très haute vitesse, alors que les documents rarement utilisés se trouvent sur le disque dur, le tout étant géré par le logiciel SSD Caching Dataplex de Nvelo. La seule différence par rapport à la technologie Intel SRT provient donc de la quantité de Flash qui ne semble pas limitée à 64 Go, ce qui autorise la mise en cache de plus de données, repoussant le moment où elles seront déplacées sur le HDD à cause d’une saturation du SSD. Bien que cette solution clé en main soit très séduisante, il faut garder en tête qu’elle coûte quand même 500 $ (soit 500 € en Europe) et que pour le même prix, on peut s’offrir deux SSD SandForce de 120 Go et un disque dur de 2 To 7 200 tpm. Le tout ne pourra pas fonctionner via Intel SRT mais 240 Go, cela représente déjà une bien belle partition pour un système. L’absence de TRIM est cependant un autre problème. Bien que le RevoDrive utilise la technologie VCA 2.0 dont nous vous parlions dans Hardware Magazine n° 54, la gestion du TRIM n’est toujours pas à l’ordre du jour en environnement Windows. Autant dire que les 810 Mo/s vont rapidement et indéfiniment baisser, se montrant petit à petit tout juste équivalents à un seul SSD. Et bien sûr, comme toutes les solutions « tout-en-un », l’upgrade sera plus compliquée. A peine peut-on imaginer remplacer le HDD mais il faudra garder un modèle 2,5’’.


NEWS

Vers les HDD de 4 To

La DX79SI d’Intel.

La X79-UD7 de Gigabyte.

La X79A-GD65 de MSI.

Les cartes mères X79 de Gigabyte, Intel et MSI

A l’approche de l’arrivée du Sandy Bridge-E, les cartes mères X79 débarquent. Voici quelques modèles qui commencent à s’afficher : Intel DX79SI : 8 DIMM, PCIe graphique 16 + 16 + 8, 2 x PCIe 1x Gigabyte X79-UD3 : 4 DIMM, PCIe graphique 16 + 16 + 8 ou 16 + 8 + 8 + 8, 2 x PCIe 1x Gigabyte X79-UD5 : 8 DIMM, PCIe graphique 16 + 16 + 8, 2 x PCIe 1x Gigabyte X79-UD7 : 4 DIMM, PCIe graphique 16 + 8 + 8 + 8, 3 x PCIe 1x Gigabyte G1.Assassin 2 : 4 DIMM, PCIe graphique 16 + 16 + 8, 2 x PCIe 1x, audio Creative, réseau Killer E2100 MSI X79A-GD45 : 4 DIMM, PCIe graphique 16 + 16 + 8, 4 x PCIe 1x MSI X79A-GD65 : 4 DIMM, PCIe graphique 16 + 16 + 8 ou 8 + 8 + 8 + 8 + 8, 1 x PCIe 1x MSI X79A-GD65 (8D) : 8 DIMM, PCIe graphique 16 + 16 + 8 ou 8 + 8 + 8 + 8 + 8, 1 x PCIe 1x Nous ne rentrerons pas dans le détail des ports SATA/SAS qui peuvent monter jusqu’à 14 chez Gigabyte, puisque cela va changer sur les versions finales, Intel ayant revu les spécifications à la baisse. Toutes les cartes mères supportent le PCIe 3.0, bien qu’Intel n’en certifiera pas la compatibilité avec ses CPU avant l’arrivée des premières cartes graphiques compatibles. Notez que chez MSI, lorsque les liens 16x sont séparés en 2 x 8x, le second 8x est limité au PCI-Express 2.0.

USB 3.0 et Thunderbolt : vers une cohabitation Il semblerait qu’Acer et Asus veuillent utiliser Thunderbolt sur leurs portables Ivy Bridge en 2012, sans doute les Ultrabook qui bénéficieraient ainsi d’un équipement ultracomplet. En outre, de plus en plus de périphériques débarquent avec une telle interface, notamment les nouveaux boîtiers G-Drive et GoFlex d’Hitachi et Seagate. Sony l’a même utilisée pour son Vaio Z afin d’y relier un dock avec carte graphique, lecteur optique et quelques connectiques supplémentaires. Même Apple, qui jugeait l’USB 3.0 inutile et voyait en Thunderbolt une interface bien plus saine, revient sur son discours en envisageant d’intégrer l’USB 3.0 sur ses prochains MacBook. Il semblerait donc que les deux cohabitent, l’USB 3.0 devenant la connectique par défaut, secondé par Thunderbolt pour les transferts à très haut débit. Notez que Renesas a annoncé un bridge USB 3.0 vers SATA 6 Gb/s autorisant des débits de 370 Mo/s. Cela signifie que les boîtiers externes pour disques durs vont faire de gros progrès, les puces ASMedia jusque-là employées étant moins rapides, autour des 180 Mo/s. Le progrès est donc louable, mais inutile

si vous utilisez un disque dur, trop lent pour saturer les puces existantes. Du côté de Via, le VL810 a été amélioré et devient le VL811. Les performances de ce hub USB 3.0 4 ports ont donc été améliorées (bien qu’on ne sache pas dans quelle mesure) et il supporte désormais l’USB Charging 1.2 qui permettrait à terme de délivrer 100 W par port ! Et en ce qui concerne les périphériques, Corsair vient enfin de se lancer dans le marché des clés USB 3.0 qui dépotent. Jusque-là, seule la Voyager USB 3.0 était compatible mais offrait des débits très limités en écriture, puisque variant entre 55/12 et 70/39 Mo/s en lecture/écriture. La Voyager GT USB 3.0 est annoncée à 135/41 et 135/83 Mo/s pour les versions 32 et 64 Go. Bonne nouvelle, les prix sont à peine supérieurs pour la version 32 Go (la seule disponible dans les deux gammes). La Survivor USB 3.0 reprend le même principe que les anciennes, à savoir une clé USB enfermée dans un caisson ultrarésistant et étanche, et dont les performances sont similaires à celles de la Voyager USB 3.0.

Samsung et Seagate présentaient, lors du CeBIT, des disques durs 3,5’’ équipés de plateaux de 1 To. Seagate avait même lancé un modèle 3 To utilisant trois de ces plateaux (au lieu de quatre plateaux de 750 Go) mais réservé à la gamme de disques durs externes (GoFlex). Une fois n’est pas coutume, cette gamme bénéficie d’une nouvelle exclusivité, celle du premier disque dur 4 To. Il compte cinq plateaux de 800 Go tournant à 7 200 tpm et 64 Mo de cache. Le prix n’est pas si élevé puisqu’il est annoncé autour de 250 €, alors qu’un disque dur 3 To 7 200 tpm coûte 160 €.

Partant de ce prix, un disque 4 To devrait coûter environ 215 €. L’innovation technologique (un nouveau produit coûte toujours plus cher) et le boîtier externe ne se payent dont que 35 €. Chez Hitachi, c’est le G-Drive 4 To qui recèle un unique disque 3,5’’ 7 200 tpm. On ne sait cependant pas s’il utilise la même configuration que chez Seagate ou bien quatre plateaux de 1 To. En outre, le 7K1000.D qui utilise un unique plateau de 1 To est disponible en vente. Plus rapide et plus léger que le 7K1000.C, on espère qu’il ouvrira la porte à des disques plus volumineux. Tout ça s’annonce aussi très bénéfique pour les disques 2 et 3 To qui devraient voir leur prix encore baisser.

Corsair élargit encore sa gamme Gaming Après les casques-micros et les kits son, voilà que Corsair se lance dans les claviers et souris. Les deux claviers partagent une base commune avec un châssis en aluminium et des switchs mécaniques Cherry MX Red. Ils ont la particularité d’offrir une frappe assez légère et ne font pas de bruit, contrairement au clavier BlackWidow de Razer qui embarque des Cherry MX Blue. Le K60 se contente de dix touches ergonomiques rehaussées de rouge, dont les touches Z, Q, S et D utilisées dans les jeux et d’un petit repose-poignets. Le K90 rajoute un rétroéclairage bleu de quatre niveaux, quinze touches pour les macros sur la gauche et une mémoire interne permettant d’enregistrer trois profils.

Même topo pour les souris : capteur 5 700 dpi ajustable par paliers de 100 dpi, fréquence réglable entre 125 et 1 000 Hz et armature en aluminium. La M60 compte huit boutons programmables, alors que la M90 en a quinze, ainsi qu’une mémoire capable d’enregistrer jusqu’à six profils ! Pour ceux qui préfèrent le multitouch, Logitech lance le Wireless Touchpad. Un touchpad à la façon de celui des ordinateurs portables, qui intègre donc une large surface tactile multitouch et deux boutons. Vous pourrez ainsi profiter des raccourcis tactiles de Windows 7 (pinch and zoom, rotation, faire défiler des photos, etc.) sur votre PC de bureau. Espérons que la compatibilité sera étendue à Windows 8, car pour le moment, Logitech se limite à Windows 7 (même pas de Linux).

Hardware Magazine 9


Cas pratiques

En nous envoyant une question technique par mail (lecteurs@techage. fr), vous pouvez gagner un SSD Force 60, un kit mémoire Corsair Vengeance (au choix 3*2 Go ou 2*4 Go), une alimentation HX750W ou encore un boîtier Graphite 600T noir ou blanc ! La rédaction choisira la question la plus pertinente et son auteur recevra son lot. Notez que nous ne pourrons sans doute pas répondre de manière individuelle à toutes les questions !

Gagnez un ssd 60 Go ou 6 Go de RAM ou une alim 750w Ou un boitier Graphite !

Un PC de bureau 100 % fanless Je vous écris aujourd’hui car je souhaite construire un PC pour ma femme. Il s’agit de faire de la bureautique/Internet + du stockage/tri de photos (beaucoup de photos). Je souhaite utiliser un boîtier Lian Li PC-Q07A qui sera posé sur le bureau et que je souhaite donc le plus silencieux possible. J’ai un peu de mal à trouver la bonne carte mère mini-ITX (j’ai eu beau fouiller dans mes vieux PC Update et Hardware Magazine, je n’ai pas trouvé de réponse) et surtout, le système de refroidissement à utiliser dans un si petit boîtier. Je pense utiliser un processeur AMD Athlon II X4 640 + 4 Go de RAM + HDD 2 To. Les cartes mères mini-ITX en socket AM3 sont rares. Mais toutefois votre AMD Athlon II X4 640 pourra se loger facilement sur une Asus M4A88T-I Deluxe ou sur une Sapphire PURE Mini 785G AM3, deux modèles trouvés facilement dans le commerce pour moins de 120 € chacun. Pour le mini-ITX, la mode est plus facilement à l’Atom, aux Core i3/i5/i7 et chez AMD, aux E350/E450 ou au socket FM1. On trouve beaucoup plus de références pour ces modèles, bien plus que pour un CPU AM3 « standard ». Si vous avez déjà votre CPU AMD, sachez qu’une machine complète montée sans carte graphique sur une telle plateforme consommera dans les 150 W en charge. C’est raisonnable. Ce qui implique que le PC sera facile à alimenter et à refroidir. Mais attention, le mini-ITX corse un peu l’équation. Vous avez jeté votre dévolu sur un boîtier Lian Li PC-Q07. Ce joli châssis accepte les alimentations ATX classiques, mais dispose de contraintes propres à sa taille. La première concerne le ventirad : au maximum 70 mm de haut. Ce qui exclut d’office tous les radiateurs alternatifs assez hauts et massifs. Mais plusieurs solutions de choix existent néanmoins. On peut citer le Scythe Big Shuriken qui fait 58 mm de haut (plus 12 mm pour son ventilateur, soit pile 70 mm) et qui, avec son ventilateur de 120 mm (format slim), refroidit mieux que le Shuriken et un peu moins bien qu’un Noctua NH-C12P. L’autre client sera le Samuel 17 de chez Prolimatech qui est, quant à lui, livré sans ventilateur mais qui est compatible avec les 120 mm de 12 ou de 25 mm d’épaisseur. Le rad en lui-

10 Hardware Magazine

Le PC-Q07 est un joli châssis mini-ITX. Mais il est assez contraignant pour un CPU standard. Le PC-Q25 sera un peu plus gros, mais bien plus pratique.


cas pratiques

gagnant Corsair

même fait 45 mm de haut… avec un 120 mm de 12 mm d’épaisseur, il y aura plus de marge de manoeuvre dans votre boîtier. La première solution en Scythe risquant de frotter contre le châssis. Attention, petit détail : ces ventirads sont peu épais, mais très larges et condamnent le port PCI-Express de la plupart des cartes mères miniITX que vous trouverez. Comme le PC est destiné à la bureautique et au stockage, nous partons du principe que l’utilisation du circuit vidéo intégré au chipset AMD 880G ou 785G ne sera pas une contrainte.

Le Samuel 17 de Prolimatech est compatible avec les ventilateurs 120 mm d’épaisseur standard ou demi-épaisseur.

Fanless avec un TDP de 95 W ? Vous demandez un fonctionnement silencieux et vous envisagez un montage fanless. Vous pouvez toujours tenter la chose. Mais l’exiguïté du boîtier et son absence de ventilation active nous laissent assez perplexe quant à la viabilité d’un tel montage. Avec un Atom… oui. Mais votre Athlon II aura certainement besoin d’un flux d’air plus important pour dissiper sa chaleur. Si vous optez définitivement pour le Lian Li PC-Q07, nous vous recommandons un refroidissement actif. Bien régulé, il peut ne pas être dérangeant. Attention, ne négligez pas non plus le bloc d’alimentation. Les solutions mini-ITX Lian Li utilisent des alimentations ATX montées dans le boîtier. C’est la solution la plus pratique. Mais privilégiez les blocs modulaires. Il y a trop peu de place dans un boîtier mini-ITX pour gâcher le peu de flux d’air disponible en le bourrant de nappes et de câbles inutilisés.

Autre boîtier Le boîtier que vous avez retenu est joli, petit et fanless. Mais il serait bon d’envisager d’autres solutions plus performantes d’un point de vue thermique et stockage. Toujours chez Lian Li, dont vous semblez aimer le travail (à raison), le PC-Q25 est un candidat très attirant pour les usages que vous décrivez. Il est un peu plus profond que le PC-Q07, avec 366 mm de profondeur au lieu des 208 mm du PC-Q07. Mais la différence de potentiel est énorme. Vous êtes limité à un disque dur 3,5’’ sur le PC-Q07… alors que le Q25 en accepte sept. De 2 To de stockage, vous pourriez passer à un maximum de 14 To avec sept disques de 2 To. Autre avantage, le boîtier dispose d’une bonne ventilation active composée d’un 140 mm sur le devant en aspiration et d’un 120 mm sur le dessus en extraction. Si la ventilation vous effraie, dites-vous qu’il n’est pas

nécessaire que ces ventilateurs tournent à fond tout le temps. Vous pourrez, pour vous assurer un fonctionnement silencieux, les brancher en 5 V sur votre carte mère, ce qui aura pour effet de les ralentir considérablement, ne leur faisant assurer qu’un flux d’air constant et stable, mais qui sera suffisant pour bien ventiler un boîtier plus spacieux et sans carte graphique (l’un des habituels gros dégagements thermiques). Pour brancher les ventilateurs en 5 V ? Rien de plus simple : dénudez les fils rouge et noir de votre ventilateur et reliez-les aux fils rouge et noir d’une rallonge Molex 4 broches, ellemême branchée sur votre alimentation. Ce flux d’air assuré suffira-t-il à un fonctionnement fanless ? Vous avez choisi un CPU quad core avec un TDP de 95 W… sans être colossal, c’est tout de même conséquent. D’autant que ce CPU est conçu pour une température maximale de 71 °C. Sans ventilation active, avec un « petit » ventirad et en charge, la limite sera vite atteinte.

Alternatives Pour une machine bureautique, votre choix de CPU semble un peu surdimensionné. Surtout si vous visez le fanless. Vous pourriez facilement trouver des CPU bien moins gourmands dans la gamme Core i3, avec par exemple un i3-2100T dont le TDP de 35 W est presque trois fois inférieur à celui de votre Athlon II X4 640. Avec ses deux coeurs et quatre threads, vous ne verrez pas de différence en bureautique. Et les 35 W de TDP permettent un montage fanless. De nombreuses machines en i3-2100T 100 % fanless sont visibles sur le Net. Si vous conservez un tout petit flux d’air dans votre châssis, ce sera encore mieux (et quasi inaudible… votre disque dur fera certainement plus de bruit en activité que votre ventilation en 5 V). L’autre alternative serait de taper dans les solutions associant carte mère et CPU, en Atom ou en E350. Pour la bureautique, ce serait largement suffisant et l’ensemble est souvent vendu en fanless. Le hic, c’est que si vous faites un peu de photo, des opérations un peu lourdes sous Photoshop risquent de pâtir du manque de puissance des CPU intégrés. La solution Core i3 nous semble donc la plus équilibrée. Si toutefois vous voulez faire quelques économies, un Pentium G est tout aussi indiqué, car bien plus puissant qu’un Atom ou qu’un E350. Et si vraiment vous êtes un inconditionnel d’AMD en quête d’économies, une plateforme Llano sera également un excellent choix. Nous vous invitons à consulter le dossier consacré à cette plateforme que nous avons publié récemment, dans le Hardware Magazine n° 54.

Un haut de gamme est-il plus pérenne dans le temps ? Je souhaite me monter une nouvelle configuration optimisée pour du jeu (FPS, simulation de vol) en full HD, détails à fond. Votre configuration de référence i5-2500k/ HD6950 (plutôt GTX560 Ti pour moi) est-elle un peu orientée vers l’avenir ou commencera-t-elle déjà à peiner avec les prochains gros jeux à venir (en gardant un bon niveau de détails) ? Autrement dit, la 560 Ti permettra-telle de bonnes performances jusqu’aux prochaines générations de GPU ou fautil plutôt que j’envisage une GTX570 ? Les 100 € d’écart entre les deux cartes sont-ils justifiés par une meilleure espérance de vie ? Vos interrogations sont celles de toute personne prête à dépenser une somme conséquente dans un matériel que l’on sait sujet à des renouvellements réguliers. Et à moins d’avoir une boule de cristal, il est impossible de dire si une GTX560 Ti arrivera à faire tourner les prochains jeux. Tout dépendra de leur programmation, plus que de l’architecture hardware qui les fera tourner.

Stratégies de programmation Certains titres sont particulièrement bien optimisés et tournent sans sourciller sur des GPU « anciens ». C’est d’ailleurs une stratégie logique de la part d’éditeurs qui ne peuvent pas risquer le suicide commercial en livrant des jeux incapables de tourner sur des « configurations types »… sachant que « monsieur tout le monde » n’a pas un SLI de GTX580 dans son PC. Oh, de temps en temps, un tel jeu sort tout de même. Un Quake III en son temps faisait plutôt figure de benchmark que de jeu vraiment jouable. Un Crysis à sa sortie était lui aussi classé dans les gloutons. Et les simulateurs de vol… sont généralement également exigeants. Mais tout de même. En général, les éditeurs essaient de faire en sorte que leur produit soit jouable avec les précédentes générations de hardware. De plus, il est rare qu’une nouvelle technologie de rendu 3D soit la base unique de la programmation d’un jeu. A l’époque de la transition DirectX 10 – Direct X 11, les effets DX11 étaient implémentés sous la forme d’options graphiques. Parfois encore, les jeux disposaient d’un mode DX10 et d’un mode DX11 en parallèle. Il faudra parfois réduire la qualité Hardware Magazine 11


«Le full HD reste une résolution assez basse, même pour un GPU milieu de gamme comme le GTX 560Ti.» des filtrages, des textures, des effets. Mais on y arrive toujours.

Les économies de bouts de ficelle… Or vous précisez bien vouloir jouer « tout à fond », certes en full HD, ce qui reste une résolution assez basse pour ce qu’un GPU sait faire, même milieu de gamme comme le GTX560 Ti. Mais les différences d’architecture penchent clairement en faveur de la GTX570. Moins extrême dans ses fréquences GPU, mémoire et shaders, la GTX570 dispose d’une architecture bien plus costaude. Plus de Cuda cores (480 contre 384), de plus de ROP (40 contre 32), un bus mémoire plus large (320 bits contre 256) résultant sur une bande passante mémoire accrue (141,6 Gb/s contre 128,3 Gb/s). Cette

différence contribuera sans aucun doute à faire passer les jeux gourmands plus facilement sur un GTX570, d’autant qu’on pourra au besoin l’overclocker et le monter en SLI.

Pour 100 € de plus Reste que la différence entre les deux cartes est conséquente en termes de prix. Une centaine d’euros, c’est une somme. Et dans les faits, sur les jeux actuels, la différence se justifie assez mal. Pour 200 €, la 560 Ti est une excellente alternative, très performante et qui pourra elle aussi évoluer en SLI. De plus, vous ne comptez jouer qu’en full HD… une résolution pour laquelle le 1 Go de mémoire de la GTX560 Ti n’est pas une limitation. Si vous aviez voulu jouer tout à fond en 2 560 x 1 920, nous vous aurions recommandé une carte

La GTX560 Ti n’est pas un haut de gamme et pour 100 € de plus, la GTX570 offre une fiche technique fort jolie. Mais les 100 € de différence entre les deux modèles sont-ils justifiés par les performances ?

12 Hardware Magazine

mieux dotée en mémoire… Or ici, les GTX560 Ti sont dans leur domaine d’excellence. Sans oublier un dernier détail. Vous nous posez la question maintenant, peu après la rentrée scolaire et à quelques semaines d’un renouvellement des gammes graphiques qui commencera très probablement par AMD et par l’arrivée d’une génération HD7000. De plus, Microsoft a récemment annoncé son intention de plus s’investir dans le développement des jeux, pour que les PCistes jouissent de jeux vraiment plus beaux que sur consoles. Déclaration d’intention louable, surtout lorsque l’on connaît l’écart de génération entre le matériel console et les GPU de nos PC. Les Xbox 360 sont basées sur un GPU ATI Xenos conçu en 2005. Même si à l’époque, ATi clamait que ce GPU était plusieurs fois plus puissant que le 1800XT en service dans les PC du moment, on peut facilement concevoir qu’une GTX580 actuelle soit bien plus performante que cela. D’où une certaine frustration (légitime) du gamer PC quand il s’offre un jeu « simple portage » d’un code console vers le monde PC. Y retrouver des graphismes similaires et des performances moyennes, alors que le jeu est fait pour tourner sur un GPU de 6 ans d’âge… ça énerve. Espérons que la promesse de Microsoft ne reste pas lettre morte.


cas pratiques

«Asrock a l’intelligence d’offrir un double perçage 1155 / 775 sur ses P67»

Il n’y a pas de date limite de consommation sur une alimentation. Si elle est bien entretenue, qu’elle est de bonne qualité et qu’elle dispose des connecteurs adéquats, elle peut facilement survivre à plusieurs configurations.

Garder alimentation et ventirad en changeant de configuration ? Je possède actuellement une configuration vieille de 3 ans (Phenom 9550 + HD4850) que je souhaite mettre à jour. J’ai une alimentation Corsair 550 W CMPSU-550VX. Y a-t-il une durée de vie pour les alimentations et ce produit est-il suffisant pour une configuration avec i52500K + HD6950 2 Go ? Même question pour mon ventirad CNPS7000C-Cu !!! Ensuite, vous conseillez l’ASRock P67 Pro 3, qu’en est-il de la Pro 3 SE qui est 10 € moins chère mais me semble mieux équipée ? Une alimentation n’a pas de durée de vie gravée dans le marbre. Si elle est correctement entretenue (dépoussiérée de temps à autre) et qu’elle est de bonne qualité, elle peut durer assez longtemps. Votre Corsair 550 W CMPSU-550VX est un modèle qui a fait ses preuves. Bien qu’il ne soit pas estampillé 80 Plus, il affiche une très belle courbe d’efficacité et atteint les 80 % de rendement à partir de 100 W. Il reste entre 80 et 85 % pour toutes les charges entre 100 W et 550 W, son maximum théorique. La ventilation, quant à elle, se met à son maximum à partir de 400 W de charge, avec un ventilateur à 1 800 tours/min. Nous avons fait une petite simulation de charge pour la configuration que vous envisagez, en partant sur une HD6970 puisque vous semblez vouloir « transformer » votre HD6950 en modèle supérieur. Nous avons inclus dans la simulation deux disques durs 3,5’’ 7 200 tours/min et un graveur DVD.

Le résultat vous fera sortir des pointes de consommation entre 400 et 450 W. Votre alimentation suffira, même en pleine charge, mais elle sera bruyante. Toutefois, dans un premier temps, en attendant une upgrade vers un modèle plus puissant (des blocs de 620 ou 650 W encaisseront mieux la charge, sans pousser la ventilation à fond), votre 550 W Corsair fera l’affaire. De plus, ce bloc dispose de deux connecteurs PCI-Express, un 6 broches et un autre en 6 + 2 broches. Ce qui permet d’alimenter une Radeon HD6970 (8 + 6 broches) ou une HD6950 (6 + 6 broches).

Ventirad Quant à votre Zalman, il est donné comme compatible avec les Core i5 et i7 de dernière génération. Si vous l’avez acheté avant le lancement des Sandy Bridge (ce qui est votre

cas), il vous faudra simplement acheter le kit de fixation adéquat ; vous le trouverez chez votre assembleur favori, sans trop de problèmes. Notez que si, comme vous l’indiquez, vous optez pour une carte mère ASRock, vous n’aurez pas à acheter le kit de fixation pour le socket 1155, puisqu’ASRock a l’intelligence d’offrir un double perçage 1155/775 sur ses P67. Reste que ce ventirad est loin d’être le plus performant du marché. Sans overclocker, vous n’aurez pas de soucis, si votre PC est bien ventilé. Mais pour plus de tranquillité, il serait bon d’aller voir du côté des Cooler Master Hyper 212 Plus ou Arctic Freezer 13 Pro, plus efficaces en refroidissement et tout aussi silencieux.

ASRock vs ASRock Vous abordez enfin la question des ASRock P67 Pro 3. Les deux modèles que vous citez sont assez proches puisque bâtis sur le même chipset. Mais ils sont assez distants en termes de positionnement. La P67 Pro 3 vous paraît mieux équipée parce qu’elle propose plus de connecteurs PCI-Express (deux PCIe 16x en 16x/4x et deux PCI-Express 1x…). Il est vrai que la P67 Pro 3 ne propose qu’un PCI-Express 16x, trois PCI-Express 1x et trois ports PCI. Mais la P67 Pro 3 SE offre un étage d’alimentation plus costaud. Il est découpé en 8 + 2 phases, alors qu’il n’a que 4 phases (standard) sur la P67 Pro 3 SE. En pratique, peu de différences, le nombre de phases ne fait pas tout. Il permet surtout d’aller plus haut dans les extrêmes (pour un Core i7-2600K par exemple et en overclocking extrême) et de mieux répartir la consommation, en utilisant un nombre plus important de phases, ce qui est utile à des mécanismes d’économie d’énergie. Dans les faits, si la P67 Pro 3 SE vous convient mieux en termes de ports PCIExpress, elle vous satisfera tout autant que la P67 Pro 3. Hardware Magazine 13


Ma HD5850 refuse de booter sur ma M3N78 !

« Dans les cas de figures extrêmes, des incompatibilités inexpliquées peuvent se produire lorsque l’on marie un matériel ancien et neuf »

Les cartes mères en nForce pour processeurs Intel n’ont jamais eu une excellente réputation en termes de fiabilité. Rien à signaler par contre concernant les couples nForce et AMD.

14 Hardware Magazine

Je possède un système architecturé autour d’un AMD Athlon 64 x2 6000+, monté sur une carte Asus M3N78 BIOS 0902, le dernier d’Asus, et épaulé par 8 Go de RAM Corsair XMS2 en DDR2. Ma carte graphique est une vieille 9800GT de chez MSI. Drivers à jour de chez nVidia. Pour l’alimentation, une 650 W TX de chez Corsair. Le tout sous Windows 7 en 64 bits, mis à jour lui aussi. Configuration qui fonctionne parfaitement mais légère dans les jeux récents (j’arrive à jouer à COD Modern Warfare 2, mais avec beaucoup de paramètres à la baisse !) Je décide donc de soulager le CPU et ma MSI par l’achat d’un GPU plus costaud. Mon choix se porte sur une HD5850 OC PCI-Express de chez Club 3D avec 1 024 de mémoire. Carte en promo pas chère. Une fois celle-ci arrivée, désinstallation des anciens pilotes, nettoyage de la base des registres et remplacement de la carte HD. Je relance et là, écran noir !!! Retour SAV, test et on me dit que la carte fonctionne parfaitement -) Dès réception, je remonte le tout (redésinstallation des drivers) et bien sûr, toujours pareil ! Rien de rien ! Mon Samsung SyncMaster T260 reste noir. Je précise qu’entre-temps, j’ai refait tourner ma configuration, cette fois avec le chipset intégré de la carte mère (8200 nVidia). Les réglages dans le BIOS étant valides et j’ai basculé sur le bon port (PCI-Express ou intégré). Je décide de monter la HD5850 sur un autre PC (chose par laquelle j’aurais dû commencer !) : PC avec carte mère Asus A8N SLI Premium, AMD 3800+, alimentation Corsair 550 W et mémoire Corsair Value PC3200. Et là, la carte fonctionne comme cela a été mentionné après les tests au SAV ! Qu’ai-je donc pu « louper » dans mon montage ? Existe-t-il une incompatibilité connue entre la carte graphique et un des éléments de ma machine ? (chipset intégré, mémoire…) Je ne suis pas un professionnel de l’informatique mais j’assemble régulièrement des PC depuis maintenant 1992, date de mon 1er AMD 486 DX 40 ! Mais là, je cale ! Les cartes mères Asus en chipset nForce, ainsi que la plupart de leurs concurrentes en nForce pour Intel, n’ont jamais eu bonne réputation… la faute à un taux de retour extraordinairement plus élevé que d’habitude. Certaines séries de cartes mères en chipset nVidia ayant eu jusqu’à 30 % de taux de retour… alors qu’une bonne série est normalement largement sous 1 %. Dans votre cas, en admettant que le SAV de Club 3D soit dans le vrai (ce qui semble être le cas, si la carte graphique fonctionne sur une autre plateforme), la coupable se cache obligatoirement du côté de la carte mère ou de l’alimentation. Votre problème ressemble fort à une défaillance de l’alimentation électrique. Donc de deux choses l’une. Soit votre alimentation est défectueuse et l’un des brins PCI-Express ne délivre pas la puissance voulue. Soit votre carte mère est en tort, le port PCI-Express 16x sur lequel est


cas pratiques

branchée votre carte graphique ne délivrant pas les 75 W qu’il est censé fournir, ou ne le fait pas de manière stable. Dans les deux cas, ces défaillances électriques pourraient suffire à justifier un refus de démarrer d’une carte graphique. A vous de faire le tri entre alimentation défaillante ou carte mère moyennement stable. La réponse se trouve peut-être ici. Et si jamais ce n’était pas cela, il reste les cas de figure extrêmes. Ces incompatibilités totalement injustifiées, inexpliquées… mais qui arrivent quand même parfois, surtout lorsque l’on marie un matériel ancien et un plus récent.

En associant un matériel vieux et un autre récent, on a parfois des incompatibilités inexpliquées…

Changer la dalle LCD de mon PC portable… possible ? Fidèle lecteur de vos magazines depuis plusieurs années déjà, je me trouve aujourd’hui face à un problème que je ne peux résoudre. Je possède un portable Asus X52JT et sur un coup mal placé, mon écran éclate… Je suis maintenant obligé de le connecter à un écran externe pour pouvoir continuer à travailler… Voilà en fait, je voulais savoir s’il était possible de changer soi-même sa dalle cassée par une neuve. Si oui, où les acheter ? Et quelles sont les démarches à suivre pour bien effectuer ce remplacement. En même temps, je voudrais savoir s’il est possible de changer de processeur, mon i3 étant un peu léger et si cela aura des effets néfastes sur l’autonomie. Un portable est un PC comme un autre. Le démonter et changer des composants, cela est tout à fait possible. Mais un peu moins facile toutefois… les constructeurs aimant qu’on passe par eux pour le suivi des réparations. Toutefois, il existe des boutiques spécialisées dans la vente de pièces détachées pour portables. En fouillant un peu sur Internet, nous en avons trouvé sans peine sur Paris. Il en existe certainement d’autres similaires en France. La dalle LCD est assez simple à changer pour peu qu’on trouve un modèle compatible en taille et en connectique avec celle de son PC. Pour savoir de quel type est votre dalle, démontez-la. Il suffit pour cela d’ouvrir le portable et d’enlever les caches en caoutchouc qui masquent les vis. Sur votre X52, ils sont carrés ; vous en avez quatre en haut et deux en bas de l’écran. Faites apparaître les vis, enlevezles, puis déboîtez délicatement le cache en plastique maintenant la dalle. Cette dernière est fixée au fond de la coque par quelques vis. Enlevez-les, faites basculer la dalle de sorte d’en voir le dos. Vous y trouverez la référence du modèle (marque et type). Muni de ces informations, rendez-vous chez un revendeur qui vous trouvera une dalle compatible sans le moindre problème. Dans votre cas, la dalle est cassée. Le diagnostic est simple. Si d’autres lisant ces lignes ont un problème d’écran qui ne s’allume plus, il faudra peut-être faire changer l’inverter et non la dalle. Notez, qu’au passage, rien ne vous empêche d’upgrader la dalle et d’opter pour un modèle doté d’une bien meilleure définition, si le revendeur en

propose. La seule contrainte étant que la taille et la connectique soient identiques. La définition… est une option que le constructeur facture plus cher. Rien de plus. Vous pouvez donc en profiter pour vous faire plaisir. Combien cela coûte-t-il ? D’après ce que nous avons vu en ligne, une dalle de 15,6’’ full HD, (1 920 x 1 080), quelles que soient sa marque et sa compatibilité, est vendue autour des 150 €. Vous pouvez choisir de la poser vousmême ou de la faire poser moyennant un petit supplément de main-d’oeuvre. Tout dépendra de votre niveau de « certitude » dans vos compétences. Si vous avez le moindre doute,

laissez faire le revendeur. La dalle et la pose seront alors garanties.

Changement de CPU Pour le processeur, il en va de même. Mais les choses ne sont pas toujours aussi simples. Il vous faudra démonter le bas du châssis. En général, c’est simple… bien que certains modèles soient particulièrement complexes à démonter. Ce n’est, en général, pas le cas des gros portables en plus de 15’’. Certains proposant même un accès direct au trio CPU – DDR – HDD par démontage d’une simple trappe. Plusieurs choses sont alors à prendre en considération. La première consistera à déterminer si votre processeur est monté sur un socket (et donc changeable) ou soudé à la carte mère. Sous une même référence commerciale, Intel propose presque toujours des processeurs en socket standard (PGA) ou en BGA (Ball Grid Array, obligatoirement soudés). Si votre CPU est soudé, c’est fichu. Le second point à envisager, ce sont les petits autocollants jaunes qui ornent les vis maintenant le refroidissement du CPU… ils vous indi-

Derrière un même nom commercial, vous trouverez tantôt un processeur à insérer dans un socket à pins, ou un modèle BGA, à souder à la carte mère.

Hardware Magazine 15


Si un écran de portable reste noir, alors que le PC fonctionne et que la dalle n’est pas cassée, le coupable est souvent l’inverter, une pièce élevant la tension électrique avant de l’envoyer au rétroéclairage (CCFL) de la dalle LCD.

« Utiliser 4 x 2 Go de DDR3 permettra de solliciter à 100% les deux canaux mémoire » Utiliser quatre modules permettra de mieux solliciter les deux canaux de mémoire… mais la différence est quasi insensible.

16 Hardware Magazine

quent qu’en cas de détérioration, la garantie du PC est automatiquement annulée. En clair, touchez un de ces autocollants et la garantie saute. Le troisième point à prendre en compte est celui de la capacité de la machine à supporter le CPU que vous aurez choisi. Deux choses comptent : la puissance du système de refroidissement (un i7 sera peut-être moins facile à ventiler qu’un i3) et la capacité du BIOS à le reconnaître. Un BIOS de portable n’est pas aussi ouvert qu’un BIOS de carte mère de desktop… Pour vous en assurer, un moyen simple est de regarder ce qui se vend de plus haut de gamme chez le constructeur. Si vous avez un i3 et que le même châssis (X52JT) est vendu en Core i7… alors votre BIOS et votre système de refroidissement pourront très certainement supporter l’upgrade. Il est extrêmement rare qu’un constructeur ne rationalise pas les déclinaisons, en faisant pour toute une gamme un même BIOS et un même design interne. Le

fait qu’un processeur ou un autre soit proposé en magasins n’est que du ressort du commercial, pas de la technique. Dans votre cas, on a trouvé du K52JT en Core i5-480M et même en Core i7-740QM. On peut donc supposer que les deux processeurs conviendront. Reste maintenant le point le plus problématique : trouver ces CPU et à un prix rendant l’upgrade intéressante. Les versions mobiles des processeurs sont très mal vendues dans le commerce. Quasiment introuvables, ils sont en général hors de prix… quand ils sont disponibles. Ce qui est rarement le cas. Le seul recours est de faire la tournée des sites d’occasions pour racheter les pièces détachées de portables cassés, dont les propriétaires vendent les entrailles. Ou de tenter d’en trouver en ligne à l’étranger, avec tous les risques que cela comporte. Bref, la dalle… c’est assez facile. Le processeur, c’est bien plus complexe.

Pour faire 8 Go, vaut-il mieux 4 x 2 Go ou 2 x 4 Go ? J’ai choisi de changer ma mémoire pour de la G.Skill Ripjaws X F3-12800CL9D, mais un choix s’offre à moi. Sachant que je voudrais 8 Go, la meilleure solution serait-elle d’opter pour un kit 2 x 4 Go ou pour un kit de 4 x 2 Go ? Je dispose d’un i5-650 (non OC/ventirad stock), d’une carte mère (eh oui, bas de gamme) Asus P7H55 possédant quatre ports dual channel et aussi de Windows 7 64 bits. Je ne parle pas ici de la différence de budget entre les deux kits, mais des performances ou encore de la compatibilité ! Y a-t-il réellement une différence de performances entre les deux kits ou pas (meilleure bande passante) ? Je ne souhaite pas une future upgrade concernant la quantité, donc si j’achète un nouveau ventirad (par exemple le Scythe Yasya), le kit 2 x 4 Go serait-il à choisir pour laisser un port vide si le ventirad débordait sur la RAM ? Question existentielle à laquelle bien des gens vous diraient : « Peu importe, 2 x 4 ou 4 x 2, cela fait toujours 8. » Certains préféreraient d’ailleurs la solution sur quatre modules de 2 Go, simplement pour avoir le plaisir de voir les quatre logements DIMM peuplés. C’est vrai que ça a un certain cachet. Par contre, on peut prendre le problème par la pratique. Attention, avant d’aller plus loin, il est important de dire que le gain de performances, s’il existe, sera très proche de 0. Dans la pratique, votre contrôleur mémoire travaille souvent en double canal (exception faite des contrôleurs triple canal des Core i7 de première génération). Utiliser

4 x 2 Go de DDR3 permettra donc de solliciter 100 % les deux canaux mémoire et d’en tirer un très léger mieux en performances. Ce gain est constatable principalement sur des benchmarks, mais passe totalement inaperçu en vrai. Sur un Super Pi, on est à moins de 1 % d’amélioration Mais cette configuration est plus difficile à tenir avec une stabilité parfaite, surtout sur les Core i5 Clarkdale qui n’ont jamais brillé sur ce point précis. En outre, la configuration consomme un peu plus et encaisse moins bien les montées en fréquence lors de séances d’overclocking. Ce qui, au final, fait préférer une configuration en 2 x 4 Go, bien plus raisonnable et qui, en plus, laisse une porte ouverte à une upgrade de la quantité de mémoire utilisée dans votre PC.


Coup d’œil

Publi-rédactionnel

sur les nouvelles

cartes mères

ASUS Z68 Une large gamme équipée de LucidLogix Virtu et de nombreuses innovations exclusives pour profiter des technologies dernière génération Avec le chipset Z68, profitez de fonctionnalités multimédia étendues, boostées par la technologie de mise en cache par SSD Intel® Smart Response. Le nouveau chipset Intel Z68 conduit les processeurs Core i3, i5 et i7 SandyBridge vers un niveau de performances jamais atteint auparavant. Il combine les avantages des chipsets H67 et P67 et permet l’overclocking du processeur ainsi que de sa partie graphique. Par ailleurs, il embarque la technologie Intel® Smart Response, permettant une réactivité semblable à celle d’un SSD, mais avec une capacité plus grande et un coût plus raisonnable. La partie graphique intégrée aux processeurs Sandy Bridge est parfaite pour les applications multimédia, et, pour en tirer le meilleur parti, la solution LucidLogix Virtu offre une technologie alternant automatiquement entre la partie graphique du processeur et la carte graphique dédiée. Ce système d’alternance entre les solutions graphiques permet alors aux utilisateurs de profiter de la technologie Intel Quick Sync Vidéo, pour un encodage vidéo, une lecture et une création de contenus plus rapides, mais également des meilleures performances graphiques, qu’ils utilisent une carte graphique Nvidia ou AMD. Au vu de ces avantages, il n’y a donc aucune raison d’acheter une carte mère Z68 qui ne posséderait pas toutes les nouveautés de ce chipset nouvelle génération. De plus, afin de servir au mieux les intérêts des utilisateurs et de répondre à leurs besoins de performances, ASUS a doté l’intégralité des cartes mères de série Z68 de la technologie LucidLogix® Virtu.

Une large gamme de cartes mères embarquant une solution graphique intelligente Avec les cartes mères ASUS équipées du chipset Z68, il est possible d’obtenir le meilleur des deux mondes. Grâce à la technologie LucidLogix® Virtu, les modèles tels que la P8Z68-V PRO permettent d’utiliser le chipset graphique intégré ou la carte graphique, en alternant entre les deux lorsque cela est nécessaire. Les vidéos en HD utilisent le chipset intégré permettant d’économiser l’énergie, alors que les jeux vidéo nécessitant plus de ressources tourneront eux sur la carte graphique. De cette manière, les utilisateurs apprécieront la performance ou les économies d’énergie en fonction de l’utilisation que vous faites de votre machine.

Grande capacité de stockage et réactivité d’un SSD Autre nouvelle fonctionnalité de l’architecture Z68 : la technologie Intel Smart Response. Celle-ci permet d’utiliser un SSD comme cache pour les fichiers les plus fréquemment utilisés, permettant ainsi de réduire les temps d’accès au disque dur et les accès inutiles sur celuici, économisant l’énergie et minimisant à long terme l’usure du disque dur. Le système d’exploitation est alors plus fluide et les temps de chargement plus courts, ce qui est vraiment appréciable à l’usage.

Fonctionnalité exclusive ASUS : Faire du bon choix, le meilleur choix Avec la technologie à double processeur 2 avec DIGI+ VRM, ASUS offre aux overclockeurs les plus exigeants la possibilité d’utiliser une alimentation numérique pour pousser encore plus leurs performances. L’alimentation numérique apporte une meilleure précision d’alimentation du processeur et résulte en un meilleur overclocking, une stabilité améliorée et une mise au point plus simple. Les régulateurs de tension de type numérique évitent la perte de puissance et proposent une efficacité jamais vue auparavant. Notons également la présence d’un bios de type UEFI relayant les réglages au clavier à de l’histoire ancienne. Le bios ASUS de type UEFI permet d’obtenir une interface graphique entièrement contrôlable à la souris, ainsi par exemple, changer l’ordre de démarrage des périphériques se fait par un simple “glisser-déposer », comme sous Windows.

La base de votre prochain PC La P8Z68-V PRO et les autres cartes mères de la gamme ASUS font beaucoup plus qu’exploiter pleinement les processeurs Sandy Bridge et le chipset Z68. Avec leurs capacités d’overclocking et les possibilités d’économies d’énergie, elles sont tout simplement les meilleures cartes mères Z68 actuellement disponibles.

ZOOM Toutes les cartes mères ASUS P8Z68 supportent la technologie LucidLogix® Virtu, basculant automatiquement entre la partie graphique intégrée ou la carte graphique dédiée et ce peut importe la sortie vidéo utilisée.

Sur la sortie de la carte mère (Lucid i-mode)

Sur la sortie de la carte graphique (d-Mode)

Conversion d’un fichier AVI vers MPEG (le plus petit est meilleur) Carte graphique dédiée Carte graphique avec Virtu® en d-Mode

3X plus rapide

en conversion vidéo

Configuration de test: Intel i7-2600K - 4Go DDR3-1600 GSkill Windows 7 64Bits - ASUS EAH6970 - Media Espresso 6.5


La bible du

processeur Vous cherchez votre nouveau CPU et vous ne savez pas vers quel modèle vous tourner ?

+ 18 Hardware Magazine

le guide de l’overclocking


r

Dossier CPU

20. Critères d’achat 34. overclocking 45. quel cpu acheter 51. lexique 52. le futur du cpu 54. preview bulldozer Nous vous expliquons ici les éléments principaux à surveiller, détaillons le fonctionnement d’un CPU pour mieux comprendre l’influence de divers paramètres, simplifions les gammes des deux fondeurs afin d’y voir plus clair lors du choix et vous proposons les benchs d’une quarantaine de processeurs. L’overclocking n’est pas délaissé, que ce soit par besoin ou par plaisir, avec un guide plateforme par plateforme pour tirer le maximum de votre CPU. Nous avons atteint 5 GHz en aircooling et vous, que vaut votre processeur une fois overclocké ? Benjamin Bouix

P

our une nouvelle configuration, une upgrade ou tout simplement par curiosité, il n’est pas facile de savoir ce que valent les CPU les uns par rapport aux autres. Nombre de cores, niveaux et quantité de cache, fréquence, overclocking dynamique, fonctions secondaires, chipsets associés, consommation : autant de paramètres à prendre en compte au moment de l’achat. D’autant que les constructeurs s’en donnent à coeur joie et les 5 sockets actuels rassemblent près de 140 processeurs et 30 chipsets. Les différences sont pourtant très marquées au sein même de gammes de prix similaires. Et que dire des écarts entre un Celeron G440 à 30 € et un Core i7-990X huit fois plus puissant et trente fois plus cher ? En outre, l’overclocking n’est pas oublié. Quelle que soit votre motivation, passer le cap des 4 GHz est envisageable sur toutes les plateformes et certaines culminent à 5 GHz, le tout en aircooling. Mais comment faire pour y arriver ? Nous l’avons fait et nous vous donnons tous nos conseils pour mettre toutes les chances de votre côté. Enfin, nos benchs vous permettront de quantifier les différences entre tous ces CPU, overclockés ou non. Que vaut mon CPU actuel face aux dernières générations ? Que m’apportera l’upgrade ? Dépenser plus dans telle ou telle puce est-il bien raisonnable ? Autant de questions qui trouveront une réponse avec, en prime, les meilleurs processeurs du moment pour tous les usages.

Hardware Magazine 19


Critères d’achat Nombre de cores Le début des années 2000 a connu une course effrénée à la fréquence avec des choix et des architectures en conséquence. Netburst, l’architecture des Pentium 4, devait ainsi atteindre 10 GHz selon les prévisions Intel avant son lancement ! Les processeurs n’ont, au final, atteint que 3,8 GHz mais c’était toujours plus que chez AMD où les puces dépasseront péniblement les 3 GHz. Se sentant clairement dépassé, en avril 2005, AMD débute la course au nombre de cores en proposant le premier vrai CPU dual core (par opposition aux puces Intel qui ne sont que deux puces monocores apposées sur le même bout de PCB). Depuis, on est passé à 4 puis à 6 cores et on attend les CPU 8 cores sous peu. Depuis cette période, nous ne cessons de répéter que passer de 1 à 2 cores révolu-

tionne l’usage du PC et qu’il ne faut même pas envisager de puces monocores. Pourtant, c’est comme ça qu’ont fonctionné les PC pendant plus de dix ans (depuis l’arrivée du premier Pentium). Pour comprendre la différence de fonctionnement, prenons deux scénarios différents : deux PC ayant les mêmes tâches à effectuer mais avec des CPU monocores d’un côté et dual core de l’autre. Lorsqu’il s’agit de traiter un seul et unique processus, si les deux cores ont la même puissance, il n’y aura strictement aucune différence dans la rapidité d’exécution. Si l’on lance deux processus à la fois, le CPU dual core les traitera en même temps et cela prendra exactement le même laps de temps que s’il n’y avait qu’un seul processus. En revanche, le CPU monocore va devoir traiter les deux processus à la

En haut, un die de Bloomfield (Core i7 900 quad core) et en bas celui d’un Gulftown (Core i7 900 hexa core). Intel s’est contenté de rajouter 2 cores et le cache L3 qui leur est associé en réorganisant un peu l’ensemble pour tout faire rentrer.

20 Hardware Magazine

file, ce qui doublera le temps de calcul s’il s’agit de deux tâches identiques. Deux cores au lieu d’un seul, le temps de calcul est donc logiquement divisé par deux. Maintenant, prenons le cas de deux applications sur lesquelles on va jongler. Dans le cas du processeur dual core, un core sera attribué à chaque application et tout se passera comme s’il n’y en avait qu’une seule. En revanche, le CPU monocore devra jongler en permanence entre les deux applications. Cela implique donc à chaque rotation, de vider le cache, de copier les données de la RAM dans le cache du CPU et seulement ensuite de traiter les tâches. Le temps de calcul n’est alors pas seulement multiplié par deux, il s’allonge encore plus selon la lourdeur des applications et le nombre de rotations à exécuter. Mais dans un environnement réaliste, le processeur se charge de faire tourner un système d’exploitation composé de multiples processus en fond et diverses applications. Même en supposant qu’il n’y ait qu’une seule application, la puce devra en permanence switcher pour traiter toutes les tâches. Même en imaginant qu’il ne s’agisse pas d’un long calcul qui va saturer l’UC pendant des heures, le système sera ralenti, conséquence directe de la file d’attente de tâches à traiter. Dans le cas d’un CPU dual core, le système tournera sur le deuxième core et il n’y aura pas le moindre ralentissement. Même si vous n’avez pas besoin de puissance de calcul, deux cores sont donc un gage de confort. Mais un plus grand nombre de threads ne se révèle vraiment plus efficace que s’ils sont exploités. Si l’application que vous utilisez ne peut tourner que sur un seul thread à la fois, vous ne gagnerez pas en rapidité par rapport à un CPU monocore. C’est alors aux développeurs d’optimiser et de compiler leurs applications, de façon à ce qu’elles puissent utiliser un nombre maximum de threads, sans pour autant perdre en efficacité si un seul thread est disponible. Hormis la complexité pour mettre en place de tels CPU, c’est aussi la raison pour laquelle les CPU 50 cores pour le grand public n’ont pas encore débarqué : ils seraient inutiles. Quant aux jeux, qui ont longtemps été capables de n’utiliser qu’un seul core à la fois, ils utilisent tous 2 cores ou plus désormais, un seul core ne suffisant plus. Les gros titres montrent même un net penchant pour les CPU quad core. On double facilement les FPS en passant de 1 à 2 cores et on augmente encore facilement de 25 % en passant à 4 cores. Certains titres, plutôt rares, se montrent avides de cores et arrivent à occuper 6 cores à la fois (mais jamais de façon intense et prolongée).


Dossier CPU

se charge de tout optimiser. Mais si un calcul requiert toute la puissance du core, il n’y a guère de miracle, l’autre instruction sera exécutée plus lentement. A budget équivalent, les CPU Intel modernes avec HyperThreading s’en sortent donc mieux que les CPU AMD dans des environnements relativement légers, comme la bureautique ou la plupart des jeux. Toutefois, si vous affectionnez le traitement vidéo, le rendu 3D ou des jeux de stratégie très gourmands en threads, les CPU AMD seront préférables. Ce constat est valable tant en ce qui concerne les Core i3-2000 face aux Athlon II X4 que les Core i5-2000 face aux Phenom II X6. Toutefois, comme vous pourrez le découvrir dans notre preview sur les prochains FX d’AMD, il semblerait que la façon de compter les cores change. En effet, les prochaines puces AMD comptent 4 cores physiques mais l’équivalent de 8 cores logiques, dont la puissance s’apparente à 80 % à celle d’un vrai octocore, selon les estimations du constructeur. L’Hyperthreading (ou SMT) permet d’accélerer le traitement simultané de plusieurs tâches, réduisant donc le temps de calcul.

HyperThreading

L’HyperThreading est une fonction proposée par Intel qui vise à émuler 2 cores logiques à partir d’un seul core physique. Concrètement, cela signifie que deux applications pourront être traitées en même temps par un seul core. On pourrait dire que 50 % du core est attribué à une application, lui permettant donc de traiter efficacement deux instructions. Cette schématisation est un peu extrême puisqu’on n’atteint quand même pas le rendement d’un dual core, mais le gain est bien présent. Cela implique des niveaux de cache bien répartis et une unité de prédiction, mais Intel maîtrise bien ce procédé puisqu’il est apparu pour la première fois en 2002 sur les Xeon et Pentium 4. Dans le meilleur des cas, le gain tourne autour de 25 % par rapport à un processeur similaire sans HyperThreading. Actuellement, l’offre Intel use et abuse de cette fonction. En effet, là où AMD propose des quad core, Intel propose des dual core avec HyperThreading dont l’architecture est plus évoluée. Chacun possède 4 threads et les performances sont similaires. Les CPU AMD ont l’avantage en environnement fortement multithreadé grâce à leurs 4 cores physiques. Toutefois, les CPU Intel ont l’avantage lorsqu’il s’agit d’applications monothreadées et leurs 4 cores logiques leur permettent de ne pas être trop distancés lorsque 4 threads sont requis. La solution n’est pas parfaite et le rendement n’atteint pas 100 %, car cette technologie vise à optimiser la répartition de la puissance de calcul d’un core physique. Plutôt que de perdre du temps de calcul CPU lors du changement d’instruction traitée, une unité

Cache La mémoire cache sert à copier des données utilisées par la suite par le CPU pour ses calculs, de la même façon que de la mémoire vive, mais en plus rapide et avec une capacité bien moindre. Seules des informations très importantes et devant être accédées très rapidement y sont stockées. Il existe plusieurs niveaux de cache, de moins en moins rapides mais de plus en plus volumineux, et qui peuvent être partagés de façon différente avec les divers cores. Ils ont une importance capitale, car ils font office d’espace de recyclage rapide. En effet, le cache de premier niveau, dit L1, ne peut contenir qu’un nombre très limité de données. S’il vient à être saturé, il faut effacer des données (en général, celles qui ont été le moins récemment/souvent utilisées) pour libérer de la place pour les nouvelles. Le cache L2 sert alors à récupérer ces données afin d’éviter d’avoir à aller piocher dans la RAM qui se trouve être bien plus lente. Il en va de même pour les niveaux supplémentaires. A titre d’exemple, sur un Core i3-2100, le L1 est respectivement 3 et 7 fois plus rapide que les L2 et L3. Il n’y a virtuellement pas de limite de taille de cache, mais la capacité a un prix élevé en termes de transistors, soit d’espace sur le die, ce qui se répercute sur la complexité et le prix. En outre, un cache rapide est un cache proche des cores, mais l’espace est une nouvelle fois compté, c’est pourquoi les

premiers niveaux sont souvent très peu volumineux (quelques dizaines de kilooctets contre plusieurs mégaoctets pour des caches L3). Aussi, l’organisation des niveaux de cache détermine une bonne partie des performances d’un CPU. Dans le cas de calculs intensifs mais réalisés à partir de peu de données, ça n’a guère d’importance. Mais les applications de tous les jours en sont plus dépendantes, ne serait-ce que parce qu’une application nécessite plusieurs instructions et qu’on en utilise un grand nombre à la fois. Cela implique donc des changements incessants du contenu des niveaux de cache. C’est souvent ce qui différencie deux gammes de processeurs. Le plus haut de gamme constitue le modèle sur lequel a travaillé le fondeur, alors que le milieu de gamme s’apparente à une déclinaison castrée du premier. Avant ou après la production, la puce est amputée d’une partie de son cache, soit pour simplifier la production (cas d’Intel), soit pour recycler des rebuts (cas d’AMD). Le CPU coûte donc moins cher à produire et il se trouve aussi être moins performant. Il faut, cependant, noter que des CPU équipés de moins de cores voient souvent leur cache réduit sans solution pour conserver toute la

Le die d’un Phenom II X4 (en haut) est similaire à celui d’un Athlon II X4 (en bas) mais avec 6 Mo du cache L3 en plus.

Hardware Magazine 21


capacité de celui-ci. En effet, le cache L1 et le L2 sont en général liés à chaque core. Quand on parle de 4 Mo de cache L2 pour un quad core, il s’agit souvent de 1 Mo par core. Si le core n’est plus adressable, le cache associé suit le même chemin. En revanche, le L3 étant souvent partagé entre tous les cores, sa taille peut rester identique. Les conséquences dans les applications sont souvent très nettes : une version castrée se montre jusqu’à 15 % moins rapide dans certaines applications (compression de fichiers, traitement photo, quelques jeux). Pas de quoi faire tout un plat et dépenser 80 € pour un Core i7 au lieu d’un i5 pour bénéficier de 2 Mo de L2 supplémentaires, mais passer d’un Athlon II (privé de L3) à un Phenom II ou d’un Celeron à un Pentium (1 Mo de L3 supplémentaire) se révèle salvateur.

Fréquence Turbo Le « Turbo quelque chose », c’est à la mode. Depuis toujours, le marketing adore caser un « Turbo » quelque part, ça sonne bien. Mais cette fois, il s’agit d’une fonction vraiment utile. Chez AMD comme chez Intel, le principe de fonctionnement est le même. Dans certains cas bien définis, la fréquence du processeur est augmentée de quelques centaines de mégahertz.

Le Turbo Core d’AMD permet de gagner jusqu’à 500 MHz sur 3 cores en même temps avec les Phenom II X6 !

à une contrainte thermique : ne pas dépasser le TDP du CPU. Cela implique donc qu’un module se charge de monitorer cette donnée en temps réel et que si le processeur vient à excéder ce TDP, la fréquence revient Cette augmentation temporaire implique à la normale. toutefois plus d’énergie nécessaire et donc Fort heureusement, le TDP est toujours un dissipée, afin de faire fonctionner les tran- peu plus large que prévu et c’est d’autant sistors plus rapidement. Du coup, pour ne plus vrai que l’on descend en gamme. Un TDP pas risquer de surchauffe, elle est soumise étudié pour toute la famille des Core i5-2000 sera forcément un peu plus large pour un Core i5-2300 à 2,8 GHz que pour un i5-2500 à 3,3 GHz. En pratique, nous n’avons jamais Influence Mode Turbo (Indice) constaté ce phénomène, il s’agit plus d’une sécurité 1,41 Core i7 2600K que d’une contrainte, c’est 1,5 parfait. 1,15 1,18

Core i7 980X

1,09 1,02

Phenom II X6 1100T

0,96 1,05

Core i7 875K

0,78 0,88

A8‐3800 0

0,5

Turbo désactivé

1

1,5

Turbo activé

Le Turbo mode apporte facilement un gain de 10% dans les applications monothreads.

22 Hardware Magazine

2

Ensuite, tout dépend de la façon dont les constructeurs implantent cette option. En général, il s’agit de gagner quelques unités sur le coefficient multiplicateur du CPU quand la charge est relativement légère. Cette notion est donc vaste mais chez Intel, qui a lancé cette tendance et qui en présente une version plutôt bien maîtrisée, il s’agit de gagner 400 MHz sur un seul core, 300 MHz sur 2 cores, 200 MHz sur 3 cores ou 100 MHz sur 4 cores. Cela permet de maximiser les perfor-

mances sur des applications légères ou monothreadées qui représentent tout de même une bonne part de l’utilisation d’un processeur. Compression de fichiers, nombreux filtres photo, création de PDF mais aussi toutes les applications mal optimisées multicores. De plus, même si 2 ou 3 cores sont nécessaires, on gagne quand même une poignée de mégahertz, contrairement aux premières moutures du Turbo Mode ou au Turbo Core d’AMD. Sur les CPU socket 1366, il est possible de gagner 266 MHz si un seul core est actif, mais seulement 133 MHz si 2 cores ou plus sont utilisés. Les Lynnfield, quad core au socket 1156 qui sont apparus plus tard, amélioraient déjà cette fonction puisqu’on pouvait gagner jusqu’à 533 MHz en monocore ! Chez AMD, le Turbo Core est apparu sur les Phenom II X6 en avril 2010. 1 an et demi après Intel, AMD propose une solution relativement convaincante dès la première version : 400 à 500 MHz (cela dépend des CPU) de gagnés si 3 cores ou plus sont désactivés. Cela signifie donc que 3 cores d’un Phenom II X6 1055T peuvent fonctionner à 3,3 GHz au lieu des 2,8 GHz de base. Le gain est donc très appréciable quand 3 cores sont sollicités, mais l’optimisation concernant les applications monothreads aurait pu être améliorée en passant à +700 MHz par exemple. Notez que ce Turbo Core est réservé aux Phenom II X6, mais qu’un CPU Black Edition (au coefficient multiplicateur libre) pourra en bénéficier s’il est placé sur une carte mère Asus AMD 870, 880 ou 890. Il s’agit cette fois d’un overclocking logiciel en temps réel, un peu moins prompt que le vrai Turbo Core, mais les résultats sont, en


Dossier CPU

monocore, mais plus rapides en multicore puisque leur fréquence ne baissera pas. La différence entre ces processeurs porte aussi sur le TDP, qui passe de 65 à 100 W dans le cas des A8-3850. L’exemple du Core i5-2390T (2,7 GHz) est aussi intéressant. Proposé à 155 €, il s’agit en quelque sorte d’un Core i3-2130T auquel on aurait rajouté un Turbo Mode. Ce dual core avec HyperThreading se retrouve propulsé à 3,5 GHz en monocore. Le Core i3-2120T à 2,6 GHz (sans Turbo Mode) coûte 40 € moins cher, mieux vaudra opter pour celui-ci. Tous les Core i5 et i7 de seconde génération peuvent voir leur coefficient D’autant que le TDP mis à multiplicateur augmenté de 4 unités et y cumuler leur Turbo Mode, soit jusqu’à part, un Core i3-2300 quad 800 MHz de fréquence supplémentaire. core à 2,8 GHz et Turbo Mode pratique, très proches. Sur les nouveaux (à peu près aussi rapide) coûte le même prix CPU au socket FM1, impossible de savoir que le 2390T. comment celui-ci fonctionne, mais il existe Aussi, bien que les Turbo Mode et Turbo Core soient d’excellents atouts dans la vie de tous sur certains processeurs. les jours, Intel et AMD tentent de facturer cette Pour se rendre compte du gain de ce Turbo option bien trop cher, il ne faut pas en faire un Mode, nous avons testé cinq processeurs sous impératif, le gain atteint à peine 10 % dans les Cinebench en monothread. En désactivant le cas les plus favorables. Turbo Core ou le Turbo Mode, on visualise un peu mieux le gain apporté par cette fonction. Contrôleur mémoire Elle est très appréciable si elle ne coûte que quelques euros de plus. Dans le cas des Llano Le contrôleur mémoire n’est pas un critère par exemple, les A8-3800 bénéficient du Turbo d’achat en soi. Toutefois, ses performances Core absent des A8-3850 pourtant proposés peuvent faire pencher la balance d’un côté au même prix. Mais ces derniers sont caden- ou de l’autre. cés à 2,9 GHz au lieu de 2,4 GHz. Autrement Par exemple, celui des CPU 1155 est le dit, ils seront aussi rapides que les A8-3800 en premier qui ne pose pas le moindre pro-

blème pour remplir tous les slots de RAM. Que ce soit avec le X58 où la détection de 3 barrettes en DDR3-1600 est aléatoire ou avec la plateforme AM3 où installer plus de 2 barrettes complique la stabilité du système, il y a toujours quelques soucis. Dans le meilleur des cas, il suffit de laisser les réglages du BIOS par défaut, sinon il faut bidouiller un peu. Rien de bien sorcier, mais c’est tout de même gênant. Avec Sandy Bridge, tout cela est de l’histoire ancienne, on peut même installer les barrettes dans n’importe quel slot, il n’est plus nécessaire de les remplir dans un ordre particulier. Par contre, les contraintes du dual channel restent valables. Ensuite, les performances influent beaucoup sur la bande passante. Cette bande passante a relativement peu d’influence mais dans certaines applications, comme la compression de fichiers avec WinRAR, elle fait la différence. Augmenter les canaux de mémoire ou intégrer le contrôleur mémoire au sein du CPU pour réduire les latences et ensuite le rapprocher des cores d’exécution permettent de maximiser les performances. A ce petit jeu, les IMC Intel dominent depuis leur arrivée au sein des Core i7-900, fin 2008. AMD, malgré de longues années d’expérience, n’a réussi à livrer une copie décente en DDR3 que très récemment avec l’IMC des Llano, les CPU FM1. En outre, là où l’IMC des anciens Athlon II était dépassé par les événements, quelle que soit la fréquence de la RAM, celui des nouveaux APU tire profit d’une mémoire plus rapide. Rien qu’avec de la mémoire 1600 C9 (le standard en 2011), les gains atteignent 15 %. En prime, le contrôleur encaisse des

Bande passante (Mo/s)

Winrar (sec) 290 294

Athlon II X4 640 245

A8‐3850

Core i7 975 Core i7 2500K

277

100

DDR3‐1866 C9

200

300

400

19,5

19,3

17

11,6 11,5 0

0

20,7

12,1 11,9

Athlon II X4 640

119 127

Core i7 975

14

Phenom II X4 965

122 133

Core i7 2500K

17

A8‐3850

164 178

Core i3 2100

17,3

Core i3 2100

214 221

Phenom II X4 965

19

5

DDR3‐1866 C9

10

15

20

25

DDR3‐1333 C9

DDR3‐1333 C9

Selon l’architecture, la bande passante profite plus ou moins à Winrar.

Alors que le contrôleur mémoire des Deneb n’arrive guère à exploiter de la mémoire rapide, ceux des autres CPU s’en donnent à coeur joie bien que ce gain ne se traduise pas toujours par un temps de calcul raccourci.

Hardware Magazine 23


IGP

de 16 Go !

fréquences plus importantes ! Enfin, il est peu probable que cela vous intéresse étant donné le prix des modules de 8 Go, mais jusqu’à récemment, les contrôleurs ne supportaient que 8 Go par canal. Vu qu’il y a, en général, deux slots par canal, cela signifiait qu’on ne pouvait utiliser que des barrettes de 4 Go, au mieux, pour remplir les slots, soit 16 Go dans le cas des plateformes dual channel (AM3 et 1156) et 24 Go dans le cas du X58 trichannel. Les Sandy Bridge ont introduit un contrôleur mémoire supportant 32 Go, soit 4 barrettes de 8 Go, soit environ 800 € tout de même pour disposer d’une quantité de mémoire inutile dans bien des cas. Mais les Llano ont surenchéri, puisque leur IMC ne supporte pas moins de 64 Go de DDR3. C’est énorme et presque grotesque puisqu’à l’heure actuelle, les modules 8 Go arrivent à peine avec des prix délirants, on est donc bien loin de pouvoir s’offrir 4 barrettes

La partie droite du die de Llano représente l’espace occupé par les transistors de l’IGP

Les cartes H67 et Z68 (équipées de sorties vidéos) permettent d’exploiter l’IGP des CPU 1155, mais pas celles en P67.

24 Hardware Magazine

Petit à petit, AMD, comme Intel, développe des CPU qui intègrent une partie graphique. D’abord placée sur le même PCB mais sur deux dies séparés avec les Clarkdale en janvier 2010 (PC Update n° 45), cette puce a rapidement trouvé place au sein même du die du CPU, pour plus d’efficacité et une réduction des coûts avec Sandy Bridge en janvier dernier (PC Update n° 51) ou Llano au cours de l’été (Hardware Magazine n° 54). Cela facilite l’élaboration des cartes mères, en évitant de rajouter des liens de communication entre CPU, mémoire et IGP. En outre, placer les deux puces sous le même heatspreader permet de contrôler la consommation, la chauffe et d’optimiser le rendement de l’ensemble. Si le CPU n’est que peu utilisé mais que l’IGP rame un peu, il est possible d’overclocker ce dernier. Toutefois, ce n’est pas une pratique incompatible avec deux puces séparées, cette fonction est aussi une conséquence de l’évolution des mœurs, puisque l’augmentation dynamique de fréquence est de plus en plus appréciée. On a beau chercher, l’intégration des deux puces présente plus d’inconvénients que d’avantages. A commencer par le prix des CPU qui augmente inévitablement. Ce n’est pas déraisonnable puisqu’une plateforme Llano coûte moins cher qu’un CPU AMD équivalent,

qu’une carte graphique aussi rapide que l’IGP et qu’une carte mère compatible. Toutefois, pour celui qui ne veut pas se servir de cet IGP, c’est une dépense inutile. Fort heureusement, AMD l’a bien compris et commercialise des CPU privés d’IGP et sensiblement moins chers. Mais ce n’est pas le cas d’Intel qui a fait le choix de forcer un peu la main du client. Les prix restent corrects de sorte que personne ne se plaint, mais économiser 30 € sur un Core i5-2500K privé d’IGP ne déplairait pas aux joueurs. En outre, même si la dissipation est très raisonnable, un seul radiateur vient refroidir les deux ensembles, obligeant le ventilateur du refroidissement à tourner un peu plus vite, produisant ainsi un peu plus de bruit. Certes, l’IGP mieux refroidi aura moins de risques de planter ou d’être endommagé au fil des ans, mais ce ne semblait pas être un problème jusque-là.

Llano en tête Tout comme pour les GPU, la puissance de ces parties graphiques change du tout au tout. Les Clarkdale n’embarquaient qu’un GMA HD, c’est-à-dire une évolution du GMA X4500HD embarqué dans le G45. Rien de nouveau, si ce n’est l’intégration et le process de fabrication. Ces IGP médiocres sont toutefois cantonnés à l’affichage 2D ; à l’époque, les GeForce 9300 et les Radeon HD4200 des chipsets nVidia et AMD font mieux en traitement vidéo et permettent au moins de jouer à quelques rares titres. Les Sandy Bridge ont ensuite introduit les HD Graphics (Pentium G), HD Graphics 2000 (presque tous les CPU) et HD Graphics 3000 (Core i3-2105, Core i5-2500K et Core i7-2600K). La puissance des deux premiers est à peine supérieure à celle du GMA HD des Clarkdale, mais propose quelques fonctions supplémentaires (voir encadré). En revanche, le HD 3000 compte le double d’unités de traitement, soit 12 au lieu de 6 et affiche donc des performances presque doublées partout, permettant enfin de jouer à quelques jeux en full HD. Enfin, les Llano proposent, eux, la puissance d’une vraie petite carte graphique en leur sein. En effet, la HD6550D intégrée aux A8 est en moyenne 50 % plus rapide que la HD3000 d’Intel et que la HD5450, mais ça reste très léger, une HD5570 (architecture similaire avec 400 SP) se montre quand même plus rapide. Les A6 qui embarquent une HD6530D, passant de 400 SP @600 MHz à 320 SP @443 MHz, se montrent 15 à 20 % moins rapides. Heureusement, même les A4 et leurs 160 SP devraient se montrer plus rapides que les HD3000 d’Intel.


Dossier CPU

Les familles de CPU actuelles Les gammes des constructeurs se veulent claires mais ne le sont pas vraiment pour ceux qui ne suivent pas régulièrement l’actualité. Et il suffit de rater une fois votre magazine préféré pour trouver une dizaine de références inconnues au bataillon.

AMD : nomenclature CPU en fonction de l’IGP Commençons par AMD qui est en train de revoir toute sa gamme. De l’entrée de gamme Sempron au haut de gamme Phenom II, en passant par le milieu de gamme Athlon II, la famille AMD était relativement claire. Elle utilisait le socket AM3 et des dénominations X2, X3, X4 ou X6 pour indiquer le nombre de cores. Ainsi, un Phenom II X4 940 était plus haut de gamme qu’un Athlon II X4 640, alors qu’ils possèdent tous deux 4 cores

cadencés à 3 GHz. La différence est toutefois très simple sur cette génération, puisque le Phenom II ne devait son nom et son prix qu’à un cache L3 inexistant sur l’Athlon II, de même pour différencier les Sempron des Athlon II. Avant eux, les Phenom et Athlon (sans le suffixe II) formaient le gros des troupes sur socket AM2. Désormais, les gammes vont se complexifier. Le socket FM1 fait son apparition et accueille les CPU d’entrée de gamme affublés d’un IGP, les A Series (et une déclinaison équivalente au Sempron, les E Series). Toutefois, des Athlon et Sempron seront toujours disponibles, il s’agira de séries E ou A dont l’IGP a été désactivé, à ne pas confondre avec les autres Athlon ou Sempron au socket AM3 qui vont perdurer quelques mois encore. Comble du comble, à l’intérieur de la série A, on distingue les A4, A6 et A8, différenciés par l’IGP qu’ils embarquent.

Socket

Cores/Threads

Cache L2 (L3)

Gravure

Fréquence

Core i7 2000

1155

4C/8T

1Mo (8Mo)

32nm

2,8-3,4 GHz

Sandy Bridge

Core i5 2000

1155

4C/4T

1Mo (6Mo)

32nm

2,3-3,3 GHz

Sandy Bridge

Core i3 2000

1155

2C/4T

512ko (3Mo)

32nm

2,5-3,3 GHz

Sandy Bridge

Pentium G600/800

1155

2C/2T

512ko (3Mo)

32nm

2,2-2,9 GHz

Sandy Bridge

Core i7 900

1366

4C/8T ou 6C/12T

1Mo (8Mo) ou 1Mo (12Mo)

45 ou 32nm

2,66-3,46 GHz

Bloomfield ou Gulftown

Core i7 800

1156

4C/8T

1Mo (8Mo)

45nm

2,53-3,06 GHz

Lynnfield

Core i5 700

1156

4C/4T

1Mo (8Mo)

45nm

2,4-2,8 GHz

Lynnfield

Core i5 600

1156

2C/4T

512ko (4Mo)

32nm

3,2-3,6 GHz

Clarkdale

Core i3 500

1156

2C/4T

512ko (4Mo)

32nm

2,93-3,33 GHz

Clarkdale

Pentium G6900

1156

2C/2T

512ko (3Mo)

32nm

2,8-2,9 GHz

Clarkdale

Core 2 Q9000

775

4C/4T

6 ou 12 Mo

45nm

2,0-3,0 GHz

Yorkfield

Core 2 E8000

775

2C/2T

6 Mo

45nm

2,66-3,33 GHz

Wolfdale

FX-8000

AM3+

4C/8T

8Mo (8Mo)

32nm

2,8-3,6 GHz

Zambezi

FX-6000

AM3+

3C/6T

6Mo (8Mo)

32nm

3,3 GHz

Zambezi

FX-4000

AM3+

2C/4T

4Mo (8Mo)

32nm

3,6 GHz

Zambezi

A8-3000

FM1

4C/4T

4Mo (8Mo)

32nm

2,4-2,9 GHz

Llano

A6-3000

FM1

4C/4T ou 3C/3T

4 ou 3 Mo

32nm

2,1-2,6 GHz

Llano

A4-3000

FM1

2C/2T

1 Mo

32nm

2,5-2,7 GHz

Llano

Phenom II X6 1000

AM3

6C/6T

3Mo (6Mo)

45nm

2,8-3,3 GHz

Thuban

Phenom II X4 900

AM3

4C/4T

2Mo (6Mo)

45nm

2,4-3,7 GHz

Deneb

Phenom II X4 800

AM3

4C/4T

2 Mo (0 ou 6 Mo)

45nm

2,5-3,3 GHZ

Deneb ou Propus

Phenom II X3 700

AM3

3C/3T

1,5Mo (6Mo)

45nm

2,4-2,8 GHz

Heka

Phenom II X2 500

AM3

2C/2T

1Mo (6Mo)

45nm

3,0-3,4 GHz

Callisto

Athlon II X4 600

AM3

4C/4T

2Mo

45nm

2,2-3,1 GHz

Propus

Athlon II X3 400

AM3

3C/3T

1,5Mo

45nm

2,2-3,3 GHz

Rana

Athlon II X2 200

AM3

2C/2T

2Mo

45nm

2,7-3,4 GHz

Rezor

Sempron X1 100

AM3

1C/1T

512ko

45nm

2,7-2,9 GHz

Sargas

Des fonctions supplémentaires En plus de la puissance de l’IGP, il faut tenir compte des fonctions avancées qu’il propose. L’accélération matérielle, qui permet de décoder les flux HD par l’IGP et non le CPU, est heureusement supportée par toutes les puces modernes. Toutefois, cette tâche n’est pas effectuée de la même façon chez tout le monde. Là où les IGP Intel se contentent d’afficher des sources progressives, les IGP nVidia ou AMD (Llano en tête) ou mieux encore, les cartes graphiques, permettent d’appliquer des filtres pour améliorer la qualité d’image des flux entrelacés. Aucun intérêt si vous vous contentez de Blu-Ray, mais si votre PC sert aussi à regarder des DVD ou la TV, il faudra en tenir compte (voir Hardware Magazine n° 54). En outre, pour les fans d’encodage vidéo, l’IGP peut participer à l’effort de guerre. Les HD Graphics 2000 et 3000 d’Intel apportent donc le support de Quick Sync Video, autorisant un encodage extrêmement rapide avec des logiciels compatibles. Attention toutefois, la qualité vidéo est alors bien inférieure à ce que peut donner un vrai GPU ou un encodage CPU en plusieurs passes. Il faudra donc réserver cet usage à la conversion de vidéos pour les baladeurs avec des petites résolutions. Les IGP nVidia et AMD s’en sortent bien, même si leur manque de puissance ne peut pas rivaliser avec une vraie carte graphique sur des encodages gourmands (1 080 vers 720 par exemple). Notez toutefois que l’encodage CPU, certes lent, est toujours le plus qualitatif qui soit. Enfin, le support de diverses sorties vidéo a son importance. Les IGP Intel ne peuvent diffuser des flux supérieurs à 1 920 x 1 200 que par une sortie DisplayPort. Les anciens IGP (GeForce 9300, GMA HD, HD4200) ne sont pas compatibles avec le HDMI 1.4a (permettant entre autres les flux 3D et l’audio return).

Hardware Magazine 25


Le socket AM3+ est nécessaire si vous comptez acheter un AMD FX. Certaines cartes AM3 sont censées supporter aussi ces CPU, mais nous vous déconseillons l’achat d’une telle carte actuellement, elle ne coutent pas moins chère que les nouvelles.

Des CPU triés selon… leur GPU ! Le chiffre ne désigne même pas le nombre de cores, puisque les A6 compteront aussi bien des CPU tri que quad core. En revanche, la quantité de mémoire cache embarquée dépend du nombre de cores. Pour finir, les 4 chiffres formant la référence du modèle ne correspondent même pas à la fréquence du CPU, ce serait trop beau. Un A8-3850 désigne donc un CPU à 2,9 GHz intégrant un HD6550D. Pour le haut de gamme, ce seront les FX Series qui viendront prendre place sur un socket AM3+ et sans IGP. Ce socket pourra accueillir les anciens CPU AM3, alors que les FX pourront même être utilisés sur certaines cartes mères AM3. En revanche, le premier des 4 chiffres désignera le nombre de cores. Un FX-8150 sera donc un CPU 8 cores. Ces processeurs embarqueront un cache L3 de 8 Mo mais la quantité de L2 sera fixée à 1 Mo par core, soit respectivement 4, 6 et 8 Mo pour les CPU 4, 6 et 8 cores.

Intel : trop de gammes Chez Intel, la transition de Core 2 aux Core iX a été entamée il y a déjà 3 ans et la gamme est donc relativement compréhensible. Les Core i7 désignent le haut de gamme, des quad ou hexacores avec Turbo Mode et HyperThreading. Les Core i7-900 représentent la première génération, alors que les Core i7-2600 représentent la seconde. Les Core i5 (700 ou 2300/2400/2500) sont, en général, des quad core privés d’HyperThreading, souvent avec un peu moins de cache mais toujours un Turbo Mode. Les Core i5-600 sont, en revanche, des dual core avec HyperThreading. Les Core i3-2100 ou 500 sont des dual core 26 Hardware Magazine

privés de Turbo Mode, leur cache est souvent deux fois moindre que celui des Core i5 de même génération. Les Pentium G sont privés de Turbo Mode et d’HyperThreading, bien qu’on ne comprenne pas pourquoi les plus récents s’appellent Pentium G 600 et 800, alors que les anciens s’appellent Pentium G 6000 (moins de chiffres marquant comme une régression dans la gamme). Enfin, les Celeron représentent l’entrée de gamme. Il n’y en a pas eu lors de la précédente génération mais Intel vient tout juste d’introduire les Celeron G 400 et 500. Notez qu’il est assez compliqué de savoir quel CPU embarque un IGP et duquel il s’agit. Dans la précédente génération, seuls les dual core en étaient pourvus (Pentium G, Core i3-500 et Core i5-600). Dans la nouvelle génération, tous les CPU embarquent un IGP HD2000, à l’exception des CPU portant le suffixe K qui embarquent un HD3000 et les Pentium G qui, comme souvent, embarquent un IGP déclassé, ici nommé HD Graphics. En revanche, comme chez AMD, les CPU haut de gamme au socket 2011 qui vont sortir dans les mois à venir et dérivés des plateformes serveur ne seront pas équipés d’IGP.

Quelques exceptions Hormis les Athlon et Sempron au socket FM1, des E et A dépourvus d’IGP qui ne manqueront pas de porter à confusion avec les Athlon et Sempron au socket AM3, AMD a introduit de nouveaux Phenom II X4 800. A la base, les 805 et 810 sont des quad core en tout point semblables à ceux de la série 900, le 810 étant même identique au 910. Mais les 840 et 850 sont dépourvus des 6 Mo de cache L3. Il s’agit donc d’Athlon II X4 et si l’on suit la

nomenclature AMD, ils devraient se nommer Athlon II X4 650 et 655. Une façon de donner un peu de prestige à ces CPU en les nommant de façon similaire à leurs grands frères. Dans cette même famille de Phenom II X4, les 920 et 940 sont en fait des CPU AM2+, c’est-à-dire équipés d’un contrôleur mémoire DDR2 et compatibles avec les sockets AM2 ou AM2+, mais pas AM3 ni AM3+. Dans le même genre, mais chez Intel, le Core i5-2390T n’est pas un quad core doté de 6 Mo de cache L3, comme les autres Core i5-2300. Il s’agit, en réalité, d’un dual core avec HyperThreading (moins rapide que les autres Core i5) mais qui bénéficie du Turbo Mode, lui donnant droit au nom de Core i5. Une sorte de Core i3-2130T avec Turbo Mode. On notera aussi que certains CPU voient leur nomenclature finir avec un 5, comme les i3-2105, i3-2125 et i5-2405S, ce chiffre venant caractériser la présence d’un IGP HD3000 au lieu d’un HD2000. Un 2 en dernier chiffre (comme dans le cas des i3-2102, Pentium G 622 et G 532) indique, en revanche, une possibilité de déblocage software de cache ou de fréquence. Enfin, ne vous trompez pas au sujet des Core i7-900. Bien que portant des noms similaires et reposant sur une plateforme Tylersburg (X58 et socket 1366), il s’agit de deux architectures différentes. Les premiers (Core i7 920, 930, 940, 950, 960, 965 et 975) sont des quad core gravés en 45 nm reposant sur l’architecture Nehalem, tandis que les seconds (Core i7 970, 980, 980X et 990X) sont des hexacores gravés en 32 nm reposant sur l’architecture Westmere. Le nombre de threads, ainsi que la quantité de cache évoluent avec le nombre de cores, la puissance théorique étant donc en théorie augmentée de 50 %.


Dossier CPU

Chipsets Le choix du CPU arrêté, il faut encore s’attarder sur les chipsets, on n’en dénombre pas moins de 28 pour les 5 plateformes actuelles. Lignes PCI-Express, gestion des CPU, nombre de ports USB ou SATA, IGP, overclocking, fonctions avancées, les critères de choix sont nombreux. Toutefois, il faudra aussi composer avec la dizaine de constructeurs de cartes mères, dont quatre marques sont très présentes en France, chacune proposant plusieurs modèles pour chaque chipset. En effet, même si un chipset suffit à votre usage, afin de segmenter les gammes, les constructeurs s’amusent à limiter artificiellement leurs produits d’entrée de gamme. C’est notamment le cas du H61 qui, s’il pourrait convenir pour un HTPC, se retrouve évincé de notre sélection car il n’existe pas de cartes mères H61 équipées à la fois d’une sortie optique, HDMI, de 6 sorties Jack et d’un chip son moderne.

1155 Pour le socket 1155, quatre chipsets principaux cohabitent, nous excluons volontairement les B65, Q65 ou Q67 qui sont peu ou pas distribués. Les H67 et P67, les premiers arrivés, sont très complémentaires. Le premier permet d’exploiter l’IGP des CPU et de l’overclocker mais l’overclocking CPU est limité (impossible de changer le coefficient multiplicateur, même avec un CPU K), l’overclocking mémoire est inexistant et les 16 lignes PCI-Express ne sont pas splittables. Le P67 se passe de tout ce qui concerne l’IGP, mais permet l’overclocking du CPU et de la RAM, et les lignes PCI-Express peuvent être réparties sur deux ports si besoin. Le Z68 rassemble les fonctions des deux chipsets et se négocie quelques euros plus cher. En outre, il ajoute la technologie SRT (Smart Response Technology), aussi appelée SSD Caching, et qui permet de mêler les performances d’un HDD et

d’un SSD en utilisant ce dernier comme cache externe. On n’obtient pas des performances aussi bonnes qu’avec un SSD, mais c’est une bonne solution pour qui ne veut pas avoir à gérer plusieurs partitions et n’a pas les moyens de s’acheter plus qu’un SSD 40 Go. Enfin, le H61 est une version low cost du H67, privée des deux ports SATA 6 Gb/s, de quatre ports USB 2.0 et de deux slots de RAM, en laissant deux slots DDR3 limités à 8 Go chacun.

1366 Destinée à disparaître sous peu, remplacée par le chipset X79 et les processeurs au socket 2011, la plateforme Tylersburg n’aura connu qu’un seul chipset pendant 3 ans : le X58. C’est, encore à ce jour, le chipset le plus haut de gamme d’Intel, au même titre que les processeurs, qui vont jusqu’à l’hexacore

Modèle

Socket

Lignes PCI-E principales

Lignes PCI-E secondaires

SATA II (6Gb/s)

RAID

USB 2.0 (3.0)

IGP

RAM

Z68

1155

16 ou 8/8

8

4 (2)

0, 1, 5 et 10

14 (0)

Oui (CPU)

4x

P67

1155

16 ou 8/8

8

4 (2)

0, 1, 5 et 10

14 (0)

Non

4x

H67

1155

16

8

4 (2)

0, 1, 5 et 10

14 (0)

Oui (CPU)

4x

H61

1155

16

8

4 (0)

0, 1, 5 et 10

10 (0)

Oui (CPU)

2x

X58

1366

16/16 ou 8/8/8/8

4 + 6 (1.1)

6 (0)

0, 1, 5 et 10

12 (0)

Non

6x

P55

1156

16 ou 8/8

8 (1.1)

6 (0)

0, 1, 5 et 10

14 (0)

Non

4x

H57

1156

16

8 (1.1)

6 (0)

0, 1, 5 et 10

14 (0)

Oui (CPU)

4x

H55

1156

16

8 (1.1)

6 (0)

non

12 (0)

Oui (CPU)

4x

990FX

AM3+

16/16 ou 8/8/8/8

6+4

0 (6)

0, 1, 5 et 10

14 (0)

Non

4x

990X

AM3+

16 ou 8/8

5

0 (6)

0, 1, 5 et 10

14 (0)

Non

4x

970

AM3+

16

5

0 (6)

0, 1, 5 et 10

14 (0)

Non

4x

890FX

AM3

16/16 ou 8/8/8/8

6+4

0 (6)

0, 1, 5 et 10

14 (0)

Non

4x

890GX

AM3

16 ou 8/8

6

0 (6)

0, 1, 5 et 10

14 (0)

Oui (NB)

4x

880G

AM3

16

6

0 (6)

0, 1, 5 et 10

14 (0)

Oui (NB)

4x

870

AM3

16

6

0 (6)

0, 1, 5 et 10

14 (0)

Non

4x

790FX

AM3

16/16 ou 8/8/8/8

6 + 4 (1.1)

6 (0)

0, 1, 5 et 10

12 (0) + 2 USB 1.1

Non

4x

790X

AM3

16 ou 8/8

6 + 4 (1.1)

6 (0)

0, 1 et 10 (parfois 5 selon le SB)

12 (0) + 2 USB 1.1

Non

4x

790GX

AM3

16 ou 8/8

4 (1.1)

6 (0)

0, 1 et 10 (parfois 5 selon le SB)

12 (0) + 2 USB 1.1

Oui (NB)

4x

785G

AM3

16

4 (1.1)

6 (0)

0, 1, 5 et 10

12 (0) + 2 USB 1.1

Oui (NB)

4x

780G

AM3

16

4 (1.1)

6 (0)

0, 1 et 10 (parfois 5 selon le SB)

12 (0) + 2 USB 1.1

Oui (NB)

4x

770

AM3

16

6 + 4 (1.1)

6 (0)

0, 1 et 10 (parfois 5 selon le SB)

12 (0) (parfois 2 USB 1.1 selon le SB)

Non

4x

760G

AM3

16

4 (1.1)

6 (0)

0, 1 et 10 (parfois 5 selon le SB)

12 (0) + 2 USB 1.1

Oui (NB)

4x

A75

FM1

16 ou 8/8 (2.0)

4+4

0 (6)

0, 1 et 10

10 (4)

Oui (CPU)

4x

A55

FM1

16 ou 8/8 (2.0)

4+4

6 (0)

0, 1 et 10

14 (0)

Oui (CPU)

4x

Hardware Magazine 27


à 3,46 GHz hors de prix. Le chipset accuse son âge (fin 2008) mais compte tout de même 6 ports SATA 2, 12 USB 2.0, un contrôleur mémoire trichannel et 32 lignes PCI-Express pour les cartes graphiques, autorisant les systèmes à quatre cartes graphiques !

1156 A oublier si vous souhaitez acquérir une nouvelle configuration, la plateforme 1156 a tout de même été un succès en 2010, proposant la puissance des Core i7 à toutes les bourses. Elle compte trois chipsets principaux, les P55, H55 et H57. Le premier est le chipset classique, privé du support de l’IGP des Clarkdale, mais autorisant la répartition des lignes PCIExpress en 16/0 ou 8/8. De son côté, le H57 permet d’utiliser l’IGP mais se passe de la gestion des lignes PCI-Express, une seule carte graphique sera supportée. Le H55 est très similaire, il perd simplement le support du RAID sur les six ports SATA 2.

FM1 Tout récent, le socket FM1 a été introduit pour les APU AMD, le socket traditionnel ne pouvant pas supporter l’IGP des Llano, même dans sa version AM3+. Il s’agit d’une plateforme milieu de gamme, le CPU le plus rapide se situant à mi-chemin entre un Core i3 dual core et un Core i5 quad core. Mais l’IGP des Llano est le meilleur du moment, destinant cette plateforme aux HTPC notamment. L’A75 est le chipset principal et est actuellement le seul à intégrer nativement 4 ports USB 3.0. Pour le reste, on a droit aux classiques AMD avec 6 ports SATA 6 Gb/s, 4 slots DDR3, une flopée d’USB 2.0 et 8 lignes PCI-Express, en plus des 16 lignes

28 Hardware Magazine

Le chipset AMD 990FX peut gérer 32 lignes PCI-Express 2.0 pour les cartes graphiques mais c’est la seule différence avec le 990X.

splittables pour les cartes graphiques. L’A55 est une version plus abordable qui perd les ports USB 3.0 et se contente de ports SATA 2. Enfin, une version plus haut de gamme, l’A85 FX, est pressentie pour la fin de l’année, marquant peut-être l’arrivée de CPU plus puissants sur ce socket, sans doute avec plus de ports SATA et le support du RAID 5.

AM3+ Le socket AM3+ inaugure les chipsets AMD 900 qui supportent les Bulldozer ou FX Series. Les 990FX, 990X et 970 sont des simples équivalents des chipsets AMD 800, mais apportent le support du SLI. Le 990X n’a toutefois pas d’équivalent, il s’agit en fait d’un 890GX sans IGP, ceux-ci étant réservés à la plateforme FM1 pour le moment.

AM3 Le socket AM3 aura connu les chipsets AMD 700 et 800. Certaines cartes mères en AMD 800 peuvent être compatibles avec les CPU Bulldozer, à condition que le socket soit un AM3+ (seuls quelques détrompeurs les différencient, il n’y a pas de différences fondamentales). tLes 890FX, 890GX, 880G et 870 sont des équivalents aux 790FX, 790GX, 785G et 770. Ces derniers se contentent de SATA 2, au lieu de SATA 6 Gb/s et selon le southbridge associé, la gestion du RAID ou le nombre de ports USB peut varier. Le 785G est identique au 880G, sa Radeon HD4200 (40 shaders à 500 MHz) gère le HDMI 1.3, DirectX 10.1 et l’UVD 2.0. En revanche, le 780G est de conception plus ancienne et ne gère que le HDMI 1.2, DirectX 10 et l’UVD premier du nom. Il en va de même pour le 790GX mais la fréquence est portée à 700 MHz. Le 890GX est similaire et apporte les mêmes améliorations par rapport à ce dernier que les 785G/880G (UVD 2.0, DX 10.1 et HDMI 1.3). Le 760G a été anecdotique en France ; ce chipset similaire au 780G souffrait de son IGP trop limité, qui ne supportait pas l’accélération matérielle, fonctionnait à 350 MHz et abandonnait les sorties HDMI ou DisplayPort. Les autres chipsets se passent d’IGP. Les 770/870 (tout comme les 780G, 785G et 880G) ne gèrent que 16 lignes PCI-Express pour une seule carte graphique, alors que le 790X (comme les 790GX et 890GX) peut alimenter deux cartes graphiques. Enfin, les 790/890FX gèrent 32 lignes qui peuvent être réparties pour quatre cartes graphiques (en 8/8/8/8). La différence fondamentale entre AMD 700 et 800 concerne les 6 ports SATA qui passent à la norme 6 Gb/s.


Dossier CPU

Performances Monothread Compression (sec) Core i7 2600K @5GHz

250,26

194 211

Core i7 2600K

218

281,22

226,5

Core i5 2500K

232

Core i7 990X

249

Core i5 2300

252

Core i7 875K @4,2GHz

Core i7 2600K

19,2 16,1

321,21

Core i7 875K @4,2GHz

325,08

Core i5 2500K

Core i7 860

289

Ph. II X6 1100T @4,2GHz

Ph. II X6 1100T @4,2GHz Core i7 860

21

370,23

Core i7 920

25,4 21,2

372,81

Core i5 2300

26,4 22,2

375,39

Ph. II X6 1100T

29,2 24,1

Core 2 Q9550

30,1 24,7

405,06

Core i5 750

30,8 25,7

406,35

Ph. II X6 1055T

392,16

314

Core 2 E8600

315

Pentium G620

321,5

Core 2 Q9550

328

Core i5 680

423,12

Ph. II X4 965 @4GHz

38,1 31,5

428,925

Core i5 680

434,085

A8‐3850 @3,85GHz

35,1

442,47

Ph. II X4 965

35,2

Ath. II X4 645 @3,9GHz

35,6

Core i3 560

38

458,595

355,5

Core i3 560

460,53

357

Ph. II X2 555

487,62

378

Ph. II X3 720

392

A8‐3800

394

A8‐3850 @3,85GHz

399

Ath. II X4 645 @3,9GHz

404

Ath. II X4 645

424

Ath. II X2 255

429

Pentium G6950

443

Ath. II X3 435

448 200

300

400

33,6 27,8 37,4 31,4

343

Ph. II X6 1055T

25,2

Core i3 2100

336,5

Ph. II X4 965

24,9 20,6

414,735

332,5

Ph. II X6 1100T

23,4 19,7

358,62

304

Ph. II X4 965 @4GHz

20,5 17,1

356,04

291

Winzip

15,2 12,8 18,3 15,4

287

100

Core i7 2600K @5GHz Core i5 2500K @5GHz

Core i7 920

0

14,3 11,9

299,28

278

Core i5 750

Core i7 990X

292,185

276

Core i3 2100

12,8 10,7

Core i7 990X @4,5GHz

272,19

Core i5 2500K @5GHz

Core i7 990X @4,5GHz

Calcul monothread (sec)

500

35

42,0 42,5 42,6 43,1 45,6

Ath. II X4 645

40,7

505,68

Core 2 E8600

41,2

508,26

A8‐3800

42

514,71

Pentium G620

42

521,16

Pentium G6950

546,96

Ph. II X3 720

553,41

Ath. II X3 435

571,47

Ph. II X2 555

577,92

Ath. II X2 255

600

Winrar

Winzip et Winrar sont les deux logiciels de compression les plus répandus et apprécient la bande passante mémoire, les CPU AMD sont donc malmenés.

700

49,2 50,3 50,4 50,0

47

56,4 54,4

65,8

60,1

72,7 74,1 78,9

0

20

Blender

40

60

80

89,7 95,5 100

120

Excel

Blender bridé à un seul core est un excellent indice des performances de l’architecture. Excel quant à lui utilise plus qu’un core mais apprécie avant tout la fréquence CPU.

Hardware Magazine 29


Performances Multithread Encodage (sec) 81

Core i7 990X @4,5GHz

Core i7 990X

68

Core i7 990X @4,5GHz

74

135

Core i7 2600K

75

138

Core i5 2500K

83

145

Core i7 990X

83

147

Ph. II X6 1100T @4,2GHz

91

Core i7 875K @4,2GHz

96

181

Core i5 2300

98

183

Ph. II X6 1100T

98

128

Core i7 875K @4,2GHz

107

Core i5 2500K @5GHz

109

Ph. II X6 1100T @4,2GHz

115

Core i7 2600K

116

Core i5 2500K

138

Ph. II X6 1100T

143

Ph. II X4 965 @4GHz

145

175

Core i7 860

158

Core i5 2300

160

Core i7 920

163

Ph. II X6 1055T

164

203 179 214 242

107

Core i7 920

207

Core i3 2100

119

217

Core i5 750

125

221

Ph. II X4 965 @4GHz

128

186

236

Ph. II X4 965

142

A8‐3850 @3,85GHz

145

Ath. II X4 645 @3,9GHz

149

260

232

278

294 301

245

Core i3 560

310 273

Ath. II X3 435

346

279

Ph. II X3 720

353 323

Pentium G620

409

Pentium G6950

346

Ph. II X2 555

348

Core 2 E8600

359

Ath. II X2 255

362 200

250

300

350

400

Mediashow

Encodage vidéo ou audio, le nombre de threads est le nerf de la guère. Un Core i7 2600K overclocké arrive toutefois à dépasser un 990X par défaut.

280 310 297 308

164

Ath. II X4 645

287

238

Core 2 Q9550

264

236

227

A8‐3800

358 250

137

220

Core i3 2100

227

Core 2 Q9550

205

Core i5 680

281

206

Core i5 750 Ath. II X4 645

219

115

186

30 Hardware Magazine

151

Ph. II X6 1055T

Ph. II X4 965

xRecode

182

203

175

150

163

200

Ath. II X4 645 @3,9GHz

100

128

106

171

50

137

Core i7 860

A8‐3850 @3,85GHz

0

123

Core i5 2500K @5GHz

114

101

59

Core i7 2600K @5GHz

102

90

Core i7 2600K @5GHz

Traitement photo (sec)

347

A8‐3800

174

Core i5 680

177

Core i3 560

185

394 340 384

Ph. II X3 720

214

Pentium G620

221

Ath. II X3 435

223

497 451 489

438

Core 2 E8600

249

441

Pentium G6950

257

450

454

Ph. II X2 555

458

Ath. II X2 255

500

494 497

283

636

301 0

100

200

Photoshop

300

667 400

500

600

700

800

After Effects

Photoshop et After Effects semblent tirer parti des instructions AVX des Sandy Bridge. AMD est à la traine mais les FX devraient corriger le tir d’çi peu.


Dossier CPU

Performances Jeux Jeux (FPS)

Jeux (FPS) 56,2

Core i7 2600K @5GHz Core i5 2500K @5GHz

52,7

Core i7 990X @4,5GHz

52,4

Core i7 2600K @5GHz

77,3

Core i5 2500K @5GHz

71

54,5 54,1

Core i7 2600K Core i7 875K @4,2GHz

Core i7 2600K

372,8

Core i7 990X

223,68

Core i7 990X

50,9 46,8

Core i5 2500K

217,062

Ph. II X6 1100T @4,2GHz

41,8

49,4

Core i7 920

43,7 41,7

Core i7 860

45,8 41,5

Ph. II X4 965 @4GHz

37,9

Core i5 750

34,7

Core i3 2100

34

Ph. II X4 965

30,5

Core i5 680

30,3

Ph. II X6 1055T

29,4

A8‐3850 @3,85GHz

28,2

Core 2 Q9550

27,3

Core i3 560 Ath. II X4 645

25,3

Pentium G620

25,3

A8‐3800

Ph. II X2 555 Ath. II X3 435

18,5

Pentium G6950

17,5 0

10

20

ArmA II

163,253

Ph. II X3 720

157,648

Ph. II X6 1055T

153,046

A8‐3850 @3,85GHz Ath. II X4 645 @3,9GHz

140,42

Core i3 560

138,72

Core 2 E8600

125,552

121,02

Core 2 Q9550

118,708

Ath. II X4 645 Ath. II X2 255

96,76

A8‐3800

94,99

29,6

Ath. II X3 435

91,45

30

40

50

60

70

80

90

Anno 1404

ArmA II et Anno 1404 sont deux monstres réclamant des CPU ultra puissants, il est dur de dépasser 60 FPS. Notez qu’Anno tire toujours parti d’un plus grand nombre de cores.

0

267,2 259,4 258,5 255,4

231,2 212,8 211,4 201,7 201,2

168

99,12

28,7

276,7

238

131,068

Pentium G6950

280,5

239

141,01

Pentium G620

31,4

20,3

Ath. II X2 255

Ph. II X6 1100T

40,3

34,8

20,4

165,495

153,24

36,2

22,3

282,2

Ph. II X4 965

152,515

36,7

294,1

169,32

Core i5 680

32,7

317,6 299,4

176,46

Ph. II X2 555

37,4

327,3

185,628

39,6

38,8

341

196,912

39,9

33,1

23,2

Ph. II X3 720

Core i5 750

41,8

24,5

Core 2 E8600

45,6

43,7

27,3

196,38

Core i7 920

42

28,7

Ath. II X4 645 @3,9GHz

201,19

Core i7 860

Core i3 2100

41,5

350

Ph. II X4 965 @4GHz

46,5

350,1

206,5

Core i5 2300

43,7

36,5

Ph. II X6 1100T

Ph. II X6 1100T @4,2GHz

47,5

377,4

233,988

Core i5 2500K

42,9

437

262,2

50,7 49

Core i5 2300

512

307,2

Core i7 875K @4,2GHz

47,8 49,3

527

326,74

Core i7 990X @4,5GHz

65,3

550

341

164 161 155

100

StarCraft II

200

300

400

500

600

FarCry 2

Starcraft et FarCry2 ne nécéssitent pas forcément beaucoup de cores mais privilégie la fréquence ou l’architecture.

Hardware Magazine 31


Performances Conso et Indice Consommation (Watts) Ph. II X6 1100T @4,2GHz

155

98

Core i7 990X @4,5GHz

Ph. II X6 1100T Ph. II X6 1055T

85

Ph. II X4 965 Core i7 920 Core i7 2600K @5GHz Core i7 990X

109

Core i7 875K @4,2GHz Core 2 Q9550 Ath. II X4 645 @3,9GHz

113

84

Core i5 2500K @5GHz

A8‐3850 @3,85GHz

Ph. II X2 555

145

92

130

79

55

Core 2 E8600

95

Core i5 2500K

75,5

54

Ath. II X2 255

72

Core i5 2300

60

Core i3 560

60

Pentium G6950

58

Core i3 2100

52

Pentium G620

50 0

50

Multicore

99

73

54

Core i5 680

81 80

66

Core i7 920

1,01

Ph. II X4 965 @4GHz

1,09

Ph. II X4 965

1,03

Core i5 750

0,96

A8‐3850 @3,85GHz

0,96

Ath. II X4 645 @3,9GHz

0,92

Core 2 Q9550

0,86

A8‐3800

0,89

Ath. II X4 645

0,86

120

Core i3 2100 Core i3 560

113

Ath. II X3 435

113

Pentium G620

111

Ph. II X2 555

94 150

Monocore

200

250

300

350

Repos

4,72

1,17

118

5,35 4,81

Core i5 2300

Ph. II X3 720

La consommation a été relevée à la prise et tient donc compte de toute la plateforme (SSD, carte graphique, carte mère, mémoire et rendement de l’alimentation).

32 Hardware Magazine

0,99

128 112

99

100

Core i7 860

4,44 4,25 3,94 3,71 3,64 3,61 3,37 3,31 3,24

1,28

Core i5 680

107

78

69

140

109

76

Core i7 2600K

148

101

77 75

153

96

73

Core i5 750

160

101

77

Ath. II X3 435

167

96

77

A8‐3800

174

102

79

Ath. II X4 645

178

115

77

Core i7 860

184

100

64

Ph. II X3 720

189

5,39

1,21

Core i7 875K @4,2GHz

190

125 109

5,97

1,43

Core i5 2500K

198

115

89

6,63 1,61

Core i5 2500K @5GHz

200

132

6,84

1,01

Ph. II X6 1055T

200

103

64

6,9

1,49

Core i7 2600K

209

133,5

110

7,3

1,04

Ph. II X6 1100T

214

124

77

7,65

1,1

Ph. II X6 1100T @4,2GHz

219

123

8

1,64

Core i7 2600K @5GHz

240

129

86

8,8

1,21

Core i7 990X

276

147

91

1,33

Core i7 990X @4,5GHz

279

168

135

Ph. II X4 965 @4GHz

Cinbench R11.5 (indice) 287

3,14

1

3,04 1,23

2,94

1,12

2,81

0,83

2,51

1,09 0,9

Core 2 E8600

0,94

Ath. II X2 255

0,91

Pentium G6950

0,91 0

2,16 1,88 1,86 1,8 1,79 2

Mono

4

6

8

Multi

Cinebench est un benchmark très équitable et qui n’exagère pas particulièrement un aspect d’une architecture, il se révèle être un très bon indice global de performances, tant en monothread qu’en multithread.

10



Overclocking

Overclocker la mémoire Du temps des Core 2, la mémoire avait une importance capitale à cause d’une fréquence de base élevée qui pouvait monter encore plus haut. Avec un FSB de 600 MHz, ce qui se faisait presque facilement avec de bonnes cartes mères et des Core 2 Duo 45 nm, il fallait donc de la mémoire fonctionnant à 600 MHz au minimum. Pas facile avec de la DDR2 dont la fréquence maximale abordable était de 533 MHz (PC2-8500). Et même sans aller dans ces extrêmes, pousser un E6300 à 3,5 GHz requérait déjà 500 MHz, à l’époque où un kit 2 x 1 Go 400 MHz (PC-6400) coûtait la bagatelle de 250 € ! Dur. L’avènement de la DDR3 a heureusement changé la donne puisque la plus basse fréquence est de 533 MHz et qu’on atteint facilement 800 MHz (PC3-12800, DDR3-1600). Les kits 1 GHz sont même monnaie courante de nos jours et certains culminent à plus de 1,25 GHz (PC3-20000, DDR3-2500). Qui plus est, il n’existe plus de plateformes dont la fréquence de base grimpe autant. Même les CPU AMD dont le HTT est de 200 MHz par défaut ne dépassent que rarement 350 MHz. Et dans ces conditions, un simple Athlon II X4

620 (le plus lent des CPU AM3) passe tout de même de 2,6 GHz à 4,5 GHz, soit plus qu’il ne peut encaisser en aircooling ! Toutefois, le ratio minimum a augmenté, de telle sorte que la mémoire tourne à 533 MHz au minimum sur une plateforme 1155, puisque c’est le plus petit standard DDR3. Mais vu qu’on atteint rarement plus de 10 % d’augmentation de BCLK, ce n’est pas un problème pour la DDR3. A vrai dire, on assiste un peu au phénomène inverse, c’est-à-dire qu’on ne peut pas overclocker assez la mémoire. Ou plutôt, on sent que le matériel en a encore sous le pied. Par exemple, atteindre 1 066 MHz (DDR3-2133) sur la RAM avec une plateforme 1155 est plus qu’aisé, on regrette de ne pas avoir un ratio plus élevé, comme celui présent sur les Sandy Bridge de préproduction, qui permettait d’atteindre 1 200 MHz ! Il en va de même pour la plateforme 1156 qui, même si elle est privilégiée pour les records d’overclocking mémoire, est bridée par le BCLK qu’encaisse la carte mère. Un membre de la rédaction a ainsi pu atteindre 1 560 MHz (DDR3-3120) mais en étant limité par le BCLK qui était déjà de 260 MHz (pour 133 MHz de base !). Quoi qu’il en soit, ce phénomène n’est pas près de s’arrêter avec l’arrivée prochaine de la DDR4 qui débutera là où s’arrête la DDR3 !

Mémoire hautes performances

De la DDR3 à 1560 MHz c’est possible sur l’ancienne plateforme 1156. Mais ces records de fréquence n’apportent pas nécessairement une bande passante supplémentaire.

34 Hardware Magazine

A part le plaisir, y a-t-il un quelconque intérêt à overclocker la mémoire ? Oui et non, cela dépend des plateformes. La bande passante offerte par le matériel récent ne

Les kits Dominator GTX de Corsair, en dehors d’être vendus à des prix délirants (plus de 150 € le Go), sont aussi des kits certifiés avec des fréquences impressionnantes : jusqu’à DDR3-2625 !

bride pas les applications, sauf quelques cas particuliers comme la compression de fichiers qui repose plus sur la bande passante que sur la puissance de calcul. Avec ces applications, augmenter la bande passante se traduira par un temps de calcul raccourci. Exception faite toutefois des CPU AM3 qui ne savent guère tirer parti d’une mémoire plus rapide, la faute à leur IMC de piètre qualité. C’était en partie le cas des Clarkdale (Core i3-500, Core i5-600 au socket 1156), même si c’était moins prononcé. Les gains sont relativement légers mais sont toujours bons à prendre lorsqu’il s’agit d’un CPU un peu limite, d’autant que l’overclocking ne coûte pas grand-chose. Quant à savoir s’il faut ou non acheter des kits certifiés avec des grosses fréquences, la réponse est sans conteste négative. Un kit 8 Go 1600 C9 coûte 40 à 50 €. Certifié à 2133, son prix triple ou quadruple ! C’est complètement insensé d’autant que le gain ne dépasse pas 20 % dans certaines applications. Il est conseillé de choisir soigneusement son kit en examinant les latences et les tensions, plutôt que d’acheter une grosse fréquence. Par exemple, les kits 1600 C8 ou 1600 C7 ne coûtent pas très cher et s’overclockent plutôt bien. Certains arrivent même à atteindre 1 066 MHz (DDR3-2133), mais c’est un risque à prendre. En revanche, évitez d’acheter des kits DDR31066 par exemple. C’est l’entrée de gamme et le potentiel d’overclocking est parfois totalement inexistant. En outre, il y a plus souvent d’incompatibilités. Pour à peine quelques euros de plus, optez pour de la DDR3-1333 ou DDR3-1600, les deux standards DDR3.


Dossier CPU

Risques et refroidissement Qui se souvient encore de l’époque des Barton (AMD Athlon XP) où augmenter la tension d’un seul cran de trop entraînait une odeur caractéristique et l’extinction du PC ? A l’époque, il fallait être très prudent, les puces pouvaient très facilement être endommagées et rendaient l’overclocking plus risqué, c’était à celui qui en aurait le plus et tant pis si tout cramait ! Désormais, bien que les processeurs puissent toujours être abîmés à cause d’un overclocking trop sévère, il y a moins de risques. Des sécurités en tout genre (contrôle de la tension, de l’intensité, de la température, du TDP, etc.) ont fait leur apparition et s’il y a le moindre danger, la machine se protégera d’elle-même, soit en baissant les fréquences et/ ou la tension pour moins chauffer, soit en coupant carrément l’alimentation pour ne pas risquer d’aller trop loin. Ce n’est pas une assurance que rien de grave n’arrivera, mais c’est un garde-fou bien utile pour rappeler qu’il faut savoir s’arrêter.

Les tensions à ne pas dépasser Pour ce qui est des tensions, il faudra rester prudent. Il n’y a pas de règles précises, mais les constructeurs communiquent parfois sur les tensions maximales recommandées. Par exemple, la tension nominale d’un processeur Sandy Bridge peut varier entre 0,65 V et 1,40 V selon Intel. Cela donne donc une valeur maximale que l’on peut considérer comme relativement sûre. Nous vous donnons quelques valeurs dans le tableau ci-dessous mais il est de toute façon recommandé de progresser par petits paliers afin de constater l’évolution de la fréquence en fonction de la tension et il faut aussi savoir rester humble. Pas la peine de Un watercooling permet d’améliorer les performances de refroidissement, il ne faudra cependant pas se contenter des kits prets à l’emploi, à peine équivalents aux meilleurs ventirads.

Les anciens CPU pouvaient très facilement être endommagées à cause de l’absence de sécurités.

Le Genesis de Prolimatech permet de bien refroidir le CPU et d’en faire profiter la mémoire vive.

viser les records du monde de fréquence, ceux-ci ne sont pas réalisés dans les mêmes conditions et ne sont pas faits pour se révéler stables. En outre, il faudra se méfier des tensions dites annexes. Hormis le Vcore, les tensions appliquées au contrôleur mémoire ou à la PLL peuvent tout à fait endommager la puce. Leur sensibilité varie toutefois. Par exemple, les premiers Core 2 45 nm ne pouvaient pas encaisser de grosses tensions sur leur PLL. Les premiers Core i7-900 ne toléraient pas une tension trop élevée pour l’uncore.

Plus c’est frais, plus ça s’overclocke ! Niveau refroidissement, c’est très simple. Meilleur, il sera, plus la fréquence pourra être augmentée. Il n’y a cependant plus de risques immédiats. Dépasser la tension maximale raisonnable entraînera plus probablement une mise en sécurité qu’une mort du processeur. Mais sur le long terme, il fau-

dra surveiller la température. Faire fonctionner une puce, quelle qu’elle soit, aux températures limites pendant de longs mois pourra peu à peu endommager les transistors. Ecrans bleus inexplicables même sans overclocking, reboots intempestifs, impossibilité d’overclocker, RAM mal reconnue sont autant de symptômes qui pourront vous mettre la puce à l’oreille. Aussi, en règle générale, pour un usage prolongé, essayez de ne pas dépasser 70 °C. Bien sûr, cela signifie que si votre CPU atteint 75 °C en charge mais qu’il n’atteint les 100 % de sollicitation qu’épisodiquement, ce n’est pas gênant même s’il serait préférable de lui laisser un peu de marge. Sachez tout de même que les sécurités peuvent se déclencher à partir de 80 °C, si votre PC plante soudainement avec l’été, il n’y a donc rien de surprenant. Enfin, la dissipation lors des fortes charges marque la principale différence entre un bon refroidissement et un autre moins performant. En effet, au repos, les températures sont similaires sur des CPU modernes. Mais dès que vous lancerez une application un peu avide de puissance, un bon radiateur marquera facilement 5 ou 10 °C de moins. Et il les tiendra sur le long terme alors qu’avec un autre moins bon, la température augmentera petit à petit jusqu’à stabilisation complète. Notez que le watercooling est un excellent système pour les gros CPU. L’inertie du circuit est très intéressante pour qui ne sollicite que rarement son CPU pendant de longues heures et en plus, c’est un refroidissement plus performant que les meilleurs radiateurs, même énormes. L’encombrement et le prix sont ses seules faiblesses.

CPU

IMC

Sandy Bridge

1.4v

1.25v

Gulftown

1.35v

1.35v

Bloomfield

1.4v

1.4v

Lynnfield

1.5v

1.4v

Clarkdale

1.45v

1.35v

Penrynn

1.5v

Non

Llano

1.5v

1.4v

Thuban

1.5v

1.45v

Deneb

1.55v

1.45v

Hardware Magazine 35


Overclocking

Sandy Bridge, 5 GHz en aircooling en passer par ces deux processeurs qui seront bientôt rejoints par un i7-2700K offrant simplement 100 MHz de plus qu’un i7-2600K. Toutefois, les spécificités Sandy Bridge ne s’arrêtent pas là et pour la première fois, on a affaire à un coefficient « partiellement » débloqué. Avec tous les Core i5 et i7, on peut donc augmenter le coefficient multiplicateur de quatre unités. Par exemple, un Core i5-2400 qui dispose par défaut d’un ratio de 31 pourra être augmenté jusqu’à 35, soit une fréquence de base de 3,5 GHz. En sus, le Turbo Mode est toujours de la partie, le CPU culminant donc à 3,8 GHz en monocore. En revanche, cette fonction repose sur le Turbo Mode, les Core i3, Pentium G et Celeron G n’en sont donc pas pourvus.

Une carte mère Z68 qui ne possède pas de sorties vidéos ne peut pas exploiter l’IGP du CPU, méfiez vous.

Nouvelle architecture succédant à Nehalem et Westmere, Sandy Bridge est très performant mais aussi complètement bloqué en overclocking à cause d’un nouveau mode de fonctionnement. Fini l’overclocking des petits CPU pour égaler les plus gros, seuls deux d’entre eux permettent d’accroître les fréquences.

Nouveau BCLK Depuis de nombreuses années, Intel a bloqué le coefficient multiplicateur des processeurs pour empêcher l’overclocking des petites puces et ainsi segmenter les gammes. Des modèles très coûteux proposés à 1 000 € profitent toutefois d’un coefficient totalement libre à la montée. Malgré la volonté annoncée d’Intel de bannir l’overclocking avec les premiers Core i7, c’était toujours possible. Mais avec Sandy Bridge, c’est une autre paire de manches. Cette nouvelle plateforme révolutionne un peu le genre, puisque toutes les fréquences de la carte mère (SATA, PCI-Express, USB) sont calées de façon synchrone sur le bus principal. Auparavant, elles étaient générées de façon asynchrone, ce qui signifiait que quelle que soit la fréquence du bus principal, le PCI-Express tournait toujours à 100 MHz. Désormais, si le bus principal est overclocké de 10 %, le PCIExpress (mais aussi le SATA et l’USB) le sera aussi. Et c’est plutôt mauvais. Cela se justifie toutefois par le fait que la désynchronisation des fréquences grève un peu les performances et qu’Intel a voulu optimiser le rendement de son nouveau bébé.

36 Hardware Magazine

Mais tout ça n’est que théorie. En effet, il est probable que cette nouvelle organisation bride l’overclocking à un moment ou à un autre, et sans doute relativement tôt vu le peu de marge de manoeuvre dont disposent les différents bus. Toutefois, selon nous, le problème est ailleurs. En effet, la fréquence maximale que nous atteignons varie selon les processeurs. S’il s’agissait d’une limitation du chipset, alors en utilisant la même carte mère, nous obtiendrions toujours la même limite haute : certains processeurs pourraient ne même pas l’atteindre, mais tous les autres buteraient au même endroit. Nous n’avons jamais dépassé 109 MHz (pour une fréquence de base de 100 MHz) et les records du monde ne dépassent pas 111 MHz. Cela dit, nous ne savons pas si ces 111 MHz sont dictés par le CPU ou le chipset. Quoi qu’il en soit, le problème vient d’abord des CPU : dans certains cas, on ne peut même pas atteindre 101 MHz ! C’est une vraie loterie et il n’y a pas de règles, avec beaucoup de chance, vous pourrez bénéficier de 10 % de fréquence supplémentaire.

Coefficient 57 maximum ? Le coefficient maximum des Sandy Bridge K culmine à 57. C’est-à-dire une fréquence maximale potentielle de 5,7 GHz, voire 6,3 GHz en supposant qu’on puisse augmenter le BCLK à 111 MHz. Hélas, tous les coefficients ne fonctionnent pas tous. Au-delà de 50, il arrive fréquemment qu’il y en ait un qui ne passe pas. Par exemple, le CPU peut supporter 5,3 GHz mais ne pas encaisser le coefficient 53 ! Pire encore, malgré la limitation à 57 selon Intel, dans de très rares cas qui semblent être des bugs, on arrive à 58 ou 59 !

CPU débloqués et partiellement débloqués Sans doute conscient du problème, Intel propose donc deux processeurs dont le coefficient multiplicateur peut atteindre 57. Les Core i5-2500K et i7-2600K sont basés sur des Core i5-2500 et Core i7-2600 et se négocient à peine quelques dollars de plus, si bien qu’ils les ont presque complètement remplacés et que même si vous ne comptez pas overclocker, il devient compliqué de trouver un i7-2600. Pour overclocker, il faudra donc obligatoirement

Les CPU K ainsi qu’un chipset P67 ou Z68 sont nécessaires si vous souhaitez overclocker votre plateforme 1155.


Dossier CPU

Tout ça est bien joli, mais a priori des fréquences de plus de 5 GHz intéressent bien peu de monde. Détrompez-vous, avec Sandy Bridge, ces fréquences peuvent être atteintes en aircooling. Nous avons nous-même passé le cap des 5,5 GHz avec un Venomous X. Cela dit, la frustration n’est pas finie. En effet, on pourrait imaginer que ces processeurs pourraient aller encore plus loin avec un refroidissement extrême (températures négatives). Mais il n’en est hélas rien, ils se comportent comme les K8 d’AMD et ne tolèrent que très mal de telles températures, à l’inverse de tous les CPU Intel depuis près de 10 ans qui voient leur fréquence largement s’accroître avec de l’azote liquide.

Overvoltage PLL Pour dépasser les 5 GHz, il faudra néanmoins activer une fonction spéciale dans le BIOS de

la carte mère. Celle-ci s’appelle PLL Overvoltage (ou un terme approchant, cela varie en fonction des marques) et a été intégrée aux BIOS un mois après la sortie de la plateforme. Pensez donc à mettre à jour votre carte mère si vous ne trouvez pas cette option, sinon vous plafonnerez entre 4,5 et 5 GHz, en butant sur un mur virtuel. Le nom de cette fonction est assez explicite, il s’agit d’augmenter la tension délivrée au générateur de fréquences du CPU. Dans le doute, et puisque toute augmentation inutile de tension est à proscrire, ne l’activez que si vous souhaitez passer au-delà de 4,5 GHz.

Z68, le meilleur chipset ? Après la sortie de Sandy Bridge, suite à un overclocking très contraignant, une rumeur a rapidement circulé selon laquelle un

nouveau chipset, le Z68, permettrait enfin d’overclocker le BCLK des CPU, Intel ayant parlé « d’overclocking débloqué ». Il n’en est rien. D’une part, parce que nous vous l’expliquions, le problème vient d’abord du CPU, changer le chipset ne servirait donc à rien. Et deuxièmement parce qu’il s’agissait de pouvoir overclocker CPU et IGP en même temps. En effet, les deux premiers chipsets Intel pour le socket 1155, les H67 et P67, permettaient respectivement d’overclocker l’IGP et le CPU. Impossible d’overclocker le CPU avec un H67 ou de modifier les fréquences de l’IGP (de toute façon inexploité) si on utilise un P67, mais le Z68 rassemble le meilleur des deux mondes. Toutefois, pour ceux qui voudraient tenter de pousser leur CPU K au bout du bout, ce chipset semble un peu plus stable. Moins d’incohérences, moins de coefficients qui ne fonctionnent pas, des fréquences parfois à peine supérieures : il s’agit presque plus d’un ressenti que d’un fait avéré, le P67 pourra très bien faire son office.

Une mémoire capricieuse

Plus de 5.5 GHz en aircooling, c’est possible avec Sandy Bridge.

Là encore, dur à expliquer, mais certaines cartes mères n’apprécient qu’un certain type de mémoire. On distingue deux comportements concernant la DDR3. Soit elle accepte de grosses fréquences mais des timings particuliers (du type 9-11-9 ou 8-11-8), soit elle accepte des timings plus serrés (du genre 8-8-8). Il est assez rare que les deux fonctionnent aussi bien sur une même carte mère. Par exemple, les cartes MSI s’accommodent mieux du premier type (exception faite de la Marshall qui accepte les deux) et la série Deluxe d’Asus s’en sort mieux avec le second type. Mais il n’y a pas lieu de s’inquiéter, il ne s’agit pas d’incompatibilité ou d’absence d’overclocking, c’est juste un peu frustrant de ne pas pouvoir pousser ses modules au maximum lorsqu’on connaît leur potentiel.

Hardware Magazine 37


Overclocking

AM3 : Plus de 4 GHz avec les dernières révisions Après l’échec des premiers Phenom, AMD revoit sa copie en 2008 et propose un die shrink en 45 nm bien meilleur : bonjour Deneb ! Nommés Phenom II, mais aussi Athlon II et Sempron, suivis du suffixe X2, X3, X4 ou X6 selon le nombre de cores actifs, les CPU prennent place sur un socket AM3 (ou AM3+). L’overclocking a été amélioré et AMD en fait même un argument marketing puisque lors du lancement, des overclockers dépassent déjà 6 GHz.

HTT : 300 MHz et plus Le HTT est la fréquence de base chez AMD, équivalent du BCLK ou FSB d’Intel. D’origine à 200 MHz celui-ci peut facilement grimper à plus de 300 MHz sur tous les CPU AM3, nous atteignons même régulièrement 350 MHz. 50 à 75 % de fréquence supplémentaire, c’est un peu mieux que les CPU Intel. En outre, les processeurs Black Edition, c’est-à-dire ceux ayant un coefficient multiplicateur débloqué, bénéficient de tarifs très avantageux, permettant d’aller encore plus loin. Toutefois, il y a de nombreux points à surveiller. D’une part, le bus HyperTransport est lié au HTT et fonctionne à 2 GHz d’origine (ratio x10). Accélérer l’HyperTransport n’apporte rien en termes de performances CPU puisqu’il relie simplement le CPU et le northbridge, ce dernier ne gérant que le contrôleur PCI-Express. A vrai dire, il n’y a pas non plus de gain en 3D puisque sur les CPU AM3, il atteint déjà 32 Go/s de bande passante, ce qui suffit à alimenter les 32 lignes PCI-Express du chipset. Du coup, pour éviter les problèmes, il faut essayer de conserver une fréquence de 2 GHz. Par exemple, avec un HTT à 270 MHz, il faudra utiliser le ratio x8 (ou moins) pour le

lien HyperTransport, afin que celui-ci fonctionne à 2,16 GHz au lieu de 2,7 GHz, ce qui pourrait provoquer des instabilités. En outre, dans le cas où vous avez une seule carte graphique, la bande passante de l’HyperTransport est largement surdimensionnée, n’ayez donc aucune crainte s’il ne fonctionne pas à plein régime. D’autre part, la fréquence du contrôleur mémoire est aussi indexée sur le HTT. Fonctionnant de basse à 2 GHz, il peut grimper autour de 3 GHz en aircooling. L’overclocker apporte un léger surplus de performances mais rien de transcendant, inutile de vous compliquer la vie avec ça. S’il tient sans broncher à 2,8 GHz, laissez-le à cette fréquence, inutile d’aller chercher plus haut. Si vous augmentez le HTT, en revanche, surveillez bien sa fréquence et assurez-vous qu’elle ne provoque aucun plantage en la fixant à 2 GHz. Vous pourrez ensuite l’augmenter si le coeur vous en dit.

L’IMC des Thuban L’overclocking mémoire n’est pas très impressionnant, d’autant qu’il n’apporte pour ainsi dire rien du tout, l’IMC des Phenom semblant saturer très vite. Quoi qu’il en soit, la fréquence maximale a longtemps tourné autour de 960 MHz avec un mur qui semblait infranchissable. Au quotidien, il fallait donc s’estimer heureux avec de la mémoire à 900 MHz sur AM3. Mais l’arrivée des cores Thuban, c’està-dire les Phenom II X6, a un peu changé la donne. Accompagnés d’un chipset AMD800 (ou AMD900), on peut alors dépasser le gigahertz (DDR3-2000) sans qu’aucune explication ne soit trouvée. Notez toutefois que dans tous les cas, l’IMC des CPU AM3 n’est pas toujours conciliant et il faut parfois s’y reprendre à plusieurs fois pour installer plus de deux barrettes. De plus, beaucoup de marques suivent le modèle AMD pour les cartes mères. Les barrettes doivent alors s’installer collées côte à côte au lieu d’être intercalées un slot sur deux comme chez Intel.

RB-C3, le sauveur

Un Phenom II X2 555 dont on débloque les cores devient un Phenom II X4 B50.

38 Hardware Magazine

La famille des CPU AM3 ne cesse de s’étendre depuis 2 ans et demi avec près de 70 processeurs ! Certains ne sont plus en vente, d’autres sont des versions basse consommation ou OEM, mais une variable reste : plus le CPU est

récent, meilleur sera son potentiel d’overclocking. En effet, il semblerait qu’AMD améliore constamment la maîtrise du procédé de gravure, aussi même si aucune nouvelle révision ne fait son apparition, l’overclocking moyen est en progrès. Il y a toutefois deux révisions différentes au sein de cette famille, nommées C2 (ou RB-C2) et C3 (ou RB-C3). La seconde a fait son apparition en novembre 2009, soit un an après l’introduction des premières puces. Tous les nouveaux processeurs lancés depuis bénéficient donc de cette révision, et certains sont proposés avec les deux révisions (bien qu’actuellement, tous les CPU C2 devraient avoir disparu des étals). Au menu, meilleur potentiel d’overclocking du CPU et du contrôleur mémoire. Si atteindre 4 GHz était assez rare avant, c’est désormais presque acquis avec la révision C3. Il ne faut pas hésiter à augmenter la tension jusqu’à 1,5 V mais on y arrive. Néanmoins, si cette tension vous paraît trop importante, il faut relativiser puisque le VID des Phenom II atteint parfois 1,4 V. Une augmentation de moins de 10 % a donc peu de risques d’endommager quoi que ce soit. En outre, les CPU chauffent relativement peu (même s’ils consomment beaucoup vu leur puissance), il n’est pas impératif d’utiliser un radiateur ultraperformant. Enfin, les Phenom II X6, produits dans une autre usine et encore plus récents, s’overclockent encore mieux, on atteint fréquemment 4,2 à 4,4 GHz.

Le Phenom II X4 965 (ainsi que quelques rares autres processeurs AM3) ont existé en révision C2 et C3, la seconde étant bien plus favorable à l’overclocking.


Dossier CPU

Une carte mère avec un simple chipset AMD 870 permet déjà de dépasser les 300 MHz de bus, soit un overclocking potentiel de 50 % pour tous les CPU qui seront capables de tenir cette fréquence !

Quel chipset pour overclocker ? Si la question du meilleur chipset pour l’OC se pose toujours chez Intel, il n’en est pas de même chez AMD. Il semblerait que tous les chipsets d’une même famille se valent, à peu de chose près. En effet, la seule différence entre les chipsets AMD semble por ter sur le contrôleur PCI-Express, le reste des spécifications ne change guère. Et ceci est même valable si l’on compare les familles AMD700, AMD800 et AMD900, exception faite de l’overclocking RAM avec les Phenom II X6 mentionnée plus haut. Nous atteignons déjà 350 MHz de HTT avec une 770T-UD3P et les meilleures cartes 990FX n’ont guère amélioré ce résultat, quel que soit le CPU.

Toutefois, les constructeurs développent des cartes mères en adéquation avec le niveau de gamme du chipset qu’elles embarquent. Aussi, une carte en 990FX propose toutes les fonctions d’overclocking possibles, un étage d’alimentation costaud et tous les raffinements possibles pour améliorer la stabilité. Dans certains cas, il se peut donc que vous préfériez une carte plus haut de gamme proposant par exemple un logiciel d’overclocking plus abouti ou un étage d’alimentation plus adapté à un Phenom II X6 que celui d’une carte d’entrée de gamme.

Débloquer les cores : pas toujours stable ! Certains processeurs AM3 ont la particularité de reposer sur le même die que d’autres, plus

Sur les cartes AMD, les slots à utiliser pour le dual channel sont souvent juxtaposés.

puissants, seuls des cores et tout ou partie du cache ont été désactivés. Et fort heureusement, il est possible de réactiver tout cela grâce à une option dans le BIOS (Core Unlocker ou un nom approchant). Cette option est présente sur tous les chipsets AMD800 et 900 mais aussi les AMD700 qui sont équipés du SB750. Il est assez facile de reconnaître les cartes équipées de ce chipset : elles gèrent le RAID 5 sur leurs six ports SATA, alors que les autres ne supportent pas ce mode. En outre, toutes les cartes 790FX et 785G embarquent ce southbridge. Lorsque vous aurez réactivé les parties manquantes du CPU, assurez-vous que l’ensemble s’avère stable. En effet, AMD a recours à cette technique pour recycler les dies dont un des cores n’est pas fonctionnel. Cela signifie que les puces ne sont pas totalement stables, mais le niveau d’exigence en fin de chaîne chez AMD et dans un PC de particulier n’est pas le même. Aussi, ce qui ne convient pas chez AMD peut suffire chez vous. Il se peut que la puce fonctionne mais que dès que le core défectueux sera sollicité, le système plantera. Moins grave, celui-ci peut ne pas tenir la fréquence demandée de façon parfaitement stable. Parfois, augmenter la tension de 50 ou 100 mV peut suffire, ou alors baisser la fréquence par paliers de 25 MHz jusqu’à ce que tout tienne (et à condition que les performances soient toujours supérieures à celles du CPU d’origine). Si malgré tout cela, le PC n’est toujours pas stable, il vaudra mieux abandonner la réactivation des cores et/ou du cache (désactiver l’option dans le BIOS). Tous les X3 sont potentiellement réactivables en X4. En revanche, seuls les Phenom II X2 peuvent être repassés en X3 ou X4, les Athlon II X2 sont basés sur un die différent. Les Sempron X1 sont basés sur ce même die, ils peuvent donc parfois être transformés en dual core.

Hardware Magazine 39


Overclocking

FM1 : Overclocking très particulier Fréquence de base : 100 ou 200 MHz ?

Fusion ou les APU, un projet lancé en 2006 par AMD après le rachat d’ATI.

La première APU d’AMD est basée sur un CPU similaire à l’Athlon II auquel on a rajouté un IGP plutôt puissant. Le tout implique un nouveau socket et on peut donc légitimement s’interroger sur le potentiel d’overclocking de la plateforme.

Enfin une raison d’overclocker la RAM AMD s’est surtout focalisé sur la partie graphique au demeurant réussie des Llano, mais la partie CPU repose sur la même architecture que les Athlon II du socket AM3. Le raccourci est quand même un peu trop simple. En effet, le cache, l’IMC et les fréquences changent un peu. Cela fait beaucoup de différences, direz-vous. Oui mais pas tant que ça en vérité puisqu’elles n’ont que peu d’influence sur les performances ou l’overclocking. L’IMC apporte tout de même un vent de fraîcheur à des CPU dont le sous-système mémoire était à l’agonie depuis plus de deux ans. Hormis le fait qu’il supporte une grosse quantité de mémoire et se montre moins pointilleux que celui des Athlon II, il permet de monter plus haut en fréquence. De 900 MHz au mieux, nous dépassons les 1 100 MHz. Sacrée amélioration et ce, sans vraiment forcer sur le contrôleur. En utilisant de la meilleure DDR3, on arrive même à passer la barre des 1 200 MHz (DDR3-2400). Mais à quoi cela peut-il bien servir s’il n’en tire pas parti comme c’est le cas pour les Athlon II ? Heureusement, AMD a aussi amélioré ce point. Du coup, l’overclocking mémoire sera le bienvenu même s’il ne mérite pas qu’on y sacrifie trop de temps ou d’argent. Ensuite, le cache passe de 512 ko par core à 1 Mo. Autrement dit, on passe à 4 Mo sur un Llano quad core au lieu de 2 Mo avant, voilà une amélioration qui sera la bienvenue, d’autant que les performances de ce cache n’ont pas baissé.

40 Hardware Magazine

Les processeurs AM3 ont une fréquence de base (HTT) de 200 MHz, si l’on en croit les logiciels de monitoring et le BIOS des cartes mères. Celui-ci est en fait un bus fonctionnant à 100 MHz mais « dual pumped », c’est-à-dire qui peut envoyer 2 bits par cycle d’horloge. Pour simplifier, AMD utilise donc la dénomination 200 MHz puisque c’est équivalent (avec un bus simple) en termes de bande passante et que ça simplifie la compréhension. Mais en hardware, tout fonctionne bien à 100 MHz. Il en va de même pour Llano, sauf que cette fois, le BIOS comme les logiciels annoncent 100 MHz. Etrange puisque le bus est toujours dual pumped, rien ne change, alors pourquoi modifier la façon de « compter » ? On imagine assez facilement que c’est à cause de l’architecture du chipset. En effet, comme Intel, AMD a synchronisé tous les bus sur le bus principal. Dans ces conditions, parler en base 100 au lieu d’une base 200 est plus simple, sans compter que ça évite d’introduire des coefficients équivalents. Par exemple, le PCI-Express fonctionne à 100 MHz, c’est-à-dire avec un ratio 1 :1 par rapport au bus principal. Si l’on doit parler en base 200, on dira que le bus principal est de 200 MHz et que le PCI-Express utilise un ratio 2 :1. Tout ça serait inutilement compliqué, on comprend donc qu’AMD soit revenu sur ses pas.

Hélas, la synchronisation implique une limite de fréquence potentiellement assez basse, comme nous l’expliquions dans le cas des CPU Sandy Bridge. En pratique, au-delà de 110 MHz, le SATA commence à faire des caprices et c’est normal. Les disques durs peuvent encaisser cette fréquence mais pas de façon très stable, il faut parfois s’y reprendre à plusieurs fois pour booter. En revanche, les SSD n’y arrivent pas et ne sont carrément plus détectés ! Toutefois, en passant à 133 MHz, tout semble revenir dans l’ordre, comme si le chipset était partiellement désynchronisé, avec des ratios au lieu de vrais générateurs de fréquences. Une sorte de solution intermédiaire autorisant quand même quelques écarts. La plus petite fréquence étant celle du PCI qui fonctionne à 33 MHz, on peut imaginer que tous les 33 MHz, le ratio de ce bus est ajusté, ainsi que les autres bus, plus rapides. Du coup, le cap suivant serait de 166 MHz. Nous n’avons toutefois pas réussi à atteindre cette fréquence, mais elle équivaut à un HTT de 332 MHz, ce qui s’avère être une belle valeur que certains CPU n’encaissent pas. En outre, si le contrôleur mémoire et la partie graphique n’ont pas de mal à être overclockés de 33 %, il est peu probable qu’ils supportent une augmentation de 66 %, compliquant encore la montée en fréquence. En attendant un éventuel Llano « Black Edition », il faudra donc prendre son mal en patience.

Le socket FM1 a été nécessaire pour implémenter le support de l’IGP des Llano, réutiliser le socket AM3 n’était pas possible.



Overclocking

1366 : 6 cores à 4.5 GHz La plateforme Tylersburg qui regroupe socket 1366 et chipset X58, malgré son grand âge (dévoilée en novembre 2008), reste la plus performante du marché, en tout cas par certains aspects. Elle marque un grand changement puisqu’en plus d’inaugurer l’architecture Nehalem, elle inaugure le premier vrai quad core Intel (au lieu de combiner deux dual core sur le même PCB) et la nouvelle nomenclature des Core i7. Partageant un tronc commun avec les plateformes serveurs, elle s’overclocke relativement bien mais souffre de nombreuses contraintes.

Une architecture compliquée et limitée Très efficace, l’architecture Nehalem est une vraie révolution à l’époque. Le contrôleur mémoire prend place dans le processeur et le bus principal est prévu pour connecter quatre CPU les uns aux autres. Ce sont les deux principales contraintes pour l’overclocking. L’intégration du contrôleur mémoire implique que la fréquence variera en même temps que celle du CPU par le biais de ratios. C’est plus souple puisqu’on peut ainsi gérer indépendamment la fréquence de l’IMC et celle de la mémoire, mais les ratios choisis par Intel sont très gênants. En effet, au minimum, l’uncore (partie dans laquelle se trouve notamment l’IMC) doit fonctionner quatre fois plus vite que la mémoire. Aussi, pour atteindre une fréquence mémoire de 1 GHz (DDR3-2000), l’uncore fonctionne à 4 GHz. C’est déjà sa limite haute sur les premiers CPU puisqu’on bute en pratique entre 3 600 et 3 800 MHz. Cela dit, certaines cartes mères gèrent mieux cette montée en fréquence parmi les premières séries. EVGA et DFI sont les mieux placés, alors qu’Asus peine

Un Core i7-990X (6 cores, 12 Mo de cache L3, à gauche) n’est extérieurement pas différent d’un Core i7-975 (4 cores, 8 Mo de cache L3, à droite).

un peu, mais les différences se lissent avec la deuxième génération de cartes mères. En outre, augmenter la tension de l’uncore permet de monter plus haut (tant en fréquence uncore que mémoire) mais il est conseillé de ne pas dépasser 1,4 V en usage prolongé. En ce qui concerne la montée en BCLK, elle est intimement liée au bus QPI. Celui-ci est lié par trois ratios à la fréquence de base et il ne peut théoriquement pas dépasser 8 GT/s (ou 4 GHz). Le plus petit ratio atteint les 4 GHz pour 222 MHz. Ce sera donc la limite haute utilisable au quotidien. On arrive, dans certaines conditions à dépasser cette limite mais très rarement de façon stable au-delà de 230 MHz.

Merci le Turbo Mode

Le X58, malgré ses 3 ans d’existence, reste au top en gérant 32 lignes PCI-Express et la mémoire triple channel, il ne lui manque que les normes récentes comme le SATA 6 Gb/s ou l’USB 3.0.

42 Hardware Magazine

Le Core i7-920 qui a été énormément vendu grâce à son prix contenu bénéficiait d’un coefficient multiplicateur de seulement 20. Un peu léger, il limitait souvent l’overclocking puisque les CPU pouvaient facilement dépasser 4 GHz avec un bon refroidissement. Heureusement, après quelques semaines, Asus a permis de fixer dans le BIOS le ratio à 21. Pas de magie là-dedans, il s’agissait simplement de fixer le Turbo Mode une bonne fois pour toutes, celui-ci permettant, en effet, au processeur de tourner un peu plus vite si le TDP n’est pas dépassé. Peu à peu, toutes les autres marques

ont suivi et cette fonction est encore présente de nos jours, même si ce n’est plus trop utile avec le Core i7-960 (vendu au même prix que le Core i7-920 en son temps mais avec un coefficient 24).

Gulftown vs Bloomfield Lancés début 2010, les Gulftown sont des die shrinks des Bloomfield. Seuls deux CPU sont proposés au lancement, le Core i7-970 et le Core i7-980X, épaulés récemment par la sortie des Core i7-990X et Core i7-980. Six cores, douze threads, 12 Mo de cache et gravure en 32 nm les distinguent des autres Core i7-900. Le procédé de gravure permet d’améliorer le rendement puisque les six cores consomment alors autant que les quatre cores des Bloomfield en 45 nm. Il en va de même pour la dissipation thermique, ce qui fait que les Gulftown s’overclockent très bien malgré leurs six cores. Ils vont même plus loin que leurs cousins puisqu’on peut plus facilement atteindre 4,5 GHz et les derniers 990X dépassent les 5 GHz en fréquence maximale en aircooling. En outre, les ratios sont améliorés : l’uncore doit fonctionner au minimum trois fois plus vite que la mémoire, au lieu de quatre fois. Cela ouvre donc la porte à de nouvelles fréquences mémoire puisque la plateforme peut atteindre 1 200 MHz (DDR3-2400) en refroidissement conventionnel. En revanche, aucune amélioration du BCLK, c’est même encore un peu plus dur, mais le seul CPU non Extreme Edition bénéficie heureusement d’un coefficient assez élevé (24, 25 en Turbo Mode), autorisant virtuellement 5 GHz avec seulement 200 MHz de BCLK.


Dossier CPU

Les anciens CPU : 1156, 775, AM2+ Lynnfield (sept. 2009 – janv. 2011) Core i7-800 et Core i5-700, socket 1156 Arrivés un an après les premiers Core i7 au socket 1366, les Lynnfield ont démocratisé l’architecture Nehalem en proposant une plateforme plus abordable et en introduisant le Core i5. Les deux seules différences entre les deux puces concernent l’absence d’HyperThreading et du ratio mémoire maximal (1 :6) sur le Core i5. Pour le reste, les deux CPU se comportent de la même façon. Ils encaissent facilement plus de 200 MHz de BCLK, ce qui permet déjà de les emmener à 4 GHz. Cette limite est toutefois compliquée à outrepasser à cause d’un uncore qui est lié de façon fixe (ratio 1 :18). A 200 MHz de BCLK, il atteint déjà 3,6 GHz et sa limite, qui tourne autour de 4 GHz en air, est atteinte dès 222 MHz de BCLK. Avec des températures négatives, on dépasse ces fréquences sans trop de problèmes, ce n’est donc pas une limite de l’architecture, juste un maximum en conditions normales. En outre, ces fréquences s’atteignent presque sans rien faire. Bien sûr, l’uncore étant lié, il faudra s’assurer que ce n’est pas lui qui pose problème, mais il n’y a virtuellement rien à faire pour améliorer le BCLK. Niveau mémoire, on arrive à atteindre 1 200 MHz (DDR3-2400) au maximum de façon stable en air mais il faudra pousser la tension de l’uncore. Les Lynnfield sont moins problématiques que les Bloomfield à ce sujet, mais ne dépassez jamais 1,5 V et idéalement, restez sous la barre de 1,4 V pour un usage prolongé. Intel a été le premier a rassembler IGP et CPU dans un même package avec les Arrandale, mais il s’agissait de deux dies différents.

La Rampage Extreme est une des dernière cartes 775 et sans aucun doute la meilleure, elle fait encore rêver certains nostalgiques à la rédac’ !

Clarkdale (janv. 2010 – mars 2011) Core i5-600, Core i3-500 et Pentium G 6000, socket 1156 Apparus peu après les Lynnfield et sur le même socket, les Clarkdale sont pourtant totalement différents. Au lieu de quad core gravés en 45 nm, il s’agit de dual core 32 nm, les premiers de l’architecture Westmere, qui est un die shrink du Nehalem, c’est-à-dire la même architecture à peine améliorée et utilisant un meilleur procédé de gravure. Ces quelques améliorations suffisent à décupler le potentiel d’overclocking, si bien qu’on arrive à atteindre 5 GHz en aircooling avec ces CPU et 4,5 GHz de façon stable. Ils ont quand même un peu changé par rapport aux Lynnfield. Le PCB regroupe deux dies, le premier étant la partie CPU, alors que le second regroupe le nouvel IGP mais aussi l’IMC et le contrôleur PCI-Express qui étaient avant regroupés dans le même die que le CPU. S’ensuivent un rendement en légère baisse, une bande passante mémoire considérablement réduite (25 % environ, les ramenant au niveau des CPU AMD) et une très mauvaise propension à l’overclocking mémoire. C’est si mauvais qu’on ne dépasse pas le gigahertz (DDR3-2000), même en utilisant un excellent refroidissement. Toutefois, les considérations sur l’overclocking du BCLK restent identiques, à la nuance près qu’il faudra encore plus ménager la tension de l’uncore. En effet, en 32 nm, les transistors sont un peu plus fragiles et donc encaissent moins bien les grosses tensions. Qui plus est, la présence de seulement deux cores facilite la montée en fréquence avec des refroidissements modestes. A l’aide

d’azote liquide, on dépasse facilement les 6 GHz (du jamais vu depuis l’ère des Core 2 Duo 45 nm) et 7 GHz pour les plus chanceux.

Penryn (janv. 2008 - janv. 2010) Core 2 Quad Q9000, Q800, Core 2 Duo E8000, E7000, Pentium E6000, E5000, socket 775 Die shrink de l’architecture Core, Penryn regroupe des dual core (Wolfdale) et des quad core (Yorkfield). Ces derniers ont même été lancés en premier puisque le QX9650 est arrivé, seul, en fin d’année 2007, présageant à l’avance des bienfaits du nouveau procédé de gravure. Mais le gros des troupes est arrivé en janvier 2008, avec le reste des quad core suivis des dual core quelques semaines plus tard. Les deux ont toutefois des comportements bien distincts. Leur point commun fut tout de même de pouvoir monter en fréquence bien plus facilement que les anciens Core 2 en 65 nm. Là où la limite se situait avant entre 3,6 et 4 GHz pour les plus chanceux, les 4 GHz étaient désormais acquis et on pouvait espérer jusqu’à 4,5 GHz. Mais la montée en FSB posait problème. Si ce n’était pas très gênant pour l’E8500 (ou l’E8600 sorti plus tard) grâce à son coefficient de 9,5, l’E8200 nécessitait un bus de 500 MHz pour arriver à 4 GHz et 562 MHz pour 4,5 GHz. Un FSB qu’il pouvait, en théorie, atteindre mais que le P35 ne pouvait hélas pas approcher avec ces processeurs (alors qu’il en était capable avec les anciens Core 2). Il fallait donc en passer par le P965, une hérésie puisqu’à l’époque, bon nombre de personnes avaient déjà changé leur carte mère, le nouveau chipset étant censé être le seul compatible avec les CPU 45 nm. Il aura fallu attendre six mois que le P45 pointe le bout de son nez pour corriger ces problèmes. Ces CPU dual core étaient, en outre, très sensibles à la tension PLL, donnant lieu à de nombreuses

Hardware Magazine 43


Overclocking

Seuls les plus gros Phenom X4 ont pu rivaliser avec les Core 2 Quad première génération. Un mauvais souvenir à effacer pour AMD.

mauvaises surprises chez les overclockers. Mais le passage de la révision C0 à E0 en mai 2008 améliora ce petit défaut, de même que le potentiel d’overclocking à tous les niveaux. Du côté des quad core, c’est encore plus frustrant. Le QX9650 avec son coefficient débloqué arrive à atteindre des fréquences jamais vues pour un quad core à l’époque : jusqu’à 4,5 GHz en aircooling alors qu’on pouvait à peine viser 3,8 GHz avec ses prédécesseurs, les Core 2 Q6000, et à condition d’avoir un refroidissement très costaud ! Très logiquement, les acheteurs attendaient donc le Q9550 de pied ferme, un CPU fonctionnant à 2,83 GHz au lieu des 3 GHz du QX9650, mais vendu à

moitié prix. Hélas, les quad core ne dépassaient que très rarement les 450 MHz de FSB, ce qui impliquait donc un petit 3,8 GHz pour le Q9550. Et les nouveaux chipsets ne pourront rien y faire, pas même le X48. Quoi qu’il en soit, le vFSB, c’est-à-dire la tension appliquée à la partie FSB du northbridge, permettait de grappiller quelques mégahertz sur tous ces CPU, sans oublier d’augmenter un peu la tension du northbridge. En outre, certaines cartes mères se sont très largement distinguées des autres sur cette génération. Dans l’ordre, citons la DFI LanParty DK P45T2RS Plus, très capricieuse mais redoutable, la Biostar TPower i45 et la Gigabyte P45 Extreme qui avaient toutes le potentiel pour franchir la barre des 700 MHz de FSB. En X48, très peu de cartes ont réussi à tirer leur épingle du jeu, et principalement chez Asus, notamment la très réputée Rampage Extreme mais aussi les P5E3 Deluxe ou P6T6 WS Revolution, toutes capables de dépasser les 650 MHz de FSB. Certes plus chères que les cartes P45, leur chipset gérait mieux la mémoire DDR3 et permettait de cumuler 32 lignes PCI-Express, au lieu de seulement 16.

de pouvoir monter en fréquence et de pouvoir abaisser la consommation. En outre, un bug affecte les premières puces, obligeant AMD à réagir rapidement et à relancer les nouveaux CPU à peine quelques semaines plus tard. Les performances sont à peine correctes, les premiers modèles sortis fin 2007 n’arrivent même pas à rattraper le plus lent des quad core Intel. Il faudra attendre l’ultime Phenom 9950 à 2,6 GHz pour voir AMD réussir à égaler les performances du Q6600 lancé début 2007, soit un an et demi plus tôt ! En revanche, les prix allaient de pair avec les performances et offraient des quad core à bas prix, d’autant que les chipsets étaient moins chers et que les CPU pouvaient prendre place sur les cartes AM2 des derniers Athlon K8. L’overclocking était, en revanche, complètement absent. Inutile de chercher à overclocker un Phenom premier du nom, quel qu’il soit, ils ne dépassent jamais 3,5 GHz et la moyenne commune tourne plutôt autour de 3-3,2 GHz. Cependant, ces processeurs inaugurent AMD Overdrive, le logiciel d’overclocking sous Windows bien pratique pour les débutants.

Phenom (nov. 2007 - nov. 2008) Phenom X4 9000, X3 8000, Athlon 64 X2 7000, socket AM2 ou AM2+ Très attendus, les Phenom d’AMD devaient mettre fin à l’architecture K8 d’AMD qui subsistait depuis déjà plus de 4 ans et introduire les premiers quad core grand public d’AMD. Finalement, l’attente aura été vaine, puisque Phenom est une vraie déception. Le lancement de nombreux modèles est annulé, faute

Le H55 permet d’utiliser l’IGP des Clarkdale (Core i5 600, Core i3 500 et Pentium G). Toutefois, à la différence du H67, il ne gère pas le RAID.

44 Hardware Magazine


Dossier CPU

Quel CPU acheter ? Serveur domestique Intel Atom D510, dual core 1,66 GHz, vendu soudé à la carte mère, de 60 à 100 € AMD Sempron X1 140, monocore 2,7 GHz, socket AM3, 30 € Les serveurs peuvent être de deux types. Soit il s’agit de PC sur lesquels vous comptez héberger des jeux ou des services, auquel cas la puissance du CPU doit se réfléchir au cas par cas. Toutefois, à titre d’exemple, un serveur de jeux pour 18 joueurs se contente d’un Core 2 Duo E6400/Athlon 64 X2 5000+ et de 2 Go de mémoire, c’est-à-dire un PC de l’été 2007. La puissance CPU va augmenter au fur et à mesure que vous rajouterez des slots, si bien que la puissance d’un quad core moderne (Core i5 par exemple) sera rapidement nécessaire. Pour ce qui est de l’hébergement de sites, là encore, la puissance va dépendre des plugins que vous choisirez : animations, redimensionnement de photos, requêtes dans la base de données pour le cas d’un forum, etc.

En kiosque ce mois-ci !

xxxxx xxxxx xxxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx xxxxx

Toutefois, à titre d’exemple, l’hébergement du certes modeste forum techage.fr se fait sur un Core i5-2400 et représente une charge quasi inexistante pour le CPU. Au mieux, un core et demi a été sollicité pendant quelques heures, lors de la mise en ligne du nouveau forum et de l’affluence d’un grand nombre de visiteurs et de bots. Aussi un dual core suffira dans la plupart des cas, même s’il s’agit d’un Core 2 Duo ou d’un Athlon 64 X2, sauf si vous prévoyez de lancer un moteur de recherche pour détrôner Google. Côté serveurs de fichiers, que ce soit en ligne ou en local, l’accent devra être mis sur le stockage, le CPU ne représente qu’un mal nécessaire mais la puissance n’a que peu d’importance, sauf si vous souhaitez mettre en place un FTP gigantesque. Mais pour la plupart des usages, un Atom suffira largement. Seule

contrainte d’un tel choix : le chipset associé, le NM10, ne supporte que deux ports SATA. Cela signifie 6 To de stockage, dans le meilleur des cas. Si vous souhaitez plus de ports SATA, il faudra en passer par des plateformes desktop, qui consommeront un peu plus, même si on


Pour un HTPC, la puissance CPU est secondaire. En revanche, l’IGP ou le GPU devront être soignés, ainsi que le silence, un A8-3800 est donc un excellent choix !

reste sous la vingtaine de watts pour le CPU et le chipset. Recycler un vieux Core 2 est une excellente solution pour ceux qui ont changé de PC. Pour ceux qui n’ont rien sous la main, il faudra partir sur du neuf. Oublions d’office le socket 1156 qui, même s’il est suffisant, coûterait aussi cher que le socket 1155 mais en étant moins performant. En 1155, le ticket d’entrée pour le couple processeur et carte mère s’élève à environ 90 € avec un Celeron G440 et un H61. Mais nous préférons la plateforme AM3 avec le Sempron X1 140 et le 760G. D’une part, le prix est un peu moindre. D’autre part, le chipset gère six ports SATA au lieu de quatre pour le H61. Enfin, le Sempron X1 peut, avec un peu de chance, bénéficier du déblocage du second core, le transformant donc en Athlon II X2, soit le double de puissance gratuitement ! Notez que même si ces CPU suffisent amplement, opter pour un dual core 20 € plus cher permettra d’avoir un peu de réserve sous le pied et autorisera notamment de nombreux services (streaming audio ou vidéo par exemple) à tourner en fond.

pour regarder aussi la télévision, des DVD ou toute autre source désentrelacée, il faudra choisir soit une carte graphique comme une HD6570, soit un Llano, les CPU AMD au socket FM1 qui intègrent un IGP délivrant d’excellentes prestations. Le HD6530D des A6 est un peu inférieur à une HD6570 mais le HD6550D des A8 est tout aussi performant pour le traitement vidéo. Les quatre cores du CPU sont certes inutiles, mais la plateforme s’avère moins chère que l’achat d’un CPU dual core et d’une HD6570, sans compter que la consommation est améliorée. Deux processeurs sont pour le moment disponibles, les A8-3850 et A8-3800. Le premier fonctionne à 2,9 GHz sans Turbo Core et est donné pour un TDP de 95 W. Le second est cadencé à 2,4 GHz mais peut mon-

ter à 2,9 GHz grâce au Turbo Core et son TDP est réduit à 65 W. Moins de chauffe est aussi synonyme de moins de bruit généré par le ventirad CPU, nous préférons donc l’A8-3800 pour conserver un bon silence de fonctionnement. Lors du choix de la carte mère, soyez prudent. Si vous disposez d’un ampli audio/vidéo gérant le HDMI, c’est parfait, la moindre carte mère disposant d’une sortie HDMI suffira, peu importe le reste de l’équipement. Si vous utilisez un ampli plus ancien, il faudra trouver une carte mère combinant HDMI, sortie optique mais aussi un chipset son convenable, les ALC-889 ou ALC-892 de Realtek. Enfin, si vous utilisez un kit PC, veillez à ce que la carte dispose de plus de quatre sorties Jack et d’un bon chipset audio là encore.

HTPC Intel Pentium G620, dual core 2,6 GHz, socket 1155, 60 € AMD A8-3800, quad core 2,4 GHz, socket FM1, 125 € Pour un HTPC, le processeur n’a pas grand-chose à faire. En effet, le GPU ou l’IGP peut aisément se charger du décodage des flux HD, la seule tâche un peu gourmande pour une telle machine. Et quand bien même ce serait au CPU de l’exécuter, un Core 2 Duo y arrive très facilement, même les versions d’entrée de gamme comme les E4300. Si vous n’avez rien à recycler et que vous partez sur du neuf, deux choix s’offrent à vous. Soit vous vous contentez de flux progressifs (BluRay, rips de Blu-Ray, DivX, etc.), n’importe quel IGP ou GPU récent suffit, y compris le HD Graphics des Pentium G620. La plateforme coûte à peu près le même prix qu’un équivalent AMD AM3, mais la puissance du G620 est supérieure à celle d’un Athlon II X2, sans compter qu’il consomme moins. En revanche, si vous souhaitez vous équiper 46 Hardware Magazine

Les 12 threads d’un Core i7 hexa core permettent encore d’humilier n’importe quel quad core sur l’encodage d’un BluRay.


Cadeau exceptionnel

Les références des ventilateurs 120mm

Le NF-S12B a été optimisé pour le silence et de faibles vitesses de rotation. Le NF-P12 est quant à lui le compagnon idéal des ventirads pour processeurs et le meilleur compromis puissance/bruit pour un boitier Valable jusqu’au 30/12/2011

abonnement

Avec cet abonnement, nous vous offrons 2 ventilateurs noctua au choix

NOUVEAU : 2 ventilateurs avec une offre un an !! bon de commande 12 numéros + 2 NF-S12B FLX ou 2 NF-P12

Je choisis :

Nom

S12 FLX

P12

Prénom

Adresse Code Postal

Ville

Date de Naissance Paiements trimestriels

Pays Email

Oui ! je m’abonne à Hardware Magazine pour 6 numéros et PC Update pour 6 Numéros au prix spécial de 19 € par trimestre.

Soit une économie de 38 euros ! Le paiement s’effectuera en 4 prélèvements, un par trimestre. Votre abonnement sera ensuite résiliable à tout moment ou renouvellable par trimestre au tarif de 16 €. Autorisation de prélèvement automatique (N°national d’émetteur : 528906) J’autorise Axiome à prélever tous les 3 mois la somme de 19 € pour un minimum de un an à compter du Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

/

/

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire) Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante : Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.

Date (obligatoire)


12 numéros bon de commande Nom

Prénom

Adresse Code Postal

Ville

Pays

Date de Naissance

1

Email

Paiement classique Oui ! je m’abonne à Hardware Magazine pour 6 numéros et PC Update pour 6 Numéros au prix spécial de 62 € Rajouter 12 € de frais de port CEE (reste du monde 20 €)

Paiement par : par chèque à l’ordre de Axiome par carte bancaire Nom du titulaire de la carte N°

Date d’expiration

Veuillez indiquer le code à trois chiffres figurant au dos de votre carte Signature du titulaire de la carte :

2

Date :

Paiements trimestriels Oui ! je m’abonne à Hardware Magazine pour 6 numéros et PC Update pour 6 Numéros au prix spécial de 16 € par trimestre.

abonnement

Abonnement

Soit une économie de 6.8 euros ! Le paiement s’effectuera en 4 prélèvements, un par trimestre. Votre abonnement sera ensuite renouvellé par trimestre et résiliable à tout moment. Autorisation de prélèvement automatique (N°national d’émetteur : 528906) J’autorise Axiome à prélever tous les 3 mois la somme de 16 € pour un minimum de un ans à compter du Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

/

/2011

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire) Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements Date (obligatoire)

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante : Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.


Dossier CPU

Bureautique Intel Pentium G620, dual core 2,6 GHz, socket 1155, 60 € Intel Core i3-2100, dual core 3,1 GHz, socket 1155, 100 € AMD Phenom II X4 955 BE, quad core 3,2 GHz, socket AM3, 100 € Pour la bureautique, un dual core peut amplement suffire. Il ne faut cependant pas tenter d’économiser quelques euros en passant à un monocore, le résultat est catastrophique. On imagine que la bureautique constitue plus une multitude de petites applications légères à moyennement lourdes : traitement de texte, tableur, navigation Web, discussion en ligne (chat ou vocale), lecture de musique, de vidéos ou de photos, synchronisations, etc. Un CPU quad core ne servira pas à grand-chose, il se montrera un peu plus rapide mais la différence ne sera pas perceptible à l’oeil nu. En revanche, opter pour un dual core rapide et/ou moderne est plus adapté. Si l’on considère les plus petits CPU du marché, un Pentium G620 se révèle en moyenne 20 % plus rapide qu’un Athlon II X2 255. Pour environ 100 €, le Core i3-2100 se montre à peu près similaire au Phenom II X4 955. Ce dernier a l’avantage sur les applications multithreadées (si vous devez encoder quelques vidéos pour votre baladeur ou votre smartphone par exemple), alors que

Pour les machines de jeu entrée de gamme, mieux vaut rogner un peu sur le CPU pour acheter un GPU plus puissant.

l’i3 se montre plus rapide sur certains usages plus spécifiques (compression de fichiers ou programmes tirant parti du jeu d’instructions AVX comme le traitement photo). Le choix dépendra de votre préférence et de votre philosophie d’usage. Si ces processeurs ne suffisent pas, il faudra piocher dans des Phenom II X6, Core i5 ou Core i7, les conseils concernant les stations de travail ou les machines de jeu sont tout à fait adaptés.

Station de travail

Intel Core i7-980, hexacore 3,2 GHz, socket 1366, 525 € AMD Phenom II X6 1090T BE, hexacore 3,2 GHz, socket AM3, 145 € Pour des tâches massivement multithreadées, rien ne vaut les bons gros CPU quad core ou hexacore ! En effet, le nombre de cores a ici une grande importance, si bien que les six cores relativement lents d’un Phenom II X6 1100T se montrent plus à l’aise que les quatre cores plus rapides d’un Core i5-2500, les deux CPU fonctionnant à la même fréquence. Ce 1100T est un peu cher comparé au 1090T puisque les 100 MHz supplémentaires sont facturés 20 € de plus, 145 € contre 165 €. Le 1090T se montre pourtant plus rapide qu’un Core i5-2500 coûtant 180 € et dont les cartes mères sont un peu plus chères. L’écart de performances n’est pas gigantesque, mais on parle de 10 à 15 % pour un prix 25 % plus élevé. Plus rapides, les Core i7-2600K font payer encore plus cher leur HyperThreading. Jugez plutôt : 10 à 15 % plus rapides que les Phenom II X6 dans ces environnements, ils sont aussi 80 % plus onéreux ! Si vous devez acheter une carte mère AMD, n’oubliez pas que les cartes socket AM3+ (chipsets AMD 970, 990X et 990FX) peuvent recevoir les Phenom II X6 mais aussi les futurs FX-8000 (voir preview page 54), une jolie upgrade en perspective donc. En revanche, bien que très chers et en fin de vie, les hexacores Intel se montrent 30 à 40 % plus rapides que ceux d’AMD. Toutefois, la plateforme est bien plus chère, le ticket d’entrée X58 se monnayant 170 €, alors qu’on est plutôt à 100 € en AM3. En outre, les trois CPU disponibles sont très coûteux. Les Core i7-980X et 990X coûtent 850 à 900 €, c’est un tarif délirant. En revanche, le Core i7-980 coûte 525 €, c’est déjà plus raisonnable, surtout qu’il ne concède que 133 MHz au 990X. Son coefficient n’est pas libre mais vous pourrez quand même dépasser 4 GHz sans encombre.

Hardware Magazine 49


vrais « basse consommation ». Il s’agit là de puces triées sur le volet puisqu’elles ne sont pas toutes égales sur le plan de la dissipation ou de la consommation, de la même façon qu’elles ne le sont pas sur le plan de l’overclocking. Chez AMD, il s’agit en général de puces fonctionnant aux fréquences similaires à celles de CPU existants, mais grâce à leur bon rendement tension/ fréquence, le TDP a bien baissé. Par exemple, l’Athlon II X2 240e qui fonctionne à 2,8 GHz, tout comme le 240, mais qui voit son TDP baisser de 65 à 45 W. C’est, en réalité, la seule puce du genre, toutes les autres perdent quelques centaines de mégahertz, mais c’est tout à fait mérité selon nous. Par exemple, l’Athlon II X4 610e qui fonctionne à 2,4 GHz pour un TDP de 45 W au lieu des 95 W et 2,6 GHz du 620. Et on félicite même AMD d’avoir opté pour une dénomination claire, puisque si le 610 avait dû exister, il aurait effectivement fonctionné à 2,4 GHz.

Les jeux de stratégie sont ceux qui bénéficient le plus de la puissance des CPU multicores pour animer toutes les unités de la carte.

Jeux légers Intel Core i3-2100, dual core 3,1 GHz, socket 1155, 100 € AMD Phenom II X4 955 BE, quad core 3,2 GHz, socket AM3, 100 € Pour les joueurs dont le budget n’est pas illimité, inutile d’opter pour un CPU ultrahaut de gamme. Deux raisons à cela. D’une part, on imagine facilement que le budget est un peu serré et que la carte graphique est un modèle milieu de gamme, une GTX460 ou une HD6870 par exemple. Du coup, opter pour un CPU démesurément puissant ne servirait à rien, la carte graphique n’étant pas capable de cracher tous les FPS. D’autre part, plutôt que de choisir un Core i5-2500K à 180 €, il vaut mieux opter pour un CPU plus modeste et pour une carte graphique de gamme supérieure. Ainsi, pour un budget de 300 €, on peut avoir une GTX460 ou, en se contentant d’un CPU plus modeste, une GTX560 Ti (ou les équivalents AMD). Dans bon nombre de jeux, ce ne sera pas une bride, seuls quelques titres nécessitant quatre vrais cores pourront être un peu limite. Mais dans tous les cas, ce compromis donnera de meilleurs résultats.

Hardcore gaming

Intel Core i5-2300, quad core 2,8 GHz, socket 1155, 150 € Intel Core i5-2500K, quad core 3,3 GHz, socket 1155, 180 € Jouer avec toutes les options au maximum coûte cher. Surtout en puissance GPU mais aussi en ce qui concerne le CPU. En effet, bien que notre Core i3-2100 à 100 € suffise dans la plupart des scénarios, il faut passer au Core i5-2300 pour les jeux plus exigeants. Ses quatre vrais cores et son cache L3 doublé permettent d’alimenter des jeux plus exigeants (stratégie, gestion, FPS avec de grands champs de vision, univers très riches), les

50 Hardware Magazine

performances progressant de 20 à 40 %. Un Core i5-2500K est encore mieux si votre budget vous le permet. En effet, pour une trentaine d’euros supplémentaires, il bénéficie d’une fréquence de 500 MHz supérieure (soit tout de même 17 % de plus), d’un Turbo Mode un peu plus conséquent et surtout d’un coefficient débloqué à la montée qui vous permettra de facilement le pousser à 4,5 GHz. A cette fréquence, inutile d’aller chercher plus rapide, tous les jeux tourneront sans encombre. Acheter un Core i7-2600K est une possibilité, mais il faut savoir que peu de jeux tirent parti de plus de quatre threads (mais il y en a), que cette fonction peut parfois poser problème et que les 100 MHz et le cache supplémentaires ne justifient guère le surcoût de 80 € par rapport au 2500K. Toutefois, si vous cumulez jeux et traitement photo, 3D ou vidéo, c’est un bon choix, plus polyvalent que le Phenom II X6 1090T et moins cher que le Core i7-970.

Basse consommation

Intel Core i5-2500T, quad core 2,3 GHz, socket 1155, 180 € AMD Athlon II X2 240e, dual core 2,8 GHz, socket AM3, 55 € Le monde des CPU basse consommation est relativement tordu. En effet, on distingue deux types de puces. Le premier est en fait un CPU classique dont la fréquence est revue à la baisse, permettant aussi de réduire la tension d’alimentation. Dès lors, la puce consomme moins, son TDP baisse et elle est affublée d’une dénomination adéquate (E, U, S ou T, selon la gamme et la marque). Autrement dit, on vous vend un CPU moins puissant, mais plus cher ! Bravo. Vous l’aurez compris, nous ne sommes guère favorable à ces produits, nous préférons encore le faire nous-même. Le résultat est le même, mais le jour où on a besoin de puissance, il suffit de rétablir les fréquences d’origine. En revanche, il existe un autre type de CPU, les

Chez Intel, ce genre de puces est assez rare. Nous en recensons trois. Le Xeon L3426 est le premier de la famille, un CPU 1156 similaire aux Lynnfield. Il s’agit en réalité d’un Core i7 fonctionnant à 1,86 GHz mais dont le Turbo Mode l’emmène jusqu’à 3,2 GHz, le tout pour un TDP ridicule de 45 W. En comparaison, le Core i7-860 de la même génération fonctionne à 2,8 GHz avec un Turbo Mode culminant à 3,46 GHz mais pour un TDP de 95 W ! Les deux autres sont des Core i5 et i3 de la génération Sandy Bridge. Le Core i5-2500T est un quad core à 2,3 GHz dont la fréquence varie entre 2,3 et 3,3 GHz, le tout pour un TDP de 45 W. Un Core i5-2300 voit sa fréquence varier entre 2,8 et 3,1 GHz, et le Core i5-2500 varie entre 3,3 et 3,7 mais avec un TDP de 95 W. Ainsi, le 2500T compense sa fréquence de base un peu faible par un Turbo Mode amplifié et un TDP minuscule. Ce processeur a même tenu de façon passive dans l’une de nos configurations (voir PC Update n° 54) malgré la présence de quatre vrais cores. Le Core i3-2390T se comporte de la même façon mais c’est un dual core avec HyperThreading. Une sorte de Core i3-2130T avec Turbo Mode donc, et c’est justement tout ce qui fait la différence. Toutefois, son tarif est un peu trop élevé compte tenu de la différence de puissance avec le Core i5-2500T et du TDP à peine réduit. Les Core i3-2100T et 2120T ne présentent aucun intérêt, puisqu’en l’absence de Turbo Mode amélioré, ils ne sont rien d’autre que des Core i3 underclockés. Même verdict pour les CPU dits « S ». Toutefois, malgré les TDP, les tensions et les fréquences en baisse, il ne faut pas considérer ces alternatives comme des CPU permettant de faire des économies d’électricité, leur seul intérêt est de fonctionner avec des alimentations très modestes (75, 100, 150 W) qu’on ne peut pas upgrader ou de faire baisser la dissipation de chaleur (températures réduites de 10 à 25 °C). En effet, une baisse de consommation de 30 W (qui s’avère déjà importante) sur un CPU tournant en charge 8 h par jour et 365 jours par an ne permettrait d’économiser que 10 € sur la note annuelle.


Dossier CPU

Lexique IGP (Integrated Graphics Processor) : partie

graphique intégrée à un CPU ou un chipset, par opposition à une carte graphique dédiée, en général bien plus puissante.

Die : portion de silicium sur lequel est gravé un CPU. Les galettes de silicium coûtant très cher, plus le die est petit, plus on peut en graver sur une seule galette et moins le CPU coûtera cher. Le nombre de transistors mais aussi la façon dont ils sont gravés déterminent la taille du die.

Yield : rendement en anglais, le yield fait référence à la production de puces lorsqu’il est utilisé dans un contexte informatique. Celles-ci étant carrées ou rectangulaires mais gravées sur une galette circulaire, celles qui se trouvent à la périphérie ne sont pas entières. En outre, des défauts peuvent intervenir dans la gravure des transistors. Moins ce nombre de puces imparfaites est élevé, meilleur sera le yield et plus bas sera le prix des puces. IMC (Integrated Memory Controller) : contrôleur

en janvier 2011, suivi six mois plus tard par Llano. Chez Intel, un tel concept est apparu dès janvier 2010 avec les Clarkdale.

PCH (Platform Controller Hub) : depuis l’intégration au sein du CPU du contrôleur mémoire, du contrôleur PCI-Express et de l’IGP, le chipset se limite à gérer les périphériques à la façon d’un southbridge. Ce terme est utilisé par Intel depuis les chipsets P55, H55 et H57. AMD emploie le terme FCH (Fusion Controller Hub) qui désigne, en réalité, la même chose. Southbridge : ancien nom donné à la puce qui gère les ports SATA, USB, quelques lignes PCI-Express, le PCI et reliée au northbridge. Northbridge : ancien nom donné à la puce gérant les lignes PCI-Express, la mémoire et intégrant parfois un IGP. Celle-ci était reliée au CPU par un bus rapide mais a progressivement disparu, tout en ayant été intégrée au sein même du CPU pour une baisse des coûts et de meilleures performances. Cette puce n’existe plus sauf sur le socket AM3/AM3+.

mémoire intégré à un CPU au lieu de se retrouver au sein du chipset, comme c’était le cas pendant de nombreuses années. Le premier IMC est apparu en novembre 2007 chez Intel avec les Core i7-900, alors que son apparition remonte à 2003 chez AMD, dans les premiers K8.

Chipset : désigne un ensemble de puces (en anglais, chip : puce et set : groupe, ensemble). Dans le cas d’une carte mère, il s’agit du southbridge et du northbridge par exemple.

PCB (Printed Circuit Board) : circuit imprimé sur lequel on peut placer n’importe quelle puce, notamment le die des CPU. Dans ce cas, il sert à relier les nombreux pins du socket au die qui est bien plus petit.

Thread : un thread désigne une unité logique capable de traiter un calcul à la fois. En théorie, un core d’un CPU ne peut gérer qu’un seul thread, mais Intel utilise l’HyperThreading pour en gérer deux par core.

CPU (Central Processing Unit) : le processeur est le composant central de l’ordinateur. Il traite tous les calculs ou les envoie à des périphériques spécialisés (carte graphique, carte contrôleur par exemple). Il rassemble les ALU, les registres auxquels elles accèdent, la mémoire cache, une unité de prédiction, etc. Par abus de langage, on appelle CPU un Core i7 ou un Llano, alors que ceux-ci sont bien plus que cela puisqu’ils intègrent un IMC, un IGP et un contrôleur PCI-Express.

Core :

APU

(Accelerated Processing Unit) : nom utilisé par AMD pour qualifier ses CPU combinant un IGP. Ce terme remonte au projet Fusion, lancé fin 2006 suite au rachat d’ATi. Le premier APU AMD (Brazos) a été lancé

ou coeur en français. A l’origine, les processeurs ne possédaient qu’un seul core. Depuis l’apparition des CPU multicores, un core fait référence à une unité complète assimilable à un processeur indépendant. Grossièrement, un CPU dual core équivaut à deux CPU monocores.

du FSB pour le socket 775 d’Intel. Augmenter cette fréquence a pour conséquence directe d’augmenter toutes les autres fréquences qui y sont indexées, soit au minimum la fréquence CPU et la fréquence mémoire, mais aussi, dans certains cas, la fréquence des divers bus de la carte mère (PCI-Express, PCI, SATA, USB).

TDP (Thermal Design Power) : ou enveloppe thermique en français, correspond à la puissance type dissipée par un processeur. Attention, il ne s’agit pas de la consommation de la puce mais uniquement d’une mesure de la chaleur qu’elle dégage, afin de guider les ingénieurs sur les impératifs des solutions de refroidissement. Il existe toutefois une différence de mesure entre le TDP Intel et celui d’AMD. Le premier communique un TDP « type », c’est-à-dire moyen, alors que le second parle d’un TDP maximal. Du coup, en pratique et avec un TDP similaire, les CPU AMD chauffent souvent moins que ceux d’Intel. ALU

(Arithmetic and Logic Unit) : ou unité arithmétique et logique en français. Il s’agit de l’organe principal du processeur, qui exécute toutes les opérations communes (addition, soustraction, multiplication, comparaisons, logique booléenne, etc.).

FPU

(Floating Processor Unit) : ou unité de calcul en virgule flottante ou encore coprocesseur arithmétique est une unité qui ne traite que des nombres à virgule flottante (des nombres non entiers, c’est-à-dire avec un nombre infini de chiffres après la virgule). Elle n’est pas utilisée dans toutes les tâches que peut traiter un processeur, aussi son intégration n’est pas toujours justifiée. Dans ce cas, l’ALU émule son fonctionnement mais cette méthode se révèle bien plus lente.

BCLK (Base Clock) : ou fréquence de base en français, désigne la fréquence du bus principal du CPU. Bien que ce terme soit spécifique aux plateformes Intel 1366, 1156 et 1155, on peut l’utiliser pour à peu près toutes les plateformes, puisqu’il s’agit d’un terme générique. Pour les plateformes AMD (AM2, AM2+, AM3, AM3+ ou FM1), on parlera cependant de HTT, alors qu’il s’agit

Hardware Magazine 51


Le futur du CPU Le monde du CPU évolue plus rapidement que celui des GPU et les déclinaisons sont encore plus nombreuses. Le cas du CPU « qu’on attend pour changer » est si récurrent que l’on peut attendre une vie avant d’upgrader son PC. Le mieux est donc de le faire quand on en a envie sauf énorme changement de plateforme. Quoi qu’il en soit, cela n’empêche pas d’être curieux envers le futur ;)

Nouvelles déclinaisons Llano et Sandy Bridge A court terme, chez AMD, deux nouveaux Llano devraient rapidement arriver en vente. Alors qu’il n’y avait jusque-là que des quad core et très récemment un tri core en la présence de l’A6 3500, les A4 3400 et A4 3300 reposent sur le die dual core de Llano. Principale différence avec le die quad core : il n’embarque que 512 ko de cache L2 par core au lieu de 1 Mo. Ce scénario est d’autant plus surprenant que les anciens Athlon II X2 au socket AM3 embarquaient 1 Mo par core au lieu de 512 ko par core pour les X3 et X4. Mais quand on parle de Llano, c’est la partie GPU qui importe le plus. Elle est aussi bien castrée puisqu’on passe de 320 unités à 443 MHz sur la HD6530D des A6 à seulement 160 unités pour le HD6410D des A4, on peut donc s’attendre à des performances divisées de moitié. Le plus gros des A4, le 3400, devrait cependant etre équipé d’une HD6410D fonctionnant à 600 MHz au lieu de 443 MHz. En outre, un troisième APU devrait être lancé un peu plus tard dans l’année à un prix pour le moment inconnu. Etrangement, il appartient à la série E réservée à l’entrée de gamme Zacate, d’autant que rien ne le justifie. Il s’agit d’un dual core à 2.4 GHz embarquant 512 ko de cache L2 par core et une partie graphique équipée de 160 unitée à 443 MHz. Encore plus bizarre, cette dernière n’est pas une HD6410D mais une HD6370D. Gageons qu’AMD a encore supprimé quelques fonctions. Il est interessant de noter que ces puces semblent privées de mode Turbo, AMD A6 3500 : 3 cores à 2.1 GHz, Turbo à 2.4 GHz, 3x1 Mo de cache L2, Radeon HD6530D, 65W, 89 $ AMD A4 3400 : 2 cores à 2.7 GHz, 2x 512 ko de cache L2, Radeon HD6410D, 65W, 69 $ AMD A4 3300 : 2 cores à 2.5 GHz, 2x 512 ko de cache L2, Radeon HD6410D, 65W, 64$ AMD E2 3200 : 2 cores à 2.4 GHz, 2x 512 ko de cache L2, Radeon HD6370D, 65W Chez Intel, la gamme Sandy Bridge s’étend encore, vers le haut comme vers le bas avec pas moins de 13 processeurs. Après le lancement des CPU upgradables le mois dernier, c’est au tour de quelques refresh et de l’entrée de gamme. Les Celeron G sont donc (enfin) lancés, 9 mois après les Core i5 et i7. Par rapport aux Pentium G, la différence semble provenir d’un cache L3 qui passe de 3 à 2 Mo, mais on 52 Hardware Magazine

conserve les 256 ko de L2 par core. Il s’agit 3 dual core sont lancés (dont un basse consommation) et un monocore. Ce dernier semble etre équipé d’un IGP différent puisque selon les spécifications Intel, il supporte pourtant le Clear Video HD alors que ce n’est pas le cas du HD Graphics des Pentium G. On note aussi l’apparition de nouveaux Pentium, Core i3 et Core i5 dont la seule évolution concerne la fréquence un peu supérieure par rapport aux anciens modèles. En outre, un Core i7 2700K serait en route pour la fin de l’année. Il viendrait remplacer le 2600K au même prix sans que l’on connaisse l’avenir de ce dernier. Comme souvent chez Intel, de nouveaux modèles viennent remplacer les anciens pour un prix similaire. Cela implique donc des puces un peu plus performantes pour le même prix. Cette fois, nous n’avons eu aucune information à ce sujet, il se peut donc que les anciennes puces voient leur prix baisser un petit peu. Par exemple, les Core i3 2300, 2310 et 2320 sont tous trois annoncés à 177 $. Il y a fort à parier que seul le 2320 subsistera ou que les 2 autres seront vendus moins chers. En tout cas, à prix égal, prenez le CPU qui a la plus grosse fréquence (dans le cas des i3 2100, 2120, 2130 et des i5 2300, 2310 et 2320).

Ivy Bridge : 22nm et 1155 Bien qu’Ivy Bridge, le successeur de Sandy Bridge pour le milieu de gamme, ne devrait qu’arriver que courant 2012, on en sait déjà

beaucoup sur cette architecture. Au lieu du Tick classique qui désigne une même architecture utilisant un procédé de gravure plus fin, Intel parle de Tick+. Les profondes améliorations qui devraient être apportées à l’IGP sont responsables de ce petit écart. On passera donc d’IGP compatibles DX10 avec 6 ou 12 unités de calcul à un IGP DX11 et 16 unités de calcul. On ne sait toutefois pas si ce nouvel IGP sera présent sur toutes les puces ou limité à quelques-unes. En outre, on est à présent sur que les processeurs fonctionneront sur un socket 1155, pas d’énième changement chez Intel. La gestion des chipsets semble assez mystérieuse, puisque les puces pourraient fonctionner sur les chipsets actuels mais sans certitude. En tout cas, les Z77, Z75 et H77 prévus n’apporteront rien de sensationnel meme si les évolutions sont les bienvenues. A commencer par le PCI-Express 3.0 qui permettra de gérer deux cartes graphiques avec seulement 16 lignes. En outre, les chipsets intègreront enfin de l’USB 3.0 natif meme s’il ne s’agit que de 4 ports. Lea configuration SATA ne change pas (6 ports donc 2 SATA 6 Gb/s) et le SSD Caching fera son apparition sur le H77. Contrairement à ce dernier, le Z75 en sera dépourvu, mais permettra en revanche d’overclocker le CPU. Aucune information ne circule sur la présence de puces hexa core, on sera donc sans doute limité à 4 cœurs, laissant les 6 cores pour la plateforme 2011. Les processeurs inaugureront une nouvelle gestion du TDP. Le TDP affiché par Intel correspondra à une valeur normale, mais les processeurs pourront fonctionner à un TDP plus bas ou plus haut. Rien à voir avec le Turbo Mode, il s’agit vraiment de revoir la fréquence,


Dossier CPU Modèle

Fréquence

Turbo

Cores/Threads

Cache L2 (L3)

TDP

Prix

IGP

Fréquence IGP

Turbo IGP

Celeron G440

1.6 GHz

Non

1/1

256 ko (1 Mo)

35W

37 $

N.C.

650 MHz

1000 MHz

Celeron G530

2.4 GHz

Non

2/2

512 ko (2 Mo)

65W

42 $

HD Graphics

850 MHz

1000 MHz

Celeron G530T

2.0 GHz

Non

2/2

512 ko (2 Mo)

35W

47 $

HD Graphics

650 MHz

1000 MHz

Celeron G540

2.5 GHz

Non

2/2

512 ko (2 Mo)

65W

52 $

HD Graphics

850 MHz

1000 MHz

Pentium G630

2.7 GHz

Non

2/2

512 Ko (3 Mo)

65W

75 $

HD Graphics

850 MHz

1100 MHz

Pentium G630T

2.3 GHz

Non

2/2

512 Ko (3 Mo)

35W

70 $

HD Graphics

650 MHz

1100 MHz

Pentium G860

3.0 GHz

Non

2/2

512 Ko (3 Mo)

65W

86 $

HD Graphics

850 MHz

1100 MHz

Core i3 2120T

2.6 GHz

Non

2/4

512 Ko (3 Mo)

35W

127$

HD2000

650 MHz

1100 MHz

Core i3 2125

3.3 GHz

Non

2/4

512 Ko (3 Mo)

65W

134 $

HD3000

850 MHz

1100 MHz

Core i3 2130

3.4 GHz

Non

2/4

512 Ko (3 Mo)

65W

138$

HD2000

850 MHz

1100 MHz

Core i5 2310

2.9 GHz

3.2 GHz

4/4

1 Mo (6 Mo)

95W

177 $

HD2000

850 MHz

1100 MHz

Core i5 2320

3.0 GHz

3.3 GHz

4/4

1 Mo (6 Mo)

95W

177 $

HD2000

850 MHz

1100 MHz

Core i7 2700K

3.5 GHz

3.9 GHz

4/8

1 Mo (8 Mo)

95W

N.C.

HD3000

850 MHz

1350 MHz

la tension et la consommation de facon a rester dans un TDP donné. Ceci semble bien pratique pour les OEM qui pourraient, avec une seule puce, proposer des machines à orientées performances ou bureautique. On ne sait toutefois pas comment passer d’un TDP à l’autre, s’il s’agit d’un réglage facilement accessible dans le BIOS ou au contraire vérouillé par Intel. Enfin, bien qu’on ignore si le BCLK sera modifiable avec une vraie amplitude (et pas seulement 10%), on apprend que le coefficient maximal sera de 63 au lieu de 57 et qu’on pourra l’ajuster sans avoir à rebooter. Une fonction présente sur les Phenom depuis déjà plus de 2 ans mais nouvelle chez AMD. En outre, les ratios RAM évolueront pour supporter la DDR32800 avec une fréquence de base de 100 MHz, au lieu de la DDR3-2133 pour Sandy Bridge.

Les gros Sandy Bridge arrivent ! Après 3 ans, la plateforme Tylersburg (X58 et socket 1366) va enfin etre remplacée, a priori courant Novembre, juste après la sortie des FX d’AMD. Fini les Core i7 900, bonjour Core i7 3000. 3 modèles sont lancés, tous gravés en 32nm, doués d’HyperThreading, équipés d’un contrôleur DDR3 sur quatre canaux et d’un contrôleur PCI-Express 3.0 gérant pas moins de 40 lignes ! Oui, cette débauche de puissance est monstrueuse ! Core i7 3960X, 6 cores à 3.3 GHz, Turbo à 3.9 GHz, 15 Mo de cache L3, 999 $ Core i7 3930K, 6 cores à 3.2 GHz, Turbo à 3.8 GHz, 12 Mo de cache L3, 583 $ Core i7 3820, 4 cores à 3.6 GHz, Turbo à 3.9 GHz, 10 Mo de cache L3, 294 $ Ces 3 CPU viennent donc remplacer les Core i7 990X, Core i7 980 et Core i7 960 (qui seront toujours en vente mais sans le moindre interet) à des prix et nombre de cores similaires. Mais point de 8 cores pour le moment, cette solution n’étant pas viable en conservant une consommation et un TDP raisonnable.

L’apparition du 3930K est surprenante puisqu’on s’attendait à ce que seul le CPU Extreme Edition à 999 $ ne bénéficie d’un coefficient débloqué. Il ne le sera toutefois peut etre pas autant sur le 3930K que sur le 3960X, réservant le premier pour les overclockers classiques alors que le second sera nécessaire pour battre des records de fréquence (en supposant que Sandy Bridge E s’overclocke aussi bien que les Gulftown et les Sandy Bridge). En ce qui concerne le chipset et les cartes mères, c’est déjà moins clair. Le X79 ne semble pas tout à fait prêt et c’est un joli flou artistique entoure les spécifications finales. Son rôle se limitant à un hub de périphériques (un PCH donc), il gère 8 lignes PCI-Express supplémentaires à la norme 2.0 et une floppée de ports USB 2.0 : pas d’USB 3.0 natif meme si ca n’empechera pas les contructeurs d’en rajouter via des puces aditionnelles. Le sujet des ports SATA est plus épineux. Il pourrait s’agir de la même configuration que le Cougar Point, c’est-à-dire 2 SATA 6 GB/s et 4 SATA II. Cela dit, il n’est pas exclut que le nombre de

ports SATA 6 GB/s soit porté à 8 avec le support du SAS sur certains d’entre eux. Quand au layout de la mémoire, il semblerait qu’on doive se satisfaire de cette répartition de part et d’autre du socket. En effet, héberger 4 slots à droite du CPU semble problématique et personne n’aurait trouvé de solution. Il faudra donc éviter les barettes mémoire trop hautes pour ne pas gêner l’installation du ventirad, avis à ceux qui comptaient acheter 2 barrettes supplémentaires en vue d’une upgrade future sur X79.

Et AMD dans tout ca ? Quoi ? 3 CPU dual core entrée de gamme et pas un seul mot de plus sur AMD alors qu’on parle du futur du CPU ? Que les fanatiques nous excusent mais la marque texanne a déjà renouvellé son offre entrée de gamme (Llano au socket FM1) et le haut de gamme (Bulldozer au socket AM3+) qui sera renouvellé sous peu est présenté en 4 pages dans ce même numéro. Tournez la page pour en savoir plus ! Hardware Magazine 53


PREVIEW BULLDOZER

Enfin là… ou pas ! AMD retarde encore d’un mois son tant attendu processeur FX. Pour le meilleur ou pour le pire ? En attendant, revue de détail sur l’architecture Bulldozer et tout ce qui est déjà connu des prochains CPU.

Les meilleures cartes mères pour FX sont déjà en vente, comme cette Asus Crosshair V Formula.

A

AMD FX Les premiers CPU Bulldozer décuplent les cores, le cache et les fréquences

près plusieurs retards, les processeurs AMD FX étaient attendus pour le 19 septembre. Finalement, AMD n’est pas encore prêt, sa nouvelle perle ne sera officiellement disponible que courant octobre. Il faudra donc ronger son frein un peu plus pour connaître les véritables performances de la tant attendue nouvelle génération, mais suffisamment de détails et de documents ont filtré pour en faire une première analyse.

S’y retrouver parmi les noms de code Comme toujours, des mois et même des années de discussions en noms de code rendent l’approche d’une nouvelle génération de processeurs plus complexe qu’elle ne l’est. Pour commencer : Bulldozer. Ce n’est pas un processeur, mais le nom de code d’une architecture, finalement baptisée K15. K15 remplace K10 (Phenom et dérivés), elle-même ayant succédé à K8 (Athlon 64 et dérivés), etc. Vient ensuite le nom

de code Zambezi, c’est le premier processeur grand public basé sur l’architecture K15. Son nom commercial est connu depuis le mois de juin, Zambezi est en fait le FX (qui rappelle immédiatement le suffixe donné aux anciens processeurs extrêmes de la marque, les Athlon 64 FX). Vous aurez peut-être entendu parler d’Interlagos. Comme Zambezi, il s’agit du nom de code d’un processeur basé sur K15, en l’occurrence les premiers Opteron (processeurs pour serveurs) de cette génération. C’est finalement assez simple, nous avons d’un côté l’architecture K15 (nom de code Bulldozer) dont sont dérivés des processeurs grand public FX (nom de code Zambezi) et serveur Opteron (nom de code Interlagos). En aparté, AMD parle de la plateforme Scorpius. C’est le nom donné à tout PC qui sera muni d’une carte mère avec un chipset AMD série 9, d’un processeur AMD FX et d’une carte graphique AMD Radeon HD6000.

Bulldozer La notion de modules De nombreux détails ont été publiés au printemps dernier sur la nouvelle architecture Bulldozer. Les principales informations ont déjà été divulguées dans nos précédents numéros, voici un résumé de son fonctionnement complété par les informations des derniers mois. La principale nouveauté de Bulldozer est la technologie CMT (Cluster Multi-Threading). Partant du constat que toutes les unités d’un core ne servent pas autant les unes que les autres, par exemple la FPU (Floating Point Unit) qui est utilisée à moins de 50 % du temps,

54 Hardware Magazine


preview : bulLdozer

Un die de Zambezi (FX), gravé en 32 nm. Les quatre modules sont aisément identifiables avec, au centre, le cache L3.

AMD a décidé de partager certaines des ressources entre deux cores. Le partage du cache L2, ça n’est pas nouveau, mais tout le travail de chargement et de décodage des instructions, le cache L1 d’instructions et la FPU sont désormais partagés pour deux cores qui n’en sont plus vraiment. Avantage ? En réduisant le nombre de transistors, la consommation électrique est amoindrie et le processeur plus compact. AMD parle d’une économie de 50 % de surface avec malgré tout 80 % des performances par rapport à deux cores complets. Inconvénient ? Un abus de langage manifeste, lorsqu’AMD parle de huit cores pour ses FX. Il est plus juste de parler de modules CMT, les FX de la série 8000 seront donc constitués de quatre modules, Windows profitant de huit threads. Ça promet d’être nettement plus efficace que l’HyperThreading d’Intel, mais nous ne pouvons pas pour autant parler de véritables octocores. Côté CPU serveur, les processeurs Interlagos débarquent avec un total de huit modules/seize threads ! L’analyse détaillée de l’architecture, la façon dont fonctionne le frontend partagé d’un module CMT, notamment le moteur ooo (pour Out of Order, c’est le moteur d’exécution indiquant à chaque ALU qui fait quoi lorsqu’une séparation est possible entre deux threads (cas de l’HyperThreading) ou deux unités de calcul dans un module (Bulldozer)) et la façon dont sont conçues les unités de calcul, amène à un constat surprenant et intéressant. L’architecture K8 était à très fortes IPC (instructions par cycle) générant ainsi une grosse puissance brute, à l’inverse de Netburst d’Intel qui avec ses pipelines à rallonge réduisait l’IPC à peau de chagrin, au profit d’une plus grande souplesse de montée en fréquence. Résultat : un Athlon 64 à 1,8 GHz était l’équivalent d’un Pentium 4 à 3 GHz, en revanche, K8 a eu du mal à dépasser 3 GHz, alors qu’Intel était encore à l’aise à

3,8 GHz. Avec K15, AMD semble revenir sur ses pas et, contrairement à l’effort qu’Intel a entrepris depuis le Core 2 pour améliorer l’IPC de ses processeurs, les nouveaux FX auront une puissance brute, à nombre de cores et fréquence identiques, inférieure à celle des Phenom II remplacés. En théorie pure, sachant que K10 dispose de trois ALU allant donc jusqu’à trois instructions par cycle chacune, tandis qu’un module Bulldozer se contente de deux ALU capables de deux instructions par cycle, le pire scénario indique qu’un module CMT équivaut à (2 x 2)/(3 x 3) = 66,6 % de la puissance brute d’un dual core K10. Toutefois, c’est sans compter le peu de pertes liées au partage des ressources dans certains logiciels ni l’utilisation des nouvelles instructions AVX (jeu d’instructions multimédias très perSchéma résumant la structure d’un module CMT, sorte de dual core allégé qui illustre l’architecture Bulldozer.

Hardware Magazine 55


formantes, notamment pour le traitement de la vidéo, introduit avec Sandy Bridge et désormais présent chez AMD) qui, en pratique, réduiront sensiblement l’écart. Alors K15, de la folie ? Pas si sûr. Car contrairement à Intel sur Netburst, AMD multiplie facilement les cores et utilise des technologies de gestion d’énergie modernes et efficaces (mode Turbo notamment) qui font que la fréquence pourrait redevenir une précieuse alliée. Preuve de sa maîtrise des fréquences, AMD sort dès le début le FX-8150 dont la fréquence Turbo de 4,2 GHz est la plus haute jamais atteinte en série. D’ailleurs, le 13 septembre dernier, AMD a officiellement battu le record du monde de fréquence absolu pour un processeur, un FX-8150 avec un seul module activé ayant réussi à atteindre sous hélium et azote liquide la fréquence de 8 429 MHz ! Le précédent record était détenu par un CPU Netburst, avec 8 308 MHz. AMD a également précisé que le FX en question trouvait sa limite autour de 5 GHz en refroidissement à air. Voilà de bien bonnes nouvelles.

Un contrôleur mémoire en net progrès Les Phenom II souffrent d’une gestion mémoire à la traîne, quoique meilleure que celle des Phenom de première génération. Si le support officiel de la mémoire n’est que de 1 333 MHz pour le Phenom II, comme les CPU Intel Core i7, le Phenom II dépasse difficilement 2 000 MHz en pratique, tandis que Lynnfield et Sandy Bridge se baladent aisément au-delà des 2 100 MHz. Le bon vieux Core i7-900 trouve lui aussi sa limite vers 2 000 MHz, mais la gestion de trois canaux compense pourrait-on dire. Mais au-delà des fréquences, le plus intéressant concerne le gain de performances ! Chez Intel, les résultats de benchs progressent toujours, jusqu’au moins 2 400 MHz, tandis qu’un Phenom II ne tire aucun profit à utiliser de la RAM au-delà de 1 333 MHz, les performances relevées en 1 600 n’apportant strictement rien. AMD annonce que l’Athlon FX dispose d’un nouveau contrôleur mémoire qui supportera de façon officielle la RAM jusqu’à DDR3-1866. Ce n’est pas sans rappeler l’excellent contrôleur mémoire récemment testé dans les CPU AMD Llano destinés à l’entrée de gamme (Hardware Magazine n° 54). Sur ce dernier, nous avions relevé sous WinRAR (très dépendant de la performance mémoire) un gain de plus de 25 % entre la DDR3-1066 et la DDR3-1866, tandis

que l’Athlon II (qui a le même contrôleur que le Phenom II) se contentait d’un progrès de 8,5 %. Même si nous ne l’avons pas encore eu entre les mains, il y a fort à parier que le contrôleur soit le même voire un modèle amélioré sur le FX, un bon présage supplémentaire. La gestion d’énergie n’est pas en reste avec l’introduction (et la systématisation sur toute la gamme) d’un mode Turbo entièrement revu. Visà-vis d’Intel, AMD n’invente rien en la matière, mais il s’agit dorénavant d’un véritable mode Turbo qui se base sur la consommation en temps réel du processeur et la température mesurée vis-à-vis d’un TDP donné et non plus simplement d’une fréquence bonus ajoutée en fonction du nombre de cores utilisés comme sur les Phenom II X6. D’autre part, le mode Turbo aura plus d’amplitude, jusqu’à 1 GHz d’écart de fréquence à l’extrême. Cela cumulé à une gravure en 32 nm et une tension ajustable de 0,8 et 1,3 V par module, les résultats en matière de consommation et de température s’annoncent très corrects.

AMD, le retour ? Contrairement à K10 (Phenom) et K10.5 (Phenom II) qui n’étaient que des versions améliorées de K8 (Athlon 64), l’architecture Bulldozer K15 est totalement novatrice et un véritable pari pour AMD qui lutte avec tant de difficulté face au tout-puissant Intel. De fin 2003 à mi 2006, profitant d’une gamme Intel Pentium 4 à l’agonie, le numéro 2 mondial a déjà réussi l’exploit de s’imposer comme la solution la plus performante. Résultat, avant que le Core 2 ne s’en mêle, la marque a réussi à imposer ses Athlon 64 dans 21,6 % des PC neufs vendus au second trimestre 2006. Etonnamment, malgré l’écart technologique important qui sépare les Phenom II des Core de seconde génération, AMD n’a pas perdu de terrain. Les dernières études indiquent qu’au premier trimestre 2011, la marque occupe 26 % du marché des PC fixes (AMD n’a jamais réussi à s’imposer dans les portables) ! Merci les petits prix, merci les Sempron et les Athlon II X2, car AMD réussit là où Intel n’est pas présent, l’entrée de gamme à moins de 50 € la puce, des marchés qui génèrent de gros volumes mais qui ne dégagent pas beaucoup de marge et encore moins d’image de marque. Sont essentiellement concernés des PC de marque ou de grande surface, car du côté des passionnés et de l’assemblage, les grandes enseignes de vente par correspondance nous indiquent que seules 10

Mémoires cache et vive

Processeur

Cache L1

Cache L2

Cache L3

Support mémoire

Nombre de canaux

Core i7-875K

32 + 32 ko par core

256 ko par core

8 Mo partagés

DDR3 jusqu’à 1333

2

Core i7-990X

32 + 32 ko par core

256 ko par core

12 Mo partagés

DDR3 jusqu’à 1066

3

Core i7-2600K

32 + 32 ko par core

256 ko par core

8 Mo partagés

DDR3 jusqu’à 1333

2

Phenom II X6 1100T

64 + 64 ko par core

512 ko par core

6 Mo partagés

DDR3 jusqu’à 1333

2

FX 8150

64 + 2 x 16 ko par module

2 Mo par module

8 Mo partagés

DDR3 jusqu’à 1866

2

56 Hardware Magazine


preview : bulldozer

La gamme AMD FX

Processeur

Modules/Threads

Fréquence de base/Turbo

Cache L2/L3

TDP

Prix estimé

FX-8170 (2012)

4/8

3,9/4,5 GHz

8/8 Mo

125 W

350 $

FX-8150

4/8

3,6/4,2 GHz

8/8 Mo

125 W

320 $

FX-8120

4/8

3,1/4,0 GHz

8/8 Mo

125 W

300 $

FX-8100

4/8

2,8/3,7 GHz

8/8 Mo

95 W

270 $

FX-6120 (2012)

3/6

3,6/4,2 GHz

6/8 Mo

95 W

240 $

FX-6100

3/6

3,3/3,9 GHz

6/8 Mo

95 W

220 $

FX-4170

2/4

4,2/4,3 GHz

4/8 Mo

125 W

220 $

FX-4120 (2012)

2/4

3,9/4,1 GHz

4/8 Mo

95 W

190 $

FX-4100

2/4

3,6/3,8 GHz

4/8 Mo

95 W

170 $

% des ventes de cartes mères concernent AMD aujourd’hui. Alors K15, qui tente de marier puissance brute, hautes fréquences et gestion de l’énergie, peut-il renverser la vapeur ? Reste à connaître les performances concrètes des premiers FX vis-à-vis des processeurs Sandy Bridge, dans les logiciels actuels, mais également avec des applications mûres qui tireront profit de toute la puissance des FX. Les premières fuites trouvées sur Internet dans le courant de l’été n’étaient pas très encourageantes, mais personne ne connaît réellement le contexte des mesures. Toujours est-il qu’AMD a retardé son CPU et, bien qu’il ne soit pas encore vendu, il bénéficie déjà d’une seconde version (révision B3 remplacée par la révision C0), preuve qu’il y

avait encore du pain sur la planche. En tout cas, si AMD a réussi à combler son retard pour de bon, ce succès cumulé à un contrôleur mémoire devenu très performant et une gamme de cartes mères qui n’a pas à rougir, sans oublier les aptitudes d’overclocking : ce serait un succès presque garanti ! Le tableau ci-contre détaille les processeurs qu’AMD va sortir en ce mois d’octobre. Le tarif exact en boutiques n’est pas encore connu, mais différents indicateurs officiels et officieux nous ont néanmoins permis d’établir un tarif approximatif pour chacun d’entre eux. Les modèles huit threads sont à un peu plus de 300 $, le prix d’un Core i7-2600K. Le plus difficile sera alors de choisir entre AMD et Intel si les deux solutions sont au top et d’un prix comparable. Rendez-vous au prochain numéro pour le savoir !

Quelle carte mère pour un FX ? La plateforme pour le FX est connue depuis des mois, vous trouverez même un comparatif de cartes mères dans PC Update n° 55. Basées sur les nouveaux chipsets série 900, qui ne se distinguent des 800 que par leur compatibilité nVidia SLI et l’amélioration des performances du contrôleur de stockage, elles accueillent le nouveau socket AM3+. Une carte mère AM3+ est identifiable du premier coup d’oeil, car le socket est désormais noir et la fixation du ventirad n’utilise plus un cadre complet mais simplement deux petites fixations de part et d’autre du CPU (du moins en théorie, les constructeurs faisant un peu ce qu’ils veulent). Les nouvelles cartes AM3+ peuvent recevoir, en plus des FX, tous les processeurs AM3, c’est-à-dire les Athlon II et Phenom II, à l’exception des rares modèles incompatibles avec la DDR3, comme le Phenom II X4 940. L’inverse est, en revanche, impossible. Les FX ne pourront pas prendre place sur les anciennes cartes mères malgré un socket ressemblant. Ça sera de toute façon impossible, le diamètre des pins ayant très légèrement augmenté pour favoriser le passage de courants plus importants. Quatre cartes mères se sont illustrées. Notre référence absolue est parmi les moins chères, c’est l’ASRock 970 Extreme 4. Cette carte à 90/95 € a beau embarquer un 970 soi-disant monoport PCI-Express, ASRock a tout de même soudé deux ports et ces derniers sont bel et bien compatibles CrossFire/SLI. A part son look basique, elle a donc tout d’une carte à 130 € ! 130 €, c’est justement le prix de la Gigabyte 990FXA-UD3 que nous avons également récompensée grâce à son look sobre (PCB noir mat) et son équipement très correct, notamment deux prises Power eSATA assez rares. Enfin, en haut de gamme, difficile de choisir entre l’originale Asus Sabertooth 990FX et la plus « classique » ROG Crosshair V, toutes deux à 200 €. Pour le power user,

la Crosshair offre plus de possibilités, mais la qualité de fabrication de la Sabertooth n’a rien à lui envier et son look pourra séduire les personnes lasses du mélange noir et rouge devenu si courant.

Hardware Magazine 57


Wi-Fi, Ethernet

Booster son réseau

Doubler les débits Diagnostic, mises au point, trucs et astuces pour résoudre les problèmes et booster les performances de votre réseau, ce guide vous fera passer avec peu d’efforts jusqu’à 14 Mo/s en Wi-Fi, simplement en optimisant des paramètres. Mêmes gains à espérer pour l’Ethernet avec un beau 240 Mo/s en cumulant deux prises !

A peine plus grosse qu’une pièce de deux euros, cette carte Wi-Fi Intel 6230 est de type MIMO 2x2 et accroche aisément le mode 300 Mbp/s.

58 Hardware Magazine

Thomas Olivaux


Dossier Booster son réseau

M

arre d’un réseau qui se traîne ? 802.11n, Gigabit Ethernet, nous vivons depuis des années avec des technologies de réseau censées offrir des prestations top niveau. Mais dans la pratique, les débits atteints sont rarement ceux promis, quand il n’y a pas carrément des problèmes de connexion, surtout en Wi-Fi.

En sans-fil, la norme N est synonyme de beaucoup de désillusions avec des débits seulement deux fois plus rapides qu’en G, quand ce n’est pas carrément bridé en 54 Mb/s. A l’aide de nos explications et réglages, profitez dès aujourd’hui d’un réseau performant, avec des débits jusqu’à 14 voire 15 Mo/s soutenus, six fois plus rapide qu’un réseau G en forme et surtout plus rapide qu’un réseau filaire Ethernet 100 ! Passant de 5 à moins de 1 heure, la copie d’un Blu-Ray double couche du PC fixe au portable devient réalisable, la copie d’un CD 700 Mo en moins d’une minute est confortable. Mais pour copier régulièrement des dizaines de gigaoctets, le fil reste le roi. Lorsque tout va bien, la bande passante d’une connexion Gigabit de base permet de flirter avec les 120 Mo/s ! Et si vous êtes vraiment impatient, vous découvrirez qu’il est possible de combiner deux cartes réseau Gigabit en une pour des liaisons à 2 Gb/s, soit plus de 200 Mo/s ! Quant aux problèmes de copies, aux machines qui peinent à dépasser les 30 ou 40 Mo/s et autres anomalies Ethernet, vous trouverez encore de nombreuses astuces pour régler et optimiser les performances.

Hardware Magazine 59


En croisade pour 300 Mbps De l’eau a coulé sous les ponts depuis la ratification de la norme 802.11g en 2003. Cette spécification Wi-Fi, adoptée par la quasi-totalité des produits sans fil, est remplacée depuis quelques années par 802.11n depuis 2009. Mais si cette dernière promet d’être beaucoup plus rapide, obtenir des gains de vitesse en pratique n’est pas toujours évident. Il y a effectivement de nombreux paramètres à comprendre et à maîtriser pour maximiser les débits sans fil, ceux-ci étant rarement documentés. Après quelques rappels, nous allons en faire le tour. Sur le papier, 802.11g, c’est un maximum de 54 Mb/s, soit 6,75 Mo/s. La technologie a beau être maîtrisée, si l’on exclut la part importante de la bande passante dédiée au transport des paquets, à la correction de données et au cryptage de sécurité, les débits pratiques se situent autour de 2,5 Mo/s. C’est lorsque l’on se trouve à proximité du point d’accès, une valeur qui chute en dessous des 2 Mo/s dès quelques mètres. Ces débits sont suffisants pour surfer et même streamer de la vidéo jusqu’à 720p, mais c’est devenu une bride pour les chanceux utilisateurs de connexions fibrées et c’est insuffisa nt pour lire des films de type Blu-Ray ou copier d’importantes quantités de données ; à 2,5 Mo/s, la copie de 50 Go de données (un BluRay double couche rempli) requiert 5 h 30 ! Il était grand temps d’envisager mieux. Si le câble réseau reste la meilleure solution pour des débits canons, WiFi 802.11n se distingue nettement de son prédécesseur et promet d’atteindre

Pour un PC fixe, plutôt que des antennes coincées entre l’arrière de l’UC et le mur, l’utilisation d’une antenne externe maximise grandement la portée et les débits.

Copier sans fil plus vite qu’une connexion Ethernet 100 Mb/s, quel confort !

jusqu’à 600 Mbps ! Et s’il n’existe pas encore de produits qui en sont capables, quelques références sont proposées pour le mode 450 Mbps et la majorité des produits N vendus ces dernières années sont indiqués 300 Mbps. Avec le même ratio de bande passante totale/bande passante utile que le 802.11g, nous pouvons donc attendre des débits pratiques de l’ordre de 14 Mo/s en 300 Mb/s, le double dans l’avenir en 600. Pourtant, au quotidien, les problèmes sont nombreux. Généralement, les débits N stagnent souvent entre 3 et 4 Mo/s, un bien triste progrès, quand la carte Wi-Fi ne se bride pas carrément en mode G 54 Mb/s. Rares sont ceux qui arrivent effectivement à se connecter en mode 300 Mbps sur leur point d’accès, et quand c’est le cas, les débits ont du mal à dépasser 6 ou 7 Mo/s. Pourquoi ? Comment faire mieux ? Le Wi-Fi est-il une arnaque géante ? Non, c’est juste un peu plus complexe que ce que les constructeurs veulent bien dire. Suivez le guide et vous obtiendrez des débits sans fil capables d’enterrer un bon réseau Ethernet 100 Mbps ! Pour réaliser cet article pratique, nous sommes parti du cas concret d’un ordinateur portable (Alienware M11X) équipé d’une carte Wi-Fi Dell 1520 et identifié à un point d’accès Netgear WNR3500. Au mieux du mieux, en mode tout automatique, les copies de fichiers atteignaient 7 Mo/s. Après quelques réglages, les débits sont stables entre 13 et 15 Mo/s et ce, sur des gigaoctets, sans changer le moindre hardware ! Afin de renforcer l’exactitude de nos propos, nous avons reproduit l’expérience avec de nombreuses cartes réseau (gammes Intel anciennes et actuelles, gammes Dell, D-Link, Netgear, Trust) et utilisé de nombreux points d’accès (Netgear *2, Linksys, Cisco, Freebox V5, Sagem). Si les résultats obtenus ne sont pas tous identiques, nous avons systématiquement rencontré des progrès sensibles.

60 Hardware Magazine

To-do-List Avant d’entrer dans le vif du sujet, ne croyez pas qu’atteindre 300 Mb/s en WiFi soit un exploit. Un peu de connaissances, de méthode et d’analyse permettent de s’y retrouver. Voici la liste des choses à faire pour y parvenir : • Lire les fiches techniques du matériel WiFi possédé pour en connaître les caractéristiques précises • Analyser à l’aide de son smartphone (ou sur PC) l’utilisation des canaux par les réseaux WiFi alentours pour en choisir un qui ne soit pas (trop) encombré. • Connaissant les limites, activer les fonctions essentiels, d’abord dans le routeur (mode 300 Mbps, mode 40 MHz, GI courts), quand c’est proposé. • Si ça ne suffit pas, ajuster les paramètres avancés des pilotes de la carte WiFi pour forcer les modes en question, quand c’est proposé. • Si le matériel ne suit pas, ne pas hésiter à upgrader, il ne s’agit généralement que de quelques dizaines d’euros.

1 Chaque appareil N est de type MIMO et utilise plusieurs antennes pour multiplier les flux et ainsi les débits.

MIMO, ce n’est pas du flan !

1 Il y a quelques années, tous les constructeurs de produits sans fil affichaient fièrement « MIMO » sur leurs emballages ou parmi les premières caractéristiques techniques. Ça n’est plus le cas aujourd’hui et pourtant, ça reste un critère primordial pour un Wi-Fi performant. MIMO signifie Multiple-In Multiple-Out (plusieurs entrées/plusieurs sorties), c’est la base même des progrès réalisés par 802.11n. Le principe est d’utiliser plusieurs antennes pour maximiser les performances de transmission. Vous remarquerez sur les produits MIMO une inscription technique sous la forme A x B, où A précise le nombre de flux de réception et B d’émission. Il existe plusieurs configurations MIMO, suivant le nombre d’antennes, qui impactent directement les débits maximums. Le maximum prévu est 4 x 4, c’est-à-dire 4 antennes avec 4 flux de chaque type… une configuration obligatoire pour viser le mode 600 Mbps. Il faut au moins 3 x 3 pour 450 Mbps, mais la majorité des produits ont une configuration plus simple. Sans MIMO, c’est-à-dire une seule antenne et un flux simple d’émission et de réception (1 x 1), il est impossible de dépasser 150 Mbps.


DOSSIER Dossier configurations Booster son de réseau l’été

des cartes réseau Wi-Fi. Dans leur panneau de configuration, il est rarement précisé le fonctionnement de MIMO, mais le bridage dans un mode 150 Mbps ou l’activation du 300 Mbps joue précisément sur le nombre d’antennes et de flux utilisés. Précisons que ce choix est proposé car l’activation d’une configuration MIMO musclée va générer plus d’interférences pour les autres appareils sans fil, par exemple un téléphone DECT de maison ou même le Wi-Fi des voisins en appartement. Si votre PC portable n’a pas une carte Wi-Fi très performante, l’upgrade est possible et globalement abordable. De très bonnes cartes 2 x 2 voire 3 x 3 sont vendues entre 30 et 40 € (voire la vignette consacrée aux cartes Wi-Fi). En revanche, si votre notebook n’a pas assez d’antennes, il faudra envisager de le démonter pour en glisser une ou deux de plus. Vendues à un petit prix (moins de 15 €), elles partent de la carte Wi-Fi et remontent le long de l’écran pour être en position verticale lorsque le capot est ouvert.

1 La majorité des portables modernes ont deux antennes. Pour une carte 3x2 ou 3x3, il est nécessaire d’en ajouter, c’est très facile.

Le mode 300 Mbps requiert au moins un flux en réception et deux en émission, ce qui est noté 1 x 2, avec des performances idéales en 2 x 2. Les ordinateurs portables d’entrée de gamme, en particulier les netbooks, ont généralement une carte SISO (simple flux), il ne sert donc à rien de s’acharner à chercher

une communication en 300 Mbps, même si votre routeur est configuré pour ce mode ! A ce propos, vérifiez également la configuration de votre point d’accès, car même si les antennes sont de plus en plus souvent cachées (intégrées à la coque), leur nombre et la configuration MIMO sont d’égale importance avec ceux

Comprendre le logo N Depuis que la norme 802.11n est passée de DRAFT (brouillon) à CERTIFIED (finale) en 2009, un logo apposé sur la boîte des produits certifiés existe pour informer les clients. En réalité, il existe trois variantes de ce logo que les constructeurs peuvent choisir pour préciser les performances de leurs produits : le logo Certified N de base (jusqu’à 150 Mbps), le Certified N dual-stream (MIMO et double bande 2,4 + 5 GHz, jusqu’à 300 Mbps) et Certified N multistream (MIMO mini 3 x 3, jusqu’à 600 Mbps). Hélas, presque personne ne joue le jeu : le plus souvent, le logo de base est utilisé quel que soit l’appareil.

2 Très pratique, l’outil Wifianalyser disponible sur Android, iOS (et anciennes versions pour Windows Mobile) permet de visualiser l’occupation des canaux par les réseaux WiFi environnant. Nous voyons bien ici que deux réseaux WiFi se partagent exactement le même canal, créant ainsi des perturbations ; notre réseau, décallé sur le canal 6, n’est pas du tout impacté !

De la sélection d’un bon canal 2 Historiquement, le matériel Wi-Fi opère dans la bande des 2,4 GHz, avec une sélection de 14 canaux de 20 MHz chacun ; ils se chevauchent, puisque 14 x 20 MHz fait bien plus que les 100 MHz autorisés entre 2,4 et 2,5 GHz. La communication Wi-Fi n’utilise qu’un seul canal, la sélection permet de trouver une plage sans interférences puisque de nombreux appareils domestiques utilisent également la bande des 2,4 GHz, à commencer par les fours à micro-ondes, les téléphones sans fil de maison, les appareils Bluetooth ou même les sonnettes et interrupteurs sans fil, sans oublier les réseaux Wi-Fi du voisinage. Le simple fait de changer de canal Wi-Fi modifie sensiblement les performances, en bien ou en mal. Vous pouvez les essayer un par un pour découvrir celui qui se prête le mieux à votre environnement, il existe sinon des applications qui sont capables d’afficher graphiquement les différents réseaux sans fil à proximité, ainsi que le canal de chacun et la force de réception. Sur PC, Xirrus

Hardware Magazine 61


Wi-Fi Inspector (www.xirrus.com) est au top, gratuit et compatible avec toutes les versions de Windows depuis XP SP2. Il existe également des applications pour smartphones, comme l’excellent Wi-Fi Analyzer disponible à la fois pour Android et iOS. Le réglage du canal se fait dans la page de configuration du point d’accès, il faut ensuite le rebooter. Les appareils qui s’y connectent s’adaptent automatiquement sur le bon canal. Concrètement, d’un bon à un mauvais canal, votre réseau sans fil peut être transfiguré avec des débits et une portée considérablement accrus. Le bon canal, c’est avant tout celui qui offre de bons résultats chez vous ! Précisons que ce conseil vaut autant en 802.11 G que N.

2,4 vs 5 GHz, beaucoup d’idées reçues

20 ou 40 MHz, un paramètre méconnu

3 Si la majorité des équipements Wi-Fi sont en 2,4 GHz, 802.11n prévoit également l’utilisation de la bande des 5 GHz. Beaucoup ont crié victoire car cette dernière n’est pas autant encombrée, permettant des réseaux Wi-Fi sans interférences, mais le choix du 5 GHz n’a pas que des qualités. Pour commencer, parlons compatibilité. Une partie des points d’accès 5 GHz ne fonctionnent que dans ce mode, de fait incompatibles avec tous les appareils 802.11g et même un nombre important de produits 802.11n conçus exclusivement pour le 2,4 GHz. Il existe toutefois

4 Rarement mis en avant, le choix de l’agrégation de canaux est primordial pour obtenir de bons débits Wi-Fi. Par défaut, les canaux Wi-Fi ont une bande de 20 MHz, ce qui ne permet pas plus de 150 Mb/s. En cumulant la bande passante de deux canaux pour obtenir 40 MHz, il est alors possible de grimper en Wi-Fi 300 Mb/s. Dans les routeurs, ce réglage est rarement proposé tel quel, c’est en général un paramètre ajusté en activant le mode 300 Mb/s. Il peut arriver que l’agrégation de canaux soit impossible, soit parce que la législation d’un pays l’interdit (c’est le cas en Angleterre), soit parce que le point d’accès détecte des interférences en raison des réseaux voisins, auquel cas il faut revoir le canal utilisé (n’oublions pas qu’avec 40 MHz, le canal couvre de nombreux canaux immédiatement adjacents). Par exemple, en choisissant le canal 4, la fréquence des canaux de 2 à 10 est sollicitée ! Il est généralement possible de forcer l’activation côté PC, en allant dans les paramètres avancés du pilote de la carte Wi-Fi (dans le panneau de configuration). Nous allons y revenir. Précisons qu’il n’y a que 3 plages de 40 MHz indépendantes en 2,4 GHz (en choisissant les canaux 1, 6 ou 11), tandis qu’il en existe 12 en 5 GHz.

3

Intervalle de garde : 400 vs 800 ns Ce point d’accès Netgear va jusqu’à indiquer s’il fonctionne en 2.4 ou 5 GHz, mais de nombreux matériels plus sobres sont également dual band.

Favoriser les composants de même marque Obtenir de bonnes performances Wi-Fi est généralement facilité en utilisant exclusivement des produits de la même marque. Ainsi, les firmwares et pilotes ayant été développés par les mêmes équipes, les réglages automatiques sont généralement mieux appropriés pour réagir aux autres appareils du constructeur.

des points d’accès hybrides qui règlent ce problème. Le 5 GHz permet des débits légèrement plus élevés qu’en 2,4 GHz, la puissance électrique pour tenir cette fréquence étant un peu plus forte, mais la portée diminue sensiblement en raison de l’accroissement de fréquence (de la même façon qu’un son de basse fréquence émis par un haut-parleur traverse plus les murs qu’un son aigu). Bref, à moins de ne posséder que des matériels compatibles avec les deux bandes pour s’adapter à tous les cas de figure, ce qui coûte plus cher, il est plus prudent de rester en 2,4 GHz.

5 L’intervalle de garde (guard interval en anglais) est une notion totalement abstraite pour la majorité des gens. Il s’agit d’un petit délai utilisé pour s’assurer qu’une transmission donnée n’interfère pas avec d’autres. Dans le cas du Wi-Fi, le GI standard est de 800 ns. La spécification 802.11n a ajouté le support de GI courts de 400 ns seulement, permettant des débits environ 11 % supérieurs. Pour tenir les 300 Mbps, il faut obligatoirement utiliser les GI courts, sinon la synchronisation s’effectuera au mieux à 270 Mbps. Le tableau ci-dessous montre l’impact du paramètre à 20 et 40 MHz en, 1, 2, 3 et 4 flux (à chaque fois avec la meilleure modulation possible, 64-QAM, utilisée en standard sans problème

En achetant des produits de la même marque, l’obtention des vitesse maximales est généralement plus facile grâce à des configurations automatique identiques d’un appareil à l’autre.

4 Il n’est pas toujours possible d’ajuster manuellement le choix de la bande 20 ou 40 MHz. Sur la Freebox de cet exemple, c’est possible en entrant dans le menu de configuration du serveur (adresse IP de la Freebox dans un navigateur).

62 Hardware Magazine



Nombre de flux

20 MHz

40 MHz

5 800 ns GI

400 ns GI

800 ns GI

400 ns GI

1

65 Mb/s

72,20 Mb/s

135 Mb/s

150 Mb/s

2

130 Mb/s

144,4 Mb/s

270 Mb/s

300 Mb/s

3

195 Mb/s

216,7 Mb/s

405 Mb/s

450 Mb/s

4

260 Mb/s

288,8 Mb/s

540 Mb/s

600 Mb/s

la sécurité. Et encore, nous parlons de la page de configuration du point d’accès, les réglages étant généralement inexistants (ou plutôt en tout automatique) côté client. Mais s’il n’y a pas de réglages avancés pour le Wi-Fi d’une Wii ou d’une Squeezebox, on est gâté sur les PC. Faites donc un clic droit sur Ordinateur, choisissez Propriétés, puis ouvrez le Gestionnaire de périphériques. Dans celui-ci, en ouvrant

de réception), comme cela est prévu en N. Bien qu’il soit en principe ajusté automatiquement, ce paramètre est souvent ajusté manuellement dans les paramètres avancés du routeur.

Le cryptage entre en compte 6 L’importance de la sécurisation du réseau Wi-Fi est connue de tous, en particulier depuis que la loi Hadopi rend responsable le propriétaire de l’abonnement Internet. Le cryptage WPA est réputé plus efficace que le WEP, non sans raison, mais c’est également un critère de choix pour booster vos débits ! Le cryptage WEP n’est pas capable de suivre les débits au-delà de 150 Mb/s, du moins pas dans les chips Wi-Fi courants. De même, il est rarement possible de tenir 300 Mb/s en WPA-TKIP. Seul le WPA2 (AES-CCMP) garantit un cryptage sûr et capable de tenir plus de 300 Mb/s. Si vous ne parvenez pas à atteindre de tels débits malgré nos indications qui précèdent, tentez quelques instants sans aucun cryptage pour diagnostiquer si votre problème vient bel et bien de là.

Modifier les paramètres avancés du pilote 7 Le Wi-Fi étant globalement complexe, les constructeurs misent beaucoup sur l’automati-

7 La carte Intel 1000 (à droite) installée d’origine dans ce portable permettait déjà d’atteindre 300 Mb/s, mais son remplacement par la 6230 (au milieu) et sa configuration MIMO 2x2 a sensiblement amélioré la portée de ce mode, de 3 à 7 m environ. La 1030 (à gauche) est identique à la 1000, un contrôleur Bluetooth 3.0 en plus.

sation des réglages. Mais lorsque l’on souhaite tout contrôler, quelle déception, les paramètres de base sont généralement limités au nom du SSID, au choix d’un canal et aux réglages de

6

Le Cryptage WPA2-AES est non seulement le plus sûr, mais aussi le mieux adapté au mode 300 Mbps. Un peu plus haut, l’activation du 300 Mbps sur ce routeur configure automatiquement en mode MIMO, le choix de la bande 20/40 MHz et de l’intervalle de garde n’est pas ajustable manuellement.

64 Hardware Magazine

la partie Cartes réseau, vous pourrez double cliquer sur votre carte Wi-Fi. Dans la fenêtre qui apparaît, l’onglet Avancé donne accès à un nombre impressionnant de réglages. La prudence impose de ne pas toucher les réglages que l’on ne maîtrise pas, mais vous serez agréablement surpris en découvrant la majorité de ce dont nous avons parlé jusqu’ici ! Parfois, forcer manuellement tel et tel paramètre débloque les choses, mais n’oubliez pas de remettre par défaut ou en automatique dès que vous êtes en déplacement ! C’est, par exemple, le cas avec la carte réseau Intel Wireless-N 1000 qui est par défaut en 20 MHz. En plaçant ce réglage sur Auto (il n’y a pas 40 MHz dans la liste), notre portable est passé immédiatement de 150 à 300 Mb/s, à courte portée du moins, cette carte n’est que MIMO 1 x 2. De l’impact de la carte réseau dans un portable Nous avons tendance à ne pas prêter attention au choix de la carte réseau Wi-Fi, notamment dans un portable, si ce n’est sa certification à la norme en vigueur, 802.11n. Pourtant, d’un modèle à l’autre, les performances varient beaucoup, alors que l’écart de prix est généralement ridicule. Voici le détail de la gamme actuelle d’Intel, n° 1 mondial de la carte Wi-Fi pour notebooks : • Wireless-N 100 : simple flux (1 x 1), 2,4 GHz, 802.11b/g/n, 150 Mbps


DOSSIER Dossier configurations Booster son de réseau l’été

8

Certains points d’accès sont prévus pour fonctionner à plusieurs, augmentant ainsi la portée du signal Wi-Fi. Il est alors possible de définir l’un d’entre eux en maître, les autres devenant de simples répétiteurs.

• Wireless-N 130 : simple flux (1 x 1), 2,4 GHz, 802.11b/g/n, 150 Mbps + Bluetooth • Wireless-N 1000 : MIMO (1 x 2), 2,4 GHz, 802.11b/g/n, jusqu’à 300 Mbps • Wireless-N 1030 : MIMO (1 x 2), 2,4 GHz, 802.11b/g/n, jusqu’à 300 Mbps + Bluetooth • Advanced-N 6205 : MIMO double flux (2 x 2), 2,4 et 5,0 GHz, 802.11a/b/g/n, jusqu’à 300 Mbps • Advanced-N 6230 : MIMO double flux (2 x 2), 2,4 et 5,0 GHz, 802.11a/b/g/n, jusqu’à 300 Mbps + Bluetooth • Ultimate-N 6300 : MIMO triple flux (3 x 3), 2,4 et 5,0 GHz, 802.11a/b/g/n, jusqu’à 450 Mbps

A retenir • Pour que le Wi-Fi 300 Mbps fonctionne, il faut utiliser du matériel MIMO (idéalement 2 x 2 ou plus), des canaux de 40 MHz et un intervalle de garde court (short GI, 400 ns) avec un cryptage WPA2. • A 150 Mb/s, le taux de transfert sans interférence est de l’ordre de 7 Mo/s. A 300 Mbp/s, c’est le double, 14 Mo/s. • Il existe de nombreuses configurations MIMO, notées A x B, où A est le nombre de flux en réception et B le nombre de flux en émission. • De nombreux appareils réseaux sont configurés pour ne pas utiliser le mode 40 MHz sur 2,4 GHz. • La bande des 5 GHz est plus adaptée au mode 40 MHz que celle des 2,4 GHz. • Mélanger des périphériques de tout type (B, G, draft N et N) sur un point d’accès N ne ralentit pas l’utilisation des périphériques N. • Utiliser exclusivement des périphériques sans fil de la même marque facilite l’emploi des hautes vitesses WiFi. • Il est possible d’upgrader facilement une carte WiFi, même dans un portable. • Il est possible, moyennant un démontage complet, d’ajouter une antenne dans un portable.

Vous l’aurez constaté, toutes les cartes ont beau être certifiées N, les écarts de performances de l’une à l’autre sont réels et importants. Concrètement, la gamme 100 ne dépassera jamais 7 Mo/s en soutenu, la gamme 1000 pourra grimper à 14 Mo/s dans un environnement exempt de perturbations, la 6200 sera facilement à 14 Mo/s et, à condition de trouver un point d’accès 3 x 3 (gammes Pro chez Cisco, Netgear et les autres, parmi les rares produits grand public, citons le Belkin Play N750 DB, jusqu’à 450 Mbps en 5 GHz à 125 €), la 6300 peut même prétendre à plus de 25 Mo/s réels ! Et ce principe de déclinaison des gammes se retrouve un peu partout. Par exemple, chez Dell, la 1510 n’est qu’une simple flux (1 x 1), 2,4 et 5,0 GHz, 802.11a/b/g/n avec un maximum de 150 Mb/s, tandis que la 1520 est MIMO (2 x 2), 2,4 et 5,0 GHz, 802.11 a/b/g/n, jusqu’à 300 Mb/s. En France, nous ne trouvons pas facilement d’autres cartes au détail, même si des marques comme Broadcom sont très répandues outre-Atlantique. Comme nous l’indiquions un peu plus haut, n’hésitez pas à upgrader la carte Wi-Fi de votre portable. La majorité des notebooks vendus depuis 2 ans utilisent des cartes au format miniPCI-Express demi-hauteur.

Portée et répétition de signal 8 Tout utilisateur de Wi-Fi est confronté à un autre problème de taille : la portée du

signal. La majorité des documents officiels trouvés sur le site de la Wi-Fi Alliance évitent de s’engager sur des distances précises, se contentant d’affirmer que le passage au N était synonyme de progrès en la matière. Les quelques résultats d’études que l’on y trouve parlent de 70 m en intérieur et 250 m en extérieur, tant en 2,4 qu’en 5 GHz, tant en 20 qu’en 40 MHz de bande passante. C’est clairement exagéré, ou plutôt, il y a généralement un embryon de signal reçu à ces distances, mesurable sur un appareil très sensible et sans interférences extérieures… c’est-à-dire complètement inexploitable en pratique. L’expérience montre que le Wi-Fi N porte bien jusqu’à 15 à 20 m en intérieur, sans mur porteur ou blindé, avec des débits déjà fortement réduits (dignes d’un bon G, mais c’est très variable d’un environnement à l’autre). Pour tenir une connexion de 300 Mbps, il ne faut pas s’éloigner de plus de quelques mètres, 4 ou 5 sans mur. Au-delà, il est facile de retomber à 150 Mbps, voire moins. L’emplacement du point d’accès joue grandement sur la qualité de réception dans votre habitation. Il est important de le placer, tant que possible, au centre de la pièce principale et si possible en hauteur. Il n’y a qu’à s’inspirer des pros : les points d’accès sans fil en entreprises sont des modèles muraux généralement fixés à quelques centimètres du plafond seulement, si bien que les ondes Wi-Fi profitent de la surface lisse de celui-ci pour se réfléchir, plutôt que de s’accidenter sur de nombreux objets et meubles posés par terre. Pour les habitations trop grandes, il est possible de répéter le signal afin d’en améliorer la portée. Pour ceci, il faut s’équiper de plusieurs points d’accès compatibles avec la fonction de répétition… ou tout simplement acheter des répétiteurs au fonctionnement simplifié. Il ne faut pas confondre la répétition de signal (plusieurs appareils qui relaient le même signal Wi-Fi) avec la fonction Bridge qui permet, à l’aide d’une connexion Wi-Fi, d’établir le lien entre deux réseaux physiquement distincts. Une chose est sûre, le matériel Wi-Fi conçu pour l’usage en entreprises offre de bien meilleures prestations que le matériel grand public, tant en termes de vitesse que de portée.

Cumuler deux réseaux Wi-Fi A vouloir optimiser son Wi-Fi à fond pour les débits, on crée des problèmes de compatibilité avec les appareils plus simples et/ou âgés, les smartphones, les consoles, etc. Sachant que les points d’accès sont désormais très nombreux, il est parfois souhaitable de monter un réseau Wi-Fi basique en G ou N tout automatique, en 2,4 GHz, qui fonctionnera avec n’importe quel appareil sans fil. En complément, un second réseau géré par un autre point d’accès, idéalement 5 GHz pour éviter toute interférence, pourra accueillir les ordinateurs portables tweakés pour des débits maximums.

Hardware Magazine 65


Ethernet 2 Gb/s, carrément ! Une part importante de cet article concerne le Wi-Fi, tant les complications sont nombreuses pour bien en profiter. En comparaison, le réseau filaire est une balade de santé puisqu’il suffit de cumuler des cartes certifiées Gigabit (c’est le cas de plus de 99 % des cartes mères), un switch Gigabit également (de plus en plus fréquent, mais les switchs intégrés aux routeurs/ box sont encore régulièrement en 100 Mbps) et un câble réseau adapté (câble 4 paires/8 fils au minimum, catégorie 5E). Lorsque ces conditions sont remplies, il n’y a généralement pas de réglages compliqués à faire, le réseau s’affiche bel et bien à 1 Gb/s et les débits ne sont limités que par la vitesse des disques durs… quoique les SSD et disques dernier cri parviennent depuis peu à saturer les 120 Mo/s de bande passante maximum !

1

En principe, il n’est pas nécessaire de forcer le mode Gigabit à la main.

Ennemi n° 1 : le câblage En cas de problème sur un réseau filaire, il peut arriver qu’un switch ait un coup de chaud (le rebooter) ou qu’une carte réseau soit défectueuse, mais dans l’immense majorité des cas, le câblage est en cause. Comme nous venons de le dire, pour communiquer à 1 Gb/s, les 8 fils sont nécessaires, si bien que les anciens cordons réseau à 4 fils brideront le fonctionnement en 100 Mb/s. Pour le mode Gigabit, il faut du câble d’une qualité minimum, il doit être certifié 5E, 6 ou plus récent. Sur de courtes distances, la qualité importe peu. Elle devient, en revanche, primordiale pour des câblages de domicile qui s’étendent sur des dizaines de mètres, où il est recommandé de choisir une bobine de catégorie 6 blindée. Au-delà des gains immédiats, le surcoût s’amortira sur le long terme puisque le câble catégorie 6 est certifié avec la nouvelle norme 10 Gb/s Ethernet (10GBASE-T). La qualité des têtes RJ-45 et du sertissage joue également un rôle important, 1

66 Hardware Magazine

2

il faut éviter de laisser une partie des fils nus pour réduire au maximum les interférences extérieures. Si votre réseau ne fonctionne qu’en 100 Mb/s ou que des erreurs de copie apparaissent dans les copies de données Gigabit, il y a fort à parier qu’un fil est mal serti ou coupé quelque part. Avec les PC modernes, c’est assez facile à diagnostiquer puisque les BIOS et/ou les logiciels des cartes réseau sont capables d’effectuer un test efficace. Si votre carte mère possède un test intégré au BIOS (courant chez Asus), c’est tout trouvé. Dans le cas contraire, rendez-vous sur le site du constructeur de la carte, les marques les plus courantes comme Realtek, Marvell, Broadcom ou Intel proposent toutes un logiciel de monitoring et de surveillance qui permet notamment d’analyser l’état des câbles réseau. En photo, l’outil Realtek qui indique que tout va bien sur notre machine de test.

Mais pourquoi ça ne dépasse pas 40 Mo/s ? 2 Fréquemment, bien que le réseau semble fonctionner sans encombre, les débits sont décevants, 30 ou 40 Mo/s, parfois même 25 Mo/s. Certes, c’est déjà deux fois mieux qu’un 100 Mb/s au top de sa forme, mais il n’y a pas de quoi se réjouir. Alors, pourquoi ? Les cartes réseau soudées à même les cartes mères ne sont que des PHY, c’est-à-dire des puces capables de transformer les signaux numériques qui parcourent les veines du PC en signaux analogiques utilisables sur les fils de cuivre des cordons réseau. Mais la « vraie » carte réseau, celle que le pilote contrôle pour gérer les communications IP, c’est le processeur du PC ! Et si la moindre machine moderne est assez puissante pour débiter 120 Mo/s aisément, nous ne pouvons pas en dire autant des anciennes configurations, notamment celles de l’époque Pentium IV… parfois recyclées en serveurs de stockage, justement. Et le problème avec ces vieux PC est multiple. Non seulement le CPU est un peu juste, mais l’ar-

Si votre serveur de fichier est un vieux PC recyclé, il y a fort à parier que ses performances globales ne permettent pas de profiter à 100% du Gigabit Ethernet. Les plus gros P4 et les générations plus récentes ne posent plus de problème.

chitecture globale est à la traîne. Par exemple, la carte réseau Gigabit est encore câblée sur le vieux bus PCI et non en PCI-Express. Le contrôleur de stockage est moins efficace lui aussi, sans oublier les performances intrinsèques des disques durs, 40 Mo/s étant le maximum pour quelques vieux tromblons. Et même si vous utilisez des disques plus récents, théori-

Forcer le Gigabit dans les pilotes

En principe, il n’est pas nécessaire de forcer le mode Gigabit à la main.

En principe, avec du matériel compatible et un câblage adéquat, le réseau fonctionne automatiquement en Gigabit. Si ce n’est pas le cas, vous pouvez vous rendre dans les propriétés avancées de la carte réseau de votre PC pour choisir manuellement la vitesse. C’est dans l’onglet Avancé, paramètre Speed & Duplex, il suffit de passer d’Auto-Negotiation à 1 000 Full Duplex.


DOSSIER Dossier configurations Booster son de réseau l’été

Débit en copie

Vers PC1

Vers PC2

Vers PC3

Vers PC4 HDD

Vers PC4 SSD

Depuis PC1

N/A

43 Mo/s

45 Mo/s

45 Mo/s

45 Mo/s

Depuis PC2

40 Mo/s

N/A

57 Mo/s

57 Mo/s

58 Mo/s

Depuis PC3

41 Mo/s

54 Mo/s

N/A

72 Mo/s

113 Mo/s

Depuis PC4 HDD

41 Mo/s

55 Mo/s

87 Mo/s

N/A

N/A

Depuis PC4 SSD

42 Mo/s

55 Mo/s

107 Mo/s

N/A

N/A

2

quement capables de débiter 70 Mo/s ou plus, le cumul de tous les petits goulots d’étranglement que nous avons évoqués explique la performance moyenne que vous expérimentez peut-être. Pour apporter du crédit à ce triste constat, nous avons réalisé les tests suivants, en copiant un fichier vidéo .mkv de 9 Go : • PC1 (machine de test) de 2003 : Pentium 4 1,8A GHz/512 Mo/Gigabit sur bus PCI + disque SpinPoint F1 1 To SATA de 2008 • PC2 (machine de test) de 2009 : Pentium E6300/2 Go/Gigabit sur bus PCI-E + disque SpinPoint F1 1 To SATA de 2008 • PC3 (PC home cinéma) de 2010 : Xeon L3426/4 Go/Gigabit sur bus PCI-E + SSD Intel X25-M 80 Go • PC4 (serveur de fichiers) de 2011 : Pentium G620/4 Go/Gigabit sur bus PCI-E + SSD OCZ Agility 30 Go + disque SpinPoint F1 1 To SATA de 2008

débits lors de la copie de gros fichiers (au détriment des performances en manipulant de nombreux tout petits fichiers). Par défaut, la taille des trames Ethernet est de 1,5 ko (1 514 octets exactement). De nombreux matériels réseau modernes permettent d’ajuster cette taille à une valeur supérieure baptisée Jumbo Frames, généralement 4 088 octets et 9 014 octets. En utilisant ce réglage (le switch doit être compatible), les échanges de gros fichiers sont accélérés car plus de temps est accordé à l’envoi des données et moins au traitement des paquets (adressage). Concrètement, n’espérez pas une révolution, mais quelques Mo/s (entre 5 et 10 tout de même) sont à espérer entre deux PC Gigabit. A n’utiliser que si vous copiez régulièrement d’importantes quantités de données sur un serveur de stockage. Il faut

activer les Jumbo Frames manuellement dans les paramètres avancés de chaque carte réseau, c’est généralement automatique côté switch, ce dernier s’adapte.

802.11ad : 2 Gb/s ! 4 Ces dernières années, les constructeurs de cartes mères équipent presque tous leurs modèles haut de gamme de deux contrôleurs réseau Gigabit. Depuis quelque temps, dès 2005 avec nVidia, depuis 2009 sur les autres cartes, la notion de Teaming existe. Le Teaming, c’est un nom un peu générique pour définir des usages conjoints des deux cartes, la majorité n’ayant pas un grand intérêt pour le grand public. Par exemple, les deux cartes fonctionnent en redondance et si l’une connaît un problème, l’autre prend le relais, une tolérance de panne qui n’a rien d’indispensable pour un particulier. Mais ce que les modes d’emploi des cartes mères n’indiquent strictement jamais, c’est la compatibilité avec la norme 802.11ad, alias LACP pour Link Aggregation Control Protocol. Et là, l’utilisation conjointe de deux cartes Gigabit prend du sens, car en activant ce mode, les deux cartes sont reconnues comme une seule carte virtuelle (une seule adresse IP) et la bande passante grimpe directement de 1 à 2 Gb/s ! Et si les notices ne parlent pas de

Ces résultats sont très intéressants, car à l’exception des SSD, tous les PC utilisent le même disque dur, tous sont branchés sur le même switch Gigabit Ethernet et tous sont sous Windows 7 64 bits (32 bits pour le PC1). Ça montre donc l’impact de la machine globale sur les performances, le fait qu’un disque dur soit capable d’écrire à 80 ou 100 Mo/s n’est pas une garantie suffisante pour obtenir des débits élevés. Néanmoins, pour améliorer quelque peu vos débits si vous utilisez un vieux PC, assurez-vous d’avoir des pilotes à jour, tant pour les contrôleurs de stockage que la carte réseau. Favorisez le mode AHCI pour le SATA. Enfin, parcourez le mode d’emploi de votre carte mère pour trouver le tableau de partage des IRQ. Pour peu que la carte réseau partage l’IRQ avec une autre carte fille que vous utilisez beaucoup (par exemple un contrôleur de stockage additionnel), les performances peuvent être dégradées, tant pour la carte fille que la carte réseau. Il suffit alors de déplacer la carte optionnelle dans un autre slot pour libérer les ressources. Vous pouvez enfin activer les Jumbo Frames (cf. prochaine vignette).

Activer les Jumbo Frames Ce n’est pas une astuce récente, mais elle est trop souvent négligée : l’utilisation des Jumbo Frames permet d’augmenter les 3

3 L’activation des Jumbo Frames peut accélérer les débits pour la copie de gros fichiers. C’est automatique côté switch, à condition qu’il soit compatible.

Hardware Magazine 67


une carte réseau virtuelle composée des deux cartes physiques (comme une grappe RAID constituée de deux disques durs). Le switch a détecté seul l’activation LACP et notre réseau entre ces deux machines était bel et bien de 2 Gb/s, avec des mesures jusqu’à quasiment 200 Mo/s de SSD à SSD et un peu plus de 230 Mo/s en benchmark théorique (de RAM à RAM à l’aide d’un logiciel approprié, PassMark sur www.passmark.com). De quoi baver et trouver enfin une utilité aux deux contrôleurs des cartes mères… bien que ça sollicite un double câblage et un switch haut de gamme.

A quand le passage en 10 Gb/s ?

4 Côté switch, qui doit être administrable, il est possible de choisir le nombre de ports à agréger.

802.11ad, elles ne disent pas non plus que pour fonctionner, il faut un switch compatible, c’est-à-dire un switch manageable (niveau 2), un modèle capable de faire lui aussi le lien virtuel entre deux prises. Exit donc tous les switchs premier prix, les moins chers que nous ayons trouvés sont des 8 ports autour de 100 €, comme les Cisco SG200-08 et Netgear GS108-T.

4 Une fois les pilotes et utilitaires installés, il faut créer activer le teaming, une carte réseau virtuelle qui regroupe les deux cartes physiques.

Nous avons testé cette fonction sur deux cartes mères équipées l’une en puces Realtek (ASRock Fatal1ty Z68 Professional) et l’autre de chips Marvell (EVGA SR-2) avec un switch Netgear GS108-T. Pour que ça fonctionne, l’installation des pilotes ne suffit pas. Chez Realtek, il faut installer l’utilitaire de diagnostic (attention, celui proposé en libre téléchargement sur le site Realtek n’est pas compatible Teaming, il faut utiliser celui livré sur le CD de la carte mère) et, chez Marvell, ajouter le programme spécifique au Teaming. Dans les deux cas, il est très facile de créer

5 La norme 802.3 (nom savant d’Ethernet) s’est bardée d’une première mouture 10 Gb/s dès 2002 (80.3ae, 10GBASE-F) et prévoit le passage de tels débits sur du fil de cuivre classique (au contraire de fibre optique) depuis 2006 (802.3an, 10GBASE-T). Encore plus incroyable, la norme 802.3ba de 2009 établit même les bases des futures connexions à 40 et 100 Gb/s ! Pourtant, ce n’est pas demain la veille que nous pourrons profiter du 10 Gb/s. Aucune carte mère n’est équipée d’un contrôleur de ce calibre et les cartes 10 Gbps les moins chères du marché sont encore à 100 $. Pire, les modèles en RJ-45 qui peuvent utiliser du câblage pas cher (catégorie 6) sont quasiment inexistants, le premier (Intel 10 Gigabit AT2 Server Adapter) est carrément à plus de 500 € ! Quant aux switchs, ce n’est même pas en rêve, un modèle 24 ports Gigabit complété par 4 ports 10 Gb/s, comme le Netgear ProSage XSM7224S, est vendu 1 300 €. Pour plus de prises, les prix s’emballent rapidement et culminent à plusieurs milliers d’euros !

L’Ethernet 10 Gigabit ne tient pas encore dans un PHY d’1 cm² !



2

Paramètres IP pérer lui-même son IP auprès du DHCP intégré au modem/ routeur par exemple. Bien que ça ne soit pas obligatoire, il est généralement plus simple de conserver le serveur DHCP actif dans la box/modem qui gère la connexion à Internet.

uPNP

1 Il est toujours possible de régler manuellement le serveur DHCP, voir de le désactiver pour éviter des conflits entre plusieurs appareils.

Parfois, les galères réseau n’ont rien à voir avec le matériel. Une simple configuration IP bancale peut tout compromettre et, du simple conflit d’adresses à la redirection de ports mal faite, sans oublier les galères de DHCP ou DNS, les sources de problèmes sont finalement nombreuses.

2 uPNP, pour Universal Plug ’n’ Play, est une architecture qui permet de simplifier la mise en réseau de divers appareils, basée sur les protocoles TCP/ IP, UDP et HTTP. Peu utile pour les PC qui bénéficient déjà de tous les réglages possibles avec de nombreuses automatisations, c’est un pas de géant pour l’utilisation de périphériques réseau « secondaires », comme une console de jeu, une TV réseau ou un lecteur audio réseau. Grâce à uPNP, ces appareils sont non seulement capables d’obtenir les paramètres IP adéquats pour accéder au réseau et à Internet (configuration DHCP standard), mais aussi et surtout de demander au routeur d’ouvrir tel ou tel port, de rediriger tel ou tel port, à la volée. Ainsi, pas besoin de s’embêter à comprendre comment

fonctionne la redirection NAT et surtout de connaître quels ports sont utilisés par une Xbox 360, quels sont ceux pour la TV, etc. Concrètement, si votre réseau possède un serveur DHCP mais que le routeur n’est pas compatible uPNP, les appareils obtiendront les paramètres IP et pourront surfer sur le Net, mais pas question d’utiliser sans réglages les fonctions avancées, comme la communication audio ou l’hébergement de parties en ligne. 100 % des routeurs vendus depuis des années étant compatibles uPNP, il suffit d’entrer dans la page de configuration et d’activer ce service si vous rencontrez des problèmes.

Intel MyWiFi 3 La technologie Intel MyWiFi, disponible avec la dernière gamme de cartes Wi-Fi pour portables (Centrino 2), n’est pas un énième blabla marketing. Derrière le nom, se cache la possibilité de transformer tout PC compatible en véritable point d’accès Wi-Fi, avec cryptage des données. Les usages sont nombreux. Par exemple, en vacances, votre portable accède à Internet via une connexion 3G. En activant MyWiFi, vos autres appareils sans fil (autres ordinateurs, smartphones, consoles de jeu…) peuvent se connecter au point d’accès virtuel et ainsi échanger des données les uns les autres et profiter de la connexion au Net. Bien que ça

Attention aux conflits de serveurs DHCP 1 Box, routeur, point d’accès… les réseaux domestiques embarquent de plus en plus d’appareils faisant office de serveurs DHCP. Pour rappel, un serveur DHCP attribue automatiquement les paramètres IP aux périphériques qui le demandent, afin qu’ils soient rapidement et bien configurés pour l’usage sur un réseau donné. Sauf à les configurer correctement en tant que relais les uns des autres (c’est rarement permis par le matériel grand public), il ne faut surtout pas qu’il y ait plusieurs DHCP ! Au démarrage de votre ordinateur, lorsque le pilote de la carte réseau réclame les paramètres, c’est le premier serveur qui répond qui lui fournit ; pour peu que ça ne soit pas le bon et qu’il n’indique pas les bons paramètres, votre réseau ne sera pas 100 % fonctionnel, notamment vous ne risquez pas d’avoir accès à Internet. Il est donc recommandé d’entrer manuellement dans chaque appareil capable de jouer un tel rôle, pour non seulement désactiver le serveur DHCP mais aussi régler ses propres paramètres IP, afin qu’il soit bel et bien compatible avec l’ensemble du réseau ; un point d’accès peut très bien récu-

70 Hardware Magazine

3 Le logiciel Intel MyWiFi permet de transformer votre ordinateur portable en véritable point d’accès WiFi.

Des DNS toujours rapides En règle générale, personne ne précise les serveurs DNS qu’il souhaite utiliser, faisant confiance à ceux de son fournisseur d’accès à Internet, configurés automatiquement en DHCP. Si vous avez des doutes sur leur fonctionnement (vitesse de réponse, certains sites qui ne s’affichent pas), sachez qu’il est possible dans les propriétés TCP/IP de les spécifier à la main et ce, sans abandonner le réglage automatique des IP/masque/passerelle. Pour des DNS à jour et performants, rien de tel que ceux de Google : 8.8.8.8 en primaire, 4.4.4.4 en secondaire (cf. capture d’écran).

■ Spécificatio

ECP http


DOSSIER Dossier configurations Booster son de réseau l’été

Je ne trouve pas les réglages dont vous parlez, que faire ? soit tiré par les cheveux, c’est également une façon d’étendre la portée du Wi-Fi à la maison ! Si votre téléphone ne capte pas à plus de 10 m le point d’accès, il suffit de brancher l’ordinateur portable en limite de réception du point d’accès principal et le téléphone n’aura qu’à atteindre votre ordinateur, placé plus près. C’est également une façon d’utiliser une imprimante Wi-Fi sans point d’accès à proximité. La configuration est simplissime et se passe de commentaires. Il est possible de relier sans fil jusqu’à huit périphériques simultanément, qui obtiennent leurs paramètres IP automatiquement puisque MyWiFi simule également un serveur DHCP. Bon point, c’est que la carte Wi-Fi qui joue le rôle de point d’accès continu de fonctionner en sans fil sur le point d’accès principal. Ce point de détail est important, car les précédentes technologies qui permettaient de transformer une carte Wi-Fi en point d’accès la monopolisaient, si bien que la machine concernée ne pouvait plus accéder au réseau sans fil elle-même. Le logiciel laisse le choix de lancer automatiquement MyWiFi au démarrage de Windows, ou non.

Parmi tous les réglages évoqués durant ce dossier, en particulier ceux pour l’optimisation des débits en Wi-Fi, il est probable que vous ne les trouviez pas tous au sein de vos pilotes et interfaces de gestion. S’ils existent bel et bien, certains sont souvent des paramètres automatisés, en particulier dans le cas du matériel grand public. Par exemple, de nombreux routeurs se contentent de profils comme ‘’150 Mbps’’ ou ‘’300 Mbps’’, le fait de passer de l’un à l’autre entraine l’activation automatique de plusieurs paramètres comme la puissance d’émission et l’agrégation de bande passante (20/40 MHz). Parfois, les réglages sont placés dans des menus avancés, il faut un peu fouiller. Dans le cas des box des FAI en particulier, ne vous contentez pas de l’interface de réglage du site Internet ou de l’utilitaire du CD ; à l’aide d’un navigateur Internet, tapez directement l’IP de la box et vous accéderez à de nombreux réglages (pour connaitre l’IP, affichez les propriétés de votre connexion dans le Centre réseau et partage, cliquez sur le bouton Détails et l’adresse indiquée pour la Passerelle par défaut est la bonne). Les réglages que vous cherchez peuvent également se dissimuler sous un autre nom. Par exemple, pour l’agrégation de bande passante Ethernet, certains switchs ont un réglage ou menu LACP, d’autres un menu 802.11ad tandis que les pilotes de cartes réseau parlent généralement de Teaming, tout ceci désignant la même chose. Chez Linksys, l’agrégation de bande passante pour le WiFi s’appelle Channel Width (largeur de canal). N’hésitez pas à mettre à jour le firmware et les pilotes de vos appareils. Pour certains routeurs, il existe des firmwares alternatif (créé par des passionnés et non le constructeur) avec bien plus de réglages ; le plus célèbre d’entre eux, DD-WRT, est utilisable sur des dizaines d’appareils référencés sur le site www.dd-wrt.com. Et si malgré toutes ces astuces vous ne disposez pas des réglages les plus importants, il faudra alors changer de matériel. A ce sujet, sachez que la rédaction est en train de vous concocter un comparatif des meilleurs produits Wi-Fi N, des cartes réseau pour PC fixes aux répétiteurs de signaux en passant par les cartes pour notebooks, les points d’accès/routeurs et les antennes.

Débarrassez vous de la FAUSSE Gen3

Optez pour la Vrai Composant Quick Switch IC de 3ème génération embarqué

■ Spécifications susceptibles d'être modifiées sans préavis.

ECP Grossiste informatique http://www.europ-computer.com/

VRAIE

carte mère

ASRock PCIE Gen3

■ Les marques et noms des produits sont la propriété de leurs fabricants respectifs.

Acadia http://www.acadia-info.fr/

■ Toute utilisation non conforme à la configuration originale n'est pas garantie.

Textorm http://www.textorm.com/

Code QR pour les cartes mères ASRock de la gamme Gen3 Series


Google Voice, Skype, VoipLip… Le meilleur de la téléphonie IP sur PC

Cumulant confort et économies, la VoIP est en plein essort, et se montre plus compétitive que les offres téléphoniques IP des prestataires Internet. Voici l’étude des meilleures solutions pour téléphoner moins cher sur les mobiles notamment, depuis son PC ou sur smartphone. Thomas Olivaux

A

la base, la VoIP (Voice over IP) permet des échanges vocaux par des réseaux IP, en l’occurrence Internet, en lieu et place du réseau téléphonique classique d’un opérateur. Une banale discussion vocale entre deux clients Live Messenger en est une parfaite illustration. Le monde de la téléphonie classique a été bouleversé par la VoIP. En France, la guerre des FAI a connu une telle rage durant les années 2000 que la majorité des abonnés disposent d’une solution de téléphonie IP performante et très compétitive, sans frais supplémentaires. C’est le cas de 100 % des clients Free qui peuvent brancher un combiné à leur Freebox, mais également de la majorité des clients Orange, SFR ou même Numericable. Mais ces solutions connaissent des limites. Les offres ont beau être particulièrement alléchantes avec de nombreux pays en illimité, ne perdons pas de vue que seuls les appels vers des téléphones fixes sont compris. Concernant les mobiles, c’est payant et généralement cher ! Quant aux destinations absentes des contrats, les tarifs sont parfois prohibitifs. Sans

72 Hardware Magazine


Pratique voip

oublier les appels en déplacement, lorsque vous n’êtes pas à proximité de votre box. Pour faire des économies, pour continuer d’utiliser son PC en même temps qu’un coup de fil et pour tous les lecteurs francophones qui n’ont pas la chance de profiter de ces abonnements si spécifiques à la France (dual, triple voire quadruple play qui incluent la téléphonie IP), voici un comparatif des meilleures solutions de téléphonie IP sur PC et smartphones.

S’armer des bons accessoires Appeler un téléphone depuis un PC requiert un minimum d’équipements. Un micro et des enceintes sont un minimum, mais ce n’est pas l’idéal d’un point de vue qualitatif. Les micros des ordinateurs portables sont généralement mauvais, quant à l’utilisation d’enceintes, c’est la meilleure façon pour que vos correspondants profitent de leur propre voix en boucle. Pour la qualité, il est donc recommandé d’acheter un micro-casque. Les modèles pour gamers fonctionnent très bien, mais ils sont généralement encombrants pour un simple appel. Quitte à opter pour un casque spécial téléphonie, pourquoi ne pas viser un modèle sans fil, qui permettra de discuter en s’éloignant de l’unité centrale ? Une simple oreillette Bluetooth est idéale, discrète et légère. Il suffit qu’elle soit compatible avec le profil Bluetooth A2DP (Advanced Audio Distribution Profile) afin d’être reconnue tel un micro-casque utilisable dans n’importe quelle application. Il existe également des combinés de téléphone standards qui offrent une compatibilité avec la téléphonie IP, mais ils sont généralement compliqués à configurer et, en utilisant le PC, on est justement tenté de diminuer le nombre d’appareils plutôt que de les multiplier. Les smartphones Android et iOS sont également de bons candidats pour téléphoner en IP, nous en reparlerons tout au long de l’article.

Des économies, comment ? Prenons l’exemple d’une personne en France qui souhaite appeler un correspondant au Japon : en utilisant son téléphone traditionnel, le signal part du domicile de cette personne pour arriver au RTC (Réseau Téléphonique Commuté) qui s’occupe de rediriger le signal vers un RTC de plus grande importance, lui-même établissant alors la connexion avec le commutateur central du pays voisin, qui renvoie au pays d’à côté, effectuant d’éventuelles adaptations de signal, car les protocoles utilisés ne sont pas identiques dans tous les pays, et ainsi de suite jusqu’à arriver au commutateur local de l’appelé qui envoie enfin ce signal à son téléphone. Il y a bien longtemps que les opératrices ont disparu et que la commutation est totalement informatisée et automatisée, c’est pourquoi il n’y pas besoin de plus de quelques secondes pour que le téléphone sonne à l’autre bout du monde. De plus, sur les longues distances, les commutateurs ne sont pas reliés par de simples câbles téléphoniques, mais par de gros câbles coaxiaux ou le plus souvent de la fibre optique, quand ça n’est pas carrément par satellite. Précisons qu’en France, s’il existe une multitude de commutateurs locaux (CAA, Commutateur à Autonomie d’Acheminement) et de nombreux centre de transit qui permettent les communications régionales d’un CAA à l’autre, il n’existe en revanche que trois centres de transit

internationaux (à Paris, Bagnolet et Reims) par lesquels 100% des appels téléphoniques vers l’étranger sont acheminés. Si cette solution est techniquement maîtrisée, elle coûte assez cher pour deux raisons principales. D’une part, les infrastructures techniques représentent des dépenses faramineuses par rapport au service rendu ; les centres de commutations, qui réclament d’importants moyens (locaux, matériels, besoins énergétiques et employés de maintenance) ne servent finalement qu’aux communications téléphoniques et fax. En comparaison, les lourdes installations serveur des FAI Internet ont bien plus de débouchés. De l’autre, les réseaux de téléphone ont une histoire spécifique à chaque pays, le développement s’est principalement fait aux XIX et XXème siècles (une époque où la mondialisation n’était qu’un concept), si bien qu’aujourd’hui, malgré de meilleurs accords qu’autrefois, chacun taxe son voisin pour faire transiter ses communications et alourdit ainsi la facture des usagers. En utilisant la VoIP, on ne parle plus de signal analogique mais de données numériques, mélangées à votre trafic Internet. Une fois arrivé au NRA (Nœud de Raccordement Abonné), de switch en switch (Internet n’est qu’un réseau géant à l’échelle mondiale !), il emprunte les backbones (connexions à Internet à très haut débit qui alimentent les FAI) du FAI, puis les backbones internationaux (qui sont généralement des groupes de nombreux câbles optiques offrant des bandes passantes monstrueuses de plusieurs dizaines de Gb/s) jusqu’à arriver au NRA distant qui achemine alors les données jusqu’au destinataire. Les infrastructures mises en place pour l’usage d’Internet sont également très couteuses, mais les frais sont partagés par de nombreux pays et surtout, l’utilité d’Internet est multiple ! Et puisque ce qui coute cher c’est la bande passante, la VoIP n’ayant que des besoins modestes, les coûts sont finalement moindres qu’en téléphonie classique. Les casques et oreillettes Bluetooth doivent être compatibles avec le profil A2DP pour être utilisés dans un logiciel de VoIP.

Free, Numericable, Orange, SFR : un point sur les offres des FAI Il est impossible d’étudier le marché des offres de téléphonie IP sans prendre en compte les offres très séduisantes des FAI en France. Le tableau comparatif des tarifs, publié sur les pages qui suivent, intègre donc les tarifs de téléphonie des principaux fournisseurs français. Pour avoir les meilleurs tarifs de téléphone, il est généralement nécessaire de bénéficier des meilleurs abonnements dont le nom et le tarif sont spécifiés dans le tableau.

Hardware Magazine 73


Les offres

Google Voice Prépayé

Google Voice, utilisé depuis 2009 aux Etats-Unis, a commencé son débarquement en Europe le 2 août dernier. Loin d’être complet pour l’instant, Google Voice n’offre pas de numéro de téléphone sur lequel être joint. Intégré à Gmail, il offre la possibilité d’acheter des crédits de communication dans quatre devises dont l’euro. Pour l’utiliser, outre le fait d’être inscrit sur www.gmail.com, il faut installer le plugin disponible à l’adresse www.google.com/chat/voice. Ce dernier ajoute une ligne Appel téléphonique dans l’onglet Chat de la fenêtre Gmail. En cliquant dessus, une petite fenêtre apparaît en bas à droite, plutôt triste et moche. Sur cette dernière, vous pouvez voir en temps réel le solde de votre compte, qu’il faut charger au préalable pour pouvoir utiliser le service. L’ajout d’argent sur Google Voice s’effectue à l’url www.google.com/voice#billing par 10, 25 ou 50 € (HT), avec la possibilité de recevoir une alerte par e-mail si le solde est inférieur à 2 €. Vous pouvez taper un numéro à l’aide de la souris ou du pavé numérique ou encore taper un nom de contact Google, il suffit alors de cliquer sur Appeler pour déclencher la communication et Assez austère, Google Voice est simple et performant. Pour les utilisateurs afficher à côté du solde le coût à la minute (hors taxes). de Gmail, il est confortable de ne pas lancer un logiciel supplémentaire. Les ap pels réalisés avec Google Voice sont de très bonne qualité, jamais le moindre problème ni du côté appelant ni du côté appelé. La personne qui reçoit l’appel voit « numéro inconnu » s’afficher. Les tarifs pratiqués par Google Voice sont très bons, en particulier sur les téléphones mobiles. Par exemple, appeler un mobile au Japon ne coûte que 9,6 centimes par minute, alors que des opérateurs comme Orange ou SFR réclament plus de 45 c/min en IP (et c’est pire si vous appelez depuis un GSM de ces mêmes prestataires, comptez 1,40 et 1,51 €/min !) ! Vivement la version complète, ainsi que la version mobile (voir la dernière page du dossier). Tarifs Qualité des appels Simplicité de l’interface Esthétisme de l’interface Tous les prix sont indiqués HT

Historique complet et clair Pourquoi l’intégrer au Chat de Gmail ?

skype

Prépayé, abonnement, attribution d’un numéro

Référence absolue depuis des années, Skype s’est fait connaître pour les appels et la visioconférence de PC à PC, gratuits et performants. Moyennant finance, il est également possible d’utiliser Skype pour contacter de vrais téléphones dans le monde entier. Il faut commencer par télécharger le client Skype sur www.skype.com et par créer son compte (c’est gratuit). Concernant l’achat de crédits téléphoniques, plusieurs offres sont proposées. La première étant un prépaiement classique, par tranches de 10 ou 25 € (HT) avec la possibilité d’opter pour un rechargement automatique si le solde devient inférieur à 2 €. Pour les gros consommateurs, Skype offre de choisir pour des abonnements Europe (20 destinations) ou Monde (40 destinations) moyennant 6,89 € et 11,49 € par mois. L’illimité ne l’est pas vraiment, mais les contraintes sont suffisamment zen pour ne déranger personne (maximum 6 € ou 50 numéros par jour). Il est enfin possible d’acheter des crédits d’avance à un tarif réduit pour les destinations de son choix. Par exemple, alors que l’Algérie n’est pas comprise dans le forfait Monde, vous pouvez acheter un pack de 400 Skype cumule l’avantage de la téléphonie IP avec le confort d’une excellente solution VoIP et visioconférence de PC à PC. Pas trop minutes à 32,19 € afin de tomber à 8,1 centimes la minute, au lieu de 16 au tarif normal. gourmand, le logiciel est ultracomplet. 15 % de réduction sur les abonnements si vous payez un an d’un coup. Point fort de Skype, la location optionnelle d’un numéro de téléphone accompagnée d’une boîte vocale. En choisissant parmi l’un des pays proposés, dans lequel vous êtes supposé habiter (la France en fait partie), vous êtes non seulement joignable au téléphone sur votre PC mais vos interlocuteurs payent un tarif local illimité s’ils ont eux-mêmes une box ou équivalent. Ce service est à partir de 17,25 € pour trois mois. Les tarifs pour les fixes sont très bons, en revanche Skype coûte très cher pour appeler un portable. C’est régulièrement l’opérateur le plus cher de ce dossier en la matière, régulièrement moins bon que les offres des FAI. La qualité d’appel est globalement bonne, mais suivant les appels, nous avons remarqué quelques différences et certains de nos interlocuteurs ont parfois dû nous faire répéter (malgré notre bon micro-casque Sennheiser). Comme nous le reverrons en dernière page, Skype existe en version mobile, pratique ! Interface esthétique et fonctionnelle Possibilité d’abonnement pour les fixes en illimité Numéro de téléphone et messagerie vocale optionnels Existe en version mobile Possibilité d’envoyer des SMS 4,5 centimes de frais de connexion par appel sans abonnement Qualité des appels parfois en retrait Coût des appels vers les mobiles

74 Hardware Magazine


Pratique voip

Voipbuster Prépayé

Voipbuster est moche, mais les tarifs sont au top ! Pour chaque recharge de 10 €, bénéficiez de 120 freedays (120 jours gratuits, avec un maximum de 5 heures de communication par semaine).

Voipbuster est un des très nombreux services de VoIP proposés par la société Dellmont, filiale VoIP low-cost du groupe Finarea. Si connaître le nom de ces entreprises n’a guère d’importance, cela explique qu’il existe beaucoup de frères plus ou moins jumeaux à Voipbuster, comme NetAppel, VoipDiscount, EasyVoip et tant d’autres, à croire qu’il en sort presque un service par mois. Nous avons retenu Voipbuster pour plusieurs raisons, notamment le fait qu’il fut le premier service de Dellmont et aussi l’un de ceux traduits en français, bénéficiant de très bons tarifs. L’inscription et le téléchargement du client se font sur www.voipbuster.com. Le service propose d’emblée d’effectuer un essai, vous pouvez appeler un fixe vers de nombreux pays pendant 60 minutes ! Comme tous les autres, c’est un service prépayé, c’est-à-dire que vous devez acheter des crédits avant de pouvoir téléphoner. Le logiciel n’est pas très sexy et la traduction pas complète à 100 %, mais il est néanmoins facile à appréhender. Il est possible d’envoyer des SMS à l’étranger à des prix bien plus compétitifs que les opérateurs français (entre 3 et 4,6 c/SMS pour la majorité des destinations). La fonction Phone2Phone, expliquée dans le bloc suivant, est également pratique. En déboursant 10 €, outre ajouter cette somme à votre solde, Voipbuster vous offre 120 « freedays ». Durant ces 120 jours, vous pouvez appeler de façon « illimitée » sur les fixes de nombreux pays (maximum 5 heures par semaine), pas mal ! Et chaque recharge de 10 € réinitialise ce compteur de 120 jours. Pour les pays qui ne sont pas concernés, ou pour tout dépassement des 5 heures hebdomadaires en mode freedays, le tarif normal s’applique, des tarifs corrects quoiqu’un peu moins bons que ceux de Google Voice en moyenne. Cette offre est particulièrement intéressante pour les personnes qui ne résident pas en France et qui ne bénéficient pas de l’illimité vers les fixes d’une box. Les tests n’ont pas permis de déceler le moindre problème qualitatif à l’usage de Voipbuster. Voipbuster existe aussi en version mobile, rendez-vous en fin d’article.

Freedays : 5 heures gratuites par semaine sur les fixes Logiciel/traduction perfectibles

Possibilité d’envoyer des SMS

Existe en version mobile

Phone2Phone

VoipLip Prépayé

Identique à Voipbuster, VoipLip offre les prix les moins chers du marché.

VoipLip passe également par l’infrastructure de Dellmont, mais c’est un service qui est né de et appar tient à Gratos TEL, un site Internet français dédié aux économies d’argent en optimisant ses communications téléphoniques. Il faut s’inscrire et télécharger le client sur www. voiplip.com puis acheter des crédits (tranches 12,80 et 31,99 €) qu’il est possible de payer par PayPal en plus des classiques options de cartes bancaires. Bien que les couleurs changent, le « softphone » de VoipLip est identique à celui de Voipbuster, avec les mêmes qualités de simplicité et défauts de traduction. L’interface de gestion de comptes en ligne est également similaire. VoipLip, comme Voipbuster, propose la fonction originale Phone2Phone. En utilisant celle-ci, vous pouvez utiliser votre téléphone fixe ou portable pour effectuer un appel en profitant des conditions tarifaires de téléphonie IP ! Si vous désirez vous éloigner pour plus de confidentialité ou tout simplement faire les cent pas durant une longue conversation, c’est un confort appréciable. Il faut alors cliquer sur l’onglet Phone2Phone, entrer le numéro de votre propre téléphone et celui que vous désirez appeler. En validant, VoipLip appelle votre téléphone et, lorsque vous décrochez, l’appel vers le destinataire est lancé. En faisant ainsi, vous serez doublement facturé : la communication A (au tarif vers votre propre téléphone + 5 centimes de frais de connexion) + la B (au tarif vers le téléphone de destination). Avantage pour le destinataire, il voit votre numéro s’afficher et non « numéro inconnu » comme avec tous ces services. La qualité de VoipLip est d’un bon niveau, strictement identique à celle de Voipbuster et aisément comparable à celles de Google Voice et Skype. L’application mobile est aussi disponible pour VoipLip. Les tarifs à la minute de VoipLip sont les meilleurs du marché, pour les fixes (sauf à avoir du 100 % gratuit) et surtout les portables.

Tarifs des communications Existe en version mobile Logiciel/traduction perfectibles

Phone2Phone

Hardware Magazine 75


Yahoo Voice

Prépayé, attribution d’un numéro

Nous terminons par un autre grand nom de la communication sur PC, Yahoo et son service Yahoo Voice de téléphonie IP. A l’image de Google, il faut posséder un compte Yahoo et s’inscrire sur fr.voice.yahoo.jajah.com (à vos souhaits !). Il faut ensuite cliquer sur le bouton Ajouter des fonds pour charger son compte à raison de 10 ou 25 €, avec option de recherche automatique. Attention, les fonds sont perdus si vous n’utilisez pas le service pendant une période de 180 jours (environ 6 mois) ! Yahoo ne propose pas de logiciel dédié à la téléphonie, il faut installer Yahoo Messenger, un concurrent de Live Messenger qui intègre des fonctions (basiques) de téléphonie. La fenêtre de base ne comprend aucun contact mais, il est possible d’en ajouter avec des numéros de téléphone sans avoir à connaître de contacts utilisateurs de Yahoo Messenger. Option rare proposée par Yahoo, le service Etre appelé qui propose comme Skype de vous attribuer un numéro de téléphone fixe du pays de votre choix ; c’est en principe un numéro de votre pays de résidence mais, sur simple clic, il a été possible d’obtenir un numéro français en 01, tout en s’inscrivant depuis la Belgique. Ce numéro permet donc d’être appelé sur son PC et de se passer totalement de téléphone fixe classique. C’est également une façon d’être appelé en local pour vos correspondants, même si vous habitez à l’autre bout du monde ! Ce service coûte 2,49 € par mois ; les petites entreprises regretteront simplement qu’il ne soit pas possible de recevoir un fax sur ce dernier. La qualité des communications par Yahoo est très bonne, bien qu’une fois nous ayons entendu notre propre voix en écho. Le site Web est, en revanche, perfectible, ainsi que le client Messenger. Pour l’essai de la messagerie (accessible dès que l’on possède un numéro de téléphone pour être appelé), le site Web renvoie sur une mauvaise page, quant au client, il n’affiche aucun témoin indiquant qu’un message est arrivé. Tarifs vers les fixes Attribution d’un numéro en option Logiciel mal adapté à l’usage de téléphonie et incomplet Pas très pratique, le client Yahoo Messenger permet de téléphoner. Pour 2,49 €/mois, profitez d’un numéro de téléphone fixe pour vous faire appeler !

J'appel de France vers/par [conversation de 15 mn]

Coût de connexion

France fixe

France mobile

Belgique fixe

Belgique mobile

Royaume-Uni fixe

Royaume-Uni mobile

Free (Total Freebox V6 35,98 €/mois)

0 c/appel

0 c/mn [0 €]

Google Voice

0 c/appel

2,4 c/mn [0,36 €]

0 c/mn [0 €]

0 c/mn [0 €]

22 c/mn [3,30 €]

0 c/mn [0 €]

19 c/mn [2,85 €]

9,6 c/mn [1,44 €]

2,4 c/mn [0,36 €]

13,3 c/mn [2 €]

2,4 c/mn [0,36 €]

9,6 à 15,7 c/mn [1,44 € à 2,35 €]

Numéricable (pack puissance, à partir de 42,90 €/mois)

0 c/appel

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

30,5 c/mn + 18c/appel [4,75 €]

0 c/mn [0 €]

30,5 c/mn + 18c/ appel [4,75 €]

Orange (Livebox star 39,90 €/mois)

0 c/appel

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

30,5 c/mn + 11 c/appel [4,68 €]

0 c/mn [0 €]

30,5 c/mn + 11 c/appel [4,68 €]

SFR (neufbox EVOLUTION 37,90 €/mois)

0 c/appel

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

35 c/mn [5,25 €]

0 c/mn [0 €]

32 c/mn [4,80 €]

Skype sans abonnement

4,5 c/appel

2,2 c/mn [3,30 €]

19,4 c/mn [2,91 €]

2,2 c/mn [3,30 €]

25,3 c/mn (17 c/mn si Proximus) [3,79 €]

2,2 c/mn [3,30 €]

24 c/mn [3,60 €]

Skype abonnement Europe (5,99 €/mois)

0 c/appel

0 c/mn [0 €]

19,4 c/mn [2,91 €]

0 c/mn [0 €]

25,3 c/mn (17 c/mn si Proximus) [3,79 €]

0 c/mn [0 €]

24 c/mn [3,60 €]

Skype abonnement Monde (9,99 €/mois)

0 c/appel

0 c/mn [0 €]

19,4 c/mn [2,91 €]

0 c/mn [0 €]

25,3 c/mn (17 c/mn si Proximus) [3,79 €]

0 c/mn [0 €]

24 c/mn [3,60 €]

VoipBuster

0 c/appel (5 c/appel par app. mobile)

0 c/mn [0 €]

14 c/mn [2,10 €]

0 c/mn [0 €]

20 c/mn [3 €]

1 c/mn [0,15 €]

18 c/mn [2,70 €]

VoipLip

0 c/appel

1 c/mn [0,15 €]

3,2 c/mn [0,48 €]

1,2 c/mn [0,18 €]

7,1 c/mn [1,07 €]

1,2 c/mn [0,18 €]

5,7 c/mn [0,85 €]

Yahoo Voice

0 c/appel

1,3 c/mn [0,20 €]

14,9 c/mn [2,23 €]

1,3 c/mn [0,20 €]

16,6 c/mn [2,49 €]

1,3 c/mn [0,20 €]

16,1 c/mn [2,41 €]

76 Hardware Magazine


€]

]

Pratique voip

La VoIP depuis son smartphone Téléphoner dans le monde entier avec son abonnement 3G Téléphoner depuis son PC, c’est génial, mais il serait parfois plus pratique de pouvoir bénéficier d’une liberté de mouvement non permise par un micro-casque filaire. Outre l’achat d’une oreillette Bluetooth ou d’un téléphone spécial IP comme indiqué en début de magazine, il est possible de profiter des services testés précédemment sur les smartphones les plus courants. Et quand on sait que la VoIP ne consomme presque rien, qu’elle fonctionne en 3G et même en EDGE et GPRS… cela décuple l’intérêt des forfaits GSM avec data « illimités ». Une bonne part des services testés possèdent une application pour Android et iOS (et rien pour Windows Mobile 7). Seul Yahoo Voice n’est pas concerné, quant à Google Voice, l’application n’est pour l’instant fonctionnelle qu’en Amérique du Nord, bien qu’installable depuis Android Market en Europe. L’application Skype s’intègre très bien au système, tant sur Android qu’iOS et a le mérite d’exister également pour BlackBerry et Symbian. Il est notamment possible, du moment que Skype tourne en tâche de fond, de lancer un appel Skype depuis le carnet d’adresses standard du téléphone, il n’est pas obligatoire de devoir ouvrir Skype à chaque fois. Aucune différence de qualité ressentie par rapport à l’application PC, si ce n’est l’écart qualitatif qui sépare un écouteur de smartphone d’un bon micro-casque haut de gamme. Utilisant la même infrastructure, Voipbuster et VoipLip utilisent tous deux l’application MobileVOIP et le choix du prestataire se fait automatiquement à l’identification, en fonction de votre login. Assez basique, l’application peut accéder à son répertoire ou celui de votre téléphone. Pas de fonction de chat comme sur Skype Si vous ne désirez pas payer de fournisseur de VoIP, malgré les tarifs alléchants, jetez un oeil sur l’excellent logiciel Viber (gratuit), lui aussi proposé pour Android et iOS (bientôt sur BlackBerry). Ce logiciel qui utilise un réseau privé permet d’appeler via IP n’importe quel autre utilisateur Viber dans le monde entier (mais aussi de chatter). L’avantage est le même qu’évoqué précédemment, profiter d’un abonnement 3G illimité (ou d’une connexion Wi-Fi) pour appeler gratuitement ! Si vos amis ou votre petite amie sont exilés à des milliers de kilomètres, c’est la solution la plus économique en déplacement, lorsqu’il est difficile de sortir un PC.

Algérie fixe

Algérie mobile

Etats-Unis fixe

Etats-Unis mobiles

Canada fixe

0 c/mn [0 €]

49 c/mn [7,35 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

10,8 c/mn [1,62 €]

22,9 c/mn (31,4 c/mn si Orascom ou Wataniya) [3,43 €]

1,2 c/mn [0,18 €]

1,2 c/mn [0,18 €]

1,2 c/mn [0,18 €]

28 c/mn + 18 c/appel [4,38 €]

35,9 c/mn + 18 c/appel [5,56 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

28 c/mn + 11 c/appel [4,31 €]

36 c/mn + 11 c/appel [5,51 €]

0 c/mn [0 €]

0 c/mn [0 €]

25 c/mn + 12 c/appel [3,87 €]

52 c/mn + 12 c/appel [7,92 €]

0 c/mn [0 €]

16 c/mn [2,40 €]

31 c/mn [4,65 €]

16 c/mn [2,40 €]

Canada mobile

Japon fixe

Japon mobile

0 c/mn [0 €]

0 c/mn [0 €]

2,2 c/mn [3,30 €]

1,2 c/mn [0,18 €]

2,4 c/mn [0,36 €]

9,6 c/mn [1,44 €]

0 c/mn [0 €]

0 c/mn [0 €]

45,2 c/mn + 18 c/appel [6,96 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

45,2 c/mn + 11 c/appel [6,89 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

47 c/mn [7,05 €]

2,2 c/mn [3,30 €]

2,2 c/mn [3,30 €]

2,2 c/mn [3,30 €]

2,2 c/mn [3,30 €]

2,6 c/mn [0,39 €]

16 c/mn [2,40 €]

31 c/mn [4,65 €]

2,2 c/mn [3,30 €]

2,2 c/mn [3,30 €]

2,2 c/mn [3,30 €]

2,2 c/mn [3,30 €]

2,6 c/mn [0,39 €]

16 c/mn [2,40 €]

16 c/mn [2,40 €]

31 c/mn [4,65 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

16 c/mn [2,40 €]

10 c/mn [1,50 €]

30 c/mn [4,50 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

0 c/mn [0 €]

6,5 c/mn [0,97 €]

4,7 c/mn [0,71 €]

28,6 c/mn (29,1 c/mn si Wataniya) [4,29 €]

1,2 c/mn [0,18 €]

1,2 c/mn [0,18 €]

1,2 c/mn [0,18 €]

1,2 c/mn [0,18 €]

2,5 c/mn [0,37 €]

9,7 c/mn [1,45 €]

10,7 c/mn [1,60 €]

27 c/mn [4,05 €]

1,4 c/mn [0,21 €]

1,4 c/mn [0,21 €]

1,3 c/mn [0,20 €]

1,3 c/mn [0,20 €]

1,9 c/mn [0,29 €]

11,9 c/mn [1,78 €]

Hardware Magazine 77


Personnaliser

Windows Media Center • Créer une bibliothèque de films ultrastylée • Taguer films, séries et musiques avec précision • Lire tous les formats audio/vidéo sans accroc • Modifier l’interface de Media Center Jeremy Panzetta

L

e PC home cinéma parfait, c’est une machine qui se lance avec une centrale logicielle multimédia en guise d’interface, qui se contrôle intégralement à la télécommande, sait lire n’importe quel type de médias et qui présente votre vidéothèque et votre audiothèque de la manière la plus classe et la plus complète possible, pour épater les amis et la famille. Si Windows Media Center est une très bonne base pour habiller un PC de salon, il lui manque tout de même certaines fonctionnalités pour être véritablement complet. Notamment sa bibliothèque de films qui peut être largement améliorée, aussi bien esthétiquement qu’au niveau des informations présentées pour chaque film. Par défaut, Windows Media Center ne sait également pas lire certains formats de fichiers pourtant très populaires.

Nous allons voir dans ce guide comment organiser votre vidéothèque afin de créer un juke-box avec des fiches de résumé très stylées et personnalisées pour chaque film, à l’aide du plugin MediaBrowser. Nous expliquerons aussi quels codecs audio/vidéo et autres outils sont nécessaires pour assurer au sein de WMC la lecture de formats comme le MKV, le TS, le FLAC ou l’OGG, et aussi les rips et ISO de DVD, Blu-Ray et HD-DVD. Sans oublier la possibilité d’afficher des sous-titres et de basculer entre les différentes bandes-son du média. Mais avant de pouvoir visualiser son contenu multimédia au sein d’une belle bibliothèque illustrée, il faut passer par une longue étape de classement, de réorganisation et de récupération des métadonnées de vos fichiers. Une opération qui s’effectue à partir de certains logiciels qu’il faut bien maîtriser pour obtenir un résultat parfait.

Ce tutoriel est long à mettre en œuvre mais accessible à tous. Pour vous donner envie et du courage, voici à quoi ressemblent Windows Media Center et la bibliothèque de vidéos de MediaBrowser après toutes ces modifications.

78 Hardware Magazine


DOSSIER windows media center

Les logiciels et outils nécessaires MetaBrowser 2.0 (www.themetabrowser.com, 30 $) : récupère les métadonnées des films et crée les fiches de résumé. MediaBrowser 2.3.2 (http://www.mediabrowser.tv, gratuit) : le plugin juke-box vidéo pour Windows Media Center. Media Control 6.0.8 (http://damienbt.free.fr, gratuit) : permet de changer de piste audio et de sous-titres au sein de MediaBrowser. Media Center Studio (http://adventmediacenter.com, gratuit) : pour personnaliser l’interface de Windows Media Center. TotalMedia Theatre 5 (www.arcsoft.com, 100 $) : permet de lire les disques, ISO et rips de Blu-Ray et HD-DVD. Son codec vidéo peut aussi servir au module TV de Media Center. Checkactivate.dll (http://forum.doom9.org/showthread. php?t=154070, gratuit) : obligatoire pour enregistrer le codec vidéo de TMT5 dans le registre de Windows et l’utiliser. RadLight Filter Manager (http://www.videohelp.com/tools/ RadLight_Filter_Manager, gratuit) : un outil pratique pour enregistrer, supprimer et gérer les filtres/codecs DirectShow de Windows. Win7DSFilterTweaker (http://www.codecguide.com, gratuit) : pour paramétrer les codecs audio/vidéo utilisés dans Windows Media Center. Mediainfo.dll (http://mediainfo.sourceforge.net/fr/Download/ Windows, gratuit) : obligatoire pour que MetaBrowser puisse identifier les métadonnées audio, vidéo et sous-titres de vos vidéos. FFmpeg.exe (http://ffmpeg.zeranoe.com/builds, gratuit) : va servir à capturer des images de vos épisodes de séries TV au sein de MetaBrowser. Daemon Tools Lite ou Virtual Clone Drive (http://www. daemon-tools.cc, www.slysoft.com gratuits) : permettent de monter les images ISO DVD/Blu-Ray/HD-DVD au sein d’un lecteur virtuel.

Windows Media Center est une excellente centrale multimédia dont les capacités sont constamment améliorées. Nous avons sélectionné les meilleurs plugins et utilitaires pour afficher vos films et séries dans un juke-box élégant, lire n’importe quel format de fichiers audio et vidéo, et personnaliser les menus de l’interface. Vous n’avez plus qu’à suivre ce guide de configuration étape par étape.

ffdshow 3972 icl12 (http://www.xvidvideo.ru, gratuit) : pour décoder le h.264, DivX, XviD, MPEG-2, etc., et pour afficher les sous-titres dans Media Center. Haali Media Splitter (www.haali.su/mkv, gratuit) : un splitter pour que Media Center reconnaisse les MKV et à utiliser aussi pour les extensions TS, M2TS. MP3Tag 2.49 (http://www.mp3tag.de/, gratuit) : récupère les métadonnées des CD audio. MadFlac (http://www.digital-digest.com/software/madFlac. html, gratuit) : un splitter pour lire les fichiers audio FLAC. WMP Tag Plus (http://bmproductions.fixnum.org, gratuit) : pour que WMC puisse reconnaître les tags des fichiers audio FLAC et OGG. La plupart de ces logiciels sont donc gratuits et, au final, cela revient au prix de MetaBrowser et de TMT5 (qui reste facultatif si vous ne voulez pas lire les disques, rips et ISO de Blu-Ray/HD-DVD), soit 130 $. Nous avons utilisé une plateforme P67 et testé cette configuration aussi bien avec une carte graphique nVidia qu’ATI (Catalyst 11.8, ForceWare 280.26). Ce guide a été effectué sous Windows Seven Familiale Premium SP1 32 bits, car il laissait plus de possibilités au niveau des choix de codecs lors des tests, mais notre tutoriel fonctionne aussi en 64 bits, avec quelques variantes que nous préciserons au cours de l’article. Notez, d’autre part, qu’il est préférable de partir d’une installation vierge de Windows, afin notamment d’éviter les conflits de codecs audio/vidéo. Il faudra également désactiver l’UAC (User Account Control) et activer l’affichage des fichiers et dossiers cachés dans les Options des dossiers et de recherche de Windows.

Hardware Magazine 79


I : Les logiciels de métadonnées

Les logiciels de métadonnées créent des fiches de résumé qui se présentent de cette manière dans MediaBrowser. Pour afficher parfaitement les épisodes de séries ou les suites de films, il faut aussi bien organiser l’arborescence de répertoires où sont stockées les vidéos.

80 Hardware Magazine

Un logiciel de métadonnées permet de cataloguer votre bibliothèque vidéo, en allant chercher de nombreuses informations pour chaque film, qui vont être enregistrées au sein d’une fiche de résumé exploitable par des centrales multimédias comme Windows Media Center, MediaBrowser, XBMC, ou encore des lecteurs multimédias. Ces programmes vont récupérer des données telles que le résumé du film, son année de production, sa notation, son genre, sa bande-annonce, sa classification MPAA, ses acteurs et son équipe/studio de production, sa jaquette, des fanarts HD (fonds d’écran et diverses captures) et des bannières, ou encore identifier les codecs audio/vidéo et les pistes sous-titres qui sont intégrés au fichier vidéo. Il existe plusieurs applications de métadonnées et, bien sûr, toutes ne se valent pas. Les plus grandes différences se situent au niveau des bases de données Internet sur lesquelles les programmes peuvent télécharger les informations des vidéos (les bases en langue française ne sont pas toujours disponibles par exemple), de la possibilité de récupérer des informations pour les

séries TV et les animés, de la compatibilité des fiches de résumé créées (avec Media Center, MediaBrowser, marques de lecteurs multimédias, XBMC, etc.), des différents types de métadonnées enregistrables (certains ne récupèrent pas le détail des codecs et sous-titres par exemple), ou encore de la capacité à gérer des suites de films (type Seigneur des Anneaux ou Star Wars). Nous en avons essayé un grand nombre et notre choix s’est finalement porté sur MetaBrowser. Le catalogage de sa vidéothèque est une étape qui peut prendre beaucoup de temps, surtout si vous possédez une grande quantité de films et de séries, mieux vaut donc utiliser un programme efficace et MetaBrowser nous a grandement facilité les choses. Il est compatible avec MediaBrowser (et aussi avec le module Films de Media Center, Boxee, XBMC et certains lecteurs multimédias Netgear), il a l’avantage d’exploiter plusieurs bases de données françaises, il gère les séries TV, les suites de films, ainsi que les données audio/vidéo/sous-titres des fichiers. En


dossier windows media center

bref, tout y est. MetaBrowser 2.0 coûte 30 $ pour une licence de 1 an, mais il en vaut vraiment la peine. Si vous souhaitez tester des solutions gratuites, dirigez-vous vers MetaVideoEditor 2.0, Ember Media Manager, Yammm ou Media Center Master (une version gratuite existe mais elle est plus limitée que la Premium).

Répertorier ses films et séries correctement Avant de commencer le catalogage sous MetaBrowser, la première chose à faire est de correctement structurer la manière dont vos films et séries sont stockés. Il faut placer tous les films au sein d’un même répertoire, puis chaque film dans un sous-répertoire individuel. Dans le cas d’une suite de films, chaque partie devra être stockée dans un second sous-répertoire. Cela donne : • D :\Films\Inception\Inception.mkv • D :\Films\Les Indestructibles\Les Indestructibles. ISO • D :\Films\Tron Legacy\ (dans le cas d’un rip de Blu-Ray) BDMV CERTIFICATE • D :\Films\Superman Returns\ (dans le cas d’un rip de DVD)

VIDEO_TS AUDIO_TS • D :\Films\Le Seigneur des Anneaux\ (dans le cas d’une suite de films) Le Seigneur des Anneaux 1\Le seigneur des Anneaux 1.mkv Le Seigneur des Anneaux 2\Le seigneur des Anneaux 2.ISO Le Seigneur des Anneaux 2\ BDMV CERTIFICATE Pour les séries, au même titre que les films, placez-les dans un répertoire unique, puis chaque série au sein d’un sous-répertoire. Il faut ensuite ajouter un second sous-répertoire pour chaque saison. Notez qu’un répertoire Saison est aussi indispensable pour des séries qui ne possèdent pas de saisons (comme Naruto Shippuden par exemple). Il est ensuite nécessaire que soit présent le terme SXXEXX dans le nom de fichier de chaque épisode (S01E01 signifiant saison 1, épisode 1). Cela donne : • D :\Series\Stargate Universe\Saison 01\ S01E01.mkv S01E02\VIDEO_TS (dans le cas d’un épisode de DVD rippé) S01E03\BDMV (dans le cas d’un épisode de Blu-Ray rippé) …

• D :\Series\Stargate Universe\Saison 02\ S02E01.mkv S02E02.mkv … Notez qu’il est impossible de cataloguer des DVD ou des Blu-Ray de séries contenant plusieurs disques par saison et plusieurs épisodes par disque. Il est nécessaire de ripper chaque épisode individuellement (en MKV par exemple, ou en conservant la structure DVD ou BD pour chaque épisode rippé). Il reste, par ailleurs, possible de stocker vos films et séries dans des répertoires différents (qui seraient placés sur des disques durs distincts ou sur divers PC et NAS), nous verrons ensuite comment les combiner dans l’interface de MediaBrowser pour qu’ils s’affichent tous au sein de la même catégorie « Films » ou « -Séries ». En dehors des séries où le nom de fichier de chaque épisode doit au moins avoir le terme SXXEXX, et des rips DVD et Blu-Ray où la structure de répertoires doit être conservée, vous n’avez pas besoin de renommer les fichiers vidéo. Nous verrons que MetaBrowser peut le faire automatiquement si vous le souhaitez. Notez que ces recommandations d’arborescence générales sont valables pour MetaBrowser, mais elles le seront aussi certainement pour d’autres logiciels de métadonnées.

Hardware Magazine 81


II : Configurer MetaBrowser MetaBrowser peut s’utiliser sur n’importe quelle machine de votre réseau et donc pas forcément sur le PC qui contient les vidéos, car il permet d’ajouter à sa bibliothèque des répertoires stockés n’importe où. Vous ne pouvez, en revanche, pas installer le logiciel sur plus de deux postes, ou les prochaines installations invalideront les précédentes. Après installation du programme, il est nécessaire de copier le fichier mediainfo.dll à la racine du répertoire d’installation de MetaBrowser (par défaut, dans C :\Programmes\MetaBrowser 2.0). Cette opération est obligatoire pour que le logiciel soit capable d’identifier les codecs et pistes sous-titres de vos vidéos. Notez qu’il faudra la version 32 bits de ce fichier dll, même si vous êtes sous Windows 64 bits.

Installation des plugins 1 Au premier démarrage de MetaBrowser, le logiciel vous amène vers une fenêtre de téléchargement de plugins (Auto Update). Allez au menu Movies\Available Plugins. Nous allons, tout d’abord, sélectionner les scrapers à installer (aussi appelés fetchers), c’est-àdire les bases de données vers lesquelles le logiciel va aller chercher les informations des films. Dans la catégorie Fetchers, cochez le scraper TMDb qui a l’avantage d’être gratuit et en français. Vous pouvez éventuellement ajouter IMDb.xx (Multi-Language), ainsi que Ciné Passion. Cette dernière base est payante et est enrichie par la communauté de Passion-XBMC.org. Il faut s’inscrire sur le site et

1

82 Hardware Magazine

prendre un abonnement pour utiliser leur scraper (250 récupérations de fiches par semaine pendant un an pour 5 €, recherches simples gratuites). Ensuite, dans la catégorie de plugins Locals & Savers, cochez MediaBrowser et Folder.jpg, indispensables pour que MetaBrowser crée des fiches compatibles avec MediaBrowser. Dans la catégorie Trailers, cochez FilmTrailer et HD-Trailers.net si vous souhaitez télécharger les bandes-annonces des films et pouvoir les visualiser par la suite dans MediaBrowser, à partir des fiches de résumé. Allez ensuite dans le menu TV\Available Plugins, si vous comptez cataloguer vos séries TV. Cochez le scraper TVDb qui est en français et éventuellement IMDb.com. Il ne reste plus qu’à valider le téléchargement de ces plugins et leur installation, en cliquant sur le bouton Update, en bas de la fenêtre Auto Update.

Régler les paramètres 2 Cliquez maintenant sur le bouton Settings de l’interface principale de MetaBrowser. A la ligne Path, du menu Media Location, sélectionnez le ou les répertoires où sont stockées vos vidéos. Pour les rassembler au sein d’un même groupe dans la bibliothèque de MetaBrowser (Films et Séries par exemple), indiquez le même nom dans la case Group, à côté de chaque répertoire ajouté. A la ligne Valid Video Extensions du menu General, si des extensions de fichiers vidéo que vous utilisez ne sont pas listées, ajoutezles manuellement (.VOB, .M2TS, .M2T, .MTS par exemple). A la ligne FFmpeg du menu Misc, entrez le chemin de destination du fichier ffmpeg.exe. Si les fanarts (appelés backdrops dans MetaBrowser et MediaBrowser) de certains films et séries ne sont pas disponibles sur les bases de données, FFmpeg va les créer en capturant directement des images dans les vidéos.

2


dossier windows media center

3 3 Au menu Movies, aux options Images et Trailers, sélectionnez le scraper à utiliser par défaut pour télécharger les jaquettes (posters), les fanarts (backdrops), les photos des acteurs (casts) et la bande-annonce (trailer). Vous pouvez aussi choisir le nombre maximum de jaquettes et de fonds d’écran qui pourront être enregistrés. Au menu Movies\Locals, dans les options de MediaBrowser local (cliquez sur l’engrenage), à l’onglet General, il faut entrer le chemin de destination du répertoire ImagesByName. Ce répertoire va, entre autres, servir à stocker les photos des acteurs. Il doit obligatoirement être placé à la racine de C :\ProgramData\ MediaBrowser sur le HTPC. Mais vous pouvez aussi le créer provisoirement autre part, puis le copier par la suite sur le HTPC, une fois que vous aurez terminé le catalogage de vos vidéos. Entrez donc le chemin de destination du dossier ImagesByName stocké sur votre HTPC (créez-le s’il n’existe pas), ou créez ce répertoire sur le PC où est installé MetaBrowser (voire sur un NAS ou un PC serveur). Au menu Movies\Fetchers, pour chaque scra-

per listé dans la fenêtre Update Fields, appelez ses options et entrez le langage souhaité, ainsi que vos identifiants de connexion dans le cas d’un scraper payant comme Ciné Passion. Aux paramètres Default Fetching Settings, choisissez, pour chaque catégorie d’informations, la base de données qui sera utilisée par défaut lorsque vous lancerez une recherche de film. Cocher la case Fetch runtime using MediaInfo when available permet de récupérer la durée d’un film à partir de mediainfo.dll, et non pas à partir des bases de données. Au menu Movies\Savers, cochez les plugins Folder.jpg saver et MediaBrowser saver que nous avons installés précédemment pour qu’ils soient activés. Pour MediaBrowser saver, vérifiez dans ses options que le chemin de destination du dossier ImagesByName est correct. Si vous le souhaitez, au menu Movies\Renaming, vous pouvez activer le renommage automatique des fichiers et des répertoires des films, qui sera basé sur les données collectées à partir des bases de données Internet et de MediaInfo.

4 Au menu TV, à la ligne Valide Seasons, si elle n’est pas listée, ajoutez la dénomination que vous utilisez pour les répertoires des saisons. Le terme français Saison n’est pas indiqué par exemple, il ne sera donc pas reconnu par la bibliothèque de MetaBrowser, il faut l’ajouter manuellement. Cochez éventuellement la case Enable Season Banners, si vous comptez utiliser les bannières pour illustrer les saisons dans MediaBrowser. Ensuite, aux options Images, vérifiez que la case Extract episode images if none are found est cochée. Cela permet à MetaBrowser d’extraire des photos directement dans la vidéo, pour illustrer chaque épisode dans la fiche de résumé. Définissez ensuite le scraper par défaut pour les jaquettes, les fanarts et les photos des acteurs, dans ce panneau de paramètres. Au menu TV\Locals, vérifiez que le chemin de destination du dossier ImagesByName est correct. Au menu TV\Fetchers, sélectionnez le langage dans les options du scraper TVDb, à la fenêtre Update Fields. Au menu TV\Savers, cochez le plugin MediaBrowser saver afin de l’activer, puis vérifiez que le chemin de destination du dossier ImagesByName est correct dans ses options. Si vous le souhaitez, au menu TV\Renaming, vous pouvez activer le renommage automatique des fichiers épisodes.

MetaBrowser est dorénavant bien configuré, validez ces changements. Cliquez ensuite sur le bouton Refresh dans l’interface principale de MetaBrowser, pour que le logiciel construise sa bibliothèque en fonction des répertoires de films et de séries que vous avez définis (la liste apparaît alors dans la fenêtre MediaCollection). Nous n’avons pas détaillé toutes les options de MetaBrowser, certaines sont explicites, prenez le temps de jouer avec les autres, elles peuvent aussi être utiles.

Création des fiches de résumé 5 Le plus long reste maintenant à faire, c’està-dire récupérer les données pour chaque film et série. Avant toute chose, pour chaque suite de film, faites un clic droit sur le répertoire principal du film dans la fenêtre Media Collection, puis sélectionnez Treat Folder as Movie. MetaBrowser saura ainsi qu’il s’agit d’un répertoire dans lequel plusieurs films sont présents.

4

6 Il est possible d’automatiser les opérations de recherche de l’intégralité de la vidéothèque, en cliquant sur le bouton Process All, de l’interface principale de MetaBrowser. A son onglet Settings, cochez les données que vous souhaitez récupérer pour chaque catégorie (Movies, Series, Seasons, Episodes). A l’onglet Process List, choisissez le scraper par défaut pour les films et les séries TV, puis cliquez sur le bouton Generate List pour lancer la recherche. Vérifiez ensuite à la colonne Result que le nom du film trouvé sur la base de données correspond bien. Si ce n’est pas le cas, cliquez sur la flèche bleue dans la colonne Search Title pour lancer une recherche manuelle. Pour sauvegarder les fiches de résumé et lancer le téléchargement

Hardware Magazine 83


5

des éléments, sélectionnez tous les films en les cochant, puis cliquez sur le bouton Process. Si tout a bien fonctionné, dans chaque répertoire de film, un fichier mymovie.xml a été créé, ainsi que les images folder.jpg (jaquette) et plusieurs backdrops. jpg (fonds d’écran). Et dans les répertoires contenant plusieurs films, c’est le fichier folder.xml qui a été créé à sa racine, en plus des images. Cette recherche automatique a l’avantage de vous faire gagner du temps, mais vous ne pouvez pas sélectionner les backdrops, posters et bannières qui sont téléchargés. Peut-être souhaitez-vous les choisir vous-même, notamment pour enregistrer des jaquettes françaises si elles sont disponibles, ou ne stocker que des fonds d’écran en 1 920 par 1 080. Dans ce cas, mieux vaut faire une recherche manuelle sur chaque film, ou alors éditer les fiches une par une, après avoir effectué la recherche globale. Pour les recherches manuelles, sélectionnez simplement le film dans Media Collection, puis appuyez

sur le bouton Fetch (choisissez éventuellement la base de données sur laquelle vous souhaitez lancer la recherche, en cliquant sur un des boutons de Fetchers, à côté de Process All). Dans la fenêtre apparue, sélectionnez le titre correspondant à votre film, puis validez. 7 Pour chaque film, vous remarquerez plusieurs onglets récapitulant ses métadonnées (Information, Backdrops, Cast, Crew, Genres, Studio, etc.). Tous doivent être activés (et donc cochés en haut de leur fenêtre), pour que ces informations soient enregistrées dans le répertoire du film et le fichier xml. Vérifiez que tout vous convient, ajoutez des infos manuellement si besoin et utilisez les éventuels boutons associés à chaque onglet et dans la fenêtre Poster, pour récupérer d’autres jaquettes, fonds d’écran, extraire des images de la vidéo ou lancer le téléchargement d’une bande-annonce. Cliquez enfin sur le bouton Save pour valider les modifications et mettre les fiches à jour.

Afficher les photos des acteurs 8 Que le dossier ImagesByName ait été placé directement dans le répertoire C :\ProgramData\MediaBrowser du HTPC ou sur un autre PC, il est indispensable de déplacer tous les répertoires de nom des acteurs dans un sousrépertoire nommé People, sinon MediaBrowser ne les reconnaîtra pas. Et si le dossier ImagesByName n’est pas stocké sur le HTPC, copiez-le au bon endroit.

6

Cela donne : C :\ProgramData\MediaBrowser\ImagesByName\People\ Angelina Jolie\folder.jpg Christopher Walken\folder.jpg Keanu Reeves\folder.jpg

7

84 Hardware Magazine


dossier windows media center

8

III : Configuration de MediaBrowser Votre vidéothèque étant dorénavant bien structurée et complétée avec des fiches et images, il faut maintenant l’intégrer dans MediaBrowser. Nous avons choisi ce plugin à la place du module Films de Windows Media Center, car il donne accès à bien plus d’options de personnalisation de l’interface, ce qui laisse les goûts et les couleurs de chacun s’exprimer. 1 Après installation de MediaBrowser, la fenêtre de configuration se lance. La première étape est de donner le chemin de destination des répertoires contenant vos films et séries. A l’onglet Media, appuyez sur le bouton Add et entrez le chemin de destination du répertoire contenant vos vidéos. Répétez l’opération si vous utilisez plusieurs répertoires (pour films et séries par exemple). Grâce au bouton Rename, vous pouvez choisir les noms sous lesquels

1

2 chaque répertoire sera affiché dans l’interface de MediaBrowser. Afin de combiner plusieurs répertoires de vidéos en un seul, utilisez le bouton Add à droite, qui devient disponible après avoir sélectionné un des noms dans la fenêtre Media Collection, puis ajoutez le chemin de destination de ce second répertoire. A l’aide du bouton Change…, vous pouvez ensuite attribuer l’image qui illustrera chaque répertoire principal dans MediaBrowser. 2 A l’onglet Plug-ins, cliquez sur le bouton More Plug-ins… . Dans la catégorie Other, installez le plugin MediaInfoProvider, indispensable pour exploiter les données de MediaInfo. Dans la catégorie Themes, installez, si vous le souhaitez, d’autres thèmes d’interface pour MediaBrowser (certains sont payants avec une version d’essai de 15 jours). De retour aux

3 options principales de l’onglet Plug-ins, appelez les options de MediaInfoProvider en cliquant sur le bouton Configure, puis cochez la case Allow Rips, ce qui permet au plugin d’analyser aussi les rips de DVD et Blu-Ray. 3 A l’onglet Display/playback, vous comprendrez la plupart des paramètres. Activez/désactivez-en quelques-uns selon vos envies, puis cochez la case Auto Enter Single Folder Items. Cette option permet, dans le cas d’une série ne possédant qu’une saison, de rentrer directement dans le répertoire des épisodes, au sein de l’interface de MediaBrowser et d’éviter un écran supplémentaire de sélection. 4 Appuyez maintenant sur Advanced, en haut de la fenêtre de configuration de MediaBrowser, pour faire apparaître les options avancées.

Hardware Magazine 85


A l’onglet Extenders + iso, entrez le chemin de destination de l’exécutable Daemon Tools ou de Virtual Clone Drive, aux paramètres ISO Mounting Settings, sélectionnez la bonne lettre de lecteur virtuel à Drive Letter, puis cochez la case Use Autoplay. Ceci est nécessaire pour que les ISO soient montés et lancés automatiquement.

4

5

du thème, activer le défilement automatique du texte du résumé du film dans les fiches, ou encore définir le temps de rotation entre les backdrops. En bas de ces pages d’options, un bouton MAJ données est présent. Utilisez-le si vous constatez que les fiches de résumé ne sont pas à jour dans la bibliothèque de MediaBrowser, le logiciel actualisera votre vidéothèque.

5 A l’onglet External Player, nous allons spécifier à MediaBrowser d’utiliser TotalMedia Theatre 5 pour lire les médias et rips de DVD, Blu-Ray et HD-DVD. Cliquez sur le bouton Add, choisissez Blu-Ray, validez, puis cliquez sur le bouton Select Player et entrez le chemin de destination de l’exécutable uMCEPlayer5. exe (par défaut dans C :\Programmes\ArcSoft\TotalMedia Theatre 5\). Cochez ensuite la case Minimize MediaCenter/Show Splash when starting afin que TMT5 puisse se lancer correctement à partir de MediaBrowser. Répétez cette opération en créant la même chose pour les DVD et les HD-DVD.

L’interface de MediaBrowser se divise en un nombre de catégories que vous avez déterminé dans les options, à savoir Films, Séries, Concerts, Documentaires, Sports par exemple. Une fenêtre de visualisation indique aussi les derniers éléments vus ou ajoutés à la bibliothèque. Une fois que vous êtes rentré dans une catégorie, la mise en pages des jaquettes et la présentation utilisent la vue par défaut du thème. Pour la modifier, cliquez sur l’option Vue. Vous pouvez également classer les films par genre ou par nom, ou encore activer les bannières.

Intégration dans Media Center

Les thèmes MediaBrowser

Par défaut, le plugin MediaBrowser s’ajoute dans le menu principal de Windows Media Center. A son premier lancement, il vous demande de régler quelques paramètres, veillez à bien désactiver les fournisseurs de données Internet, afin qu’ils n’interfèrent pas avec les fiches de résumé créées avec MetaBrowser. Il faut encore régler quelques options qui sont accessibles en cliquant sur l’icône de clé à molette. Aux paramètres Options des Médias, décochez les options Autoriser les sous-dossiers dans un film (pour que les suites de films soient bien affichées) et Traiter plusieurs fichiers comme un film unique. Aux paramètres Thèmes, vous pouvez définir notamment la couleur de fond

7 MediaBrowser propose une quinzaine de thèmes à télécharger à partir de son outil de configuration et l’onglet Plug-ins. Certains, comme Chocolate ou Subdued, sont esthétiques et gratuits mais la plupart sont payants (entre 5 et 10 $). Installez et testez-les pour en choisir un qui vous convient. Chaque thème dispose de ses propres paramètres, accessibles à partir des options générales de MediaBrowser. Ces thèmes ne se valent pas en termes de qualité d’affichage des jaquettes. Certains sont plus doués que d’autres, ils peuvent aussi demander plus de ressources processeur selon la vue choisie. Une vue de type Poster, où un grand nombre de jaquettes sont alignées sur une même page, est par exemple assez exigeante, surtout si les jaquettes sont affichées avec une bonne qualité. Si vous possédez un CPU de type Atom, le défilement des jaquettes risque de ne pas être fluide. A vous donc de choisir un thème et une vue qui s’adaptent bien à la puissance de votre machine.

6

MediaBrowser en français

6

86 Hardware Magazine

Afin de passer l’interface de MediaBrowser en français, vous avez deux possibilités. Soit vous éditez vous-même le fichier strings-en. xml placé dans le répertoire C :\ProgramData\ MediaBrowser\Localization, en l’ouvrant avec Notepad et en traduisant chaque entrée placée entre les termes <tags>xxxxxx<tags>, soit vous téléchargez un fichier déjà créé sur le forum de MediaBrowser. Dans les deux cas, il faudra enregistrer le fichier sous le nom strings-fr.xml, en laissant le strings-en.xml pré-


Cadeau exceptionnel 2 ventilateurs 140mm

Noctua NF-P14 d’une valeur de 50 € !

24 numéros + 2 NOCTUA NF-P14

Fidèle héritier du ventilateur à succès NF-P12, le NF-P14 est un modèle 140mm de grande qualité bénéficiant d’encoches Vortex-Control qui assurent un silence exceptionnel ainsi que des performances aérodynamiques étonnantes. Les renforts métalliques, la technologie SCD2 et le roulement haut de gamme SSO-Bearing sont quant à eux les garants d’un fonctionnement tout en douceur et d’une stabilité sur le long terme. En respectant l’écartement des trous de fixation des ventilateurs 120mm traditionnels et en améliorant le ratio flux d’air/bruit, le NFP14 est tout désigné pour remplacer vos ventilateurs de CPU 120mm ou ceux de votre boîtier !

bon de commande

Oui ! je m’abonne à Hardware Magazine pour 12 numéros et PC Update pour 12 Numéros au prix spécial de 130 € J’ai bien noté que je recevrai mes ventilateurs sous 30 à 45 jours. Pour les frais de port hors France, merci d’écrire à Axiome pour une cotation.

Nom

Prénom

Adresse Code Postal Date de Naissance

Ville

Pays Email

Paiement par : par chèque à l’ordre de Axiome par carte bancaire Nom du titulaire de la carte N°

abonnement

Dans la limite des stocks disponibles

Date d’expiration

Veuillez indiquer le code à trois chiffres figurant au dos de votre carte Signature du titulaire de la carte :

Date :

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante :

Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE

En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant. Offre dans la limite des stocks disponibles


24 numéros bon de commande Nom

Prénom

Adresse Code Postal

Ville

Pays

Date de Naissance

1

Email

Paiement classique Oui ! je m’abonne à Hardware Magazine pour 12 numéros et PC Update pour 12 Numéros au prix spécial de 120 € Rajouter 24 € de frais de port CEE (reste du monde 40 €)

Paiement par : par chèque à l’ordre de Axiome Nom du titulaire de la carte par carte bancaire N°

Date d’expiration

Veuillez indiquer le code à trois chiffres figurant au dos de votre carte Signature du titulaire de la carte :

2

Date :

Paiements trimestriels Oui ! je m’abonne à Hardware Magazine pour 12 numéros et PC Update pour 12 Numéros au prix spécial de 15 € par trimestre.

abonnement

Abonnement

Soit une économie de 21.6 euros ! Le paiement s’effectuera en 8 prélèvements, un par trimestre. Votre abonnement sera ensuite renouvellé par trimestre et résiliable à tout moment. Autorisation de prélèvement automatique (N°national d’émetteur : 528906) J’autorise Axiome à prélever tous les 3 mois la somme de 15 € pour un minimum de deux ans à compter du Code banque

Code établissement

N° de compte

Clé RIB

Nom et prénom, adresse du titulaire du compte si différents de l’abonné

/

/2011

Il est indispensable de joindre votre relevé d’identité bancaire ou postal

Signature du titulaire du compte (obligatoire) Nom adresse, Code postal, Ville de votre banque où se feront les prélèvements Date (obligatoire)

En cas de paiement par carte bancaire, vous pouvez aussi envoyer un fax au 04 93 79 31 56 Bulletin d’abonnement à retourner à l’adresse suivante : Axiome Abonnement Presse, l’Engarvin, 06390 COARAZE En application de la loi informatique et libertés du 6 janvier 1978, vous disposez d’un droit d’accès et de rectification aux données vous concernant.


dossier windows media center

7 sent par défaut et correspondant à l’anglais. Ce fichier strings.xml sera aussi à créer si vous utilisez d’autres thèmes. Il faudra alors le baptiser avec le nom du thème, par exemple Chocolate-strings-fr.xml, et le placer à la racine du répertoire Localization.

Modifier les icônes MediaInfo Par défaut, les icônes utilisées pour illustrer les données de codecs et de type de médias sont assez jolies, mais vous pouvez les modifier. Et vous avez la possibilité d’appliquer ces icônes pour tous les thèmes de MediaBrowser,

ou pour un thème en particulier (quand il le supporte, ce qui n’est pas toujours le cas). Ces images icônes au format PNG doivent se placer dans un répertoire nommé MediaInfo à créer à la racine du dossier ImagesByName (qui est donc par défaut dans C :\ProgramData\MediaBrowser). S’il n’existe pas de répertoire MediaInfo à cet emplacement, MediaBrowser utilisera les icônes par

défaut pour tous les thèmes. Si un sousrépertoire est créé pour chaque thème (C :\ ProgramData\MediaBrowser\ImagesByName\ MediaInfo\Chocolate\ par exemple), chaque thème utilisera les icônes qui sont placées dans ce répertoire. Si un sous-répertoire All est créé à la racine de MediaInfo (C :\ProgramData\MediaBrowser\ImagesByName\MediaInfo\ All\), les icônes placées dans ce dossier seront utilisées pour tous les thèmes. Créez donc l’arborescence de répertoires adéquats selon ce que vous voulez faire et les thèmes que vous utilisez, puis copiez les icônes MediaInfo à la racine du répertoire All ou de celui d’un thème. Vous trouverez, entre autres, de belles icônes en couleur à cet endroit : http://community. mediabrowser.tv/permalinks/2958/colouredmediainfo-logos.

IV : Configurer les codecs pour la vidéo 1 Nous allons utiliser le célèbre ffdshow pour décoder tous les formats vidéo et audio, et Haali Media Splitter pour que les MKV et d’autres extensions de fichiers comme le .TS soient reconnus. Avec ffdshow, vous aurez de plus le choix de décoder le h.264 et le VC-1 de manière logicielle, ou de manière matérielle, à l’aide de la carte graphique, ce qui sera indispensable si votre processeur n’est pas assez puissant pour lire les vidéos HD. Installez donc Haali Media Splitter et lors des étapes, cochez bien Enable AVI support et Enable MPEG-PS support, ainsi que la case Associate .mkv and mka. files with Windows Media Player. Installez ensuite ffdshow (version 64 bits si vous êtes sous Windows 64), cochez le décodeur DXVA aux étapes d’installation, si besoin, et lancez la configuration des décodeurs audio, vidéo, voire DXVA. Aux options ffdshow video, à la ligne Codecs, activez les décodeurs qui ne le sont pas en choisissant libavcodec (notamment pour le

Sur le dessus, les icônes MediaInfo de base, en couleur en dessous.

1

Hardware Magazine 89


titres, qu’elles soient externes ou internes au fichier vidéo. Vérifiez que les options Soustitres embarqués et Fichiers de sous-titres sont activées, cochez également le paramètre Give embedeed priority over subtitle files si vous préférez que ffdshow charge les sous-titres intégrés à une vidéo, plutôt que les externes. Si vous utilisez ffdshow DXVA, cochez H264 et VC1 aux options Hardware acceleration, puis sélectionnez Surface Overlay à la ligne Post processing, pour que les sous-titres puissent être affichés. Dans ffdshow audio, aux paramètres Codecs, activez les décodeurs qui ne le sont pas pour les utiliser. Allez ensuite au menu Mélangeur, activez-le et choisissez le nombre de hautparleurs. Cochez également la case Activer au menu Sélecteur de flux. Si vous souhaitez envoyer les bandes-son en bitstream vers un ampli, à partir des connectiques HDMI ou S/PDIF, allez au menu Sortie et cochez les formats audio aux paramètres Pass-through. Cochez aussi le format d’échantillonnage 24 bits pour qu’il soit pris en charge. Vérifiez maintenant que les formats vidéo .TS, .MKV ou encore .M2TS se lancent avec Windows Media Player en double cliquant dessus. Si ce n’est pas le cas, forcez ces extensions à s’ouvrir automatiquement avec le lecteur.

1 MPEG-1 et le MPEG-2). Si vous comptez utiliser ffdshow DXVA pour le h.264 et le VC-1, il faudra désactiver les deux codecs dans les paramètres ffdshow video. Cochez ensuite le traitement Désentrelacement et choisissez le filtre Yet Another DeInterlacing Filter (yadif) qui est un des plus performants. Cela permet à ffdshow de désentrelacer la vidéo si besoin. Cochez ensuite le traitement Soustitres afin que ffdshow affiche les pistes sous-

1

90 Hardware Magazine

Win7DSFilterTweaker 2 De base, Windows Media Center exploite le lecteur Windows Media Player et empêche l’usage de décodeurs autres que ceux de Microsoft. Il va donc falloir modifier les choses à l’aide de Win7DSFilterTweaker. Lancez le programme et allez aux options Prefered codecs. Ici, sélectionnez ffdshow


dossier windows media center

2 pour tous les formats vidéo et audio (éventuellement ffdshow DXVA), puis cliquez sur Save and Close. Aux options Tweak, cochez toutes les cases afin de désactiver MediaFoundation et les décodeurs Microsoft. Aux paramètres MediaFoundation, cochez toutes les extensions de fichiers également. Avec cette configuration de codec, le module TV de Media Center ne fonctionne plus car le codec MPEG-2 de Microsoft est désactivé

3 et parce que ffdshow ne marche pas pour la réception TV. Pour pallier ce problème, la solution est d’enregistrer le codec vidéo de TMT5 dans les filtres DirectShow de Windows (il ne l’est pas par défaut). Un bon outil pour ce faire, et qui permet au passage de visualiser tous les codecs installés sur la machine, est RadLight Filter Manager qui est gratuit. Mais le codec ArcSoft ne s’e registre pas sans bidouille. Placez donc le fichier checkactivate.dll dans le répertoire C :\ Programmes\ArcSoft\ TotalMedia Theatre 5\ Codec. Lancez ensuite le logiciel RadLight, cliquez sur le bouton Register, puis allez chercher le fichier ASVid.ax (qui est dans C :\Programmes\ ArcSoft\TotalMedia Theatre 5\Codec). Voilà, le codec ArcSoft est activé et le module TV de Media Center fonctionne à nouveau.

Sélectionner les pistes audio et sous-titres à la lecture

2

3 Si vous lancez un film avec plusieurs bandesson et sous-titres, vous ne pouvez pas choisir ces pistes dans Media Center et vous êtes obligé de sortir du plein écran et de passer par l’icône de Haali Media Splitter

3 Au lancement du film dans Media Center, un pop-up Media Control vous propose de sélectionner la piste son et sous-titres.

dans la barre des tâches, ce qui n’est pas très pratique. Mais grâce à l’outil Media Control, cette sélection va pouvoir se faire directement au lancement du film. Lors de son installation, on vous demandera si vous voulez que le plugin s’affiche dans plusieurs menus de Media Center. A vous de voir, mais ce n’est pas nécessaire. Lorsque vous arrivez sur la page de paramètres de Media Control, la seule chose à faire est d’aller à l’onglet ffdshow configuration, puis de cliquer sur le bouton Apply recommanded configuration. Dorénavant, quand vous lancerez une vidéo dans Media Center, un pop-up apparaîtra pour vous permettre le basculement de pistes audio et sous-titres. Media Control possède d’autres capacités avec lesquelles vous pouvez jouer. Notamment le changement automatique de fréquence de rafraîchissement de l’écran en fonction de la cadence de la vidéo, ou encore la personnalisation des boutons d’une télécommande Media Center. A partir des touches de couleur de la télécommande Media Center (bleu, jaune, vert et rouge), il est par ailleurs possible d’accéder à plusieurs fonctions de Media Control, et notamment d’appeler les paramètres de ffdshow afin d’appliquer un de ses filtres de traitement d’image, comme l’amélioration des bords ou le redimensionnement. Et à l’onglet Remote controle & keyboard des paramètres de configuration Media Control, vous pouvez déterminer les vitesses de défilement de la vidéo lorsque vous pressez les touches d’avance et de retour rapides de la télécommande.

Hardware Magazine 91


V : Construire et lire son audiothèque Au même titre que les films, pour que votre audiothèque s’affiche impeccablement dans Media Center, il faut passer par une étape de réorganisation et de récupération de métadonnées de vos albums, si vous ne l’aviez pas fait petit à petit jusque-là. Idéalement, il faut stocker vos musiques au sein d’un même répertoire général, créer un sous-répertoire par artiste, puis un second sousrépertoire pour chaque album de l’artiste. Cela donne : • D :\Musiques\ACDC\ Back in Black\titre 1.mp3, titre 2.mp3… Highway to hell\titre 1.mp3, titre 2.mp3… Afin de récupérer les métadonnées (album, artiste, année, interprète, genre, jaquette, etc.), un des meilleurs logiciels gratuits est MP3Tag. La place nous manque pour nous étendre sur ce programme, mais nul doute qu’en passant un peu de temps à le prendre en main, vous arriverez à le maîtriser. Il existe plusieurs types de tags, chaque format de fichiers ne supportant pas toujours les mêmes. Voici la liste des formats les plus courants et, pour chacun, le meilleur type de tags qu’il supporte : MP3 : ID3v2 WMA : WMA Tag AAC : ID3v2 MP4 : iTunes Metadata OGG : Vorbis Comments FLAC : Vorbis Comments Ces formats de tags ne sont pas tous égaux, certains proposant beaucoup plus de champs à remplir que d’autres. La liste que nous avons

dictée juste au-dessus est prise en charge par chacun d’entre eux. Précisons que Media Player 12 qui anime Media Center dans Windows 7 ne prend pas en charge les formats OGG et FLAC. Grâce à ffdshow et Haali Media Splitter, le format OGG pourra, cela dit, être lu. Mais pour que WMC puisse lire le FLAC, un splitter supplémentaire est requis. Installez donc les filtres Madflac en décompressant le fichier RAR et en exécutant install.bat. Il faudra également installer les filtres et décodeurs adéquats si vous souhaitez lire des formats audio plus exotiques. De base, WMC (et donc WMP) ne reconnaît pas

les tags FLAC et OGG. Il faut, pour cela, installer l’outil WMP Tag Plus, une autre solution est le plugin situé à cette adresse : www.softpointer.com/ WMPTagSupport.htm. Ensuite, il est nécessaire de lancer un fichier FLAC et un fichier OGG dans WMP et de forcer leur ouverture automatique avec ce lecteur. Ainsi, ces formats vont être reconnus dans la bibliothèque musicale de Media Center. Le module Musique de WMC peut suffire, mais si vous souhaitez tester des alternatives, jetez un oeil au plugin Music Support de MediaBrowser ou encore à Music Browser (http://musicbrowser.free.fr).

VI : Personnaliser l’interface de WMC 1

92 Hardware Magazine

Vous souhaitez modifier le fond d’écran de Windows Media Center, supprimer des menus ou en ajouter ? Le programme Media Center Studio va nous aider. Cela dit, s’il est complet, cet outil est loin d’être parfait et souffre de bugs. Mais avec un peu de patience et d’insistance, on arrive à ses fins. Il est néanmoins recommandé de créer un point de restauration Windows ou une image clone de votre système au cas où le programme mettrait une grande pagaille dans WMC. L’application dispose

d’une fonction de restauration des paramètres, mais c’est tout de même plus sûr. Il est, par ailleurs, préférable de fermer WMC à chaque fois que vous effectuez des modifications dans Media Center Studio.

Correctif à appliquer Le développement de ce programme ayant été arrêté, depuis les dernières mises à jour de WMC, les modifications de thèmes


dossier windows media center

L’écran d’accueil d’un des thèmes de MediaBrowser.

éléments sélectionnés dans l’interface de WMC. Les Light Blue correspondent aux éléments non sélectionnés de l’interface et le résumé du Guide TV. Il faudra donc faire des tests pour identifier la correspondance de chaque couleur. Et pour modifier la couleur en question, utilisez les curseurs à droite, ainsi que l’option de transparence Alpha. Aux options Images, ce sont les fonds d’écran et toutes les autres images de l’interface qui peuvent être modifiés. Afin de changer le fond d’écran principal de WMC, allez dans Images\Common\ Background\. Aux entrées COMMON.ANIMATED.BACKGROUND.PNG et COMMON. BACKGROUND.PNG, appuyez sur le bouton Browse, puis allez chercher votre image.

effectuées par MCS ne sont plus appliquées correctement et peuvent sauter au bout d’un moment. Pour corriger le problème, une solution est de modifier le fichier StartResources.dll placé dans le répertoire C :\ ProgramData\Microsoft\eHome\Packages\ MCEClientUX\dSM. Renommez-le en .old ou .bak par exemple, créez un nouveau fichier TXT portant le même nom et changez son extension de .txt à .dll. Appelez ensuite les propriétés de ce fichier, cochez la case Lecture seule à l’onglet Général, puis passez à l’onglet Sécurité. Ici, cliquez sur le bouton Avancé, puis sur le bouton Modifier les autorisations, dans la nouvelle fenêtre apparue. Décochez maintenant la case Inclure les autorisations pouvant être héritées du parent de cet objet, puis validez ces modifications. Si vous constatez que WMC plante au lancement après cette modification, essayez de renommer le fichier StartResources.dll que vous avez créé à partir d’un fichier texte en StartResources.txt. D’autre part, après une éventuelle mise à jour de WMC, il se peut qu’un deuxième répertoire dSM-2 soit créé dans C :\ProgramData\ Microsoft\eHome\Packages\MCEClientUX\. Dans ce cas, il faudra refaire la même opération avec le fichier StartResources.dll créé dans ce nouveau dossier.

1

Changer les couleurs, les fonds d’écran et les menus 1 En se plaçant sur l’onglet Home du haut, puis sur l’onglet Themes du bas, commencez par cliquer sur le bouton New pour ajouter votre thème. Un nouvel onglet New theme apparaît, entrez dedans et modifiez éventuellement son nom à la case Name. Aux options Colors à gauche, vous pouvez choisir la couleur des polices du menu de WMC. Les premières couleurs Off White définissent, par exemple, les couleurs des

1

Hardware Magazine 93


Quelques illustrations supplémentaires de MediaBrowser pour le plaisir.

Afin de modifier l’agencement du menu principal de WMC, cliquez sur les deux onglets Start Menu. Vous remarquerez que certains éléments présents ici ne sont pas affichés dans Media Center, c’est normal, il s’agit de raccourcis non disponibles pour la version française. Les choses sont assez intuitives ici. Il suffit de cliquer sur l’icône représentée par un fichier et un crayon pour modifier son appellation. Vous pouvez ensuite bouger des éléments en les sélectionnant, puis en les déplaçant sur les boutons verts « + » qui apparaissent. Pour ajouter une nouvelle ligne/bandeau de menus, cliquez sur le bouton Menu Strip en haut. Pour qu’une ligne n’apparaisse plus dans WMC, décochez simplement sa case à côté de son nom. Pour descendre ou monter la position d’un bandeau, utilisez les flèches qui l’entourent. Pour définir un des boutons comme bouton principal d’un bandeau, cliquez dessus, un cadre apparaît alors autour du bouton. Pour supprimer un bouton, cliquez sur l’icône en croix rouge. Notez qu’il est impossible de déplacer un élément d’origine vers une ligne/bandeau qui n’est pas d’origine. Vous avez également la possibilité d’ajouter des applications à l’interface, pour lancer des jeux par exemple ou un navigateur Internet. Placez-vous sur les deux onglets Start Menu, puis cliquez sur le bouton Application. Dans la fenêtre apparue, baptisez ce raccourci à la ligne Title et entrez le chemin de destination de l’exécutable de l’application à la ligne Path (C :\Program Files\Internet Explorer\iexplore.exe par exemple). Entrez éventuellement des arguments associés au programme à la ligne Arguments et cochez les ressources que réclame l’application. Sélectionnez une des options à la ligne When launched, do the following, si vous voulez que WMC stoppe une lecture en cours, lors du lancement du programme. Choisissez ensuite une touche de télécommande/clavier aux lignes Close the program when these buttons are pressed et Kill the program when these buttons are pressed. Cela permettra de fermer le logiciel et de revenir automatiquement sur l’interface de WMC. Vous pouvez ensuite choisir les images qui illustreront l’application dans WMC, en cliquant sur les boutons Browse. Pour valider, allez à l’onglet Home, puis cliquez sur le bouton Save. Revenez maintenant sur l’onglet Start Menu, le raccourci est apparu en bas dans la liste des Entry points. Déplacez-le où vous voulez dans l’interface Media Center. Une fois vos modifications effectuées, cliquez sur le bouton Save, après avoir sélectionné l’onglet Home. Pour appliquer votre thème à WMC, placez-vous sur les deux onglets Themes, puis cliquez sur le bouton Apply.

94 Hardware Magazine


Châssis PC Aluminium

Super-speed

USB3.0 connecteur 20 broches

www.lian-li.com

PC-TU200B

PC-TU200A

Carte Mère : 13.6" x 15" PCI: 10 slots

• Carte mère: Mini DTX, Mini ITX • Baies disponibles: 1 x 5.25", 4 x 3.5" ( Hot swap), 2 x 2.5" (utilisent 1 x baies 3.5") • Dimensions: 220 x 320 x 360 mm • Coloris: Argent / Noir

Sans ventilateurs Silencieux

PC-90B

PC-V353B

PC-Q25B

• Carte mère: HPTX (13.6" x 15") • Baies disponibles: 2 x 5.25", 6 x 3.5", 6 x 2.5" • Dimensions: 230 x 512 x489 mm • Coloris: Argent / Noir

• Carte mère: M-ATX • Baies disponibles: 1 x 5.25", 2 x 3.5", 2 x 2.5" • Dimensions : 288 x 286 x 397 mm • Coloris: Argent / Noir

• Carte mère: Mini ITX • Baies disponibles: 7 x 3.5" ( 5 x Hot swap), 3 x 2.5" (utilisent 2 x baies 3.5") • Dimensions: 199 x 280 x 366 mm • Coloris: Argent / Noir

410mm

Panneaux en aluminium

• Extérieur noir anodisé & finition intérieure avec revêtement noir • Accepte les cartes graphiques pleine longueur

Option : Panneau latéral avec fenêtre

Super-speed

USB3.0 20-poliger Stecker

PC-K63

Performances thermiques et sonores optimales Système de montage sans outils breveté Conçu pour les Gamers et les professionnels

PC-K9X

www.lancoolpc.com Distributeurs

www.bacata.net

La gamme K est conçue et fabriquée par Lian Li Industrial Co., Ltd. In Taiwan

www.lian-li.com

La Meilleure Qualité

Made in Taiwan


Du port série à thunderbolt Tout ne tient qu’à un fil

De quelques octets par seconde via une prise grosse comme la main jusqu’aux transfer ts sans fil à plusieurs Gbps, la connectique PC a évolué au fil de périphériques de plus en plus gourmands en bande passante. Du port série au Wireless HD, en passant par le génial USB, retour sur 30 ans de prises et périphériques externes. Thomas Olivaux

RETROCOMPUTING 96 Hardware Magazine


Depuis environ 10 ans, grâce à la généralisation de ports de communication à la fois performants (universels, rapides, que l’on peut brancher à chaud, voire sans fil) et parfaitement supportés en natif par les OS (depuis XP), rien de plus simple que de brancher un périphérique et de profiter de débits maximums. Mais trêve de bonheur et confort, l’histoire de la micro est pleine de connectiques externes plus ou moins lentes et véritablement pénibles à utiliser. Des ports plus lents qu’une connexion internet moderne ? Ça a été le lot commun pendant une très large part de la vie du PC. Revivez ces intenses moments de patience et de zénitude avec nous ;)

Un câble série pour brancher un appareil externe tel qu’un modem où un onduleur du temps où l’USB n’existait pas.

Le port série Le tout premier PC porte le nom poétique de 5150. Dans un boîtier desktop beige très robuste, châssis et couvercle tout en métal (pas de doute : le cours du métal était clairement inférieur il y a 30 ans) et façade en plastique (le seul plastique qui n’a pas jauni, allez dire ça aux Atari ST et Amiga plus jeunes de quelques année hauteur) et ultrabruyants sont bel et bieompris au début des années 9 8 ko, celle-ci est lentement testée au point qu’unop exigeant pour pareil hardware, mais il reste possible de chatter sur IRC ou d’échanger des fichiers à distance via FTP ! Le port série est le port de communication externe le plus âgé qui soit. Il trouve sa source avec l’apparition de la norme RS 232 en 1969, pensée pour la télécommunication. Initialement conçu pour la prise DB25 (voir photo), le port série a été utilisé sur de nombreux ordinateurs (PC, Mac, Amiga, Atari…). Sur PC, les premières machines utilisaient la prise DB25, rapidement supplantée par la prise DB9 plus petite conservée par les évolutions plus récentes de la norme. Cette prise à tout faire peut être considérée comme l’ancêtre légitime de l’USB, qui est également un port de type série. Ça signifie qu’un seul flux est utilisé pour l’envoi des données où les bits passent en série, les uns après les autres. Si à l’origine, le port série était à sens unique, des ports bidirectionnels utilisant alors un second fil pour les données dans le sens retour sont vite apparus. De 1 200 bits par seconde (c’est-à-dire 1 ko/s au maximum), le port évolue vers 9 600 bits/s dont héritent les premiers PC. Pendant ce temps, d’autres ordinateurs, comme le Commodore 64, utilisent la connectique série pour brancher un lecteur de

Variante un peu plus rare avec des prises DB25, utilisées principalement dans les années 80.

disquettes externe, véritable luxe à l’époque par rapport aux cassettes, dont on imagine donc la folle vitesse. Dans les années 90, les UARTS (puces d’émission/réception utilisées pour la communication série sur les cartes contrôleurs) culminent à 115 200 bits/s, c’est-à-dire plus de 110 ko/s. Des valeurs bien modestes, mais à l’époque, seules les imprimantes couleur et les solutions de stockage ne peuvent s’en contenter. Le câble Null-Modem, un câble série croisé, relie sur quelques mètres deux ordinateurs pour qu’ils communiquent sans réseau. Les performances ridicules n’empêchent pas certains illustres jeux, comme Doom II ou Heroes of Might and Magic II, de faire profiter du mode multijoueur la très large majorité qui ne peut se payer une carte réseau ! Non seulement les ports sont comptés (il y a, en général, deux ports série par PC, limitant le nombre de périphériques et les cartes ISA coûtent cher) mais en plus, il n’y a aucune gestion du Plug ’n’ Play, ce qui signifie que n’importe quel matériel installé en série doit être détecté après redémarrage et pilote installé… et si vous oubliez d’allumer le modem au démarrage du PC, c’est parti pour un reboot ! Le port série a plus ou moins disparu des PC en l’an 2000, résultat d’une recommandation de la norme PC 99 (code couleur turquoise préconisé si la prise est présente) et du bon sens, les périphériques USB étant alors suffisamment répandus et plus faciles à utiliser pour le grand public. Pourtant, aujourd’hui comme autrefois, quelques gourous savants s’amusent à brancher leur ordinateur en série sur des switchs programmables et autres matériels professionnels

Carte d’extension relativement moderne (fin, des années 90), un contrôleur avec deux ports série (prises DB9).

Principales connectiques externes, par usage (PC exclusivement) Claviers : DIN (1981, disparu à la fin des années 90) > PS/2 (1987, réellement utilisé du milieu des années 90 au milieu des années 2000) > USB (1996, réellement implanté à partir des années 2000) Souris : contrôleurs propriétaires > série > PS/2 > USB Ecrans : MDA/CGA/EGA > VGA > DVI > HDMI ou DisplayPort Disques durs externes : parallèle ou SCSI > USB > USB 2.0 ou eSATA 3 Gb/s > USB 3.0 ou eSATA 6 Gb/s Disquettes externes ou autres médias magnétiques : parallèle ou série ou SCSI >

USB > USB 2.0 Lecteurs/graveurs CD/DVD/BD externes : parallèle ou série ou SCSI > USB ou FireWire > USB 2.0 ou FireWire Imprimantes : parallèle > USB ou réseau Ethernet > USB 2.0 ou Wi-Fi Scanners : contrôleurs propriétaires > parallèle > USB > USB 2.0 Modems externes : série > USB > USB 2.0 Réseaux filaires Ethernet : BNC (sur les PC grand public dans les années 90) > AUI (uniquement utilisé en entreprises au début des années 90) > RJ-45 (années 90 chez les pros, à partir des années 2000 chez les particuliers)

Enceintes/casques/micros (en analogique) : miniJack Enceintes (en numérique) : S/PDIF (coaxial ou optique, du milieu des années 90, encore largement utilisé) > HDMI (courant sur PC depuis 2010) Instruments de musique ou générateurs de sons : MIDI DIN > USB Joysticks/joypads : port jeu > USB Tablettes graphiques : série > USB APN, téléphones, baladeurs et autres gadgets modernes : série > USB > USB 2.0 avec de nombreux connecteurs propriétaires du côté appareil Hardware Magazine 97


RETROCOMPUTING

Les très vieilles souris étaient branchées sur un port série.

pour leur injecter de nouveaux programmes et règles de fonctionnement, des bidouilles qui ne parlent qu’aux administrateurs réseau, le tout encrypté en SSH. Ressemblant au port série en un peu plus grand (voir photo), le port jeu était une prise spécifique aux joysticks sur PC. La carte contrôleur d’abord indépendante a vite été intégrée à la majorité des cartes son dans les années 90. Comme pour les autres connectiques préhistoriques, ce port n’était ni Plug ’n’ Play ni hot-plug, il fallait donc brancher sa manette avant de démarrer le PC. Vive l’USB !

Le port parallèle

Du côté PC, le port parallèle est une prise DB25 identique aux vieux ports série. Ici sur une carte mère d’après 1999, reconnaissable à sa couleur.

Les premiers lecteurs Iomega ZIP (super disquettes de 100, puis 250 Mo) étaient branchés en parallèle.

98 Hardware Magazine

Développé dans les années 70, le port parallèle a été pensé pour les imprimantes. En effet, les premiers modèles capables d’imprimer des graphiques (une imprimante, dans ces temps douillets, sauf à être millionnaire, c’est un petit bloc beige doté d’un ruban et de nombreuses aiguilles toutes très très bruyantes) réclamaient d’importantes quantités de données pour les machines de l’époque (quelques dizaines, voire centaines de kilooctets) et saturaient les connectiques série encore très lentes. Comme son nom l’indique, il transmet les données en parallèle, c’est-à-dire que plusieurs fils font transiter plusieurs bits d’un seul coup ; en l’occurrence, pour le port parallèle, sur les 25 fils possibles du connecteur DB25 utilisé, 8 fils sont consacrés aux données, faisant circuler simultanément 8 bits. Dès le départ, le port parallèle permet des transferts jusqu’à 1,2 Mbps, soit 150 ko/s. A comparer au port série à 2 400 bits par seconde (300 o/s) du moment. Rapidement, l’évolution vers une connectique bidirectionnelle (1987, avec l’IBM PS/2, encore lui !) permet de doubler virtuellement ces débits. Si le port parallèle suffit à alimenter les imprimantes durant de longues années, les disques durs externes réclament une connectique plus performante. Il y a bien le SCSI évoqué plus loin mais c’est une solution coûteuse, les contrôleurs n’étant pas installés en standard dans les PC. La norme parallèle évolue en 1991, par le concours d’Intel, Xircom et Zenith qui créent le standard EPP (Enhanced Parallel Port). Ce dernier atteint jusqu’à 2 Mo/s dans un seul sens (16 Mbps) !

En 1992, Microsoft et HP ajoutent la spécification ECP (Extended Capabilities Port) pour permettre d’améliorer les performances et les capacités des imprimantes. EPP et ECP ont été officialisés en 1994 au sein du standard IEEE 1284. Si ECP n’a pas réellement amélioré les débits depuis EPP, avec l’utilisation d’un système compatible (Windows 95 et plus récent), le port parallèle finit par être compatible Plug ’n’ Play. Un vrai progrès, d’autant qu’avant, la moindre déconnexion du port parallèle pendant l’accès à un périphérique faisait friser votre OS. Croyez-nous, en ce temps-là, on faisait toujours attention à bien serrer les vis de fixation. Côté PC, il utilise la même prise DB25 que les anciens ports série. Côté imprimantes, c’est le port Centronics qui a été adopté par la quasi-totalité des fabricants d’imprimantes, une prise imposante, robuste et sans faux contacts qui tire son nom d’un fabricant américain d’imprimantes disparu. D’autres périphériques externes ont été utilisés en parallèle, comme le lecteur de disquettes Iomega Zip ou les premiers graveurs de CD externes abordables (comprendre moins de 3 000 F/450 € !). Les scanners à plat valant le prix d’un PC complet, on utilisait des petits scanners à main aux résultats catastrophiques et nécessitant un bel entrainement. Il fallait faire défiler le scanner sur le document, bien droit, et sans aller trop vite pour ne pas saturer la machine. Aujourd’hui, la connectique parallèle a totalement disparu au profit de l’USB, plus performant à tout point de vue. Précisons qu’il n’y a jamais eu la moindre compatibilité entre les connectiques série et parallèle, même sur les machines qui ont utilisé un port DB25 pour les deux.

Voici un câble parallèle spécial mais très courant, format DB25 male côté PC et, au premier plan, la fameuse prise Centronics utilisée côté imprimante.

Les prises DIN et PS/2 Lorsqu’IBM sort le PC en 1981, on ne peut guère y brancher qu’un clavier (la souris n’existe pas), une imprimante ou encore le rarissime lecteur de cassettes qui n’a jamais vraiment été utilisé. Le clavier utilise une prise DIN 5 broches. DIN est un organisme de normalisation allemand (Deutsches Institut für Normung) aux nombreuses normes, dont cette prise ronde aux diverses variantes de brochages, pour nous, 5 pins répartis sur un arc de cercle de 180°. Histoire de compliquer les choses, IBM a modifié le brochage entre le PC original et son remplaçant, le PC/XT, les claviers de l’un étant incompatibles avec l’autre ! Si vous êtes fan de ces vieux claviers mécaniques qui cliquettent, le site www.clickykeyboards.com est La prise DIN, d’un peu plus d’1 cm de diamètre, des premiers claviers PC.


Code couleur des prises et connecteurs PC Norme PC 99 :

Couleur

Norme/utilisation

Connectique/prise

Violet

Clavier PS/2

miniDIN 6 pins

Vert

Souris PS/2

miniDIN 6 pins

Noir

USB 1.0 et 2.0

USB type A

Gris

Firewire

Firewire Alpha (6 pins)

Fushia

Parallèle

DB25

Turquoise

Série

DB9 (ou DB25)

Bleu

VGA (analogique)

D15

Blanc

DVI (numérique)

DVI

Jaune

Vidéo ou S-Vidéo

RCA ou miniDIN 4 pins

Vert clair

Sortie son principale

Mini jack 3.5 mm

Noir

Sortie son arrière

Mini jack 3.5 mm

Orange

Sortie son centrale/caisson

Mini jack 3.5 mm

Bleu

Entrée ligne

Mini jack 3.5 mm

Rose

Entrée micro

Mini jack 3.5 mm

Orange

S/PDIF coaxial

RCA

Doré

Port jeu, prise MIDI

D15

Couleur

Norme/utilisation

Connectique/prise

Rouge

eSATA

eSATA

Bleu

USB 3.0

USB type A à 8 contacts

Apparu depuis :

spécialisé dans la récupération, la remise en état et la vente de claviers d’époque, en particulier les célèbres IBM de la série M. Et pour retrouver la sensation sans les inconvénients, certains sont vendus en USB pour les PC les plus modernes ! Si vous en possédez déjà un, il existe des adaptateurs DIN vers PS/2 et PS/2 vers USB, mais à notre connaissance, il n’existe pas de solutions pour brancher un clavier DIN sur USB. Les toutes premières souris au milieu des années 80 utilisent une carte contrôleur propriétaire mais passent rapidement au port série. Mais même une souris n’était pas reconnue de base. Sous DOS et Windows jusqu’à 3.x, un pilote était indispensable pour s’en servir. En 1987, IBM, excédé d’être copié par le monde entier, tente de changer la donne avec sa gamme de PC PS/2. Le port du même nom identique pour le clavier et la souris est néanmoins incompatible l’un avec l’autre, durant des années. Sa petite prise miniDIN à 6 broches (il existe toutefois des adaptateurs DIN vers PS/2 et série vers PS/2) n’apporte aucun bénéfice à l’usage, si bien que les ports DIN et série sont conservés jusqu’à la fin du standard AT, à la fin des années 90. Le PS/2 ne s’impose qu’avec l’ATX pour des raisons de taille. La norme PC 97, apparue… début 1998, introduit la normalisation du port clavier en violet et du port souris en vert, la norme PC 99 achevant le code couleur complet encore en vigueur aujourd’hui (cf. encadré dédié). Dans un cas comme dans l’autre, ces prises ne sont pas utilisables à chaud, il faut redémarrer le PC pour que les claviers et les souris soient détectés. DIN comme miniDIN (PS/2) ont connu le même problème : le branchement en aveugle quasiment impossible. Il y avait bien un détrompeur pour indiquer le sens et si nous sommes beaucoup à avoir tourné la prise dans tous les sens jusqu’à ce que ça rentre… nous sommes aussi nombreux à avoir tordu des pins en le faisant. Snif.

Un contrôleur Fast SCSI, avec sa prise externe.

SCSI SCSI, le saint Graal pour beaucoup de passionnés de hardware durant toutes les années 90. Nous avons déjà parlé du SCSI à maintes reprises dans nos colonnes, évoquant géné- La fin de la chaîne SCSI doit être « terminée », voici ralement la connectique interne pour donc un terminateur au format Centronics SCSI (plus large que le Centronics des imprimantes). brancher des disques durs. Mais la norme SCSI (Small Computer System Interface) a également servi à connecter des périphériques haut de gamme et gourmands, comme des scanners. Apparu en 1986, le SCSI n’est pas une connectique PC mais un bus propriétaire développé par une start-up de l’époque, dont l’un des fondateurs créera plus tard Adaptec. Les Mac d’Apple ont utilisé le SCSI durant des années, avant de céder aux sirènes de l’IDE, à la fin des années 90. D’ailleurs, pour les plus chanceux, être ami avec un graphiste travaillant sur Mac était le moyen assuré de pouvoir récupérer du matériel SCSI à un petit prix car sinon, sur PC, le SCSI se limite aux stations de travail ou serveurs vu la différence de tarif par rapport à l’IDE (contrôleur très abordable, disques durs moins coûteux). Mais le SCSI constitue la seule solution pour qui veut un stockage externe rapide. Il offre un deuxième point fort, la possibilité de chaîner plusieurs périphériques, une première, il sera seulement égalé par l’USB depuis. A sa sortie, le SCSI débite déjà jusqu’à 5 Mo/s, autant que le bus ISA 8 bits des premiers PC à lui seul ! Les câbles pour boîtiers externes (disques durs, lecteurs de bandes…) peuvent mesurer jusqu’à 6 m et utilisent un connecteur Centronics à 50 broches (pas du tout compatibles avec les câbles d’imprimantes, l’informatique n’est jamais simple à cette époque). En 1994, le Fast SCSI offre des débits jusqu’à 10 Mo/s, rapidement remplacé par le Fast Wide SCSI à 20 Mo/s en 1996. Toutes les évolutions qui ont suivi, de l’UltraWide SCSI (40 Mo/s) à l’Ultra-640 SCSI (640 Mo/s), ne concernent que les disques durs en interne (quels bons souvenirs que les premiers disques durs 10 000 tours en 1998 et 15 000 tours en 2000, leur bruit d’avion au décollage, le Raptor peut aller se rhabiller). Si 20 Mo/s suffisaient largement à alimenter les disques durs de l’époque, ainsi que les premiers lecteurs et graveurs de CD à la fin des années 90, c’est désormais trop peu vis-à-vis des performances des périphériques modernes. Parmi les périphériques célèbres, le Jaz d’Iomega (cartouches/disquettes de 1 puis 2 Go) a été commercialisé exclusivement en SCSI. Certes performant, le SCSI n’était pas simple à utiliser. Chaque périphérique avait un numéro d’identification manuel qui devait être différent des autres Exemple d’une souris PS2.

Hardware Magazine 99


USB porte bien son nom, c’est le port universel par excellence. Simple et confortable à utiliser, c’est en plus une connectique performante.

et chaque extrémité de la chaîne devait être « terminée ». D’autre part, le contrôleur SCSI scannant les appareils branchés au démarrage de la machine, il était impossible de démarrer un disque dur externe à chaud pour faire son backup, le reboot était encore et toujours nécessaire. Comme tant d’autres, le SCSI a été « battu » par l’USB.

La révolution USB

Pour brancher plus de deux PC en câble coaxial, un ‘’T’’ prenait place sur la carte réseau et deux câbles partaient vers deux autres PC.

Un adaptateur pour brancher une souris USB sur les cartes mères qui ne possédaient qu’une prise PS2.

100 Hardware Magazine

USB, pour Universal Serial Bus, développé au milieu des années 90 par de nombreux acteurs majeurs dont IBM, Intel et Microsoft, remplace le vieux port série des années 70. La première version officielle d’USB (norme 1.0 de janvier 1996) monte à 12 Mbps, soit 1,5 Mo/s. Ce n’est pas une révolution par rapport au port parallèle, mais le fait qu’il soit possible de chaîner jusqu’à 127 périphériques sur un seul contrôleur USB à chaud suffit à faire basculer la préférence du marché en faveur de cette nouvelle prise de petite dimension et munie d’un détrompeur. Le chipset 430 VX d’Intel pour Pentium de première génération impose l’USB en standard dans les PC, épaulé par une version spéciale de Windows 95 en 1996. En pratique, l’USB s’est imposé avec le format ATX puisqu’il était soudé en standard sur les cartes mères, ce sont donc les générations de PC à partir du Pentium II qui en ont réellement profité. Pour la première fois, il est possible d’utiliser des périphériques, notamment une souris, sans installer manuellement le moindre pilote ! Avant ce duo, 100 % des périphériques nécessitaient d’installer un driver, les OS n’embarquant ni pilotes, ni normes de détection, tandis que les périphériques ne fournissaient aucun moyen d’identification. En fait, il faut bel et bien un pilote, mais l’USB a standardisé l’utilisation de nombreux périphériques désormais identifiés dès le branchement en fonction d’un code de classe (exemple : 07h, c’est forcément une imprimante, E0h, c’est un contrôleur Wi-Fi, etc.) et les OS modernes embarquent donc des pilotes génériques pour les classes courantes, comme les périphériques de stockage ou les claviers/souris. Ça ne suffit pas à utiliser toutes les fonctions d’un produit complexe sans pilote complémentaire, par exemple les touches programmables d’un clavier gamer, mais les caractéristiques de base d’un clavier sont fonctionnelles. Avec l’arrivée de l’ADSL en 2000, une vague de modems USB voit le jour car les 64 ko/s d’une connexion ADSL 512 kbps ne passent pas sur un port série ! Fonctionnant en 5 V, l’USB délivre jusqu’à 500 mA par prise, c’est cinq fois plus qu’un bon vieux port série. C’est suffisant pour alimenter des périphériques basse consommation comme un clavier, mais aussi des périphériques plus conséquents comme des scanners ou des modems. Las, certains chipsets VIA ne fournissent pas assez d’énergie et les modems les plus gourmands, comme la raie manta d’Alcatel fournie par Wanadoo, rebootent tout seuls, l’enfer. En revanche, c’est un peu juste pour un disque dur 2,5’’ rapide (7 200 tours) qui réclame autour de 1 A. L’USB 2.0, introduit fin 2000, connaît des débuts difficiles. Extrêmement rapide (bande passante théorique qui grimpe de 12 à 480 Mbps), il ne sert pas à grand-chose à ses débuts, faute de disques durs externes compatibles. A leur arrivée, il s’impose comme une évidence, permettant des débits pratiques dépassant les 30 Mo/s. Certains constructeurs se ruent dessus, ayons une pensée émue pour la carte mère Abit IT7-Max et ses dix ports USB 2.0

Un cârble USB 3.0, reconnaisable à sa couleur bleu, à l’inscription SS (SuperSpeed) du logo et à la forme spécifique du connecteur type B côté périphérique.

sortie en juin 2002 ! Première carte du marché à supprimer les ports PS/2, série et parallèle, un peu trop radical pour l’époque. Ratifié fin 2008, l’USB 3.0 avec une bande passante accrue à 5 Gbps (dix fois plus rapide que l’USB 2.0) et une alimentation améliorée de 500 à 900 mA change de prise pour la première fois, passant de 4 à 8 fils pour tenir les débits annoncés, mais la rétrocompatibilité est assurée, signifiant qu’un périphérique USB 1.0 ou 2.0 fonctionne sans encombre sur un contrôleur USB 3.0. Bien qu’il équipe de nombreuses cartes mères depuis fin 2009, l’USB 3.0 a du mal à décoller. Les périphériques ne sont réellement apparus que cette année et, surtout, le fait qu’Intel et AMD n’aient toujours pas intégré de contrôleur au sein de leurs chipsets n’accélère pas le mouvement. Enfin, comment parler d’USB sans évoquer la clé USB. Une clé, c’est un peu de mémoire Flash et un contrôleur. Ce duo détermine ses performances qui montent à plus de 100 Mo/s pour les meilleures clés USB 3.0 ! Qu’il semble loin le temps où il fallait un temps fou, à raison de 60 ko/s le vent dans le dos, pour copier sur disquette (débits des disquettes HD divisés par deux sur les disquettes DD !) son jeu favori, en espérant que ces dernières ne se désagrègent pas dans le temps ! Eh oui, la vitesse des disquettes est inférieure aux débits des premières connexions ADSL !

FireWire l’outsider Conçu en 1994 par Apple, FireWire a été présenté et standardisé par l’organisme IEEE (Institute of Electrical and Electronics Engineers) dans sa spécification IEEE 1394, faisant de lui un port universel et non plus spécifique au Macintosh. Conçu avec l’intention de remplacer efficacement le SCSI pour les périphériques externes, il est notamment capable de débits rapides et isochrones, c’est-à-dire stables dans le temps et donc parfaitement adaptés à l’acquisition audio-vidéo, allant jusqu’à 400 Mbps en semi-duplex sur une distance de 4,5 m (il est d’ailleurs possible d’enchaîner jusqu’à 16 câbles en utilisant des répétiteurs de signal). Même

L’USB, surtout depuis USB 2.0, offre une bande passante et une alimentation suffisante pour de très nombreux périphériques comme ce lecteur de cartes mémoires.


L’ExpressBox 3T de Magma, l’exemple d’un boîtier externe avec 3 slots PCI-E 2.0 à brancher sur un PC, fixe ou portable, en Thunderbolt.

La clé USB, 1 000x plus rapide qu’une disquette, 10 000x plus de capacité.

l’USB 2.0, sorti 5 ans plus tard, est un peu moins rapide malgré un débit théorique de 480 Mbps. Mais pour intégrer cette connectique, il faut un contrôleur vendu presque 2 $, sans oublier la royaltie de 0,25 $ aux investisseurs du projet 1394, interdisant la présence de FireWire dans les PC d’entrée de gamme. Certes, entre 1995 et 2000, le FireWire intéresse toute personne désireuse d’un stockage externe performant, les débits de l’USB 1.0 n’étant pas suffisants, mais beaucoup d’utilisateurs PC aisés sont déjà équipés en SCSI, dont le débit maximum pour un périphérique externe de 20 Mo/s suffit aux disques durs de cette époque. La connectique FireWire est surtout devenue le standard de transfert sur les caméscopes DV. En 2002, la norme 1394b augmente les débits mais le connecteur Bêta du FireWire 800 est incompatible avec la prise Alpha des matériels déjà existants, c’est un échec commercial total. Sur PC, seul Gigabyte a produit en 2002 des cartes mères FireWire 800 avant d’abandonner. La norme 1394b prévoyait des évolutions jusqu’à 3,2 Gb/s, mais aucun produit n’a finalement atteint le stade de la vente.

Côté réseau Du BNC au RJ-45 Que ceux qui ont connu le réseau BNC lèvent la main ! C’est ainsi que nous reconnaissons les pionniers du PC qui fonctionnaient déjà en réseau dans les années 80… et surtout les joueurs dans le besoin qui ont profité du faible coût des cartes compatibles NE2000 au milieu des années 90, pour s’offrir leurs premières parties de Duke Nukem ou Warcraft, quand les cartes RJ-45 étaient hors de prix. Ces clones de la véritable Novell NE2000 (qui fut une petite révolution en entreprises en devenant la carte réseau Ethernet 10 Mbps abordable à la fin des années 80) ont été le point de départ du réseau pour bon nombre d’entre nous, à une époque où aucune carte mère n’embarquait une carte réseau. En 1997, une carte « no name » 10 Mbps compatible NE2000 coûtait moins de 200 F (30 €), tandis qu’une carte 100 Mbps RJ-45 coûtait au moins 600 F (90 €), sans oublier le coût du hub. En BNC (câble coaxial), pas besoin de hub ou de switch ! Tous les PC sont chaînés les uns aux autres. Un simple câble entre deux machines, un adaptateur en T à partir de trois. Le réseau devait être terminé à chaque bout, c’est-à-dire que les sorties inutilisées des connecteurs en T devaient être capuchonnées par un bouchon spécial dit terminateur. Si le PC A voulait communiquer avec le PC C, le PC B entre les deux devait être obligatoirement allumé pour que le signal transite, même si personne ne s’en servait ! Mais le plus infect n’a rien à voir avec le BNC ou le RJ-45, c’était surtout les heures passées à configurer la couche réseau sous DOS, à se battre à coups de protocoles IPX/SPX

Une illustre Novell NE2000, carte réseau de référence durant les 90s. Ce modèle, haut de gamme, proposait à la fois une prise BNC et RJ-45.

et autres NetBEUI mal connus du grand public pour quelques rares jeux compatibles, le TCP-IP n’étant alors utilisé que pour le Web balbutiant. En règle générale, un week-end réseau entre potes entamé le vendredi après les cours ne permettait réellement de jouer que du samedi soir au dimanche… mais quel bonheur ! En ce temps-là, pour diagnostiquer un problème de câblage, point de BIOS ou d’utilitaires qui vérifient l’état des fils un par un entre deux PC, il fallait s’offrir un appareil de diagnostic qui valait rapidement 200 ou 300 F. En plus des jeux, c’était l’occasion d’échanger des données d’un PC à l’autre. La norme avait beau s’appeler 10 Mbps (théoriquement un maximum de 1,2 Mo/s), les transferts ne dépassaient jamais quelques dizaines de ko/s, tout au mieux 200 ko/s, la faute à une couche réseau DOS ou Windows 3.11 exécrable. Le câble coaxial et la prise BNC (Bayonet Neill-Concelman) ont été remplacés par l’AUI (première prise conçue pour un réseau Ethernet en étoile, jamais utilisée par le grand public) puis le RJ-45. Depuis, bien qu’il existe des solutions plus avancées comme la fibre, le réseau grand public n’a jamais abandonné le RJ-45, passant de 10 à 100, puis 1 000 Mbps. Et, bonne nouvelle, les premières cartes 10 Gbps utilisant du câble de cuivre avec prises RJ-45 sont en vente, ce qui garantit une évolution en douceur, bien que le câble catégorie 6 soit un minimum requis pour cette vitesse extrême.

Et demain ?

Sans parler des connectiques spécifiques à l’image et au son, l’USB possède aujourd’hui quasiment tout le marché des périphériques externes. Il existe encore quelques produits FireWire, ainsi que des boîtiers eSATA, mais la majorité d’entre eux embarquent malgré tout une prise USB. Si l’on peut raisonnablement penser que l’USB 3T.0 va s’imposer, difficile d’imaginer la suite. La seule connectique suffisamment avancée et plus performante que l’USB 3.0 est Thunderbolt d’Intel et son séduisant 10 Gbps, le double d’USB 3.0. Y transitent des signaux de nombreux types, y compris vidéo et audio sans les modifier (capable de remplacer un port DVI Dual Link par exemple). Le véritable but de Thunderbolt est d’offrir un câble unique pour relier deux périphériques avec une connexion graphique DisplayPort et une connexion de données PCI-Express, tout en supprimant le besoin d’alimentation électrique externe. Il est encore trop tôt pour connaître les réels débouchés de cette connectique, mais quelques ordinateurs portables sont déjà vendus avec une prise Thunderbolt. Quelques boîtiers externes voient déjà le jour, à brancher en Thunderbolt, proposant jusque 3 slots PCI-Express (dans le cas de l’ExpressBox 3T de Magma) pour y installer des cartes standard. Le rêve pour étendre les capacités d’un ordinateur portable ? La bande passante étant a suffisante pour une carte graphique, certainement. Evidemment, le sans-fil est sans conteste l’avenir pour les besoins moins gourmands, y compris la vidéo Le câble réseau HD. Mais le câble restera toujours BNC avec sa prise en baïonnette. l’ami des gens pressés !

Hardware Magazine 101


Sélection Software Manuel da Costa

Corel VideoStudio Pro X4 Complet, simple à prendre en main et peu gourmand en ressources, Corel VideoStudio Pro X4 est un logiciel de montage vidéo qui dispose d’une interface classique mais efficace. Les trois sections principales proposent les outils indispensables pour capturer, avec la prise en charge de sources multiples et de la plupart des formats audio/vidéo (AVI, MPEG-1/2/4, AVCHD, h.264, BDMV, DV, HDV, m2ts, m2t, etc.), monter à partir de modèles « professionnels » avec l’affichage de la classique ligne de temps, graver et partager ses vidéos. En plus de se distinguer par ses performances, ses nombreux effets, filtres et transitions, Corel VideoStudio Pro X4 apporte également son lot de nouveautés parmi lesquelles un module d’animation image par image, la fonction Photo Laps permettant de projeter en quelques secondes une journée entière, la possibilité de réduire/supprimer le flou de bougé, sans oublier la conversion 2D/3D loin d’être convaincante. HD oblige, le logiciel est, en outre, capable d’upscaler les vidéos standard. Au final, Corel VideoStudio Pro X4 est un excellent outil de montage grand public abordable (89 €) et un très sérieux concurrent au logiciel Studio HD 15 de Pinnacle.

AeroBlend Alors que côté style, l’interface de bureau Aero sous Windows 8 permettra d’adapter dynamiquement la couleur et la transparence des

fenêtres en fonction de la couleur dominante du thème de bureau, les utilisateurs Windows 7 pourront également profiter d’une telle fonctionnalité via le logiciel gratuit AeroBlend (www.carthagosoft.net). C’est léger, peu gourmand et ça permet surtout de rendre le style visuel de votre bureau plus cohérent.

Offrez un nouveau look à votre menu démarrer Windows

icônes, style des boutons, vos images préférées peuvent être utilisé comme icônes, etc). Une alternative intéressante aux logiciels payants VistaStartMenu (www.vistastartmenu.com) et Fences Pro (www.stardock.com).

Une interface séduisante et ergonomique pour Windows XP, Vista et 7

8Start Launcher (www.8start.com) n’est pas seulement un logiciel gratuit relookant le menu démarrer, c’est aussi un logiciel portable et accessible depuis n’importe quel endroit du bureau qui permet de réorganiser l’arborescence de vos documents, programmes et raccourcis par groupes. Il permet en outre de monitorer certains composants tels que le processeur, la mémoire et les disques durs, bénéficie de plusieurs skins d’apparence et tout ou presque, est modifiable à souhait (taille de la police, des Multibar (http://ticno.com) est un logiciel gratuit que les adeptes de la personnalisation de bureau Windows apprécieront puisqu’en plus de proposer une jolie interface, Multibar offre une expérience utilisateur très agréable. Se présentant sous la forme d’un dock personnalisable et automatiquement masqué remplaçant avantageusement le menu Démarrer Windows, Multibar est léger, bénéficie d’animations séduisantes et offre des fonctionnalités simples mais efficaces : moteur de recherche local et Web, raccourcis programmes, mail, réseaux sociaux, add-ons, organisation des dossiers locaux, etc. De quoi rendre le bureau Windows plus agréable à l’usage.

Tout savoir sur votre disque dur Idéal pour épauler l’incontournable utilitaire de nettoyage CrapCleaner, FolderVisualizer (www. abelssoft.com) est un logiciel gratuit très pratique, puisqu’il permet d’analyser les disques internes, externes et les clés USB afin de

102 Hardware Magazine


connu et réputé pour remplacer le gestionnaire des tâches Windows. Sauf qu’une récente mise à jour permet à Process Explorer de supporter le monitoring GPU (core et mémoire). Et ceci méritait bien qu’on en parle brièvement. montrer quels sont les fichiers et dossiers qui prennent le plus de place sous la forme de graphiques. S’il ne sert pas souvent, Folder-

Visual BCD Editor…

Visualizer fait néanmoins partie des utilitaires pratiques et indispensables pour la maintenance de Windows.

Intégré à Windows Vista et 7, BCDEdit est un utilitaire qui s’utilise en lignes de commandes et qui permet de modifier les données de configuration de démarrage. S’il propose de nombreuses options complètes permettant notamment de gérer le multiboot, de régler le système à exécuter par défaut, d’ajouter de nouvelles entrées au menu de démarrage, de modifier le nom des systèmes ou encore de restaurer le bootloader, son utilisation demeure néanmoins difficile. Visual BCD Editor (http:// boyans.my3gb.com/) vient heureusement simplifier tout cela, puisque cet utilitaire gratuit et léger n’est autre qu’une interface graphique simplifiant l’accès à toutes les fonctionnalités de BCDEdit. Un utilitaire indispensable qui vient concurrencer l’excellent EasyBCD (http://neosmart.net) mais qui reste néanmoins réservé aux bidouilleurs avertis.

MoveOnBoot

Process Explorer

Si l’invite de commandes intégrée à Windows permet de supprimer n’importe quels fichiers, encore faut-il connaître la bonne commande, et plus encore, les bonnes options (DEL /F, /A, etc.). Pour les allergiques à la ligne de commandes, MoveOnBoot (http://emcosoftware.com) est un utilitaire particulièrement efficace pour supprimer, renommer et déplacer les fichiers et dossiers verrouillés par Windows. Incontournable dans la trousse à outils du parfait bidouilleur, gratuit, personnalisable et simple à prendre en main, MoveOnBoot intègre aussi un assistant pour guider pas à pas les moins doués.

Process Explorer (http://technet.microsoft. com) est un logiciel gratuit qu’il n’est plus nécessaire de présenter tant ce dernier est

Une alternative à Dropbox Spideroak (https://spideroak.com) est un service de stockage dans les nuages qui offre un espace de stockage de 2 Go dans sa version gratuite, une interface plus dépouillée que Dropbox et permet de sauvegarder, synchroniser et partager n’importe quel fichier mais uniquement depuis votre ordinateur, qu’il soit de type Android, Linux, Mac ou Windows. Il ne permet donc pas de partager, d’ajouter ou de supprimer des fichiers dans un groupe de travail, ce qui pourra en rebuter certains. Spideroak se distingue toutefois sur l’aspect sécurité. Spideroak n’aura aucun moyen d’accéder à vos fichiers puisque vous seul détiendrez la clé de chiffrement générée sur un de vos postes clients et indispensable pour crypter/décrypter vos données. En cas de perte, il est par conséquent impossible de récupérer cette clé de chiffrage auprès de Spideroak. Vous pourrez, en revanche, réinitialiser la clé de chiffrement à partir de votre machine en cas de perte.

jeu de rôle virtuel Si l’époque de l’Amiga et de l’Atari ST nous ont tous fait rêver, les jeux de rôle ont également marqué notre temps avec ces parties effrénées organisées et orchestrées pendant tout un weekend par un maître de jeu chez un copain autour d’une table. Certains d’entre nous ont même conservé leurs feuilles de personnages, leurs petites figurines de plomb peintes pour l’occasion et leurs fameux dés à plusieurs faces. Une belle époque qui n’est aujourd’hui pas totalement révolue puisque SmiteWorks Ltd. A eu l’ingénieuse idée de développer Fantasy Grounds (www.fantasygrounds.com), un logiciel ou plutôt une table de jeu de rôle virtuel à distance facilitant l’organisation de soirées JdR grâce à nos machines. Loué soit le PC ! Le logiciel offre une interface visuellement très proche des soirées JdR que nous avons tous connus et assure en plus la gestion des tokens (jetons, pions, figurines), le partage des images et cartes, la rédaction et l’organisation du scénario, la création et la gestion des feuilles des personnages joueurs et non joueurs sans oublier les créatures et monstres, la possibilité d’intégrer des règles et autres aides de jeux grâce à son système d’extensions, la gestion des dés à 20 faces, un système de personnalisation graphique et des tas d’autres fonctions comme un système de t’chat intégré. Seul ombre au tableau, le logiciel se décline en trois licences. Une version Lite (23.95$) qui permet de participer en tant que joueur et de consulter sa feuille de personnage en dehors des séances de jeu. Une version Full (39.95$) offrant les mêmes fonctionnalités que la version Ultimate (149.95$) qui se différencie en permettant d’accueillir un nombre illimitée de joueurs en fonction de la connexion Internet et quel que soit le type de licence utilisée par les joueurs pour se connecter : démo, Lite ou Full.

Hardware Magazine 103


Par Manuel DA COSTA

Geekitude Les écrans HD (et plus) arrivent sur les mobiles et tablettes Depuis qu’Apple a ouvert le bal avec son superbe coup marketing, le Retina (conçu et produit par LG, pas par Apple), la densité est devenue à la mode. Au point que les écrans de nos portables sont sur le point de devenir des petites merveilles de définition. Le premier à ouvrir le bal, c’est encore LG. Facile, le Coréen est le plus gros fournisseur de dalles IPS. Mais cette fois, il se donne la priorité sur les premières dalles AH-IPS dotées d’une densité de pixels record. Avec son U6200, il nous gratifiera d’un écran IPS de 4,5’’ d’une définition de 1 280 x 720, ce qui donne une densité de plus de 340 ppi. Pour faire fonctionner le tout, LG a choisi un SoC Snapdragon dual core à 1,5 GHz. Mais on en sait assez peu sur ce SoC. Ce qui est fort dommage car avec tant de pixels, c’est de sa partie graphique dont dépendra le bon fonctionnement du smartphone. Gérer un tel écran n’est pas simple pour les Adreno d’entrée de gamme. Espérons que le Snapdragon retenu par LG soit un modèle S4 (nom de code Krait, gravé en 28 nm) doté au moins d’un Adreno 225. Les premiers Krait (MSM8960) tournent précisément sur deux coeurs Cortex A15 à 1,5 GHz et sont justement censés sortir pour le quatrième trimestre. L’U6200 semble une plateforme de lancement opportune. Et l’Adreno 225 est donné comme huit fois plus puissant qu’un Adreno 200 et quatre fois plus qu’un Adreno 220. Gageons qu’il faudra au moins ça pour adresser autant de pixels ! Mais le vrai coup de boost en Snapdragon arrivera début 2012 avec des Krait quad core à 2,5 GHz et un Adreno 320 gravé en 28 nm lui aussi (les Adreno 2xx sont en 45 nm), supportant le GP-GPU et censé offrir des performances graphiques comparables à une Xbox 360 ou à une PS3.

104 Hardware Magazine

HTC Vigor, un grand ménage sur les dalles HTC n’est pas en reste et c’est avec son Vigor qu’il attaquera le marché de la HD. Son écran de 4,3’’ sera lui aussi en 1 280 x 720. Il semble que, comme LG, HTC ait retenu une solution Snapdragon dual core à 1,5 GHz pour animer l’engin. Espérons là encore qu’il s’agira des nouveaux Krait épaulés d’un Adreno 225 ou mieux. Et si le nom de Vigor vous fait trop penser à un bidon orange, peut-être préférerez-vous le nom qu’on lui pressent chez Verizon : Droid Incredible HD, prévu pour le 13 octobre chez l’opérateur américain. Et comme le LG, le HTC sera livré en Android Gingerbread 2.3.4. LG a déjà annoncé une mise à jour sous Ice Cream Sandwich dès que disponible. HTC devrait logiquement suivre le même chemin.

Hello Motooo Côté tablettes, on s’active aussi. Ce sera certainement Motorola qui dégainera le premier. Paradoxal pour un constructeur dont la tablette semble être la seule toujours empêtrée dans les problèmes techniques et pas encore 100 % fonctionnelle (si l’USB de la Xoom fonctionne, la carte microSD est toujours un accessoire décoratif). Bref, Motorola est a priori en train de travailler dur sur sa Xoom II que l’on dit basée sur un écran 4 :3 très haute définition (les rumeurs parlent de 2 048 x 1 536). Et c’est sur l’écran que le constructeur mise tout, puisque d’après lui, les raisons de l’échec de la Xoom sont à chercher dans son écran 16 :9. Non, ni son prix, ni son interface pénible, ni ses errances techniques ne sont retenus (étrange analyse). Si le raisonnement surprend, le produit attire… une tablette avec la définition d’un 30’’ ? Curieux de voir ça !


GEEKITUDE

Google : Wallet, Ice Cream Sandwich aussi… Mais Android résistera-t-il à Windows 8 ? Rumeurs de copinage

Reste un point qui a fuité ces dernières semaines. Google aurait mené le développement d’Ice Cream Sandwich sur des puces OMAP de TI uniquement. A priori, Google les trouverait plus stables que les Tegra. Pourtant, c’est bien les SoC nVidia qui sont les plus répandus dans les tablettes. Drôle de choix, s’il s’avérait que c’était vrai. On sait Google assez prompt à jouer le copinage. La Xoom en a été un bel exemple. Les voir rejouer cette partition avec Texas Instruments est plausible surtout s’il redevient le fournisseur privilégié de Motorola, désormais propriété de Google.

Un Ice pour résister à Metro

A chaque numéro, nous avons un nouveau service Google à examiner. Ou presque. La firme est incroyablement prolixe en nouveautés de tout genre. Parfois d’excellentes idées, parfois des flops retentissants. Mais au moins, Google essaie. En ce début d’automne, Google lance son service « Wallet » aux USA. Il s’agit d’un mode de paiement sans contact pour smartphones Android. Pour le moment réservé au seul Nexus S 4G, Wallet pourrait rapidement être étendu à d’autres modèles. On l’attend en France assez vite d’ailleurs puisqu’Orange a prévu de lancer le Samsung Galaxy S2 en version NFC (Near Field Contact, ou paiement sans contact), dès le mois d’octobre. Parmi les financiers partenaires du projet, on trouve Mastercard et Visa, deux poids lourds mondiaux dont la fidélité à Wallet devrait permettre une adoption plus aisée de la technologie NFC sur mobiles. On pourra lier sa carte de crédit à son appli Android. En magasins, il suffira d’approcher son téléphone d’une borne de paiement pour payer. Facile. Le paiement sans contact est déjà très répandu en Asie, à Taïwan notamment où tous les magasins sont déjà équipés de bornes de paiement.

Toujours est-il que Google a tout intérêt à mettre de l’ordre dans ses OS, et assez rapidement. Et à mettre ses développeurs au pas. Si Android est actuellement l’OS mobile numéro 1 aux USA ou en France, il se pourrait que les errances de Google depuis le début de l’aventure Android finissent par lasser. Si vous avez une oreille chez les constructeurs de tablettes, vous commencerez à y entendre un léger ras-le-bol. Les ventes de tablettes peinent à prendre, la faute aux constructeurs qui surestiment le marché et qui pêchent par prétention. La faute aussi à Google qui peine à ordonner ce marché et à sortir un OS enfin 100 % unifié. Or, il ne va pas falloir que Google rate le coche d’Ice Cream Sandwich. Microsoft n’a visiblement pas du tout apprécié l’affront et arrive avec un Windows 8 très convaincant. Nous vous encourageons à lire ce que nous en pensons un peu plus loin dans ce numéro. Microsoft dispose déjà d’atouts énormes : un excellent réseau, des partenaires, des budgets et des programmes marketing très appréciés des constructeurs. Si Windows 8 est bon, ce que nous pressentons, Android devra faire face à une concurrence féroce.

ICS en approche rapide Pour le moment, la cohabitation de deux systèmes distincts, un pour smartphones et un pour tablettes, et le manque d’applications pour Android 3 (Honeycomb) sont les grosses épines dans le pied d’Android. Ice Cream Sandwich va remédier à la situation. Un OS unique pour tous les terminaux. Enfin ! Mais contrairement à son habitude, Google est resté très secret sur ce nouvel OS. Ce que l’on sait, c’est que le système sera lancé en octobre ou en novembre. Et que cette version apporterait les raffinements d’Honeycomb aux smartphones. Il semblerait aussi que les tablettes pourraient être agrémentées de quelques périphériques, comme les souris ou les claviers. Quant aux développeurs d’applications, Google leur simplifiera aussi la vie en lançant de nouvelles API permettant d’adapter facilement un contenu à toutes les tailles d’écrans et à toutes les définitions de périphériques Android. Mais à ce propos, Google vient de recadrer un peu les développeurs d’applications en leur rappelant assez vertement qu’il leur incombait d’adapter leurs applications à l’arrivée d’Ice Cream Sandwich… en clair, les applications doivent tourner sur toutes les tailles d’écrans ou les développeurs devront désactiver l’installation de leurs produits sur les petits écrans (les smartphones), au moins temporairement. Dans tous les cas, on risque, au début du moins, d’avoir quelques surprises d’affichage avec certaines, si les conseils insistants de Google ne sont pas suivis.

Hardware Magazine 105


Le 5e coeur de Kal-El

Les premières machines intégrant le Tegra 3 de nVidia sont attendues pour la fin de l’année, voire le début de l’année prochaine. Et nVidia vient de dévoiler une grande partie de l’architecture de Kal-El. On savait la puce basée sur un SoC Cortex A9. On savait également qu’elle serait quad core. Mais les détails de l’architecture cachent une petite surprise. Un cinquième coeur, rien que ça. Attention, ce cinquième coeur ne fait pas pour autant de Kal-El un pentacore, comme on peut le lire un peu partout sur le Web. Non, le Tegra 3 reste un pur quadricoeur. Ce cinquième larron ne vient pas épauler les quatre autres, mais les remplace lors de l’exécution de tâches légères, comme la lecture de mails par exemple. L’approche avait déjà été repérée chez Texas Instruments dans le développement de son OMAP 4470 dévoilé en juin dernier.

5 coeurs, mais un quad core

A la recherche de la lumière

En intérieur comme en extérieur, une bonne maîtrise de la lumière, qu’elle soit naturelle ou non, est indispensable pour réussir vos photos. A travers les 276 pages bourrées de conseils techniques et richement illustrées, Ibarionex Perello (www.pearson.fr) aide le lecteur à assimiler les fondamentaux de la lumière et à explorer certains aspects artistiques tels que la lumière du soleil dans les environnements urbains et naturels, l’amélioration des effets de lumière quels que soient l’environnement et le sujet, ou encore la maîtrise de la balance des blancs afin d’éveiller votre créativité. Encore un guide incontournable pour les amateurs.

Le principe du coeur de support n’est donc pas une franche nouveauté. Mais chez nVidia, primo c’est une surprise, deuzio son fonctionnement est assez bien vu. En effet, chez nVidia, ce cinquième coeur est appelé un coeur compagnon et fonctionne selon un principe connu sous le nom de vSMP, ou Variable Symmetric MultiProcessing. Ce cinquième, lui aussi gravé en 40 nm mais selon un procédé différent, est fait pour plafonner à 500 MHz et pour consommer beaucoup moins que les autres coeurs Cortex A9 du SoC. Son job est de prendre le relais de tout ou partie des autres coeurs lorsque des tâches peu gourmandes en ressources CPU sont calculées. Les économies d’énergie peuvent être conséquentes, dans toutes les applications d’ailleurs, que ce soit en simple lecture de mails où on imagine bien le SoC fonctionner sur son seul coeur compagnon, ou en lecture vidéo où le GPU nVidia sera plus sollicité que le CPU du SoC. Au final, par rapport à Tegra 2, le nouveau SoC pourra consommer jusqu’à 60 % de moins en lecture vidéo, 34 % de moins en jeu, 14 % de moins en lecture MP3… pas mal !

Cache commun Pour savoir comment basculer d’un ou plusieurs coeurs compagnons, le SoC disposera de ses algorithmes propres. Inutile donc d’optimiser le code des applications ou l’OS. Pratique. Enfin, les quatre coeurs principaux et le compagnon partagent le même cache L2. Le passage de l’un à l’autre se fera en moins de 2 ms et ne produira donc aucune latence perceptible selon nVidia. Tout ceci nous semble très intéressant. Inutile de dire qu’avec Tegra 3, nVidia joue gros. Un succès technique et commercial serait une manne pour nVidia.

La concurrence chausse du Cortex A15 Tegra 3 devrait prendre de vitesse les OMAP 5 de Texas Instruments et rentrer en fonction avant eux. Ce dernier est prévu pour être un dual core, mais en ARM Cortex A15. A 2 GHz, un duo de Cortex A15 est donné pour être trois fois plus véloce qu’un duo de Cortex A9 à 1 GHz. Il aura également à faire face à la concurrence de Qualcomm dont le Snapdragon (code Krait, lui aussi en Cortex A15) MSM8960 sera gravé en 28 nm et que Qualcomm annonce comme cinq fois plus performant et 75 % moins gourmand en énergie que les Snapdragon actuels. La concurrence sera dure et si le Tegra 3 semble en avoir sous le pied, il utilise pour sa partie CPU un Cortex A9 déjà en service dans le Tegra 2. L’année 2012 sera passionnante pour l’amateur de tablettes et autres smartphones ! Dernier détail, Apple a officiellement annoncé un événement pour le 4 octobre prochain : l’iPhone 5 y sera annoncé, et avec lui, normalement, la nouvelle génération de SoC Apple, le A6 dont on ne sait encore rien.

106 Hardware Magazine

Hacker’s Guide Avec tous les systèmes et les logiciels qui existent, il ne passe pas un jour sans qu’une nouvelle vulnérabilité exploitable par des personnes malintentionnées soit révélée. Un domaine plutôt abscons que l’ouvrage Hacker’s Guide (www.pearson. fr) se propose de démystifier en dévoilant les dernières techniques de hacking connues, les failles des systèmes et des réseaux sociaux, les botnets, les principes du surf anonyme ou encore l’identité numérique. Un excellent ouvrage qui permet de mieux appréhender les dangers du Net pour mieux protéger son identité et ses données.


GEEKITUDE

Développer des applications Android pour les nuls

Autant ne pas le cacher, le développement, ce n’est pas vraiment notre domaine de compétence. Ce qui nous plaît, c’est d’assembler des machines toujours plus belles et puissantes, manipuler les nouveautés technologiques, ou dénicher des logiciels pratiques et performants. Mais avec l’engouement que connaît Android désormais numéro 1 à peu près partout, les amateurs de programmation seront eux sans doute à même d’exploiter l’ouvrage Développer des applications Android pour les nuls (www.editionsfirst.fr). Contrairement à ce que laisse croire le titre du livre, un minimum de connaissances en langage Java est requis pour pouvoir appréhender le contenu et ainsi découvrir l’environnement Android et ses outils, réaliser une première application et consolider ses connaissances à travers 448 pages très détaillées.

Réseaux En dévoilant les principes fondamentaux et le fonctionnement de la couche physique d’un réseau, les principaux protocoles de liaison des données, les couches de transport, les couches des programmes, sans oublier les évolutions technologies récentes, Réseaux (www.pearson.fr) est, à ne pas en douter, un ouvrage référence en la matière. Parfois difficile à lire, le contenu étant assez technique par moments, c’est aussi un excellent complément à Hacker’s Guide pour ceux qui souhaitent vraiment approfondir le sujet.

Pandora Hearts

Pandora Hearts (www.kaze.fr) est un animé vraiment surprenant qui contient de multiples références à l’univers d’Alice au pays des merveilles. L’histoire met en scène le jeune noble Oz Bézarius qui, lors de sa cérémonie de passage à l’Âge adulte, se retrouve condamné pour un crime : celui d’exister. Son châtiment, l’exil dans l’Abysse, un monde parallèle peuplé de « Chains », des monstres qui possèdent des pouvoirs extraordinaires. Pour s’enfuir, il conclut un pacte avec Alice, une Chain très puissante prisonnière de l’Abysse. Difficile d’en dire davantage tant le scénario est travaillé, surprenant, déroutant et prenant au fil des neuf épisodes de ce premier coffret que l’on dévore avec passion. Le tout accompagné d’une bande musicale magistrale pour cette série de 25 épisodes qui est bien plus qu’un simple divertissement. Vivement la sortie des deux autres coffrets.

Dragon de glace

Considéré comme un des meilleurs auteurs de médiéval fantastique, George R.R. Martin, à qui nous devons le fabuleux cycle du Trône de fer, nous livre avec Dragon de glace (www.editions-actusf.fr) quatre nouvelles qui démontrent tout le talent de l’auteur à travers des intrigues passionnantes et déroutantes. Dragon de glace conte l’histoire d’une jeune fille ayant développé une sensibilité particulière dans la construction de palais de glace, pour que le dragon de glace puisse la trouver plus facilement. Dans les contrées perdues raconte le dilemme d’une sorcière qui après avoir accepté un marché de dupe, devra choisir entre honorer une commande et son contraire. Fort d’un prix Bram Stoker, L’Homme en forme de poire dresse le portrait d’un homme étrange, oppressant et vraiment effrayant. Enfin, Portrait de famille est une nouvelle qui dérange, qui oppresse et qui s’intéresse aux névroses d’un écrivain qui reçoit la visite de ses personnages de romans.

Un long Halloween

Avec des dessins magnifiques, une intrigue prenante malgré quelques ingrédients un tantinet classiques, Batman : Un long Halloween (www. paninicomics.fr) est une réédition en version intégrale (392 pages – 70 €) d’un récit passionnant mettant en scène les débuts de Batman, le commissaire Gordon et un Harvey Dent obsédé par la justice, aux prises avec Holiday, un mystérieux assassin expédiant les gangsters outre-tombe de manière assez expéditive. Un must incontournable dont se serait inspiré Christopher Nolan, pour les fans de l’homme chauve-souris.

360 Playstation Pour ceux qui nous suivent régulièrement et qui s’en souviennent, Origin (http://originpc.com) avait commercialisé le BIG-O, une machine dont la particularité était d’intégrer des composants de haut vol overclockés accompagnés d’une Xbox 360 dans un boîtier PC, et dont l’ensemble était refroidi par un système watercooling avec un prix atteignant les sommets : 7 449 $. Plus réaliste et surtout plus abordable, Timofiend a, au contraire, choisi de faire cohabiter une Xbox 360 et une PS3 dans un boîtier PC d’entrée de gamme. Le matériel utilisé : perceuse, Dremel, fer à souder, pince, papier à poncer, lime, marteau, ruban adhésif isolant, deux sondes de température avec écran LCD et une alimentation ATX de 450 W pour alimenter les deux consoles.

Un outillage classique pour un mod audacieux que vous pourrez découvrir en détail sur le blog http://timofiend.blogspot.com, mais dont il est préférable de s’inspirer, le réusinage du boîtier ATX tenant plus du bricolage que d’un travail réellement soigné. Hardware Magazine 107


Windows 8 Des rumeurs à la réalité Bien plus qu’un restylage, Windows 8 apportera un gros lot de nouveautés. Pour la plupart très prometteuses. Microsoft bouge lentement mais dans le bon sens ! Manuel DA COSTA

D

e l’aveu même du président de la division Windows et Windows Live lors de la conférence D9, Steven Sinofsky, et plus récemment lors de la conférence Build, Windows 8 sera un système universel qui conviendra à la fois aux PC, smartphones et tablettes grâce au support des architectures x86 et ARM. Windows 8 sera également peu gourmand et pourra, par exemple, se satisfaire d’un processeur Atom, de 1 Go de mémoire vive et de 16 Go d’espace disque pour la version 32 bits. La version 64 bits nécessitera, quant à elle, 2 Go de mémoire et un espace disque de 20 Go pour l’installation.

Une interface complètement remaniée Reprenant l’interface Metro de Windows Phone 7, la nouvelle interface tactile et personnalisable pour les futures tablettes Windows 8 se pare d’un écran d’accueil très

108 Hardware Magazine

Au revoir le menu Démarrer et bienvenue aux vignettes dynamiques du nouvel écran d’accueil de Windows 8 qui permet à la fois de lancer ses applications, d’accéder aux paramètres Windows et de suivre ses réseaux sociaux en un coup d’oeil.


DOSSIER configurations preview windows de l’été 8

et Metro, en plus de proposer des raccourcis vers les paramètres de Windows, la fonction Recherche, ainsi que la fonction de partage.

Grâce au large support des langages de programmation, Microsoft devrait être en mesure de séduire les développeurs pour ainsi offrir aux utilisateurs une logithèque Windows 8 conséquente.

Intégrée par défaut, la fonction SmartScreen permet de protéger le système contre les logiciels malveillants.

Windows Explorer s’améliore encore

L’explorateur Windows est devenu un modèle d’ergonomie en intégrant un ruban s’adaptant dynamiquement au type de fichiers que vous manipulez.

design, soigné et composé de vignettes dynamiques distillant des informations provenant de vos différents services Web (Facebook, Twitter, etc.) et de Windows Live, en plus de servir au lancement des applications, qu’elles soient de type mobile ou desktop. L’interface est pour l’heure parfaitement fluide et réactive, toucher ou cliquer sur une application permet de l’exécuter instantanément et le basculement entre les applications actives, accompagné d’animations fluides, n’a absolument rien à envier aux dernières versions d’Android et iOS. Microsoft en profite pour changer sa politique en ouvrant Windows 8 à davantage de langages : C, C++, C#, Visual Basic, Silverlight, WPF, HTML5 et Javascript. Une manière de séduire les développeurs, tout en garantissant une logithèque conséquente à Windows 8 via le Windows Store. Un kiosque de téléchargement regroupant toutes les applications gratuites et payantes pensées aussi bien pour l’interface Metro que pour la partie desktop, puisqu’il sera possible à tout instant de basculer de l’interface Metro vers l’interface desktop classique

de Windows, en fonction des besoins et de la machine utilisée. Définitif ou non, il est bon de préciser que le menu Démarrer a ici complètement disparu de l’interface desktop, au profit d’un petit logo Windows qui permet de basculer instantanément entre les interfaces desktop

Plus besoin d’un Daemon Tools ou d’un Alcohol 120 %, Windows 8 supporte dorénavant les images ISO.

Devenu un atout incontournable pour accéder simplement à de nombreuses fonctionnalités, le ruban, introduit avec la suite Microsoft Office 2010 et aujourd’hui présent dans diverses applications Windows 7 (Wordpad, Paint, etc.), fait son apparition dans l’explorateur Windows. Microsoft multiplie ainsi les options de partage et de synchronisation, en plus de rendre les options d’affichage et de gestion accessibles d’un seul clic. Une manière d’harmoniser les PC de votre réseau avec les plateformes mobiles. Vous pourrez, par exemple, envoyer un document ou une photo par mail ou par fax d’un seul clic, enregistrer un album photo instantanément sur un CD/DVD, partager des fichiers sur le Web, sur les ordinateurs de votre réseau ou sur votre serveur personnel, ou encore accéder à de nombreux services Web tels que SkyDrive. Encore mieux, l’explorateur Windows se pare d’une gestion des fichiers plus efficace, avec notamment la prise en charge des images ISO, un accès aux différentes fonctions du système plus aisé (panneau de configuration, réseau, désinstallation des programmes, droits administrateur pour exécuter un programme, BitLocker, outils de sauvegarde/restauration, etc.), ainsi qu’une nouvelle fenêtre de copie des fichiers avec la prise en charge des copies simultanées, de la mise en pause et de la reprise de la copie. Sans oublier l’intégration de la fonction SmartScreen protégeant le système contre les logiciels espions, Windows Explorer est aussi devenu incroyablement « intelligent » puisqu’il s’adapte automatiquement en affichant de nouvelles fonctionnalités adaptées au type de fichiers que vous utilisez. Une manière de ne pas surcharger inutilement le ruban, mais surtout une façon de rendre l’utilisation de l’explorateur encore plus ergonomique, puisque les actions possibles sont dorénavant réduites et regroupées : plus besoin d’ouvrir le menu Démarrer pour exécuter l’application dont vous avez besoin, terminé

Hardware Magazine 109


permet ainsi de visualiser les processus en cours de fonctionnement qui sont classés suivant leur provenance. Alors qu’un mode avancé permet de détailler chaque processus (les processus système sont maintenant clairement indiqués), de surveiller leur impact sur le système non plus sous forme de graphiques mais de valeurs dans un tableau (occupation mémoire, processeur, disque, réseau), de gérer les applications s’exécutant au démarrage et d’accéder au panneau de performances d’un seul clic.

Une restauration système facile

Microsoft se serait-il inspiré de Gnome 3 pour remanier son moteur de recherche Windows ?

Le gestionnaire de tâches Parmi les autres nouveautés, le gestionnaire de tâches se pare d’un look plus moderne et épuré, mais devient surtout plus pratique à l’usage, avec deux modes de visualisation plus simples, plus clairs et plus ergonomiques. Le mode par défaut

Dans sa préversion actuelle, le retour de Windows 8 aux paramètres d’usine peut s’effectuer de deux manières. Accessible depuis le système à condition de posséder un compte administrateur, ou en démarrant la machine à partir du disque d’installation de Windows 8, la méthode classique réinstalle le système dans son état initial au détriment des données personnelles qui sont effacées. Appelée Refresh et accessible depuis le panneau de configuration, la deuxième méthode permet, quant à elle, de restaurer le système à son état initial, tout en conservant les données, les applications et les réglages personnels de l’utilisateur.

Le gestionnaire de copie de fichiers change de look et devient plus pratique à l’usage.

les innombrables clics, le basculement entre chaque application pour sélectionner celle dont vous avez besoin, etc. Cliquez, par exemple, sur une image pour accéder aux fonctions de diaporama, changement de fond d’écran, manipulation, retouche, etc. Tout est si simple, si rapide et si intuitif que Windows 8 nous donne l’impression d’être une version améliorée de Mac OS X qui jouit déjà d’une excellente réputation dans ce domaine.

110 Hardware Magazine

En plus de proposer un mode « simple », le nouveau gestionnaire de tâches offre un affichage avancé à la fois ergonomique et séduisant.


DOSSIER configurations preview windows de l’été 8

Pour restaurer Windows 8 à son état initial, l’utilisateur aura le choix entre conserver ou non ses données, ses applications et ses réglages personnels.

Multimédia Si Windows 7 bénéficiait déjà d’améliorations en termes de support des formats audio/vidéo, Windows 8 n’est pas en reste non plus avec la prise en charge de nouveaux formats : AVCHD, 3D Video, MPEG-4, et les balises audio et vidéo HTML5. Les formats MJPEG, h.264 (encodage), WMV, MPEG-2 (décodage/encodage) seront quant à eux optimisés. Le format Matroska semble toutefois rester aux abonnés absents. Il est également question de l’intégration d’un lecteur PDF aux fonctions basiques, qui évitera néanmoins à l’utilisateur de recourir à un logiciel tiers, à moins bien sûr d’avoir besoin de fonctionnalités avancées. Mais la rumeur la plus folle, à l’heure actuelle, semble être l’intégration d’un service permettant à Microsoft d’émuler la Xbox 360. Via un abonnement mensuel, l’utilisateur serait alors en mesure de jouer à des jeux Xbox 360 sur un PC ! Internet Explorer 10 profitera, quant à lui, d’un nouveau moteur offrant une meilleure prise en charge des feuilles de style CSS3, du HTML5, des balises CANVAS, ainsi que d’un support amélioré, support de l’accélération GPU permettant entre autres de zoomer rapidement. Epuré et globalement très proche de la version intégrée à Windows Phone 7, IE10 utilise la totalité de l’écran pour afficher les pages Web. Un simple mouvement vers le bas de l’écran suffit dès lors pour faire apparaître la barre d’adresse, ainsi que des vignettes de prévisualisation des onglets ouverts, sous forme de vignettes en haut de l’écran. IE10 ne supportera toutefois aucun plugin tiers et donc le flash, dans sa version tablette.

Internet Explorer 10 profitera d’une meilleure prise en charge des feuilles de style CSS3, du HTML5, ainsi que des balises CANVAS.

l’USB 3.0, une meilleure prise en charge de l’UEFI en remplacement des BIOS et devrait, semble-t-il, intégrer de nouvelles fonctionnalités liées au périphérique Kinect. De quoi ajouter la reconnaissance des mouvements de l’utilisateur pour interagir avec Windows 8. Parmi les autres nouveautés, citons également le Secure Boot qui, en s’appuyant sur des conditions matérielles bien précises ainsi que sur Windows Defender, permet de préserver l’intégrité du système, en évitant qu’un malware présent sur un périphérique de stockage amovible ne s’exécute lors du

La gestion du matériel Comme chaque nouvelle version, Windows 8 bénéficiera d’un support matériel plus important avec notamment la gestion native des puces 3G, du Bluetooth 3.0, de

Windows 8 intégrera un système d’authentification s’appuyant sur une image et trois mouvements tactiles.

démarrage. Mais aussi la fonction Windows To Go qui permettra de faire fonctionner une installation complète de Windows 8 sur une clé USB et qui sera malheureusement réservée aux entreprises. Les fonctions de veille et de démarrage de Windows 8 ont, elles aussi, été améliorées, notamment à l’aide d’une technologie de démarrage hybride permettant de précharger les fichiers système, avant de charger les paramètres utilisateur et de mieux répartir la charge de travail sur les différents coeurs d’un processeur. Microsoft a ainsi pu démontrer que Windows 8 était dorénavant capable de démarrer en moins de 8 secondes à l’aide d’un SSD, sur une machine aux caractéristiques techniques mystérieuses. Si Microsoft est loin d’avoir tout dévoilé, la préversion développeur de Windows 8 étant encore très incomplète avec notamment l’absence de Media Center qui n’est pas encore prêt, nous sommes néanmoins ravis de voir que la firme de Redmond a choisi d’innover afin de proposer un système fonctionnel, léger, performant et vraiment très séduisant à l’heure actuelle. Qui plus est, capable de rivaliser avec Apple et Google pour notre plus grand plaisir.

La gestion des comptes d’utilisateurs La gestion des comptes d’utilisateurs a également subi quelques remaniements, à commencer par la barre des tâches qui affiche l’icône du compte d’utilisateur et qui permet un accès aux réglages du compte mais aussi un basculement rapide d’une session utilisateur à l’autre. Il est, en outre, possible d’activer la technologie tactile pour se connecter. Vous aurez alors le choix entre saisir votre mot de passe utilisateur à l’aide du clavier virtuel, un code PIN ou bien profiter de la reconnaissance tactile à condition que la fonction Change your pattern for pattern logon soit activée. Une fonction

qui, sur la base d’une image de votre choix, permet d’enregistrer trois mouvements tactiles simples. Par exemple, dessiner un smiley sur votre photo ou divers autres signes distinctifs. L’utilisateur devra alors répéter ces mêmes gestes sur l’image pour pouvoir ouvrir la session Windows qui intègre les services Live. De quoi permettre à l’utilisateur, une fois connecté, de synchroniser ses données à travers plusieurs machines, mais aussi d’accéder simplement aux services Web tels qu’Office Live, Windows Live ou encore le service de stockage SkyDrive.

Hardware Magazine 111


L’architecture

des GPU Comprendre comment ces monstres de puissance fonctionnent Tridam

Après un dossier qui s’est attaché à expliquer le fonctionnement du rendu 3D, publié dans le n° 54 de Hardware Magazine, nous nous attaquons à l’implémentation de son traitement dans les GPU. GeForce et Radeon actuels, mais également Graphic Core Next, voici comment fonctionnent les GPU.

112 Hardware Magazine


Comprendre 3D

L

e GPU, ou Graphics Processing Unit, est probablement le processeur qui a évolué le plus rapidement depuis une dizaine d’années. De 22 millions de transistors pour la première GeForce, on est passé à 3 milliards de transistors pour les derniers modèles haut de gamme, soit une complexité qui a explosé d’un facteur 136… de quoi rapprocher le GPU d’une boîte magique dont il est difficile de cerner les rouages. D’une manière simplifiée, le GPU est un processeur qui reçoit une liste de commandes, de vertices ou de triangles, différentes textures et produit, au final, une image. A l’aube de la 3D temps réel, c’est réellement comme cela que fonctionnait un GPU qui n’était alors rien d’autre qu’un pipeline fixe dédié au calcul des pixels, sur lesquels était appliquée une simple texture. Avec les premières GeForce et Radeon, ils ont intégré le traitement de la géométrie, puis ont vu les étapes du rendu se multiplier et se complexifier.

nécessaire pour l’éclairage et le bump mapping. Pour appliquer deux textures avec un pipeline basique, il fallait effectuer le rendu global de la scène deux fois et mélanger l’ensemble. Le multitexturing a simplifié et a nettement accéléré le tout, en permettant d’appliquer plusieurs textures lors d’une seule et unique passe du rendu 3D. Cela pouvait se faire soit via la présence de plusieurs unités de texturing dans le pixel pipeline, soit via une boucle autour de ce dernier. C’est l’apparition de cette boucle qui a fait naître la 3D moderne, puisqu’il n’était alors plus nécessaire que le fabricant du GPU implémente la totalité d’un effet graphique d’une manière fixe.

Cette évolution a poussé le pixel pipeline à se simplifier à l’extrême, pour éviter tout gaspillage de ressources. Ainsi, huit pixel pipelines simples garantissaient un renLe pipeline dement optimal contrairement à Le GPU NV40 des GeForce 6800, le dernier représentant du long pipeline fixe. GPU et pipeline sont intimement liés, à de nom- quatre pixel pipelines plus combreux niveaux. Le principal est, bien entendu, plexes. Le pipeline devait cependant rester ont cependant changé la donne. Des unités lié au fait que le GPU exécute les étapes suc- très long, jusqu’à 256 cycles, pour masquer la dédiées trop complexes auraient représenté cessives du pipeline 3D, tel que standardisé latence du texturing, dont la plupart des étages un énorme gaspillage quand elles n’étaient par les API (Direct3D, etc.). Ce n’est cependant de ces longs pipelines ne servaient qu’à en pas utilisées. A l’exception du monde des SoC pas ce pipeline qui a marqué les joueurs qui attendre le résultat. Aujourd’hui, nous pouvons ARM, tous les GPU reposent aujourd’hui sur se sont intéressés aux cartes graphiques, dire qu’à force d’abstraction et de découplage, une architecture unifiée. mais bien le pixel pipeline qui correspond à la ces pixel pipelines ont disparu des GPU, remchaîne de fabrication des pixels. Plus un GPU placés par un amas d’unités de calcul et des Le fonctionnement des unités d’une architecture unifiée est identique pour tous les autres disposait de pipelines, plus son débit de pixels programmes évolués, les (pixel) shaders. types de shaders : le GPU exécute une même était élevé, et plus ce pipeline était évolué, plus instruction sur un petit groupe de vertices ou les pixels étaient détaillés. L’unification de pixels, en un certain nombre de cycles et Au départ, ce pipeline consistait en une seule Avec la multiplication du type de shaders que le les enchaîne jusqu’à arriver à une opération unité de texturing, il en a ensuite intégré une GPU peut exécuter, il est devenu de moins en qui entraîne une certaine latence, typiquement seconde et puis diverses opérations simples moins intéressant d’implémenter à chaque fois un accès aux textures, ou plus globalement à pour combiner deux ou trois textures, ce qui était des unités dédiées, au profit d’une architecture la mémoire. A ce moment, le groupe est mis unifiée qui revient à mutualiser en veille, il réside dans les registres généraux les unités d’exécution entre du GPU, et un autre est pris en charge, jusqu’à toutes les tâches que le GPU arriver lui aussi à une opération qui entraîne une doit traiter. Cette évolution a latence importante et être mis en veille. Une pris du temps à se mettre en fois le résultat de l’opération à forte latence place. Au départ, elle aurait, disponible pour le premier groupe, il redeviendra en effet, été contre-produc- actif et sera traité en priorité, jusqu’à tomber de tive, quelques unités dédiées nouveau sur une telle opération. Ce système étant moins coûteuses à permet au GPU de masquer une latence de implémenter qu’une logique plusieurs centaines de cycles, sans faire appel à de gestion et de partage des un très long pipeline, mais lui impose de jongler ressources, d’autant plus que entre de nombreux groupes de pixels et donc les unités dédiées à chaque d’embarquer des milliers de registres pour les type de tâches disposaient stocker. Notez que plus un shader utilise de de caractéristiques très diffé- registres, moins le GPU peut stocker d’éléments rentes (calcul FP32 mais pas et donc masquer la latence. d’unités de texturing pour les vertex shaders ; calcul entier Le fonctionnement mais unités de texturing pour d’un GPU moderne les pixel shaders). L’augmentation du nombre Le processeur de commande du GPU comd’unités de calcul et leur mence par lire un buffer de commandes, standardisation vers un jeu préparées par le CPU. Certaines servent à Le NV10 des premières GeForce a intégré le traitement de la géométrie avec le d’instructions identique paramétrer le GPU, d’autres sont des draw Transform & Lighting.

Hardware Magazine 113


Avec 576 mm², le GT200 des GeForce GTX285 à 260 est le plus gros GPU jamais commercialisé.

à récupérer les trois vertices qui composent un triangle par exemple. Viennent ensuite des étapes appelées culling et clipping lors desquelles le setup va observer si les triangles sont dans le champ de vision, s’ils ne tournent pas le dos à la caméra, etc., et ainsi éjecter du rendu de nombreux triangles inutiles.

calls qui demandent au GPU de rendre un élément. Des vertices sont alors chargés, ce qui représente des valeurs de position, des normales, des couleurs, etc. Le processeur de commande va créer des groupes de vertices et initier le traitement d’un vertex shader. Avec une liste d’instructions, les vertices vont être attribués à un groupe d’unités de calcul dès que l’un de ceux présents dans le GPU sera disponible. Une fois ce programme exécuté, les vertices et leurs nouveaux paramètres vont attendre que le setup soit prêt à les traiter. Le setup va se charger d’assembler les vertices en primitives, ce qui revient simplement

Le NV30 de la GeForce 5800 et ses quatre longs pipelines.

114 Hardware Magazine

Les triangles restants vont passer dans le rasterizer, unité fixe qui découpe les triangles en pixels suivant la résolution, et en les projetant sur une surface 2D. Chaque pixel conserve cependant une valeur Z ou de profondeur, qui permet de le situer dans l’espace par rapport aux autres pixels et donc de savoir lequel est devant l’autre. Le setup peut en profiter pour vérifier directement (early Z) si les pixels sont masqués ou pas, ce qui est très utile quand les triangles sont rendus de l’avant vers l’arrière de la scène. Suivant leur complexité, les rasterizers peuvent générer entre 4 et 32 pixels par cycle. L’interpolation pour les pixels des différentes données issues des vertices (position des textures, couleurs, normales) n’est plus effectuée à ce niveau, ce qui demande au GPU de conserver les données des vertices et de les lier aux pixels.

Les pixels sont toujours générés par blocs de 2 x 2, les quads, ce qui est nécessaire pour évaluer à faible coût la zone de la texture qui les recouvre, ainsi que pour le calcul direct de certaines opérations (dérivées partielles). Lorsque ces blocs ne sont pas complets, avec les petits triangles ou au niveau des arêtes, des pixels fantômes ou aidants sont générés, uniquement pour permettre le calcul de ces dérivées partielles, ce qui gaspille de la puissance de calcul utile. Les GPU actuels, quels qu’ils soient, ne sont pas prévus pour traiter des triangles plus petits que 4 pixels

Lorsqu’un petit triangle, en jaune, est rastérisé, il génère 3 pixels, en rouge. L’architecture des GPU reposant sur des quads, des pixels fantômes, en rose, doivent être générés. Ils ne seront cependant pas affichés et représentent un gaspillage des ressources.

Antialiasing C’est au niveau du rasterizer que prend place la première partie du support de l’antialiasing classique, de type MSAA. Grossièrement, il doit simplement utiliser une grille secondaire, plus fine, pour générer les valeurs Z qui vont représenter les samples. Les GPU sont capables de générer entre deux et huit fois plus de valeurs Z par cycle que de pixels complets, ce qui permet de réduire le coût de l’antialiasing. Cette possibilité est également utilisée pour faire exploser le débit lorsque la couleur des pixels n’est pas calculée, par exemple lors des passes géométriques dédiées au calcul des ombres. Sans couleur calculée, les pixel shaders peuvent être évités et les canaux de communication habituellement utilisés pour transporter les couleurs peuvent recevoir des données Z et ainsi augmenter leur débit, une possibilité inaugurée par nVidia avec la GeForce FX spécialement pour Doom 3 mais aujourd’hui largement répandue. Les ROP prennent en charge la seconde partie du support de l’antialiasing, puisque ce sont eux qui vont répandre la couleur d’un pixel sur tous ses samples visibles et gérer la compression. Si tous les samples d’un pixel sont visibles, il suffira de n’écrire qu’une seule fois la couleur et de préciser qu’elle est identique pour tous, de quoi entraîner des gains de performances conséquents.


Comprendre 3D

avaient la priorité. Le pixel shader représente souvent la partie la plus lourde du rendu 3D, avec l’exécution de programmes relativement longs qui vont demander plusieurs interpolations et accès aux textures. Quand le pixel shader est terminé pour un groupe de pixels, ce groupe est transféré vers les ROP ou render backends, ou encore output mergers qui vont se charger de les écrire en mémoire de la manière demandée par le processeur de commande. Ce n’est pas tout puisque c’est également à ce niveau que va être exécuté un test Z final pour vérifier si le pixel est bien visible, ainsi que le mélange nécessaire pour les pixels transparents. Typiquement, un GPU doit être En haut, une architecture de type DirectX 8 ou 9 gaspille de nombreuses ressources, contrairement à une architecture unifiée, telle qu’apparue à partir de DirectX 10. capable à ce niveau de lire un pixel précédemment écrit en moyenne. Ces quads, complets ou non, en mémoire, de comparer la profondeur, de sont ensuite regroupés par 16 (Radeon) ou 8 faire un mélange et d’écrire le nouveau pixel. Différentes techniques lui permettent de réduire (GeForce) pour le calcul des pixels. la bande passante nécessaire, telles qu’une Une fois un groupe formé, le processeur de compression des données ou un petit cache. commande va lui attacher un pixel shader et, en Celle-ci reste cependant très élevée, raison pour général, le faire traiter en priorité. Etant donné laquelle ROP et contrôleur mémoire sont touque les pixels sont générés en nombre, le GPU jours proches l’un de l’autre, voire ne font qu’un. doit essayer de s’en « débarrasser » le plus rapidement possible pour éviter d’être engorgé, ce Au final, entre l’entrée des vertices dans le qui arriverait rapidement si les vertex shaders GPU et l’écriture des pixels qui en découlent en

mémoire, se seront écoulés plusieurs milliers de cycles, dont une partie aura cependant été passée au repos. Pour qu’un GPU soit efficace, il doit essayer de réduire ce temps de repos au strict minimum et disposer de voies de communication suffisamment larges pour pouvoir être approvisionné et maintenir son débit maximal. Ces voies de communication représentent le plus gros challenge lors de la conception d’un GPU, compte tenu de la masse énorme d’unités d’exécution à connecter.

Compute Shaders Les GPU récents sont capables de traiter différents types de shaders, l’un des derniers en date étant le Compute Shader. A l’aube du GPU Computing, ce type de tâches était exécuté à travers une utilisation tordue du pipeline 3D et prenait place, en réalité, au niveau des pixel shaders, les autres étapes ne servant qu’à y amener les données. Tout cela était peu efficace et un GPU supporte aujourd’hui nativement des tâches dites « compute » pour lesquelles il ne va pas devoir exécuter un vertex shader vide, ni passer par le rasterizer. Un gain d’efficacité qui apporte également de nouvelles possibilités, telles que la communication entre différents éléments traités en parallèle. En contrepartie, passer dans ce mode n’est pas gratuit et demande un changement d’état général du GPU, soit de le vider complètement avant de traiter le nouveau type de tâches. Les développeurs doivent donc rassembler toutes les tâches « compute » ensemble pour éviter au GPU de perdre trop de temps en changements d’état et les fabricants de GPU doivent essayer de réduire ce délai.

Tessellation Nous avons décrit le fonctionnement d’un GPU lors du rendu d’un pixel « simple ». Le pipeline 3D des GPU modernes est cependant plus complexe, avec plusieurs étapes de rendu optionnelles qui s’intercalent entre les vertex shaders et le setup. Toutes ces étapes sont dédiées à la géométrie et la plupart d’entre elles à la tessellation, dont la prise en charge va bien plus loin que le simple tessellateur. Toujours piloté par le processeur de commande, le hull shader est complexe à traiter. Il demande, au préalable, d’assembler des patchs, soit par exemple un triangle avec les vertices voisins. Ce gros paquet de données va ensuite générer plusieurs tâches : le hull shader principal dans lequel est calculé le niveau de tessellation à appliquer et les points de contrôle qui doivent être calculés à part pour profiter de toutes les unités du GPU. Le niveau de tessellation est transféré au tessellateur, une petite unité fixe très simple qui va subdiviser simplement le triangle. Ces données seront combinées aux points de contrôle dans le domain shader pour définir chaque nouveau vertex. Toutes ces étapes génèrent énormément de données, ce qui peut engorger le GPU si les voies de communication dédiées sont trop étroites. C’est là que résident la complexité de la tessellation et son arrivée tardive. Implémenter une tessellation est très simple, mais permettre de l’exploiter est une tout autre histoire. Avec ou sans tessellation, un geometry shader peut être utilisé pour détruire ou créer des primitives, ce qui est différent de leur subdivision. Là aussi, l’amplification des données peut être difficile à gérer. Enfin, avant

le setup, le GPU peut enregistrer dans un format brut la géométrie ainsi calculée, c’est le stream output. L’apparition de cette étape a été facilitée par l’abandon de l’implémentation fixe du pipeline 3D, qui n’autorisait une écriture en mémoire qu’en bout de chaîne.

Hardware Magazine 115


Historique des GPU Nous avons rassemblé dans des tableaux les différents GPU haut de gamme commercialisés par ATi/AMD, ainsi que par nVidia depuis leur prise en charge du traitement de la géométrie. Comme vous pouvez l’observer, ces dernières années, c’est avant tout la puissance de calcul, soit les flops par cycle, qui a progressé. Par ailleurs, c’est seulement récemment que le débit de triangles s’est détaché de la limite de 1 par cycle, qui facilitait le design des GPU,

notamment en ce qui concerne le respect de l’ordre dans lequel doivent être affichés ces triangles. Le passage à une architecture unifiée avec le G80 et le R600 n’a pas marqué de progression dans la puissance de calcul, le gain de performances étant alors lié à un meilleur rendement de l’architecture. Notez que du côté de nVidia, la puissance de calcul par cycle a fait un bond en arrière lors de cette évolution, compensé par une

fréquence doublée des unités de calcul. Tant ATi que nVidia ont connu leur heure de gloire architecturale. Le premier avec le R300 qui a inauguré l’abandon des longs pipelines pour masquer la latence, au profit du multithreading massif et d’un compilateur intelligent. nVidia, quant à lui, a été le premier à réussir le passage à une architecture unifiée avec le G80. Dans chaque cas, il aura fallu 2 ans au concurrent pour rattraper son retard.

GPU

Technologie

Transistors (millions)

Bus (bits)

Pixels/ cycle

Texels/ cycle

Triangles/ cycle

Flops/cycle (VS + PS)

Année

Modèle

R100

180 nm

30

128

2

6

1/6

-

2000

Radeon

R200

150 nm

60

128

4

8

1/3

-

2001

Radeon 8500

R300

150 nm

107

256

8

8

1

40 + 96

2002

Radeon 9700 Pro

R420

130 nm

160

256

16

16

1

60 + 192

2004

Radeon X800

R520

90 nm

321

256

16

16

1

80 + 192

2005

Radeon X1800

R580

90 nm

384

256

16

16

1

80 + 576

2006

Radeon X1900

R600

80 nm

720

512

16

16+

1

640

2007

Radeon HD2900

RV670

55 nm

666

256

16

16+

1

640

2007

Radeon HD3800

RV770

55 nm

926

256

16

40

1

1 600

2008

Radeon HD4800

Cypress

40 nm

2 150

256

32

80

1

3 200

2009

Radeon HD5800

Cayman

40 nm

2 640

256

32

96

2

3 072

2010

Radeon HD6900

GPU

Technologie

Transistors (millions)

Bus (bits)

Pixels/ cycle

Texels/ cycle

Triangles/ cycle

Flops/ cycle

Année

Modèle

NV10

220 nm

22

128

4

4

1/8

-

1999

GeForce 256

NV15

180 nm

25

128

4

8

1/6

-

2000

GeForce 2 GTS

NV20

150 nm

57

128

4

8

1/2

-

2001

GeForce 3

NV25

150 nm

63

128

4

8

1/2

-

2002

GeForce 4 Ti

NV30

130 nm

125

128

4

8

1

30 + 32

2003

GeForce FX5800

NV35

130 nm

130

256

4

8

1

30 + 64

2003

GeForce FX5900

NV40

130 nm

222

256

16

16

1

60 + 192

2004

GeForce 6800

G70

110 nm

300

256

16

24

1

80 + 384

2005

GeForce 7800

G80

90 nm

681

384

24

32

1

256

2006

GeForce 8800

G92

65/55 nm

754

256

24

32

1

256

2007

GeForce 9800

GT200

65/55 nm

1 400

512

32

32

1

480

2008

GeForce GTX200

GF100/110

40 nm

3 000

384

32

64

4

1 024

2010

GeForce GTX480/580

116 Hardware Magazine



L’architecture des

Geforce GTX400/500 Tous les shaders sont exécutés par groupes de 32 éléments au niveau du SM qui contient un double scheduler, un cache L1 partagé de 64 ko et 32 768 registres de 32 bits, pour alimenter à chaque cycle deux de ces cinq blocs d’exécution :

2 groupes de 16 unités de calcul, 4 unités dédiées aux fonctions spéciales et 4 unités de texturing composent les SM du GF100/110.

Le GF100 et le GF110, nom de code Fermi, sont des révisions différentes d’un même GPU, qui équipe les GeForce GTX470, 480, 570, 580 et 590. Cette architecture a été optimisée pour fournir une puissance de calcul importante et exploitable facilement, ainsi qu’une prise en charge performante de la tessellation. En contrepartie de quoi, des compromis ont été faits au niveau de son débit de pixels et de texturing. Cette architecture repose sur des blocs principaux, les GPC pour Graphics Processing Clusters. A l’intérieur de ceux-ci, prennent place 4 SM, les Streaming Multiprocessors, pour un total de 16 dans le GPU.

• unité SIMD0 16-way (les « cores ») : 16 FMA FP32 • unité SIMD1 16-way (les «cores ») : 16 FMA FP32 • unité SFU quadruple : 4 fonctions spéciales (sin, cos, etc.) FP32 ou 16 interpolations • unité Load/Store 16-way 32 bits • unité de texturing 4-way En réalité, ce sont ces 16 SM qui devraient être appelés les cores du GPU, mais nVidia en a décidé autrement pour des raisons évidentes : compter les unités de calcul FMA permet d’obtenir le nombre de 512, plus flatteur. Le point fort de cette architecture, bien qu’elle repose sur des unités SIMD vectorielles, est d’en utiliser chaque ligne sur un élément différent, ce qui expose un modèle scalaire, très efficace, au développeur et au compilateur. La latence et le débit de chaque instruction sont différents, mais le tout est découplé, ce qui veut dire par exemple qu’une fonction spéciale qui prend plusieurs cycles ne va pas empêcher le scheduler d’envoyer une instruction à un autre bloc d’exécution. A un moment donné, ils peuvent donc tous être au travail. Le GF100 jongle avec de nombreux groupes d’éléments à traiter, pour ne pas être pénalisé par des dépendances au niveau des instructions ou par leur latence. La raison d’être du GPC n’est pas simplement de structurer le GPU, mais bien de permettre de travailler localement sur de plus petits triangles. Ainsi, au lieu d’un seul setup engine et d’un gros rasterizer de 32 pixels pour l’ensemble du GPU, chaque GPC dispose d’un setup engine et d’un rasterizer de 8 pixels, ce qui permet au GF100 de traiter 4 triangles par cycle. C’est, bien entendu, idéal pour la tessellation, mais le GF100 verra malgré tout son débit de pixels être divisé par 8 et sa puissance de calcul par 4 avec des triangles de 1 pixel qu’il n’est donc pas conçu pour traiter, même s’il le fait « moins mal » que les Radeon. La subdivision est, par ailleurs, prise en charge au niveau des SM, ce qui permet de ne pas centraliser dans le GPU l’amplification des données et ainsi entraîner un engorgement général.

La force du GF100 réside dans son architecture distribuée : les fonctions fixes sont parallélisées dans les GPC et dans les SM.

118 Hardware Magazine

Point faible de l’architecture, la communication entre les SM et les ROP est limitée à 2 pixels simples par cycle, un seul en HDR. Bien que ses 48 ROP puissent écrire 24 pixels HDR par cycle, ils sont en pratique limités à 16.

Variantes milieu et bas de gamme Les dérivés du GF100/110, introduits pour le GF104 de la GeForce GTX460, reposent sur une organisation interne légèrement différente. Chaque SM y dispose cette fois de deux doubles schedulers qui peuvent alimenter jusqu’à quatre de ces six blocs d’exécution : - unité SIMD0 16-way (les « cores ») : 16 FMA FP32 - unité SIMD1 16-way (les « cores ») : 16 FMA FP32 - unité SIMD2 16-way (les « cores ») : 16 FMA FP32 - unité SFU 8-way : 8 fonctions spéciales FP32 ou 32 interpolations - unité Load/Store 16-way 32 bits - unité de texturing 8-way Le fait qu’il s’agisse de deux doubles schedulers et non de quatre indique que ces GPU ne maximisent leur rendement que lorsqu’ils peuvent lancer en parallèle deux instructions pour un même groupe d’éléments, comme le ferait une architecture vec2.

Les SM du GF104 et des autres dérivés du GF100/110 sont plus costauds, mais un peu moins efficaces et moins nombreux.


Comprendre 3D

L’architecture des

Radeon HD5000/6000 Depuis le R300 des Radeon 9700, ATi et AMD ont fait évoluer lentement l’architecture, sans jamais marquer de ruptures. Plusieurs essais se sont rapidement avérés non concluants, tels que le fameux ring bus de la Radeon HD2900 ou encore le découplage des unités de texturing. La base de cette architecture consiste à utiliser des unités au comportement vectoriel, 3+1, puis 4+1, puis 1+1+1+1+1+1 dans le GPU, ce que nous simplifions en vec5 pour marquer la différence par rapport au comportement scalaire de l’architecture de nVidia. La structure principale de ces GPU est dénommée SIMD, ce qui n’est pas très clair au vu de ce qu’elle contient : • 16 384 registres de 128 bits • mémoire partagée de 32 ko • unité MIMD 64-way (16 x 4) : 64 FMA FP32 • unité SIMD 16-way : 16 FMA ou 16 fonctions spéciales FP32 • unité de texturing 4-way Pour exploiter un SIMD, que nous devrions appeler « core », il faut que le compilateur arrive à extraire du code quatre instructions simples non dépendantes les unes des autres, ainsi qu’une cinquième instruction qui peut être plus complexe. En général, ce n’est pas le cas et le rendement se situe entre trois et quatre instruc-

d’un même groupe. En cas de résultats différents au sein d’un groupe, les deux branches sont calculées pour tous les éléments, seul le bon résultat étant retenu au final.

Chaque SIMD de Cypress embarque 4 unités simple et une grosse unité, chacune répliquée 16x.

tions par cycle, ce qui est cependant suffisant pour justifier ces choix d’architecture. La Radeon HD5800 dispose de 20 de ces SIMD, contre 14 pour la Radeon HD6800. Alors que nVidia travaille avec des groupes de 32 éléments, il s’agit ici de groupes de 64, ce qui ne pose pas de problèmes pour les pixels et les vertices, traités en nombre, mais fait par contre probablement chuter le rendement lors du traitement des hull shaders liés à la tessellation et dont la parallélisation du traitement est plus délicate. L’efficacité des branchements est également réduite puisque, pour rappel, il ne peut pas y avoir de bifurcations entre des éléments

Le setup engine et la tessellation prennent place au niveau global du GPU, ce qui réduit son débit de pixels, dès que les triangles en représentent moins de 32 pour Cypress (HD5800) et Barts (6800). Ce n’est cependant pas le plus gros problème de ce GPU avec la tessellation, puisqu’il souffre avant tout d’un engorgement excessif quand de nombreuses données sont générées. Avec les Radeon HD6000, AMD a compensé légèrement ce problème en augmentant la taille du buffer en sortie du tessellateur. Les canaux de communication avec les ROP sont, par contre, dimensionnés pour assurer un débit maximal, ce qui permet aux Radeon haut de gamme de souffrir un peu moins que les GeForce lors de la montée en résolution.

Variante vec4 Les Radeon HD6900, basées sur le GPU Cayman, ont elles aussi une organisation légèrement différente. Leur unité SIMD 16-way capable de traiter les fonctions spéciales disparaît pour simplifier le design et le compilateur et pour améliorer le rendement, puisque l’architecture a un comportement vec4 au lieu de vec5. Les instructions complexes sont dorénavant décomposées en instructions plus simples, traitées par la grosse unité MIMD. AMD en a profité pour séparer le gros setup engine en deux plus petits, ce qui permet d’éjecter les triangles masqués deux fois plus vite et de conserver un débit de pixels maximal avec des triangles de 16 pixels au lieu de 32. L’engorgement excessif du GPU avec la tessellation n’est cependant pas réglé.

Cypress embarque 20 SIMD pour une puissance de calcul très élevée, mais une structure globale qui a peu évolué au niveau des fonctions fixes utiles à la tessellation.

Avec Cayman, AMD s’est débarrassé des grosses unités spéciales pour simplifier le design.

Hardware Magazine 119


Graphic Core Next,

le futur des Radeon Un « shader core » nettement plus complexe à implémenter, mais plus simple à exploiter.

Cet été, AMD a levé un coin de voile sur sa future architecture, qui devrait arriver, comme prévu, au mois de décembre, selon nos informations les plus récentes. Dénommée GCN pour Graphic Core Next, elle marque une rupture avec le fonctionnement des Radeon précédentes, bien que les unités d’exécution puissent être vues comme très proches de celles de Cayman. Le nom de SIMD est enfin abandonné pour représenter la structure qui héberge les unités de calcul, au profit de CU pour Compute Unit. Chaque CU dispose de : • unité SIMD0 16-way : 16 FMA (inclus 16 384 registres 32 bits) • unité SIMD1 16-way : 16 FMA (inclus 16 384 registres 32 bits) • unité SIMD2 16-way : 16 FMA (inclus 16 384 registres 32 bits) • unité SIMD3 16-way : 16 FMA (inclus 16 384registres 32 bits) • unité scalaire : int32 (inclus 2 048 registres 32 bits) • unité de texturing 4-way • mémoire partagée de 64 ko • cache L1 de 16 ko L’éclatement de l’unité MIMD est une grosse révolution puisque s’en va avec elle le comportement vectoriel de l’architecture, au profit d’un comportement scalaire plus efficace et simple à utiliser. En contrepartie, le nombre minimal de groupes d’éléments à traiter est plus important, puisque chaque SIMD devra travailler sur un groupe différent. Le design compense en partie cela par le fait

qu’il n’est plus nécessaire d’entrelacer deux groupes, comme c’était le cas auparavant entre deux instructions. AMD a, par ailleurs, ajouté une unité scalaire réelle (vs des unités SIMD au comportement vectoriel) qui permettra de dégager du flux d’instructions classique, tout ce qui n’a pas vocation à être parallélisé. Si l’utilité de cette unité ne fait aucun doute dans le cas du GPU computing, nous ne savons pas si elle sera utilisée en rendu 3D. Dans tous les cas, seul le pilote graphique pourra en faire une utilisation puisqu’elle n’est pas exposée dans Direct3D. Ces deux évolutions vont éviter que des lignes d’une grosse unité vectorielle ne restent inutilisées, ce qui gaspille de l’énergie. Attention cependant, toute autre chose étant égale, c’est

le rendement énergétique qui augmente et pas la consommation absolue qui diminue. Le procédé de fabrication en 28 nm, que ce GPU devrait inaugurer, sera donc le bienvenu pour pouvoir profiter de l’augmentation des performances, sans augmenter la consommation. L’apparition d’un cache L1 généralisé en écriture/lecture marque une évolution significative du sous-système mémoire, comme l’a fait nVidia avec le GF100. Toujours dans un souci d’économie d’énergie, AMD a ajouté un canal qui permet d’alimenter la mémoire partagée directement à partir du L1, pour éviter de passer par les unités d’exécution. Un Scalabe Graphics Engine, proche du processeur de commande et des contrôleurs mémoire, intègre les unités fixes liées au rendu 3D. Il peut contenir plusieurs primitive pipes qui seront chargées de la tessellation et plusieurs pixel pipes qui englobent le setup engine, ainsi que les ROP. Si l’architecture est prévue pour évoluer avec plus de ces unités, il reste à voir si les canaux de communication corrigeront bien le problème d’engorgement actuel. Enfin, si le SGE contient bien de quoi traiter les tâches de type « compute », le GPU peut intégrer en parallèle des ACE pour Asynchronous Compute Engines. Ils permettront de passer complètement la partie graphique du GPU et de supporter une gestion plus flexible des tâches GPU et du multithreading. Une pierre essentielle dans la stratégie OpenCL d’AMD.

GCN dispose d’un frontend très flexible, qui permet de faire varier le nombre d’unités fixes pour la 3D, ainsi que d’unités de contrôle dédiées au GPU computing.

120 Hardware Magazine



Capable d’accueillir douze disques durs et les plus grands formats de cartes mères, le PC-90 de Lian Li étonne aussi par sa taille raisonnable et l’originalité de son châssis. Reste à voir si le boîtier est efficace en termes de montage et de refroidissement.

Lian Li PC-90 réinvente l’espace

Pas simple pour les disques durs

Refroidissement 5 4 Prix

3 2

Bruit

1 0

Finition

Espace

Montage

Fiche technique

• Nom : PC-90 • Constructeur : Lian Li • Type : grande tour • Compatibilité carte mère : HPTX, E-ATX, XL-ATX, ATX, microATX, mini-ITX • Emplacements 5,25 pouces : 2 • Emplacements 3,5/2,5 pouces : 6/6 ou 0/12 • Slots d’extension : 10 • Ventilateurs : 2 x 140 mm à l’avant, 120 mm à l’arrière • Connectique : 2 x USB 3.0, eSATA, casque et micro • Dimensions : 512 x 489 x 230 mm • Poids : 6,7 kg • Prix : 219 $ Bonne ventilation et discrète Qualité de fabrication/finition Full aluminium Compatible HPTX, E-ATX et XL-ATX Rapport espace interne/taille du boîtier Jusqu’à 12 disques durs Accessibilité une fois assemblé Organisation des câbles Limitation de la hauteur du ventirad Intérieur gris ?

122 Hardware Magazine

L

ian Li ne chôme pas ces derniers temps et a complété ou renouvelé plusieurs de ses gammes d’une ou deux références. Si certaines, comme le PC-Z60, se sont montrées décevantes, le PC-90 semble être mieux équilibré et intrigue par son agencement interne encore jamais vu. Donné pour une grande tour, ses dimensions restent pourtant contenues avec seulement quelques centimètres de plus, en hauteur comme en largeur, que des moyennes tours telles que les Carbide 400R ou Obsidian 650D. Intégralement en aluminium, le boîtier présente une robe noire sobre et des lignes franches, seule la façade se démarque avec ses quelques rondeurs et de multiples perforations. On y distingue également deux baies 5,25’’ dont une avec un cache battant, les deux diodes d’activité faisant aussi office de boutons d’allumage et de reset (rouge et bleu) et les ports déportés composés de deux USB 3.0 à connecteur interne (adaptateur USB 2.0 livré), un eSATA et les prises casque et micro.

Les portes du boîtier s’enlèvent classiquement à l’aide de deux vis à main et coulissent parfaitement. On découvre alors l’originalité du boîtier sur son côté gauche, avec trois montants amovibles dont les plus larges aux extrémités servent de supports pour les disques durs/SSD. Chacun peut accueillir six unités de stockage et plus exactement douze 2,5’’ réparties des deux côtés des plaques, ou six 3,5’’ et six 2,5’’, car vous ne pouvez fixer les 3,5’’ que sur la partie donnant vers l’extérieur du boîtier. Les unités doivent être équipées de larges vis à main et d’épaisses rondelles de caoutchouc à glisser dans les trous des deux plaques. Le montant central permet, quant à lui, de soutenir les longues et lourdes cartes filles grâce à des cales ajustables. Elles sont, par contre, inadaptées à la plupart des cartes graphiques dont les connecteurs PCI-Express sont installés sur la tranche, la cale empêche l’insertion des prises d’alimentation. On trouve également un passe-câble multiple en plastique sur ce montant central, il sera utile pour amener les câbles vers les disques durs. Les trois montants se retirent à l’aide de vis à main et laissent apparaître un espace interne

Les deux supports en aluminium pour les unités de stockage peuvent chacun accueillir trois 3,5’’et trois 2,5’’, ou six 2,5’’.

Avec ses dix slots d’extension, le PC-90 est compatible avec les formats de cartes mères HPTX, E-ATX et XL-ATX.


Le boîtier est refroidi par deux 140 mm en façade et un 120 mm à l’arrière. Les deux ports USB 3.0 adoptent un format de connecteur interne.

Test : Boitier

ventirad. En bref, vous disposez de 14,1 cm de hauteur pour loger des unités 2,5’’ au-dessus du ventirad, de 15,2 cm sans disques durs/SSD et de 14,3 cm dans le cas d’un très large ventirad et si vous comptez utiliser le montant central. Pour l’organisation des fils, en dehors du passe-câble cité précédemment pour guider

Voici la grande originalité du PC-90, les unités de stockage sont placées sur leur tranche et alignées en hauteur sur le côté du boîtier.

très confortable, puisque complètement vide en dehors de la séparation supérieure pour les baies 5,25’’ et l’alimentation. Avec les dix slots d’extension, cela permet au PC-90 d’être compatible avec tous les formats de cartes mères et notamment les plus grandes, comme les HPTX (format non officiel de la Classified SR-2 d’EVGA qui est la seule à ce jour), les E-ATX et les XL-ATX. L’alimentation se glisse dans des rails pouvant soutenir les modèles les plus longs. Les cartes filles se fixent avec des vis à main, il s’agit d’une glissière pour les lecteurs optiques. La grande profondeur du boîtier autorise l’insertion de n’importe quelle carte graphique et jusqu’à quatre, si le format de la carte mère le permet. En revanche, tous les ventirads ne sont pas compatibles. Le bout des caloducs de notre Thermalright HR-02 mesurant 16,2 cm de haut empêchait la pose du support de stockage prenant place juste au-dessus. Il en sera donc de même sur une carte mère en double socket CPU avec le second montant. Il faut également prendre en compte l’espace occupé par des éventuelles unités 2,5’’ fixées à cet endroit et la largeur du

Les cales pour cartes filles permettent de maintenir les plus longues et plus lourdes cartes graphiques. Mais elles sont incompatibles avec les GPU plus courts possédant leurs connecteurs d’alimentation sur la tranche du PCB.

ce passe-câble est pratique pour guider les fils d’alimentation SATA, son support gênera les larges ventirads de plus de 14,3 cm de haut. Si vous comptez placer un disque dur 2,5’’ sur les deux emplacements situés au-dessus du ventirad, ce dernier ne doit pas dépasser les 14,1 cm de hauteur (15,2 cm sans disques durs).

les prises d’alimentation des disques durs, une seule ouverture dans le plateau de la carte mère a été prévue et elle sera en grande partie obstruée avec une carte mère E-ATX/HPTX. La majorité des câbles seront amenés du haut du boîtier vers l’arrière du plateau de la carte mère ou vers le montant central, mais le châssis ne propose aucune accroche pour utiliser un collier et les connecteurs des ports déportés et des boutons/diodes de façade pendent dans le boîtier. L’assemblage du coeur du système reste simple car bien accessible, mieux vaut ensuite commencer par fixer le montant de stockage arrière pour accéder plus facilement aux connecteurs SATA, en passant les mains de l’autre côté de la tour. Sans longs câbles de données SATA, il est ensuite compliqué de faire courir ces fils le long du châssis vers la carte mère, ils flottent donc au milieu de la tour et perturbent un peu le flux d’air des ventilateurs avant. Cet agencement rend, par ailleurs, l’accès interne difficile lorsque tout est monté puisqu’il faut déloger un, voire les deux supports HDD pour atteindre les cartes filles et la carte mère. L’organisation des câbles aurait finalement pu être mieux pensée, même si on s’en sort sans trop d’efforts.

Seules ces deux ouvertures dans le panier de la carte mère sont prévues pour accéder au socket CPU et passer les câbles.

Le flux d’air parcourt efficacement la tour et refroidit bien tous les composants.

Hardware Magazine 123


Lian Li n’a pas oublié les éléments antivibration, on trouve des rondelles épaisses de caoutchouc pour les disques durs, les lecteurs optiques et les ventilateurs, des bandes de gomme pour l’alimentation et des tampons de caoutchouc au niveau de la jonction entre les deux plaques soutenant les unités de stockage et le châssis.

Températures °C Disque dur 3

34 31

Disque dur 2

33 30 37 34

Disque dur 1 GPU

87

41

CPU

Ça ventile bien

70

38

Le PC-90 est refroidi par trois ventilateurs à connectiques 3 pins et Molex, deux 140 mm en façade associés Charge Repos à un filtre à poussière extractible et Configuration de test : carte mère X58 associée à un i7-920 et un lavable, et un 120 mm à l’arrière. Un Thermalright HR-02, trois disques durs Seagate 7200.11 1 To, Samsung EcoGreen F4 2 To et Hitachi 7K1000.C 1 To, une alimentation Silverstone dernier slot est disponible pour ajouter 450 W passive et une Radeon HD5670 passive de chez Sapphire. un 140 mm sur le capot, à condition que l’alimentation soit de taille standard. Ces trois ventilateurs se sont montrés performants puisqu’ils produisaient un souffle discret en 12 V, tout en ayant dissipé correctement notre configuration passive. Le Core i7-920 n’a pas dépassé les 70 °C en charge et la Radeon HD5670 plafonnait à 87 °C, alors qu’elle monte généralement à 92 °C dans des moyennes tours équipées du même type de ventilation. La plus grande interrogation concernait la température des disques durs qui ne profitent pas d’un souffle d’air direct. 0

20

40

60

Une fois monté, l’accès au système est un peu difficile.

124 Hardware Magazine

80

100

Plus de colliers, cela n’aurait pas été un luxe dans le packaging, on apprécie, en revanche, la boîte de rangement.

Mais la ventilation est finalement suffisante, les trois unités 3,5’’ que nous avions placées à l’avant sont montées à 37 et 34 °C pour nos deux 7 200 tours/min de 1 To et à 33 °C pour le 5 400 tours/min de 2 To, après une heure de charge intensive. Notez qu’aucun emplacement pour un radiateur de watercooling n’est prévu de base, mais si vous êtes bricoleur et avec les deux passe-tuyaux à l’arrière, la place est disponible pour en ajouter un.

Un boîtier polyvalent Le PC-90 n’est pas parfait mais très intéressant. Son avantage ? Accepter des configurations XLATX sans aucune limitation pour les cartes graphiques, avec douze emplacements de stockage, même s’il n’y en a que six pour les 3,5’’, le tout dans un boîtier pas beaucoup plus volumineux que les plus grandes moyennes tours. Mais il offre aussi un bon rapport refroidissement/bruit et peut s’adapter à tout type de configurations, à condition de prendre en compte les limitations du ventirad. Son plus grand défaut vient du manque d’organisation des câbles, bien que le montage en lui-même ne soit pas beaucoup plus compliqué que dans un autre boîtier standard. Les boîtiers XL-ATX ne sont pas nombreux, encore moins pour les HPTX. On peut citer les Lian Li PC-P80 (XL-ATX), PC-Z70 (XL-ATX) et PC-2120 (XL-ATX, HPTX) qui sont très chers et les Aerocool XPredator (XL-ATX), Xigmatek Elysium (XL-ATX, HPTX) et Cooler Master HAF-X (XL-ATX) qui ont, eux, un look très typé que tout le monde n’appréciera pas. L’arrivée du PC-90 permet donc d’étendre ce choix, d’autant plus que son prix de 219 $ n’est pas excessif, ce qui donne environ 160 €.

Les alimentations les plus puissantes et donc les plus longues rentrent si on n’utilise pas l’emplacement 140 mm optionnel du capot.


Test : Alims

Adata BN400, Corsair CX430 V2 Duel de reines, à moins de 50 € La nouvelle Adata BN 400 W est une cousine très proche de la Cougar A 400 W !

Adata se diversifie

grappiller une dizaine d’euros pour prendre une Corsair CX, l’écart de rendement avec la BN est réel et la tenue en température bien meilleure (elle respecte ses spécifications à 50 °C, tandis que la CX avec ses composants un peu moins bons ne tient son contrat qu’à 30 °C).

Corsair progresse encore Il ne faudrait pas juger la Corsair trop vite parce qu’un autre modèle fait un peu mieux. Au prix où elle est commercialisée, c’est-à-dire 35 à 40 €, la CX430 V2 est la référence. Et si un écart de 10 € en soi ne semble pas grandchose, c’est tout de même 25 % à ce niveau de prix ! Une nouvelle fois, en améliorant légèrement le rendement par rapport au modèle précédent, Corsair réussit l’exploit de cumuler un look (coque noir mat de bonne facture, câbles gainés), des prestations électriques très correctes et des nuisances sonores dans la bonne moyenne. Surtout, Corsair sait s’arrêter là où il faut ! A vouloir gagner 5 € de plus, la qualité s’en ressentirait vraiment. Pas plus chère, elle améliore légèrement les prestations de son aînée qui était déjà conseillée pour des PC modestes. Avec un rendement un peu meilleur que celui de l’Antec VP 450 W, c’est du coup le meilleur bloc 1er prix du marché désormais. N’essayez pas de trouver la même chose pour 25 ou 30 €, ça n’existe pas ; à se demander comment les blocs moins chers peuvent encore exister. Quant au modèle Adata, il est également d’excellente qualité (meilleur même, tensions un peu plus stables et rendement légèrement supérieur), mais il est un peu plus cher et encore moins facile à trouver dans le commerce que la Cougar A que nous aimons recommander. Astuce pour ces deux dernières, n’hésitez pas à regarder outre-Rhin, beaucoup de boutiques en ligne allemandes les ont au catalogue.

Adata BN400

• Marque : Adata • Gamme : BN Series • Déclinaisons : 400/450/500/550 W • Modèle essayé : 400 W • Modulaire : non • Certification 80 Plus : oui (Bronze) • Architecture 12 V : 2 rails (20 + 20 A) • Connecteurs PCI-Express : 6 + 2 pins x 2 • SATA : 4 • Molex : 3 • Profondeur : 14 cm • Garantie : 3 ans • Prix : 50 € Rapport qualité/prix Finition Silence Difficile à trouver dans le commerce

Corsair CX430 V2

C

UPDAT E

S’éloignant de la RAM et de la mémoire Flash, Adata vend désormais des alimentations. Sortent les séries HM pour les PC puissants et les BN pour les PC plus modestes. Le constructeur nous a fait parvenir une BN 400 W, la plus petite. Fabriquée par HEC Compucase, jumelle d’une TE-WX 400 W, c’est une alimentation 80 Plus Bronze non modulaire de bonne facture. Saviez-vous que HEC est également la maison mère de Cougar, la marque allemande qui cumule les récompenses ? Et si le look change, l’électronique de la BN400 est tout simplement identique à celle de la Cougar A 400 W, notre favorite. La coque en alu brossé gris moyen de la BN est du plus bel effet, ce qui est rarement proposé à ce niveau de prix. Les prestations électriques et le silence sont d’un très bon niveau, comme sa cousine, ce qui se fait de mieux à ce tarif. Et s’il peut être tentant de

En améliorant légèrement (environ 3 %) le rendement de la CX430 de première génération, Corsair a réussi à perfectionner le meilleur bloc 1er prix.

P

D

eux nouvelles alimentations viennent concurrencer le segment d’entrée de gamme, qui ne compte pas tellement d’élues. Jusqu’ici, nos références en 1er prix étaient les Corsair CX 430 W et Antec VP 450 W qui tiennent sous la barre des 40 € et, avec un rendement 2 à 4 % supérieur et un bruit proche du néant, les Antec EarthWatts Green 380 W et surtout la Cougar A 400 W entre 45 et 50 €. Les nouvelles Adata BN 400 W et Corsair CX430 V2 sont-elles dignes d’achat ?

Corsair renouvelle une référence, la CX430 V2, promettant un meilleur rendement. Restera-t-elle la reine des blocs à moins de 40 € ? La BN 400 W à 50 €, première alimentation ADATA, clone Cougar pour le meilleur.

• Marque : Corsair • Gamme : Builder Series CX V2 • Déclinaisons : 430/500/600 W • Modèle essayé : 430 W • Modulaire : non • Certification 80 Plus : oui (Standard) • Architecture 12 V : 1 rail (28 A) • Connecteurs PCI-Express : 6 + 2 pins x 4 • SATA : 4 • Molex : 3 • Profondeur : 14 cm • Garantie : 3 ans • Prix : 40 € Rapport qualité/prix Finition Pas assez puissante pour que ses 4 câbles PCI-E soient utiles

Hardware Magazine 125


En grand, la Z68A-GD65 (G3). A ses côtés, la Z68MA-G45 (B3).

Après l’ASRock Fatal1ty, la MSI Z68A-GD65 (G3) est la deuxième carte mère compatible PCI-E 3.0 qui passe entre nos mains. Estce un critère suffisant pour craquer ? Vendue à peine plus de 100 €, la Z68MA-G45 démocratise, quant à elle, le Z68 et son format la suppose idéale pour le home cinéma.

Z68A-GD65 G3

• Marque : MSI • Modèle : Z68A-GD65 G3 • Socket/chipset : Intel 1155/Intel Z68 • RAM : DDR3 *4 • PCI-Express : 16x *2 (PCI-E 3.0), 1x *3 (PCI-E 2.0) • PCI : 2 • SATA 6 Gb/s : 4 (2 Intel + 2 Marvell) • SATA 3 Gb/s : 4 (Intel) • eSATA : 0 • Réseau : Gigabit Ethernet • Audio : HD Audio 7.1 (Realtek ALC 892) • Sorties S/PDIF : optique et coaxiale • USB 3.0 : *4 (dont 2 via une prise interne) • USB 2.0 : *10 (dont 6 via des prises internes) • FireWire : 0 • Prises pour ventilateurs : 5 (dont 2 PWM) • Sorties vidéo : VGA + DVI + HDMI • Divers : boutons Power/Reset/Clear CMOS, bouton OC Genie II, points de mesure des tensions • Prix : 165 € Interface BIOS UEFI Compatible PCI-E 3.0 Rapport qualité/prix Gestion de la ventilation uniquement pour le CPU

126 Hardware Magazine

MSI Z68A-GD65 (G3) et Z68MA-G45 (B3)

PCI-Express 3.0 ou microATX petit prix, le Z68 gagne du terrain

D

urant le test de l’ASRock Fatal1ty Z68 Professional Gen3 publié dans PC Update n° 55, le renouvellement des MSI Z68A-GD65 et Z68A-GD80 en versions compatibles PCIExpress 3.0 était évoqué. Voici l’essai détaillé du modèle GD65, une série qui a pour habitude de se vendre mieux que la moyenne en raison d’un bon équilibre et d’un excellent rapport qualité/prix. En complément, nous essayons la Z68MA-G45, au format microATX. Idéale pour un PC home cinéma, elle dépasse tout juste la barre des 100 €, c’est le prix des cartes H67. Est-elle plus séduisante ?

GD65, de l’or pour MSI Le suffixe GD65 est synonyme d’un bon milieu de gamme chez MSI. Quels que soient la génération, le socket et le chipset, ce sont généralement des cartes vendues un peu plus de 150 €, qui bénéficient d’un équipement complet et de bonnes performances. En début d’année, la version P67 (P67A-GD65) a reçu une distinction, étant une des meilleures cartes pour la plateforme Intel Sandy Bridge (socket 1155). A la sortie du chipset Z68 au printemps, nous avons testé (Hardware Magazine n° 53) la Z68MA-ED55 (microATX bien équipée) et la Z68A-GD80 (haut de gamme), toutes deux accompagnées du label B3 en rappel au bug des tout premiers chipsets H67 et P67 révision B2. Pour rappel, le chipset Z68, le plus haut de gamme, se distingue des autres car il cumule la faculté des

H61 et H67 à exploiter l’IGP des processeurs, tout en offrant la liberté d’overclocking du P67. Il innove également avec la nouvelle fonction SRT (Smart Response Technology) qui permet de combiner, avec un succès relatif, les performances d’un SSD et la capacité d’un disque dur (ce que l’on appelle plus généralement du SSD Caching). Par rapport à la GD80, la GD65 n’a plus que deux ports PCI-E 16x au lieu de trois, pas d’eSATA, elle se passe de FireWire et se contente d’une seule carte réseau Gigabit contre deux. En dehors de ces équipements, les deux cartes sont quasiment identiques, seul l’étage d’alimentation est plus « solide » sur la GD80, un critère qui n’entre pas en compte pour la majorité des personnes, puisque celui de la GD65 permet déjà d’overclocker un Core i7 bien au-delà des 5 GHz. Autrement dit, bien que l’on puisse à la rigueur critiquer l’absence de la prise eSATA (aisément abandonnée au profit d’un boîtier externe USB 3.0), la GD65 bénéficie d’une excellente qualité de fabrication et d’un équipement conséquent ! Avec en bonus quelques surprises, ainsi, alors que la GD80 se contente de sorties vidéo numériques HDMI 1.4 et DVI , la GD65 ajoute une prise VGA. Dans le même genre, la GD80 n’a de la place que pour une sortie audio numérique S/PDIF optique, la GD65 offre plus de souplesse en cumulant optique et coaxiale. Enfin, l’un des deux ports pilotés par le contrôleur de stockage Marvell SE9128 sur la GD80 étant déporté à l’arrière (la prise eSATA), c’est une prise de plus disponible à l’intérieur sur la GD65 qui gère donc jusqu’à huit SATA. En ce qui concerne l’USB, aucune différence entre les deux niveaux de


Test : Cartes mères

gamme. La GD65 embarque elle aussi deux contrôleurs USB 3.0 NEC D720200 pour deux prises arrière et un header, sans oublier les dix USB 2.0 (quatre à l’arrière + trois headers). L’offre logicielle ne change pas entre ces deux cartes, toutes deux étant sous licence nVidia SLI pour deux cartes seulement, toutes deux offrant le (pas très utile) logiciel THX TruStudio Pro et toutes deux étant également compatibles avec la solution Lucid Virtu qui permet de cumuler, non sans contraintes, les capacités de l’IGP et d’une véritable carte 3D. Après cette analyse comparative, si la haut de gamme GD80 ne choque pas à 210 € (en version G3 également), il y a quand même de quoi s’interroger sur l’intérêt de débourser 45 € de plus que pour la GD65, décidément bien placée.

B3 > G3, quoi de neuf ? Tout le monde a compris l’intérêt de s’offrir une GD65, mais qu’est-ce qui change entre l’ancienne Z68A-GD65 (B3) et la nouvelle Z68A-GD65 (G3) ? Comme rappelé en introduction, G3 est ici synonyme de PCI-Express de 3e génération. Ça signifie que, pour les deux ports PCI-Express 16x (16/0 ou 8/8 puisque le contrôleur du CPU ne pilote que 16 lignes en tout), les switchs qui pilotent justement l’attribution des lignes d’un port à l’autre sont compatibles avec PCI-E 3.0, contrairement aux précédents. Pour l’heure, ça ne sert à rien puisque les processeurs actuels sont incompatibles. Mais la prochaine génération, connue sous le nom de code d’Ivy Bridge et qui débarque dans quelques mois, intégrera un contrôleur PCI-E 3.0 et cette carte mère ainsi que l’ASRock de PC Update n° 55 seront compatibles. MSI indique quelques progrès concernant le stockage en l’état actuel des choses (des débits améliorés, grâce aux switchs PCI-E de meilleure qualité), des gains que nous n’avons pas été en mesure de reproduire (du moins si faibles qu’ils ne comptent pas). Petit à petit, de nombreux modèles MSI sont déclinés en version G3, à savoir les Z68A-G43, Z68AG45, Z68A-GD55, Z68A-GD65 et Z68A-GD80, mais seul le chipset Z68 est concerné par ce rafraîchissement. Pour donner un peu plus d’attrait à la série, MSI introduit sur ces modèles Click BIOS II, une version totalement relookée de son BIOS UEFI. Plus design, aux couleurs parfaitement assorties à la carte (mélange de noir et de bleu), il est très réussi avec des informations publiées sur le haut de l’écran, des réglages accessibles à la souris sur les côtés et une liste de paramètres réglables de façon plus classique au clavier au centre. Plus réussi, il n’introduit, en revanche, aucune nouveauté. MSI n’a pas encore indiqué prévoir de généraliser Click BIOS II aux anciens modèles.

déplumée pour obtenir un bon prix : elle bénéficie de deux prises USB 3.0, le BIOS UEFI est présent tout comme les licences THX TruStudio, Lucid Virtu et même SLI. Eh oui, les deux ports PCI-Express sont bel et bien configurables en 8 et 8, alors que les autres cartes de la catégorie se contentent généralement d’un seul port 16x. Original, ce modèle se distingue des autres par l’adoption de headers couchés à 90° vers le bas de la carte mère (audio, TPM, USB, diodes et boutons) facilitant ainsi des montages soignés ! Le refroidissement très succinct (tout petit radiateur sur le chipset, rien sur l’étage d’alimentation CPU), l’absence de boutons sur la carte et l’utilisation de composants de moins haute qualité ne font pas de cette carte une référence en termes d’overclocking, mais son BIOS étant néanmoins très complet, vous pourrez gagner des centaines de mégahertz sans problème, au moins cadencer un 2500K ou 2600K vers 4 GHz. Si vous possédez un ampli audio-vidéo moderne, c’est-à-dire équipé de prises HDMI, c’est donc une excellente carte mère pour PC home cinéma. Dans le cas contraire, l’absence de prise optique et/ou coaxiale est préjudiciable, d’autant qu’il n’y a pas non plus de header S/PDIF. Mais au-delà d’un PC multimédia, cette carte peut être le point de départ pour une machine de joueur très performante et bon marché ! Complétez-la d’un Core i5-2500K (180 €) et de deux GeForce GTX560 Ti en SLI (400 €) et vous profiterez d’un vrai monstre, sans débourser trois mois de salaire ! Et pour ne rien gâcher, son format réduit permettra d’installer la configuration dans un très séduisant Silverstone Fortress FT-03 en aluminium. Faut-il acheter ces nouveautés MSI ? Concernant la GD65, c’est une vraie réussite. Néanmoins, malgré l’intérêt augmenté grâce à la compatibilité PCI-E 3.0, le surcoût de ce chipset est toujours difficile à avaler. La P67A-GD65 ayant baissé vers 140 €, c’est elle que l’on continue à recommander, sans oublier l’ASRock P67 Extreme 4 au même prix. La problématique qui concerne la Z68MA-G45 est différente. A 105 € (certains magasins la proposent déjà sous les 100 €), c’est l’une des cartes Z68 les moins chères, sans pour autant sacrifier de trop l’équipement. Mais l’absence de sortie audio numérique S/PDIF restreint son usage pour le home cinéma, quant à son format, il n’a d’utilité que pour de rares boîtiers, sans quoi notre référence ASRock Z68 Pro 3 en ATX normal offre un meilleur équipement pour le même ordre de prix. En résumé, ce sont deux bons produits, à choisir pour leurs différences.

Z68 microATX, pour le salon ? De son côté, la petite carte mère Z68MA-G45, contrairement à la version ED55 que nous avons essayée il y a deux numéros, est bon marché (à peine 105 € contre 140 €). Ça change tout, car cette G45 ne souffre plus vraiment du surcoût lié à son chipset, qui devient du coup plus intéressant. Certes, il existe des cartes P67 qui coûtent 10 € de moins, mais précisons que la G45 n’a pas été

Au centre, les switchs PCI-Express compatibles 3.0.

Le nouveau Click BIOS II est bien plus réussi que son aîné. Mais il ne s’agit que de retouches esthétiques, le contenu n’a pas changé.

Les ports couchés sur le bas de la carte facilitent un montage HQ !

Z68MA-G45 B3

• Marque : MSI Modèle : Z68MA-G45 B3 Socket/chipset : Intel 1155/Intel Z68 RAM : DDR3 *4 PCI-Express : 16x *2 (PCI-E 2.0), 1x *2 (PCI-E 2.0) PCI : 0 SATA 6 Gb/s : 2 (Intel) SATA 3 Gb/s : 4 (Intel) eSATA : 0 Réseau : Gigabit Ethernet Audio : HD Audio 7.1 (Realtek ALC 892) Sorties S/PDIF : 0 USB 3.0 : *2 USB 2.0 : *12 (dont 6 via des prises internes) FireWire : 0 Prises pour ventilateurs : 3 (dont 2 PWM) Sorties vidéo : VGA + DVI + HDMI Divers : N/A Prix : 105 € Z68 et SLI à 100 € Headers courbés vers le bas Pas de S/PDIF

Hardware Magazine 127


HFX PowerNAS 2011 : Le premier PC WHS 2011 Propulsé par Windows Home Server 2011, le PowerNAS 2011 de HFX est un PC en forme de NAS à cinq baies de stockage. Ce boîtier compact et puissant, à la structure aluminium, affiche un design soigné, mais son tarif de 1 000 € est-il justifié ?

L Fiche technique

• Nom : PowerNAS 2011 • Constructeur : HFX • Processeur : Core i3-2100T • Carte mère : Zotac H67-ITX • RAM : 4 Go • Disque dur : 250 Go, 7 200 tours/min • Baies hot-swap SATA : 5 • Interfaces : DVI, HDMI, DisplayPort, 4 x USB 3.0, 4 x USB 2.0, eSATA, Ethernet Gigabit, Wi-Fi 802.11n, sorties audio analogiques 7.1, sortie audio optique, PS2, afficheur LCD • Poids : 4,5 kg • Dimensions : 20 x 24 x 24 cm • Prix : 995 € Taille compacte Puissance et équipement Sandy Bridge Refroidissement en silence possible Qualité de fabrication/finition Design ? Prix Mode RAID incompatible avec les unités de 3 To On espérait un meilleur rapport chaleur/bruit

128 Hardware Magazine

e PowerNAS de HFX est le premier PC de marque habillé par Windows Home Server 2011. Cette machine, équipée d’un châssis en aluminium et de quelques parois en plexiglas noir fumé, se présente sous la forme d’un boîtier possédant les faibles dimensions d’un NAS et un accès vers cinq baies de stockage SATA hot-swap à l’arrière. Contrairement à la majorité des NAS qui embarquent des processeurs de puissance modeste, le PowerNAS embarque une configuration mini-ITX en Sandy Bridge. On trouve une carte mère Zotac H67-ITX associée à un processeur Core i3-2100T et à 4 Go de DDR3. Il est livré sans disques durs 3,5’’ mais possède un 2,5’’ de 250 Go en 7 200 tours/min, sur lequel l’OS est déjà installé. Du côté des connectiques, l’essentiel est présent, à savoir des sorties vidéo HDMI, DVI et DisplayPort, quatre ports USB 3.0, quatre USB 2.0, un eSATA, un port Ethernet Gigabit et le Wi-Fi 802.11n, ainsi que des sorties audio analogiques 7.1 et optique. Quant à l’alimentation, il s’agit d’un modèle externe de 120 W. Le slot d’extension de la carte mère est occupé, par défaut, par une carte contrôleur USB 3.0, le boîtier possède également un afficheur LCD en façade (2 lignes de 16 caractères blancs), ainsi qu’un slot 5,25’’ pour un lecteur optique slim/slot-in optionnel. Deux ventilateurs de 80 mm assurent sa dissipation thermique, le processeur est refroidi passivement et un système de caloducs internes évacue la chaleur à travers les épaisses parois latérales faisant office de radiateur. En vente uniquement sur le site de maisondunumerique.com pour le moment, il reste possible de commander et de configurer cette machine sur la boutique en ligne de HFX. Vous pouvez ainsi opter pour un Core i5-2500T, un SSD Agility II de 160

Go, un graveur DVD ou Blu-Ray, jusqu’à 8 Go de RAM, et jusqu’à 15 To de stockage. L’écran LCD est aussi une option. Le prix de la configuration que nous avons reçue est de 995 €, avec un packaging contenant trois CD/DVD (installation de WHS 2011, restauration des ordinateurs clients et pilotes/outils logiciels).

Prise en main L’accès aux baies de stockage s’effectue après avoir retiré une grille d’aluminium tenue par deux longues vis à main. Les disques durs doivent ensuite être équipés d’une languette autocollante de caoutchouc, à plaquer sur leur tranche avant de les pousser dans leurs glissières. Notez que le boîtier n’est pas conçu pour être désossé. Entre les heat pipes et la multitude de vis et d’éléments assemblés, il est impossible de mettre à jour le processeur ou de changer la carte d’extension et le disque dur 2,5’’ sans y passer des heures et prendre le risque de casser quelque chose. Seule une trappe est accessible par-dessous pour insérer un lecteur optique. HFX a bien fait les choses puisque dès le premier démarrage du PowerNAS, il n’est pas nécessaire d’installer un écran, une souris et un clavier pour l’administrer, plusieurs solutions sont disponibles afin de prendre son contrôle avec un autre PC. Il est tout d’abord possible d’installer le panneau de lancement WHS 2011 en cliquant sur l’icône PowerNAS apparue dans les favoris réseau, ce qui donne accès au tableau de bord WHS, aux dossiers partagés, aux options de sauvegarde, à l’accès Web à distance, aux add-ins et aux messages d’alerte du serveur. La seconde solution est d’utiliser l’outil de connexion de bureau à distance de Windows. Vous prenez alors le contrôle


Test : PC WHS 2011

total du serveur et pouvez notamment accéder au gestionnaire de stockage Intel RST, afin de configurer vos disques durs et de créer des grappes RAID. Le PowerNAS peut enfin se contrôler grâce à VNC ainsi qu’un navigateur Internet. Ces différents accès sont bien détaillés dans la notice. Une fois que vos espaces de stockage ont été définis, il ne reste plus qu’à créer les dossiers de partage dans le tableau de bord WHS, créer les comptes d’utilisateurs et leur accès en lecture/ écriture, mettre en place des sauvegardes, choisir les dossiers du serveur média UPnP, ou encore créer un nom de domaine pour accéder aux données à travers la toile. Pour rappel, comme nous l’avions indiqué dans notre test de WHS 2011 (PC Update n° 54), cet OS nous a convaincu et a très bien progressé face à la précédente version. Il offre de base de larges fonctionnalités très faciles à configurer et à utiliser, même pour ceux qui n’y connaissent pas grand-chose. Et grâce aux compléments, le système va pouvoir largement étendre ses capacités à l’avenir. On regrette certains aspects comme la limitation des dix comptes d’utilisateurs, l’impossibilité de sauvegarder des volumes de plus de 2 To, l’incompatibilité du serveur multimédia avec le format MKV et les soustitres, ou le support encore incomplet pour les smartphones et tablettes, mais dans l’ensemble, il n’y a pas grand-chose de plus à reprocher à ce système parfaitement stable. HFX livre ensuite deux outils pour configurer les ventilateurs et l’afficheur LCD. HFX Control LCD permet d’entrer un message d’accueil sur l’afficheur et de contrôler les ventilateurs. Grâce aux deux sondes internes de température, la vitesse de rotation des 80 mm peut s’ajuster automatiquement en fonction de la chaleur du boîtier. Et si besoin, vous pouvez adapter le monitoring ou déterminer cette rotation manuellement. Le second outil nommé LCD Smartie personnalise l’affichage LCD. Il est moins évident à maîtriser mais se montre complet, avec notamment la visualisation des statistiques réseau, de la capacité des disques durs, des températures processeur et internes, de flux RSS, d’infos Winamp, des e-mails et plus encore.

De bons taux de transfert Le contrôleur de stockage Intel autorise les modes de stockage JBOD, RAID 0, RAID 1, RAID 5, RAID 10. Si les performances des trois premiers sont excellentes, celles des autres modes dépendent de la taille de strip de la grappe. Le meilleur compromis est 64 ko. A cette valeur, en RAID 10 et avec quatre disques durs de 1 To (des 5 400 et 7 200 tours/min), le chipset Intel a débité 177 Mo/s de moyenne en écriture et 148,6 Mo/s en lecture. Avec cinq unités en RAID 5, nous avons obtenu 144,4 Mo/s de moyenne en écriture et 363,2 Mo/s en lecture. Ces taux de transfert sont bons comparés à ceux d’un NAS haut de gamme, comme le Synology DS1511+, par exemple, qui atteint

environ 60-70 Mo/s en écriture en RAID 5 et dépasse les 100 Mo/s en RAID 10 (lorsqu’on n’utilise pas l’agrégation des deux interfaces réseau, un procédé qui n’est pas supporté par toutes les box/switchs). Au repos, nos cinq disques durs 3,5’’ affichaient des températures entre 45 et 49 °C. Des valeurs un peu élevées, même si elles ne sont pas dangereuses pour le matériel et qui s’expliquent par les réglages du profil de ventilation HFX LCD Control qui n’activaient pas la rotation des deux 80 mm, car la température relevée par la sonde interne n’était pas assez élevée. Après une heure d’activité intensive des disques durs, ils sont montés entre 48 et 52 °C pour les plus chauds. Les ventilateurs se sont alors mis en marche, avec une rotation à 26 % qui stabilisait la chaleur des unités, tout en restant inaudibles. Avec les ventilateurs placés manuellement à pleine vitesse, les températures ont bien chuté, avec des valeurs entre 36 et 40 °C au repos et entre 41 et 44 °C en charge. Le souffle du boîtier s’entend beaucoup plus par contre, trop même pour le placer à côté de votre bureau ou dans une pièce de vie. Pour obtenir un meilleur équilibre entre la chaleur et les nuisances sonores, il faut donc jouer avec les paramètres de l’outil HFX. En plaçant les ventilateurs à une rotation fixe de 60 %, ils ne s’entendent pas, la rotation des disques durs couvre leur bruit et les températures des disques tombent à 38-42 °C au repos et à 43-46 °C en charge. Nous avons ensuite poussé le CPU au maximum en même temps que les disques durs, les températures des unités étaient alors de 46 et 50 °C, pour 58 °C sur le Core i3-2100T.

Les disques durs se glissent dans des baies Hot Swap après avoir collé une languette de caoutchouc sur leur tranche. L’unité 2.5 pouces supplémentaire de 250 Go livré de base avec la machine (ici en 500 Go dans notre version de test) est déportée près de la carte d’extension.

N’espérez pas mettre à jour les composants du PowerNAS (carte fille, processeur, RAM, disque dur 2.5 pouces). Le boitier est extrêmement complexe à démonter, vous y passerez certainement des heures en risquant de casser des éléments du système de refroidissement par caloduc, et perdrez la garantie. Seule une trappe est disponible sous le boitier pour ajouter le lecteur optique slim/slotin facilement.

Hardware Magazine 129


A titre de comparaison, les températures dans une moyenne tour ATX classique, dont les unités profitent de la ventilation d’un 120/140 mm, montent rarement plus haut que 42 °C pour un 7 200 tours/min. Il en est de même dans des NAS bien ventilés où un disque dur 5 400 tours/ min ne dépasse pas les 40 °C.

Le PowerNAS dispose de deux sondes de températures internes et de deux ventilateurs de 80 mm pouvant être régulés.

Quant à la consommation, notre wattmètre a relevé 50 W à la prise au repos, 58 W lorsque les cinq disques durs du PowerNAS étaient en activité et 64 W avec le CPU en charge en plus. Un NAS, comme le DS1511+ équipé d’un processeur Atom à 1,8 GHz, consomme lui entre 50 et 65 W en charge selon les unités de stockage choisies.

Incompatibilité avec les unités 3 To Pas besoin de brancher un écran, un clavier et une souris pour prendre en main le PowerNAS dès le premier démarrage. Plusieurs solutions de prise de contrôle à distance sont disponibles, il est aussi possible d’installer le panneau de lancement WHS 2011 sur tous les PC du réseau en cliquant sur l’icône PowerNAS apparu dans les favoris réseau.

Le contrôleur de stockage Intel est incompatible avec un disque de 3 To lorsqu’il est placé dans son mode RAID, même si le disque n’est pas configuré dans une grappe. Avec les derniers pilotes RST 10.6, il n’est pas du tout détecté. Ce problème est connu et n’a rien à voir avec HFX et ce PowerNAS en particulier, espérons qu’Intel propose rapidement une mise à jour des pilotes (ou du BIOS des cartes mères), car c’est une limitation assez pénalisante. Si vous comptez utiliser des disques durs de cette capacité, il faudra donc placer le contrôleur de stockage en mode AHCI, ou mettre les unités dans un boîtier externe USB/ eSATA. Une autre alternative est d’utiliser les modes RAID logiciels de Windows qui gèrent parfaitement ces tailles de disques, ce qui est cela dit plus risqué pour vos données en cas d’une panne d’OS.

Faites-le vous-même Si l’on compare les 1 000 € du PowerNAS à une solution maison assemblée avec le même type de composants, le prix de la machine est effectivement élevé. Cette configuration peut revenir à 525 € si l’on compte la licence

WHS 2011, 575 € si l’on ajoute le disque dur 2,5’’ de 250 Go (120 € carte mère, 115 € CPU, 50 € alimentation, 30 € 4 Go DDR3, 110 € boîtier, 50 € HDD 2,5’’ 250 Go, 100 € WHS 2011). Le boîtier retenu ici est un Lian Li PC-Q08 pouvant accueillir six disques durs 3,5’’, ainsi qu’un 2,5’’ en plus de la baie 5,25’’. Cela revient donc à 420 € de moins, ce qui n’est pas négligeable et laisserait, par exemple, de la marge pour investir dans une carte RAID haut de gamme et profiter de performances bien plus élevées avec des modes RAID 5 ou RAID 10. Outre le prix, cette configuration a aussi l’avantage d’un peu mieux contenir la chaleur des disques durs, pour des nuisances sonores au moins équivalentes, si ce n’est plus faibles. Par contre, il est impossible d’assembler un serveur aussi compact avec autant de disques durs, c’est l’un des gros avantages des solutions de constructeurs et vous n’aurez pas de hot-swap avec un boîtier comme le Lian Li. Si l’on compare le PowerNAS à un NAS cinq baies, son prix est toujours supérieur mais moins exagéré. Les meilleurs NAS se trouvent à des tarifs qui débutent à plus de 700 €. Leurs débits sont inférieurs en RAID 5 ou RAID 10 sans agrégation des deux interfaces réseau et ils n’ont pas de slots 2,5’’ supplémentaires, mais ils refroidissent mieux les disques durs sans faire plus de bruit et ils ont l’avantage d’être très simples à administrer et de proposer plus de fonctionnalités de base (serveur de surveillance, serveur de mails et de sites Web, meilleur serveur UPnP, applications iPhone/Android, etc.). Au final, difficile donc de recommander le PowerNAS à tous à ce prix, mais seulement à ceux qui n’ont pas envie d’assembler leur serveur. Même si le design, la qualité de fabrication/finition et les matières en aluminium sont appréciables. On s’attendait également à une meilleure dissipation thermique des unités de stockage, mais cette machine n’en reste pas moins un bon produit qui remplit parfaitement son rôle de serveur et qui sait rester discret.

Voici le panneau de lancement WHS 2011 pouvant s’installer sur tous les PC du réseau afin d’accèder aux serveur. Pour personnaliser l’affichage de l’écran LCD, HFX utilise le freeware LCD Smartie.

130 Hardware Magazine



Corsair Force 3, Kingston HyperX SSD Drive, MX-Technology DS-Turbo, Patriot Pyro, Silicon Power V30 Les Crucial M4 vont-ils résister aux derniers SandForce ?

L’arrivée de nouveaux SSD SandForce et d’un firmware boostant les performances des Crucial M4 est l’occasion de faire le point sur le meilleur choix à faire pour un disque système. Les prix ont également évolué, si vous n’aviez pas encore passé le cap SSD, c’est le bon moment.

O

CZ fut le premier à commercialiser la nouvelle génération de SSD en SandForce 2281 avec le Vertex 3 puis l’Agility 3. Rapidement rejoint par Adata et Corsair, c’est maintenant le tour de Kingston, MXTechnology, Patriot et Silicon Power qui proposent jusqu’à quatre gammes à leur catalogue. Au même titre que la précédente génération SandForce 1200, bon nombre de ces unités ne sont, en fait, que des clones que l’on peut surtout diviser en deux grandes familles. Ainsi, les modèles Adata S511, Corsair Force GT, Kingston HyperX SSD Drive, MX-Technology DS-Turbo, OCZ Vertex 3 et Silicon Power V30 embarquent des puces mémoire MLC synchrones, alors que les Corsair Force 3, OCZ Agility 3 et Patriot Pyro exploitent des puces asynchrones. Ces dernières ont l’avantage d’être moins chères mais sont aussi plus

lentes. Tous ces SSD SF2000 en 25 nm sont ensuite construits autour de puces mémoire développées par la jointure entre Micron et Intel (IMFT), mais elles peuvent provenir des lignes de production de l’un ou l’autre des fabricants. Le Corsair Force GT embarque, par exemple, des puces Micron, contrairement aux autres modèles à puces mémoire synchrones, et tous les modèles à puces mémoire synchrones que nous avons eus sont équipés en Micron. Les performances restent, cela dit, identiques. La quantité, la capacité et le nombre de dies des puces mémoire sont également les mêmes entre ces clones. Le firmware est l’un des seuls éléments qui peut les distinguer, mais tous finiront par recevoir les dernières versions plus ou moins rapidement. Les caractéristiques des cinq modèles que nous avons reçus sont regroupées dans le tableau ci-contre. Les spécifications parlent

Gamme

Contrôleur

Puces mémoire

Débits lecture/écriture (Mo/s)

Garantie

Prix

Adata S511

SandForce SF-2281

Intel MLC 25 nm synchrones

550/500 (60 GB), 550/510 (120 GB), 550/520 (240 GB), 540/460 (480 GB)

3 ans

Faible disponibilité en France

Corsair Force 3 Series

SandForce SF-2281

Micron MLC 25 nm asynchrones

550/490 (60 GB), 550/500 (90 GB), 550/510 (120 GB), 550/520 (240 GB)

3 ans

105 € (60 GB), 160 € (120 GB), 380 € (240 GB)

Corsair Force GT Series

SandForce SF-2281

Micron MLC 25 nm synchrones

555/495 (60 GB), 555/505 (90 GB), 555/512 (120 GB), 555/525 (180-240 GB)

3 ans

240 € (120 GB), 460 € (240 GB)

Crucial M4

Marvell 88SS9174 (BLD2 ou BKK2)

Micron MLC 25 nm synchrones

415/95 (64 GB), 415/175 (128 GB), 415/260 (256 et 512 GB)

3 ans

95 € (64 GB), 178 € (128 GB), 345 € (256 GB), 680 € (512 GB)

Kingston HyperX SSD Drive (SH100S3)

SandForce SF-2281

Intel MLC 25 nm synchrones

555/510 (120-240 GB)

3 ans

250 € (120 GB), 465 € (240 GB), versions sans Upgrade Kit

MX-Technology DS Turbo

SandForce SF-2281

Intel MLC 25 nm synchrones

540/490 (60 GB), 555/510 (120-240 GB), 500/420 (480 GB)

3 ans

Faible disponibilité en France

OCZ Agility 3

SandForce SF-2281

Micron MLC 25 nm asynchrones

525/475 (60 GB), 525/500 (90-120 GB240 GB)

3 ans

85 € (60 GB), 155 € (120 GB), 300 € (240 GB)

OCZ Vertex 3

SandForce SF-2281

Intel MLC 25 nm synchrones

535-480 (60 GB), 550/500 (90-120 GB), 550/520 (240 GB), 530/450 (480 GB)

3 ans

205 € (120 GB), 435 € (240 GB), 1 000 € (480 GB)

Patriot Pyro

SandForce SF-2281

Micron MLC 25 nm asynchrones

520/490 (60 GB), 550/515 (120-240 GB)

3 ans

Faible disponibilité en France

Silicon Power V30

SandForce SF-2281

Intel MLC 25 nm synchrones

550/500 (60 GB), 550/510 (102 GB), 550/520 (240 GB)

3 ans

Faible disponibilité en France

132 Hardware Magazine


Test : SSD

d’elles-mêmes et sont très proches entre les marques. Les débits varient un peu d’une marque à l’autre, mais la garantie est de 3 ans chez tout le monde, et en dehors du look du disque et du prix, il n’y a pas grand-chose à ajouter pour les différencier. Seul Kingston se démarque grâce à une déclinaison avec un packaging contenant un petit tournevis multitête en forme de stylo et un boîtier USB 2.0. Tous les modèles sont, d’autre part, livrés avec un adaptateur 3,5 vers 2,5’’ et un logiciel de clonage.

Les benchs Les tests ont été réalisés sur une plateforme P67 équipée d’un Core i3-2100T, de Windows Seven 64 bits et des pilotes de stockage Intel RST 10.6. Dans le cas du bench d’installation de programmes, les fichiers étaient placés sur un RAID 0 de SSD SF1200. Pour comprendre certaines conclusions, il est nécessaire de rappeler que les SSD SandForce ont la particularité d’effectuer une compression en temps réel de la majorité des données envoyées à l’unité. Ce procédé implique des variations sensibles de performances selon la compressibilité des données. Ainsi, avec des fichiers texte, un cache de navigateur et des fichiers système ou de configuration, les taux de transfert maximums des disques sont atteints, alors qu’avec des données incompressibles (audio, vidéo, photo, RAR/ZIP), ils sont nettement réduits. Ce procédé impacte principalement les accès en écriture. Les SSD Crucial M4 ont, quant à eux, été flashés avec le dernier firmware 0009 apportant de meilleures performances et quelques corrections de bugs.

plus de 20 €, mais à moins d’avoir un budget serré, notre préférence va au M4 dont les performances sont plus équilibrées et qui dispose de 8 Go supplémentaires. En 240 Go, les SandForce sont plus véloces, mais on peut aussi se baser principalement sur le prix. OCZ frappe fort en ce moment et l’Agility 3 peut se trouver à 300 €, contre 345 € pour le M4, un argument de poids, bien que cer dernier possède 16 Go de plus. Notez enfin que nous n’avons pas cité les SSD Intel 510 car s’ils font jeu égal avec les modèles de type Vertex 3 et Force GT en termes de performances, leur prix est vraiment trop élevé.

Taux de transfert séquentiel (Moyenne, Mo/s, le plus haut est meilleur) Kingston Hyper X SSD Drive (240 Go)

453

Corsair Force GT (120 Go)

509,9 449,4

Silicon Power V30 (120 Go)

511,8 448,7

MX‐Technology DS Turbo (120 Go)

515,5 447,9

ADATA S511 (120 Go)

511,5 447,7

Patriot Pyro (120 Go)

510,2 446,4

SandForce ? Et si oui, lequel ? Les SSD SandForce à puces mémoire synchrones et en version 240 Go, comme l’HyperX, le Vertex 3, le S511 ou le DS-Turbo, sont globalement les plus rapides, et le gain est net face aux versions 120 Go. Mais en pratique, pour des usages standard en tant que disque système, on ne sent aucune différence face aux Agility 3, Pyro et Force 3. Vu la différence de prix de plusieurs dizaines d’euros, autant les économiser. Le choix d’une marque peut ensuite se faire sur le look et les couleurs du disque, voire du packaging, mais aussi la disponibilité. Adata, Patriot et MX-Technology ne sont pas très répandus sur le territoire par exemple. Le prix va évidemment faire pencher la balance et ce sont les produits OCZ qui affichent généralement les meilleurs tarifs. Si on compare maintenant les modèles SF2000 aux Crucial M4, dont les performances ont effectivement été améliorées avec le dernier firmware, le choix dépend de la capacité. En 60 Go, le M4 reste le plus performant et la référence, même si l’Agility 3 coûte 10 € de moins. En 120 Go, l’Agility 3 fait économiser

513

Corsair Force 3 (120 Go)

511 445,9

OCZ Agility 3 (240 Go)

491,9 433,3

OCZ Agility 3 (60 Go)

423,1

Crucial M4 (256 Go)

517,2

252,8

Crucial M4 (128 Go)

512,8

186,1

Crucial M4 (64 Go)

517,1

103 0

100

Lecture

511,1

200

300

400

500

600

Ecriture

Les M4 présentent les plus hauts taux de transfert séquentiels en lecture sur des données compressibles, mais de quelques Mo/s seulement face aux SandForce 2000. Seul l’Agility 240 Go est plus en retrait. Les SandForce 2000 à puces mémoire synchrones affichent les meilleurs taux de transfert séquentiels en écriture, mais sont suivis de très près par les modèles à puces mémoire asynchrones. Les M4 arrivent en dernière position avec près de 190 Mo/s et 340 Mo/s de moins pour les versions 256 GB et 64 GB.

Hardware Magazine 133


Installation de programmes (Secondes, le plus bas est meilleur) 111

OCZ Agility 3 (240 Go)

173

ADATA S511 (120 Go)

119

Kingston Hyper X SSD Drive (240 Go)

119

MX‐Technology DS Turbo (120 Go)

120

Corsair Force GT (120 Go)

121

Silicon Power V30 (120 Go)

122 128

OCZ Agility 3 (60 Go)

130

Patriot Pyro (120 Go)

130

Crucial M4 (256 Go)

132

Kingston Hyper X SSD Drive (240 Go)

167

Crucial M4 (256 Go)

167

Crucial M4 (128 Go)

167

Corsair Force GT (120 Go)

218

Silicon Power V30 (120 Go)

219

ADATA S511 (120 Go)

220

MX‐Technology DS Turbo (120 Go)

224

172 220 171 181

Crucial M4 (64 Go)

138

Crucial M4 (128 Go)

139 50

166

169

Corsair Force 3 (120 Go)

0

100

157 174 202

OCZ Agility 3 (240 Go) 198

244

Crucial M4 (64 Go)

180

150

Office 2010

Extraction d'un rip Blu‐Ray (Secondes, le plus bas est meilleur)

200

250

CS4

Avec leurs plus faibles débits en écriture, les M4 se placent en queue de peloton sur l’installation de programmes et à une poignée de secondes des SF2000 type Agility 3. L’Agility 3 240 Go se démarque étrangement sur Office 2010, et dans le mauvais sens du terme pour l’Agility 3 de 60 Go sur CS4. Les SF2000 à puces mémoire synchrones semblent gérer un peu mieux les petits fichiers de CS4 que les versions à puces mémoire asynchrones, même si, là encore, la différence est faible.

281

Corsair Force 3 (120 Go)

307

Patriot Pyro (120 Go)

310

OCZ Agility 3 (60 Go)

499 0

IOMeter ‐ 4K lecture aléatoire (Mo/sec, le plus haut est meilleur)

Crucial M4 (64 Go)

Crucial M4 (128 Go)

Crucial M4 (256 Go) 23,2

Kingston Hyper X SSD Drive (240 Go)

OCZ Agility 3 (240 Go)

25,8 17,8

Corsair Force GT (120 Go)

44

46,1

29,2 21,3

ADATA S511 (120 Go)

45,8

28,6 21,4

MX‐Technology DS Turbo (120 Go)

45,7

28,2 22

Silicon Power V30 (120 Go)

34 22,1

Patriot Pyro (120 Go)

26,7 19,7

45,5

44,3

161

103

51,2

31,2 24

123,3

81

80,3

300,6

101,3 98,2

96

79

104

25,3 20

OCZ Agility 3 (60 Go)

43,5

32,8 24,4 0

46,8 50

QD32

Crucial M4 (128 Go)

14,4

Kingston Hyper X SSD Drive (240 Go)

14,3

Crucial M4 (64 Go)

14,4

Crucial M4 (256 Go)

14,5

Corsair Force GT (120 Go)

14,2

71,4

MX‐Technology DS Turbo (120 Go)

14,2

72,1 69,3 67,5

OCZ Agility 3 (240 Go)

14,2

Corsair Force 3 (120 Go)

14,2

100

150

QD8

200

QD4

QD2

250

300

QD1

Ce graphique est classé à partir de la valeur QD8. Ce test mesure les débits de l’unité sur la lecture d’un fichier de 4K compressible, d’une manière aléatoire, et en envoyant de plus en plus de commandes simultanées (QD1, QD2…). Les performances sur ce type d’accès sont très importantes, car ils sont majoritaires dans un disque système. Les M4 montrent nettement leur supériorité. Viennent ensuite les unités SF2000 de 240 Go, 120 Go, puis 60 Go, les versions à puces mémoire synchrones étant plus rapides que les asynchrones à capacité égale. Précisons que sur un fichier incompressible, la chute de débit en lecture des SF2000 est présente mais beaucoup plus faible. En ce qui concerne les débits aléatoires en écriture sur un fichier 4K qui ne sont pas affichés ici : sur des données incompressibles, les SF2000 dominent, version synchrone en tête. Sur des données incompressibles, les M4 font mieux, sauf en 240 GB où les SF2000 asynchrones restent devant. En revanche, en 60 Go, le M4 est deux fois plus rapide qu’un modèle comme l’Agility 3.

134 Hardware Magazine

14,3

14,1

QD16

20,6

Silicon Power V30 (120 Go)

93 87

82,5 87

Corsair Force 3 (120 Go)

500

Il s’agit ici d’extraire une piste audio et une piste vidéo d’un rip de film Blu-Ray stocké sur le SSD. Une opération qui ne sera pas courante sur un SSD, mais qui permet de mettre en évidence de grandes variations entre les modèles. Les SF2000 de 240 Go à puces mémoire synchrones, comme le HyperX SSD Drive, sont les plus rapides. Suivent les M4 256 et 128 GB, puis les SF2000 de 120 Go à puces mémoire synchrones, l’Agility 3 60 Go est loin derrière. Ce test montre que plus la capacité d’un SSD SF2000 est faible, plus le temps d’extraction augmente et donc, plus les débits chutent en écriture sur des données incompressibles comme la vidéo.

ADATA S511 (120 Go) 72,8

400

Chargement de programme (Secondes, le plus bas est meilleur)

145,5

98,7 98,5

79,2

300

185

95,5 93,4

80,2

200

192 187

140,5

74

41

247,3

163,4

93,2

51,2

27,6

168

92

51

28

300

228

100

Patriot Pyro (120 Go)

20,6 20,7 20,7 20,7 20,7 20,7 20,9 21,7 21,8 22,2

14,6

OCZ Agility 3 (60 Go)

22,3

15,8 10

12

Crysis

14

16

18

20

22

24

Seven

Les temps de chargement de programmes varient peu entre tous les SSD, même si les SF2000 à puces mémoire asynchrones peuvent perdre plus d’une seconde sur le premier niveau de Crysis et si l’Agility 3 60 Go est en retrait sur Seven.



Nos Configurations de référence Le PC le moins cher possible

• Processeur : Intel Pentium G620 (2 cores, 2.6 GHz, 60 €) • Refroidissement CPU : radiateur d’origine Intel • Carte mère : MSI H61M-E33 (60 €) • Mémoire vive : 2 Go DDR3-1333 «Value» (15 €) • HDD : Seagate 7200.12 500 Go 7 200 tours (40 €) • Carte graphique : Intel HD Graphics intégré au CPU • Boîtier : entrée de gamme (35 €) • Alimentation : entrée de gamme 350 W (30 €) • Divers : N/A

Dépenser plus

• Mémoire vive : 2 x 2 Go DDR31333 «Value» (25 €)

dépenser moins

• Boîtier/Alimentation : 1er prix (35 € l’ensemble)

Total : 240 € Bureautique et Internet

• Processeur : Intel Pentium G620 (2 cores, 2.6 GHz, 60 €) • Refroidissement CPU : Cooler Master Hyper TX3 (15 €) • Carte mère : MSI H61MU-E35 (65 €) • Mémoire vive : 2 x 2 Go DDR3-1333 «Value» (25 €) • SSD : Crucial M4 64 Go (100 €) • HDD : Seagate 7200.12 500 Go 7 200 tours (40 €) • Carte graphique : Intel HD Graphics intégré au CPU • Boîtier : entrée de gamme (35 €) • Alimentation : entrée de gamme 350 W (30 €) • Divers : N/A

Dépenser plus

• HDD : WD Caviar Black 1 To 7 200 tours (70 €)

dépenser moins

• SSD : pas de SSD (économie de 100 €)

Total : 370 € Profiter des derniers jeux, sans se ruiner • Processeur : AMD Athlon II X4 640 (4 cores, 3 GHz, 85 €) • Refroidissement CPU : Cooler Master Hyper TX3 (15 €) • Carte mère : Asrock 970 Extreme4 (90 €) • Mémoire vive : Corsair XMS3 2 x 2 Go DDR3-1333 (30 €) • SSD : Crucial M4 64 Go (100 €) • HDD : WD Caviar Blue 1 To 7 200 tours (55 €) • Carte graphique : Radeon HD6670 1 Go (85 €) • Boîtier : entrée de gamme (35 €) • Alimentation : entrée de gamme 400 W (40 €) • Divers : N/A

Dépenser plus

• Processeur : Phenom II X4 955 BE (100 €) ou plateforme Intel 1155 avec Core i3 2100 (100 € + carte mère à 100 €)

dépenser moins

• SSD : pas de SSD (économie de 100 €)

Total : 535 € Bureautique et multimédia tout confort • Processeur : Intel Core i3-2100 (2 cores, 3.1 GHz, 100 €) • Refroidissement CPU : Scythe Yasya (45 €) • Carte mère : MSI H67MA-E45 (95 €) • Mémoire vive : Corsair XMS3 2 x 2 Go DDR3-1333 (30 €) • SSD : Crucial M4 64 Go (100 €) • HDD : WD Caviar Blue 1 To 7 200 tours (55 €) • Optique : graveur CD/DVD SATA (30 €) • Carte graphique : Intel HD Graphics 2000 intégré au CPU • Boîtier : milieu de gamme (70 €) • Alimentation : 450 à 550 W modulaire (80 €) • Divers : lecteur de cartes mémoire (15 €)

Total : 620 €

136 Hardware Magazine

Dépenser plus

• SSD : Crucial M4 128 Go (180 €) • Mémoire vive : G.Skill RipjawsX 2 x 4 Go DDR3-1333 C9 (40 €)

dépenser moins

• Boitier + alim : entrée de gamme (80 €)


Jouer en 1 920 x 1 080

• Processeur : Intel Core i3-2100 (2 cores, 3.1 GHz, 100 €) • Refroidissement CPU : Arctic Freezer 13 PRO (35 €) • Carte mère : MSI P67A-C45 (90 €) • Mémoire vive : Corsair XMS3 2 x 2 Go DDR3-1333 (30 €) • SSD : Crucial M4 64 Go (100 €) • HDD : WD Caviar Black 1 To 7 200 tours (70 €) • Optique : graveur CD/DVD SATA (30 €) • Carte graphique : Radeon HD 6850 1 Go (140 €) • Boîtier : milieu de gamme (70 €) • Alimentation : 550 à 600 W (70 €) • Divers : lecteur de cartes mémoire (15 €)

Les PC de la redac

Dépenser plus

• Processeur : Intel Core i5-2500K (190 €) • SSD : Crucial M4 128 Go (180 €) • Mémoire vive : G.Skill RipjawsX 2 x 4 Go DDR3-1333 C9 (40 €)

dépenser moins

• SSD : pas de SSD (économie de 100 €)

Total : 750 € Jouer en 1 920 x 1 080, les détails à fond

• Processeur : Intel Core i5-2500K (4 cores, 3.3 GHz, 190 €) • Refroidissement CPU : Scythe Yasya (45 €) • Carte mère : ASRock P67 Extreme4 (140 €) • Mémoire vive : Corsair Vengeance 2 x 2 Go DDR3-1600 C8 (35 €) • SSD : Crucial M4 64 Go (100 €) • HDD : WD Caviar Black 1 To 7 200 tours (70 €) • Optique : graveur CD/DVD SATA (30 €) • Carte graphique : GeForce GTX560 Ti (200 €) • Boîtier : milieu de gamme (70 €) • Alimentation : 550 à 600 W modulaire (90 €) • Divers : lecteur de cartes mémoire (15 €)

Dépenser plus

• Processeur : Intel Core i7-2600K (260 €) • SSD : Crucial M4 128 Go (180 €) • Mémoire vive : G.Skill RipjawsX 2 x 4 Go DDR3-1600 C8 (60 €)

dépenser moins

• Alimentation : alimentation non modulaire (70 €)

Total : 985 € Un PC de boulot ultrarapide

• Processeur : Intel Core i7-2600K (4 cores, 3.4 GHz, 270 €) • Refroidissement processeur : Scythe Yasya (45 €) • Carte mère : Asrock Z68 Extreme4 (165 €) • Mémoire vive : G.Skill RipjawsX 2 x 4 Go DDR3-1333 C9 (40 €) • SSD : Crucial M4 128 Go (180 €) • HDD : Samsung F4 Ecogreen 2 To 5 400 tours (65 €) • Optique : graveur CD/DVD SATA (30 €) • Carte graphique : Intel HD Graphics 3000 intégré au CPU • Boîtier : haut de gamme (120 €) • Alimentation : Seasonic X-Series Fanless 400 W (145 €) • Divers : lecteur de cartes mémoire (15 €)

Dépenser plus

• Boîtier : boîtier très haut de gamme (150 à 500 €) • Mémoire vive : G.Skill RipjawsX 2 x 4 Go DDR3-1600 C8 (60 €)

dépenser moins • Processeur : Intel Core i5-2500K (190 €)

Total : 1 075 € AMD mon amour

Précision : les processeurs FX arrivant, n’hésitez pas à retarder votre achat jusqu’au test dans PC Update n° 56.

• Processeur : AMD Phenom II X6 1100T Black Edition (6 cores, 3,2 GHz, 165 €) • Refroidissement processeur : Noctua NH-U12 SE2 (60 €) • Carte mère : Asus Crosshair V Formula (210 €) • Mémoire vive : G.Skill RipjawsX 2 x 4 Go DDR3-1333 C9 (40 €) • SSD : Crucial M4 128 Go (180 €) • HDD : Hitachi 7K3000 2 To 7 200 tours (100 €) • Optique : graveur CD/DVD SATA (30 €) • Carte graphique : Radeon HD6950 2 Go (230 €) • Boîtier : haut de gamme (120 €) • Alimentation : Cooler Master Silent Pro Gold 600 W (120 €) • Divers : lecteur de cartes mémoire (15 €)

Dépenser plus

• Carte graphique : Radeon HD6970 (300 €) • Mémoire vive : G.Skill RipjawsX 2 x 4 Go DDR3-1600 C8 (60 €)

dépenser moins

• Carte mère : Asrock 970 Extreme4 (90 €) • SSD : Crucial M4 64 Go (100 €) • Carte graphique : Radeon HD6950 1 Go (200 €)

Total : 1 270 €

Hardware Magazine 137


Jouer en relief avec nVidia 3D Vision

Précision : n’oubliez pas d’acheter un écran compatible (120 Hz), comme l’Acer GD245HQ (24’’ à 320 €).

• Processeur : Intel Core i7-2600K (4 cores, 3,4 GHz, 270 €) • Refroidissement processeur : Noctua NH-U12 SE2 (60 €) • Carte mère : Asus Sabertooth P67 (165 €) • Mémoire vive : G.Skill RipjawsX 2 x 4 Go DDR3-1600 C8 (60 €) • SSD : Crucial M4 128 Go (180 €) • HDD : WD Caviar Black 2 To 7 200 tours (135 €) • Optique : graveur CD/DVD SATA (30 €) • Carte graphique : GeForce GTX 580 (440 €) • Boîtier : haut de gamme (120 €) • Alimentation : Cooler Master Silent Pro Gold 600 W (120 €) • Divers : lecteur de cartes mémoire (15 €), lunettes nVidia 3D Vision (120 €)

Dépenser plus

• Refroidissement processeur : Thermalright Silver Arrow (75 €)

dépenser moins

• SSD : Crucial M4 64 Go (100 €) • Carte graphique : GeForce GTX 570 (300 €)

Total : 1 715 € Dépenser plus

Un PC extrême !

• Processeur : Intel Core i7-990X (6 cores, 3,46 GHz, 880 €) • Refroidissement processeur : EK Supreme-LT (35 €) • Carte mère : Asus Rampage III Extreme (320 €) • Mémoire vive : Corsair Vengeance 3 x 4 Go DDR3-1600 C9 (105 €) • SSD : OCZ Agility 3 240 Go (320 €) • HDD : 2x Samsung F4 Ecogreen 2 To en RAID 0 (130 €) • Optique : graveur Blu-Ray (60 €) • Carte graphique : 2 x GeForce GTX 580 SLI (880 €) • Boîtier : très haut de gamme (200 €) • Alimentation : Corsair AX 1 200 W (250 €) • Divers : complément de circuit watercooling (deux blocs 580 + pompe + réservoir + radiateur + tuyaux et embouts, 380 €), lecteur de cartes mémoire (15 €)

• Carte graphique : 3e GeForce GTX 580 + watercooling (540 €)

dépenser moins

• Processeur : Intel Core i7-980 (525 €) • Refroidissement processeur : Thermalright Silver Arrow (75 €, une économie de 350 € sans watercooling)

Total : 3 575 € PC home cinéma

Dépenser plus

• Processeur : Intel AMD A8-3800 (4 cores, 2,4 GHz, 125 €) • Refroidissement processeur : Scythe Big Shuriken (30 €) • Carte mère : ASRock A75M (80 €) • Mémoire vive : Corsair XMS3 2 x 2 Go DDR3-1333 (30 €) • SSD : Intel 320 40 Go (80 €) • Optique : graveur Blu-Ray (60 €) • Carte graphique : Radeon HD6550D intégré au CPU • Boîtier : Silverstone Grandia GD-06 (120 €) • Alimentation : alimentation silencieuse 400 à 500W (90 €) • Divers : lecteur de cartes mémoire (15 €)

• HDD : Samsung F4 Ecogreen 2 To (65 €) • Boitier : Antec Fusion Remote Black (150 €)

dépenser moins

• Processeur : AMD A6-3600 (90 €) • Boîtier : Silverstone Grandia GD-04 (85 €)

Total : 630 € Choisir RAM, carte graphique, disque dur et boîtier Mémoire vive (RAM) : Hors scénario d’overclocking maximal, le choix de la mémoire est assez libre. Tant que vous prenez le bon type et la bonne fréquence de mémoire, tel que nous l’indiquons dans les configurations, et une marque reconnue pour éviter les incompatibilités, vous pouvez choisir les moins chères proposées par votre revendeur ou celles qui s’accordent le mieux en look à votre carte mère (Adata, Corsair, Crucial, G.Skill, Kingston, Patriot). Carte graphique : Comme pour la RAM, la marque de la carte graphique n’a que peu d’importance. Partant du constat que la majorité des cartes sont identique (ce sont des reference boards avec un sticker modifié), autant prendre la moins chère ou celle accompagnée du jeu qui vous plait. En revanche, il est toujours intéressant d’analyser le marché car les constructeurs proposent également des cartes améliorées (overclockées, meilleur refroidissement, parfois les deux). Il ne faut pas trop dépenser pour ces modèles boostés, sinon, autant le faire soit même ou investir dans la gamme supérieure. 138 Hardware Magazine

Disque dur : - Disques économiques (5400/5900 tours) : Samsung Ecrogreen F4, WD Caviar Green, Seagate Barracuda LP - Disques performants (7200 tours) : WD Caviar Black, Hitachi 7K3000, Samsung Spinpoint F3 Boitier: - entrée de gamme (moins de 50 €) : Cooler Master Elite 430 Black, Antec Two Hundred V2, Xigmatech série Asgard - milieu de gamme (51 à 90 €) : Cooler Master HAF 912 Plus, Lancool Dragonlord PC-K58, Fractal Design Core 3000 - milieu de gamme +++ (91 à 130 €) : Cooler Master HAF 932 Advanced et 690 II Advanced , Fractal Design Define R3, Lancool PC-K62, Corsair Carbide 400R - haut de gamme (131 à 200 €) : Cooler Master HAF-X, Fractal Define XL, Corsair 650D, NZXT Phantom, Silverstone Fotress FT-03 - très haut de gamme (+ de 200 €) : Corsair Obsidian 800D, Lian Li PC-X900 - spécial home cinéma : Antec Fusion Remote et Fusion Remote Max, SilverStone Grandia GD-04/05/06, SilverStone Sugo SG-06, Zalman HD501




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.