TradeDiscount spécialiste en PC portable et netbook reconditionnés, vous propose une large gamme d'ordinateurs portables d'occasion fiables, performants et garantis jusqu'à 2 ans, le tout à prix défiant toute concurrence. Nos gros volumes de vente nous permettent de vous faire bénéficier de prix compétitifs sur nos PC portables d'occasion de grandes marques (Dell,
KbTester Logiciel gratuit de test de clavier Site officiel du logiciel KbTester de test de clavier. Vous allez, avec KbTester diagnostiquer l'Ă©tat de votre clavier et dĂ©tecter les touches mortes dead keyles touches qui font des contacts permanents stuck key en anglaisles touches incompatibles en appuis simultanĂ©s. Ce logiciel de test de clavier est compatible avec les Windows 32 et 64 comment tester son clavier Windows XP jusqu'a windows et 10. KbTester permet de savoir si votre clavier fonctionne correctement. Vous pouvez faire un test de diagnostic de votre clavier d'ordinateur portable ou de pc de claviers gĂšrent mal les pressions de plusieurs touches en mĂȘme temps. KbTester permet de tester toutes les touches mĂȘme les touches de fonction ou les touches multimĂ©dia ou exotique comme Kana ou Kanji ou encore AbntC1. La version de KbTester est Freeware ! Lien de tĂ©lĂ©chargement plus bas dans la page. NouveautĂ©s de la version de KbTester - CompatibilitĂ© 32 et 64bits- Prises en compte de plus de claviers - Prises en compte de nouvelles touches- Jusqu'a 14 appuis simultanĂ©s seuls certains claviers de gamers en sont capables un clavier standard s'arrĂȘte Ă 6 touches et interdit certaines combinaisons. ValidĂ© sur un clavier Razer BlackWidow TĂ©lĂ©charger KbTester 32 bits et 64 bitsCette version est compatible avec .net V4 et utilise la bibliothĂšque SlimDX pour l'accĂšs Ă DirectX avec C et visual studio 2010. La description de l'ensemble des touches gĂ©rables est disponible sur le site de SlimDX section direct pouvez consulter un extrait de code exhaustif sur les touches prisent en compte.
Testerun pc d'occasion. Je souhaite acheter un pc portable d'occasion. Je vais rechercher un pc trÚs récent, encore sous garantie pour sécuriser l'achat. Cela étant, pour éviter les mauvaises surprises, je souhaiterai tester le pc avant l'achat pour valider son bon fonctionnement. Avez vous un logiciel pour faire un test complet du PC ?
Forum Camping-car 16 rĂ©ponses DerniĂšre activitĂ© le 13/11/2014 Ă 1252 consulter Vie pratique Camping-car Signaler Le 23 janvier 2011 Bonjour, dans un mois, je quitte ma maison et je veux ĂȘtre complĂštement autonome dans mon c; grande question comment recharger mon ordinateur portable pour lequel j'ai dĂ©jĂ la 3 G et que j'utilise au moins 1 Ă 2 heures par jour ???Convertisseur, groupe Ă©lectrogĂšne, batteries solaires ??? Merci d'Ă©clairer ma lanterne. VOYAGES EN TRAIN Correspondance entre Lyon et la gare TGV St-ExupĂ©ry TRANSFERT AĂROPORT Un voyage de prĂ©vu Ă Lyon ou depuis Lyon? TRANSFERT AĂROPORT RhĂŽnexpress, la meilleure navette Lyon aĂ©roport!Commenttester une carte graphique d'occasion ? Bonsoir, je souhaite acheter une 1080 ti (Asus )d'occasion , j'ai la possibilitĂ© de tester avant l'achat , je voudrais donc savoir comment ou avec quel logiciel je peux la tester efficacement pour pas avoir de surprise aprĂšs. Les batteries sont lâun des maillons faibles des ordinateurs portables. Lorsque vous nâĂȘtes pas branchĂ© sur une prise Ă©lectrique, votre capacitĂ© Ă utiliser votre ordinateur est complĂštement limitĂ©e par la puissance de la batterie batteries sâusent Ă©galement plus rapidement que les autres composants dâordinateurs portables et prĂ©sentent gĂ©nĂ©ralement une diminution des performances aprĂšs seulement deux ou trois ans de fonctionnement. Une fois que les performances sont suffisamment mauvaises, vous devrez remplacer la batterie. Il est assez facile de tester la charge et la santĂ© de votre batterie. De cette façon, vous pouvez Ă©viter les surprises VĂ©rifiez la charge de la batterie avec unĂtape 1 Chargez complĂštement la batterie de vos ordinateurs 2 Ăteignez votre ordinateur et retirez la batterie. Recherchez une tension nominale sur la batterie. Câest le nombre que vous pouvez comparer Ă la lecture de votre multimĂštre. Ordinateurs portables Beaucoup de capacitĂ©s dâune capacitĂ© de 9,6 V, 10,8 V, 11,1 V, 14,4 V ou 14,8 V. Certains ont des cotes infĂ©rieures ou 3 Trouvez le connecteur qui relie la batterie Ă lâordinateur. Il est situĂ© prĂšs du centre du cĂŽtĂ© de la batterie qui fait face Ă lâordinateur lorsque vous le connectez. Environ un pouce de long, il devrait ressembler Ă une rangĂ©e dâau moins cinq fentes identiques trĂšs Ă©troites qui ressemblent un peu au ventilateur dâextraction de la grille portative de votre ordinateur, sauf plus petite. Les bornes positives et nĂ©gatives de la batterie sont les plus externes de ces 4 Allumez votre multimĂštre et rĂ©glez-le pour mesurer la tension CC sur lâĂ©chelle de 20 volts ou prĂšs de 20 volts. Les paramĂštres de tension sont indiquĂ©s par la lettre V» et les paramĂštres de tension CC sont indiquĂ©s par des lignes droites prĂšs du V, par opposition aux lignes ondulĂ©es pour 5 InsĂ©rez un pointeur sur votre multimĂštre dans la fente la plus Ă lâextĂ©rieur sur un cĂŽtĂ© du connecteur de la batterie. InsĂ©rez lâautre broche de votre multimĂštre dans lâautre fente la plus Ă lâextĂ©rieur de la connexion. Peu importe que vos rĂ©sultats positifs et nĂ©gatifs correspondent. Les faire reculer ne change que le signe de la tension, pas le nombre rĂ©el, et le nombre compte. Assurez-vous que chaque broche touche du mĂ©tal nu et 6 Observez la lecture sur votre multimĂštre. Une batterie de PC complĂštement chargĂ©e et saine quantifiera extrĂȘmement prĂšs de la valeur exprimĂ©e sur la 7 Essayez de mesurer la tension de votre batterie aprĂšs quâelle soit dĂ©chargĂ©e de 60 Ă 80% pour la comparer Ă la pleine charge. Une batterie dâordinateur portable dĂ©chargĂ©e ne mesurera rien prĂšs de 0V. Il y aura encore quelques volts dedans. DĂšs que la batterie tombe en dessous dâune certaine tension, votre ordinateur sâĂ©teint automatiquement. En effet, si la tension chute trop bas, la batterie sera endommagĂ©e. Les circuits de protection de la batterie vous empĂȘchent alors dâutiliser une batterie peut donc en conclure que le multimĂštre prĂ©sente de nombreux avantages et permet Ă©galement de gagner du temps lors du contrĂŽle de la batterie de vos appareils contenant des ions lithium. Par consĂ©quent, si votre appareil fonctionne diffĂ©remment, il est prĂ©fĂ©rable dâacheter un multimĂštre et de le placer chez vous. Vous pouvez le vĂ©rifier assis Ă la maison. Lors du diagnostic des performances de la batterie, il peut Ă©galement ĂȘtre judicieux dâen acheter une nouvelle si une batterie a une tension nominale Ă©gale Ă la moitiĂ© de son score dâorigine. En effet, lorsque vous atteignez le point central, les piles sâĂ©puisent plus rapidement et perdent leur vie aussi espĂ©rons que ce guide a Ă©tĂ© utile pour vĂ©rifier la batterie dâun multimĂštre.
Enstock : Ordinateur portable - Pour la famille - Pour les gamers - Paiement en 4X* Prix bas Livraison gratuite*
Un livre de ce qui prĂ©cĂšde, nous avons abordĂ© divers paramĂštres, qui sont souvent indiquĂ©s lorsque vous achetez un processeur, de la mĂ©moire, ou tout autre composant Ă©lectronique la finesse de gravure ; le nombre de transistors ; la frĂ©quence ; et la tension d'alimentation. Ces paramĂštres ont une influence indirecte sur les performances d'un ordinateur, ou sur sa consommation Ă©nergĂ©tique. Dans ce qui va suivre, nous allons voir comment dĂ©duire la performance d'un processeur ou d'une mĂ©moire suivant ces paramĂštres. Nous allons aussi Ă©tudier quel est l'impact de la finesse de gravure sur la consommation d'Ă©nergie d'un composant Ă©lectronique. Cela nous amĂšnera Ă Ă©tudier les tendances de l'industrie. Pour commencer, il faut d'abord dĂ©finir ce qu'est la performance d'un ordinateur. C'est loin d'ĂȘtre une chose triviale de nombreux paramĂštres font qu'un ordinateur sera plus rapide qu'un autre. De plus, la performance ne signifie pas la mĂȘme chose selon le composant dont on parle. La performance d'un processeur n'est ainsi pas comparable Ă la performance d'une mĂ©moire ou d'un pĂ©riphĂ©rique. La finesse de gravure n'a pas d'impact en elle-mĂȘme sur la performance ou la consommation d'Ă©nergie elle permet juste d'augmenter le nombre de transistors et la frĂ©quence, tout en diminuant la tension d'alimentation. Et ce sont ces trois paramĂštres qui vont nous intĂ©resser. La performance du processeur[modifier modifier le wikicode] Concevoir un processeur n'est pas une chose facile et en concevoir un qui soit rapide l'est encore moins, surtout de nos jours. Pour comprendre ce qui fait la rapiditĂ© d'un processeur, nous allons devoir dĂ©terminer ce qui fait qu'un programme lancĂ© sur notre processeur va prendre plus ou moins de temps pour sâexĂ©cuter. Le temps dâexĂ©cution d'une instruction CPI et frĂ©quence[modifier modifier le wikicode] Le temps que met un programme pour sâexĂ©cuter est le produit du nombre moyen d'instructions exĂ©cutĂ©es par le programme ; de la durĂ©e moyenne d'une instruction, en seconde. , avec N le nombre moyen d'instruction du programme et la durĂ©e moyenne d'une instruction. Le nombre moyen d'instructions exĂ©cutĂ© par un programme s'appelle l'Instruction path length, ou encore longueur du chemin d'instruction en français. Si on utilise le nombre moyen dâinstructions, c'est car il n'est pas forcĂ©ment le mĂȘme d'une exĂ©cution Ă l'autre. Les processeurs modernes disposent de fonctionnalitĂ©s appelĂ©es branchements qui leur permettent de passer outre certaines sections de code quand elles ne sont pas nĂ©cessaires. Par exemple, certaines sections de code ne sont exĂ©cutĂ©es que si une condition bien spĂ©cifique est remplie, grĂące Ă ces branchements. Tout cela deviendra plus clair quand nous aborderons les instructions et les structures de controle, dans un chapitre dĂ©diĂ©. Le temps dâexĂ©cution d'une instruction peut s'exprimer en secondes, mais on peut aussi l'exprimer en nombre de cycles d'horloge. Par exemple, sur les processeurs modernes, une addition va prendre un cycle d'horloge, une multiplication entre 1 et 2 cycles, etc. Cela dĂ©pend du processeur, de l'opĂ©ration, et d'autres paramĂštres assez compliquĂ©s. Mais on peut calculer un nombre moyen de cycle d'horloge par opĂ©ration le CPI Cycle Per Instruction. Le temps dâexĂ©cution moyen, en seconde, d'une instruction dĂ©pend alors du nombre moyen de cycles d'horloge nĂ©cessaires pour exĂ©cuter une instruction, qu'on notera CPI ce qui est l'abrĂ©viation de Cycle Per Instruction ; et de la durĂ©e d'un cycle d'horloge, notĂ©e P P pour pĂ©riode. Quand on sait que la durĂ©e d'un cycle d'horloge n'est autre que l'inverse de la frĂ©quence on peut reformuler en , avec f la frĂ©quence. La puissance de calcul IPC et frĂ©quence[modifier modifier le wikicode] On peut rendre compte de la puissance du processeur par une seconde approche. Au lieu de faire intervenir le temps mis pour exĂ©cuter une instruction, on peut utiliser la puissance de calcul, Ă savoir le nombre de calculs que l'ordinateur peut faire par secondes. En toute rigueur, cette puissance de calcul se mesure en nombre d'instructions par secondes, une unitĂ© qui porte le nom de IPS. En pratique, la puissance de calcul se mesure en MIPS Million Instructions Per Second, million de calculs par seconde en français. Plus un processeur a un MIPS Ă©levĂ©, plus il sera rapide un processeur avec un faible MIPS mettra plus de temps Ă faire une mĂȘme quantitĂ© de calcul qu'un processeur avec un fort MIPS. Le MIPS est surtout utilisĂ© comme estimation de la puissance de calcul sur des nombres entiers. Mais il existe cependant une mesure annexe, utilisĂ©e pour la puissance de calcul sur les nombres flottants le FLOPS, Ă savoir le nombre d'opĂ©rations flottantes par seconde. Par dĂ©finition, le nombre d'instruction par secondes se calcule en prenant le nombre d'instruction exĂ©cutĂ©e, et en divisant par le temps dâexĂ©cution, ce qui donne , avec le temps moyen dâexĂ©cution d'une instruction. Sachant que l'on a vu plus haut que , on peut faire le remplacement L'Ă©quation nous dit quelque chose d'assez intuitif plus la frĂ©quence du processeur est Ă©levĂ©e, plus il est puissant. Par contre, elle ne dĂ©pend pas du CPI, mais de son inverse le nombre de calculs qui sont effectuĂ©s par cycle d'horloge. Celui-ci porte le doux nom d'IPC Instruction Per Cycle. Celui-ci a plus de sens sur les processeurs actuels, qui peuvent effectuer plusieurs calculs en mĂȘme temps, dans des circuits diffĂ©rents des unitĂ©s de calcul diffĂ©rentes, pour ĂȘtre prĂ©cis. Sur ces ordinateurs, l'IPC est supĂ©rieur Ă 1. En remplaçant l'inverse du CPI par l'IPC, on a alors La puissance de calcul est Ă©gale Ă la frĂ©quence multipliĂ©e par l'IPC. En clair, plus la frĂ©quence ou l'IPC sont Ă©levĂ©s, plus le processeur sera rapide. Cependant, des processeurs de mĂȘme frĂ©quence ont souvent des IPC diffĂ©rents, ce qui fait que la relation entre frĂ©quence et puissance de calcul dĂ©pend fortement du processeur. On ne peut donc pas comparer deux processeurs sur la seule base de leur frĂ©quence. Et si la frĂ©quence est gĂ©nĂ©ralement une information qui est mentionnĂ©e lors de l'achat d'un processeur, l'IPC ne l'est pas. La raison vient du fait que la mesure de l'IPC n'est pas normalisĂ©e et qu'il existe de trĂšs nombreuses façons de le mesurer. Il faut dire que l'IPC varie Ă©normĂ©ment suivant les opĂ©rations, le programme, diverses optimisations matĂ©rielles, etc. [modifier modifier le wikicode] On vient de voir que le temps dâexĂ©cution d'un programme est dĂ©crit par la formule suivante , avec f la frĂ©quence. Les Ă©quations prĂ©cĂ©dentes nous disent qu'il existe trois moyens pour accĂ©lĂ©rer un programme diminuer le nombre d'instructions Ă exĂ©cuter ; diminuer le CPI nombre de cycles par instruction ou augmenter l'IPC ; augmenter la frĂ©quence. Voyons en dĂ©tail ces trois solutions. Diminuer l'instruction path length[modifier modifier le wikicode] L'instruction path length peut varier suivant les donnĂ©es manipulĂ©es par le programme, leur taille, leur quantitĂ©, etc. Il est possible de le rĂ©duire, mais cela demande gĂ©nĂ©ralement au programmeur d'optimiser son programme ou un meilleur compilateur. La seule option au niveau matĂ©riel est d'amĂ©liorer le jeu d'instruction. Cette derniĂšre solution peut s'implĂ©menter facilement. Il suffit de crĂ©er des instructions plus complexes, capables de remplacer des suites d'instructions simples il n'est pas rare qu'une grosse instruction complexe fasse exactement la mĂȘme chose qu'une suite d'instructions plus Ă©lĂ©mentaires. Par exemple, on peut implĂ©menter des instructions pour le calcul de la racine carrĂ©e, de l'exponentielle, des puissances, des fonctions trigonomĂ©triques cela Ă©vite d'avoir Ă simuler ces calculs Ă partir d'additions ou de multiplications. Les programmes qui font alors usage de ces opĂ©rations compliquĂ©es seront naturellement plus rapides. Cependant, cette solution a des dĂ©fauts. Par exemple, cela demande d'ajouter des circuits Ă©lectroniques, qui consomment et chauffent. Mais le principal problĂšme est que les occasions d'utiliser les instructions complexes sont assez rares, ce qui fait que les compilateurs ou programmeurs ne les utilisent pas, mĂȘme quand elles peuvent ĂȘtre utiles. Cela explique que la mode actuelle est plutĂŽt d'avoir des processeurs avec un nombre limitĂ© d'instruction machine trĂšs rapides les fameux processeurs RISC. Mieux vaut utiliser des circuits Ă©lectroniques pour de la mĂ©moire cache, pour des unitĂ©s de calcul ou ajouter des cĆurs que d'implĂ©menter de des instructions inutiles. La seule exception notable tient dans les instructions dites vectorielles, que nous verrons dans les derniers chapitres. De plus, ajouter des instructions complexes est quelque chose qui doit se faire sur le long terme, avec le poids de la compatibilitĂ©, ce qui n'est pas sans poser quelques problĂšmes. Par exemple, un programme qui utiliserait des instructions complexes rĂ©centes ne peut pas fonctionner sur les anciens processeurs ne possĂ©dant pas ces instructions. Ainsi, on a beau rajouter des tas d'instructions dans nos processeurs, il faut attendre que tout le monde ait un processeur avec ces nouvelles instructions pour les utiliser. Pour donner un exemple trĂšs simple Ă votre avis, sur les nouvelles instructions rajoutĂ©es dans chaque nouveau processeur Intel, AMD, ou ARM, combien sont rĂ©ellement utilisĂ©es dans les programmes que vous utilisez ? Combien utilisent les instructions SSE, AVX ou autres extensions rĂ©centes ? TrĂšs peu. Diminuer le CPI[modifier modifier le wikicode] Il existe diffĂ©rentes solutions pour diminuer CPI. Tout d'abord, on peut concevoir notre processeur de façon Ă diminuer le temps mis par le processeur pour exĂ©cuter une instruction. C'est particuliĂšrement difficile et nĂ©cessite de refaire ses circuits, trouver de nouveaux algorithmes matĂ©riels pour effectuer une instruction, amĂ©liorer son fonctionnement et sa conception, etc. Une autre solution consiste Ă mieux choisir les instructions utilisĂ©es. Comme je l'ai dit plus haut, le CPI est une moyenne certaines instructions sont plus rapides que d'autres. En utilisant de prĂ©fĂ©rence des instructions rapides au lieu d'instructions plus lentes pour faire la mĂȘme chose, on peut facilement diminuer le CPI. De nos jours, les programmeurs n'ont que trĂšs peu d'influence sur le choix des instructions Ă utiliser les langages de haut niveau comme le C++ ou le Java se sont dĂ©mocratisĂ©s et ont dĂ©lĂ©guĂ©s cette tache aux compilateurs qui se dĂ©brouillent particuliĂšrement bien, en passant. La derniĂšre solution consiste Ă exĂ©cuter plusieurs instructions Ă la fois, Ă augmenter le dĂ©bit dâinstructions. L'idĂ©e est d'augmenter l'IPC non pas en jouant sur le temps d'une instruction, mais en exĂ©cutant plusieurs instructions durant un mĂȘme cycle. Ce faisant, on peut augmenter l'IPC, mĂȘme sans changer le temps que met une instruction Ă sâexĂ©cuter. Les processeurs rĂ©cents utilisent beaucoup ce genre d'astuce et sont capables dâexĂ©cuter plusieurs dizaines, voire centaines d'instructions en parallĂšle. Une bonne partie de la fin du cours est d'ailleurs dĂ©diĂ©e aux techniques qui permettent ce genre de prouesses. Augmenter la frĂ©quence[modifier modifier le wikicode] Augmenter la frĂ©quence demande d'utiliser des composants Ă©lectroniques plus rapides. GĂ©nĂ©ralement, cela nĂ©cessite de miniaturiser les transistors de notre processeur plus un transistor est petit, plus il est rapide. Diminuer la taille des transistors permet de les rendre plus rapides. C'est un scientifique du nom de Robert Dennard qui a dĂ©couvert un moyen de rendre un transistor plus rapide en diminuant certains de ses paramĂštres physiques. De plus, la vitesse de transmission des bits dans les fils d'interconnexions est proportionnelle Ă leur longueur plus ces fils seront courts, plus la transmission sera rapide. Ce qui est clairement un second effet positif de la miniaturisation sur la frĂ©quence. Sachant que la loi de Moore nous dit que le nombre de transistors d'un processeur est multipliĂ© par 2 tous les deux ans, on peut s'attendre Ă ce qu'il en soit de mĂȘme pour la frĂ©quence. En rĂ©alitĂ©, la frĂ©quence ne dĂ©pend pas du nombre de transistor, mais de la longueur de leur cĂŽtĂ©, la finesse de gravure. La loi de Moore dit que les transistors prennent 2 fois moins de place tous les deux ans. Or, les transistors sont rĂ©unis sur une surface qui dit diminution par deux de la surface signifie division par de la longueur d'un transistor, de sa finesse de gravure. Ainsi, la finesse de gravure est divisĂ©e par tous les deux ans. La frĂ©quence ces processeurs est, en consĂ©quence, multipliĂ©e par tous les deux ans, ce qui donne environ 40% de performances en plus tous les deux ans. Du moins, c'est la thĂ©orie⊠En rĂ©alitĂ©, cette augmentation de 40% n'est qu'une approximation la frĂ©quence effective d'un processeur dĂ©pend fortement de sa conception de la longueur du pipeline, notamment et des limites imposĂ©es par la consommation thermique. L'Ă©volution de la performance dans le temps[modifier modifier le wikicode] On vient de voir comment quantifier la performance d'un processeur avec sa frĂ©quence, et avec son IPC/CPI. Il va de soi que les nouveaux processeurs sont plus puissants que les anciens. La raison Ă cela vient des optimisations apportĂ©es par les concepteurs de processeurs. La plupart de ces optimisations ne sont cependant possibles qu'avec la miniaturisation des transistors, qui leur permet d'aller plus vite. On a vu plus haut que la vitesse des transistors est proportionnelle Ă la finesse de gravure. En consĂ©quence, tous deux augmentent de 40 % tous les deux ans elle est multipliĂ©e par la racine carrĂ©e de deux. Pour cette raison, la frĂ©quence devrait augmenter au mĂȘme rythme. Cependant, la frĂ©quence dĂ©pend aussi de la rapiditĂ© du courant dans les interconnexions les fils qui relient les transistors, celles-ci devenant de plus en plus un facteur limitant pour la frĂ©quence. De plus, si la miniaturisation permet d'augmenter la frĂ©quence, elle permet aussi d'amĂ©liorer l'IPC et le CPI. Cependant, si l'effet est direct sur la frĂ©quence, il est assez indirect en ce qui concerne le CPI. La loi de Pollack dit que l'augmentation de l'IPC d'un processeur est approximativement proportionnelle Ă la racine carrĂ©e du nombre de transistors ajoutĂ©s si on double le nombre de transistors, la performance est multipliĂ©e par la racine carrĂ©e de 2. En utilisant la loi de Moore, on en dĂ©duit qu'on gagne approximativement 40% d'IPC tous les deux ans, Ă ajouter aux 40 % d'augmentation de frĂ©quence. On peut expliquer cette loi de Pollack assez simplement. Il faut savoir que les processeurs modernes peuvent exĂ©cuter plusieurs instructions en mĂȘme temps on parle dâexĂ©cution superscalaire, et peuvent mĂȘme changer l'ordre des instructions pour gagner en performances on parle dâexĂ©cution dans le dĂ©sordre. Pour cela, les instructions sont prĂ©chargĂ©es dans une mĂ©moire tampon de taille fixe, interne au processeur, avant d'ĂȘtre exĂ©cutĂ©e en parallĂšle dans divers circuits de calcul. Cependant, le processeur doit gĂ©rer les situations oĂč une instruction a besoin du rĂ©sultat d'une autre pour s'exĂ©cuter si cela arrive, on ne peut exĂ©cuter les instructions en parallĂšle. Pour dĂ©tecter une telle dĂ©pendance, chaque instruction doit ĂȘtre comparĂ©e Ă toutes les autres, pour savoir quelle instruction a besoin des rĂ©sultats d'une autre. Avec N instructions, vu que chacune d'entre elles doit ĂȘtre comparĂ©e Ă toutes les autres, ce qui demande N^2 comparaisons. En doublant le nombre de transistors, on peut donc doubler le nombre de comparateurs, ce qui signifie que l'on peut multiplier le nombre d'instructions exĂ©cutables en parallĂšle par la racine carrĂ©e de deux. On peut cependant contourner la loi de Pollack, qui ne vaut que pour un seul processeur. Mais en utilisant plusieurs processeurs, la performance est la somme des performances individuelles de chacun d'entre eux. C'est pour cela que les processeurs actuels sont doubles, voire quadruple cĆurs ce sont simplement des circuits imprimĂ©s qui contiennent deux, quatre, voire 8 processeurs diffĂ©rents, placĂ©s sur la mĂȘme puce. Chaque cĆur correspond Ă un processeur. En faisant ainsi, doubler le nombre de transistors permet de doubler le nombre de cĆurs et donc de doubler la performance, ce qui est mieux qu'une amĂ©lioration de 40%. La performance d'une mĂ©moire[modifier modifier le wikicode] Toutes les mĂ©moires ne sont pas faites de la mĂȘme façon et les diffĂ©rences entre mĂ©moires sont nombreuses. Dans cette partie, on va passer en revue les diffĂ©rences les plus importantes. La capacitĂ© mĂ©moire[modifier modifier le wikicode] Pour commencer, une mĂ©moire ne peut pas stocker une quantitĂ© infinie de donnĂ©es qui n'a jamais eu un disque dur ou une clĂ© USB plein ? Et Ă ce petit jeu lĂ , toutes les mĂ©moires ne sont pas Ă©gales elles n'ont pas la mĂȘme capacitĂ©. Cette capacitĂ© mĂ©moire n'est autre que le nombre maximal de bits qu'une mĂ©moire peut contenir. Dans la majoritĂ© des mĂ©moires, les bits sont regroupĂ©s en paquets de taille fixe des cases mĂ©moires, aussi appelĂ©es bytes. De nos jours, le nombre de bits par byte est gĂ©nĂ©ralement un multiple de 8 bits ces groupes de 8 bits s'appellent des octets. Mais toutes les mĂ©moires n'ont pas des bytes d'un octet ou plusieurs octets certaines mĂ©moires assez anciennes utilisaient des cases mĂ©moires contenant 1, 2, 3, 4, 7, 18, 36 bits. Les unitĂ©s de capacitĂ© mĂ©moire kilo, mĂ©ga et gigas[modifier modifier le wikicode] Le fait que les mĂ©moires aient presque toutes des bytes faisant un octet nous arrange pour compter la capacitĂ© d'une mĂ©moire. Au lieu de compter cette capacitĂ© en bits, on prĂ©fĂšre mesurer la capacitĂ© d'une mĂ©moire en donnant le nombre d'octets que celle-ci peut contenir. Mais les mĂ©moires des PC font plusieurs millions ou milliards d'octets. Pour se faciliter la tĂąche, on utilise des prĂ©fixes pour dĂ©signer les diffĂ©rentes capacitĂ©s mĂ©moires. Vous connaissez sĂ»rement ces prĂ©fixes kibioctets, mĂ©bioctets et gibioctets, notĂ©s respectivement Kio, Mio et Gio. PrĂ©fixe CapacitĂ© mĂ©moire en octets Puissance de deux Kio 1024 210 octets Mio 1 048 576 220 octets Gio 1 073 741 824 230 octets On peut se demander pourquoi utiliser des puissances de 1024, et ne pas utiliser des puissances un peu plus communes ? Dans la majoritĂ© des situations, les Ă©lectroniciens prĂ©fĂšrent manipuler des puissances de deux pour se faciliter la vie. Par convention, on utilise souvent des puissances de 1024, qui est la puissance de deux la plus proche de 1000. Or, dans le langage courant, kilo, mĂ©ga et giga sont des multiples de 1000. Quand vous vous pesez sur votre balance et que celle-ci vous indique 58 kilogrammes, cela veut dire que vous pesez 58 000 grammes. De mĂȘme, un kilomĂštre est Ă©gal Ă 1000 mĂštres, et non 1024 mĂštres. Autrefois, on utilisait les termes kilo, mĂ©ga et giga Ă la place de nos kibi, mebi et gibi, par abus de langage. Mais peu de personnes sont au courant de l'existence de ces nouvelles unitĂ©s, et celles-ci sont rarement utilisĂ©es. Et cette confusion permet aux fabricants de disques durs de nous arnaquer » Ceux-ci donnent la capacitĂ© des disques durs qu'ils vendent en kilo, mega ou giga octets lâacheteur croit implicitement avoir une capacitĂ© exprimĂ©e en kibi, mebi ou gibi octets, et se retrouve avec un disque dur qui contient moins de mĂ©moire que prĂ©vu. L'Ă©volution de la capacitĂ© suivant le type de mĂ©moire[modifier modifier le wikicode] De maniĂšre gĂ©nĂ©rale, les mĂ©moires Ă©lectroniques sont plus rapides que les mĂ©moires magnĂ©tiques ou optiques, mais ont une capacitĂ© infĂ©rieure. La loi de Moore a une influence certaine sur la capacitĂ© des mĂ©moires Ă©lectroniques. En effet, une mĂ©moire Ă©lectronique est composĂ©e de bascules de 1 bit, elles-mĂȘmes composĂ©es de transistors plus la finesse de gravure est petite, plus la taille d'une bascule sera faible. Quand le nombre de transistors d'une mĂ©moire double, on peut considĂ©rer que le nombre de bascules, et donc la capacitĂ© double. D'aprĂšs la loi de Moore, cela arrive tous les deux ans, ce qui est bien ce qu'on observe pour les mĂ©moires RAM. Ăvolution du nombre de transistors d'une mĂ©moire Ă©lectronique au cours du temps. On voit que celle-ci suit de prĂšs la loi de Moore. Par contre, les mĂ©moires magnĂ©tiques, comme les disques durs, augmentent Ă un rythme diffĂ©rent, celles-ci n'Ă©tant pas composĂ©es de transistors. Ăvolution de la capacitĂ© des disques durs mĂ©moires magnĂ©tiques dans le temps en Ă©chelle logarithmique. Le temps dâaccĂšs d'une mĂ©moire[modifier modifier le wikicode] La vitesse d'une mĂ©moire correspond au temps qu'il faut pour rĂ©cupĂ©rer une information dans la mĂ©moire, ou pour y effectuer un enregistrement. Lors d'une lecture/Ă©criture, il faut attendre un certain temps que la mĂ©moire finisse de lire ou d'Ă©crire la donnĂ©e ce dĂ©lai est appelĂ© le temps d'accĂšs, ou aussi temps de latence. Plus celui-ci est bas, plus la mĂ©moire est rapide. Il se mesure en secondes, millisecondes, microsecondes pour les mĂ©moires les plus rapides. GĂ©nĂ©ralement, le temps de latence dĂ©pend de temps de latences plus Ă©lĂ©mentaires, qui sont appelĂ©s les timings mĂ©moires. Cependant, tous les accĂšs Ă la mĂ©moire ne sont pas Ă©gaux en termes de temps d'accĂšs. GĂ©nĂ©ralement, lire une donnĂ©e ne prend pas le mĂȘme temps que l'Ă©crire. Dit autrement, le temps d'accĂšs en lecture est souvent infĂ©rieur au temps d'accĂšs en Ă©criture. Il faut dire qu'il est beaucoup plus frĂ©quent de lire dans une mĂ©moire qu'y Ă©crire, et les fabricants prĂ©fĂšrent donc rĂ©duire le temps d'accĂšs en lecture. Voici les temps d'accĂšs moyens en lecture de chaque type de mĂ©moire Registres 1 nanoseconde 10-9 Caches 10 - 100 nanosecondes 10-9 MĂ©moire RAM 1 microseconde 10-6 MĂ©moires de masse 1 milliseconde 10-3 Le dĂ©bit d'une mĂ©moire[modifier modifier le wikicode] Enfin, toutes les mĂ©moires n'ont pas le mĂȘme dĂ©bit binaire. Par dĂ©bit, on veut dire que certaines sont capables d'Ă©changer un grand nombre de donnĂ©es par seconde, alors que d'autres ne peuvent Ă©changer qu'un nombre limitĂ© de donnĂ©es sur le bus. Le dĂ©bit binaire est la quantitĂ© de donnĂ©es que la mĂ©moire peut envoyer ou recevoir par seconde. Il se mesure en en octets par seconde ou en bits par seconde. Ăvidemment, plus ce dĂ©bit est Ă©levĂ©, plus la mĂ©moire sera rapide. Il ne faut pas confondre le dĂ©bit et le temps d'accĂšs. Pour faire une analogie avec les rĂ©seaux, le dĂ©bit binaire peut ĂȘtre vu comme la bande passante, alors que le temps d'accĂšs serait similaire au ping. Il est parfaitement possible d'avoir un ping Ă©levĂ© avec une connexion qui tĂ©lĂ©charge trĂšs vite, et inversement. Pour la mĂ©moire, c'est similaire. D'ailleurs, le dĂ©bit binaire est parfois improprement appelĂ© bande passante. Dans presque tous les cas, le dĂ©bit dĂ©pend fortement de la frĂ©quence de la mĂ©moire. Or, l'Ă©volution de la frĂ©quence des mĂ©moires suit plus ou moins celle des processeurs, elle double au mĂȘme rythme. Mais malheureusement, cette frĂ©quence reste infĂ©rieure Ă celle des processeurs. Cette augmentation de frĂ©quence permet au dĂ©bit des mĂ©moires d'augmenter avec le temps. En effet, Ă chaque cycle d'horloge, la mĂ©moire peut envoyer ou recevoir une quantitĂ© fixe de donnĂ©es. En multipliant cette largeur du bus par la frĂ©quence, on obtient le dĂ©bit. Par contre, la frĂ©quence n'a aucun impact sur le temps de latence. Le temps de balayage[modifier modifier le wikicode] Le temps de balayage d'une mĂ©moire est le temps mis pour parcourir/accĂ©der Ă toute la mĂ©moire. ConcrĂštement, il est dĂ©fini en divisant la capacitĂ© de la mĂ©moire par son dĂ©bit binaire. Le rĂ©sultat s'exprime en secondes. Le temps de balayage est en soi une mesure peu utilisĂ©e, sauf dans quelques applications spĂ©cifiques. C'est le temps nĂ©cessaire pour lire ou réécrire tout le contenu de la mĂ©moire. On peut le voir comme une mesure du compromis rĂ©alisĂ© entre la capacitĂ© de la mĂ©moire et sa rapiditĂ© une mĂ©moire aura un temps de balayage d'autant plus important qu'elle est lente Ă capacitĂ© identique, ou qu'elle a une grande capacitĂ© Ă dĂ©bit identique. GĂ©nĂ©ralement un temps de balayage faible signifie que la mĂ©moire est rapide par rapport Ă sa capacitĂ©. Comme dit plus haut, le temps d'accĂšs est diffĂ©rent pour les lectures et les Ă©critures, et il en est de mĂȘme pour le dĂ©bit binaire. En consĂ©quence, le temps de balayage n'est pas le mĂȘme si le balayage se fait en lecture ou en Ă©criture. On doit donc distinguer le temps de balayage en lecture qui est le temps mis pour lire la totalitĂ© de la mĂ©moire, et le temps de balayage en Ă©criture qui est le temps mis pour Ă©crire une donnĂ©e dans toute la mĂ©moire. La distinction est d'autant plus importante que les cas oĂč on balaye une mĂ©moire en lecture avec les cas oĂč on balaye la mĂ©moire en Ă©criture. GĂ©nĂ©ralement, on balaye une mĂ©moire en lecture quand on veut recherche une donnĂ©e bien prĂ©cise dedans. Par contre, le balayage en Ă©criture correspond surtout aux cas oĂč on veut rĂ©initialiser la mĂ©moire, la remplir tout son contenu avec des zĂ©ros afin de la remettre au mĂȘme Ă©tat qu'Ă son dĂ©marrage. Un exemple de balayage en Ă©criture est celui d'une rĂ©initialisation de la mĂ©moire, Ă savoir remplacer le contenu de chaque case mĂ©moire par un 0. Le temps nĂ©cessaire pour rĂ©initialiser la mĂ©moire n'est autre que le temps de balayage en Ă©criture. En soi, les opĂ©rations de rĂ©initialisation de la mĂ©moire sont plutĂŽt rares. Certains vieux ordinateurs effaçaient la mĂ©moire Ă l'allumage, et encore pas systĂ©matiquement, mais ce n'est plus le cas de nos jours. Un cas plus familier est celui du formatage complet du disque dur. Si vous voulez formater un disque dur ou une clĂ© USB ou tout autre support de stockage, le systĂšme d'exploitation va vous donner deux choix le formatage rapide et le formatage complet. Le formatage rapide n'efface pas les fichiers sur le disque dur, mais utilise des stratagĂšmes pour que le systĂšme d'exploitation ne puisse plus savoir oĂč ils sont sur le support de stockage. Les fichiers peuvent d'ailleurs ĂȘtre rĂ©cupĂ©rĂ©s avec des logiciels spĂ©cialisĂ©s trouvables assez facilement. Par contre, le formatage complet efface la totalitĂ© du disque dur et effectue bel et bien une rĂ©initialisation. Le temps mis pour formater le disque dur n'est autre que le temps de balayage en Ă©criture. Un autre cas de rĂ©initialisation de la mĂ©moire est celui de l'effacement du framebuffer sur les trĂšs vielles cartes graphiques. Sur les vielles cartes graphiques, la mĂ©moire vidĂ©o ne servait qu'Ă stocker des images calculĂ©es par le processeur. Le processeur calculait l'image Ă afficher et l'Ă©crivait dans la mĂ©moire vidĂ©o, appelĂ©e framebuffer. Puis, l'image Ă©tait envoyĂ©e Ă l'Ă©cran quand celui-ci Ă©tait libre, la carte graphique gĂ©rant l'affichage. L'Ă©cran affichait gĂ©nĂ©ralement 60 images par secondes, et le processeur devait calculer une image en moins de 1/60Ăšme de seconde. Mais si le processeur mettait plus de temps, l'image dans le framebuffer Ă©tait un mĂ©lange de l'ancienne image et des parties de la nouvelle image dĂ©jĂ calculĂ©es par le processeur. L'Ă©cran affichait donc une image bizarre durant 1/60Ăšme de seconde, ce qui donnait des lĂ©gers bugs graphiques trĂšs brefs, mais visibles. Pour Ă©viter cela, le framebuffer Ă©tait effacĂ© entre chaque image calculĂ©e par le processeur. Au lieu d'afficher un bug graphique, l'Ă©cran affichait alors une image blanche en cas de lenteur du processeur. Cette solution Ă©tait possible, car les mĂ©moires de l'Ă©poque avaient un temps de balayage en Ă©criture assez faible. De nos jours, cette solution n'est plus utilisĂ©e, car la mĂ©moire vidĂ©o stocke d'autres donnĂ©es que l'image Ă afficher Ă l'Ă©cran, et ces donnĂ©es ne doivent pas ĂȘtre effacĂ©es. Le temps de balayage en lecture est surtout pertinent dans les cas oĂč on recherche une donnĂ©e prĂ©cise dans la mĂ©moire. L'exemple le plus frappant est celui des antivirus, qui recherchent si une certaine suite de donnĂ©e est prĂ©sente en mĂ©moire RAM. Les antivirus scannent rĂ©guliĂšrement la RAM Ă la recherche du code binaire de virus, et doivent donc balayer la RAM et appliquer des algorithmes assez complexes sur les donnĂ©es lues. Bref, le temps de balayage donne le temps nĂ©cessaire pour scanner la RAM, si on oublie le temps de calcul. Tous les exemples prĂ©cĂ©dents demandent de scanner la RAM Ă la recherche d'une donnĂ©e prĂ©cise, et le temps de balayage donne une borne infĂ©rieure Ă ce temps de recherche. Cet exemple n'est peut-ĂȘtre pas trĂšs rĂ©aliste, mais il deviendra plus clair dans le chapitre sur les mĂ©moires associatives, un type de mĂ©moire particulier conçu justement pour rĂ©duire le temps de balayage en lecture au strict minimum. Enfin, on peut aussi citer le cas oĂč l'on souhaite vĂ©rifier le contenu de la mĂ©moire, pour vĂ©rifier si tous les bytes fonctionnent bien. Il arrive que les mĂ©moires RAM aient des pannes certains bytes tombent en panne aprĂšs quelques annĂ©es d'utilisation, et deviennent inaccessibles. Lorsque cela arrive, tout se passe bien tant que les bytes dĂ©fectueux ne sont pas lus ou Ă©crits. Mais quand cela arrive, les lectures renvoient des donnĂ©es incorrectes. Les consĂ©quences peuvent ĂȘtre trĂšs variables, mais cela cause gĂ©nĂ©ralement des bugs assez importants, voire des Ă©crans ou de beaux plantages. De nombreux cas d'instabilitĂ© systĂšme sont liĂ©s Ă ces bytes dĂ©fectueux. Il est possible de vĂ©rifier l'intĂ©gritĂ© de la mĂ©moire avec des logiciels spĂ©cialisĂ©s, qui vĂ©rifient chaque byte de la mĂ©moire un par un. Les systĂšmes d'exploitation modernes incorporent un logiciel de ce genre, comme Windows qui en a un d'intĂ©grĂ©. Le BIOS ou l'UEFI de votre ordinateur a de bonnes chances d'intĂ©grer un logiciel de ce genre. Ces logiciels de diagnostic mĂ©moire balayent la mĂ©moire byte par byte, case mĂ©moire par case mĂ©moire, et effectuent divers traitements dessus. Dans le cas le plus simple, ils Ă©crivent une donnĂ©e dans chaque byte, avant de le lire si la donnĂ©e lue et Ă©crite ne sont pas la mĂȘme, le byte est dĂ©fectueux. Mais d'autres traitements sont possibles. Toujours est-il que ces utilitaires balayent la mĂ©moire, gĂ©nĂ©ralement plusieurs fois. LE temps de balayage donne alors une idĂ©e du temps que mettront ces logiciels de diagnostic pour sâexĂ©cuter. La performance des mĂ©moires caches[modifier modifier le wikicode] Ce qui a Ă©tĂ© dit prĂ©cĂ©demment vaut aussi pour les mĂ©moires caches, qui ont un dĂ©bit, une frĂ©quence, un temps de latence et une capacitĂ©. Mais l'analyse de la performance des mĂ©moires est cependant plus riche pour les caches que pour les autres mĂ©moires. Pour comprendre pourquoi, il faut savoir que le cache contient une copie de certaines donnĂ©es prĂ©sentes en RAM. La copie prĂ©sente dans le cache est accessible bien plus rapidement que celle en RAM, le cache Ă©tant beaucoup plus rapide que la RAM. Mais seule une faible partie de ces donnĂ©es sont prĂ©sentes dans le cache, les autres donnĂ©es devant ĂȘtre lues ou Ă©crites dans la RAM. Tout accĂšs mĂ©moire provenant du processeur est interceptĂ© par le cache, qui vĂ©rifie si la donnĂ©e demandĂ©e est prĂ©sente ou non dans le cache. Si c'est le cas, la donnĂ©e voulue est prĂ©sente dans le cache on a un succĂšs de cache cache hit et on accĂšde Ă la donnĂ©e depuis le cache. Sinon, c'est un dĂ©faut de cache cache miss on est obligĂ© dâaccĂ©der Ă la RAM ou de recopier notre donnĂ©e de la RAM dans le cache. L'origine des dĂ©fauts de cache[modifier modifier le wikicode] Les dĂ©fauts de cache peuvent avoir plusieurs origines. Tout ce qu'il faut savoir est que lorsque le processeur accĂšde Ă une donnĂ©e ou une instruction pour la premiĂšre fois, il la place dans la mĂ©moire cache. La raison Ă cela est qu'un programme a tendance Ă rĂ©utiliser les instructions et donnĂ©es qui ont Ă©tĂ© accĂ©dĂ©es dans le passĂ© c'est le principe de localitĂ© temporelle. Bien Ă©videment, cela dĂ©pend du programme, de la façon dont celui-ci est programmĂ© et accĂšde Ă ses donnĂ©es et du traitement qu'il fait, mais c'est souvent vrai en gĂ©nĂ©ral. La premiĂšre cause des dĂ©fauts de cache est liĂ©e Ă la taille du cache. Ă force de charger des donnĂ©es/instructions dans le cache, le cache fini par ĂȘtre trop petit pour conserver les anciennes donnĂ©es. Le cache doit bien finir par faire de la place en supprimant les anciennes donnĂ©es, qui ont peu de chances d'ĂȘtre rĂ©utilisĂ©es. Ces anciennes donnĂ©es Ă©liminĂ©es du cache peuvent cependant ĂȘtre accĂ©dĂ©es plus tard. Tout prochain accĂšs Ă cette donnĂ©e mĂšnera Ă un cache miss. C'est ce qu'on appelle un Capacity Cache Miss, ou encore dĂ©faut de capacitĂ©. Les seules solutions pour Ă©viter cela consistent Ă augmenter la taille du cache ou Ă optimiser le programme exĂ©cutĂ© voir plus bas. Une autre raison pour un dĂ©faut est donc la suivante. Lorsqu'on exĂ©cute Ă une instruction ou qu'on accĂšde Ă donnĂ©e pour la premiĂšre fois, celle-ci n'a pas encore Ă©tĂ© chargĂ©e dans le cache. Le dĂ©faut de cache est inĂ©vitable ce genre de cache miss s'appelle un Cold Miss, ou encore un dĂ©faut Ă froid. De tels dĂ©fauts sont presque impossibles Ă Ă©liminer, sauf Ă utiliser des techniques de prĂ©chargement qui chargent Ă l'avance des donnĂ©es potentiellement utiles. Ces mĂ©thodes de prĂ©chargement se basent sur le principe de localitĂ© spatiale, Ă savoir le fait que les programmes ont tendance Ă accĂ©der Ă des donnĂ©es proches en mĂ©moire. Pour donner un exemple, les instructions d'un programme sont placĂ©es en mĂ©moire dans lâordre dans lequel on les exĂ©cute la prochaine instruction Ă exĂ©cuter est souvent placĂ©e juste aprĂšs l'instruction en cours sauf avec les branchements. Quand on accĂšde Ă une donnĂ©e ou une instruction, le cache peut prĂ©charger les donnĂ©es adjacentes pour en profiter. Nous parlerons de ces techniques de prĂ©chargement dans un chapitre dĂ©diĂ©, vers la fin du cours. Le taux de succĂšs ou de dĂ©fauts[modifier modifier le wikicode] Le taux de succĂšs hit ratio est un premier indicateur des performances du cache, mais un indicateur assez imparfait. C'est le pourcentage d'accĂšs mĂ©moire qui ne dĂ©clenchent pas de dĂ©faut de cache. Plus il est Ă©levĂ©, plus le processeur accĂšde au cache Ă la place de la RAM et plus le cache est efficace. Certains chercheurs prĂ©fĂšrent utiliser le taux de dĂ©fauts, Ă savoir le pourcentage d'accĂšs mĂ©moire qui entraĂźnent un dĂ©faut de cache. Plus il est bas, meilleures sont les performances. Le taux de dĂ©faut est reliĂ© au taux de succĂšs par l'Ă©quation . Par dĂ©finition, il est Ă©gal Ă PlutĂŽt que de comparer le nombre de dĂ©fauts/succĂšs de cache au nombre d'accĂšs mĂ©moire, il est aussi possible de diviser le nombre de dĂ©fauts par le nombre total d'instructions. On obtient alors le taux de dĂ©fauts/succĂšs par instruction, une autre mĂ©trique utile. Par dĂ©finition, elle est Ă©gale Ă Si certains dĂ©fauts de cache sont inĂ©vitables quel que soit le cache, comme les dĂ©fauts Ă froids, mentionnĂ©s plus haut, d'autres dĂ©fauts peuvent ĂȘtre Ă©vitĂ©s en augmentant la capacitĂ© du cache. C'est le cas des dĂ©fauts de capacitĂ© qui sont causĂ©s par un accĂšs Ă une donnĂ©e qui a Ă©tĂ© Ă©liminĂ©e du cache faute de place. Plus le cache est gros, moins il a de chances d'ĂȘtre rempli, moins il doit rapatrier de donnĂ©es, plus son taux de succĂšs augmente. Mais nous reviendrons sur le lien entre taille du cache et taux de dĂ©faut plus bas. Le taux de succĂšs ne dĂ©pend pas que du cache, mais aussi de la conception des programmes exĂ©cutĂ©s. Une bonne utilisation du cache ainsi que de la mĂ©moire virtuelle repose sur le programmeur qui doit prendre en compte les principes de localitĂ©s dĂšs la conception de ses programmes. Par exemple, un programmeur peut parfaitement tenir compte du cache au niveau de son algorithme on peut citer l'existence des algorithmes cache oblivious, qui sont conçus pour ĂȘtre optimaux quelle que soit la taille du cache. Ces algorithmes permettent le plus souvent de gros gains en performances dans la plupart des situations sur les architectures modernes. Le programmeur peut aussi choisir ses structures de donnĂ©es de maniĂšre Ă amĂ©liorer la localitĂ©. Par exemple, un tableau est une structure de donnĂ©e respectant le principe de localitĂ© spatiale, tandis qu'une liste chaĂźnĂ©e ou un arbre n'en sont pas bien qu'on puisse les implĂ©menter de façon Ă limiter la casse. D'autres optimisations sont parfois possibles par exemple, le sens de parcours d'un tableau multidimensionnel peut faire une grosse diffĂ©rence. Cela permet des gains trĂšs intĂ©ressants pouvant se mesurer avec des nombres Ă deux ou trois chiffres. Je vous recommande, si vous ĂȘtes programmeur, de vous renseigner le plus possible sur les optimisations de code ou algorithmiques qui concernent le cache il vous suffira de chercher sur Google. Il y a une citation qui rĂ©sume bien cela, prononcĂ©e par un certain Terje Mathisen. Si vous ne le connaissez pas, cet homme est un vieux programmeur du temps durant lequel on codait encore en assembleur, grand gourou de lâoptimisation, qui a notamment travaillĂ© sur le moteur de Quake 3 Arena. Almost all programming can be viewed as an exercise in caching. » â Terje Mathisen La latence moyenne d'un cache[modifier modifier le wikicode] Le temps mis pour lire ou Ă©crire une donnĂ©e varie en prĂ©sence d'un cache. Certaines lectures/Ă©critures vont atterrir directement dans le cache succĂšs tandis que d'autres devront aller chercher leur contenu en mĂ©moire RAM dĂ©faut de cache. Dans tous les cas, qu'il y ait dĂ©faut ou non, le cache sera consultĂ© et mettra un certain temps Ă rĂ©pondre, Ă©gal au temps de latence du cache. Tous les accĂšs mĂ©moires auront donc une durĂ©e au moins Ă©gale au temps de latence du cache, qui sera notĂ©e . En cas de succĂšs, le cache aura effectuĂ© la lecture ou l'Ă©criture, et aucune action supplĂ©mentaire n'est requise. Ce qui n'est pas le cas en cas de dĂ©faut le processeur devra aller lire/Ă©crire la donnĂ©e en RAM, ce qui prend un temps supplĂ©mentaire Ă©gal au temps de latence de la mĂ©moire RAM. Un dĂ©faut ajoute donc un temps, une pĂ©nalitĂ©, Ă l'accĂšs mĂ©moire. Dans ce qui suivra, le temps d'accĂšs Ă la RAM sera notĂ© . Fort de ces informations, nous pouvons calculer le temps de latence moyen d'un accĂšs mĂ©moire, qui est la somme du temps d'accĂšs au cache pour tous les accĂšs mĂ©moire, multipliĂ© par le temps liĂ© aux dĂ©fauts. On a alors On voit que plus le taux de succĂšs est Ă©levĂ©, plus le temps de latence moyen sera bas, et inversement. Ce qui explique l'influence du taux de succĂšs sur les performances du cache, influence assez importante sur les processeurs actuels. De nos jours, le temps que passe le processeur dans les dĂ©fauts de cache devient de plus en plus un problĂšme au fil du temps, et gĂ©rer correctement le cache est une nĂ©cessitĂ©, particuliĂšrement sur les processeurs multi-cĆurs. Il faut dire que la diffĂ©rence de vitesse entre processeur et mĂ©moire est tellement importante que les dĂ©fauts de cache sont trĂšs lents alors qu'un succĂšs de cache va prendre entre 1 et 5 cycles d'horloge, un cache miss fera plus dans les 400-1000 cycles d'horloge. Tout ce temps sera du temps de perdu que le processeur aura du mal Ă mitiger. Autant dire que rĂ©duire les dĂ©fauts de cache est beaucoup plus efficace que d'optimiser les calculs effectuĂ©s par le processeur erreur courante chez de nombreux programmeurs, notamment dĂ©butants. L'impact de la taille du cache sur le taux de dĂ©faut et la latence[modifier modifier le wikicode] Il y a un lien entre taille du cache, taux de dĂ©faut, dĂ©bit binaire et latence moyenne. Globalement, plus un cache est gros, plus il est lent. Simple application de la notion de hiĂ©rarchie mĂ©moire vue il y a quelques chapitres. Les raisons Ă cela sont nombreuses, mais nous ne pouvons pas les aborder ici, car il faudrait que nous sachions comment fonctionne un cache et ce qu'il y a Ă l'intĂ©rieur et il vous faudra attendre de nombreux chapitres pour cela. Toujours est-il que la latence moyenne d'un cache assez gros est assez importante. De mĂȘme, le dĂ©bit binaire d'un cache diminue avec sa taille, mais dans une moindre mesure. Les petits caches ont donc un gros dĂ©bit binaire et une faible latence, alors que c'est l'inverse pour les gros caches. D'oĂč l'existence, comme on l'a vu dans le prĂ©cĂ©dent chapitre, d'une hiĂ©rarchie de mĂ©moires caches. Une grande capacitĂ© de cache amĂ©liore le taux de succĂšs, mais cela se fait au dĂ©triment de son temps de latence et de son dĂ©bit, ce qui fait qu'il y a un compromis assez difficile Ă trouver entre taille du cache, latence et dĂ©bit. Il peut arriver qu'augmenter la taille du cache augmente son temps d'accĂšs au point dâentraĂźner une baisse de performance. Par exemple, les processeurs Nehalem d'Intel ont vus leurs performances dans certains jeux vidĂ©os baisser de 2 Ă 3 %, malgrĂ© de nombreuses amĂ©liorations architecturales, parce que la latence du cache L1 avait augmentĂ©e de 2 cycles d'horloge. Pour rĂ©soudre ce problĂšme, les concepteurs de processeur utilisent plusieurs caches au sein d'un processeur certains sont petits mais rapides, d'autres de grande capacitĂ© mais lents, avec parfois des caches intermĂ©diaires. Pour avoir une petite idĂ©e du compromis Ă faire, regardons la relation entre taille du cache et taux de dĂ©faut. Il existe une relation approximative entre ces deux variables, appelĂ©e la loi de puissance des dĂ©fauts de cache. Elle donne le nombre total de dĂ©faut de cache en fonction de la taille du cache et de deux autres paramĂštres. Voici cette loi , avec et deux coefficients qui dĂ©pendent du programme exĂ©cutĂ©. Le coefficient est gĂ©nĂ©ralement compris entre et guĂšre plus, et varie suivant le programme exĂ©cutĂ©. PrĂ©cisons que cette loi ne marche que si le cache est assez petit par rapport aux donnĂ©es Ă utiliser. Pour un cache assez gros et des donnĂ©es trĂšs petites, la relation prĂ©cĂ©dente est mise en dĂ©faut. Pour s'en rendre compte, il suffit d'Ă©tudier le cas extrĂȘme oĂč toutes les donnĂ©es nĂ©cessaires tiennent dans le cache. Dans ce cas, il n'y a qu'un nombre fixe de dĂ©fauts de cache autant qu'il faut charger de donnĂ©es dans le cache. Le nombre de dĂ©fauts de cache observĂ© dans cette situation n'est autre que le coefficient de la situation prĂ©cĂ©dente, mais il n'y a aucune dĂ©pendance entre taux de dĂ©faut et taille du cache. L'origine de cette relation s'explique quand on regarde combien de fois chaque donnĂ©e est rĂ©utilisĂ©e lors de lâexĂ©cution d'un programme. La plupart des donnĂ©es finissent par ĂȘtre rĂ©-accĂ©dĂ©es Ă un moment ou un autre et il se passe un certain temps entre deux accĂšs Ă une mĂȘme donnĂ©e. Sur la plupart des programmes, les observations montrent que beaucoup de rĂ©utilisations de donnĂ©es se font aprĂšs un temps trĂšs court et qu'inversement, peu de rĂ©-accĂšs se font aprĂšs un temps inter-accĂšs long. Si on compte le nombre de rĂ©utilisation qui ont un temps inter-accĂšs bien prĂ©cis, on retrouve une loi de puissance identique Ă celle vue prĂ©cĂ©demment , avec t le temps moyen entre deux rĂ©utilisations. Le coefficient est ici compris entre et De maniĂšre gĂ©nĂ©rale, les coefficients et sont reliĂ©s par la relation , ce qui montre qu'il y a un lien entre les deux relations. PrĂ©cisons cependant que la loi de puissance prĂ©cĂ©dente ne vaut pas pour tous les programmes informatiques, mais seulement pour la plupart dâentre eux. Il n'est pas rare de trouver quelques programmes pour lesquels les accĂšs aux donnĂ©es sont relativement prĂ©dictibles et oĂč une bonne optimisation du code fait que la loi de puissance prĂ©cĂ©dente n'est pas valide. La loi de puissance des dĂ©fauts de cache peut se dĂ©montrer Ă partir de la relation prĂ©cĂ©dente, sous certaines hypothĂšses. Si un suppose que le cache est assez petit par rapport aux donnĂ©es, alors les deux relations sont Ă©quivalentes. L'idĂ©e qui se cache derriĂšre la dĂ©monstration est que si le temps entre deux accĂšs Ă une donnĂ©e est trop long, alors la donnĂ©e accĂ©dĂ©e aura plus de chance d'ĂȘtre rapatriĂ©e en RAM, ce qui cause un dĂ©faut de cache. La chance de rapatriement dĂ©pend de la taille du cache, un cache plus gros peut conserver plus de donnĂ©es et a donc un temps avant rapatriement plus long. La performance des entrĂ©es-sorties[modifier modifier le wikicode] Pour une entrĂ©e-sortie, la mesure de la performance dĂ©pend Ă©normĂ©ment du composant en question. Par exemple, on ne mesure pas la vitesse d'un disque dur de la mĂȘme maniĂšre que celle d'un Ă©cran. Nous aborderons plus en dĂ©tail les mesures de performances des diffĂ©rents pĂ©riphĂ©riques dans les chapitres adĂ©quats. Cependant, on peut donner le principe de base, valable en thĂ©orie pour tous les pĂ©riphĂ©riques. Pour tous les pĂ©riphĂ©riques, on peut mesurer le dĂ©bit binaire, Ă savoir la quantitĂ© de donnĂ©es que celui-ci transmet Ă l'ordinateur par secondes. Le dĂ©bit binaire d'un pĂ©riphĂ©rique est le produit de deux facteurs le nombre d'opĂ©rations d'entrĂ©e-sortie par secondes, et la taille des donnĂ©es Ă©changĂ©e par opĂ©ration. Ces opĂ©rations d'entrĂ©e-sortie correspondent chacune Ă un Ă©change de donnĂ©es entre le pĂ©riphĂ©rique et le reste de l'ordinateur, via le bus. Cela peut se rĂ©sumer par la formule suivante , avec D le dĂ©bit binaire, IOPS le nombre d'opĂ©rations disque par secondes, et T la quantitĂ© de donnĂ©es Ă©changĂ©e lors d'une opĂ©ration d'entrĂ©e-sortie. Augmenter la taille des donnĂ©es transmises augmente donc le dĂ©bit, mais cette technique est rarement utilisĂ©e. Les bus ne sont extensibles Ă l'infini. Ă la place, la majoritĂ© des pĂ©riphĂ©riques incorpore diverses optimisations pour augmenter l'IOPS, ce qui permet un meilleur dĂ©bit pour une taille T identique.
NotrerĂ©ponse ci-dessous. 8. 799,99 ⏠Lire la conclusion. Honor MagicBook 16. Ăcran IPS fluide et rĂ©actif. FrĂ©quence de rafraĂźchissement de 144 Hz. Un Ryzen 5 5600H trĂšs bien exploitĂ©. PC TĂ©lĂ©charger l'article TĂ©lĂ©charger l'article Quand un ordinateur tombe en panne, on ne pense pas immĂ©diatement Ă une rupture de l'alimentation Ă©lectrique. Pourtant, il est facile de tester l'alimentation et cela pourrait vous Ă©viter bien des maux de tĂȘte Ă chercher un problĂšme lĂ oĂč il n'est pas. Un dĂ©faut d'alimentation se manifeste de diffĂ©rentes façons vous pouvez avoir un Ă©cran bleu, des plantages intempestifs, des erreurs de disque dur. L'ordinateur peut aussi tout simplement ne pas dĂ©marrer. Apprenez donc Ă faire quelques tests qui ne coutent rien ou peu, avant de vous lancer dans des dĂ©penses folles. 1Ăteignez votre ordinateur. Ensuite, basculez le bouton d'alimentation sur la position d'arrĂȘt. DĂ©branchez la prise du mur. 2 Ouvrez le boitier de votre ordinateur unitĂ© centrale. DĂ©branchez tous les cĂąbles d'alimentation reliĂ©s aux diffĂ©rents composants qui se trouvent Ă l'intĂ©rieur. Suivez les cĂąbles pour vous assurer que tout a Ă©tĂ© bien dĂ©branchĂ©. Prenez bien soin de repĂ©rer, d'une façon ou d'une autre, les branchements pour pouvoir faire la rĂ©installation plus tard. 3 Faites le test du trombone. En effet, on peut tester l'alimentation avec un trombone qu'on aura d'abord dĂ©pliĂ©, puis pliĂ© en forme de U ». Les bouts du trombone joueront le rĂŽle de broches et seront insĂ©rĂ©s dans l'alimentation. Ainsi votre ordinateur sera alimentĂ© sans passer par la carte mĂšre. 4RepĂ©rez le connecteur Ă 20/24 broches qui alimente la carte mĂšre. C'est le plus large des connecteurs d'alimentation, vous ne pouvez pas vous tromper [1] ! 5 Trouvez la broche verte et la broche noire n° 15 et 16. Les deux bouts du trombone doivent ĂȘtre enfoncĂ©s dans ces deux broches il n'y a qu'un cĂąble vert et le cĂąble noir est celui qui se trouve juste Ă cĂŽtĂ© du vert. Avant de procĂ©der Ă cette opĂ©ration, vĂ©rifiez encore une fois que vous avez bien dĂ©branchĂ© l'alimentation de la prise Ă©lectrique, que l'interrupteur de l'ordinateur est bien en position ArrĂȘt » et que les composants internes ont Ă©tĂ© sĂ©parĂ©s de leurs alimentations respectives. La broche verte, si le montage est correct, est la broche n° 15. 6InsĂ©rez le trombone dans les deux trous. Ensuite, placez votre faisceau en un lieu oĂč il ne vous gĂȘnera pas. Rebranchez alors le cĂąble d'alimentation gĂ©nĂ©ral dans la prise et appuyez sur l'interrupteur de dĂ©marrage de l'ordinateur. 7 Voyez si les ventilateurs tournent. Une fois le branchement fait, vous devez entendre ou voir les ventilateurs tourner. C'est lĂ le signe que l'alimentation a bien Ă©tĂ© rĂ©tablie. Sinon, Ă©teignez et dĂ©branchez tout. Puis, vĂ©rifiez la connexion de votre trombone et essayez Ă nouveau. Si rien ne se passe, c'est que vous avez un problĂšme d'alimentation [2] . Ce test ne vous indiquera pas que votre bloc d'alimentation marche parfaitement, il vous indiquera seulement qu'il marche pour certaines opĂ©rations. Pour en savoir plus, il faut passer au deuxiĂšme test. PublicitĂ© 1 Testez vos sorties grĂące Ă un logiciel dĂ©diĂ©. Si votre ordinateur est en Ă©tat de fonctionner et si vous pouvez accĂ©der Ă votre bureau, essayez de lancer un logiciel qui va tester certains paramĂštres Ă©lectriques. Ainsi, SpeedFan est un gratuiciel qui Ă©tablit un diagnostic Ă©lectrique et vous Ă©tablit ensuite un rapport sur les tempĂ©ratures et les voltages qu'il a mesurĂ©s. Ensuite, vous devrez vĂ©rifier que ces chiffres correspondent Ă ceux annoncĂ©s dans le manuel du constructeur. SI votre ordinateur ne marche pas, sautez l'Ă©tape suivante. 2Ăteignez votre ordinateur. DĂ©branchez la prise du mur. Basculez le bouton d'alimentation, Ă l'arriĂšre de l'unitĂ© centrale, sur la position d'arrĂȘt. Ouvrez le boitier de votre ordinateur unitĂ© centrale. DĂ©branchez tous les cĂąbles d'alimentation reliĂ©s aux diffĂ©rents composants qui se trouvent Ă l'intĂ©rieur. Suivez les cĂąbles pour vous assurer que tout a Ă©tĂ© bien dĂ©branchĂ©. 3 ContrĂŽlez votre alimentation avec un testeur de courant. Ce genre d'appareils est disponible dans les magasins qui vendent des ordinateurs et sur Internet, il ne coute pas trĂšs cher. RepĂ©rez le connecteur 20/24 broches qui alimente la carte mĂšre. C'est le plus large des connecteurs d'alimentation, vous ne pouvez pas vous tromper ! Branchez votre appareil au connecteur 20/24 broches. Remettez l'alimentation du boitier et rallumez l'ordinateur. Votre testeur doit s'allumer Ă©galement. Certains testeurs se mettent automatiquement en route, d'autres doivent ĂȘtre allumĂ©s en basculant ou en appuyant sur un bouton. VĂ©rifiez les voltages. Sur ce connecteur 20/24 broches, on a des sorties Ă diffĂ©rents voltages, en moyenne 4 les sorties en +3,3 volts les sorties en +5 volts les sorties en +12 volts les sorties en -12 volts Vous devez vĂ©rifier que les voltages lus sont bien dans la norme. Globalement, les 3,3, 5 et + 12 volts acceptent des variations de +/- 5 %. Le test du -12 volts accepte quant Ă lui, des variations comprises dans la limite de +/- 10 %. Si vous dĂ©passez ces normes, c'est que votre alimentation est dĂ©fectueuse et doit donc ĂȘtre remplacĂ©e. Testez les autres connecteurs. Une fois le connecteur principal celui de la carte mĂšre vĂ©rifiĂ©, faites de mĂȘme avec chacun des autres connecteurs. Faites-les les uns aprĂšs les autres. Entre chaque test, pensez Ă dĂ©brancher l'alimentation et Ă Ă©teindre le boitier. 4 Testez votre alimentation avec un multimĂštre. DĂ©pliez un trombone, puis pliez-le en forme de U ». Trouvez la broche verte et la broche noire broches 15 et 16. Les deux bouts du trombone doivent ĂȘtre enfoncĂ©s dans ces deux broches il n'y a qu'un cĂąble vert et le cĂąble noir est celui qui se trouve juste Ă cĂŽtĂ© du vert. Cette manĆuvre court-circuite ou shunte la carte mĂšre. Rebranchez alors le cĂąble d'alimentation gĂ©nĂ©ral dans la prise et appuyez sur l'interrupteur de dĂ©marrage de l'ordinateur. Munissez-vous des donnĂ©es d'alimentation sortie d'usine. Ainsi, vous saurez quel voltage doit dĂ©livrer chaque broche. RĂ©glez votre multimĂštre en mode voltmĂštre. Si votre multimĂštre ne se rĂšgle pas automatiquement, positionnez le bouton d'Ă©talonnage sur 10 V. Branchez la pointe nĂ©gative de votre appareil Ă une broche du connecteur de couleur noire reliĂ©e Ă la terre. Branchez la pointe positive sur la broche que vous voulez tester. Notez le voltage qui s'affiche. VĂ©rifiez que les voltages sont bien dans les limites prescrites par le constructeur. Si ce n'est pas le cas, c'est que votre alimentation est dĂ©fectueuse. RĂ©pĂ©tez cette opĂ©ration avec tous vos connecteurs. Consultez les instructions donnĂ©es pour chaque connecteur pour savoir quelles broches tester. 5 Remontez votre unitĂ© centrale. Une fois tous les tests faits, vous pouvez remonter votre unitĂ© centrale. Refaites tous les branchements nĂ©cessaires. Enfichez bien les connecteurs, surtout ceux de la carte mĂšre. Une fois tout remontĂ©, vous pouvez rallumer votre ordinateur. Si, Ă l'issue de tous ces tests, vous avez encore des problĂšmes ou que tout bonnement, votre ordinateur ne dĂ©marre plus, c'est qu'il y a un ou plusieurs autres problĂšmes. La premiĂšre chose Ă faire sera de tester votre carte mĂšre. PublicitĂ© Ă propos de ce wikiHow Cette page a Ă©tĂ© consultĂ©e 217 548 fois. Cet article vous a-t-il Ă©tĂ© utile ?Choixdâun ordinateur portable : optez pour la bonne taille dâĂ©cran. La plupart des PC portables sont munis dâun Ă©cran Ă cristaux liquides ACL de format panoramique (16:9).Celui-ci est rĂ©troĂ©clairĂ© par des diodes LED dont le fini est brillant et peut occasionnellement gĂ©nĂ©rer des reflets. Si vous devez utiliser votre ordinateur souvent Ă lâextĂ©rieur, alors optez pour un
Quâest-ce quâun ordinateur portable reconditionnĂ© Acheter un ordinateur portable reconditionnĂ©, câest sâoffrir un appareil quasi neuf au prix rĂ©duit en moyenne de 30 %. Portables ouverts puis renvoyĂ©s durant le dĂ©lai de rĂ©tractation, matĂ©riel dĂ©cevant pour le consommateur ou batterie dĂ©faillante lâordinateur reconditionnĂ© a connu une premiĂšre vie plus ou moins longue. Avant de retourner sur le marchĂ©, il est complĂštement restaurĂ©. Les composants montrant des signes de faiblesse sont changĂ©s et les piĂšces endommagĂ©es remplacĂ©es câest donc un appareil immaculĂ© tout en conservant ses performances originelles qui vous est vendu. Lorsque quelques dĂ©fauts subsistent, ils sont mentionnĂ©s dans la fiche descriptive et font baisser le prix. Non seulement le reconditionnement permet de recycler de nombreux matĂ©riaux et de lutter contre le gaspillage, mais il va Ă©galement vous permettre de mettre la main sur un ordinateur portable dernier cri Ă moindres frais. En effet, lâun des avantages de ces machines est que lâon y retrouve un large Ă©ventail de marques, du modĂšle ancien Ă la derniĂšre avancĂ©e technologique, Ă prix cassĂ©. Bon Ă savoir ne confondez pas dâoccasion et reconditionnĂ© Acheter un ordinateur portable reconditionnĂ© est bien plus avantageux que dâinvestir dans un modĂšle dâoccasion. En effet, en choisissant bien votre site, vous avez lâassurance de vous offrir un ordinateur portable sĂ©rieusement vĂ©rifiĂ© et qui fonctionne parfaitement. Avec un laptop dâoccasion, mĂȘme si le prix est souvent un peu plus bas, rien ne vous garantit que vous nâaurez pas de mauvaise surprise. Votre check-list pour choisir le bon portable reconditionnĂ© Pour acheter lâordinateur portable reconditionnĂ© qui correspond parfaitement Ă vos besoins et ainsi payer le prix juste pour votre matĂ©riel informatique, penchez-vous sur les points suivants La taille de lâĂ©cran Du poids plume extra fin 12 Ă 13 pouces, au portable classique 14 pouces en passant par un modĂšle Ă lâĂ©cran gĂ©nĂ©reux 15 Ă 17 pouces choisissez un ordinateur reconditionnĂ© parfaitement adaptĂ© Ă vos besoins de dĂ©placement et au confort souhaitĂ©. Plus lâĂ©cran est petit, plus le prix sera raisonnable. Les connectiques Pour vous brancher Ă un vidĂ©oprojecteur, un autre Ă©cran ou une tĂ©lĂ©vision vous pourrez avoir besoin de bien plus que quelques ports USB. Avant de faire votre choix, vĂ©rifiez quelles sont les connexions offertes par votre ordinateur portable et assurez-vous quâelles correspondent Ă vos besoins. Le processeur Plus il sera rĂ©cent, plus il vous permettra dâaccomplir des missions exigeantes jeu, conception 3D, traitement de vidĂ©os. Si vous ne recherchez un ordinateur que pour effectuer quelques tĂąches de bureautique, vous pouvez vous permettre de prendre un modĂšle avec un processeur plus ancien et acheter ainsi un PC portable reconditionnĂ© pas cher. Le disque dur VĂ©ritable cĆur de votre laptop, le disque dur permet aussi bien de stocker votre systĂšme dâexploitation que vos documents. Plus votre disque dur offrira dâespace de stockage, plus il fera augmenter le prix de votre portable. La technologie utilisĂ©e entrera Ă©galement en compte dans le montant de votre ordinateur. Vous aurez le choix entre le HDD, qui permet une Ă©criture et une lecture des informations inscrites, ou le SSD. Ce dernier est le plus rĂ©cent et son mode de fonctionnement sâapparente Ă celui dâune clĂ© USB. Il est rapide et robuste, mais plus cher que le SDD. Cependant, lâinvestissement en vaut la peine puisque sa durĂ©e de vie est estimĂ©e Ă 10 ans contre 3 Ă 5 ans pour un disque dur HDD et sa consommation dâĂ©nergie est faible. DĂ©tail qui a son importance quand on travaille avec son laptop sur les genoux le SDD chauffe beaucoup moins que le HDD. La mĂ©moire vive On lâappelle aussi la RAM. Câest elle qui permet Ă votre ordinateur dâĂȘtre rĂ©actif et efficace quand vous lui demandez de faire plusieurs choses Ă la fois ou quand vous utilisez un logiciel gourmand. En rĂšgle gĂ©nĂ©rale, ne descendez jamais sous les 4 Go de RAM sous peine de vous retrouver avec un PC reconditionnĂ© trĂšs lent. Si votre ordinateur portable est muni dâun processeur assez rĂ©cent, alors 8 Go de mĂ©moire vive peuvent suffire. Pour les derniĂšres gĂ©nĂ©rations ou pour un ordinateur de gaming, achetez un portable avec au minimum 16 Go de RAM. Le systĂšme dâexploitation Câest ce qui fait fonctionner votre ordinateur. Le plus connu est Windows, dont on trouve encore les versions 7 et 8, et la derniĂšre, la 10. Elle est elle-mĂȘme dĂ©clinĂ©e en Ă©ditions familiale, professionnelle, entreprise et Ă©ducation. Les ordinateurs Apple seront, eux, dotĂ©s dâun systĂšme dâexploitation macOS. La garantie Si vous dĂ©cidez dâacheter un ordinateur portable reconditionnĂ©, vous bĂ©nĂ©ficiez bien entendu du dĂ©lai de rĂ©tractation de 14 jours pour renvoyer votre machine et ĂȘtre remboursĂ©. La garantie lĂ©gale de conformitĂ© couvrant les pannes, les dysfonctionnements ou le caractĂšre limitĂ© des performances est de 6 mois, mais certains sites la prolongent. Avant de faire votre achat, vĂ©rifiez donc le dĂ©lai de garantie qui lâaccompagne, car il peut fortement varier selon les machines. Comme pour un produit neuf, la garantie des vices cachĂ©s est de 24 mois. Bon Ă savoir oĂč acheter un ordinateur portable reconditionnĂ© ? Pour ĂȘtre sĂ»r de faire une bonne affaire en achetant un portable reconditionnĂ©, mieux vaut le faire sur un site de confiance. En la matiĂšre, Back Market, reBuy, Trade Discount et les offres reconditionnĂ©es dâAmazon jouissent dâune trĂšs bonne rĂ©putation. Les aficionados dâApple pourront, eux, sâapprovisionner directement sur le site de la marque qui consacre une rubrique Ă ses produits reconditionnĂ©s. Acheter un ordinateur portable reconditionnĂ© prĂ©sente bien des avantages. Non seulement lâoffre est vaste et vous pourrez trouver un laptop taillĂ© pour vos besoins, mais vous profiterez en plus dâune machine comme neuve au prix dâun modĂšle dâoccasion. Et, en prime, vous ferez un geste pour la planĂšte ! Pourquoi hĂ©siter plus longtemps ?sTxKbHV.