Combien de megs votre connexion consomme-t-elle ? Combien de concerts ce film pèse-t-il ? Combien de téras contient votre disque dur ? Ce ne sont là que quelques-unes des questions typiques que nous entendons tous les jours. Mais qu’est-ce exactement qu’un méga, un giga ou un tera ? Et quelle est la différence entre les bits et les octets ? Pour répondre à ces questions et à d’autres, voici un article simple dans lequel je vous expliquerai ce que sont les unités informatiques et comment elles sont mesurées.

Quelles sont les unités informatiques

Tout comme les autres grandeurs physiques, telles que la longueur ou la masse, les technologies de l’information ont leurs propres unités de mesure. Toutefois, contrairement au mètre et au kilogramme, qui servent respectivement de base à la longueur et à la masse, l’unité de mesure fondamentale du calcul n’est pas calculée sur la base de 10, comme c’est le cas dans le système métrique, mais sur la base de 2. En effet, en informatique, l’unité de mesure fondamentale n’est autre que le bit, terme qui dérive de la fusion des deux mots b inary digit (en français, chiffres binaires), qui à son tour n’est rien d’autre que l’unité élémentaire d’information pouvant être traitée par tout ordinateur, précisément parce que les circuits numériques, par lesquels tout ordinateur est assemblé, ne sont capables de comprendre que deux valeurs différentes : soit 0 (zéro), signifiant l’absence de tension, soit 1, signifiant la présence de tension.

Comment mesurer les unités informatiques

Dans l’informatique quotidienne, les quantités utilisées ne s’arrêtent pas au simple bit. En effet, les unités informatiques les plus utilisées sont représentées par des multiples du bit, dont les plus utilisées sont principalement

  • l’octet, un terme anglais qui dérive de bite, signifiant morsel, morsure, et se prononce bàit, qui n’est rien de plus que la somme de 8 bits. Le symbole correct pour l’octet est B, c’est-à-dire la lettre b en majuscule, puisque la lettre b en minuscule représente le bit ;
  • le kilooctet, dont le symbole correct est kB, avec la lettre k en minuscule et la lettre b en majuscule, ce qui n’est rien d’autre que 1.000 octets ;
  • le mégaoctet, dont le symbole correct est MB, avec la lettre m et la lettre b toutes deux en majuscules, ce qui ne représente pas plus de 1 000 kilo-octets, soit un million d’octets ;
  • le gigaoctet, dont le symbole correct est GB, avec la lettre g et la lettre b toutes deux en majuscules, ce qui n’équivaut pas à plus de 1 000 mégaoctets, soit un milliard d’octets ;
  • le téraoctet, dont le symbole correct est TB, avec la lettre t et la lettre b toutes deux en majuscules, ce qui n’équivaut pas à plus de 1 000 gigaoctets, soit un trillion d’octets.
  • S
  • Tous ces éléments et d’autres multiples du bit sont généralement utilisés pour indiquer l’espace requis ou l’espace disponible pour accueillir un ou plusieurs certains fichiers. Par exemple, si l’on vous dit qu’un certain fichier pèse trois giga, ou 3 Go, cela signifie que ce fichier nécessitera, ou plutôt occupera, 3 000 Mo d’espace. En revanche, si l’on vous dit qu’un disque dur a une capacité d’un tera, c’est-à-dire 1 TB, cela signifie qu’il peut contenir un maximum de 1 000 Go de données. Il faut cependant dire que pour faciliter le calcul, les multiples de bits sont généralement arrondis à des puissances de 2 au lieu de 10, bien que cela soit formellement faux. Cette ambiguïté a conduit l’IEC à définir toute une série de nouveaux préfixes pour les multiples binaires, bien que, jusqu’à présent, ils soient presque totalement inconnus. En effet, les différents fabricants de dispositifs de stockage préfèrent toujours utiliser les multiples décimaux corrects, mais ambigus, de manière à faire apparaître de plus grandes quantités de stockage, précisément parce qu’un dispositif de stockage donné, avec une capacité déclarée de, disons, 8 Go, équivaut en fait à peu près à 7,45 GiB de capacité réelle.
  • Autres unités de mesure

  • Outre les bits, les octets et leurs multiples, toute une série d’autres unités de mesure sont également très souvent utilisées dans l’informatique quotidienne. Parmi celles-ci, les plus importantes à prendre en compte sont les suivantes :
    • le bit par seconde, dont le symbole correct est bit/s, parfois aussi appelé bps ou b/s, qui n’est rien d’autre que l’unité de mesure de la quantité d’informations transmises sur un canal de communication ;
    • le kilobit par seconde, dont le symbole correct est kbit/s, mais parfois aussi appelé kbps ou kb/s, qui correspond simplement à 1 000 bits par seconde ;
    • le mégabit par seconde, dont le symbole correct est Mbit/s, mais parfois aussi appelé Mbps ou Mb/s, ce qui correspond simplement à 1 000 kilobits par seconde ;
    • le gigabit par seconde, dont le symbole correct est Gbit/s, mais parfois aussi appelé Gbps ou Gb/s, ce qui correspond simplement à 1 000 mégabits par seconde.
    • Ces unités de mesure et d’autres similaires sont généralement utilisées pour indiquer le débit maximal de données sur un réseau informatique commun. Par exemple, si vous disposez d’une connexion ADSL de 7 méga à la maison, cela signifie que votre connexion aura une vitesse de téléchargement de 7 Mbit/s au maximum. Par conséquent, comme un bit est égal à 1⁄8 d’un octet, vous pourrez télécharger à un maximum de 7 × 1⁄8 = 0,875 Mo/s, ou à un maximum de 0,875 mégaoctets par seconde. Outre les bits par seconde et ses multiples les plus courants, d’autres unités de mesure largement utilisées dans l’informatique quotidienne le sont également :
      • hertz (dont le symbole correct est Hz), qui, avec les multiples mégahertz (dont le symbole correct est MHz) et gigahertz (dont le symbole correct est GHz) plus couramment utilisés, sont principalement utilisés pour indiquer la fréquence de travail d’un processeur donné. Par exemple, un processeur Intel peut être vendu avec une fréquence de travail de 3 600 MHz, ou 3,6 GHz ;
      • pixels, qui, avec les plus célèbres mégapixels, sont généralement utilisés soit pour indiquer le nombre de pixels qui composent une image particulière, soit pour indiquer la résolution d’un écran particulier. Ce dernier, cependant, est généralement exprimé comme le produit entre les pixels répartis en largeur et les pixels répartis en hauteur. Par exemple,  si un moniteur a une résolution de 1 280 × 720 pixels, cela signifie qu’il peut y avoir un maximum de 1 280 pixels sur l’axe horizontal du moniteur, et un maximum de 720 pixels sur l’axe vertical ;
      • inches, dont le symbole correct est dans ou la double citation « , qui sont toujours utilisés pour indiquer la taille diagonale de tout écran. Par exemple, 5.5″, 10.1″, 24″, 50″, et etc.

      S

      Arrivé donc à ce stade, vous devriez avoir enfin compris à la fois ce que sont les unités informatiques, et à la foiscomment mesurer les unités informatiques.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.