Définitions

Qu’est-ce qu’Endian ? – Définition de Weendoz

Que signifie Endian ?

Endian fait référence à la manière dont l'ordre des octets dans une valeur multi-octets est perçu ou traité. Il s'agit du système permettant d'ordonner les éléments individuels d'un mot numérique dans la mémoire d'un ordinateur ainsi que de décrire l'ordre de transmission des données d'octets sur une liaison numérique. Les mots numériques peuvent être représentés en petit-boutiste ou en gros-boutiste.

Weendoz explique l'Endian

Endian ou endianness est l'ordre des octets choisi pour tout calcul numérique effectué dans un système informatique spécifique et dicte l'architecture et l'approche de programmation de bas niveau à utiliser pour ce système. Bien qu'aujourd'hui, le boutisme ne soit pas un problème majeur pour la compatibilité du système, car il peut toujours être contourné dans les niveaux inférieurs, de sorte que les programmeurs et les utilisateurs de langage de haut niveau soient déjà abstraits du caractère boutiste du système.

Le terme endian a été introduit pour la première fois par Danny Cohen, en particulier les deux types d'endianisme : small-endian et big-endian, pour décrire l'ordre des octets dans un document d'examen politique et technique bien connu sur les problèmes d'ordre des octets en 1980. Il avait ostensiblement dessiné le terme est tiré du roman « Les voyages de Gulliver » de Jonathan Swift de 1726, dans lequel la guerre civile a éclaté pour savoir quelle extrémité de l'œuf devait être cassée en premier, le petit bout ou le gros bout.

Le monde informatique est toujours divisé entre le big et le small-endian, même s'il n'y a plus d'avantages ou d'inconvénients clairs entre les deux. L'industrie des microprocesseurs s'est tournée vers le petit-boutiste parce que l'architecture x86 d'Intel, largement utilisée aujourd'hui, l'utilise. Mais le big-endian est considéré comme l'ordre des octets du réseau car la suite Internet Protocol (IP), c'est-à-dire IPv4/6, TCP et UDP, l'utilise. Cependant, compte tenu de leurs différences, les systèmes informatiques fonctionnent toujours car cette différence a déjà été prise en compte.