CORDIC

algorithme de calcul rapide des fonctions trigonométriques, logarithmiques et leurs inverses

CORDIC (sigle de COordinate Rotation DIgital Computer, « calcul numérique par rotation de coordonnées ») est un algorithme de calcul des fonctions trigonométriques et hyperboliques, notamment utilisé dans les calculatrices. Il a été décrit pour la première fois en 1959 par Jack E. Volder. Il ressemble à des techniques qui avaient été décrites par Henry Briggs en 1624.

Il s'agit d'un algorithme de choix lorsque aucune implantation matérielle d'un multiplicateur n'est disponible (sur certains microcontrôleurs simples ou des FPGA). De plus, l'algorithme du CORDIC s'adapte bien au calcul à la chaîne. À l'origine, la programmation du CORDIC reposait sur un système binaire.

Durant les années 1970, les versions décimales du CORDIC (avec des nombres codés en BCD) commencèrent à apparaître, notamment dans les calculatrices où les critères de coût du matériel sont plus importants que la vitesse de traitement. Un autre avantage du CORDIC est sa flexibilité puisqu'il permet de calculer plusieurs fonctions avec quasiment le même code.

Description modifier

CORDIC permet de déterminer le sinus ou le cosinus d'un angle donné en radians sous un format à virgule fixe. Pour trouver le sinus ou le cosinus d'un angle β, on recherche la coordonnée x ou y du point du cercle unité lui correspondant. CORDIC commence les calculs avec un vecteur v0 tel que :

 

Durant la première itération, le vecteur subit une rotation de 45° dans le sens anti-horaire (sens trigonométrique) afin d'obtenir un nouveau vecteur v1. Des itérations successives doivent engendrer une rotation du vecteur dans la bonne direction. À chaque itération, la rotation est faite d'un angle prédéterminé et moindre que le précédent. Ceci jusqu'à converger vers l'angle voulu.

 
Illustration de plusieurs itérations de CORDIC

Plus formellement, à chaque itération i, on calcule un nouveau vecteur grâce à la multiplication du vecteur vi avec la matrice de rotation Ri :

 

La matrice de rotation Ri s'obtient selon la formule suivante :

 

Le facteur σi prend les valeurs +1 ou -1 et sert à indiquer le sens de la rotation, γi restant positif.

En factorisant par le terme cos(γi), on obtient :

 

Si l'on restreint les choix possibles pour l'angle γi de manière que tan(γi) soit égal à 2i alors la multiplication par la tangente devient une multiplication par une puissance de 2. Une opération aisée à réaliser informatiquement puisqu'en binaire il s'agit d'un décalage de bits.

Le calcul devient :

 

avec

 

Ces coefficients Ki peuvent être ignorés pendant les itérations et factorisés en un seul coefficient multiplicatif final (dépendant de n) :

 

qui peut être calculé à l'avance et prémémorisé. Également, lorsque n tend vers l'infini, ce produit tend vers une constante :

  (0,60725294…)

Après suffisamment d'itérations, l'angle du vecteur sera proche de l'angle β voulu.

La dernière étape consiste à déterminer à chaque itération le sens de rotation, trigonométrique ou horaire (un résultat reporté sur la valeur de σi). Pour ce faire, on considère la valeur actuelle de l'angle βi du vecteur, que l'on soustrait à l'angle désiré. On teste si cette différence est positive (rotation dans le sens horaire) ou négative (sens trigonométrique), ce qui détermine la valeur de σi de façon à s'approcher de l'angle β :

 ,

Les valeurs des γi sont précalculées dans une table prémémorisée de valeurs. Toutefois, pour des angles petits, on utilise l'approximation arctan(2-i)2-i dans une représentation en virgule fixe, permettant ainsi de réduire la taille de cette table.

Comme illustré dans le schéma ci-dessus, le sinus de l'angle β est la coordonnée y du vecteur final vn, alors que la coordonnée x correspond au cosinus.

Algorithme modifier

En 1971, John Stephen Walther de Hewlett Packard, a présenté une généralisation de l'algorithme qui fut mise en œuvre dans la calculatrice HP-35. Cette méthode permet de calculer notamment les fonctions hyperboliques mais également d'autres fonctions comme l'exponentielle, la division ou la multiplication. La généralisation se présente comme suit[1] :

 

avec m ∈ {–1 ; 0 ; 1} , εk des constantes définies à l'avance et σk ∈ {–1 ; 1} (en fonction de la valeur de zk).

Fonctions trigonométriques modifier

On utilise la généralisation avec les paramètres :

 
 
 
 
 
  (en radians)

À la fin de n itérations, on a xn ≈ cos(θ) et yn ≈ sin(θ).

Cette méthode ne fonctionne que si :

 

En pratique cela ne pose pas de problème car les fonctions trigonométriques peuvent toujours être ramenées au cas 0 ≤ θ < π/2 en exploitant leurs propriétés les plus connues (voir Identité trigonométrique).

Fonctions hyperboliques modifier

On utilise la généralisation avec les paramètres :

 
 
 
 
 
  (en radians)

À la fin de n itérations, on a xn ≈ cosh(θ) et yn ≈ sinh(θ), ainsi que xn + yn ≈ exp(θ).

Cette méthode ne fonctionne que si la valeur absolue de z est inférieure à environ 1,05. Des transformations d'expressions grâce à des identités trigonométriques permettent de contourner ces problèmes en faisant en sorte que les paramètres soient dans l'intervalle requis. La répétition de certaines itérations résout les problèmes de convergence[1].

Double itération CORDIC modifier

Dans les publications de Baykov[2],[3], celui-ci a proposé d'utiliser la méthode des doubles itérations pour l'implémentation des fonctions : arcsinX, arccosX, lnX, expX, ainsi que pour le calcul des fonctions hyperboliques. La méthode des doubles itérations consiste dans le fait que contrairement à la méthode CORDIC classique, où la valeur du pas d'itération change à CHAQUE fois, c'est-à-dire à chaque itération, dans la méthode de la double itération, la valeur du pas d'itération est répétée deux fois et ne change qu'au cours d'une itération. D'où la désignation de l'indicateur de degré pour les itérations doubles : i = 1,1,2,2,3,3... Alors qu'avec les itérations ordinaires : i = 1,2,3... La méthode de la double itération garantit la convergence de la méthode dans toute la plage valide de changements d'arguments.

La généralisation des problèmes de convergence CORDIC pour le système de numération positionnelle arbitraire[4], avec Radix R a montré que pour les fonctions sin, cos, arctg, il suffit d'effectuer (R-1) itérations pour chaque valeur de i (i = 0 ou 1 à n, où n est le nombre de chiffres), c'est-à-dire pour chaque chiffre du résultat. Pour les fonctions ln, exp, sh, ch, arth, des itérations R doivent être effectuées pour chaque valeur i. Pour les fonctions arcsin et arccos 2 (R-1) des itérations doivent être effectuées pour chaque chiffre numérique, c'est-à-dire pour chaque valeur de i. Pour les fonctions arch, arch, le nombre d'itérations sera de 2R pour chaque i, c'est-à-dire pour chaque chiffre de résultat.

Fonctions linéaires modifier

CORDIC permet également de calculer la multiplication ou la division entre des nombres a et b.

Multiplication modifier

 
 
 
 
 
 

À la fin de n itérations, on a yna × b. En pratique, elle est peu intéressante car son domaine est restreint : il faut impérativement que b ∈ [–2 ; 2].

Division modifier

 
 
 
 
 
 

À la fin de n itérations, on a zna / b. Elle a aussi un domaine d'application restreint puisque la condition suivante doit être respectée :  

Bibliographie modifier

Notes et références modifier

  1. a et b http://cdeval.free.fr/IMG/pdf/cordic.pdf
  2. Hardware implementation of the elementary functions by digit-by-digit (CORDIC) technique, thèse de Vladimir Baykov, disponible sur [1]
  3. (en) V.D.Baykov et V.B.Smolov, Hardware implementation of elementary functions in computers, Leningrad State University, , 96 p. (lire en ligne)
  4. (en) Vladimir Baykov et Vladimir Smolov, Special-purpose processors: iterative algorithms and structures, Moscow, , 288 p. (lire en ligne)

Voir aussi modifier

Articles connexes modifier

Liens externes modifier