RADIO REFLEXIONS

Cette page compile quelques réflexions et curiosités glanées au cours de différentes lectures ou discussions.

Dernière mise à jour : 13 janvier 2008

ENGLISH VERSION HERE

Radio

Traitement numérique du signal

Communications numériques

Théorie de l'information et codage

Histoire de la radio




RADIO

Positionnement d'antennes (10/06/2007) 

L'antenne dipôle demi-onde  ne rayonne pratiquement pas dans son axe,  et de façon maximale dans un plan perpendiculaire à celle-ci.

Pour s'en souvenir on peut penser à deux exemples bien connus :

- l'antenne GSM, dont l'objectif est de couvrir un angle horizontal maximum, sans trop rayonner dans un plan vertical. L'antenne est dans ce cas montée VERTICALEMENT.

- l'antenne radar aéronautique, dont l'objectif est de rayonner 
dans angle vertical maximum,  sans trop rayonner dans un plan horizontal. L'antenne est dans ce cas montée HORIZONTALEMENT.

antenn_gsm radar
Antenne GSM, montée verticalement Antenne radar, montée horizontalement


Autour des équations de Maxwell
(01/03/2006)

Deux réflexions autour des équations de Maxwell, rappelées ci-dessous :

div(E) =
r/e0
rot(E) = - dB/dt
div(B) = 0
rot(B) = µJ + (1/c2) dE/dt

1/ Lorsque les phénomènes ne dépendent pas du temps (cas statique : charges fixées de façon permanente dans l'espace, ou bien si elles se déplacent, elles se déplacent comme un courant continu dans un circuit), alors les dérivées par rapport au temps sont nulles et l'ensemble des quatre équations peut être séparé en deux paires. Le champ électrique E n'apparaît que dans les deux premières, et le champ magnétique B n'apparaît que dans les deux autres. Les deux champs ne sont pas reliés entre eux. Cela signifie que l'électricité et le magnétisme sont des phénomènes distincts aussi longtemps que les charges et les courants sont statiques.
Ce n'est que s'il y a des changements suffisamment rapides, des sorte que les dérivées par rapport au temps dans les équations de Maxwell deviennent importantes, que E et B dépendent l'un de l'autre.

2/ Même en l'absence de charge électrique (r = 0), la simple présence d'un courant électrique
J variable suffit à créer à la fois un champ magnétique B (ce qui semble assez évident), mais aussi un champ électrique (ce qui l'est moins).
Ainsi pour une antenne, par exemple, "la tension (champ électrique) ne joue aucun rôle discernable dans le rayonnement". "Les deux composantes du champ électromagnétique (E et B) proviennent toutes les deux de la circulation du courant".

Sources :
1/ "Le cours de physique de Feynmann", Electromagnétisme 1, Chap. 4
2/ "Pourquoi les antennes E-H et CFA fonctionnent comme n'importe quelles autres antennes", R. Berranger F5NB, Radio-Réf février 2006



FI à 10,7 MHz, bande FM, et fréquence image

La fréquence intermédiaire (FI) de 10,7 MHz est traditionnellement utilisée dans les récepteurs radio FM. D'où vient cette valeur ? Pourquoi a-t-elle été choisie ? Voici une piste d'explication...

Pour ramener la bande FM (88 - 108 MHz) autour d'une FI à 10,7 MHz,  on utilise un OL de fréquence comprise entre 98,7 et 118,7 MHz (mélange superhétérodyne). .

Avec cette valeur d'OL, la bande de fréquence image (fréquence RF ramenée de façon non désirée autour de la FI de 10,7 MHz) est 109,4 - 129,4 MHz.

Ainsi, le bas de la bande image (109,4 MHz) tombe juste au dessus du haut de la bande FM (108 MHz). Un simple filtrage coupe-haut permanent suffit donc à rejeter les fréquences images. D'où le choix d'une FI à 10,7 MHz !!!!

Plus généralement, on peut montrer que pour ramener par superhétérodynage une bande de fréquence de largeur B autour d'une FI, il faut choisir une FI supérieure à B/2 pour pouvoir éliminer facilement les fréquences images par filtrage passe-haut.

Atténuateur et adaptation d'impédance

Un article d'André Jamet (F9HX) dans Radio-Ref d'octobre 2005 traite de façon très claire des atténuateurs.

Une phrase clé dans cet article :
"La résistance d'entrée d'un atténuateur n'est égale à son impédance caractéristique que s'il est chargé par une résistance de valeur égale à celle-ci ; si elle est différente, l'erreur est d'autant plus grande que la valeur d'atténuation est faible".

Exemple :
Un atténuateur de 3 dB (50 Ohms) chargé par une résistance variable de 0 à 150 Ohms présente une impédance d'entrée comprise entre 18 et 82 Ohms.
Un atténuateur de 20 dB (50 Ohms) chargé par une résistance variable de 0 à 150 Ohms présente une impédance d'entrée proche de 50 Ohms tout au long de la plage de variation.

Conclusion : un atténuateur ayant une atténuation importante peut être utilisé, dans une chaîne radio, pour réaliser facilement l'adaptation d'impédance avec un étage présentant une impédance d'entrée différente de l'impédance caractéristique du système (en général 50 Ohms).

Pourquoi 50 Ohms ?

Nous utilisons en radio des câbles et composants dont l'impédance caractéristique est 50 Ohms. Pourquoi cette valeur ?

Yves Oesh HB9DTX propose l'explication suivante :

- on peut montrer que l'affaiblissement d'un coaxial est minimal pour un rapport
des diamètres conducteur extérieur / conducteur intérieur égal à 3,59. Ce rapport donne une impédance caractéristique de 77 Ohms environ.

- on peut montrer que le rapport des diamètres qui permet de faire passer le plus de puissance dans un coaxial sans risque de claquage est : de/di = 1.65.
Ce rapport donne une impédance caractéristique de 30 Ohms environ.

C'est pourquoi l'industrie à choisi une valeur moyenne de 50 Ohms, qui est un compromis entre les pertes minimales et la puissance transmissible maximale.

On comprend également pourquoi les installations TV travaillent en 75 Ohms : c'est l'impédance qui fournit le moins de pertes. Et comme la TV (du côté récepteur) n'a pas besoin de transmettre de grande puissance, le standard a été choisi pour optimiser l'affaiblissement.

Références:
Site HB9DTX
P.A Rizzi, Microwave Engineering- Passive Circuits, Prentice Hall, New Jersey 1988.
P-G. Fontolliet, Traité d'électricité volXVIII, Presses Polytechniques et universitaires romandes 1996


Nouveaux modes de transmission radio (13/01/2008) update

De nouveaux systèmes de transmission radio naissent chaque année.
Pour suivre cette évolution, voici une liste présentant les dates auxquelles j'ai commencé à m'intéresser à chacun d'entre eux.
Cette liste sera complétée au cours du temps.
 
1998 : GSM
1999 : APRS
2000 : DECT
2001 : PSK31
2002 : Wifi
2002 : WorldSpace
2003 : Bluetooth
2003 : Thuraya
2004 : DVB-RCS
2005 : JT65
2005 : DVB-S2
2005 : UMTS
2006 : DRM
2006 : Wimax
2006 : Téléphone mobile WIFI
2006 : UMTS HSDPA
2007 : Olivia
2007 : FDMDV (Voix digitale en HF, dans 1,1 kHz de bande)

L'atténuation en espace libre d'une onde radio dépend-elle de sa fréquence ?

Première approche
On trouve dans la littérature une formule donnant "l'affaiblissement en espace libre entre deux antennes isotropes" [F4DAY], 
[WIFI] :
A (dB) = 20.log(4.pi.d / lambda)
A = affaiblissement en espace libre entre deux antenne isotropes
d = distance entre les deux antennes isotropes
lambda = longueur d'onde

D'après la formule ci-dessus, A dépend de la longueur d'onde, et donc de la fréquence.

Exemple pour une distance de 100 km :
Atténuation à 145 MHz = 116 dB
Atténuation à 435 MHz = 125 dB

Conclusion de la première approche : "Dans l'espace libre, une onde radio s'atténue d'autant plus fortement que sa fréquence est élevée. "

Note : la formule ci-dessus est parfois appelée formule de Friis. Une autre formule concernant la combinaison des facteurs de bruit dans une chaîne d'émission/réception porte également le même nom.

Seconde approche
Abordons maintenant le problème de la façon suivante :
Supposons qu'une antenne isotrope émette une puissance de Pe Watts. A une distance d, l'intégralité de la puissance émise se répartit uniformément autour d'une sphère de surface 4.pi.d2. La densité surfacique de puissance à la distance d est donc :
Ps  = Pe / (4.pi.d2)
Ps = densité surfacique de puissance, en W /
m2

Or cette densité surfacique de puissance Ps est elle-même reliée à la valeur du champ électrique E par la formule suivante ([REF]) : 
E2 = 377.Ps = 377.Pe / (4.pi.d2)
E = intensité du champ électrique, en V/m

D'après la formule ci-dessus, E est indépendant de la fréquence.

Conclusion de la seconde approche : "Dans l'espace libre, une onde radio s'atténue de la même façon quelle que soit sa fréquence, puisque le champ électrique produit à une distance d reste le même quelle que soit la fréquence"

Note : 377 Ohms (voir formule ci-dessus) est l'impédance dans le vide, c'est à dire le rapport d'amplitude entre les champs électriques et magnétiques.

Deux approches contradictoires ?
Les deux approches semblent donc mener à une contradiction.

D'où vient l'erreur ?

En fait les deux approches sont correctes , mais elles ne manipulent pas les mêmes grandeurs.

Dans la seconde approche il est question de champ électrique, et aucune antenne de réception n'est considérée.

Dans la première approche il est question de puissances émises et captées, et on suppose qu'une antenne de réception est présente.
 
En effet la formule de Friis intègre, sans que celà soit évident à l'oeil nu, la notion de "surface équivalente de réception" d'une antenne. Cette surface équivalente de réception dépend du gain de l'antenne de réception, et de la fréquence de l'onde suivant la formule suivante :
Seq = lambda2 . Gr / (4.pi) 
Seq = surface équivalente de réception
lambda = longueur d'onde
Gr = gain de l'antenne de réception (par rapport à une antenne isotrope)

"Tout se passe comme si l'antenne drainait tel un filet, toute la HF qui passe dans cette surface équivalente de réception" [F5AD].

La puissance captée par une antenne isotrope (Gr = 1), située à une distance d d'une source isotrope émettant une puissance Pe, vaut donc :
Pc = Pe / (4.pi.d2) . Seq = Pe / (4.pi.d2) . [lambda2 / (4.pi)] = Pe . [lambda / (4.pi.d)]2

Comme on le voit sur cette formule, la puissance captée dépend donc de la fréquence.

Ainsi, les conclusions correctes à tirer sont les suivantes :


"Soit une antenne de gain Ge (indépendant de la fréquence) émettant en espace libre une puissance Pe, et une antenne réceptrice de gain Gr (indépendant de la fréquence), située à une distance d. Alors l'intensité du champ électrique produit au niveau de l'antenne de réception est indépendante de la fréquence. En revanche la puissance captée par l'antenne de réception dépend de la fréquence : elle diminue proportionnellement au carré de celle-ci "


En pratique à puissance d'émission donnée, il faut donc pour les hautes fréquences une antenne avec plus de gain que pour les basses fréquences, pour capter une même puissance dans le récepteur.

Références :
[F4DAY] : http://perso.wanadoo.fr/jf.fourcadier/antennes/esp_libre/esp_libre.htm
[F5AD] : "Antennes : Théorie et Pratique", André Ducros F5AD, Soracom Editions
[REF] http://cem.ref-union.org/cem-technique.php
[WIFI] http://www.toulouse-sans-fil.net/wiki/index.php/TheorieOndes

Les avantages de la radio logicielle

On cite souvent comme principal avantage de la radio logicielle de permettre une reconfiguration rapide pour traiter une nouvelle modulation par exemple.
Un autre avantage, au moins aussi important, et parfois oublié, est la possibilité de démoduler facilement plusieurs canaux simultanément.




TRAITEMENT NUMERIQUE DU SIGNAL

Le diagramme d'Argand (14/01/2007) 

On connaît dans le monde entier la façon de représenter les nombres complexes dans un plan, en faisant correspondre au nombre a+ib le point de coordonnées (a, b).

Cette représentation est aujourd'hui largement enseignée dans les lycées, universités et autres écoles d'ingénieurs.

Et bien il se trouve que cette représentation porte un nom : "diagramme d'Argand".

Ce qui me surprend, et c'est la raison de cette note, est d'avoir passé 30 années à utiliser cette représentation, à la pratiquer au travers d'articles, ouvrages et autres examens, avant d'apprendre son nom ! J'ai croisé ce nom pour la prmière fois dans un article américain de la revue radio QEX :
"An Alternative Transmission Line Equation", Ron Barker G4JNH VK3INH, QEX Jan/Fev 2007.

Comme Monsieur Jourdain, qui faisait de la prose sans le savoir, j'utilisais le diagramme d'Argand sans le savoir !!!

Jean-Robert Argand était un mathématicien amateur suisse (1768 - 1822), qui a présenté sa représentation dans l'ouvrage "Essai sur une manière de représenter les quantités imaginaires dans les constructions géométriques".

Récepteur I/Q et modulation QAM (30/06/2006) 


J'ai cru pendant quelques temps qu'un récepteur I/Q ne servait qu'à démoduler des modulations numériques QAM, et qu'une modulation numérique QAM ne pouvait être démodulée que par un récepteur I/Q.

En fait le "caractère I/Q" d'une modulation QAM est un concept relativement indépendant du "caractère I/Q" d'un récepteur.

Par exemple :
- un récepteur I/Q peut tout à fait démoduler n'importe quelle modulation non-QAM (FM, CW, BLU, ...)
- une modulation  QPSK (4-QAM) peut très bien être démodulée par un récepteur non-I/Q

QEX Nov/Dec 2005 : la méthode de réception BLU "phasing" remise en cause ?

L'article "Quadrature Phase Concept" paru dans l'excellente revue radioamateur QEX (Nov/Dec 2005) remet en cause le principe de réception BLU par la méthode dite "phasing".

Voici à mon sens pourquoi cette remise en cause n'est pas fondée :

In my opinion, the conclusions made in the article "Quadrature Phase Concept" (QEX Nov/Dec 2005) are wrong. Here is why :

1/ In figure 2, p. 21, if the author had made a "difference" instead of a "sum" at the end of the treatments, he would have obtained ZERO : this shows that there is a mean to eliminate part of the frequency spectrum, contrary to what he assumes !!!

2/ The main error of the article comes from the fact that [Eq 5] and [Eq 6] are actually only correct if F-O > 0, and the author use them also when F-O is negative. If F-O < 0, the equations take an other form. So when the author says p.21 "Assuming F-O is positive or F-O is negative, it doesn't matter", it actually matters, because the equations are not the same.

The fact that the equations are not the same for positive and negative frequencies comes from the Hilbert Transform [HT] properties. For example :

HT[cos(2.pi.F.T)] = sin(2.pi.F.T)  if F > 0, and -sin(2.pi.F.T) if F < 0
HT[sin(2.pi.F.T)] = -cos(2.pi.F.T) if F>0, and cos(2.pi.F.T) if F < 0


Fréquence de numérisation d'un signal à bande limitée

Supposons que l'on ait à numériser un signal réel occupant un spectre compris entre 10 et 15 kHz. On suppose de plus qu'en dehors de cette bande de fréquence, aucun signal n'est présent (cas par exemple d'un signal FI filtré par un filtre passe-bande). .

Quelle fréquence d'échantillonnage doit on choisir au minimum pour effectuer la numérisation de ce signal sans perte d'information ?

Certains raisonnent ainsi : la fréquence maximale du signal à numériser est 15 kHz, donc d'après le théorème de Shannon, je dois échantillonner à une fréquence double de celle-ci. Je dois donc échantillonner à une cadence de 30 Kéchantillons/s.

Ce raisonnement n'est pas faux, mais n'aboutit à un résultat optimal que lorsque le signal est en bande de base (i.e. compris entre 0 et Fmax Hz), ce qui n'est pas notre cas ici.

Ici, la largeur de bande de notre signal étant de 5 kHz, on peut montrer qu'une numérisation à 2x5 = 10 Kéchantillons/s seulement suffit !

Après numérisation à 10 Kéchantillons/s, le signal de notre exemple se retrouvera entre 0 et 5 kHz (soit 0 et 1/2 en fréquence réduite).

Ajout le 26 mars 2006 :
En fait, il semblerait que la condition Fech  > 2 (Fmax - Fmin) ne soit pas suffisante pour conduire à une numérisation sans chevauchement de spectre.
De façon plus précise, les fréquences d'échantilonnage qui conviendraient seraient de la forme :
2.Fmax / k < Fech < 2.Fmax / (k-1) avec k entier tel que 2 < k < Fmax / (Fmax - Fmin) et Fmax - Fmin < Fmin

Fréquence de numérisation (2)

A faire : intérêt d'une numérisation I/Q sur la largeur de bande numérisable avec une fréquence d'échantillonnage donnée.

Modulation et démodulation

La réalisation d'un modulateur est infiniment plus facile que la réalisation de son démodulateur associé.

Par exemple, la génération d'un signal numérique QAM est très facile. En revanche le démodulateur doit mettre en oeuvre des techniques évoluées pour :
  • estimer le canal (égalisation)
  • estimer la fréquence de la porteuse (carrier recovery)
  • estimer la phase de la porteuse (carrier phase recovery)
  • estimer le rythme symbole (symbol timing recovery)
  • estimer l'instant optimal de décision  (instant d'ouverture maximale du diagramme de l'oeil)

COMMUNICATIONS NUMERIQUES

La différence entre "Software Defined Radio" et "Software Radio" (18/08/2007) 

Joseph Mitola, un des grands théoriciens de la radio logicielle, fait une différence entre "software defined radio" et "software radio".

Un "software defined radio" ne traite numériquement qu'une portion limitée du spectre à la fois. Par exemple une bande instantanée de largeur 3 MHz prise dans une plage de 200 MHz. Le choix de la sous-bande instantanée de 3 MHz se fait en analogique par exemple à l'aide d'un mélangeur exité par un oscillateur local programmable.

Un "software radio", au contraire, traite l'ensemble de la plage des 200 MHz de façon numérique. Eventuellement seule une sous-bande est ensuite traitée, mais celle-ci est sélectionnée numériquement (typiquement avec un DDC).

Ces deux types d'architecture se trouvent dans les réalisations radioamateures. Le troisième "key parameter" de la classification faite ici, distingue les deux types d'architecture.

Exemple de software radio : USRP, PERSEUS, MERCURY/OZY HPSDR, SDR-IQ, SDR-14, ... (voir d'autres projets ici)
Exemple de software defined radio : µwSDR, SDR-1000, Ciao radio, ... (voir d'autres projets ici)

Source : "Cognitive Radio : an integrated agent architecture for software defined radio". Joseph Mitola, May 2000

Implémentation pratique de mode digitaux théoriques
(01/03/2006) 

On caractérise souvent les modes numériques par leurs performances en terme de taux d'erreur binaire en fonction du rapport signal sur bruit.

Par exemple tel système aura un taux d'erreur binaire de 10-3 pour un rapport signal sur bruit de -5 dB dans 3 kHz.

Pourtant ces valeurs correspondent à des valeurs théoriques. Les implémentations pratiques de ces modes (sous forme de logiciels) dégradent ces performances,  et deux implémentations différentes peuvent avoir des performances très différentes !

Une étude est actuellement menée par VE3NEA [VE3NEA]. Elle a pour objet de comparer les performances de 3 décodeurs RTTY : TrueTTY, MixW et MMTTY. Les premiers résultats montrent que :
- en conditions de bruit blanc additif gaussien, des écarts de performance de près de 3 dB sont constatés entre les logiciels
- les logiciels qui se comportent le mieux en conditions de bruit blanc additif gaussien ne sont pas forcément les meilleurs dans d'autres conditions (fading sélectif, trajets multiples, etc. ...).

Références :
[VE3NEA] : "RTTY Software Comparison"


Codage de source et codage canal : enlever de la redondance, puis en rajouter.


Une chaîne de transmission numérique comprend souvent (dans le sens émission) un bloc de codage de source, suivi un peu après d'un bloc de codage canal.

Il est amusant de constater que le codage de source élimine au maximum la redondance de la source, tandis que le codage canal s'empresse, lui, d'ajouter de la redondance, mais controlée.

Le choix du débit baud

Le débit baud (ou débit symbole) d'une communication numérique doit être choisi avec finesse, et faire l'objet d'un compromis.

S'il est trop petit, alors les propriétés du canal ne peuvent plus être considérées comme constantes pendant la durée d'un symbole. Cela pose des problèmes pour le récepteur.

S'il est trop grand, alors les phénomènes de trajet multiple créent de l'interférence entre symboles. En HF par exemple, l'écart temporel entre deux trajets peut atteindre jusqu'à 30 ms. C'est ce qui explique que parfois certains signaux RTTY (durée symbole = 22 ms), même avec un excellent rapport signal sur bruit, se décodent difficilement.

Exemples de débits baud (et leur durée symbole associée) pour certains modes HF :

Systèmes à modulation de fréquence :
JT65 : 2,7 bauds / 370 ms
MFSK16 : 15,625 bauds / 64 ms

RTTY : 45 bauds / 22 ms
PACTOR : 100 bauds (10 ms) ou 200 bauds (5 ms)
G-TOR : 100 bauds (10 ms) à 300 bauds (3 ms)

Systèmes à modulation de phase :
PSK31 : 31 bauds / 32 ms
CLOVER : 31,25 bauds / 32 ms
CLOVER 2000 : 62,5 bauds / 16 ms
Q15X25 : 83,33 bauds / 12 ms

La durée du burst GSM

La durée d'un burst GSM est 0,577 ms. Voici une des raisons pouvant expliquer le dimensionnement de ce paramètre.

La longueur d'une onde à 900 MHz (bande GSM 1) est 33 cm.

A cette fréquence, et à bord d'un train roulant à 200 km/h, on se déplace d'une demie longueur d'onde en 3 ms environ.

Ce temps représente le temps de cohérence du canal : c'est la durée pendant laquelle les propriétés du canal ne changent pas de façon significative.

On voit donc que la durée d'un burst GSM est plus de 5 fois inférieure au temps de cohérence du canal. Les caractéristiques de celui-ci peuvent donc être considérées comme constantes par le récepteur, pendant toute la durée d'un burst : cela simplifie grandement la démodulation (en particulier l'égalisation).

C'est pourquoi un burst plus long aurait été peu pratique.

Note : Pour une onde à 1800 MHz (bande GSM 2), le temps de cohérence pour un déplacement à la même vitesse chûte à 1,5 ms. Il reste cependant encore 3 fois supérieur à la durée d'un burst.

Source :
"Rayleigh Fading Channels in Mobile Digital Communications Systems. Part II : Mitigation". Bernard Sklar, IEEE Communications Magazine, Juillet 97

La redondance du GSM

Le débit du vocoder GSM est 13,0 kbits/s.

Après ajout des codes détecteurs et correcteurs, le débit passe à 22,8 kbits/s (+ 75% par rapport au débit précédent).

Enfin, après ajout du motif de milieu de burst (midamble utilisé en réception pour une égalisation "data aided"), le débit passe à 30,3 kbits/s (+ 33% par rapport au débit précédent).

Au total, la redondance représente donc plus de la moitié du débit utilisé !
Dit autrement, le GSM véhicule largement plus de redondance que d'information proprement dite.

C'est le prix à payer pour combattre les nombreuses perturbations que subit le signal d'un réseau radiomobile.

Parasites audio du GSM et 217 Hz

La norme GSM utilise un multiplexage temporel pour véhiculer sur une même fréquence 8 canaux différents.

Chaque canal utilise une fenêtre temporelle de 0,577 ms. Un mobile donné émet donc un burst de 0,577 ms tous les 0,577*8 = 4,616 ms.

Les bursts ont donc une fréquence d'émission de 1/4,616 = 217 Hz.

Ce phénomène d'émission discontinue génère donc un spectre de raie de fréquence fondamentale 217 Hz, et d'harmoniques 434 Hz (2x217), 631 Hz (3x217), etc. ...

Or ces fréquences tombent précisément dans une plage audible pour les humains : ce sont les parasites caractéristiques que l'on entend lorsqu'on approche un téléphone portable à proximité d'un haut-parleur.

Pour vérifier l'explication précédente, j'ai généré ici un signal audio constitué de 3 sinus de même intensité et de fréquences 217, 434 et 631 Hz. Le son ainsi obtenu est en effet proche de celui d'un parasite GSM.
 
Ces phénomènes perturbateurs ont-il été découverts après la normalisation GSM, ou bien les ingénieurs en étaient-ils conscients depuis le début ? En tout état de cause la téléphonie mobile de 3è générations (UMTS) ne présente plus ce problème, car l'émission est continue.

Eb/N0 et S/N sont-ils équivalents ?

Les performances des systèmes de transmission numérique sont souvent donnés en terme de Taux d'Erreur Binaire (TEB) en fonction :
  • soit du rapport Eb/N0 (Eb = Energie par bit transmis, N0 = Puissance spectrale du bruit)
  • soit du rapport S/N (S = puissance du signal, N = puissance du bruit)
 A faire : montrer que ces rapports sont les mêmes, en particulier pour les modulations M-QAM, M>2.





THEORIE DE L'INFORMATION ET CODAGE

La théorie de Shannon remise en cause ? (13/01/2008) new

Dans l'ouvrage "Le Manager Intuitif" (Meryem Le Saget, éd. Dunod), on trouve une référence détaillée à la théorie de la communication de Shannon, et en particulier à sa célèbre publication de 1949 : "The mathematical theory of communication".

Je connaissais les applications de cette théorie en télécommunications, mais on apprend ici qu'elle a également inspiré "psychologues, sociologues, sémanticiens et autres linguistes" pendant 25 ans après sa parution.  C'est en particulier le schéma de l'émetteur et du récepteur séparés par un certain nombre de parasites qui a été utilisé.

Cependant l'ouvrage indique que "la communication est loin d'être aussi linéaire, et cette théorie demandait à être largement nuancée".  En effet en management, d'autres paramètres influent sur une communication : nature des relations entre émetteur et destinataire, contexte, culture des interlocuteurs, etc. ... Dans ce contexte précis (assez éloigné du contexte mathématique initial), la théorie de Shannon peut effectivement être remise en cause....

Mais soyons rassurés, en télécommunications la théorie de Shannon reste belle et bien d'actualité, et ses équations n'ont jamais été contestées !

Compression des langues françaises et anglaises
(14/08/2006) 

La langue française comprend 300 000 mots différents, en comptant toutes les conjugaisons des verbes.

Des algorithmes de compression permettent de coder l'ensemble de ces mots en moins de 200 Koctets (algorithme DAWG : Directed Acyclic World Graph).

Ceci représente 0.68 octet par mot ! Bien mieux qu'un code Baudot (0.63 octet par lettre) !

La langue anglaise possède quant à elle seulement 110 000 mots différents (moins que la langue française
). Curieusement, le même algorithme DAWG ne permet une compression qu'en 240 Koctets (plus que la langue française).

Ceci provient du fait que la grammaire française est beaucoup plus riche et compliquée que la grammaire anglaise (par exemple un verbe va prendre des dizaines de conjugaisons différentes, chacune d'entre elles ne concommant qu'une faible place dans une compression DAWG).

Source : [Braun]


Amélioration du codage source du mode JT65
(23/05/2006) 

Le mode JT65 encode l'information à transmettre, afin de la rendre la plus compacte possible (codage source).

Pour cela il fait des hypothèses très fortes sur les  messages émis, en les restreignant à  un format minimaliste : indicatif de l'émetteur + indicatif du récepteur + carré locator. Avec ces hypothèses un message est codé sur 72 bits, chaque indicatif étant codé sur 28 bits.

Le codage sur 28 bits provient du fait qu'un indicatif est composé d'un préfixe à 1 ou 2 caractères, l'un d'entre eux au moins étant un chiffre, suivi d'un chiffre et d'un suffixe de 1 à 3 lettres.

On pourrait imaginer d'améliorer ce codage.

En effet si on considère que le nombre de radioamateurs dans le monde est de l'ordre de 2 à 4 millions, 22 bits devraient suffir pour coder tous les indicatifs (à l'aide d'une table de correspondance centralisée par exemple).

Si on considère que le nombre de radioamateurs pratiquant l'EME de tout au plus de 50 000, alors 16 bits devraient suffir.

On passerai alors d'une taille de trame de 72 bits à  48 bits., et un code RS(63, 8) pourrait être utilisé au lieu d'un code RS(63,12)


Théorie du codage : évolution des besoins

Besoin des années 60 : diminuer la puissance, sans se préocuper du rendement
Les premiers travaux sur la théorie du codage ont cherché à résoudre le besoin suivant : transmettre des signaux dans des canaux très bruités ou, ce qui revient au même, avec de très faibles puissances d'émission.

Dans les années 60, l'application typique était celle des sondes spatiales (Pioneer, Voyager, Mariner, ...).  Chaque décibel de codage gagné permettait une économie globale d'1 million de dollars (de l'époque) sur l'émetteur et le récepteur.  

La contrepartie de ces gains en puissance : les techniques mises au point étaient spectralement très inefficaces.
Les codages avaient un rendement inférieur à 0,5 bit par intervalle baud. Mais cela n'était pas un problème, car dans ces applications le spectre à disposition n'était pas limité.

Besoin des années 80 : augmenter le rendement, à puissance et largeur de bande données
Puis un nouveau besoin est apparu, incompatible avec le premier : transmettre dans un canal à largeur de bande et à puissance limitées, un débit le plus important possible.

L'application typique était le transfert de données au travers du canal téléphonique, ou à l'aide de faisceaux hertziens.

L'avancée la plus significative dans ce domaine fut l'invention des modulations codées par Ungerboeck en 1982. Cette technologie est aujourd'hui par exemple utilisée pour les fax haut débit (V.33 ou V.34).

Source : "Applications of Error-Control Coding", Costello, Hagenauer, Imai, Wicker. IEEE Trans. on Information Theory, Octobre 1998.

Indice de coïncidence, langue et aléa


L'indice de coïncidence (IC) est la probabilité que deux lettres choisies aléatoirement dans un texte soient identiques.

Par exemple pour un texte parfaitement aléatoire,  IC = 0.038.

Si on mesure l'IC sur des textes contemporains, on s'aperçoit qu'il dépend de la langue : Français : 0,074, suédois : 0,071, anglais : 0,065.

Source : [crypto]

"All codes are good, except those we can think of"

Shannon a mis en évidence en 1948 la notion de "capacité d'un canal", c'est à dire la quantité d'information maximum qu'il est possible de véhiculer avec un taux d'erreur arbitrairement bas, au travers d'un canal bruité donné.

Les travaux de Shannon prouvaient l'existence de codes permettant d'atteindre en pratique cette limite, mais ne donnaient pas la façon de les construire.

Pour approcher cette limite théorique, chercheurs et ingénieurs ont mis au point au cours du temps de nouvelles techniques de codage. Chaque nouvelle technique permettait d'approcher encore un peu plus la limite théorique.

Cependant pendant longtemps, les codes inventés n'ont pas permis de s'approcher de près de la limite théorique. Sceptissisme et pessimisme ont alors gagné la communauté scientifique, résumés par ces deux magnifiques citations :

"All codes are good, except those we can think of"
"Any code of which we cannot think is good" (1961 : Wozencraft et Reiffen)

Note 1 : le pessimisme des scientifiques sur la possibilité de trouver des codes permettant d'atteindre la limite de Shannon a disparu avec la dévouverte française des turbo-codes en 1993.

Note 2 : La seconde citation a même reçu une démonstration en 1990 (Coffey and Goodman, IEEE Trans. on Inf. Theory, nov. 1990)

Source :
"Théorie de l'information. Application aux techniques de communication", Gérard Battail, Ed. Masson.

Transmission sans erreur dans un canal bruité : l'inconcevable prouvé

Le travaux de Shannon (1948) ont permis de prouver qu'il était tout à fait possible de réaliser une transmission sans erreur (ou du moins avec une probabilité d'erreur arbitrairement faible), même au travers d'un canal bruité. Voici ce qu'ajoute Gérard Battail à ce sujet :

"C'est probablement le résultat le plus innatendu qu'ait obtenu la théorie de l'information. En affirmant la possibilité d'une transmission arbitrairement sûre à travers un canal bruyant, il allait à l'encontre du bon sens immédiat et même de l'expérience acquise à l'époque où il a été formulé. Les ingénieurs n'avaient pas même imaginé qu'une transmission sans erreur soit possible, tenant pour évident que le bruit du canal suffisait à l'interdire".

Source :
"Théorie de l'information. Application aux techniques de communication", Gérard Battail, Ed. Masson.


 
Débit d'information au travers un canal bruité

Considérons une source d'information binaire émettant des "1" et des "0" équiprobables à un débit de 1000 symboles par seconde.  Le débit d'information de la source est ainsi de 1000 bits/s.

Supposons que ces symboles soient transmis au travers d'un canal bruité, introduisant une erreur de transmission (1 devient 0 et 0 devient 1) en moyenne 1 fois sur 100.

Quel est alors le débit d'information de ce système ?

Certainement moins que 1000 bits/s, puisqu'environ 1% des symboles reçus sont incorrects.

Notre premiere intuition serait de dire que le débit d'information est de 990 bits/s, en soustrayant purement et simplement le nombre d'erreurs attendues. Cependant cela n'est pas satisfaisant, puisque cela ne prend pas en compte le fait que le récepteur ne sait pas ont lieu les erreurs de transmission.

En poussant le bruit à l'extrème, nous pouvons considérer le cas d'un canal tellement bruité que la probabilité d'une erreur de transmission est 1/2. Dans ce cas, la moitié des symboles reçus sont corrects (en moyenne). Avec le même raisonnement intuitif, nous serions tentés de dire que le débit d'information du système est de 500 bits/s. Pourtant ce résultat ne convient pas, puisqu'aucune information n'est en fait transmise ! En effet la probabilité de recevoir un 1 est 1/2, quel que soit le symbole émis (de même pour la réception d'un 0).

Quel est donc le véritable débit d'information de ces systèmes ?

La solution est démontrée dans l'article de Shannon (voir les références plus bas).
Débit d'information du système bruité = D.(1 + [p.log2(p) + (1-p).log2(1-p)])
p = probabilité d'erreur du canal de transmission bruité
D = débit symbole de la source

Application numérique :
p = 1/100
Débit d'information du système bruité  = 1000 (1 + [0,01.log2(0,01) + 0,99.log2(0,99)] = 919 bits/s

p = 1/2
Débit d'information du système bruité  = 1000 (1 + [0,5.log2(0,5) +0,5.log2(0,5)] = 0 bits/s

Conclusion :
Dans le cas p = 1/100, la formule de Shannon donne un débit d'information de 919 bits/s (au lieu de 990 bits/s avec la réponse "intuitive").
Dans le cas p = 1/2, 
la formule de Shannon donne un débit d'information nul, conformément au raisonnement fait plus haut.

Références :
"A Mathématical Theory of Communication", Shannon, The Bell System Technical Journal, 1948.


Génération d'une suite aléatoire par un humain

Un jour un professeur demanda à chacun des 20 élèves de sa classe d'écrire sur un papier une suite de 300 "0" et "1" la plus aléatoire possible.
 
Il demanda à l'un d'entre eux de ne pas utiliser son imagination, mais de s'aider d'une pièce pour générer la suite (pile ou face...).

Il ramassa les copies (anonymes), et le lendemain il désigna sans hésitation la copie qui avait été générée avec une pièce.

Voici comment il avait procédé : en voulant générer soi-même une suite aléatoire, on sous-estime souvent la probabilité d'obtenir une série de plusieurs "0" ou "1" consécutifs. De telles séries (par exemple sept "1" consécutifs) ne nous semblent pas assez aléatoires, et nous les négligeons donc. C'est ce qui a trahi les élèves et a permis au professeur de retrouver la copie générée par une pièce.

Capacités canal : performances comparées théoriques / pratiques (27/05/2006) 

(en cours : les informations ci-dessous sont provisoires)
La capacité d'un canal à bruit blanc additif gaussien a été donnée par Shannon. Il s'agit du débit binaire maximum qu'il est possible de transmettre au travers du canal avec un taux d'erreur binaire arbitrairement faible.
C = W.log2(1 + S / N)
C = capacité du canal, en bits par seconde
W = largeur du canal, en Hertz
S / N = rapport signal sur bruit

Nous proposons de calculer dans le tableau suivant la proximité de certains modes de transmission HF par rapport à la limite de Shannon.

Nom du mode Largeur du bande occupée par le mode (Hz) Rapport S/N (dB) minimal nécessaire pour le mode Capacité théoriquement atteignable dans la largeur de bande et avec le rapport S/N précédent Débit utile obtenu en pratique pour le mode considéré Proximité par rapport à la limite théorique
JT65 (standard decoder) 2500 -22 dans 2500 Hz (1) 6.8 bits/s 1,54 bits/s (72 bits en 46.8 s) 23 %
JT65 (deep search decoder) 2500 -26 dans 2500 Hz (1) 2.7 bits/s 1,54 bits/s 57 %
PSK31 80 -11.5 dans 3000 Hz
soit +4.2 dans 80 Hz
45 bits/s 15,6 bits/s 35 %
QPSK31 80 -14.5 dans 3000 Hz
soit +1.2 dans 80 Hz
29 bits/s 15,6 bits/s 53 %
MFSK16 316 -13.5 dans 3000 Hz (2), soit -3.7 dans 316 Hz 49 bits/s 31,25 bits/s 64 %
MT63 (5 bauds) 500 -8 dans 3000 Hz (3), soit -0.2 dans 500 Hz 145 bits/s 35 bits/s 25 %
MT63 (10 bauds) 1000 -5 dans 3000 Hz (3), soit -0.2 dans 1000 Hz
-10 dans 3000 Hz (5), soit -5.2 dans 1000 Hz
290 bits/s
114 bits/s
70 bits/s 25 %
61 %
MT63 (20 bauds) 2000 -2 dans 3000 Hz (3), soit -0.2 dans 2000 Hz
-5 dans 3000 Hz (4), soit  -3.2 dans 2000 Hz
-8 dans 3000 Hz (5), soit -6.2 dans 2000 Hz
580 bits/s
337 bits/s
185 bits/s
140 bits/s 25 %
42 %
75 %

(1) source : "The JT65 Communications Protocol", K1JT, QAX sept/oct 2005. pulsar.princeton.edu/~joe/K1JT/JT65.pdf
(2) source : http://f1ult.free.fr/DIGIMODES/MULTIPSK/mfsk_en.htm
(3) source : http://f1ult.free.fr/DIGIMODES/MULTIPSK/MT63_en.htm
(4) source : http://www.johanforrer.net/hfpsk.htm
(5) source : "A practical evaluation and comparison of some modern data modes", G4HPE. 23rd ARRL and TAPR Digital Communications Conference


Une vison économique de la théorie de l'information

Un paramètre dimensionnant le coût de location d'un transpondeur satellite est, on le comprend aisément, la largeur de spectre occupée par le signal à transmettre.

Par exemple, pour transmettre 1 Mbps, une modulation de type QPSK avec Viterbi 1/2 occupera une largeur de spectre de 1190 kHz ([COMTECH]).

Pour réduire la largeur de spectre occupée (et donc le coût de location), il est possible d'utiliser une modulation à plus grand nombre d'états. Par exemple, toujours pour transmettre le même 1 Mbps, une modulation de type 16-QAM Viterbi 3/4 + Reed-Solomon occupera une largeur de spectre de 435 kHz seulement ! Soit un gain de 2,7 par rapport à la modulation précédente !!

On pourraît donc penser avoir trouvé la solution pour économiser les coûts de location : augmenter le nombre d'états de la modulation. Malheureusement, les coûts de location dépendent également de la quantité de puissance transpondeur utilisée. En effet l'énergie à bord du satellite est une ressource rare (et donc chère).

Et c'est ici que les ennuis commencent : pour notre première modulation, un taux d'erreur binaire (TEB) de 10-8 nécessite un rapport Eb/N0 de 6,8 dB. La seconde modulation nécessite, pour le même TEB, un rapport Eb/N0 de 8 dB !!! Soit entre les deux un facteur 1,3 en puissance (1,2 dB). Le gain en largeur de spectre obtenu en augmentant le nombre d'états de la modulation, est donc en partie atténué par le fait qu'une plus grande puissance transpondeur doit être utilisée.

Tout n'est donc qu'affaire de compromis entre largeur de spectre et puissance nécessaire...

Alors on peut se poser la question suivante : "existe-t-il un schéma de codage et de modulation permettant une transmission avec une puissance aussi faible que la première modulation, et une largeur de spectre aussi faible que la seconde ?"

Les formules de Shannon nous affirment que OUI. Il s'agit déja d'une information précieuse : chercher un tel schéma n'est pas vain. Pour autant les formules de Shannon  ne nous donnent pas de solution pratique. 

Jusqu'au début des années 90, et la découverte (française) des Turbo-Codes, le problème est resté insoluble.

Aujourd'hui la solution a été trouvée.
Ainsi une modulation 8-PSK 7/8 TPC (Turbo Product Code) permet, toujours pour le même 1 Mbps, une largeur de spectre à peine plus grande que notre seconde modulation (453 kHz), avec la puissance de la première (6,8 dB).

On comprend ainsi mieux les enjeux économiques de la théorie de l'information et du codage.

[COMTECH] Toutes les valeurs numériques ont été tirées de la documentation du modem satellite Comtech EF Data CDM-600L.

Code de GOLAY et football

A faire : la naissance du code de Golay, utilisé pour des paries sur des match de footbal, en Finlande.
Source1
Source2





HISTOIRE DE LA RADIO


J. Mitola, l'année 1992 et la radio logicielle
(07/01/2007) 


L'article de J. Mitola, intitulé "Software radios survey, critical evaluation and future direction", publié en 1992 au cours de la conférence National Telesystems, est dans un sens historique.

Ce texte est en effet considéré comme marquant la naissance du concept de radio logicielle.


Téléphonie Radio-Cellulaire
(06/12/2006) 


La téléphonie cellulaire n'a mis que 21 ans pour atteindre son milliard d'utilisateurs.

La téléphonique fixe en a mis 125....


Code Baudot / Code Murray
(02/07/2006) 


On connait bien en France le code Baudot, inventé en 1870 et breveté en 1874.  Ce code fut adopté au niveau international par le CCITT, et fut baptisé CCITT-1.

Les américains préfèrent quant à eux parler de code Murray, ou Baudot-Murray.

En effet en 1901, Murray réarrangea le code Baudot, afin que les caractères les plus fréquents soient codés par des 5-uplets avec le moins de transitions entre 1 et 0. Cela permettait de moins surcharger les équipements électromécaniques de l'époque. Ce code fut baptisé CCITT-2.

C'est ce code, et non l'original, qui est en fait aujourd'hui communément adopté et appelé "code Baudot".


Boutade (19/03/2006)

Si la Télégraphie sans fil avait été inventée avant la Télégraphie avec fils, cette dernière aurait été considérée comme un progrès.

Source : L'onde électrique, 1926



Les premières applications de la TSF (11/03/2006)

Avant 1914, LA TSF était considérée comme une technique réservée presque exlusivement aux besoins de la navigation maritime. Il suffit de lire la première convention radiotélégraphique internationale (Londres, 1912) pour s'en rendre compte.

Source : La TSF, Que sais-je 1951

La fréquence de la première onde transatlantique

La première liaison radio transatlantique eut lieu au cours de la 12è heure du 12è jour du 12è mois de l'année 1901 : le 12 décembre 1901 à 12h30. Elle fut réalisée par Marconi.

Pourtant, certains scientifiques restent sceptiques sur la réalité de cette première, et envisagent la possibilité que Marconi n'ait reçu ce jour là que du bruit impulsionnel (décharges atmosphériques), et non pas le signal réellement émis.  D'autant que le signal témoin était la lettre "S" en Morse (trois points), et qu'il arrive très souvent que ces décharges donnent ce même signal Morse sur les appareils des bureaux télégraphiques [DUCR].

La fréquence de l'onde effectivement émise depuis Poldhu n'est pas connue précisément : 100 kHz, 166 kHz, 328 kHz, 500 kHz, 800 kHz, 820 kHz...  suivant les sources. Cela provient en particulier du fait que les systèmes de mesure étaient peu précis à l'époque, et que la nature exacte des systèmes de transmission n'est pas connue.

En tout état de cause, à cette heure de la journée, la couche F réfléchit les ondes courtes, et la couche D absorbe les ondes longues. Il est donc peu probable qu'une onde longue ait pu traverser l'Atlantique, et encore moins probable que le système de réception de Marconi ait pu la capter. D'autant que 1901 correspond exactement à  un creux dans le cycle solaire.

Si un signal a été détecté à Poldhu, il s'agit probablement d'une onde courte : de 5 à 15 MHz.

Même si un doute subsiste sur l'expérience du 12 décembre 1901, précisons qu'un an après, le 15 décembre 1902, Marconi réitéra son expérience à Glace Bay, sans contestation possible cette fois.

[DUCR] : "Eugène Ducretet, Pionnier français de la Radio", J-C Montagné, Autoédition J.C. Montagné.

Radio et espérance de vie

Heinrich Hertz, pionnier de la radio, est mort particulièrement jeune : 37 ans (1857 - 1894).

Edouard Branly, pionnier de la radio, est mort particulièrement agé : 96 ans (1844 - 1940).

Inventeurs et prix Nobel

Le premier brevet sur la modulation à spectre étalé (Spread Spectrum) date du 10 juin 1941. Il porte le numéro 2.292.387 et est intitulé : "Secret Communication System".

Qui est à l'origine de cette invention ? Certainement un brillant scientifique ?

En fait, de façon tout à fait improbable, il n'en est rien. Les inventeurs de cette technologie sont une célèbre actrice Hollywoodienne d'origine allemande 
(Hedy Lamarr) et un compositeur (George Antheil).

Joe Taylor K1JT, à l'origine du mode de transmission "faibles signaux" EME JT65, est quant à lui un inventeur moins improbable.

Professeur d'Astronomie, il reçut en effet le prix Nobel de Physique en 1993 (pour la découverte d'un nouveau type de pulsar, qui a ouvert une nouvelle voie dans l'étude de la gravitation).

TELSTAR et polarisation

Le satellite Américain TELSTAR fut lançé le 10 juillet 1962 depuis Cap Canaveral en Floride. Il devait permettre la première transmission TV par satellite.

Trois stations terrestres permettaient l'émission et la réception des signaux :
- Pleumeur-Bodou (France)
- Andover (USA, Maine)
- Goonhilly Downs (Angleterre)

Dès le lendemain du lancement, le premier essai de transmission fut un succès : entre les USA et la France du moins, la station Anglaise ne fonctionnant pas.

Le problème fut rapidement identifié : les ingénieurs anglais avaient une définition inverse de celle admise par les Américains et les Français pour ce qui est du sens de polarisation droite ou gauche d'une onde radio !!!

L'erreur fut corrigée et le 23 juillet les anglais purent à leur tour recevoir les émissions en provenance des USA.

Le baccalauréat de Jeanne BRANLY

Jeanne BRANLY (1883-1977), la fille ainée du célèbre savant pionnier de la radio, est l'une des prémières femmes en France (sans doute la deuxième !) à avoir passé le baccalauréat.

Source : "Comment Branly a découvert la Radio", J-C Boudenot, EDP Sciences

La faute d'orthographe de Marconi

Le 28 mars 1899 à 4h47, Marconi transmet la première dépèche par radio entre l'Angleterre (South-Foreland) et la France (Wimereux), soit 46 km.

Le message transmis est exactement celui-ci, la faute d'orthographe étant d'origine : "MR MARCONI ENVOI A MR BRANLY SES RESPECTUEUX COMPLIMENTS PAR LE TELEGRAPHE SANS FIL A TRAVERS LA MANCHE CE BEAU RESULTAT ETANT DU EN PARTIE AUX REMARQUABLES TRAVAUX DE MR BRANLY"