3. Égalisation à l'aide d'un PMC

Les deux courbes de la figure 4.9 nous serviront de référence, et les simulations seront effectuées avec un système OFDM à 48 porteuses et une modulation MAQ16. Une base d'apprentissage est constituée, mais cette fois-ci avec des échantillons temporels du symbole OFDM. Pour les expériences suivantes, le rapport signal sur bruit du canal est de dans la base d'apprentissage.

Les PMC possèdent deux entrées et deux sorties, car les signaux qu'ils traitent sont complexes. Différentes architectures ont été testées, avec tout d'abord une couche cachée de 2 neurones, puis en augmentant progressivement le nombre de neurones, avant de tester un réseau avec deux couches cachées, également en augmentant progressivement le nombre de neurones sur les deux couches. Les fonctions d'activation des couches cachées sont des tangentes hyperboliques, et celles des couches de sortie sont linéaires. Nous avons constitué une base de moins 2048 symboles, et évité un surapprentissage avec toutes les structures que nous avons testé. La figure 4.10 montre le taux d'erreur pour quelques correcteurs. Comme dans le chapitre précédent, PMC-x représente un PMC avec une couche cachée de x neurones, PMC-x-y un PMC avec deux couches cachées de x et y neurones.

Figure 4.10. Taux d'erreur binaire d'une chaîne OFDM avec correcteur PMC temporel, 48 porteuses, une modulation MAQ16, et un amplificateur SSPA avec un recul de 0 dB

Taux d'erreur binaire d'une chaîne OFDM avec correcteur PMC temporel, 48 porteuses, une modulation MAQ16, et un amplificateur SSPA avec un recul de 0 dB

Tous les correcteurs, y compris le plus simple présenté, réalisé avec un PMC constitué d'une couche cachée de 3 neurones, parviennent à réduire le taux d'erreur binaire par rapport au système de référence. Celui qui obtient les meilleures performances est le PMC-10-5. Si l'on regarde sa courbe d'apprentissage (figure 4.11), on constate que contrairement au cas fréquentiel, l'algorithme d'apprentissage (ici un Levenberg Marquardt) converge, et dès l'itération 25 l'erreur quadratique moyenne ne diminue presque plus.

Figure 4.11. Courbe d'apprentissage du PMC-10-5

Courbe d'apprentissage du PMC-10-5

Cependant même ce correcteur ne parvient pas à obtenir les mêmes performances que le modèle SSPA inversé (courbe 'sspa'), comme le montre la figure 4.12 :

Figure 4.12. Comparaison entre le taux d'erreur binaire avec le correcteur PMC-10-5 et celui avec le correcteur SSPA inversé dans un système OFDM à 48 porteuses, un amplificateur SSPA avec un recul de 0 dB et une modulation MAQ16

Comparaison entre le taux d'erreur binaire avec le correcteur PMC-10-5 et celui avec le correcteur SSPA inversé dans un système OFDM à 48 porteuses, un amplificateur SSPA avec un recul de 0 dB et une modulation MAQ16

Nous avons testé d'autres PMC avec plus de neurones, réalisé des apprentissages avec différents niveaux de bruits, mais nous ne sommes pas parvenu à approcher la courbe obtenue par le correcteur SSPA. D'autres architectures neuronales, comme les GRBF ou les réseaux d'ordre supérieur, pourraient peut-être mieux convenir à cette application que les PMC. Nous nous sommes en particulier intéressés une fois de plus aux réseaux d'ordre supérieur.