RÉCEPTEUR DE TÉLÉVISION NUMÉRIQUE

 

 

 

1. Introduction

2. Système numérique

3. La numérisation vidéo

4. Description et fonctionnement d'un syntoniseur PLL

5. Diagramme synoptique d’un récepteur numérique et définition des différents processeurs

 

1.  Introduction

 

1.1. Modes de communication numérique

 

Afin de comprendre les différents modes de communication numérique entre les circuits, faisons un bref tour du microprocesseur central. Comme il est le cerveau, apprenons-en le cortex communicatif. En regroupant les broches par destination, on y retrouve des bus de communication que nous pouvons classer en quatre catégories :

 

  Communication série synchrone : ce mode exige un minimum de deux conducteurs

 

 

Clock ou SCL : indique au circuit le moment précis sur la validité du data (ici front descendant)

Data ou SDA : information numérique à transmettre

Un troisième conducteur peut exister dans ce mode de communication, c'est “Enable” ou

CS (chip select) qui indique au circuit s'il doit être activé ou non.

La communication sur deux conducteurs est appelée “bus I2C” (Inter Integrated Circuits) pour les circuits vidéos et “I2S” (Inter Integrated Sound) pour une liaison série entre circuits audio numériques. Les bus I2C et I2S sont développés par Philips.

  Communication série asynchrone : un seul conducteur est nécessaire (exemple : télécommande) 

 

  Convertisseur numérique analogique intégré : avec l'intégration actuelle (VLSI « Very Large Scale Integration »), il est maintenant possible de retrouver des convertisseurs internes dans le microprocesseur. Ceux-ci fournissent directement des sorties analogiques variables sur les broches du microprocesseur. Lorsque la quantité de DAC (Digital Analog Converter) interne est insuffisante, des convertisseurs externes peuvent être ajoutés. On communique avec eux par communication série synchrone. Un multiplexage des informations permet de commander jusqu’à 8 sorties analogiques (réglage de teinte, couleur, luminance. Réduction de bruit etc.). Exemple : IC0103 du téléviseur Hitachi C709 ou IC1801 du téléviseur Sharp CH27S20.

 

  Communication numérique ON/OFF : il s’agit simplement d’une tension de 0 volt ou de 5 volts permettant la sélection d’une commande quelconque. Exemple : activer le relais d’alimentation, mute etc. 

Exemple : Communications dans le téléviseur Sharp CH27S20

 

Le microprocesseur communique par communication série synchrone I2C “Inter Integrated Circuits” (SDA, SCL) :

-   Avec le tuner (syntonisation, recherche automatique de stations)

-   Avec le bloc MTS (stéréo, SAP, mono)

-   Avec le circuit IC201 vidéo chroma (mute sur recherche de stations, commutation TV/Vidéo, OSD, ajustement des couleurs, saturation, teinte etc.)

-   Avec le bloc PinP (sélection de l’image secondaire, commutation image principale/image secondaire, ajustements C, Y, teinte de l’image secondaire)

 

Le microprocesseur communique par communication 0-5 volts sur la :

 

-   Broche 6 (TV/Vidéo) : commutation du son en mode PinP. Le son de l’image principale est sélectionné.

-   Broche 17 (sub TV/Vidéo) : commutation vidéo image TV/image vidéo externe dans l’image secondaire

-   Broche 7 (sound limit) : la fonction “equisound” permet de conserver un niveau de volume sonore constant pendant les changements de chaînes et durant les spots publicitaires lorsqu’il est à “ON”.

-    Broche 5 (SP ON/OFF) : fonction silence (mute)

-    Broche 3 : mute sur recherche de stations, le microprocesseur communique alors avec le circuit IC201 par communication série synchrone (broches 55-56)


1.2. Protection des thyristors

 

  Contre les surtensions

 

On connecte en parallèle avec le thyristor, des diodes tête-bêche au sélénium (                ) ou un varistor (résistance variable en fonction de la tension qui lui est appliquée)                                                                                                          

   Contre les variations rapides de la tension

 

  Contre les variations rapides de courant à l’amorçage

  Contre les surintensités

Association parallèle de thyristors

1.3. Le filtre en peigne

 

Le filtre peigne a pour rôle de séparer le signal de chrominance du signal de luminance à partir du signal vidéo composite. Le filtre peigne est le produit d’un des derniers progrès de la télévision couleur.

 

Avant l’apparition du filtre peigne, la résolution de l’image aux hautes fréquences était considérablement faible. On devait limiter la bande du signal vidéo à 3.2 Mhz pour minimiser les interférences avec le signal chroma.

 

Le filtre peigne permet à l’information de luminance à hautes fréquences de parvenir au tube cathodique sans être affectée par des interférences de battement couleur.

 

Fonctionnement

 

On applique le signal vidéo composite à l’entrée d’un dispositif à retard qui retarde le signal d’une ligne de balayage horizontal complète. L’information de chroma retardée est déphasée par rapport au signal de chroma non retardé car l’information couleur subit une alternance de phase pour chaque ligne horizontale.

 

 

Maintenant qu’on dispose du signal chroma filtré (après l’élimination de la luminance), on peut utiliser ce signal pour éliminer l’information de couleur du signal vidéo composite.

 

 

 

-----------------------------------------------------------------------------------------------------------------------------

 

 

 

 

--------------------------------------------------------------------------------------------------------------------------

 

 

 

 

 

1.4 Formats numériques

 

Télévision numérique est une expression pour désigner tous les téléviseurs à définition standard (SDTV) et à haute définition (HDTV).

Les émissions de télévision numérique ont commencé aux USA en 1988 et on s’attend à ce qu’elles remplacent toutes les transmissions télévisuelles analogiques d’ici la fin de 2006.

La norme NTSC sera remplacée par la nouvelle norme ATSC (Advanced Television Standards Committee). L’ATSC a recommandé 18 formats numériques. Parmi les 18, 6 sont considérés HDTV, les 12 autres sont SDTV.

Le format HDTV produit une qualité d’image supérieure. Le format SDTV offre une qualité d’image similaire à celle procurée par les lecteurs vidéo numériques (DVD) d’aujourd’hui. Ainsi, plusieurs canaux de télévision SDTV peuvent être transmis en utilisant le même espace (bande passante) qu’un seul canal HDTV. Les suffixe “p” et “i” identifient respectivement les balayages progressif et entrelacé.

Signaux numérisés :

 

On peut numériser :

 

  R, V, B

  Y, R-Y, B-Y

  Signal vidéo composite (dans ce cas, il y a un problème de transfert de normes) 

Dans la pratique, la solution qui a été retenue est la numérisation des composants Y, (R-Y) et B-Y).

 

2.  Le système numérique

 

2.1. La conversion analogique-numérique :

Nous partons d'un signal analogique pour le traiter et le transformer en impulsions dont la configuration sera représentative du signal analogique. L'impulsion :  c'est un signal tout ou rien, un signal qui existe ou n'existe pas.

L'analogique existe un peu, beaucoup, presque pas. Le bruit de fond, c'est un tout petit presque pas qui est interprété par l'oreille comme un signal indésirable.

En numérique, un bruit de fond, un presque rien va être interprété comme un 0, ce qui est normal. Nous avons donc éliminé le bruit de fond.

 

2.2. Échantillonnage

 

 

L'échantillonnage consiste à prendre des échantillons de l'amplitude du signal. Pour reproduire un signal de façon satisfaisante, il faut au moins disposer de deux échantillons par période. L'écart entre deux échantillons va être fixé par le CCIR (Comité Consultatif International des Radiocommunications) pour les trois standards de télévision (PAL, NTSC et SECAM).

 

2.3. Quantification

 

C'est l'opération qui consiste à transformer l'échantillon en un certain nombre de bits représentatifs de son amplitude.

 

Exemple : codage sur 8 bits

 

 

 

3.  La numérisation vidéo

 

3.1. Délimitation des blocs d'un récepteur

 

 

Qu'est-ce qui reste analogique dans un téléviseur numérique ?

 

Certains étages ne sont pas numérisables à cause de la présence de hautes tensions ou de fortes puissances.

 

  L'alimentation ainsi que l'étage de sortie ligne ne sont pas numérisables à cause des puissances mises en jeu.

 

  Le T.R.C et le H.P. n'ont pas encore été numérisés à cause de la difficulté des conversions A/D et D/A de signaux forts.

 

Que peut-on numériser en télévision ?

 

Le récepteur I.R. (commande à distance) et le décodeur télétexte sont numérisés.

 

Les signaux analogiques émis (vidéo et audio) sont numérisés avant d'attaquer via des étages de sortie, après conversion en analogique, le TRC et le haut-parleur.

 

 On peut numériser :

 

a)  Traitement du signal vidéo

Décodeur couleur

Processeur vidéo (amplification, filtrage, réglage de lumière et de contraste)

 

b)  Traitement du signal audio

Processeur audio (décodeur audio, réglage de volume et timbre, décodeur stéréo)

 

c)  Traitement des bases de temps ligne et trame

Processeur de synchronisation (commande de balayages ligne et trame, correction en S et E/W)

 

d)  Traitement des commandes

Circuits PLL et afficheur grâce à un microprocesseur pilotant la synthèse de fréquence

 Au Canada, les faisceaux hertziens numériques existent pour les télécommunications mais aussi pour la télévision (voir LOOK). Pour la TV numérique par satellite, voir Star Choice de Sears. Le passage vers le tout numérique apparaît lent, étant donné le grand nombre de liaisons à modifier.

  

3.2. Avantages de la numérisation

 

    Les circuits sont moins encombrants grâce à la miniaturisation (réduction du nombre de composants). L'idée consiste à remplacer le carbone (potentiomètres et résistances), cuivre (fils, lignes à retard), verre et le céramique (condensateurs) par un seul matériau :  le silicium. Le silicium est un élément très répandu dans l’écorce terrestre 25.7 %. Produit de départ : le sable (SiO2)

 

    Faible consommation énergétique

 

    Précision de traitement et stabilité des caractéristiques

 

    Grande vitesse d'exécution

 

    Élimination des parasites (meilleure qualité de l'image) en réduisant le bruit propre aux circuits analogiques.

 

3.3. Nouveau service: Circuits PIP (Picture in Picture) ou Incrustation d'une image, PAP (Picture And Picture) et POP (Picture Out Picture)

 

a. Circuit de commutation vidéo (PIP) :

 

P in P est une fonction qui permet d'obtenir sur l'écran les images de télévision et de vidéo simultanément. La taille d'une des images est réduite et apparaît dans une petite fenêtre placée dans un des coins de l'écran. [Des réductions de 1/9 (1/3 x 1/3) et 1/12 (1/3.5 x 1/3.5) existent]

 

 

Touche d'écran secondaire P in P

 

 

Touche de sélection

 

 

 

Touche échange (EXCHNG) ou de permutation (SWAP)

Permet d’interchanger l'écran principal et l'écran secondaire.

Touche de déplacement (SHIFT) ou (MOVE)

Touche position d'arrêt (FREEZE)

 

Arrêt sur image “Freeze Frame” :  L'image peut-être figée, gelée, ce qui permet au téléspectateur d'observer une image stationnaire. Ceci est possible grâce à une mémoire appelée mémoire d'image. Presser FREEZE pour arrêter l'image, presser une seconde fois pour revenir en mode normal.

 

Touche deux écrans secondaires (2 PIX) (Cas particulier du téléviseur Hitachi C709)

 

   Presser la touche P in P afin de faire apparaître l'image secondaire.

   Appuyer ensuite sur la touche “2 PIX” et deux écrans apparaîtront dans les coins supérieurs de l'écran principal (les écrans montrent la même image).

 

 

   Appuyer sur la touche “FREEZE” afin de mettre l'un des écrans secondaires en position d'arrêt. L'image de l'écran secondaire droit sera en position d'arrêt alors que celle de gauche reste en mouvement.

Changement de format “Multipicture in Picture” :  Affichage simultané de plusieurs images figées, programmes ou sources différentes (magnétoscopes, caméras de surveillance).

 

   Compression de 4 images sur le même écran

   Compression de 9 images sur le même écran

 

b. PAP (Picture And Picture) : Sony a introduit cette innovation qui permet de voir simultanément deux images mais sur un écran divisé en deux (twin view) et non sous forme d’incrustation

 

c. POP (Picture Out Picture) : procédé qui s’applique aux téléviseurs 16/9. Il permet de visualiser et de sélectionner une des chaînes reçues, défilant à l’écran sans quitter la chaîne en cours. La chaîne en cours est réduite et affichée à gauche en format normal alors que les autres stations défilent à droite de l’écran.

  

d. Circuit de commutation audio :

 

Le circuit de commutation audio entre en fonction pour assurer une commutation entre les images principale et secondaire au cours du mode d'incrustation de l'image dans l'image (P in P). Le son qui sera entendu aux haut-parleurs sera toujours celui de l'image principale.

 

3.4. Fréquence d'échantillonnage de l'image

 

Numériser les images c'est les mettre sous forme d'un tableau de pixels affectés chacun d'une ou de plusieurs valeurs numériques. Pour numériser l'image vidéo, il suffit d'en numériser les lignes, chaque ligne étant représentée par trois signaux Y, R-Y et B-Y.

 

Signal de luminance :

 

Deux approches se sont confrontées quant au choix de la fréquence d'échantillonnage (FE). L'approche européenne limitait (FE) à 12 Mhz, soit deux fois la largeur du signal de luminance

(2 x 6 Mhz) dans les normes à 625 L/ 50 Hz, et ce pour minimiser le débit binaire.

 

L'approche américaine favoriserait une fréquence d'échantillonnage couplée à la fréquence de la sous porteuse adoptée dans le standard NTSC : FE = 4 x F s/p = 4 x 3.58 Mhz = 14.32 Mhz

 

Sur proposition de l'U.E.R. (Union Européenne de Radiodiffusion), le CCIR (Comité Consultatif International des Radiocommunications) a retenu la valeur de compromis FEY = 13.5 Mhz, choix acceptable pour les trois standards (PAL, NTSC et SECAM).

 

Signaux de chrominance :

 

La fréquence d'échantillonnage du signal de chrominance a était définie dans l'avis 601 du CCIR.

FEC = 6.75 Mhz pour les trois standards de télévision (PAL, NTSC et SECAM).

 

La structure d’échantillonnage utilisée se répète identique à elle-même à chaque ligne, à chaque trame et à chaque image. La norme retenue est 4:2:2 qui provient du fait qu’on émet 4 échantillons de Y et 2 fois 2 échantillons de chacun des signaux I et Q

 

                      Y I Q Y Y I Q Y

 

 

3.5. La compression de l’image

 

3.5.1. Pixels

 

La capacité d’un écran de produire une image claire est définie par une constante appelée “pas de masque”. Le pixel est constitué de trois points distincts rouge, vert et bleu, et le “pas de masque” est la distance séparant les centres de deux pixels horizontaux contigus sur un écran cathodique. Plus la distance entre deux pixels est réduite, plus la résolution est élevée. Un écran ayant un pas de masque (Dot Pitch) de 0.28 a une meilleure résolution qu’un écran ayant un pas de masque de 0.31. Les données techniques d’un écran présentant une résolution de 640 x 480 indiquent que les lignes horizontales contiennent 640 pixels alors que les lignes verticales contiennent 480 pixels. En multipliant les deux chiffres, on obtient le nombre de pixels dans le canevas : 640 x 480 = 307200 pixels. Le nombre de pixels pouvant être affichés dépend des signaux de déviation. Le fait de changer la cadence du balayage horizontal influe sur le nombre de pixels affichés.

En conservant la cadence verticale de 60 Hz et en augmentant la cadence de balayage horizontal, plus de lignes horizontales sont comprimées dans le cycle vertical. Le nombre accru de lignes horizontales améliore la clarté de l’écran.

 

3.5.2. L’image vidéo non compressée

Le codage pour 16 millions de couleur se fait sur 24 bits soit 3 bytes par pixel. Si un signal vidéo de 640 x 480 est numérisé en utilisant la norme YUV 4 : 2 : 2, le fichier résultant sera de: 640 x 480 x 3 bytes/pixel = 921600 bytes / 1024 = 900 KB = 900 KO

 

Pour une seconde, le fichier sera de: 900 KO x 30 = 27000 KO par seconde soit 27000 / 1024 = 26.4 Mbps (26.4 méga bytes par seconde)

 

La transmission sous forme numérique d'une image TV (sans le son) exige des débits binaires d'informations trop élevés (26.4 Mbps). Un débit binaire d'une telle ampleur nécessiterait l'adoption de canaux de radiodiffusion à très larges bandes. Actuellement il n'est pas économique de transmettre directement un débit de 26.4 Mbps.

Un tel débit est considérable: par comparaison, les signaux numériques audio du “compact disque” forment un jeu de 150 Kbps = 0.15 Mbps (650 MB pour 74 minutes d'écoute).

Les limitations techniques sont la capacité de stockage (1.54 GB pour une minute de vidéo) et la rapidité de transmission (modem : 56 Kbps, une liaison SCSI : 10 Mbps, une liaison fast SCSI : 20 Mbps au maximum). Certaines technologies permettent actuellement le transfert des données numériques non compressées mais elles ne sont pas toujours facilement accessibles.

Pour des technologies plus accessibles, il faut donc penser à réduire le débit des données.

 

Les solutions pour réduire le débit :

 

  Coder le signal sur 16 bits au lieu de 24 bits (le débit reste encore excessif : 640 x 480 x 2 x 30 /1024 = 18000 Kbps / 1024 = 17.58 Mbps

  Diminuer au maximum le nombre de bits utilisés pour représenter une image et par-là réduire le débit binaire nécessaire pour la transmettre. C'est la compression d'image

3.5.3. La compression de données

 

Il est important de savoir que la technique de compression est basée sur une constatation: une image contient énormément d’informations redondantes (qui se répètent)

  La redondance spatiale, lorsque les informations se répètent dans des zones de l’image proches l’une de l’autre (deux points voisins sont souvent similaires).

  La redondance temporelle, lorsque des informations se ressemblent ou se répètent dans le temps, même si leur position dans l’image a changé.

La compression va consister à déterminer ces redondances et à les éliminer. La compression vidéo est réalisée au moyen de techniques d’encodage MPEG2 (Moving Pictures Experts Group), tandis que la compression audio est réalisée au moyen du système d'encodage Dolby Digital AC3.

 

Schéma de principe :

Après la conversion A/D des signaux audio et vidéo, un flux de bits d'informations est généré. Ce flux de bits ne peut être transmis dans la largeur de bande de 6 Mhz allouée sans être comprimé. La  figure ci-dessus présente un schéma fonctionnel d'un transmetteur HDTV type divisé en deux sections :

 

  La section génération de paquets

  La section transmission de bande latérale résiduelle

La section génération de paquets multiplexe les données vidéo, audio et services supplémentaires (services supplémentaires = émission dans un format qui n'est pas haute définition).

La section transmission de bande latérale résiduelle embrouille les données numériques de façon à permettre la correction d'erreurs durant le décodage et la reconstruction du signal au récepteur. Elle ajoute aussi la synchronisation des données et transmet les données par l'intermédiaire des amplificateurs de puissance RF et de l'antenne.

 

Après la compression MPEG2, la compression AC3 et le multiplexage avec les données de services supplémentaires, le signal ATSC est transformé en paquets de transport de 188 bytes appelés trames de données. Le paquet comprend un “en-tête de liaison” et les données utiles.

L’en-tête comprend :

 

    La synchronisation marquant le début du paquet

    Le traitement des erreurs = numéro d’identification de chaque paquet

    La surveillance d’embrouillage déterminant si ce paquet est embrouillé

    L’ID du paquet (PID) marquant les paquets en double et identifiant l’emplacement des paquets débrouillés.

 

La section de transmission de bande latérale VSB “Video Side Bande” après avoir reçu le flux de données numériques entreprend :

 

     D’embrouiller les données

     De grouper les données

     D’ajouter les données de synchronisation

 

Les paquets perdus ne sont pas aussi significatifs lorsqu’ils sont embrouillés et pourraient être récrées au récepteur. Ceci ne serait pas possible si les paquets étaient transmis en séquence. Les données sont réinsérées par interpolation.

Embrouilleur de données : il n’embrouille que les données utiles en un modèle bien défini

Encodeur Reed-Solomon : il embrouille tout le paquet de transport exceptées les premières données de l’en-tête de liaison. Il ajoute 20 bytes de parité pour la correction d’erreurs, ce qui augmente le paquet à 208 bytes.

 

Entrelacement de données : il embrouille les données de paquets contigus sans ajouter de données.

  Encodeur en treillis : Il réduit la largeur de bande de 1/3 en convertissant un flux de données binaires en symboles.

 

4.  Description et fonctionnement d'un syntoniseur PLL 

Tous les téléviseurs des modèles récents possèdent un syntoniseur du type “Front End”, c'est-à-dire un bloc qui contient un syntoniseur, un circuit PLL et un circuit de fréquence intermédiaire.

Le microprocesseur envoie trois signaux au PLL du syntoniseur et reçoit un signal de mise en phase.

 

Enable                       =>    Commande d'exécution

 

Clock  ou SCL           =>    Horloge de synchronisation des données

 

Data ou SDA             =>     Données de commande

 

Lock ou Tune SD      =>     Entrée de mise en phase

Enable PLL: Habituellement au niveau bas “L”. Lors de la lecture des données, le niveau passe à “H” et retombe à “L” lorsque le verrouillage est fait.

 

Data PLL ou SDA: Borne d'entrée des données. Celles-ci sont lues à partir d'un registre à décalage en synchronisme avec le signal d'horloge.

 

Clock PLL ou SCL: Borne d'entrée d'horloge.

 

Lock PLL ou Tune SD: Borne de sortie du comparateur de phase.

 

Lorsqu'une commande est détectée, le micro-ordinateur communique avec la mémoire  (EEPROM) et le PLL. Le circuit EEPROM conserve les données de canal de la liste de balayage.

 

La broche ENABLE peut ne pas exister dans le cas d’un bus de communication I2C (communication série synchrone sur 2 fils).

 

Les différents canaux de télévision sont classés en bandes :

 

LB (Low Band) : Canaux de 2 à 6

 

HB (High Band) : Canaux de 7 à 13

 

UB (Ultra Band) : Canaux de 14 à 69

 

MB (Matching Band) : Bande utilisée pour le câble

 

4.1. Oscillateur local contrôlé par synthétiseur à PLL :

Le principe consiste à contrôler la fréquence de l'oscillateur local des sélecteurs VHF et UHF. Afin d'obtenir une grande stabilité de l'oscillateur local, on le compare à un oscillateur à quartz par l'intermédiaire d'un diviseur programmable. En changeant le rapport diviseur, on modifie la fréquence de l'oscillateur donc la fréquence de l'accord RF du récepteur.

Le taux de division correspondant à chaque canal est contenu dans une mémoire morte R.O.M. du microprocesseur. Le transfert d'un taux de division appelé par l'utilisateur vers le diviseur programmable permet le réglage de l'appareil sur la station désirée.

 

4.2. Boucle à verrouillage de phase PLL (Phase Lock Loop) :

 

Le circuit PLL a pour fonction de contrôler la fréquence de l'oscillateur local du syntoniseur. Il comprend un comparateur de phase, un filtre passe-bas et un V.C.O.

Le comparateur de phase a pour but de comparer la phase du signal de sortie du V.C.O. par rapport au signal de référence.

Le rôle du filtre passe-bas est de convertir le signal du comparateur en tension DC dans le but de contrôler le V.C.O.

 

Le rôle du VCO (Voltage Controlled Oscillateur) est de contrôler les variations de tension du filtre et les convertir en variation de fréquence.

 

Pour opérer la sélection des canaux, il suffit de modifier le rapport de division P conformément au  canal désiré.

 

4.3. Principe de fonctionnement du synthétiseur à PLL :

 

L’oscillateur de référence est un oscillateur à cristal dont la fréquence est abaissée par un diviseur fixe de façon à ce que la fréquence à l’entrée du comparateur soit stable et précise. La fréquence d'un cristal de 4 Mhz sera divisée par 29 (512) taux fixe; ce qui donne une fréquence de référence de 7812.5 Hz (pour un cristal de 8 Mhz, la division se fait par 1024).

 

On sélectionne le canal (ou station) par l’intermédiaire d’une télécommande ou d’un clavier. Ceux-ci nous permettent donc de communiquer au microprocesseur le numéro de la station désirée.

À partir de cette information, le microprocesseur détermine à quel facteur de division doit être le diviseur programmable. En réalité pour chaque station, il existe une case mémoire contenant le facteur de division lui correspondant.

Ces diviseurs programmables sont contrôlables numériquement, ceci signifie que la fréquence du VCO est aussi contrôlée de façon numérique.

 

La fréquence de mesure est issue du tuner UHF; elle est d'abord divisée par un taux fixe de 27 (128), puis envoyée au diviseur programmable. Ce dernier reçoit du microprocesseur le taux de division nécessaire (517 dans le cas du canal 14), ce qui détermine à la sortie du diviseur programmable une fréquence de mesure.

 

Le comparateur recevant ces deux fréquences délivre une tension destinée à un filtre passe bas pour informer les varicaps.

 

Le taux de division délivré par le microprocesseur est différent pour chaque canal, de façon à couvrir toutes les bandes.

 

Exemple pratique :

 

Soit à recevoir le canal 14 (NTSC), fréquence image = 471.25 Mhz, I.F. vision = 45.75 Mhz

Fréquence de l'oscillateur local = Fréquence reçue + I.F. = 471.25 Mhz + 45.75 Mhz = 517 Mhz

 

Fréquence de référence: 4 Mhz /  512 = 7812.5 Hz

 

Fréquence reçue délivrée au diviseur programmable: 517 Mhz / 128 = 4039062.5 Hz

 

Le microprocesseur fournit au diviseur programmable le nombre 517 (canal 14)

 

La sortie du diviseur programmable est alors : 4039062.5 / 517 = 7812.5 Hz

 

4.4. Caractéristiques du tuner à PLL :

 

   Très haute précision de la fréquence d'accord

   Grande stabilité de fonctionnement aux conditions de température et d'humidité. Pas de contact mécanique

   Opération très rapide

   Aucun préréglage du canal reçu

   Accord direct avec 10 touches de 0 à 9

   Affichage du canal indiqué soit à l'écran soit sur LED

   Exploration des canaux disponibles (auto programmation)

 

5.  Diagramme synoptique d’un récepteur numérique et définition des différents processeurs

 

5.1. Diagramme fonctionnel d’un téléviseur couleur numérique :

 

Si on compare ces blocs à ceux d’un téléviseur analogique, on aperçoit cinq circuits intégrés à la place de certains blocs. Ces cinq circuits intégrés sont les suivants :

   APU (Audio Processor Unit) = processeur de traitement audio

   CCU (Central Control Unit) = processeur central de contrôle

   DPU (Deflection Processor Unit) = processeur de déflexion

   VCU (Video Coder Unit) = processeur de codage vidéo

   VPU (Video Processor Unit) = processeur de traitement vidéo

5.1.1. Processeur central de contrôle : il s’agit d’un micro-ordinateur organisé autour d’un microprocesseur servant d’interface entre l’utilisateur et le récepteur. Les fonctions suivantes sont intégrées dans le CCU :

     Commande de tuner

     Accord par synthèse de fréquence PLL

     Décodeur de télécommande

     Sélection de programmes par accès direct ou par recherche séquentielle

     Commande directe de l’affichage

Le CCU réalise les fonctions essentielles :

     Traitement des instructions de l’utilisateur. L’information d’accord est stockée dans une mémoire EEPROM capable de conserver : données préréglées des canaux, valeurs préférées de l’utilisateur (volume, luminosité, contraste et saturation etc.), données de l’alignement introduites en cours de fabrication.

     Contrôle des processeurs vidéo (VPU), audio (APU) et de déviation (DPU)

 

Le CCU coordonne l’activité des trois processeurs de signaux au moyen d’un bus IM (intermetall de ITT). Les commandes analogiques sont numérisées par le CCU avant d’alimenter les trois processeurs.

Le bus IM sert aussi :

     À transmettre les instructions de l’utilisateur

     À transmettre les signaux internes de contrôle pour régler l’amplitude des signaux de couleur, la correction est / ouest (E/W), la distorsion en coussin.

 5.1.2. Le processeur de codage vidéo VCU : il fonctionne conjointement avec le VPU et permet de numériser le signal vidéo composite analogique issu du démodulateur vidéo. Le VCU est un codec (codeur-décodeur), c'est à dire un circuit intégré VLSI qui sert à la fois de convertisseur A/D et D/A.

Le convertisseur A/D numérise le signal vidéo composite et l’applique au DPU pour traitement (séparation des impulsions de synchro, synchronisation des étages de déflexion).

Le VPU sépare le signal vidéo composite en deux composantes : le signal de luminance et les informations de chrominance. Après traitement le signal est transmis en parallèle (8 bits) au convertisseur D/A du codec VCU. Les signaux sont reconvertis en analogique par le VCU qui effectue le matriçage des signaux RVB.

 

En dehors des convertisseurs A/D et D/A, le codec effectue les fonctions suivantes :

     Réglage de luminosité

     Ajustement automatique du noir (cut off du CRT)

     Réglage du niveau du blanc obtenu par la modification du gain des amplificateurs R, V et B

     Limitation du courant du faisceau

5.1.3. Processeur de traitement vidéo VPU : il remplit la fonction de décodeur. Ceci inclut :

     La production des signaux de différence de couleur R-Y, B-Y

     L'interrupteur couleur "color switch"

     Le contrôle automatique de la couleur

     Le comparateur de phase pour la sous porteuse couleur

     La ligne de retard

Il présente deux canaux :

     Canal de luminance

     Canal de chrominance

5.1.4. Processeur de déviation DPU : Il effectue toutes les opérations relatives à la déviation :

     Séparation

     Production des fréquences ligne et trame

     Synchronisation

     Diverses corrections de l’image

 5.1.5. L’audio processeur APU : il réalise les fonctions suivantes selon que la source est mono, stéréo ou bilingue :

     Désaccentuation du son transmis en FM

     Réglage linéaire du volume

     Réglage physiologique du volume

     Réglage des aigus

     Réglage des basses

    Réglage de la balance (stéréo)

     Décodage stéréo

     Traitement direct des signaux numériques provenant d’un magnétoscope ou d’un disque digital.

 Dans plusieurs appareils, on peut rencontrer en plus les processeurs suivants :

     CVPU (Comb Video Processor Unit) qui est processeur vidéo à filtre en peigne

     TPU (Teletext Processor Unit) qui est un processeur de télétexte

     MCU (Master Clock Unit) = Processeur horloge maître

  PSP (Progressive Scan Processor) = processeur de balayage progressif 

5.2. Structure de base de processeurs numériques :

 

Pour les applications, jeux vidéo et micro-ordinateur domestique, on retrouve la structure de base suivante :

5.3. Traitement de luminance :

 

 

Il est inutile de numériser le signal de synchronisation ; seul le signal de luminance présente de l’intérêt pour le traitement numérique.

Le signal composite est appliqué à un circuit dont le rôle consiste à :

 

     Séparer par filtrage le signal de luminance du signal de chrominance ;

    Aligner le signal de luminance au niveau du noir (clamping) ;

     Extraire le signal de synchronisation.

 

Le signal (Y) analogique verrouillé est numérisé par le convertisseur A/D. Après traitement numérique, le signal numérique est reconverti en un signal analogique auquel on rajoute le signal de synchronisation.

 

La conversion D/A est suivie par un filtre passe-bas de manière à lisser le signal de sortie.

 

 

L’exemple montre le signal (Y) numérisé sur 4 bits. Toutefois dans la pratique, la numérisation du signal requiert 8 bits ; ceci correspond à 28 amplitudes distinctes soit 256 niveaux distincts.

 

5.4. Traitement de chrominance (signaux RGB)

 

Là encore, le signal de synchronisation n’est pas concerné par le traitement numérique des informations RGB. Les tops de synchronisation ligne et trame sont extraits et pilotent normalement les circuits de balayage. Il existe deux solutions pour le traitement des signaux RGB :

 

5.4.1. Traitement parallèle

 

5.4.2. Traitement multiplexé

 

 

 

Retour à récepteur de télévision numérique

Retour à télévision

Sommaire

Accueil