Retour au menu principal
L'étrange télévision d'Apollo
J'ai trouvé un article intéressant dans la documentation de la NASA au sujet de la manière dont la télévision était gérée dans les missions Apollo, et j'ai décidé d'en faire un document, car il y a beaucoup de choses à dire à ce propos.
Lien vers le document expliquant comment la télévision marchait sur Apollo
Un des problèmes pour montrer la vidéo prise par la caméra d'Apollo 11 sur la télé était que la vidéo prise par la caméra d'Apollo 11 était sur un balayage lent de 10 trames de 320 lignes par seconde alors que le standard NTSC était de 30 trames de 525 lignes par seconde; cela signifie que la vidéo d'Apollo ne pouvait être montrée directement comme telle, mais devait être convertie dans le standard NTSC.
De manière à faire la conversion, ils utilisaient une caméra TK-22 qui avait deux champs entrelacés de 262,5 lignes chacun.
entrelacé veut dire que le faisceau fait un premier balayage de 262,5 lignes, puis revient au milieu de la ligne du haut et fait une second balayage de 262,5 lignes; pourquoi procéder ainsi? Parce que cela améliore la qualité de l'image, que cela évite l'effet de papillotement qui peut être observé dans le cas d'un balayage unique.
Ce qu'ils disent est que, dans le processus de conversion, ils devaient attendre qu'une trame du balayage lent de la vidéo Apollo soit terminée avant d'enregistrer le premier champ de la caméra TK-22, mais, comme le retour vertical était très court (2,5 millisecondes), ils n'avaient que le temps d'enregistrer le premier champ, et non le deuxième champ entrelacé.
Mais ils ne pouvaient pas laisser le deuxième champ entrelacé vierge, et ils ont donc décidé de dupliquer le premier champ enregistré dans le second champ entrelacé.
Donc, ce qu'ils faisaient pour reconstituer les trames du standard NTSC, qui correspondaient à une trame du balayage lent de la vidéo Apollo, était d'enregistrer le premier champ, puis de retarder d'une demie ligne le champ enregistré pour générer le second champ entrelacé, puis deux fois encore le champ enregistré et le champ enregistré retardé.
De cette manière ils reconstituaient la vidéo Apollo dans le standard NTSC...mais le problème était que les 320 lignes de la vidéo originale étaient réduites à seulement 262 lignes dans la vidéo convertie, paradoxalement impliquant une perte de qualité, alors que le standard NTSC avait plus de lignes que la vidéo Apollo!
Mais c'est stupide, car ils n'avaient pas à attendre la fin d'un balayage de la vidéo Apollo pour l'enregistrer, ils pouvaient parfaitement l'enregistrer de manière continue; de cette manière, il n'y aurait pas eu de perte de qualité!
La vidéo NTSC était enregistrée sur une bande magnétique large de 2 pouces (5 centimètres) à une vitesse de défilement de 3,7 pouces (9,4 centimètres) par seconde.
Vous pourriez donc penser que le signal de la vidéo d'Apollo originale qui couvre une bande passante plus basse serait enregistré à une vitesse plus lente?
Non, parce qu'ils enregistraient le signal original complet avec la porteuse haute fréquence, et, comme la fréquence du signal transmis est bien plus élevée, ils devaient faire avancer la bande magnétique à une vitesse insensée de 120 pouces (305 millimètres) par seconde!
Cela n'a pas de sens, car ils n'avaient besoin que d'enregistrer le signal démodulé de bien plus basse fréquence, et non la porteuse elle-même qui a une fréquence bien plus élevée et ne contient pas d'information en elle-même.
Pas étonnant s'ils enregistraient de l'information inutile qu'ils avaient besoin de tonnes de ruban magnétique, et qu'ils étaient si à court de bande magnétique que, à la fin des missions, ils devaient utiliser les bandes de la première mission pour continuer à réaliser des enregistrements!
Cela pourrait expliquer pourquoi les bandes d'Apollo 11 ont disparu!
La NASA a également utilisé une caméra couleur westinghouse dans les missions Apollo.
Le problème avec cette caméra est qu'elle enregistrait les trois canaux (rouge, bleu, et vert) séparément, alors que les signaux de rouge, bleu et vert étaient mélangés ensemble dans le signal NTSC.
Et la caméra enregistrait aussi à un taux plus bas que celui du standard NTSC.
Donc, pour convertir la sortie de la caméra dans le standard NTSC, ils avaient imaginé le système suivant, dans lequel la sortie de la caméra était d'abord enregistrée sur un premier magnétoscope tournant à la vitesse de la sortie de la caméra, puis la sortie de ce magnétoscope rentrait dans un second magnétoscope tournant à la vitesse du standard NTSC; les trois couleurs étaient périodiquement mémorisées à un taux de 20 fois par seconde, et puis mélangées ensemble pour reconstituer le standard NTSC.
Cela semble marcher, mais cela semble seulement.
En effet, le standard NTSC fonctionne à 30 trames par seconde; donc, si les canaux de couleur sont rafraichis à seulement 20 fois par seconde, cela signifie que les trames étaient affichées plus vite que le rafraîchissement des couleurs, et que conséquemment il y avait des trames avec une seule couleur.
Des trames avec une couleur unique peuvent faire une belle animation psychédélique, mais je doute que cela permette de voir la vidéo filmée par la caméra couleur!
Ils disent que le module lunaire a rencontré des problèmes de pointage d'antenne durant la descente motorisée, et que donc la large parabole du radar de Goldstone ajoutée à celle du radar de Parkes (en Australie) ont permis d'accroître la sensibilité de la réception du signal transmis et de compenser les problèmes de direction d'antenne du module lunaire.
Mais, si le module lunaire rencontrait vraiment des problèmes pour pointer son antenne vers la terre, ce n'est pas cette sensibilité accrue qui pouvait aider.
Evidemment, si le module lunaire se comportait de manière insensée comme ce que nous voyons que la vidéo Apollo, pas étonnant que le module avait des problèmes de pointage d'antenne!
La vérité est que, si le guidage du module lunaire s'était fait de manière normale, la rotation du module aurait été lente et régulière, et le module lunaire n'aurait pas eu de problèmes de pointage d'antenne, car il aurait eu tout le temps pour pointer correctement, et de manière précise, son antenne vers la terre.
De plus, si le module lunaire avait vraiment été en train d'alunir et se comportait de la manière absurde que nous voyons sur la vidéo, il avait toute chance de s'écraser sur la lune!
Ils disent que le signal de télévision était démodulé et remodulé sur deux porteuses différentes afin de procurer de la redondance en cas de panne d'un poste de réception à Houston.
Mais pourquoi démoduler le signal de télévision pour le remoduler?
Pourquoi ne pas retransmettre le signal originellement reçu?
Pour qu'il puisse être modulé sur deux porteuses différentes pour procurer de la redondance?
Mais, s'il y avait eu un problème de transmission avec Houston, cela aurait affecté les deux porteuses.
La vraie redondance aurait été de transmettre un signal unique, mais d'avoir deux unités de réception à Houston de sorte que, si l'une tombe en panne, l'autre puisse prendre le relais.
Ils disent que les ingénieurs de la NASA furent envoyés à Parkes, en Australie, pour aider à l'adapter pour la réception du signal Apollo.
Oh vraiment?
Je pensais que Parkes était une source indépendante confirmant qu'Apollo était réel.
Indépendant aurait signifié qu'il était indépendant de la NASA, ce qui s'avère faux.
Cette antenne était aussi sous le contrôle de la NASA.
Dans la vidéo du module de commande, deux barres horizontales étaient visibles; Westinghouse aurait trouvé l'origine du problème dans une boucle interne causant des variations du moteur de la roue de couleur induites dans la sortie vidéo; mais ces lignes sont trop régulières pour avoir cette cause comme explication; en fait la couleur de ces barres correspond au fond de l'image, simplement plus claire ou plus sombre; si cette cause avait été réelle, nous aurions vu de vraies variations de couleur, pas simplement des variations de luminosité.
Ils disent que, lorsqu'Aldrin est rentré dans le module lunaire, il a enlevé la moisissure qui s'était accumulée sur les fenêtres du module.
La moisissure, dans cet environnement?
Oh j'oubliais que nous étions sur le plateau de la fausse lune!
La caméra lunaire Westinghouse était placée de biais dans la MESA, pas complétement verticale.
Le résultat est qu'elle filmait de biais, ce qui explique sur l'horizon lunaire était vu sous un angle de 11 degrés (à ce qu'ils disent).
C'est effectivement ce que nous voyons sur la vidéo d'Apollo 11, mais dans ce cas, Pourquoi est-ce qu'Armstrong n'apparaît pas aussi de biais?
Cela signifie-t-il qu'il se tenait penché pour corriger l'inclinaison de la caméra de telle sorte qu'il apparaisse vertical sur la vidéo?
Quelle touchante attention!
Ils disent que l'équipage aurait pu déployer une antenne S-Band érectile pour procurer des signaux plus puissants, mais, puisque les paraboles de 64 m de Goldstone et Parkes étaient en service, cela n'était pas nécessaire!
Foutaise, ce n'est pas une excuse; s'ils avaient la possibilité d'ériger une antenne pour accroître la puissance du signal, ils auraient dû le faire!
Il y avait toujours la possibilité qu'un signal faible se perde dans l'atmosphère terrestre, et, même avec de larges paraboles, il y aurait eu des problèmes de réception.
Ils disent que Houston était connecté à la vidéo de Goldstone et a vu une vidéo inversée; Houston a dit à l'opérateur du convertisseur de standard vidéo de placer l'inverseur du convertisseur sur la position correcte, et l'affichage vidéo est alors apparu normal, quoiqu'avec un mauvais contraste.
Oh vraiment, ils ont dû dire à l'opérateur ce qu'il avait à faire, il n'a pas pu le voir par lui-même?
Que faisait-il pendant ce temps? Une sieste?
Il semble que "le plus grand moment dans l'histoire" ait été traité d'une manière absolument pas professionnelle!
Ils disent que la vidéo reçue depuis Honeysucle creek (à droite) était de meilleure qualité que celle reçue depuis Goldstone (à gauche).
Mais, ce n'est pas parce que la qualité de réception aurait été meilleure à Honeysuckle creek qu'à Goldstone, la qualité de réception était équivalente.
C'est le contraste de la caméra filmant la scène qui est mieux ajusté sur la vidéo de Honeysuckle creek que sur la vidéo de Goldstone.
Mais ce n'est pas possible, car il n'y avait qu'une seule caméra filmant sur la lune, et un seul signal vidéo transmis.
Le technicien de la télévision de Goldstone inversa la polarité vidéo du moniteur de scan, et Houston vit ce qui est montré sur l'image de gauche de la vue stéréoscopique.
Et, après que l'équipe de la NASA de la mission Apollo 11 ait rechangé la vidéo négative en vidéo positive pour l'archivage, ils ont obtenu une image sensiblement améliorée (à droite de la vue stéréoscopique) relativement à l'image originale.
Donc, si vous voulez améliorer une vidéo, tout ce que vous avez à faire est de l'inverser, et de l'inverser à nouveau pour la remettre en normal?
C'est original!
Houston vit que l'image reçue depuis Parkes (à droite de la vue stéréoscopique) était bien meilleure que celle reçue depuis Goldstone (à gauche de la vue stéréoscopique); ils sont donc restés avec l'antenne de Parkes pour le reste de la mission.
Mais ici, il est absolument évident que ce n'est pas un problème de réception du signal vidéo; l'explication peut seulement être que la scène est éclairée différemment dans les deux vidéos!
Cette vue stéréoscopique montre, sur la gauche la vidéo originale, un balayage lent de 320 lignes et 10 trames par seconde, prise avec un polaroid, et, sur la droite, la vidéo convertie dans la standard NTSC, 525 lignes et 30 trames par seconde, avec une importante perte de qualité à cause de la manière aberrante dont la conversion était faite (décrite au début du document).
Nous voyons effectivement que la qualité est meilleure sur l'image de gauche, mais il y a cependant une anomalie: Voyez le bord de l'échelle, il a un meilleur contraste sur l'image de droite!
Comment la perte de qualité peut-elle améliorer le contraste?
Cette vue stéréoscopique montre, sur la gauche une photo polaroid du moniteur Fairchild de Goldstone, et, sur la droite une scène similaire de l'archive de la NASA.
A nouveau la qualité semble meilleure sur la gauche, mais voyez le drapeau: Il a un meilleur contraste sur l'archive de la NASA que sur la photo polaroid.
Sur Apollo 12, c'était à présent une caméra couleur qui filmait, mais, à nouveau dans la MESA, elle était placée de manière à être de biais.
Le résultat est que l'horizon lunaire apparaissait avec un angle, mais l'astronaute apparaissait bizarrement vertical, et non de biais comme il aurait dû.
Et la caméra filme ici Alan Bean après il ait détaché la lanière de fixation de la caméra, et s'apprête à la saisir.
Mais, pourquoi Alan Bean apparaît-il sous cet angle bizarre, et si distant?
Ils disent que le signal vidéo passait à travers un filtre passe-bas pour le séparer des sous-porteuses de la télémétrie et de la voix, mais le signal vidéo (3MHZ) avait une fréquence plus élevée que celle des sous-porteuses de la télémétrie et de la voix (1,024MHZ and 1,25MHZ), et c'est donc plutôt un filtre passe-haut qui aurait dû être utilisé pour éliminer les signaux de télémétrie et de voix!
Ils disent que Bean aurait accidentellement exposé la caméra au soleil (apparaissant dans le coin haut gauche de cette image), et que le soleil aurait endommagé la caméra.
Après cela une zone blanche serait apparue de manière permanente sur le haut de l'image.
De retour sur terre, la caméra a été examinée.
Et effectivement la zone blanche pouvait être observée sur l'image.
Mais en fait, nous ne voyons pas une zone uniformément blanche; nous voyons des choses étranges dessus, que j'ai cerclées.
Et la chose de gauche ressemble étrangement à un voilier!
Ils ont découvert que, lorsqu'ils coupaient le circuit de contrôle automatique de luminosité, l'image apparaissait normale à nouveau.
Sur ce schéma, ils expliquent comment la zone de réception de l'image était endommagée.
Ils montrent même le dommage en trois dimensions.
Ils disent que la combinaison de l'endommagement de cette zone de réception et du contrôle de luminosité automatique causait la perte partielle de l'image.
Oh vraiment? J'aurais plutôt pensé que le simple fait de l'endommagement de la zone de réception de l'image était suffisant pour causer la perte partielle de l'image!
Et, si le soleil était si dangereux pour la caméra vidéo, nous pouvons nous demander comment il n'a pas aussi brûlé la pellicule de la Hasselblad lorsque les astronautes ont directement photographié le "soleil".
Donc, la Hasselblad aurait bien été protégée des effets du soleil lunaire, mais pas la caméra vidéo?
Pour éviter que le problème ne se reproduise, ils ont équipé la caméra vidéo avec un bouchon, attaché au cou de la caméra, que l'astronaute plaçait sur l'objectif lorsqu'il déplaçait la caméra pour la protéger du soleil.
Ah oui, c'est tout ce qu'ils ont trouvé?
Ils n'auraient pas plutôt pu trouver un moyen de protéger le tube de la caméra contre une lumière violente?
Et si l'astronaute oublie de placer le bouchon (ou la caméra tombe après qu'il ait enlevé le bouchon)?
Sur Apollo 14, ils ont essayé différents ajustements pour la caméra, avec la caméra mise à "Maximum" sur le gauche de la vue stéréoscopique, et mise à "médium" sur la droite.
Avec la caméra mise à "médium", le sol lunaire apparaissait meilleur, mais les habits blancs des astronautes apparaissaient surexposés.
Toutefois, il y a quelque chose d'étrange: Quoique la scène apparaisse globalement plus sombre sur la gauche, l'ombre du module lunaire n'apparaît pas complétement remplie de noir sur l'image de gauche alors qu'elle l'apparaît sur l'image plus claire de droite!
Puisque le sol lunaire apparaissait mieux avec la caméra réglée sur "medium" les contrôleurs du sol demandèrent aux astronautes de garder ce réglage, quoique leurs habits apparaissent surexposés.
Ils disent qu'ils pouvaient améliorer l'image avec la caméra réglée sur "maximum" (à gauche de la vue stéréoscopique) en appliquant une correction gamma (à droite de la vue stéréoscopique); mais pourquoi est-ce que l'image corrigée en gamma a une couleur si différente de l'image non corrigée?
Ils disent que la caméra couleur Westinghouse utilisée à bord du module de commande d'Apollo 14 n'était pas restreinte en bande passante, mais pourtant l'image qu'elle prenait était loin d'être excellente, plutôt granuleuse.
Ils disent qu'il y avait un problème avec la présence des sous-porteuses de la télémétrie et de la voix au milieu de la bande passante de la vidéo à 1.024 et 1.25MHZ.
Ils ont donc imaginé un moyen d'éliminer ces sous-porteuses perturbantes en appliquant des contre-signaux pour soustraire ces sous-porteuses du signal.
De cette manière ils obtenaient un meilleur signal, et ils montrent la différence de qualité qu'ils obtiennent en ajoutant cette unité de suppression de sous-porteuses.
Mais, s'ils éliminent les sous-porteuses de la télémétrie et de la voix, la télémétrie et la voix ne peuvent plus être extraites du signal!
Il serait donc bien plus simple de ne pas mélanger les signaux de télémétrie et de voix avec le signal vidéo.
En fait il y a une solution simple qui permet de garder la voix et la télémétrie dans le signal, sans que leurs sous-porteuses interférent avec le signal vidéo:
Ce serait de changer les fréquences des sous-porteuses de la voix et de la télémétrie de manière à ce qu'elle n'interférent plus avec le signal vidéo.
Il y a assez de fréquences disponibles pour ce faire.
Ils disent que la caméra d'Apollo 15 n'a pas essayé de suivre le module lunaire dans le ciel lunaire parce que la caméra avait des problèmes d'élévation.
Pourtant, juste après que Scott ait garé la rover dans sa position finale, un peu avant le décollage, la caméra ne semblait pas avoir un tel problème, car elle pouvait bouger verticalement.
Le problème venait d'un problème résultant après que la caméra était bougée en extrême basse position.
Mais, pour filmer l'ascension du module, la caméra ne devait pas descendre de toute façon, mais monter!
Ce ne devrait donc pas avoir été un problème.
Et ils auraient au moins du essayer de toute façon, car le seul risque était que cela ne marche pas.
Même si la caméra était restée bloquée en position haute, quel est le problème puisqu'il n'y avait plus rien de mobile à filmer en position horizontale.
Ils ont trouvé un moyen d'améliorer l'image en faisant une transformation d'image qui consistait à combiner quatre images de la vidéo pour faire chaque nouvelle image; ils privilégiaient des portions statiques de l'image, mais le résultat est que les mouvements dynamiques rapides étaient moins bien rendus.
Cela explique probablement pourquoi le mouvement des astronautes semblait si étrange, avec des gestes saccadés.
Ils disent que, depuis Apollo 16, la caméra de la rover était capable de filmer l'ascension du module lunaire retournant vers le module de commande en programmant de manière précise les commandes d'élévation de la caméra.
Dans ce cas, pourquoi l'ascension du module lunaire dans Apollo 17 apparaît-elle si étrange, avec le module redescendant sur l'image après avoir d'abord monté (et cette sinusoïde horizontale étrange à la fin de laquelle le module disparaît de l'image)!
Et, que dire de Cernan nettoyant l'objectif de la caméra dans Apollo 17; comment pouvait-il savoir que de la poussière avait atteint l'objectif de la caméra alors qu'il ne pouvait voir la vidéo filmée par la caméra (et que les opérateurs de Houston ne l'ont pas averti dans la transcription du dialogue)?
Et comment la poussière a-t-elle pu atteindre la caméra sans vent pour la projeter dessus?
Pour terminer ce document, je vais parler de la recherche des bandes magnétiques manquantes d'Apollo 11.
Lien vers la recherche des bandes d'Apollo
Il a été récemment rendu public que la NASA aurait perdu les bandes originales d'Apollo 11.
J'ai trouvé un article intéressant traitant de la recherche vaine de ces bandes.
Les bandes originales d'Apollo contenaient une meilleure vidéo que ce qui a été montré sur la télévision au temps de l'alunissage (à cause de la conversion aberrante décrite au début du document).
Ils ont donc recherché les bandes vidéo originales, car ils ont pensé que, avec la technologie moderne, il serait possible d'en faire une meilleure conversion.
Le personnel de Goddard, pensant que programme Apollo n'avait plus besoin des données, avait envoyé les boîtes contenant les bandes au WNRC pour stockage.
Ils ont finalement trouvé une boîte légèrement endommagée contenant neuf bandes étiquetées "NCG-721", et ils étaient sûrs qu'elles étaient d'Apollo 11.
Malheureusement, elles contenaient des données de la mission Apollo 9 enregistrées aux iles Canaries en 1969.
Un retraité a affirmé qu'il avait doublé la bande de l'enregistrement M-22 original pour garder trace du jour historique.
Pendant 36 ans, la bande avait langui dans le garage de sa maison de Canberra.
Lorsqu'ils ont finalement trouvé l'homme et obtenu la bande de lui, ils étaient pleins d'espoir, certains qu'ils verraient Armstrong descendre l'échelle.
Mais, quand ils visionnèrent la bande, leur déception fut grande de voir qu'elle ne contenait que du bavardage et des données de simulation datant d'octobre 1967.
Le détenteur de la bande leur dit que, dans la confusion du jour, il pouvait avoir emporté la mauvaise bande!
Après une longue recherche, ils pensent qu'ils pourraient avoir trouvé des bandes vidéo et films ayant rapport avec l'événement, mais les bandes étaient vierges, et les films contenaient des événements sans rapport.
La conclusion finale est que la NASA était si à court de bandes magnétiques qu'elle a probablement réutilisé les bandes d'Apollo 11 pour un autre usage.
Pas étonnant s'ils enregistraient le signal original non démodulé à une vitesse insensée de 120 pouces par seconde!
Ils faisaient un usage intensif de bandes magnétiques, et, à un moment donné, ils ont du réutiliser des bandes magnétiques qui avaient déjà été utilisées.
Nous n'aurons jamais la une bonne qualité vidéo du moment historique...sur le plateau de la fausse lune!