TV-billedets formater og standarder

Indledning

Hensigten med denne artikel er at give et overblik over fjernsynsbilledets historiske udvikling fra de første primitive eksperimenter frem til dagens avancerede HD teknologi. Af hensyn til overblikket er de tekniske standarder kun beskrevet i den udstrækning, det er nødvendig for at illustrere teknologien. Eventuelle ønsker om nærmere specifikationer må derfor henvises til individuel søgning i den tekniske litteratur. Endvidere skal det bemærkes, at selv om billede og lyd er ligeværdige dele af et tv-signal, beskriver artiklen kun videodelen.

Lidt forhistorie

Fjernsyn som teknologi er nok lidt ældre end de fleste forestiller sig. Allerede i 1843 fik skotten Alexander Bain patent på en metode til at overføre billeder ved hjælp af det telegrafisystem, som englænderen Samuel Morse havde opfundet 3 år tidligere. Løsningen var dog alt for langsom til at kunne overføre levende billeder. Bains opfindelse fik derfor først betydning ca.100 efter hans død, hvor den dannede grundlag for den moderne fax maskine. I 1884 skete der igen noget, idet den tyske ingeniør Paul Nipkow fik patent på et system, hvor man skannede motivet via en roterende skive med huller i spiralform og med en tilsvarende skive i modtageren kunne aflæse billedet. Også det system var dog langt forud for sin tid, så først da italieneren Marconi i 1896 succesfuldt havde demonstreret (og patenteret) trådløs telegrafi begyndte der at komme gang i udviklingen. I flere europæiske lande blev der i begyndelsen af 1900-tallet gjort forsøg på at udvikle et system, som med mekanisk billedscanning kunne overføre levende billeder.

Det spæde grundlag for fjernsynet som medie blev dog først skabt, da det i midten af 1920’erne lykkedes den skotske radioingeniør J.L. Baird at overføre genkendelige billeder med netop Nipkow-skiven. Fra 1929 blev dette system anvendt til prøveudsendelser i England og Tyskland, men kvaliteten var meget ringe.

Oprindeligt var billedfladen kun på 2 x.....

(her er lidt tekst gået tabt da vi forlod 123-hjemmesiderne)

........og den bestod af 30 linier med i alt 900 billedpunkter (pixels). Selv om Bairds mekaniske system blev udvidet til 240 linier, gik udviklingen ret hurtigt i retning af et elektronisk system. Her havde en af fædrene til nutidens fjernsyn, den russiskfødte USA-emigrant Vladimir Zworykin, i 1929 præsenteret det første fuldt elektroniske tv-system bestående af et elektronisk kamerarør, benævnt 'ikonoskopet' , og et billedrør, benævnt 'kineskopet'.
I England fik en elektronisk standard med 405 linier og 50 billeder pr. sekund premiere den 2. november 1936 til udsendelse fra verdens første tv-studie med regelmæssige, programsatte fjernsynsprogrammer. I USA sendte man i 1939 elektronisk fjernsyn med 343 linier og 60 billeder pr. sekund fra en sender på toppen af Empire State Building. I Tyskland blev Paul Nipkow offentlig hædret som ”fjernsynets fader” med både en fin titel og en økonomisk belønning. Alligevel indførte Tyskland i 1935 det elektroniske fjernsyn, og ved OL i Berlin 1936 blev der sendt tv-transmissioner fra 4 kameraer, der med en 180 liniers standard anvendte Zworykins’s ikonoskop, en standard der dog i 1938 blev opgraderet til 441 linier.

TV som offentligt medie
Hele den udvikling, der med stigende tempo op gennem 1930’erne pegede frem mod fjernsynet som et publikumsmedie, blev brat og brutalt afbrudt, da verdenskrigen brød ud i 1939. BBC, som på det tidspunkt havde sendt regelmæssigt i 3 år, afbrød udsendelserne midt i et program og genoptog dem først 7 år senere. Man kan sige, at fjernsynsmediet var blevet ”sat på hold” næsten inden det var kommet ud af ”starthullerne”, så med lidt god vilje kan man godt sige, at TV som det kendes i dag blev ”født” i slutningen af 1940’erne. Nu startede ganske vist en anden - men dog langt fredeligere - krig, nemlig krigen om, hvilke tekniske standarder man skulle vælge. Mange forslag var i spil, men ingen af dem kunne samle international enighed. To ting var der dog konsensus om, dels at bruge billedformatet 4:3, dels at benytte såkaldt ”interlaced” billedskanning. Interlaced er en metode, hvor det enkelte billede opdeles i to delbilleder. Det sker ved først at skanne hver anden linie, dvs. linie 1-3-5- osv. og derefter de resterende linier, dvs. linie 2-4-6- osv. Herved opnås, at man med begrænset båndbredde kan opnå en billedfrekvens, der er høj nok til at eliminere det billedflikker, som det menneskelige øje vil registrere ved billedfrekvenser under ca. 50 Hz. Men da det kom til linieantal og billedfrekvens kunne der ikke samles enighed om en fælles standard. USA valgte 525 linier / 60 delbilleder pr. sek. Europa inklusiv Sovjetunionen men eksklusiv England og Frankrig, valgte 625 linier / 50 delbilleder. England valgte at bibeholde deres førkrigsstandard med 405 linier / 50 delbilleder, mens Frankrig valgte en helt ny standard på 819 linier / 50 delbilleder.
Konsekvensen af de forskellige billedstandarder blev en del problemer i forbindelse med udveksling af programmer mellem landene. Med den tids teknologi var det meget kompliceret (og dyrt) at konvertere mellem de forskellige standarder. Således var der i mange år kun et par anlæg i Europa, som kunne udføre konvertering. Direkte transmissioner mellem lande med forskellig standard skulle således først sendes til et land med en konverter (gennem eurovisionens radiokædenet) og herefter videre til modtagerlandet. Specielt ved distribution af programmer fra USA var det derfor i den periode meget almindeligt at benytte såkaldte ”telefilm”. Metoden bestod i, at et standard filmkamera optog et tv-program ved at affilme en tv-skærm. Fordelen ved den metode var, at alle radiofonier havde udstyr til at sende film, men ulempen var en ofte ret dårlig billedkvalitet.


Farve-TV

Indtil medio 1960´erne var stort set alle fjernsynsudsendelser monokrome, altså sort/hvide billeder. Farvefjernsynets historie er dog lidt ældre, for allerede i 1954 blev der i USA sendt 500 farve-tv apparater på markedet (et lille fra RCA). Programudbuddet var imidlertid meget beskedent, for samme år sendte det nationale netværk NBC kun 68 programmer i farve. Men ”slagsmålet” om, hvordan farveinformationen skulle indpasses i sendestandarderne var begyndt. Egentlig burde man have defineret en helt ny standard, hvor der var plads til at separere det monokrome signal og farveinformationerne, såkaldt komponent video. Men dels ville det kræve en væsentlig forøgelse af båndbredden (med deraf følgende reduktion i antallet af programkanaler), og dels ønskede man fuld kompatibilitet med det bestående system, således at de sort/hvide modtagere uden modifikation kunne give en monokrom version af farveudsendelserne. I USA, som altså var først med farve-tv, definerede man derfor i 1953 et system, hvor farveinformationerne blev lagt ind i det monokrome signal på en måde, så de med en dekoder i farvemodtagerne kunne trækkes ud igen. Det skete i praksis ved at ligge en bærebølge ind i et af mellemrummene i videosignalets kamspektrum. Denne ”farvebærebølge” moduleres så på en måde, der kaldes ”kvadraturmodulation” (en kombination af amplitudemodulation og fasemodulation). Der er imidlertid flere problemer med metoden. For det første var dekoderne - især i de tidlige år - ikke ”skarpe” nok til at ”skære” farveinformationerne ud af det monokrome signal. Det gav anledning til nogle utilsigtede effekter som følge af ”overhøring” mellem det monokrome signal og farveinformationerne. For det andet var denne metode, der blev kaldt 'komposit video' (sammensat billedsignal), meget følsom overfor fasefejl i farvesignalerne. Hele videosignalet benævnes ofte som et ”YUV-signal”, hvor Y står for det monokrome signal og UV står for 2 såkaldte ”farvedifferenssignaler”. Når det er muligt at ”nøjes” med 2 farvesignaler - til trods for, at farvefjernsyn skal bruge de 3 primærfarver rød, grøn og blå (RGB) for at genskabe farvespektret - skyldes det, at når man kender det monokrome signal og de 2 farvedifferenssignaler, der repræsenterer henholdsvis Y-rød og Y-blå, er det matematisk ret enkelt at udlede den tredje primærfarve. Når det desuden er muligt at ”nøjes” med farvesignaler, der i forhold til det monokrome signal har væsentlig begrænset båndbredde (ca. 1,3 MHz i forhold til 5 MHz), skal årsagen findes i det menneskelige øjes fysiognomi, hvor de farvefølsomme - men mindre lysfølsomme - tappe ikke kan skelne detaljer i samme grad som de meget lysfølsomme stave, der til gengæld ikke kan skelne farver.
Det system USA valgte - og som blev udbredt til det meste af det amerikanske kontinent samt til Japan, Korea og Taiwan - blev kaldt NTSC, en forkortelse af National Television Systems Committee.
Da det i 1960érne blev Europas tur til at vælge system var man noget kritisk overfor NTSC standarden, for den havde vist sig temmelig følsom overfor støj i sendevejene, specielt hvis modtageforholdene ikke var optimale vil billedet vise forkerte farver. Dette gav i øvrigt anledning til, at NTSC undertiden blev forklaret som ”Never Twice the Same Color”. En ingeniør hos Telefunken, Walter Bruch, udviklede derfor en modificeret metode til indlægning af farveinformationer i det monokrome signal. Systemet, der fik navnet PAL, en forkortelse af Phase Alternating Line, er baseret på, at krominanssignalerne (farveinformationerne) fasevendes 180 grader for hver anden linie. Herved opnås, at en eventuel farvefejl som følge af faseforskydning neutraliseres af den efterfølgende linies modsatte farveændring. PAL systemet, med flere undernormer blev indført som standard i det meste af Europa og senere også i Kina, Brasilien, Argentina. Frankrig ville dog igen have deres egen standard, nok mere af politiske grunde end tekniske. Det franske system blev kaldt SECAM, en forkortelse for Sequential Couleur à Mémoire. SECAM som analogt sendesystem fik desuden udbredelse i Nordafrika og i en del østeuropæiske lande inkl. Rusland.


Digitalisering

Som det fremgår satte overgang til farve-tv yderligere skub i formatforvirringen, ligesom et stigende antal videobåndformater øgede graden af signalforringelser som følge af gentagne overspilninger. Alt dette kom der først rimeligt styr på, da der i løbet af 1980’erne blev skabt grundlag for at digitalisere tv-signalet. Overgangen til digital signalbehandling gav en række fordele, hvoraf især følgende skal fremhæves:
    Et digitalt signal kan uden væsentlig kvalitetsforringelse komprimeres. Herved skabes der indenfor de eksisterende båndbredder plads til kvalitetsforbedringer så som adskillelse af det monokrome signal og farveinformationerne (komponent video) og på det seneste også til introduktion af HD-TV.
    Digitale signaler kan uden kvalitetsforringelse bearbejdes, distribueres, opbevares og overspilles mellem forskellige lagermedier.

Trods alle fordele ved digitalisering af de basale analoge signaler kan der opstå negative effekter, hvis grundlæggende betingelser negligeres. Det gælder kvaliteten af selve digitaliseringen og det gælder graden af kompression. Digitaliseringen skal således foretages med en samplingsfrekvens, der er høj nok til at genskabe billedets mindste detaljer i korrekt analog form, og med en samplingsdybde, der er tilstrækkelig til at gengive det oprindelige signals billedgradationer. Her skal der også huskes på, at digitalisering ikke er et mål i sig selv, men et middel til - med høj kvalitet - at transportere, bearbejde og lagre de billedinformationer, der i sin oprindelse er analoge og som i sit endemål skal præsenteres i analog form.

Endnu en gevinst ved overgangen til digitalt tv var, at det gav anledning til, at der for første gang opstod en fælles international standard for videosignaler i produktionsfasen. Det skete, da den internationale telekommunikationsunion ITU-R (som dengang hed CCIR) i 1982 publicerede en standard for digitalisering af 525 linier/60Hz og 625 linier/50Hz analoge videosignaler. Disse to analoge standarder, der hidtil var blevet kodet til hhv. NTSC og PAL, blev nu begge, og uanset billedfrekvens, digitalt samplet med 13,5 MHz for luminanskanalen og 2 gange 6,75 MHz for de 2 krominanskanaler, hvilket giver en skærmopløsning på 720 pixel luminans og 2 x 360 pixel krominans pr. linie. Samplingsdybden skal være mindst 8 bit, men 10 bit sampling er blevet en de facto interfacestandard indenfor professionelt videoudstyr. Denne standard omtales ofte under betegnelsen ”4:2:2”, hvor tallene står for, at luminanskanalens samplingsfrekvens er ca. 4 x farvebærebølgen i komposit systemet og farvesignalerne er 2 x farvebærebølgen. Første version af ITU-R rekommandationen definerede kun et parallel interface med 8 – 10 x 27 Mbit/sek. datastrømme, men senere kom der et serielt interface, som i en 270 Mbit/sek. version er blevet det mest brugte interface mellem professionelt udstyr til standard digital video.

HD-TV og formatskift
Allerede i det analoge tv-univers var der tiltag til at introducere et helt nyt billedformat med high definition billedkvalitet i et nyt, bredere skærmformat. EBU (European Broadcast Union) udarbejdede et systemforslag baseret på en 1250 linier/50 Hz standard i et 16:9 billedformat. Projektet kom så langt, at der blev fremstillet nogle få sæt produktionsudstyr, men det kom aldrig bredere ud. Årsagen var todelt. For det første krævede det en urealistisk stor båndbredde, specielt i sendesystemet, men også lagermediet, som på den tid udelukkende var bånd, ville give problemer. For det andet kunne billedrørene ikke fremstilles i en størrelse, der var stor nok til at seerne ville få rimeligt udbytte af den højere billedkvalitet. Første del blev løst ved digitaliseringen af tv-systemerne - og anden del blev løst, da fladskærmsteknologien kom på markedet.

  I 1990 publicerede ITU-R således første udgave af en rekommandation for digitalt HD-TV i billedformatet 16:9. Denne rekommandation beskriver flere måder at skanne billedet på, idet der kan vælges mellem interlaced skan (hvert billede delt i 2 delbilleder) eller progressiv skan, dvs. at alle billedets linier skannes hver gang. Det lyder forvirrende og kompliceret, men er det reelt ikke, for moderne tv-modtagere kan uden problem behandle begge systemer. Typisk er der tale om enten 1080 linier interlaced skan eller 720 linier progressiv skan. Det retoriske spørgsmål er så: kan man se forskel? I mange tilfælde næppe, for her er tale om et valg mellem maksimal opløsning (skarphed) ved hurtige billedbevægelse og maksimal opløsning ved stillestående billeder. Sagen er, at ved hurtige bevægelser i billedmotivet vil interlaced skan give en lille sløring (de 2 delbilleder bliver lidt forskudte), mens det ved stillestående billeder har fordel af de mange linier. Modsvarende vil progressiv skan give stor skarphed ved bevægelige billeder, men lidt mindre opløsning ved stillestående motiver.

  Det nye 16:9 billedformat var allerede kommet med i ITU-R’s rekommendation for digitalisering af standard video (uden ændring af standarden i øvrigt). Man kunne mistænke elektronikindustrien for at presse et sådant forslag igennem for at kunne sælge nye tv-apparater. Om det er sandt skal være usagt, men der er faktisk reelle og gode grunde til at indføre et bredere skærmformat. Filmindustrien har for mange år siden bredt billedet ud. En væsentlig grund til det er, at det menneskelige synsfelt er væsentlig større horisontalt end vertikalt – af den simple grund, at vi har 2 øjne. Et bredformat billede vil derfor kunne fylde synsfeltet ud og dermed give en visuelt større og bedre billedoplevelse.


Summering

Som afslutning på denne artikel ses et principdiagram over, hvordan optiske lysstråler fra et motiv via farvefølsomme spejle og lysfølsomme sensorer (CCD’er) omdannes til elektroniske signaler (RGB), der via en matrice kan omformes til et monokromt signal og 2 farvedifferenssignaler (analog komponent), der igen kan kodes til komposit video (PAL) eller konverteres til digital komponent video i parallel eller seriel form (270 Mbit/sek), sidstnævnte som basis for det/de digitalt komprimerede signaler der går til sendesystemet og til diverse lagermedier.


DR Museum.
Januar 2011


Jørgen Møller-Nielsen


Benny Andersen 31.05.2022 13:24

Tak for en meget informativ hjemmeside. Omkring overgangen til farve-tv i 1968 blev der hver dag sendt en lille tegnefilm, der forklare tekniken bag farver.

Thomas 23.02.2018 20:55

"..det menneskelige synsfelt er væsentlig større horisontalt end vertikalt.."
Men ER DER NOGEN SOM RENT faktisk kender det faktiske forhold

Nils - web adm 23.03.2018 10:51

som jeg husker det, er det også noget med at farvesynet er i midten mens det sort/hvide især er i siderne af øjet - fra Stenalderen noget med at reagere ...

Erling Nielsen 16.04.2017 11:56

Interessant teknisk opfriskning for os der har været med næsten hele vejen.
For den nye generation sundt at erfare hvilken teknisk labyrint man har passeret.