Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
Bild- och Videoteknik
Av grupp F2:
Ludvig Bowallius, Hazim Deirmenci, Charles Florman Lindeberg,
Nils Gudmundsson (Optik och Fotometri), Olof Höjer, Stefan Knutas, Christian Konstenius
KTH/Medieteknik
[email protected], [email protected], [email protected], [email protected], [email protected], [email protected], [email protected]
2
Innehållsförteckning Optik och Fotometri .............................................................................................................................. 6
Kamerans tidiga historia ...................................................................................................................... 7
Kamerans uppbyggnad ........................................................................................................................ 7
Tunna linser ......................................................................................................................................... 8
Objektiv ............................................................................................................................................... 9
Normalbrännvidd, vidvinkel & tele ............................................................................................... 10
Zoomobjektiv ................................................................................................................................. 10
Perspektiv .......................................................................................................................................... 11
Bländaröppningens inverkan på skärpedjupet ................................................................................. 12
Fotometri ........................................................................................................................................... 14
Rymdvinkel .................................................................................................................................... 14
Radiometri – strålningsmätning .................................................................................................... 14
Fotometri – ljusmätning ................................................................................................................ 15
Bländare ............................................................................................................................................ 16
Slutaren ............................................................................................................................................. 17
Centralslutare ................................................................................................................................ 17
Ridåslutare ..................................................................................................................................... 18
Slutare i digitalkameror ................................................................................................................. 18
Exponering ......................................................................................................................................... 19
Sensor ............................................................................................................................................ 19
Korrekt exponering ........................................................................................................................ 20
Exponeringsmätare ....................................................................................................................... 20
Histogram ...................................................................................................................................... 21
Exponeringsmodeller..................................................................................................................... 21
Optiska avbildningsfel ....................................................................................................................... 22
Diffraktion...................................................................................................................................... 23
Upplösningstest med streckmönster ................................................................................................ 24
MTF (Modulation Transfer Function) ................................................................................................ 25
Tolkning av MTF-kurvor ................................................................................................................. 26
Objektivets MTF ............................................................................................................................ 27
Totala MTF ..................................................................................................................................... 27
MTF-jämförelse ............................................................................................................................. 28
Egen MTF-mätning ........................................................................................................................ 28
SNR .................................................................................................................................................... 29
Dynamisk Vidd ................................................................................................................................... 29
Video och Signalbehandling ................................................................................................................ 30
Registrering av bild ............................................................................................................................ 31
Foton ............................................................................................................................................. 31
3
CCD sensor och fotoelektrisk omvandling ......................................................................................... 31
CCD sensorn .................................................................................................................................. 31
Photogate ...................................................................................................................................... 31
Blooming........................................................................................................................................ 32
Well Capacity ..................................................................................................................................... 33
Frame Transfer, Full Frame Transfer & Interline Transfer ................................................................ 34
Mikrolins ............................................................................................................................................ 34
CCD/CMOS ......................................................................................................................................... 35
Färgregistrering ................................................................................................................................. 35
Mosaik mönster (Bayer mosaik) .................................................................................................... 35
3 pass exponering .......................................................................................................................... 35
3 chip CCD ...................................................................................................................................... 36
3 lagerteknik .................................................................................................................................. 36
Utläsning från CCD............................................................................................................................. 36
Sekventiell & simultan utläsning ................................................................................................... 37
Sensorers egenskaper ....................................................................................................................... 37
Brus ................................................................................................................................................ 37
Dynamic Range .............................................................................................................................. 38
Signal-to-Noise Ratio ..................................................................................................................... 38
Verkningsgrad ................................................................................................................................ 38
Videosignalen .................................................................................................................................... 38
Färg-TV .............................................................................................................................................. 40
Olika typer av överföringar ............................................................................................................... 40
Displayteknik: CRT ............................................................................................................................. 40
Svartvit CRT ................................................................................................................................... 40
Färg CRT ......................................................................................................................................... 41
Skuggmask ..................................................................................................................................... 41
Trinitron ......................................................................................................................................... 41
In Line ............................................................................................................................................ 42
Displayteknik: Platta skärmar ............................................................................................................ 42
TFT/LDC ......................................................................................................................................... 42
Gas Plasma .................................................................................................................................... 43
Jumbotron ..................................................................................................................................... 43
Displayteknik: Projektion ................................................................................................................... 44
CRT-projektion ............................................................................................................................... 44
LCD system .................................................................................................................................... 44
DLP ................................................................................................................................................. 44
LCoS/D-ILA ..................................................................................................................................... 44
Korrigeringar ...................................................................................................................................... 45
4
Mäta ljus ............................................................................................................................................ 45
Sampling och filter ............................................................................................................................. 45
Analog och digital signal ................................................................................................................ 46
Vad finns det då för fördelar med en digital signal? ..................................................................... 46
Problemet med digitala signaler ................................................................................................... 46
Sampling ........................................................................................................................................ 47
Vikningsdistortion/Aliasing ........................................................................................................... 47
Lågpassfilter................................................................................................................................... 48
Kvantisering ................................................................................................................................... 48
Digital – Analog omvandling .......................................................................................................... 48
Sampling av färg ............................................................................................................................ 49
Produktion och Distribution................................................................................................................ 50
Processer i film- och TV-produktion .................................................................................................. 51
Effekter och trick ........................................................................................................................... 51
Mediers hållbarhet ........................................................................................................................ 51
Magnetbandet ............................................................................................................................... 51
Film- och TV-produktion ................................................................................................................ 51
Enkameraproduktion ..................................................................................................................... 52
Multikamerainspelning ................................................................................................................. 52
Filmproduktion, äldre process ....................................................................................................... 53
Källkodning ........................................................................................................................................ 53
Stillbildskodning ................................................................................................................................ 54
Förlustfri kompression .................................................................................................................. 54
Icke förlustfri kompression ............................................................................................................ 54
Kodning av rörliga bilder ................................................................................................................... 55
Synkronisering av bild och ljud .......................................................................................................... 56
Pilotton .......................................................................................................................................... 56
Ljud på filmremsa .......................................................................................................................... 57
Tidkod (Timecode) ......................................................................................................................... 57
Dropframe tidkod .......................................................................................................................... 58
LTC och VITC .................................................................................................................................. 58
Projektplanering ................................................................................................................................ 59
Idéutveckling ................................................................................................................................. 59
Manus ............................................................................................................................................ 59
Ekonomi ......................................................................................................................................... 59
Avtal – Rättigheter ........................................................................................................................ 59
Produktionsmetoder ..................................................................................................................... 60
Produktionsteknik ......................................................................................................................... 60
Ateljéinsatser ................................................................................................................................. 60
Administration och ledning ........................................................................................................... 60
5
Produktionsplan ............................................................................................................................ 60
Produktionsprocessens struktur ................................................................................................... 61
Lagringsteknik .................................................................................................................................... 61
Problem idag ................................................................................................................................. 61
Standarder ..................................................................................................................................... 61
CD – skivans fysiska dimensioner och egenskaper ............................................................................ 62
CD-skivans tillverkning .................................................................................................................. 62
CD – skivans avläsning ................................................................................................................... 63
Fokuserings och radialservo .......................................................................................................... 63
Signalbehandlingen ....................................................................................................................... 64
DVD ................................................................................................................................................ 64
Magnetsik lagring .............................................................................................................................. 65
Servon ............................................................................................................................................ 66
Bandlagring .................................................................................................................................... 66
Digital Video Broadcasting (DVB) ...................................................................................................... 67
Felfilter & Funktioner .................................................................................................................... 68
TV via bredband ............................................................................................................................ 69
TV via Satellit ................................................................................................................................. 69
Marksänd TV .................................................................................................................................. 70
Kabel .............................................................................................................................................. 70
Sammanställning av olika sändnings alternativ ............................................................................ 71
TV-standarder .................................................................................................................................... 71
NTSC .............................................................................................................................................. 72
PAL ................................................................................................................................................. 72
SECAM ........................................................................................................................................... 72
Omvandling mellan systemen ....................................................................................................... 73
HDTV .............................................................................................................................................. 73
6
Optik och Fotometri
7
Kamerans tidiga historia Kameran har sitt ursprung långt tillbaka i tiden, även om de då var långt ifrån dagens kameror. Den
första formen konstruerades för ca 1000 år sedan och bestod av ett mörkt rum med ett litet hål i
väggen som vetter mot motivet. Denna konstruktion kallas ”camera obscura” vilket är latin för mörkt
rum. Principen är enkel, Ljuset som faller in genom det lilla hålet projicerar en upp-och-nervänd bild
på väggen mitt emot där man helt enkelt kunde måla av genom att följa konturerna. Problemet var
att det krävs stora hål för att släppa in mer ljus från strålningssvaga motiv, men mindre hål krävs för
att få skärpa. Därför fungerade det i börjar bara bra med mycket ljusstarka motiv så som en
solförmörkelse. I samband med att man började slipa linser för användning som glasögon kom man
också på idén att sätta in en lins i hålet i väggen, detta gjorde att man kunde ha större hål utan att
förlora skärpa. Det var också då man började konstruera portabla mörka rum i form av tält.
Senare började man experimentera kring att låta ljuset själv rita upp bilden (fotografi betyder just
ljusskrift) istället för att ha någon som målade av och började då leta efter ett lämpligt ljuskänsligt
material. Den första bilden som togs på dettas sätt togs i början av 1800-talat och använde
asfaltsbestrukna plåtar som framkallades i bensin. Denna metod var mycket ineffektiv och krävde
också mycket lång exponering som kunde vara ett antal timmar. Innan 1800-talets slut hade man
lyckats få fram mycket bättre material, dels så att de också kunde fånga färg (även om detta inte blev
populärt förens vid mitten av 1900-talet), klara mycket kortare exponeringar och hanteras på rulle.
Innan slutet på 1800-talet masstilverkades lådkameror för allmänt bruk.
Kamerans uppbyggnad
Kameror kan ha mycket varierade utformning och system, men ett antal komponenter är
genomgående lika (även om dessa också finns i olika varianter). En sökare högst upp på kameran som
låter fotografen se det som kommer hamna på bilden (nya digitala kompaktkameror har inte alltid
sökare). Ljuset passerar först ett antal linser placerade i ett objektiv (kan vara fast eller utbytbart) och
på sin väg till sensorn passeras en bländare samt slutare. Bländaren varierar omfånget på ljus som
släpps fram genom att variera diametern på hålet i dess mitt och slutaren skyddar sensorn från ljuset
tills bilden ska tas, då släpper den fram ljus under en förbestämd tid innan den återgår till att
blockera ljuset. Sensorn är det som är den stora skillnaden mellan en analog och en digital kamera. I
en analog kamera består sensorn av en film med fixerad ljuskänslighet och i en digital kamera så
består den av en ljuskänslig komponent (kallas ibland CCD då detta är en vanligt förekommande typ
av bildsensor).
8
Tunna linser När vi pratar om en tunn lins så menar vi att linsens tjocklek är försumbar jämfört med dess
brännvidd. Man kan sammanfatta strålgången genom en tunn lins med denna bild:
I det här fallet är a avståndet mellan objektet framför linsen till själva linsen, f är brännvidden hos
linsen och b är det avstånd från linsen som avbildningen av objektet kommer manifesteras.
Man kan se var bilden av objektet kommer att hamna genom att göra en strålgångskonstruktion
enligt figuren ovan. Man tar två strålar som utgår från en punkt i motivet. En av dessa strålar går
parallellt med optiska axeln och den andra passerar linsens centrum. Den första bryts av linsen så att
den kommer korsa den optiska axeln vid dess brännpunkt f medan den andra strålen kommer att
färdas oförändrat genom linsen. Det är i skärningspunkten mellan båda dessa strålar som den optiska
bilden kommer att manifesteras.
Detta är användbara samband som gör att man grafiskt kan räkna ut var bilden hamnar och också få
fram avbildningsskalan. Men vanligare är att man använder linsformeln för att få fram dessa
samband. De viktigaste formlerna för optisk avbildning sammanfattas nedan:
Linsformeln:
Formeln för avbildningsskalan (fås ur förhållandet mellan likformiga trianglar):
Ofta vill man undvika att ha med b i en formel. Därför kan man göra en matematisk approximation
som tar bort b OM a > > b (Vilket den ofta är):
lim
Man kan också roa sig med att visa att som ett allmängiltigt skäl utan att a behöver vara
mycket större än b:
Vi vet att M = och
-
fa = (a – f)b
M =
9
Objektiv Ett objektiv består ofta av flera linser I en ganska komplicerad uppsättning. Istället för att räkna på
varje lins för sig vid optisk avbildning genom ett objektiv, inför man begreppet huvudplan.
För att ta reda på första huvudplanet låter man en ljusstråle I gå parallellt med den optiska axeln.
Den kommer att bryta riktning flera gånger inne i linssystemet för att sedan när den passerat sista
linsen i systemet färdas så att den korsar den optiska axen vid punkten P’. Om man nu drar strålen
Igenom linssystemet oförändrad och ritar ut strålen I med dess sista riktning baklänges så korsar
dessa två strålar varandra i punkten H’. Om man i denna punkt ritar en horisontell stråle vinkelrät
mot den optiska axeln så har man ritat ut ett av huvudplanen. Avståndet mellan H’ och P’ är f ’, d.v.s.
brännvidden för den tunna linsen längst till höger.
Om mediet strålen färdas genom till vänster och höger om objektivet skulle vara samma (och är i de
flesta fall luft) så är f=f’. Annars är det korrekta förfaringssättet att ta reda på H och f att göra på
samma sätt som för H’, men då genom att skjuta in en stråle från höger och därifrån hitta H o.s.v.
Observera att även om f = f’ p.g.a. samma material på båda sidor om materialet, så betyder inte det
att H och H’ sammanfaller.
Strålgången i objektivet är väldigt lik den i en tunn lins, som kommer att ses i bilden nedan:
10
Faktum är att strålgången är identisk, den enda skillnaden är att man har ”skurit itu” strålgången
med ett avstånd motsvarande det mellan de båda huvudplanen. Strålgången genom sträckan d är
alltid horisontell.
Normalbrännvidd, vidvinkel & tele
Dessa benämningar avser objektivets förmåga att fånga stora och små motiv på olika avstånd och
avgörs beroende på förhållandet mellan diagonalmåttet på sensorn och objektivets brännvidd. Om
man ska fotografera något litet på långt avstånd (t.ex. en fågel) så behövs en stor avbildningsskala
som innebär att man behöver en lång brännvidd (tele). I motsats om man vill fotografera något stort
på kort avstånd (t.ex. ett hus) och behövs en liten avbildnings skala, d.v.s. kort brännvidd (vidvinkel).
En generell indelning gör enligt nedanstående där f är brännvidden och d sensorns diagonalmått.
Normal f ≈ d 40° ~ 60°
Vidvinkel f < 0.9d > 60°
Tele f > 1.4d < 40°
Ett antal objektiv faller mellan dessa och det är inte heller någon exakt indelning, ett flertal objektiv
har kompromissats och valt att gå lite längre åt ena hållet.
Zoomobjektiv
Zoomobjektiv ger möjligheten att använda ett objektiv men ändå få tillgång till olika brännvidder,
som tidigare nämnts så behövs det för att kunna påverka avbildningsskalan. Man kan ju tycka att det
är ett självklart val att välja ett zoomobjektiv med variabel brännvidd framför ett med en fast
brännvidd, men så är inte fallet. Zoomobjektiv innehåller ofta fler linselement (vanligt med 10 eller
fler) än objektiv med fast brännvidd, detta behövs bland annat för att utnyttja utrymmet mellan
elementen för att ändra brännvidden men också för att minska avbildningsfelen. Detta flertal av
linselement gör objektiven tunga, stora och dyra. I förhållande till objektiv med fast brännvidd så ger
zoomobjektiv en lägre bildkvalité och har ofta mer ströljus vilket ger sämre kontrast och skärpa.
Zoomobjektiv har en zoomfaktor som ges av dess längsta brännvidd dividerat på dess kortaste
brännvidd och brukar ligga på omkring 3~5. Vissa har en betydligt större zoomfaktor men inte ens de
kan ersätta ett extremt vidvinkel- eller teleobjektiv. Trotts alla dessa nackdelar så är zoomobjektivet
trots allt mycket populärt och vanligt förekommande. Detta är främst då det är mycket
användarvändligt och gör att man kan tillverka kameror med fast optik men ändå kan erbjuda en viss
variation till brännvidden.
Principen som gör att zoomobjektiv
fungerar bygger på att man förskjuter
linselementen sinsemellan och
illustreras nedan med ett förenklat
zoomobjektiv med bara tre
linselement.
11
Perspektiv Ordet perspektiv har många meningar, det kan till exempel vara den kognitiva betydelsen; en speciell
syn på t.ex. en händelse ur en persons perspektiv som är baserad på personens egna erfarenheter
och upplevelser. Men det är inte den vi tar upp här. Istället ska vi prata om den visuella betydelsen,
den som handlar om hur objekts storlek och form verkar ändras då avståndet i djupled ökar.
När vi tittar på en bild så kan vi se rätt fort hur perspektivet i bilden är. Vi kan till exempel relativt lätt
se om perspektivet är överdrivet. Bilden ser då utdragen ut i djupled. Detta kännetecknas genom att
ett objekt nära kameran ser mycket större ut än ett som befinner sig längre bort. Perspektivet kan
även vara underdrivet. Om perspektivet är underdrivet så uppfattas bilden nästan platt och objekt
som uppfattas vara nära kameran har nästan samma storlek som de som befinner sig längre bort från
kameran.
En fråga som framgår när vi tittar på detta är vad som är ett korrekt perspektiv? Hur vet vi att en
bilds perspektiv inte är överdrivet och inte är underdrivet? Den enklaste förklaringen är att vi när vi
tittar på bilden ska se alla föremål med samma synvinkel som vi skulle göra om vi stod och tittade
med ett öga(effekten blir inte den samma med två ögon) på platsen där kameran stod. Om vi lyckas
med detta så framstår bildens perspektiv så realistiskt.
Nu när vi vet detta så kommer en oudviklig fråga; Hur uppnår vi detta ”korrekta” perspektiv? För att
svara på den här frågan så får vi titta på två situationer. Den första situationen är den då fotografiet
togs. Hur såg situationen ut då? I bilden nedan ser vi ett exempel på hur det kan se ut. Vi har här två
objekt i form av pilar längst till vänster. Sedan har vi kamerans objektiv som används för att projicera
pilarna på en film/sensor en bit längre åt höger. Tänk på att objektavståndet i verkligheten är mycket
större än bildavståndet i de flesta situationer och att bilden inte visar detta på något bra sett. Bilden
är alltså bara till för att illustera hur strålarna går från objekten till filmen/sensorn.
I bilden har för enkelhets skull bara de strålar som går genom objektivets centrum ritats ut. Ur
figuren så ser vi att α och β är de vinklar med vilket objektivet ser pilarna. Om vi sedan tittar på
bilden med linsens brännvidsavstånd så kommer vinklarna bli rätt och vi ser bilden med korrekt
perspektiv. Obs! Stämmer inte helt, läs vidare för förklaring. Alltså är α och β de synvinklar som vi
måste återskapa när vi senare tittar på fotografiet för att få korrekt perspektiv.
Den andra situationen som dyker upp efter vi tagit fotografiet är betraktningssituationen. När vi tittar
på fotografiet så måste vi göra det på rätt sätt för att illusionen av korrekt perspektiv ska visas. Till
exempel så kan man göra som vi tidigare skrev, att titta på bilden med en fokallängds avstånd. Men
detta förutsätter att den framkallade bilden har samma storlek som den film/sensor som satt i
kameran. Detta betyder alltså att om filmen i kameran är 24x36 mm så måste bilden vara samma
storlek, och ett så litet fotografi har inte så många användningar. Det blir dessutom svårt att fokusera
på det eftersom vi måste ha ögat så nära fotografiet(fokallängds avstånd).
Det vi gör istället är att förstora fotografiet. Detta gör att både betraktningsavs
objekten (h1 och h2 i första bilden) ökar med en viss faktor. Om vi kallar denna faktor för M så blir de
nya höjderna alltså Mh1 respektive Mh
förstorar fotografiet från negativet
M. Alltså blir det nya betraktningsavståndet om man förstorar negativet med en faktor M:
s = M x f (s är det nya betrak
Om vi nu har vårt fotografi med dess bestämda betraktningsavstånd och tittar på det från fel
avstånd, vad händer då? Det finns två situationer; man är för nära eller man är för långt bort. Om vi
är för nära fotografiet så ger det oss ett för litet djupintryck
uppträder ofta för dem som använder teleobjektiv. Om vi istället är för långt bort från fotografiet vi
tittar på så verkar bilden utdragen i djupled och djupintrycket blir för överdrivet. Detta inträffar ofta
om man tittar på bilder tagna med vidvinkelobjektiv.
Om bilden betraktas felaktigt så är det inte bara djupintrycket som blir fel utan även föremål som
befinner sig ut mot kanterna på fotografiet kommer att se deformerade ut och återges fel. Dessa fel
försvinner dock om vi tittar med ett korrekt betraktningsavstånd.
Bländaröppningens inverkan på skärpedjupetNär linsens fokus ställs in så är det enbart på ett bestämt avstånd som man får ett perfekt fokus
precis som linsformeln antyder. I verkligheten är det inte så
anses vara skarpt i bilden. Det som befinner sig en viss sträcka framför och bakom fokuset får en så
pass tydlig avbildning att det för ögat ser
varierar beroende på många faktorer till exempel betraktning
själv anser vara skarpt. En annan mycket viktig faktor är bländaröppningens storlek. Desto mindre
bländaröppningen är desto större blir skärpedjupet.
kameran. Detta betyder alltså att om filmen i kameran är 24x36 mm så måste bilden vara samma
och ett så litet fotografi har inte så många användningar. Det blir dessutom svårt att fokusera
på det eftersom vi måste ha ögat så nära fotografiet(fokallängds avstånd).
Det vi gör istället är att förstora fotografiet. Detta gör att både betraktningsavs
i första bilden) ökar med en viss faktor. Om vi kallar denna faktor för M så blir de
respektive Mh2. Om vi ska räkna ut det nya betraktningsavståndet då vi
förstorar fotografiet från negativet med faktorn M så ökar även betraktningsavståndet med en faktor
M. Alltså blir det nya betraktningsavståndet om man förstorar negativet med en faktor M:
är det nya betraktnings avståndet, f är objektivets brännvid, M är förstoringsgraden)
vi nu har vårt fotografi med dess bestämda betraktningsavstånd och tittar på det från fel
avstånd, vad händer då? Det finns två situationer; man är för nära eller man är för långt bort. Om vi
är för nära fotografiet så ger det oss ett för litet djupintryck. Bilden verkar platt. Detta problem
uppträder ofta för dem som använder teleobjektiv. Om vi istället är för långt bort från fotografiet vi
tittar på så verkar bilden utdragen i djupled och djupintrycket blir för överdrivet. Detta inträffar ofta
tar på bilder tagna med vidvinkelobjektiv.
Om bilden betraktas felaktigt så är det inte bara djupintrycket som blir fel utan även föremål som
befinner sig ut mot kanterna på fotografiet kommer att se deformerade ut och återges fel. Dessa fel
ck om vi tittar med ett korrekt betraktningsavstånd.
Bländaröppningens inverkan på skärpedjupetNär linsens fokus ställs in så är det enbart på ett bestämt avstånd som man får ett perfekt fokus
precis som linsformeln antyder. I verkligheten är det inte så att det bara är det som är i fokus som
anses vara skarpt i bilden. Det som befinner sig en viss sträcka framför och bakom fokuset får en så
för ögat ser skarpt ut. Detta avstånd kallas skärpedjup och skärpedjupet
oende på många faktorer till exempel betraktningsavstånd, förstoringsgrad
själv anser vara skarpt. En annan mycket viktig faktor är bländaröppningens storlek. Desto mindre
bländaröppningen är desto större blir skärpedjupet.
12
kameran. Detta betyder alltså att om filmen i kameran är 24x36 mm så måste bilden vara samma
och ett så litet fotografi har inte så många användningar. Det blir dessutom svårt att fokusera
tånd samt höjden på
i första bilden) ökar med en viss faktor. Om vi kallar denna faktor för M så blir de
. Om vi ska räkna ut det nya betraktningsavståndet då vi
med faktorn M så ökar även betraktningsavståndet med en faktor
M. Alltså blir det nya betraktningsavståndet om man förstorar negativet med en faktor M:
nings avståndet, f är objektivets brännvid, M är förstoringsgraden)
vi nu har vårt fotografi med dess bestämda betraktningsavstånd och tittar på det från fel
avstånd, vad händer då? Det finns två situationer; man är för nära eller man är för långt bort. Om vi
. Bilden verkar platt. Detta problem
uppträder ofta för dem som använder teleobjektiv. Om vi istället är för långt bort från fotografiet vi
tittar på så verkar bilden utdragen i djupled och djupintrycket blir för överdrivet. Detta inträffar ofta
Om bilden betraktas felaktigt så är det inte bara djupintrycket som blir fel utan även föremål som
befinner sig ut mot kanterna på fotografiet kommer att se deformerade ut och återges fel. Dessa fel
Bländaröppningens inverkan på skärpedjupet När linsens fokus ställs in så är det enbart på ett bestämt avstånd som man får ett perfekt fokus
att det bara är det som är i fokus som
anses vara skarpt i bilden. Det som befinner sig en viss sträcka framför och bakom fokuset får en så
skarpt ut. Detta avstånd kallas skärpedjup och skärpedjupet
savstånd, förstoringsgrad och vad man
själv anser vara skarpt. En annan mycket viktig faktor är bländaröppningens storlek. Desto mindre
13
Strålgången för en liten och stor bländaröppning.
Den röda strålgången visar vart det inställda fokuset befinner sig. Den gröna strålgången visar hur
objektet vid ett visst avstånd hamnar utanför oskärpecirkeln om bländaren har en stor öppning. Det
ger en dålig skärpa. Den blå strålgången visar däremot hur objektet hamnar inom en acceptabel
oskärpa när bländaröppningen är mindre. Detta gör så att objektet kommer att avbildas med en
acceptabel oskärpa så att objektet ser ut att vara i fokus.
Strålgångarna visar skärpedjupet
Figuren illustrerar hur skärpedjupet bestäms. Den blå strålgången visar det avstånd närmast
objektivet som fortfarande ger skärpa, detta är närgräsen. Fjärrgräsen är det avstånd längs bort från
objektivet som fortfarande ger skärpa. Avståndet mellan fjärrgränsen och närgränsen ger
skärpedjupet.
14
Fotometri
Rymdvinkel
Rymdvinkeln är den tredimensionella
motsvarigheten till den vanliga,
tvådimensionella, vinkeln1. Man
skulle kunna säga att det är den yta
som ett föremål upptar i vårt synfält.
Det betyder att ett jättestort objekt
på långt avstånd kan uppta lika stor
rymdvinkel som ett litet objekt på
närmare avstånd. Solen och månen
upptar t.ex. ungefär lika stor
rymdvinkel, fastän solen är mycket
större än månen.
Rymdvinkeln definieras med denna formel: Ω
Största möjliga rymdvinkel är 4π, vilket innebär att om vi betraktar ett föremål från punkten P så är vi
är helt omslutna av föremålet.
Enheten för rymdvinkel är steradian och förkortas sr.
Radiometri – strålningsmätning
Radians, är en storhet som beskriver utstrålad effekt per area- och
rymdvinkelenhet, dvs. hur stor effekt som strålar ut från en area A inom en
viss rymdvinkel Ω.
(1) Ω
Om man låter storleken på arean och rymdvinkeln gå mot noll,
samtidigt som man tar hänsyn till att utstrålningen är
riktningsberoende så får man en ny formel som ser ut så här:
Ω !"# [
W
m2sr ]
Formel (1) gäller alltså bara för en strålningsriktning som är
vinkelrät ut från ytan, dvs då $ 0
1 http://sv.wikipedia.org/wiki/Rymdvinkel
Utstrålningens
riktningsberoende
15
För en svartkroppsstrålare2 gäller följande formel: 1.80 ) 10* ) +,,
där T är den absoluta temperaturen
Irradians, beskriver instrålad effekt, summerat över alla riktningar, mot en
area A.
- [W/m2]
Fotometri – ljusmätning
Observera att med ljus menar vi det spektrum av färg som det mänskliga ögat kan uppfatta.
Skillnaden mellan fotometriska storheter och radiometriska storheter är att de fotometriska
är viktade med avseende på ögats spektrala känslighet, med andra ord så handlar fotometri
om det som våra ögon uppfattar som ljus.
Ljusflöde, Φ, är den fotometriska
motsvarigheten till radiometrins
strålningseffekt P, och beräknas så här:
. / 01234523463
7
Pλ(λ) är strålningseffekt per våglängdsintervall, och K(λ) är ögats spektrala känslighetskurva.
Enheten för ljusflöde är lumen [lm].
Luminans, är den fotometriska motsvarigheten till radians, och betecknas med bokstaven L.
8 9: !"# [
lm
m2sr ]
För en svartkroppsstrålare beror L bara på temperaturen, och för en perfekt matt
reflekterande yta(lambertreflektor) så beror L på reflektionsförmågan och hur kraftigt ytan
belyses.
Belysning, som betecknas med bokstaven E, är den fotometriska motsvarigheten till
irradians. Denna storhet beskriver hur stort infallande ljusflöde (Φ), summerat över alla
riktningar, som man får per ytenhet (A).
; < [lmm2
= lux]
2 Ett objekt som absorberar all infallande elektromagnetisk strålning, och där bara temperaturen på objektet
påverkar den avgivna strålningen kallas för svartkroppsstrålare
16
Bländare
Bländaren i en kamera har som funktion i en kamera att reglera ljusflödet som släpps in via
objektivet. Ofta är den monterad inuti objektivet. Tillsammans med slutaren reglerar den hur mycket
filmen eller sensor exponeras.
Bländaren består av tunna metallameller som man skjuta in för att bilda en central öppning som
släpper in ljus. Genom att kontrollera metallamellerna kan man variera storleken på öppningen och
alltså bestämma hur mycket ljus som ska släppas in. Detta görs ofta med en vridbar ring som sitter på
objektivet. Man väljer då ett bländartal som definieras f / D där f brännvidden och D
bländaröppningens diameter. Eftersom man kan skriva belysningen i sensorplanet, om avståndet till
objektet är mycket större än brännvidden och efter en del härledningar med hjälp av formler från
fotometrin, som
; 2>?@4@
Detta betyder att ett mindre bländartal leder till att mer ljus släpps igenom. Vi kan se det eftersom
?@@ 1
@?@
Om vi sedan definierar bländartalet som F får vi då att belysningen blir
; 8>4B@
Med varje steg på ringen som man ändrar bländartalet så ändras det med en faktor √2 vilket leder till
att ljuset som släpps igenom av bländaren halveras eller dubbleras vid varje steg eftersom
2√2B4@ 2B@ ; 8>2 ) 4B@ 2ökning av bländartal4
eller
O B√2P
@ B@
2 ; 2 Q 8>4B@ 2minsking av bländartal4
Exempel på bländartal i följd: 2, 2.8, 4, 5.6, 8, 11, 16
17
Slutaren
Slutaren är en del i kameran som har som funktion att under en välbestämd tid, kallad
exponeringstid, se till att ljus når filmen eller sensorn. Det finns några olika varianter av slutare som
fungerar på olika sätt.
Centralslutare
En centralslutare är inbyggd i objektivet och fungerar ungefär på samma sätt som bländaren. Detta
leder till att den ofta används i kameror som inte har utbytbara objektiv. I likhet med bländaren så
består centralslutaren av metallameller som skjuts in för att skapa en central öppning som släpper in
ljus. Innan man tar en bild så är centralslutaren stängd för att inte släppa igenom något ljus alls. När
man tar en bild så dras metallamellerna helt isär så öppningen blir maximal och skjuts sedan ihop
igen. Under tiden som lamellerna har varit isär har filmen eller sensorn då exponerats för ljus. Denna
tid, exponeringstiden, kan ställas in för att öka eller minska exponeringen.
Vid normal fotografi är vanliga exponeringstider 1/30 – 1/500 sekund. Alltså måste det gå väldigt
snabbt när lamellerna öppnas och stängs. Det är det som är en av centralslutarens nackdelar. Det är
svårt att åstadkomma mycket korta exponeringstider på grund av de mekaniska svårigheter som
uppstår på grund av centralslutarens uppbyggnad.
Ett annat problem med centralslutaren är att den effektiva exponeringstiden beror på vad man har
för inställning på bländaren. Vid korta exponeringstider går det inte att försumma den tid det tar för
slutaren att öppnas och stängas. Belysningen ökar successivt under tiden den öppnas för att sedan
vara konstant och till sist minska successivt när slutaren stängs. Lamellerna är dock tillverkade på ett
sätt som ska minska denna inverkan så mycket som möjligt. Om man har en stor bländaröppning
(litet bländartal) är detta ett större problem än vid liten bländaröppnig då det kommer det ta längre
tid innan man får in den maximala belysningen.
En fördel med centralslutaren är att, eftersom hela sensorn eller filmen i stort sett belyses samtidigt,
blir det smidigt att använda blixt.
Ridåslutare
En ridåslutare används främst i kameror som har utbytbar optik som till exempel en
spegelreflexkamera. En fördel med ridåslutaren är att om man använder den s
bygga in en slutare i varje objektiv vilket gör att man kan spara på kostnaderna. Eftersom slutaren
sitter precis framför sensorn eller filmen skyddas dessa då man behöver byta objektiv. Smuts eller
ströljus kan inte ta sig in.
Ridåslutaren består av två ridåer. När man inte exponerar filmen eller sensorn så sitter den ena ridån
alltid precis i vägen för allt ljus. När man sedan bestämmer sig för att ta en bild så rör sig ridån åt
sidan och släpper in ljus. Efter en bestämd tid börjar sed
över filmen eller sensorn på samma sätt som den första ridån gjorde innan exponeringen. Ridåerna
rör sig alltid med en konstant hastighet vilket betyder att det man ställer in för att få en korrekt
exponeringstid är fördröjningen med vilken den andra ridån börjar röra sig. Detta leder till att vid
mycket korta exponeringstider så börjar den andra ridån röra sig innan den första avslutat sin rörelse.
Det kommer då vara en springa som rör sig över filmen eller sens
ändra exponeringstiden ändrar man då springas bredd. En bredare springa leder till en högre
exponeringstid.
En nackdel med ridåslutaren är att hela filmen inte exponeras samtidigt. Detta kan bidra till en del
oönskade effekter då man till exempel fotograferar föremål med en hög hastighet. Föremålen kan då
se krökta ut.
Ett annat problem som kan uppstå är när man fotograferar med blixt. Eftersom blixttiden är väldigt
kort så kommer vid en kort exponeringstid endast den sm
ljuset av blixten. Vid fotografering med blixt bör man därför ha en längre exponeringstid så att den
första ridån har avslutat sin rörelse när blixten går och sedan börjar den andra ridån röra sig. Hela
filmen eller sensorn exponeras då från ljuset blixten. Nuförtiden finns det dock en funktions som
smäller av flera blixtar vid kort exponeringstid vilket gör att det ljus under hela den tid springan rör
sig.
Slutare i digitalkameror
I digitala kameror kan man styra s
det för en elektrisk slutare. Detta används dock mest i enkla digitalkameror eftersom denna typ av
slutare inte fungerar helt felfritt vid mycket korta exponeringstider. Det beror på att
En ridåslutare används främst i kameror som har utbytbar optik som till exempel en
spegelreflexkamera. En fördel med ridåslutaren är att om man använder den s
bygga in en slutare i varje objektiv vilket gör att man kan spara på kostnaderna. Eftersom slutaren
sitter precis framför sensorn eller filmen skyddas dessa då man behöver byta objektiv. Smuts eller
ren består av två ridåer. När man inte exponerar filmen eller sensorn så sitter den ena ridån
alltid precis i vägen för allt ljus. När man sedan bestämmer sig för att ta en bild så rör sig ridån åt
sidan och släpper in ljus. Efter en bestämd tid börjar sedan den andra ridån röra sig och täcker sedan
över filmen eller sensorn på samma sätt som den första ridån gjorde innan exponeringen. Ridåerna
rör sig alltid med en konstant hastighet vilket betyder att det man ställer in för att få en korrekt
d är fördröjningen med vilken den andra ridån börjar röra sig. Detta leder till att vid
mycket korta exponeringstider så börjar den andra ridån röra sig innan den första avslutat sin rörelse.
Det kommer då vara en springa som rör sig över filmen eller sensorn som släpper in ljus. Genom att
ändra exponeringstiden ändrar man då springas bredd. En bredare springa leder till en högre
En nackdel med ridåslutaren är att hela filmen inte exponeras samtidigt. Detta kan bidra till en del
ekter då man till exempel fotograferar föremål med en hög hastighet. Föremålen kan då
Ett annat problem som kan uppstå är när man fotograferar med blixt. Eftersom blixttiden är väldigt
kort så kommer vid en kort exponeringstid endast den smala springa som uppstår exponeras vid för
ljuset av blixten. Vid fotografering med blixt bör man därför ha en längre exponeringstid så att den
första ridån har avslutat sin rörelse när blixten går och sedan börjar den andra ridån röra sig. Hela
r sensorn exponeras då från ljuset blixten. Nuförtiden finns det dock en funktions som
smäller av flera blixtar vid kort exponeringstid vilket gör att det ljus under hela den tid springan rör
I digitala kameror kan man styra sensorn elektriskt istället för att ha en mekanisk slutare. Man kallar
det för en elektrisk slutare. Detta används dock mest i enkla digitalkameror eftersom denna typ av
slutare inte fungerar helt felfritt vid mycket korta exponeringstider. Det beror på att
18
En ridåslutare används främst i kameror som har utbytbar optik som till exempel en
spegelreflexkamera. En fördel med ridåslutaren är att om man använder den så behöver man inte
bygga in en slutare i varje objektiv vilket gör att man kan spara på kostnaderna. Eftersom slutaren
sitter precis framför sensorn eller filmen skyddas dessa då man behöver byta objektiv. Smuts eller
ren består av två ridåer. När man inte exponerar filmen eller sensorn så sitter den ena ridån
alltid precis i vägen för allt ljus. När man sedan bestämmer sig för att ta en bild så rör sig ridån åt
an den andra ridån röra sig och täcker sedan
över filmen eller sensorn på samma sätt som den första ridån gjorde innan exponeringen. Ridåerna
rör sig alltid med en konstant hastighet vilket betyder att det man ställer in för att få en korrekt
d är fördröjningen med vilken den andra ridån börjar röra sig. Detta leder till att vid
mycket korta exponeringstider så börjar den andra ridån röra sig innan den första avslutat sin rörelse.
orn som släpper in ljus. Genom att
ändra exponeringstiden ändrar man då springas bredd. En bredare springa leder till en högre
En nackdel med ridåslutaren är att hela filmen inte exponeras samtidigt. Detta kan bidra till en del
ekter då man till exempel fotograferar föremål med en hög hastighet. Föremålen kan då
Ett annat problem som kan uppstå är när man fotograferar med blixt. Eftersom blixttiden är väldigt
ala springa som uppstår exponeras vid för
ljuset av blixten. Vid fotografering med blixt bör man därför ha en längre exponeringstid så att den
första ridån har avslutat sin rörelse när blixten går och sedan börjar den andra ridån röra sig. Hela
r sensorn exponeras då från ljuset blixten. Nuförtiden finns det dock en funktions som
smäller av flera blixtar vid kort exponeringstid vilket gör att det ljus under hela den tid springan rör
ensorn elektriskt istället för att ha en mekanisk slutare. Man kallar
det för en elektrisk slutare. Detta används dock mest i enkla digitalkameror eftersom denna typ av
slutare inte fungerar helt felfritt vid mycket korta exponeringstider. Det beror på att när man har
19
tagit en bild sensorn läser av laddningen av pixlarna som tar lite tid är sensorn fortfarande känslig för
ljus.
Det man kan göra i digitalkameror är att kombinera denna typ av slutare med en mekanisk slutare.
Den mekaniska slutaren är då öppen för det mesta och täcker endast över sensorn efter
exponeringen. När man startar exponering så använder man sig av den elektriska slutaren som
annars är avstängd. Med denna metod kan man komma ner i väldigt korta exponeringstider.
Exponering Med exponering menas med att belysa sensorplanet med en viss mängd och under en viss tid.
Exponering regleras av två mekanismer. Först avgör bländaren hur mycket ljus som får komma in och
belysa sensorn. Därefter bestämmer slutaren hur lång tid sensorn kommer belysas. Till detta används
en formel som uttrycks i luxsekunder.
S ; ) T
H: Exponering
E: Belysning
t: Tiden som sensorn blir belyst
Sensor
Sensorn är uppdelad i detektorelement (pixlar). I pixlarna
hittar vi elektroner som blir laddade av de fotoner ljust
kommer med när sensorn blir belyst. Utav olika laddningar
resulterar olika färger.
20
Korrekt exponering
För korrekt exponering kan vi inte tillåta för mycket
eller för lite belysning(exponering). För mycket
exponering leder till att elektronerna i pixlarna blir
”överladdade”, vilket leder till att de repellerar
varandra. Detta resulterar till vita fläckar på fotot
eller bara en hel vit bild. För lite exponering leder
till det motsatta där elektronerna inte blir laddade
”alls” och vi får en svart bild. Helt oladdade är/blir
elektronerna inte. Det finns alltid olika faktorer som
gör att vi får ett så kallat brus och det gör att vi inte
kommer få en helt svart bild utan det kommer vara
pixlar med lite gråaktig ton. Även om vi är i ett totalt mörkt rum uppstår detta fenomen. Istället ska
man hålla sig mellan de streckade linjerna på diagrammet för att få en korrekt exponering.
Exponeringsmätare
De lite exklusiva kamerorna har i dag oftast exponeringsmätare som hjälper fotografen att välja
exponering.
• Spot-mätning vilken när nog den bästa av dessa tre funktioner som tas upp här. Kameran
mäter på hur mycket exponering det ska vara i punkten i mitten av kamrenas synfält. Det
som är bra med denna funktion är att på ett jämnt belys objekt kommer exponeringen bli
korrekt. Däremot om vi har istället t.ex. en situation när vi ska ta en bild och stora delar av
bilden upptas av snö kommer spot ge en underexponering vilket leder till att snön kommer
se gråaktig ut, samma gäller om vi ska fota t.ex. en svart panter och vi tar spoten på den
kommer pantern också bli gråaktig.
• Centrumvägning tar mer hänsyn än spot-mättningen men den börjar ta hänsyn till centrum
av kamerans synsfält och sedan värderar mindra och mindra hur det ser ut längre ut om
kanten vi kommer.
• Multi-pattern eller Intergral där tar kameran hänsyn till hela synfältet men i ett vist mönster.
21
Histogram
Histogram är ett sätt att se om både mörka och ljusa delar av synfältet blir exponerat korrekt.
Diagrammen visar i staplar hur mycket ljust och mörkt som kommer med, vilket är ett utmärkt
instrument.
Exponeringsmodeller
I de allra flesta kameror idag finns det olika modeller man kan ställa in, vilket gör att du behöver
ställa in mer eller mindre. För att få den bästa bilden rekommenderas att välja modellen manual
eftersom med den rätta kunskapen är det fotografen som kan skapa den bästa bilden själv igenom
inställningar, inte kameran som brister när det kommer till att ha ett förnuft när den väljer
inställningar.
• Aperture priority är en bra modul om du vill ha kontroll på skärpedjupet, eftersom
fotografen själv i denna modul bestämmer vilket bländartal bländaren ska vara på.
• Shutter priority är bra om fotografen har utsatt för en rörelseoskärpa t.ex. om
fotografen ska ta en fotografi i ett flygplan. Modellen ser till att kameran ställer in alla
inställningar förutom slutartiden.
• Fully automatic är bra för den mindre erfarne och enkla standardbilder. Här sköter
kameran alla inställningar.
• Manual Här har fotografen fullständig kontroll på alla inställningar själv.
22
Optiska avbildningsfel Avbildningsfel menas med att strålar bryts på olika ställen på linsen vilket ger olika brännpunkt. I
kameror försöker man åtgärda det igenom att ha en mängd både positiva och negativa linser efter
varandra. Ändå kommer man inte ifrån problemet helt. Här kommer nu fyra olika optiska
avbildningsfel som förekommer hos en kamera
• Sfärisk aberration
Handlar om att strålar bryts på olika ställen på linsen vilket ger olika brännpunkter. Det fel kan tas
bort helt igenom att tillverka asfäriska linsytor, men dessa är väldigt dyra så i många kameror finns
det sfäriska ytor som kan till viss mån hjälpa av felet.
• Kromatisk aberration
Kormatisktfel beror på att olika färger har olika väglängd och bryts olika och ger olika brännpunkt.
Återgärder för att ta bort felet är liknande med sfärisk aberration, igenom att kombinera positiva och
negativa linser av olika material kan man minska felet.
• Astigmatism
Är det fel som framkommer i en oskärpefläck och denna blir bara större ju länge ut om bildkanten vi
kommer. Fel går att minska med nedbländning, men då får man problem med att inte tillräkligt ljus
kommer in till sensorn. Det går även att minska astigmatismen igenom som tidigare ett flertal
linselement.
• Bildfältskrökning
När vi har två olika objekt i kamerans synfält och de är placerade en bit
ljus komma in i olika vinklar till linsen vilket gör att brännpunkterna kommer ligga på en båge istället
för på samma linje. Felet går att minska med hjälp av samma metoder som i astigmatismen, med
nedbländning och ett feltal linselement.
• Sammanfattning
Det finns ytterligare 2 fel koma(sned belysning av linsen ger olika brännpunkt samt olika
avbildningsskalor) och distorsion(som ger en förvrängd bild av bildplanet, t ex. istället för en
rektangel så kan man få en kuddformig bild
hjälpas av som alla de andra felen igenom flera stycken linselement som minska ner felen.
Diffraktion
Diffraktion är ett ljusfel vi får med vinkel
ett försumbart avbildningsfel.
I formeln kan vi, eftersom vinkeln ф
R ≈1.22λf/D=1.22λF. F står för bländartalet. Desto min
När vi har två olika objekt i kamerans synfält och de är placerade en bit från varandra kommer deras
ljus komma in i olika vinklar till linsen vilket gör att brännpunkterna kommer ligga på en båge istället
Felet går att minska med hjälp av samma metoder som i astigmatismen, med
nselement.
Det finns ytterligare 2 fel koma(sned belysning av linsen ger olika brännpunkt samt olika
avbildningsskalor) och distorsion(som ger en förvrängd bild av bildplanet, t ex. istället för en
rektangel så kan man få en kuddformig bildplan) men som inte kommer tas upp här, dessa kan
hjälpas av som alla de andra felen igenom flera stycken linselement som minska ner felen.
Diffraktion är ett ljusfel vi får med vinkel ф som vissas i bilden. I bilden räknar vi med att objektet har
? sin Φ 1.223
eftersom vinkeln ф är oftast väldigt liten, skriva om så att sin
år för bländartalet. Desto mindre F desto mindre oskärpa.
23
från varandra kommer deras
ljus komma in i olika vinklar till linsen vilket gör att brännpunkterna kommer ligga på en båge istället
Felet går att minska med hjälp av samma metoder som i astigmatismen, med
Det finns ytterligare 2 fel koma(sned belysning av linsen ger olika brännpunkt samt olika
avbildningsskalor) och distorsion(som ger en förvrängd bild av bildplanet, t ex. istället för en
plan) men som inte kommer tas upp här, dessa kan
hjälpas av som alla de andra felen igenom flera stycken linselement som minska ner felen.
äknar vi med att objektet har
n, skriva om så att sinф ≈ R/f. Då ser vi att
F desto mindre oskärpa.
Upplösningen är 60% högre i system a) än i b)
men ändå är bildkvalitén sämre
I och med ett mindre bländartal får vi desto större abe
bländartal mellan 5,6 till 8 för att få den bästa skärpan.
Upplösningstest med streckmönster
Ett sätt att mäta ett objektivs upplösningsförmåga är att
använda sig av så kallat streckmönster.
som ser ut som vita och svarta streck med olika storlek
vilket ser ut att bilda övergångsställ placerar man någon
meter ifrån objektivet. Ett vitt och ett svart streck bredvid
varandra kallar man för ett linjepar.
Upplösningen är 60% högre i system a) än i b)
ändå är bildkvalitén sämre.
ändartal får vi desto större aberrationer, så det gäller att ligga på ett
bländartal mellan 5,6 till 8 för att få den bästa skärpan.
gstest med streckmönster
Ett sätt att mäta ett objektivs upplösningsförmåga är att
använda sig av så kallat streckmönster. Detta mönster
och svarta streck med olika storlek
vilket ser ut att bilda övergångsställ placerar man någon
och ett svart streck bredvid
varandra kallar man för ett linjepar.
Man betraktar sedan den optiska bilden i
bildplanet och bestämmer sedan vilket
som är det minsta linjemönster av linjepar
man kan urskilja. I och med att li
blir smalare kommer man till sist inte
kunna urskilja det svarta strecket från det
vita utan det kommer helt enkelt vara en
grå ”massa”. Oftast anger man
upplösningsgränsen för ett sådant här test
i linjepar/mm i sensor planet. Man
använder sig då av det minsta synliga
linjeparet.
24
rrationer, så det gäller att ligga på ett
Man betraktar sedan den optiska bilden i
bildplanet och bestämmer sedan vilket
som är det minsta linjemönster av linjepar
man kan urskilja. I och med att linjeparen
blir smalare kommer man till sist inte
kunna urskilja det svarta strecket från det
vita utan det kommer helt enkelt vara en
grå ”massa”. Oftast anger man
upplösningsgränsen för ett sådant här test
i linjepar/mm i sensor planet. Man
av det minsta synliga
25
En nackdel med detta test är att det är subjektivt. Eftersom man avgör upplösningsförmågan med sitt
eget öga så kan olika personer komma fram till olika resultat. Något som också leder till att det är
sämre är att det endast mäter hur små de minsta detaljerna är som kan urskiljas på bild. Till exempel
kan ett objektiv som har betydligt lägre upplösningsförmåga ändå ge bilder som upplevs som
betydligt mycket bättre. Alltså säger detta inte särskilt mycket om hur bildkvalitén överlag.
MTF (Modulation Transfer Function) MTF är bättre än upplösningstest för att beskriva ett systems avbildningskvalitet eftersom det är
objektivt och ger mycket information. Nackdelen är att det är mer komplicerat och dyrare än
upplösningstest. MTF går ut på att man mäter hur mycket lägre kontrasten är i bilden jämfört med
motivet.
Luminansprofilen beskriver hur
gråtonen varierar periodiskt, och
eftersom maximala och minimala
gråtonsvärdet är detsamma för alla
linjer så är kontrasten konstant.
Om man fotograferar linjemönster till
höger så kommer de tätare linjerna att
förlora mera i kontrast än de glesare
linjerna. Belysningsprofilen visar hur
kontrasten i bilden minskar med ökande
linjetäthet i motivet. Den streckade
kurvan utgör kamerans MTF-kurva.
Ortsfrekvens = linjetäthet = "V
där s0 är en periodlängd
(enhet: m-1 eller mm-1, dvs.
linjetäthet/m eller
linjetäthet/mm)
26
Tolkning av MTF-kurvor
Genom att studera en bild på ett känt sinus-
format streckmönster och sedan studera hur
luminansen har ändrats mellan motivet och
bilden vi fått från sensorn i kameran, så kan vi
räkna ut MTF-värdet för systemet vid denna
frekvens på streckmönstret.
Detta görs genom att först räkna ut
modulationsgraden för motivet respektive
bilden. På grund av att vi aldrig i praktiken kan
få ett motiv som är helt vitt i de vita
områdena och helt svart i de svarta så måste
vi räkna ut modulationsgraden även för
motivet. Detta görs genom att använda
formeln till höger. Vi börjar sätta värdet på
Max till värdet på de ljusaste partierna i
motivet, och Min till de mörkaste. Sedan
använder vi formeln för att räkna ut
modulationsgraden. Detsamma görs sedan för
bilden.
Nu när vi har modulationsgraden för både motivet och bilden så kan vi räkna ut MTF-värdet. MTF-
värdet berättar med vilken faktor ett mönsters kontrast(modulationsgrad) minskar då vi går från
motiv till bild. Detta görs av formeln: MTF-värde = Mbild/Mmotiv
Det vi gör sedan är att ta fram MTF-värdet för olika
frekvenser på linjemönstret och sammanställer
resultatet i en graf. Grafens axel graderas med MTF-
värdet på den vertikala axeln och linjemönstrets
ortsfrekvens på den horisontella axeln.
En sak som är värt att notera är att MTF-värdet alltid
börjar på 1 vid ortsfrekvensen 0. Ett idealt system
skulle ha MTF-värdet 1 för alla ortsfrekvenser och
skulle då kunna avbilda detaljer av alla storlekar skarpt.
Bilden skulle då alltså bli en perfekt kopia av motivet.
Men detta går i praktiken aldrig att nå upp till då
diffraktion och avbildningsfel kommer att förstöra
bilden. Därför kommer MTF-kurvor för de flesta system
att sjunka i och med att frekvensen blir högre och
detaljerna mindre.
27
Objektivets MTF
I teorin så vill man ha ett MTF-värde som ligger konstant på 1, en så kallad ideal kurva. Då finns
varken avbildningsfel eller diffraktion. Praktiken är en helt annan, i all optik måste MTF-värdet nå
noll vid en viss ortsfrekvens, optikens så kallade gränsfrekvens. Om man mäter MTF-värdet för varje
enskild ortsfrekvens så får vi en verklig kurva över hur bra optiken är.
Optiken kan aldrig bli av med diffraktionen. Den diffraktionsbegränsade kurvan, där avbildningsfelen
är borttagna, är i princip det optimala ett objektiv kan åstadkomma. Den diffraktionsbegränsade
kurvan beräknas med
WXY 1QZ
där 3 är våglängden och F är bländartalet. Vid bländartal mellan 5.6 och 8 brukar man få i princip
total diffraktionsbegränsning i sin optik.
MTF-kurvor för fallen ideal-kurva, diffraktionsbegränsad kurva där vi inte har några avbildningsfel
och verkligt objektiv där vi har både avbildningsfel och diffraktionsfel
Totala MTF
Kamerans sensor och objektiv har båda ett MTF-värde för olika ortsfrekvenser. För att få det totala
MTF-värdet så multipliceras dessa värden ihop. Det totala värdet kommer alltid att vara sämre än
optikens och sensorns värde. Finns det flera faktorer som påverkar som till exempel rörelseoskärpa
vid till exempel kraftiga vibrationer, som i ett flygplan, så multipliceras detta också med. Detta ger ett
ännu sämre totalt MTF-värde.
Totala MTF-värdet ges av produkten av sens
MTF-jämförelse
Det man letar efter för en bra MTF
för låga och medelhöga ortsfrekvenser (återges på den
horisontella axeln) vilket gör kurva b klart överlägs
kurvorna ovan. Däremot kommer kurva a ge en bättre upplösning
då detta bara undersöker kurvan vid de alldra högsta
ortsfrekvenserna. Men eftersom kurva a har låga värden i övrigt
kommer bilden att uppfattas som suddig.
Egen MTF-mätning
Man kan själv göra en MTF-mätning för sin digitalkamera med en rimlig noggrannhet genom att
fotografera en skarp kant mellan svart och vitt.
Första bilden är så som den skarpa kanten kommer att avbildas på grund av optiken och sensorns
begränsningar. Från denna bild mäts pixelvärdena ut och bildar en pixelprofil (stegsvar), denna
deriveras och ger linjespridningsfunktionen (lsf). Detta körs genom ett program som utför en
Fouriertranform och ger då MTF.
En viktig del att tänka på när bilden tas är att se till at
beror på kameran utför en efterbehandlig på bilden innan den sparas i andra format så som JPEG. En
av dessa behandlingar är att ”förbättra” skärpan vilket i och för sig ofta är praktiskt för vanlig
användning men då denna operation är icke
värdet ges av produkten av sensorns och objektivets MTF
Det man letar efter för en bra MTF-kurva är att den ska ligga högt
för låga och medelhöga ortsfrekvenser (återges på den
horisontella axeln) vilket gör kurva b klart överlägsen av de båda
kurvorna ovan. Däremot kommer kurva a ge en bättre upplösning
då detta bara undersöker kurvan vid de alldra högsta
ortsfrekvenserna. Men eftersom kurva a har låga värden i övrigt
kommer bilden att uppfattas som suddig.
mätning för sin digitalkamera med en rimlig noggrannhet genom att
fotografera en skarp kant mellan svart och vitt.
Första bilden är så som den skarpa kanten kommer att avbildas på grund av optiken och sensorns
a bild mäts pixelvärdena ut och bildar en pixelprofil (stegsvar), denna
deriveras och ger linjespridningsfunktionen (lsf). Detta körs genom ett program som utför en
Fouriertranform och ger då MTF.
En viktig del att tänka på när bilden tas är att se till att bilden från kameran ges i RAW
beror på kameran utför en efterbehandlig på bilden innan den sparas i andra format så som JPEG. En
av dessa behandlingar är att ”förbättra” skärpan vilket i och för sig ofta är praktiskt för vanlig
en då denna operation är icke-linjär så raserar det hela den mattematiska grunden som
28
orns och objektivets MTF-värde
mätning för sin digitalkamera med en rimlig noggrannhet genom att
Första bilden är så som den skarpa kanten kommer att avbildas på grund av optiken och sensorns
a bild mäts pixelvärdena ut och bildar en pixelprofil (stegsvar), denna
deriveras och ger linjespridningsfunktionen (lsf). Detta körs genom ett program som utför en
t bilden från kameran ges i RAW-format, detta
beror på kameran utför en efterbehandlig på bilden innan den sparas i andra format så som JPEG. En
av dessa behandlingar är att ”förbättra” skärpan vilket i och för sig ofta är praktiskt för vanlig
linjär så raserar det hela den mattematiska grunden som
MTF är baserad på. Dessutom är MTF tänkt att mäta kamerans hårdvara och ska därför inte inkludera
några efterbehandlingar av bilden utan göras från så ren data som möjlig
I den vänstra digrammet syns det tydliga förändringar i kurvorna även med minsta möjliga
sharpening och i MTF diagrammet kan det också ses att de efterbehandlade bilderna ger upphov till
felaktiga kurvor, enklast är att se på den översta kurvan med ma
vida överstiger 1.0 vilket är det maximala MTF
mycket hackiga beror på brus och andra mätfel som uppstår och är helt normala vid praktiska
mätningar.
SNR SNR står för Signal-to-Noise Ratio. Det är ett av många typer av mått för att mäta den fotometriska
kvalitén. Det intressanta med SNR är att det mäts upp för samma exponeringsnivå, d.v.s. man tar en
avgränsad punkt i bilden som har en jämn gråton och mäter ett
Formeln för SNR beskrivs nedan:
Dynamisk Vidd Dynamisk Vidd, eller Dynamic Range som det heter på engelska, är ett av måtten på den
fotometriska kvalitén hos en kamera, i det här fallet sensorns förhållande mellan högsta oc
exponering. Det anger hur stort kontrastomfång kameran har. Har kameran för låg DR blir de ljusaste
partierna i fotot urblekta och urskiljbara och de mörkaste partierna blir omöjliga att urskilja från
bakgrundsbruset. DR räknas ut med nedanstående
?
Värt att nämna: En bra kamera har en DR på 3 000 eller mer och det mänskliga ögat uppskattas ha en
DR på omkring 10 000.
MTF är baserad på. Dessutom är MTF tänkt att mäta kamerans hårdvara och ska därför inte inkludera
några efterbehandlingar av bilden utan göras från så ren data som möjligt.
I den vänstra digrammet syns det tydliga förändringar i kurvorna även med minsta möjliga
sharpening och i MTF diagrammet kan det också ses att de efterbehandlade bilderna ger upphov till
felaktiga kurvor, enklast är att se på den översta kurvan med maximal sharpening då dess värden
vida överstiger 1.0 vilket är det maximala MTF-värdet. Att sluten på kurvorna i MTF diagrammet är
mycket hackiga beror på brus och andra mätfel som uppstår och är helt normala vid praktiska
Noise Ratio. Det är ett av många typer av mått för att mäta den fotometriska
kvalitén. Det intressanta med SNR är att det mäts upp för samma exponeringsnivå, d.v.s. man tar en
har en jämn gråton och mäter ett medelvärde och
Formeln för SNR beskrivs nedan:
[\ ]6]^Wä_6][T`a6`_6`WWbc]^d]
Dynamisk Vidd, eller Dynamic Range som det heter på engelska, är ett av måtten på den
fotometriska kvalitén hos en kamera, i det här fallet sensorns förhållande mellan högsta oc
exponering. Det anger hur stort kontrastomfång kameran har. Har kameran för låg DR blir de ljusaste
partierna i fotot urblekta och urskiljbara och de mörkaste partierna blir omöjliga att urskilja från
bakgrundsbruset. DR räknas ut med nedanstående formel.
? `ebf`^T 0be]^Wä_6][T`a6`_6`WWbc]^d] b dcghhi`_Tb
era har en DR på 3 000 eller mer och det mänskliga ögat uppskattas ha en
29
MTF är baserad på. Dessutom är MTF tänkt att mäta kamerans hårdvara och ska därför inte inkludera
I den vänstra digrammet syns det tydliga förändringar i kurvorna även med minsta möjliga
sharpening och i MTF diagrammet kan det också ses att de efterbehandlade bilderna ger upphov till
ximal sharpening då dess värden
värdet. Att sluten på kurvorna i MTF diagrammet är
mycket hackiga beror på brus och andra mätfel som uppstår och är helt normala vid praktiska
Noise Ratio. Det är ett av många typer av mått för att mäta den fotometriska
kvalitén. Det intressanta med SNR är att det mäts upp för samma exponeringsnivå, d.v.s. man tar en
medelvärde och standardavvikelse.
Dynamisk Vidd, eller Dynamic Range som det heter på engelska, är ett av måtten på den
fotometriska kvalitén hos en kamera, i det här fallet sensorns förhållande mellan högsta och lägsta
exponering. Det anger hur stort kontrastomfång kameran har. Har kameran för låg DR blir de ljusaste
partierna i fotot urblekta och urskiljbara och de mörkaste partierna blir omöjliga att urskilja från
era har en DR på 3 000 eller mer och det mänskliga ögat uppskattas ha en
30
Video och Signalbehandling
Registrering av bildNär man tar ett foto eller spelar in en bild är det viktigt att veta vad det är som är själva bilden. I
lekmannatermer kan man beskriva det som ljus som omvandlas till elektroner, men exakt hur går
denna process till? Först kanske d
Foton
Fotonens energi kan beskrivas med formeln
E = hv där h är plancks konstant och
frekvensen för det elektromagnetiska fältet.
Fotonen har våg och partikelegenskaper,
vilket har betydelse för vår studie av hur
kamera fungerar, eftersom det är
partikelegenskaperna i fotonen som ger den
fotoelektriska effekten.
Den fotoelektriska effekten är en beteckning på att en metall utstrålar elektroner om den har blivit
bestrålad med elektromagnetisk strålning med en t
CCD sensor och fotoelektrisk omvandlingDet finns två typer av sensorer som är de populäraste att använda. CCD är en variant, som står för
”charge-coupled-device”. Den andra heter CMOS och står för ”complementary metal oxide
semiconductor”.
CCD sensorn
CCD sensorn är uppbyggd som en matris. Denna matris
har små ljuskänsliga element som kallas pixlar
pixlar kan det ligga linser för att förbättra
ljuskänsligheten av kameran, och denna pixel kan i sin
tur vara antingen en ljuskänslig diod eller en
”photogate”. Hur ljuset registreras går till på samma
princip i både en diod och photogate, här näst ska vi
titta närmare på funktionen hos en photogate.
intervall för pixellstorlek i CCD är
Photogate
Photogaten är en integrerad krets i kisel. Högst upp är elektroden som fungerar som ledande
material, den är mycket tunn. Därunder ligger ett oxidlager som fungerar som isolator och längst ner
är materialet p-dopat kisel vilket fungerar som
Registrering av bild När man tar ett foto eller spelar in en bild är det viktigt att veta vad det är som är själva bilden. I
lekmannatermer kan man beskriva det som ljus som omvandlas till elektroner, men exakt hur går
denna process till? Först kanske det är lämpligt att definiera fotonen.
Fotonens energi kan beskrivas med formeln
är plancks konstant och v är
frekvensen för det elektromagnetiska fältet.
Fotonen har våg och partikelegenskaper,
vilket har betydelse för vår studie av hur vår
kamera fungerar, eftersom det är
partikelegenskaperna i fotonen som ger den
Den fotoelektriska effekten är en beteckning på att en metall utstrålar elektroner om den har blivit
bestrålad med elektromagnetisk strålning med en tillräckligt hög frekvens.
CCD sensor och fotoelektrisk omvandling Det finns två typer av sensorer som är de populäraste att använda. CCD är en variant, som står för
device”. Den andra heter CMOS och står för ”complementary metal oxide
CCD sensorn är uppbyggd som en matris. Denna matris
har små ljuskänsliga element som kallas pixlar. På dessa
pixlar kan det ligga linser för att förbättra
ljuskänsligheten av kameran, och denna pixel kan i sin
n ljuskänslig diod eller en
”photogate”. Hur ljuset registreras går till på samma
princip i både en diod och photogate, här näst ska vi
hos en photogate. Vanligt
tervall för pixellstorlek i CCD är 3-10 μm
Photogaten är en integrerad krets i kisel. Högst upp är elektroden som fungerar som ledande
material, den är mycket tunn. Därunder ligger ett oxidlager som fungerar som isolator och längst ner
dopat kisel vilket fungerar som halvledare.
31
När man tar ett foto eller spelar in en bild är det viktigt att veta vad det är som är själva bilden. I
lekmannatermer kan man beskriva det som ljus som omvandlas till elektroner, men exakt hur går
Den fotoelektriska effekten är en beteckning på att en metall utstrålar elektroner om den har blivit
Det finns två typer av sensorer som är de populäraste att använda. CCD är en variant, som står för
device”. Den andra heter CMOS och står för ”complementary metal oxide
Photogaten är en integrerad krets i kisel. Högst upp är elektroden som fungerar som ledande
material, den är mycket tunn. Därunder ligger ett oxidlager som fungerar som isolator och längst ner
Den här konstruktionen
medför att eftersom kislet är
p-dopat, kan man få de
positiva laddningsbärarna att
färdas bort från elektroden
om man lägger en positiv
spänning på den. Detta
medför att det finns ett
område under elektroden där
det inte finns några rörliga
laddningsbärare kvar. Detta
kallas utarmningsområdet.
Det som händer om en foton med tillräckligt hög energi träffar pixeln är att den slår loss en elektron
från en kiselatom. Om detta sker inne i det s.k. utarmningsområdet så kommer
upp till elektroden (den lägger sig under isolatorn) medan elektronhålet kommer att försvinna ut ur
utarmningsområdet. Dessa elektroner som bildas och lägger sig under isolatorn/kiseldioxidlagret blir
senare den digitala information
att skapa elektronhål i kisel är 1.2 eV vilket är en hög känslighet som gör att kisel är ett lämpligt
material att bygga en photogate av.
Blooming
Ju fler fotoner som registreras desto fler elektroner slås loss och ju mer information får man. Det
finns dock begränsningar på hur många elektroner en pixel o
elektronerna lägger sig under kiseldioxidlagret repellerar de varandra, de är ju alla negativa. De drar
också ner den positivt laddade elektrodens laddning, vilket i sin tur minskar utarmningsområdets
storlek vilket kan leda till att det försvinner helt.
Det som händer om en foton med tillräckligt hög energi träffar pixeln är att den slår loss en elektron
från en kiselatom. Om detta sker inne i det s.k. utarmningsområdet så kommer elektronen att färdas
upp till elektroden (den lägger sig under isolatorn) medan elektronhålet kommer att försvinna ut ur
utarmningsområdet. Dessa elektroner som bildas och lägger sig under isolatorn/kiseldioxidlagret blir
senare den digitala information som vi kan utläsa som bilder. Den lägsta fotonenergi som behövs för
att skapa elektronhål i kisel är 1.2 eV vilket är en hög känslighet som gör att kisel är ett lämpligt
material att bygga en photogate av.
Observera att om fotonen träffar en kiselatom
utanför utarmningsområdet så kommer inte
elektronen och elektronhålet att separeras.
Ju fler fotoner som registreras desto fler elektroner slås loss och ju mer information får man. Det
finns dock begränsningar på hur många elektroner en pixel och därmed en sensor kan lagra. När
elektronerna lägger sig under kiseldioxidlagret repellerar de varandra, de är ju alla negativa. De drar
också ner den positivt laddade elektrodens laddning, vilket i sin tur minskar utarmningsområdets
eda till att det försvinner helt.
32
Det som händer om en foton med tillräckligt hög energi träffar pixeln är att den slår loss en elektron
elektronen att färdas
upp till elektroden (den lägger sig under isolatorn) medan elektronhålet kommer att försvinna ut ur
utarmningsområdet. Dessa elektroner som bildas och lägger sig under isolatorn/kiseldioxidlagret blir
som vi kan utläsa som bilder. Den lägsta fotonenergi som behövs för
att skapa elektronhål i kisel är 1.2 eV vilket är en hög känslighet som gör att kisel är ett lämpligt
Observera att om fotonen träffar en kiselatom
nför utarmningsområdet så kommer inte
elektronen och elektronhålet att separeras.
Ju fler fotoner som registreras desto fler elektroner slås loss och ju mer information får man. Det
ch därmed en sensor kan lagra. När
elektronerna lägger sig under kiseldioxidlagret repellerar de varandra, de är ju alla negativa. De drar
också ner den positivt laddade elektrodens laddning, vilket i sin tur minskar utarmningsområdets
Well Capacity Det finns en begränsning i hur många elektroner en pixel kan lagra. Denna kapacitet kallas ”well
capacity” vilket man förstår är en passande beteckning när man tittar på hur pixlarna sa
dessa elektroner. När en elektron slås fri för att en foton reagerar med sillikon
denna elektron djupt inne i utarmningsområdet i någonting som kallas för
När elektronerna har lagrats så skickas en ström
potential, ca en volt, in i electrodlagret för att ändra
den elektrostatiska potentialen av det
underliggande kislet. Detta gör det möjligt för kislet
direkt under elektroden att bli en ”potential well”
som kan samla upp elektronerna som har släppts
fria av de tillförda fotonerna.
Nu när man har samlat upp pixlarna I brunnarna och
exponeringstiden är slut stängs slutaren. Man höjer
potentialen i elektroden till höger om de befintliga
brunnsdelarna, så att man fördelar laddningarna
över dubbelt så stora brunnsareor. Men då stänger
man den tidigare brunnsdelens potential, så att all
laddning uppsamlas i den nya brunnen. På detta
sätt kan man föra fotoelektronerna stegvis till
utläsningsregistret och därmed utläsa en bild.
Detta gör att på djupare liggande skikt i
kiselmaterialet kan elektroner börja driva bort till
angränsande pixlar. Detta förstör bilden och kallas
”blooming” och kommer yttra sig i att vid en kraftig
överexponering kan vissa partier i bilden bli kritvita
och sprida sig. Det finns en konstruktion att
motverka blooming med som kallas ”lateral
overflow drain”. Visserligen tar detta upp en del av
ljuskänsligheten av pixeln, men genom en sorts
barriärkonstruktion placeras oli
som motverkar denna bloomingeffekt.
Det finns en begränsning i hur många elektroner en pixel kan lagra. Denna kapacitet kallas ”well
capacity” vilket man förstår är en passande beteckning när man tittar på hur pixlarna sa
dessa elektroner. När en elektron slås fri för att en foton reagerar med sillikon
denna elektron djupt inne i utarmningsområdet i någonting som kallas för en ”potential well”.
När elektronerna har lagrats så skickas en ström-
potential, ca en volt, in i electrodlagret för att ändra
den elektrostatiska potentialen av det
underliggande kislet. Detta gör det möjligt för kislet
direkt under elektroden att bli en ”potential well”
som kan samla upp elektronerna som har släppts
Nu när man har samlat upp pixlarna I brunnarna och
tiden är slut stängs slutaren. Man höjer
potentialen i elektroden till höger om de befintliga
brunnsdelarna, så att man fördelar laddningarna
unnsareor. Men då stänger
man den tidigare brunnsdelens potential, så att all
laddning uppsamlas i den nya brunnen. På detta
sätt kan man föra fotoelektronerna stegvis till
utläsningsregistret och därmed utläsa en bild.
33
Detta gör att på djupare liggande skikt i
kiselmaterialet kan elektroner börja driva bort till
angränsande pixlar. Detta förstör bilden och kallas
”blooming” och kommer yttra sig i att vid en kraftig
vissa partier i bilden bli kritvita
och sprida sig. Det finns en konstruktion att
motverka blooming med som kallas ”lateral
overflow drain”. Visserligen tar detta upp en del av
ljuskänsligheten av pixeln, men genom en sorts
barriärkonstruktion placeras olika portaler i pixeln
som motverkar denna bloomingeffekt.
Det finns en begränsning i hur många elektroner en pixel kan lagra. Denna kapacitet kallas ”well
capacity” vilket man förstår är en passande beteckning när man tittar på hur pixlarna samlar upp
dessa elektroner. När en elektron slås fri för att en foton reagerar med sillikon-materialet så lagras
en ”potential well”.
Det finns några olika versioner a
utläsningsregistret. Ovan visas principerna för fyrfasklockning och tvåfasklockning. En fyrfas
fyra individuella kisel-portal-elektroder i varje pixelcell medan en tvåfas
Frame Transfer, Full Frame Transfer & Interline
Transfer Det finns två huvudsakliga pixelarrayer för hur en sensor överför sina pixeldata. I en Full Frame
Transfer så är hela sensorytan ljuskänslig under exponeringstiden. Datan i pixlarna skiftas successi
till skift-registret. I en vanlig Frame Transfer så är halva sensorn bilden, den andra halvan är
lagringsutrymme. Detta skapar en snabbare och mer effektivare informationssamling då bara en del
av sensorn behöver jobba med processing av bilden mellan va
det kräver en dubbelt så stor sensor.
Interlne Transfer är lite annorlunda, där har man både en fotodiod och ett lagringsutrymme i varje
pixelelement. När fotonerna registrerats av fotodioderna skiftas informationen ö
angränsande lagringsdelen av pixeln. Sen skiftas bildinformationen vidare.
Mikrolins
När man tittar på interline-konstruktionen så ser man att dess ljuskänslighet kan lida lite av den
minskade mängden fotodioder. Därför kan man använda en mi
dess ljuskänslighet.
Det finns några olika versioner av denna systematiska förflyttning för att flytta pixlarna till
utläsningsregistret. Ovan visas principerna för fyrfasklockning och tvåfasklockning. En fyrfas
elektroder i varje pixelcell medan en tvåfas-CCD har två.
Frame Transfer, Full Frame Transfer & Interline
Det finns två huvudsakliga pixelarrayer för hur en sensor överför sina pixeldata. I en Full Frame
Transfer så är hela sensorytan ljuskänslig under exponeringstiden. Datan i pixlarna skiftas successi
registret. I en vanlig Frame Transfer så är halva sensorn bilden, den andra halvan är
lagringsutrymme. Detta skapar en snabbare och mer effektivare informationssamling då bara en del
av sensorn behöver jobba med processing av bilden mellan varje bild, men det blir också dyrare då
det kräver en dubbelt så stor sensor.
Interlne Transfer är lite annorlunda, där har man både en fotodiod och ett lagringsutrymme i varje
pixelelement. När fotonerna registrerats av fotodioderna skiftas informationen ö
angränsande lagringsdelen av pixeln. Sen skiftas bildinformationen vidare.
konstruktionen så ser man att dess ljuskänslighet kan lida lite av den
minskade mängden fotodioder. Därför kan man använda en mikrolins-uppsättning för att förbättra
34
v denna systematiska förflyttning för att flytta pixlarna till
utläsningsregistret. Ovan visas principerna för fyrfasklockning och tvåfasklockning. En fyrfas-CCD har
CCD har två.
Frame Transfer, Full Frame Transfer & Interline
Det finns två huvudsakliga pixelarrayer för hur en sensor överför sina pixeldata. I en Full Frame
Transfer så är hela sensorytan ljuskänslig under exponeringstiden. Datan i pixlarna skiftas successivt
registret. I en vanlig Frame Transfer så är halva sensorn bilden, den andra halvan är
lagringsutrymme. Detta skapar en snabbare och mer effektivare informationssamling då bara en del
rje bild, men det blir också dyrare då
Interlne Transfer är lite annorlunda, där har man både en fotodiod och ett lagringsutrymme i varje
pixelelement. När fotonerna registrerats av fotodioderna skiftas informationen över till den
konstruktionen så ser man att dess ljuskänslighet kan lida lite av den
uppsättning för att förbättra
CCD/CMOS Vi nämnde i början att det finns två huvudtyper av sensorer och vi har översiktligt undersökt CCD
sensorns uppsättning. Vi ska nu kika på CMOS
skiftande överföringsstruktur utan har istället en individuell utläsning och förstärkning i varje pixel.
Denna struktur medför att man kan få snabbare (simultan) utläsning.
Färgregistrering Genom att bara mäta antalet fotoner som träffar en sensor f
inte vilken färg ljuset har. Färgen som ljus har beror på dess våglängd och för att kunna skilja på olika
färger har man kommit på ett antal olika tekniker med olika för och nackdelar.
Mosaik mönster (Bayer mosaik)
Här sitter ett mosaikmönstrat filter framför sensorn så att varje pixel bara utsätts för en färg. Att det
är lika många gröna filter som blåa och röda tillsammans beror på att det mänskliga ögat är
känsligare för gröna färger. Nackdelen med här är att man förl
den inte mäts till fullo vid varje pixel och ger då en lägre upplösning. Den slutgiltiga bilden skapas ofta
genom att använda ett snitt hos närliggande pixlar (interpolering).
+ Billig - Förlorar färginformation
+ Liten
3 pass exponering
Denna teknik använder ett roterade hjul med filter framför
sensorn. För varje bild tas tre bilder efter varandra i snabb följd,
en med varje filter. På detta sätt så får man tre färgläsningar för
varje pixel. Nackdelen är att det blir e
rotationerna och då kan motivet hinna röra på sig. Ett annat
problem är att man nu får mekaniska delar som måste röra sig
mycket snabbt vilket kan leda till små vibrationer som förvränger
bilden och färgerna.
+ Mindre än 3 chip CCD - Rörliga delar
+ Full färginformation - Kräver tre bilder
Vi nämnde i början att det finns två huvudtyper av sensorer och vi har översiktligt undersökt CCD
sensorns uppsättning. Vi ska nu kika på CMOS-sensorn. CMOS har till skillnad från CCD:n i
skiftande överföringsstruktur utan har istället en individuell utläsning och förstärkning i varje pixel.
Denna struktur medför att man kan få snabbare (simultan) utläsning.
Genom att bara mäta antalet fotoner som träffar en sensor får man bara reda på luminansen och
inte vilken färg ljuset har. Färgen som ljus har beror på dess våglängd och för att kunna skilja på olika
färger har man kommit på ett antal olika tekniker med olika för och nackdelar.
Mosaik mönster (Bayer mosaik)
sitter ett mosaikmönstrat filter framför sensorn så att varje pixel bara utsätts för en färg. Att det
är lika många gröna filter som blåa och röda tillsammans beror på att det mänskliga ögat är
känsligare för gröna färger. Nackdelen med här är att man förlorar en del information om färgen då
den inte mäts till fullo vid varje pixel och ger då en lägre upplösning. Den slutgiltiga bilden skapas ofta
genom att använda ett snitt hos närliggande pixlar (interpolering).
Förlorar färginformation
Denna teknik använder ett roterade hjul med filter framför
sensorn. För varje bild tas tre bilder efter varandra i snabb följd,
en med varje filter. På detta sätt så får man tre färgläsningar för
varje pixel. Nackdelen är att det blir en liten fördröjning mellan
rotationerna och då kan motivet hinna röra på sig. Ett annat
problem är att man nu får mekaniska delar som måste röra sig
mycket snabbt vilket kan leda till små vibrationer som förvränger
Rörliga delar
Kräver tre bilder
35
Vi nämnde i början att det finns två huvudtyper av sensorer och vi har översiktligt undersökt CCD-
sensorn. CMOS har till skillnad från CCD:n inte en
skiftande överföringsstruktur utan har istället en individuell utläsning och förstärkning i varje pixel.
år man bara reda på luminansen och
inte vilken färg ljuset har. Färgen som ljus har beror på dess våglängd och för att kunna skilja på olika
sitter ett mosaikmönstrat filter framför sensorn så att varje pixel bara utsätts för en färg. Att det
är lika många gröna filter som blåa och röda tillsammans beror på att det mänskliga ögat är
orar en del information om färgen då
den inte mäts till fullo vid varje pixel och ger då en lägre upplösning. Den slutgiltiga bilden skapas ofta
3 chip CCD
Innan ljuset når sensorn så delas det upp i de tre primärfärgerna av
en prisma och sedan vidare till tre separata sensorer, en för varje
färg. På så sätt undviks problemen med 3 pas
blir problem här är att det behövs tre stycken sensorer vilket både
blir dyrt och tar upp utrymme. Namnet är lite missvisande då detta
används med CMOS.
+ Tre bilder samtidigt - Dyr
+ Full färginformation - Stor
3 lagerteknik
För den här tekniken utnyttjas faktumet att olika våglängder absorberas på olika djup och har därför
placerat ett lager med portar mellan varje lager silikon. På så sätt får man också här en mätning för
varje primär färg per pixel. Nackdelen här är att ovanligga
ljuset från att nå ner till de undre lagren.
+ Full färginformation - Förlorar luminans
+ Liten
Utläsning från CCDTiden mellan att två bilder kan läsas kallas
beror på många olika variabler men en uppskattning kan göras genom följande.
Approximate Frame Rate (fps) =
Där Npixel är antalet pixlar som läses ur sensorn, T
exponeringstiden. För att få en mer korrekt beräkning måste man dock ta hänsyn till flera variabler
True Frame Rate (fps) =
FAT (tid för att få bild) beror på tiden det tar att
före användning gånger antalet cykler detta utförs (
tar det tid att öppna (Topen) och sedan stänga (
exponeringstiden (Texp):
Frame Acquisition Time = (T
Innan ljuset når sensorn så delas det upp i de tre primärfärgerna av
en prisma och sedan vidare till tre separata sensorer, en för varje
färg. På så sätt undviks problemen med 3 pass exponering, det som
blir problem här är att det behövs tre stycken sensorer vilket både
blir dyrt och tar upp utrymme. Namnet är lite missvisande då detta
Dyr
Stor
n här tekniken utnyttjas faktumet att olika våglängder absorberas på olika djup och har därför
placerat ett lager med portar mellan varje lager silikon. På så sätt får man också här en mätning för
varje primär färg per pixel. Nackdelen här är att ovanliggande lager med portar blockerar en del av
ljuset från att nå ner till de undre lagren.
Förlorar luminans
Utläsning från CCD Tiden mellan att två bilder kan läsas kallas frame rate som anges ofta i fps, bilder per sekund.
på många olika variabler men en uppskattning kan göras genom följande.
Approximate Frame Rate (fps) =
jklmnopqnrs tunmk
är antalet pixlar som läses ur sensorn, Tread är tiden det tar att läsa av en pixel och T
exponeringstiden. För att få en mer korrekt beräkning måste man dock ta hänsyn till flera variabler
Frame Rate (fps) =
ZYvw xyz"zz!| uzvw t ZYvw w uzvw
FAT (tid för att få bild) beror på tiden det tar att rensa ut laddningar ur det parallella registret
före användning gånger antalet cykler detta utförs (Nclear), om kameran använder en mekanisk slutare
) och sedan stänga (Tclose) denna och där emellan så är det
Frame Acquisition Time = (TPR × Nclear) + Topen + Texp + Tclose
36
n här tekniken utnyttjas faktumet att olika våglängder absorberas på olika djup och har därför
placerat ett lager med portar mellan varje lager silikon. På så sätt får man också här en mätning för
nde lager med portar blockerar en del av
anges ofta i fps, bilder per sekund. FPS
är tiden det tar att läsa av en pixel och Texp är
exponeringstiden. För att få en mer korrekt beräkning måste man dock ta hänsyn till flera variabler
uzvw
rensa ut laddningar ur det parallella registret (TPR)
), om kameran använder en mekanisk slutare
) denna och där emellan så är det
37
FRT (tid att läsa bild) beror på tiden det tar att rensa ut laddningar ur det seriella registret (TSR) före
användning, tiden att skifta alla parallella rader (Trow × Nrow), tiden för att förkasta seriell data (TSD)
gånger antalet pixlar som inte ska läsas (Ndiscard) och slutligen tiden för att konvertera (digitalisera)
alla pixlar som ska läsas (tread × Nread).
Frame Read Time = TSR + (Trow × Nrow) + (TSD × Ndiscard) + (tread × Nread)
För att snabba på processen att läsa ut data
kan man binda samman närliggande pixlar och
läsa dessa tillsammans vilket gör bilden
ljusstarkare, minskar brus och förbättrar SNR
men med lägre upplösning. Ytterligare ett sätt
är att använda två seriella register som tar
varsin halva av det parallella registret.
Sekventiell & simultan utläsning
Med en CCD som använder frame- eller interline
transfer så kan tläsningen ske på två olika sätt:
sekventiellt eller simultant. Efter att den första bilden
tagits och flyttats över till lagringsdelen i väntan på
utläsning så kan man välja att direkt efter påbörja
nästa exponering vilket ger en kontinuerlig ström av
bilder.
Om man använder de godtyckliga tiderna från
diagrammen (sekventiell överst och simultan under)
så får man ut 16,7 fps (3 bilder / 0.180 sekund) med
sekventiell läsning och 18.8 bilder per sekund (3
bilder / 0.160 sekund) med simultan läsning.
Sensorers egenskaper
Brus
Det finns tre sorts brus som kan uppstå på den här nivån:
• Läsnings Brus – brus som skapas av de elektriska komponenterna
• Mörker Brus – termisk energi i komponenterna (dark current) som ger extra elektroner, ökar
med användningstiden då komponenterna blir varmare
• Foton Brus – fotonerna i ljus är inte jämt fördelade vilket syns som brus
38
Dynamic Range
Den dynamiska vidden (DR) för sensorn beräknas med portarnas max kapacitet (Nsat, Full Well
Capacity, FWC) samt det maximala bruset utan exponering (Nnoise, Läsnings Brus + Mörker Brus).
Dynamic Range = 20 ) log ~r~ln
Signal-to-Noise Ratio
Signal-to-Noise Ratio (SNR) är inte att
förväxla med DR. DR är sensorns maximala
vidd av signal och SNR är förhållandet mellan
utsignalen och bruset i denna.
Signal-to-Noise Ratio = ~r
~ln
Verkningsgrad
Verkningsgraden för sensorer mäts i
quantum efficiency (QE) och är sensorns
effektivitet att producera och avläsa elekon-
hål par från infallande fotoner vid olika
våglängder.
Man kan öka våglängdsomfånget som sensorn kan uppfatta genom att belägga den med ett lager UV
känsligt material som absorberar UV strålning och sänder ut det som synligt ljus. Dessa material är
helt transparanta vid andra våglängder. En annan teknik är Back Illumination och går ut på att man i
stället belyser sensorn från dess baksida så att inte sensorns portar absorberar ljuset. Det är inte bara
att vända på sensorn utan namnet refererar till att konstruktionen är i stort sätt bakvänd.
Videosignalen Vårt öga fungerar så att det går en nervtråd från varje tapp och stav i ögat, alla tappar och stavar
sänder parallellt. Detta blir en otrolig mängd nervtrådar och att använda en kabel för varje pixel i
TV:n är inte ett hållbart alternativ. TV:n sänder istället seriellt. Detta innebär i princip att en kabel
måste ge samma information som ögats tappar och stavar skickar genom en enorm mängd
nervtrådar. Även om en TV inte har samma höga upplösning som ögat har.
Det är en mycket stor mängd information som skall sändas i kabeln och det är endast en begränsad
bandbredd som kan användas. Två andra faktorer som man måste ta hänsyn till är flimmereffekten
och PHI-effekten. Flimmereffekten uppstår på grund av att ögats stavar som är mycket ljuskänsliga
behöver en viss uppdateringsfrekvens i bilden för att ögats stavar inte ska uppfatta att det inte är ett
konstant ljusflöde från TV:n. PHI-effekten är det ögats tappar som står för. De behöver nämligen en
viss uppdatering av bilder för att det inte ska se ut som att det bara är stillbilder med en viss
förändring i, vilket det i verkligheten är. För att förhindra flimmereffekten behövs en
uppdateringsfrekvens på ungefär 50Hz och det behövs 25Hz för att förhindra PHI-effekten.
39
Genom att visa 50st bilder/sekunden så kan man förhindra båda dessa effekter men det kräver en
mycket stor bandbredd. Man har istället löst problemet så att man delar upp en bild i två delar med
varannan rad i varje del. Detta gör att TV:n visar 50hz men det är enbart 25 helbilder som syns.
Men eftersom kabeln fungerar seriellt så är frågan hur varje pixel i TV:n vet vad den skall visa. Det är
så att det är en elektronstråle (vidare fördjupning ges i kapitlet displayteknik) går rad för rad och
uppdaterar bilden. För att detta skall vara möjligt är det en del viktig information som det är viktig
att TV:n får, dels är det när det är dags för radbyte, horisontalsynk, och sedan är det när det är dags
att börja om högst upp på sidan, vertikalsynk. Men det är också viktigt att elektronstålen stängs av
när det är dags att utföra vertikal- och horisontalsynk. När elektronstrålen släcks under
horisontalsynk kallas det linjesläckpuls och när den släcks för vertikalsynk så kallas den bildsläckpuls.
Pratar vi om en svartvit TV så måste också ljusstyrkan, luminans, för varje pixel också förmedlas i
signalen. Detta blir alltså 5 olika signaler som måste förmedlas i videosignalen för svart-vit video.
I bilden ovan ser man hur en horisontell synkpuls är ”dold” i videosignalen. Den säger helt enkelt till
när det är dags för elektronstrålen att gå ned en rad. För den svenska standarden PAL sänds 625
rader varav 576 används till att rita upp bilden, de övriga raderna kan användas till annats så som
text-TV. Men eftersom att halva bilden visas i varannan bild så ritas endast 312,5 rader upp 50
gånger per sekund.
Vertikalsynk fungerar på ett liknande sätt men det hinner skickas 312,5 horisontella synkpulser för
varje vertikalsynk puls. Detta eftersom att varje rad skall ha uppdaterats innan den börjar om från
början överst på TV-bilden.
Släckpulserna fungerar på ett sådant sätt att signalen för ljusstyrkan sätts till 0 vilket är svartare än
svart och då stängs helt enkelt elektronstålen stängs av.
För att man ska kunna skilja på de olika signalerna så har man givit släck- och synkpulserna en styrka
från 0 till 0,3 volt och ljusstyrkan går från 0,3 till 0,7 volt. 0,7 volt ger vitt ljus och 0, 3volt ger svart ljus
och allt där emellan ger en gråskala. På detta sätt kan TV-monitorn separera de olika signalerna och
ge en korrekt avbildad bild.
Hittills har bara den svenska, och stora delar av Europas, TV-standard nämnts nämligen PAL. En
annan vanlig standard är NTSC och den har 525 horisontella linjer varav 480 är synliga och den
uppdateras med en frekvens på 60Hz.
Att bilden delas upp i två delar kallas interlaced och det kan ge en viss eftersläpning i bilden vid
snabba rörelser. Denna effekt kan ge ett filmiskt intryck. En annan metod är progressive och då visas
hela bilden två gånger och detta ger en mycket tydligare bild vid snabba rörelser men det kräver en
dubbelt så hög frekvens i videosignalen eftersom att hela bilden måste ritas upp två gånger.
Färg-TV ”Idag” har vi börjat använda färg
(luminans) utan det krävs krominans för röd, grön och blå färg.
frekvens än luminansen. I monitorn så står röd för 30 % av luminansen, grön för 59 % av l
och blå endast för 11 % av luminansen. Med denna vetskap så behöver videosignalen inte innehålla
någon information om krominansen för blå utan det kan räknas ut med hjälp av att veta krominans
för röd och grön tillsammans med luminansen. Detta g
bytte till färg-TV så kunde de gamla TV
och det beror på att luminansen låg på en annan frekvens än krominansen.
Olika typer av överföringarNu har vi bara pratat om TV-signalen men det finns andra typer av överföringar idag. Många är säkert
bekanta och här kommer lite kort fakta om dessa:
• TV-signal - Innehåller alla komponenter inkluderat ljud• Komponent - Tre separata kablar. Luminans, R• Komposit - Alla komponenter i samma signal ljudet ligger separat• S-video - Luminans och krominans ligger separat vilket ger en bättre signal än t.ex. komposit.• VGA - Standard för datorer• DVI - En standard som ofta används för att koppla datorer till LCD
både digitalt och analogt.• HDMI - Digital överföring till plasma och projektorer m.m. HDMI klarar en mycket hög
kvalitet på ljud och bild.
Displayteknik: CRTCRT är en gammal teknik som har blivit utbyt i vardagshemmet. CRT används fortfarande i vissa
kretsar.
Svartvit CRT
I en svartvit CRT skärm används en elektronaccelerator. Acceleratorn ligger tillsammans med
fokuseringsspolar i en vakuumtub. Själva acceleratorn har en katod som värms upp resultatet blir att
elektroner emitterar. Elektronerna accel
Elektronerna går igenom ett magnetisktfält (skapat av fokuseringsspolarna) vilket bestämmer deras
riktning. Efter att elektronen fått sin fart och riktning träffar de den svartvita
”Idag” har vi börjat använda färg-TV och då räcker det inte bara med att skicka en signal för ljusstyrka
(luminans) utan det krävs krominans för röd, grön och blå färg. Krominansen skickas på en högre
frekvens än luminansen. I monitorn så står röd för 30 % av luminansen, grön för 59 % av l
och blå endast för 11 % av luminansen. Med denna vetskap så behöver videosignalen inte innehålla
någon information om krominansen för blå utan det kan räknas ut med hjälp av att veta krominans
för röd och grön tillsammans med luminansen. Detta gör att man kan spara bandbredd. När man
TV så kunde de gamla TV-apparaterna fortfarande fungera med den nya standarden
och det beror på att luminansen låg på en annan frekvens än krominansen.
Olika typer av överföringar signalen men det finns andra typer av överföringar idag. Många är säkert
bekanta och här kommer lite kort fakta om dessa:
Innehåller alla komponenter inkluderat ljud Tre separata kablar. Luminans, R-Y, R-B
mponenter i samma signal ljudet ligger separat Luminans och krominans ligger separat vilket ger en bättre signal än t.ex. komposit.
Standard för datorer En standard som ofta används för att koppla datorer till LCD- eller plamsa
både digitalt och analogt. Digital överföring till plasma och projektorer m.m. HDMI klarar en mycket hög
Displayteknik: CRT CRT är en gammal teknik som har blivit utbyt i vardagshemmet. CRT används fortfarande i vissa
I en svartvit CRT skärm används en elektronaccelerator. Acceleratorn ligger tillsammans med
fokuseringsspolar i en vakuumtub. Själva acceleratorn har en katod som värms upp resultatet blir att
elektroner emitterar. Elektronerna accelereras igenom en potensskillnad mellan katod och anoden.
Elektronerna går igenom ett magnetisktfält (skapat av fokuseringsspolarna) vilket bestämmer deras
riktning. Efter att elektronen fått sin fart och riktning träffar de den svartvita fluorescera
40
TV och då räcker det inte bara med att skicka en signal för ljusstyrka
Krominansen skickas på en högre
frekvens än luminansen. I monitorn så står röd för 30 % av luminansen, grön för 59 % av luminansen
och blå endast för 11 % av luminansen. Med denna vetskap så behöver videosignalen inte innehålla
någon information om krominansen för blå utan det kan räknas ut med hjälp av att veta krominans
ör att man kan spara bandbredd. När man
apparaterna fortfarande fungera med den nya standarden
signalen men det finns andra typer av överföringar idag. Många är säkert
Luminans och krominans ligger separat vilket ger en bättre signal än t.ex. komposit.
eller plamsa-TV, finns
Digital överföring till plasma och projektorer m.m. HDMI klarar en mycket hög
CRT är en gammal teknik som har blivit utbyt i vardagshemmet. CRT används fortfarande i vissa
I en svartvit CRT skärm används en elektronaccelerator. Acceleratorn ligger tillsammans med
fokuseringsspolar i en vakuumtub. Själva acceleratorn har en katod som värms upp resultatet blir att
ereras igenom en potensskillnad mellan katod och anoden.
Elektronerna går igenom ett magnetisktfält (skapat av fokuseringsspolarna) vilket bestämmer deras
fluorescerade skärmen.
Färg CRT
Till skillnad från den svartvita CRT använder den färgade CRTn en skuggmask. Vakuumtuben är
nästintill uppbyggd som i den svartvita CRT tillskillnad att den använder 3
Skuggmask
Skuggmasken som är den stora skillnaden
fungerar så att den leder elektroner till rätt pixel
så att inte elektronen som skulle visa grönt träffar
den blåa pixeln.
Trinitron
Det finns olika varianter och ersättninga
skuggmasken. En är Trinitron en uppfinning från
SONY. Fördelen med denna teknik är att man får
en bättre bildkvalitet men på bekostnad av en
högre kostnad.
Till skillnad från den svartvita CRT använder den färgade CRTn en skuggmask. Vakuumtuben är
nästintill uppbyggd som i den svartvita CRT tillskillnad att den använder 3 elektronacceleratorer.
Skuggmasken som är den stora skillnaden
fungerar så att den leder elektroner till rätt pixel
så att inte elektronen som skulle visa grönt träffar
Det finns olika varianter och ersättningar till
skuggmasken. En är Trinitron en uppfinning från
SONY. Fördelen med denna teknik är att man får
en bättre bildkvalitet men på bekostnad av en
41
Till skillnad från den svartvita CRT använder den färgade CRTn en skuggmask. Vakuumtuben är
elektronacceleratorer.
42
In Line
In Line är en blandning mellan Trinitronrör och
skuggmask. Det heter In Line på grund av att
elektron acceleratorerna ligger på en rad.
Displayteknik: Platta skärmar
TFT/LDC
En LCD skärm är uppbyggd i olika lager där vi
hittar underst en lysskälla, därefter kommer
et polariserande filter som polariserar ljust.
Ljuset kommer nu till ett lager av flyttande
kristaller. Dessa kristaller styrs av olika
komponenter som lägga olika spänningar på
en skilda pixlar(avdelningar i kristallerna ),
detta gör vid olika spänningar släpper
kristallerna ut olika mycket ljus för varje enskild pixel.
Detta görs av att kristallerna reducerar polarisationen i
ljuset eller låter ljuset förbli polariserat. Desto mindre
polarisation desto mer ljus kommer släppas igenom i ett
senare lager. Färgfiltret som ligger efter kristallerna är
uppdelade i varje pixel i ”sub-pixels”(under- eller del-
pixel) där det finns en röd, blå och en grön pixel. Dessa tre
del-pixlar lyser upp olika mycket beroende på hur mycket
huvud-pixel har fått instruktioner att de ska göra. Sista
lagret är själva glasytan vi ser när vi kollar på skärmen och
den reflekterar inkommande ljus och stoppar inifrån
kommande ljus som fortfarande är polariserat. Det följer
att om en del av skärmen ska vara svart på ett specifikt
område så blir inte ljuset avpolariserat i kristallagret vilket
gör att sista lagret inte släpper ut något ljus.
+ Ger en ljusstark bild
- Svårt att få svarta delar riktigt mörka och LCD skärmar blir väldigt varma.
43
Gas Plasma
Plasma skärmar är också uppdelade i olika lager.
Först har vi en bak och front panel vilka mellan
sig skapar elektrisk spänning när aktiverad.
Dessa paneler har elektroder som kommer att
skapa spänningen till andra lagret vilket är där
alla pixlar befinner sig. Varje pixel är uppdelade
i 3 under-pixlar, varje pixel har en blå, grön eller
röd under-pixel. Under-pixlarna har olika
blandningar som ger olika färger. I varje under-
pixel finns fosforgas som när den joniseras av
spänningen bild plasma. I denna process
uppkommer ljus(även UV-ljus). Beroende på vilken pixel som ska lysa så läggs spänningen olika på
olika delar av skärmen. Kontrollsystemet som bestämmer den varierande spänning kan på så sätt
välja vilken färg som kan lysa på varje enskild pixel. Sist har vi glasytan där bilden kommer att vissas.
Det är svårt att få en stark ljusstyrka på dessa skärmar på grund av att det inte går att ladda varje
pixel hur mycket man vill.
+ Kan få svarta delar riktigt svarta
- Man inte få någon ljusstark bild
Jumbotron
En jumbotron är förmodligen de stora skärmarna på husväggarna du ser reklam på. Dessa är
uppbyggda med CRT-lampor (cathode ray tubes). Varje pixel kan vara uppbyggd på olika sätt ett
exempel är en 4 x 4 cm pixel med 4 blå, 8 röda och 8 gröna CRTs. För att kontrollera vilken färg och
vilken pixel som ska lysa sitter det en dator och organiserar allt.
Displayteknik: Projektion
CRT-projektion
CRT-projektion fungerar så att vi har tre projektioner en i varje
färg grönt, blått och grönt. Så man kan tänka sig att vi har tre
lager av ljus, där det som ska vara blått eller mindre blått
projiceras av den blåa projektion osv. med de andra färgerna. När
alla olikas färger träffar filmduken blandas färgerna och bildar
den färgen man var ute efter.
LCD system
DLP
DLP har för varje pixel en spegel som ändras
för hur mycket ljus som ska ut just för den
pixeln från ljuskällan. Sen kommer ljuset till ett
roterande färgfilter som ger ut bilde
färger. Hjulet snurrar så snabbt så det man ser
är en korrekt bild.
LCoS/D-ILA
Displayteknik: Projektion
projektion fungerar så att vi har tre projektioner en i varje
färg grönt, blått och grönt. Så man kan tänka sig att vi har tre
lager av ljus, där det som ska vara blått eller mindre blått
a projektion osv. med de andra färgerna. När
alla olikas färger träffar filmduken blandas färgerna och bildar
Använder man sig av en ljuskälla som delas in i tre färger
av olika speglar som sedan kommer till sin re
LCD. Vid LCD så samlas allt och projiceras till en rätt bild.
DLP har för varje pixel en spegel som ändras
för hur mycket ljus som ska ut just för den
pixeln från ljuskällan. Sen kommer ljuset till ett
roterande färgfilter som ger ut bilden i olika
färger. Hjulet snurrar så snabbt så det man ser
Fungerar som LCD förutom att man
använder LCoS istället för LCD. Vi får
ökad fyllnadsgrad på så sätt men vi
tappar ljusstyrka på grund av att vi
reflekterar ljuset.
44
Använder man sig av en ljuskälla som delas in i tre färger
av olika speglar som sedan kommer till sin respektive
LCD. Vid LCD så samlas allt och projiceras till en rätt bild.
Fungerar som LCD förutom att man
använder LCoS istället för LCD. Vi får
ökad fyllnadsgrad på så sätt men vi
tappar ljusstyrka på grund av att vi
45
Korrigeringar Färgkorrigerar, linjetäthet, scan size och fokus kan man korrigera på sin skärm via inställningar på
skärmen, till hjälp kollar man på olika bilder på skärmen som vi ser här under. De inställningar man
ska justera för att ändra utseendet på skärmen är blå-, grön-, rödfärg, gamma, svart och vit färg.
Mäta ljus Hur man mäter ljus från en skärm görs igenom att observera och mäta ljusflöde, ljusstyrka,
belysningsstyrka, luminans och ljusutbyte. Till hjälp använder men sig av olika mallar. Under oss ser vi
några exempel. Därefter mäter man upp ljuset med olika instrument.
Sampling och filter För att vi ska kunna behandla ljud såväl som bild i en dator så krävs det att vi gör om de analoga
signalerna till digitala. Sättet vi gör detta kallas sampling. Sampling innebär att vi delar upp den
analoga signalen i små bitar som vi sedan representerar med ettor och nollor. För att kunna göra
detta så måste vi bland annat bestämma hur många sådana bitar vi ska ta från den analoga signalen
varje sekund. Vi delar alltså upp den analoga signalen i ett visst antal ”samples” per sekund och
räknar ut medelvärdet för varje sådan sample.
För att kunna räkna ut vad medelvärdet för varje litet sample är så måste vi även sätta en högsta och
lägsta gräns för den digitala signalen. Detta gör vi eftersom ett digitalt värde endast kan anta ett visst
antal värden. Till exempel så kan en fyra bitars digital signal endast innehålla värden mellan 0000 och
1111, alltså bara 16 olika värden. Och eftersom en analog signal kan anta vilket värde som helst så
måste vi definiera vilket analogt värde som ska representeras av det digitala värdet 0000 samt vilket
högst analoga värde som ska representeras av 1111(för en 4-bitars signal) ska vara.
46
Analog och digital signal
En analog signal är tidskontinuerlig och amplitudkontinuerlig. Vilket innebär att den kan anta vilket
värde som helst hur ofta som helst.
En digital signal är tidsdiskret och amplituddiskret. Vilket innebär att den kan anta ett nytt värde ett
visst antal gånger varje sekund. Samt att värdena den kan anta är begränsade.
En sak som är värd att notera är att en digital signal som kopieras blir identisk med sitt original till
skillnad från analoga signaler som alltid ändras vid kopiering.
Vad finns det då för fördelar med en digital signal?
Fördelarna med en digital signal är
förutom att det krävs för att kunna ta in
signalen i datorn så har digitala signaler
den fördelen att brus och fel i signalen inte
påverkar något förrän
signal/brusförhållandet blir allt för stort.
Tillskillnad från en analog signal som
gradvis blir sämre ju mer ”fel” som finns i
signalen så ändras inte kvalitén på signalen
i det digitala fallet då antalet fel ökar.
Problemet med digitala signaler
Ett problem som uppstår med digitala signaler är att distorsionen ökar då amplituden på signalen
avtar. Detta gör att t.ex. en ljudsignal som är tyst inte låter som den analoga motsvarigheten. Ett
annat problem som uppstår är att det tar tid att arbeta med digitala signaler. Detta gör att det blir en
kort fördröjning om man t.ex. behandlar en digital signal med ett digitalt mixerbord.
Digitala signaler kan sparas både elektriskt i t.ex. USB-minnen, magnetiskt i t.ex. hårddiskar samt
fysiskt i t.ex. DVD-skivor vilket är en stor fördel vid produktion samt kopiering.
47
Sampling
När en digital signal ska samplas så uppstår det ett problem om man tar för få värden. Som man ser
här i bilden till höger så kan värdena bli helt fel om frekvensen med vilken man tar samples är för låg.
Regeln man i stort följer är
att frekvensen man tar
samples med ska vara
dubbelt så stort som den
högsta frekvens som
signalen man samplar har.
Detta kallas
samplingskriteriet.
Sampling kan ske både i en
dimension (ljud), två
dimensioner (bild) samt tre
dimensioner (video).
Vikningsdistortion/Aliasing
Ett fel som uppkommer ibland när man försöker till exempel registrera en digital bild av ett rastrerat
original. Felet uppstår i detta exempel om samplingstätheten legat nära rastertätheten i bilden. Felet
resulterar i ett så kallat moiré-mönster. För att motverka detta kan man montera ett så kallat anti-
aliasing filter framför sensorn i kameran. Detta filter är dubbelbrytande och projicerar då två
tättliggande bilder på sensorn. Man använder två sådana här filter för att totalt projicera fyra
separerade bilder på sensorn. Dessa bilder är förskjutna både horisontellt samt vertikalt med ett
avstånd på ca 3-10µm vilket motsvarar ca avståndet mellan två pixlar. Enkelt förklarat så dämpar
filtret de högra frekvenser som i bilden som orsakar moiré-mönstret.
Ett annat sätt att motverka vikningsdistortion är att översampla. Detta innebär att man samplar med
en mycket högre frekvens än man annars behöver. Om man gör detta så inte bara minskar risken för
vikningsdistortion utan även så låter det oss använda mindre branta filter och
kvantiseringsbruset(det brus som orsakas av att signalen består av steg istället för en slät kurva)
fördelas över ett större frekvensområde.
48
Lågpassfilter
Ett lågpassfilter är ett filter som används vid arbete
med signaler. Det släpper igenom de låga
frekvenserna i en signal men blockar de höga
frekvenserna. Gränsen mellan vad filtret tycker är en
låg respektive hög frekvens är linjär. Var denna linje
börjar och dess lutning är det man är intresserad av
då man använder ett lågpassfilter. Man vill kanske
t.ex. att filtret släpper igenom alla frekvenser under
500Hz men börja släppa igenom redan vid 600Hz.
Kvantisering
Kvantisering är det vi gör med den analoga signalen då vi gör
om den till digitala steg. Ett problem uppstår då vi vill
representera negativa värden. Eftersom binära tal endast är
positiva så får vi hitta på något trick. Tricket man använder är
låta det första siffran bestämma om talet är positivt eller
negativt. 0 får representera positiva tal och 1 negativa tal.
Digital – Analog omvandling
Sättet man omvandlar digitala signaler tillbaka
till analoga är genom ett sådant här resistornät.
Antalet strömbrytare/resistor kombination
representerar varje bit i det digitala talet. Man
lägger helt enkelt till en speciell resistor för
varje etta som talet består av. Resistansen i
hela nätet ändras då och man får en unik
spänning för varje digitalt värde.
De fel som kan uppstå vid D/A omvandling är
ifall det är något fel i resistornätet. Andra problem kan vara ifall resultatet inte är linjärt. Det blir då
svårt att beräkna och få ut rätt värden på utsignalen. Det bildas då alltså oönskad distorsion i
utsignalen.
Sampling av färg
Ett sätt att spara bandbredd är att utnyttja att våra
ögon inte är lika känsliga för ändringar i färg som vi
är för ändringar i intensitet. Vi kan då till exempel
sampla illuminansen varje bild medan vi samplar
färgen endast varannan (4:2:2 i bilden bredvid). En
annan idé är att sampla som 4:2:2 men skippa att
sampla färgen på varannan rad, detta kallas 4:2:0.
Ett sätt att spara bandbredd är att utnyttja att våra
liga för ändringar i färg som vi
är för ändringar i intensitet. Vi kan då till exempel
sampla illuminansen varje bild medan vi samplar
färgen endast varannan (4:2:2 i bilden bredvid). En
annan idé är att sampla som 4:2:2 men skippa att
annan rad, detta kallas 4:2:0.
Detta utnyttjas vid standarden för komponent
video där vi samplar de olika färgkanalerna med
6.75MHz men samplar luminansen med 13.5MHz.
49
Detta utnyttjas vid standarden för komponent
video där vi samplar de olika färgkanalerna med
6.75MHz men samplar luminansen med 13.5MHz.
50
Produktion och Distribution
51
Processer i film- och TV-produktion
Effekter och trick
När man arbetar med film och TV så finns det olika metoder och trick att utnyttja för att åskådaren
ska få ut en maximal upplevelse. Något som begränsar upplevelsen när man kollar på TV är att man
själv reglerar ljudstyrkan vilket gör att det blir svårare att utnyttja varierande ljudnivåer för att skapa
effekter, man tvingas att hålla ljudnivåerna kring en bestämd nivå. Det man ofta gör är att få liknande
effekt som när man är på en biograf är att ha tystnad innan en stor smäll för att tittarens öron ska ha
ställt in sig på tystnad för att sedan chockas. På en biograf kan man istället variera ljudstyrkan fritt för
att skapa samma effekt.
Bildmässigt finns det också många trick att ta till. En filmkamera har bara ett konstrastomfång på
1:60 till skillnad från ögats 1:2 000. Denna begränsning I kameran gör att man måste ta till speciella
knep för att få bilden som önskat. Det kan också vara fördelar med den dåliga kontrasten. Det är inte
ovanligt att man gömmer “skurkar” i mörka skuggor, detta skulle aldrig gå i verkligheten
Mediers hållbarhet
Den film som används idag är väldigt lik den film som alltid har använts. Detta gör att det är lätt att
spela gamla filmer i moderna maskiner. En annan viktig fördel med filmen är att den har en extremt
bra hållbarhet. Under rätt färghållanden så som temperatur och fuktighet så kan den hålla i 500 år.
Video har till skillnaden från film mycket stora kompatibilitetsproblem. Ett videoformat som
användes för ett par år sedan kan det vara svårt att spela upp idag. Dessutom så är livslängden
betydligt sämre än för filmen. Digitala lagringsmedium kan ha så dålig livslängd som 10 år. Fördelen
med digitala medier så som DVD:er är att de går att kopiera utan förändrad kvalitet till skillnad från
analoga medier.
Magnetbandet
Magnetbandet har använts länge nu och har ofta fungerat bra men det finns nackdelar så som
klippning, brus och det har även varit problem att kopiera dem. Klippning innebär att det inte finns
tillräkligt mycket magnetiskt pulver för att beskriva ljud med en hög amplitud och därför klipps dessa
av och ljudet blir dåligt. Det ljudet går aldrig att återskapa om klippning uppstått.
Vid kopiering av magnetband kan det uppstå ett slags eko som kommer före det verkliga ljudet.
Genom att bakspola bandet så kommer ekot efter det verkliga ljudet vilket låter betydligt mer
naturligt.
Film- och TV-produktion
Film kostar ungefär 100 gånger mer än TV-produktion vilket också syns i den lägre standarden i TV.
Lägre kostnader betyder också sämre personal vilket har gjort att många i Tv-branschen inte stannar
längre än 3 år. Förr hade till exempel programledare en betydligt bättre utbildning och kunde därför
också jobba mera bakom kameran. Film har ofta mycket högra kompetenskrav och det är också en
anledning till att det kostar mer.
52
Filmer är ofta dramaturgiskt helt annorlunda uppbyggt än bland annat nyhetsmedier.
Film inleder med två mindre händelser för att det sedan komma till en större händelser, detta följs av
två mindre händelser för att avsluta med den absolut största. Nyhetsmedier däremot inleder med de
största nyheterna och tar sedan mindre och mindre spännande nyheter. Detta gör de eftersom att
om det skulle komma en mycket viktig nyhet under sändningstiden så kan man ersätta de mindre
spännande nyheterna.
Enkameraproduktion
Detta är den enklaste typen av produktion och har som förstått bara en kamera. Det är inspelning
och överspelning till redigeringen som kräver teknisk kompetens. I övrigt krävs det konstnärlig
kompetens så som redigering, ljudeffekter, musik, ljudmixning och grafik. När alla har arbetat med
materialet så skall det sedan spelas över till ett distributionsmedium.
Multikamerainspelning
Detta är en produktionstyp som ofta används vid skeden som inte kan avbrytas så som sport och
andra stora evenemang. Detta är dyrare och mer tekniskt krävande.
53
Filmproduktion, äldre process
Fördelen med denna process är att den är kostnadseffektiv. Men den anses ofta vara förlegad.
Källkodning Sampling sker i tre dimentioner: horisontellt, vertikalt och temporalt. Om man samplar med en
frekvens som är minst dubbelt så hög som signalen så kan man fulständigt återskapa signalen från
sampeln (icke-förstörande sampling). Vid återskapandet används då signalen med lägs frekvens som
matchar samplingen. För att inte behöva sampla för mycket kan man använda ett lågpassfilter för att
ta bort de aldra högsta frekvenserna i signalen och då komma undan med en lägre samplings
frekvens (anti-vikningsfilter eller anti-aliasing filter). Då samplen ska översättas till en digital
representation uppstår kvantiseringsfel eftersom den digital delen har en begränsad finhet och
måste då avrunda till närmaste tillgängliga värde. Finheten bestämms i förväg efter vad som önskas,
högre finhet (flera bitar data, bits) tar mer plats. Ett exempel är ett grå-vitt spektrum där man kan se
skarpa kanter där det borde vara en mjuk övergång, det beror på en otillräcklig upplösning och man
har då tvingats avrunda samplen.
Färgkomponenterna R G B kan omvandlas till luminans/krominans Y, Cb, Cr.
Luminansens komponenten: Y = 0.3R + 0.1B + 0.6G
Krominans, halv upplösning: Cb = B-Y & Cr = R-Y
54
Stillbildskodning Kompressionsmetoderna är uppdelat i två huvudsakliga delar: förlustfri kompression och Icke
förlustfri kompression.
Förlustfri kompression
Utnyttjar kunskap om signalens egenskaper, så som vanligt återkommande symboler. Kompressionen
blir vanligtvis omkring 2-5 gånger och beror på entropin, dvs. slumpmässigheten i bilden.
Entropi beräknas genom S ∑ i2b4 log@ i2b4z där funktionen p ger sannolikheten för att ett symbol
ska förekomma. Målet vid val av kompresions model är att välja den modell som ger en entropi så
nära som möjligt den som återfinns i orginalet, där den optimala modellen ger samma entropi värde.
En modell som kan åstakomma detta är Huffmankodning men då krävs det att symbolernas
sannorlikhet är symetriskt föredelade och inte varierar vilket i praktiken sällan är fallet, men den är i
många fall en effektiv modell i alla fall. Principen den bygger på är att tilldela den mest
förekommande symbolen med den kortaste koden, den näst mest förekommande med de näst
kortaste koderna, osv. Andra modeller man kan använda för att ge en låg varians av symboler är
aritmetisk kodning och att kombinera symboler. Ofta kan likheter utnytjas, så som att närliggande
pixlar ofta är liknande, och då istället koda variationen. När väl en låg variation har uppnåtts kan man
minska mängden data genom att utnyttja prediktion där den följande symbolen gissas baserat på
tidigare kända symboler, jämföra gissningen med originalet och koda korrektionen som behövs.
Detta kan baseras på tidigare symboler i samma rad men också symboler på tidigare rader då två
närliggande pixlar på olika rader kan likna varandra lika mycket som om de var på samma rad. Detta
kallas 1-dimensionell respektive 2-dimentionell prediktering.
Icke förlustfri kompression
Här utnyttjas istället för kunskap om signalen, kunskap om hur betraktaren upplever objektet. Här
kan istället kompression variera kring 4-30 gånger. Till detta används förfiltrering så som lågpassfilter
eller omsampling (minska bildstorlek) som då leder till förlorad data. Andra metoder är
färgrumskonversion, transformkodning (t.ex. DCT) och valet av kvantisering. En vanlig
bildkomprimerings standard är JPEG som använder förljande steg: färgrumskonversion till Y, Cb, Cr,
följt av beräkning av DCT för 8x8 pixlar block för minskad varians (avrundnings fel), där efter
kvantiseras DCT koefficienterna (kvantiseringsfel), 2-dimensionell prediktering av DC koefficienter,
Zig-Zag avläsning av AC koefficienter (förvrängning av bilddetaljer) variabellängdkodning av data
innehållande nollor samt Huffmankodning av övriga data.
DCT (Diskret Cosinus Transform) block
och dessa väden kvantiseras sedan med hjälp av en standard matis för JPEG. Denna matis är
anpassad till det mänskilga ögats känslighet och används för att sortera bort värden som ögat inte
kommer att sakna. Efter detta steg innehåller matrisen ett större värde i övre vänstra
kallas DC koefficient, kring detta ligger att antal mindre värden, AC koefficienter, följt av nollor.
Denna matris kan då sparas med en varierande längd beroende på antalet AC koefficienter vilket ger
mycket mindre data att spara.
Kodning av rörliga bilderNär övergången till rörliga bilder görs så öppnas ytterligare en dimention i och med detta införs två
begrepp: inter- & intra-kodning. Inter
kodning utnyttjar redundans mellan bilde
ökade mängder data, det går visserligen att spara varje ruta som en
det stora insparningar att göras. En enkel teknik är att istället för att ha efterföljande bild anvä
sk. skillnadsbild som utgörs av skillnaden till nästa bild. Ofta är det områden i bilder som inte ändras
mellan varje ny bild, dvs. den delen behövs inte lagras flera gånger om, istället används
skillnadsbilder.
En annan metod är att använda
fyrkanter som kan röra sig mellan bilderna och därefter spåra hur ett motiv rör sig i bilden och
anpassa fyrkanterna till detta. När detta väl är gjort så kodas en röreslevektor som beskriver hur just
den fyrkanten röra sig genom biden, för snabbare rörelser, så som i sport scener, krävs längre
vektorer. Problemet med detta är att det är mycket prestanda krävande.
Även i den temporala dimentionen kan
man utnytja prediktion, här dessutom från
två håll. Dels används framåtprediktion
men också bakåtprediktion,
använder en bild innan (I) och en bild efter
(P) för att gissa vad som hände där
emellan (B), om något finns i bilden efter
) block- kodning transformerar värderna inom små block (JPEG 8x8)
tiseras sedan med hjälp av en standard matis för JPEG. Denna matis är
anpassad till det mänskilga ögats känslighet och används för att sortera bort värden som ögat inte
kommer att sakna. Efter detta steg innehåller matrisen ett större värde i övre vänstra
kallas DC koefficient, kring detta ligger att antal mindre värden, AC koefficienter, följt av nollor.
Denna matris kan då sparas med en varierande längd beroende på antalet AC koefficienter vilket ger
liga bilder När övergången till rörliga bilder görs så öppnas ytterligare en dimention i och med detta införs två
. Inter-koding utnyttjar redundans inom en bild (
kodning utnyttjar redundans mellan bilder (temporalt). Den extra dimmentionen innebär också
, det går visserligen att spara varje ruta som en individuell stillbild men här finns
det stora insparningar att göras. En enkel teknik är att istället för att ha efterföljande bild anvä
som utgörs av skillnaden till nästa bild. Ofta är det områden i bilder som inte ändras
mellan varje ny bild, dvs. den delen behövs inte lagras flera gånger om, istället används
En annan metod är att använda rörelsekompensering vilket går ut på att dela upp bilderna i
fyrkanter som kan röra sig mellan bilderna och därefter spåra hur ett motiv rör sig i bilden och
anpassa fyrkanterna till detta. När detta väl är gjort så kodas en röreslevektor som beskriver hur just
en fyrkanten röra sig genom biden, för snabbare rörelser, så som i sport scener, krävs längre
vektorer. Problemet med detta är att det är mycket prestanda krävande.
Även i den temporala dimentionen kan
man utnytja prediktion, här dessutom från
framåtprediktion
dvs. man
) och en bild efter
) för att gissa vad som hände där
), om något finns i bilden efter
55
transformerar värderna inom små block (JPEG 8x8)
tiseras sedan med hjälp av en standard matis för JPEG. Denna matis är
anpassad till det mänskilga ögats känslighet och används för att sortera bort värden som ögat inte
kommer att sakna. Efter detta steg innehåller matrisen ett större värde i övre vänstra hörnet som
kallas DC koefficient, kring detta ligger att antal mindre värden, AC koefficienter, följt av nollor.
Denna matris kan då sparas med en varierande längd beroende på antalet AC koefficienter vilket ger
När övergången till rörliga bilder görs så öppnas ytterligare en dimention i och med detta införs två
koding utnyttjar redundans inom en bild (spatiellt) och intra-
Den extra dimmentionen innebär också
stillbild men här finns
det stora insparningar att göras. En enkel teknik är att istället för att ha efterföljande bild använda en
som utgörs av skillnaden till nästa bild. Ofta är det områden i bilder som inte ändras
mellan varje ny bild, dvs. den delen behövs inte lagras flera gånger om, istället används
vilket går ut på att dela upp bilderna i
fyrkanter som kan röra sig mellan bilderna och därefter spåra hur ett motiv rör sig i bilden och
anpassa fyrkanterna till detta. När detta väl är gjort så kodas en röreslevektor som beskriver hur just
en fyrkanten röra sig genom biden, för snabbare rörelser, så som i sport scener, krävs längre
som inte var där innan borde det kommit in i bilden där emellan. I
utan ska vara helt korrekta, P-bilden skapas utifrån den närmast föregående P
bilden skapas utgående från närmast föregående och efterföljande I
En vanlig kodning för rörlig bild är MPEG
utspridd variant är MPEG2 som använder bakåt och framåt prediktering. dvs. I, P och B frames, en
rörelsevektor per 16x16/8x16 block (field/frame adaption) me
kodning av DCT koeff. samt enkel prediktion för DC och rörelsevektorer. I jämförelse med MPEG1 är
v2 nyare men även den gammal (10 år), klarar interlace, har högre flexibilitet, håller ett systemlager
och klarar högre bandbärädd (2
passa dåtidens tecknik som vra mycket klenare än dagens, det finns nyare varianter så som MPEG4
som klarar av mycket mer avancerade och mer välutvecklade metoder vilket get bä
mindre storlek. Problemet med MPEG4 är att det är kopplat till ett dyrt och svårt licens avtal som
beror på antal användare och utnyttjad tid, jämfört med MPEG2 som bara har en engångskostnad
per tillvekad avkodare.
Synkronisering av bild Synkronisering av bild och ljud innebär att man tajmar ljudet med bildspelet i film/TV.
Ett sätt man kunde göra det på förr i tiden var att man hade
en motor som var kopplad till både bildkameran och
ljudkameran, vilket betyder att de spelar in
hastighet. På så sätt kunde man få ljudnegativ och
bildnegativ som stämde exakt överens med varanda, och
man kunde sammanställa dem och få en film där ljud och
bild var synkroniserade.
Pilotton
När bandspelaren senare gjorde entré, och man började
in ljud på band så behövde man komma på ett nytt system
för att synkronisera ljudet med bilden, eftersom bandspelarna
saknade synkronmotorer och saknar som bekant
perforeringshål. Det resulterade i att pilottonen, eller
styrtonen, utvecklades. Pilottonen är en växelspänning på
0,75 till 1,5 volt som alstras i en liten generator som är
förbunden med drivaxeln i filmkameran. Pilottonens uppgift
är att följa antal bilder per sekund som kameran filmar med.
Om antalet bilder per sekund ändras så följer pil
som inte var där innan borde det kommit in i bilden där emellan. I-bilder hela bilder som inte skapas
bilden skapas utifrån den närmast föregående P
bilden skapas utgående från närmast föregående och efterföljande I- eller P-bild. För att inte förlora
allt för mycket kvallité så tillåts max 15 bilder innan
nästa I-bild, dvs. en GOP (Group of Pictures
längd 15. För att slippa buffra extra mycket data så
skickas bilden som anväds för bakåtprediktering innan
bilderna som predikteras, detta illustreras till vänster.
nlig kodning för rörlig bild är MPEG som finns i flera varianter som har utvecklats under åren. En
utspridd variant är MPEG2 som använder bakåt och framåt prediktering. dvs. I, P och B frames, en
rörelsevektor per 16x16/8x16 block (field/frame adaption) med varierbar längd, 2D variabel längd
kodning av DCT koeff. samt enkel prediktion för DC och rörelsevektorer. I jämförelse med MPEG1 är
v2 nyare men även den gammal (10 år), klarar interlace, har högre flexibilitet, håller ett systemlager
andbärädd (2-15 Mbit/s). Dessa två varianter utvecklades för länge sedan för att
passa dåtidens tecknik som vra mycket klenare än dagens, det finns nyare varianter så som MPEG4
som klarar av mycket mer avancerade och mer välutvecklade metoder vilket get bä
mindre storlek. Problemet med MPEG4 är att det är kopplat till ett dyrt och svårt licens avtal som
beror på antal användare och utnyttjad tid, jämfört med MPEG2 som bara har en engångskostnad
Synkronisering av bild och ljud Synkronisering av bild och ljud innebär att man tajmar ljudet med bildspelet i film/TV.
Ett sätt man kunde göra det på förr i tiden var att man hade
en motor som var kopplad till både bildkameran och
ljudkameran, vilket betyder att de spelar in i samma
hastighet. På så sätt kunde man få ljudnegativ och
bildnegativ som stämde exakt överens med varanda, och
man kunde sammanställa dem och få en film där ljud och
bandspelaren senare gjorde entré, och man började spela
in ljud på band så behövde man komma på ett nytt system
för att synkronisera ljudet med bilden, eftersom bandspelarna
saknade synkronmotorer och saknar som bekant
perforeringshål. Det resulterade i att pilottonen, eller
onen är en växelspänning på
0,75 till 1,5 volt som alstras i en liten generator som är
förbunden med drivaxeln i filmkameran. Pilottonens uppgift
är att följa antal bilder per sekund som kameran filmar med.
Om antalet bilder per sekund ändras så följer pilottonens
56
ilder hela bilder som inte skapas
bilden skapas utifrån den närmast föregående P- eller I-bild och B-
bild. För att inte förlora
lité så tillåts max 15 bilder innan
Group of Pictures) med
längd 15. För att slippa buffra extra mycket data så
skickas bilden som anväds för bakåtprediktering innan
bilderna som predikteras, detta illustreras till vänster.
som finns i flera varianter som har utvecklats under åren. En
utspridd variant är MPEG2 som använder bakåt och framåt prediktering. dvs. I, P och B frames, en
d varierbar längd, 2D variabel längd
kodning av DCT koeff. samt enkel prediktion för DC och rörelsevektorer. I jämförelse med MPEG1 är
v2 nyare men även den gammal (10 år), klarar interlace, har högre flexibilitet, håller ett systemlager
15 Mbit/s). Dessa två varianter utvecklades för länge sedan för att
passa dåtidens tecknik som vra mycket klenare än dagens, det finns nyare varianter så som MPEG4
som klarar av mycket mer avancerade och mer välutvecklade metoder vilket get bättre kvalité med
mindre storlek. Problemet med MPEG4 är att det är kopplat till ett dyrt och svårt licens avtal som
beror på antal användare och utnyttjad tid, jämfört med MPEG2 som bara har en engångskostnad
Synkronisering av bild och ljud innebär att man tajmar ljudet med bildspelet i film/TV.
57
frekvens efter och ändras också. Pilottonen kan sägas fungera som osynliga perforeringshål.
Ljud på filmremsa
Låt oss studera bilden till höger:
Den yttersta raden, på båda sidor, innehåller SDDS-ljudet
(SDDS är ett ljudformat som brukar användas inom bio-film).
Det prickiga som syns är en bild av ljudsignalen (men på bilden
är prickarna förstorade så att de ska synas bättre). Om man
rör sig inåt på filmremsan så kommer man till perforeringarna
och Dolby Digital-ljudet som finns mellan dem. Fortsätter man
ännu längre in så ser man två analoga ljudspår, och till sist,
längst in innan själva bildrutan, så finns tidkoden som
synkroniserar DTS-ljudet. DTS-ljudet ligger nämligen separat
på en CD-skiva, och det är denna som man synkroniserar med
bilden.
Till vänster är en mer detaljerad bild, det är en förstorad
bild av en filmremsas ljudinnehåll. Om man tittar noga så
kan man se Dolby Digital-loggan i mitten av DD-
ljudinformationen
Tidkod (Timecode)
Tidkod är ett system som används för att numrera bildrutor, ungefär som man brukar numrera
filmrutor med nummer i kanten. Det skapades på 70-talet, och syftet var att man skulle kunna
redigera videoband. Tidkod är väldigt bra eftersom man på så sätt kan identifiera varje unik bildruta,
vilket annars hade varit svårt eftersom man på ett videoband inte kan se någon information om de
individuella bildrutorna.
Tidkod är en hjälpsignal som spelas in på videobandet,
och består utav en åttasiffrig kod, där varje bildruta får
en unik kod tilldelad. Koden är på formen:
”HH:MM:SS:FF”, där H står för timme, M står för minut, S
står för sekund, och F står för Bildruta (Frame).
Kodformen kallas för Binary-coded Decimal (BCD), och
sträcker sig från ”00:00:00:00” till ”23:59:59:29” (FF
varierar beroende på bildfrekvensen).
Det finns även något som heter Burnt-in Timecode (BITC), vilket innebär att tidkoden bäddas in i
bildinformationen, vilket helt enkelt innebär att tidkoden inte kan tas bort från bilden.
58
Dropframe tidkod
I 25Hz video och 24 Hz film så är bildfrekvensen ett heltal, och i dessa system så överensstämmer
tidkod-tiden exakt med den verkliga tiden.
När USA en gång i tiden gick över till färg-TV så var amerikanerna tvungna att minska bildfrekvensen i
sina system (60Hz och 30Hz) med en faktor 77777 (vilket ger 59,94 Hz respektive 29,97 Hz). Detta
eftersom det uppstod störningar mellan ljud-, färg- och skannigsfrekvenserna. De lägre
bildfrekvenserna betyder däremot att tidkod-tiden går lite långsammare än den verkliga tiden, och
det är här dropframe kommer in i bilden. Dropframe är nämligen en teknik som används för att
tidkod-tiden ska överensstämma med verklig tid. Det fungerar genom att man hoppar över två
tidkoder varje minut förutom den tionde minuten ( 00, 10, 20, 30, 40, osv.). Dropframe uppnår inte
en exakt överensstämmande realtid, men kommer väldigt nära. Vid en frekvens på 7
77 bilder/s så är
resultatet efter 24 timmar att tidkod-tiden ligger efter med bara 86,4 ms.
Motsatsen till dropframe är nondropframe och är helt enkelt tidkod-tekniken som används när man
inte använder dropframe, dvs vid heltalsfrekvenser. För att skilja på de två så brukar man använda
semikolon framför ”FF” när man vill visa att en tidkod använder dropframe, och vanligt kolon när det
är nondropframe.
Exempel på skillnaden mellan dropframe- och nondropframe-tidkod:
LTC och VITC
Tidkod spelades från början in som ett ljudspår i kanten
på videobandet. Detta kallas för LTC, vilket förr stod för
Longitudinal Timecode, men som senare kom att stå för
Linear Timecode. P.g.a vissa begränsningar kunde man
inte avläsa tidkoden vid väldigt långsam bandhastighet
eller när bandet helt stoppats. Detta ledde till att man
började spela in tidkod i videosignalen, i det sk övre
släcket av videobandet, som höga (vita) och låga (svarta)
nivåer.
Denna teknik kallas för Vertical interval Timecode (VITC),
och möjliggör avläsning av tidkod när badhastigheten är väldigt lånsam eller när bandet helt stannat.
Nackdelen med VITC är att det inte går att avläsa tidkoden när videobandet snabbspolas, men genom
att kombinera de två teknikerna så kan man uppnå 100% avläsningssäkerhet.
Nondropframe Dropframe
59
Projektplanering Vid varje projekt så krävs det mycket planering innan själva arbetet kan starta. Det kan vara allt från
att bestämma vilken kamera man ska använda, till vart scener ska spelas in, till problemet att välja
personal. Planeringen är viktig för att kunna lägga fram en budget för produktionen. Det kan kosta
hundratusentals kronor om man hyrt utrustning, lokaler, statister och annan personal och sen
märker när det är dags att filma att man glömt något viktigt som gör att man inte kan filma.
Projektplaneringen för en film- eller TV-produktion kan se ut på olika sätt men innehåller oftast alltid
dessa punkter:
- Idéutveckling
- Manus
- Ekonomi
- Avtal – Rättigheter
- Produktionsmetoder
- Produktionsteknik
- Ateljéinsatser
- Administration och Ledning
- Uppföljning
Idéutveckling
Denna del går ut på att man tar fram en idé om vad resultatet av produktionen ska mynna ut till. Man
försöker visualisera hur produktionen ska bli, utan att gå in på manus och andra detaljer. Man
försöker även se till att alla i produktionen gör samma film/program och inte har olika bilder av vad
slutresultatet ska vara. Man bestämmer varför man gör produktionen, vad målet ska vara samt tar
fram ett koncept.
Manus
I samband med att man skriver manuset så skapar man utöver text och dialog även storyboards.
Detta gör man så att skådespelare och annan personal ska snabbt och enkelt se hur det är tänkt att
den aktuella scenen ska se ut. Storyboardsen kan vara allt från enkla streckgubbar till mer
avancerade koncept bilder som i detalj visar exakt hur det ska se ut. I samband med att manuset
behandlas så gör man även ett körschema som beskriver i vilken ordning man kan filma alla scener.
T.ex. om man har tio scener i en skola så kan det vara smart att filma alla de scenerna vid samma
tillfälle så att man slipper flytta personal och utrustning till platsen en gång till vilket kostar pengar.
Ekonomi
Ekonomin för produktionen är ofta det som främst bestämmer kvalitén på en produktion. T.ex. Sagan
om Ringen filmerna skulle inte vara särskilt spännande om man inte hade råd med specialeffekter.
Det man börjar göra när det gäller ekonomin är att skriva avtal och fixa offerter på allting. Man
fastställer hur mycket man tror saker kommer att kosta och hur mycket pengar man har att använda.
När man satt ramarna för budgeten så gäller det att prioritera var man ska lägga pengarna. Ska
hjälten i filmen få spränga sönder en Ferrari eller räcker det om han åker en Volvo? Man lägger fram
en förkalkyl i början och senare även en efterkalkyl.
Avtal – Rättigheter
I en produktion så är det ofta ett stort antal i personalen där alla ska ha lön. Man måste då lägga
fram ett system så att alla har klara avtal över hur mycket de ska arbeta och vad de ska göra för att få
60
betalt. Men det är inte bara personalen som kostar utan även hyrning av lokaler, utrustning, rekvisita
och mycket annat. Här är det viktigt att skriva avtal så att man helt plötsligt inte står där utan
kameror på grund av att kontraktet hade gått ut.
Andra saker man kan behöva tänka på är att kontrollera att man får alla rättigheter som krävs för att
få använda den musik och de bilder som man tänkt sig. Det kan bli väldigt kostsamt om skivbolag
märker att man använt deras musik utan lov.
Produktionsmetoder
Med produktionsmetoder menar man i vilken form man ska utföra projektet. Ska det vara en
flerkamera uppställning i en studio eller ska det vara en enkamera produktion på en platsinspelning?
Det är sådant man måste bestämma sig för innan man kan börja filma. Man kan även behöva fundera
kring om man ska använda filmkameror eller videokameror samt ifall produktionen är linjär(t.ex.
intervju eller fotbollsmatch) eller Icke linjärt(t.ex. långfilm)
Produktionsteknik
Detta är helt enkelt vilka tekniker man ska använda. Vilken inspelningsteknik är mest lämplig att
använda? Vilken redigeringsteknik vill personalen helst använda? Hur ska vi göra med
ljudbearbetningen? Man måste även tänka på hur filmen/resultatet ska distribueras. Det är stor
skillnad på en film som är ämnad för att ses på bio och en som ska visas i en mobiltelefon.
Ateljéinsatser
För att skapa en bra film så krävs det att man har kunnig personal som kan skapa snygga dekorer och
rekvisita. Man måste även ha personal som har hand om sminkning och fixar kläderna som
skådespelarna ska ha på sig. Man måste även ha folk som arbetar med grafiken och övriga saker som
kan tänkas behövas för att produktionen ska kunna genomföras.
Administration och ledning
I en produktion är det viktigt att alla vet vem de ska gå till om de har några frågor. Man måste veta
vem som bestämmer och därför är det viktigt att ha ett par personer som organiserar alla personer
på produktionen. Dessa personer har även i uppgift att skapa en produktionsplanering som all
personal kan följa. Utöver detta så måste det finnas folk som har i uppgift att hitta personal för alla
områden. Det kan vara olika personer som anställer de olika grupperna av personal. T.ex. är det
speciella personer som ansvarar för castingen, alltså vilka skådespelare som ska spela vilken roll.
Administrationen måste även sköta bokningar och beställningar av allt som kan tänkas behövas och
det är även dem som tar de slutgiltiga besluten och sätter deadlines.
Produktionsplan
Produktionsplanen för en produktion består av tre delar:
- Föraktivitetsplan
- Inspelningsplan
- Föraktivitetsplan
Dessa planeringar ska innehålla alla detaljer som kan behövas. Det kan vara allt från bemanningen
varje dag till exakt vilken utrustning som krävs och exakt när den behövs.
61
Produktionsprocessens struktur
Så här ser processen ut från start till slut, i stora drag:
- Idé
- Audiovisuellt Utvecklingsarbete
- Godkännande / Idébeslut
- Produktionsteknisk analys
- Produktionsplan
- Kalkylering/Budgetering
- Godkännande/Produktionsbeslut
- Detaljplanering
- Genomförande/Produktion
- Godkännande/Leverans
- Arkivering/Uppföljning
Lagringsteknik
Problem idag
Lagringen idag är en intressant fråga med diverse problem och gynnsamma förhållanden. Problemen
är bland annat lagringsbeständigheten, vi vet inte var vi ska lagra våra media om 50-100 år och i och
med att den nya tekniken ständigt blir sämre och sämre på långvarig lagring kommer detta att var ett
problem redan om 30 år. En temporär lösning på detta problem är s.k. migrering, d.v.s. en
kontinuerlig process där man flyttar information mellan hårddiskar. Men säkerhetsfrågan är också e
viktig fråga, om man lagrar all information på samma hårddisk kan år av arbete och
informationssamlande förstöras av en enda vattenskada. Detta innebär dock att företags
säkerhetskopiering tar upp kilometer, ja t.o.m. mil av lokalytor.
Standarder
Idag finns det väldigt många olika standarder på optisk avläsning. Den
första CD-tekniken hette CD-DA. Detta stod för Compact Disk – Digital
Audio. Här började man med standarden att beskriva teknologier i
diverse färgböcker, Red Book är namnet på den bok där denna teknik
står beskriven och är idag grunden för all vår CD-teknik. Några år efter
det kom yellow book, som beskriver CD-ROM – teknologien och Red
Book accepterades som officiell standard 1986. Sen dess har tekniken
blivit ytterligare förfinad genom fler tekniska färgdokument, här är en kort listning:
Bok Teknik Tillkomstår
Red Book CD – Audio 1981
Yellow Book CD – ROM 1984
Orange Book CD – R ?
Green Book CD - i 1994
Blue Book Multisessionformat 1995
CD – skivans fysiska dimensioner och egenskaperDet är fortfarande red-book vi vänder oss till för att få detaljerna om CD
något som är ännu högre i CD-ROM och CD
Längst ut på skivan är ett område som kallas Lead
in. Detta lagrar skivans TOC, Table of Contents och
fungerar som index åt skivan genom att skapa
tidskoder som ger skivan information om hur alla
spår förhåller sig. Inget spår får vara kortare
fyra sekunder och det får max finnas 99 spår på
skivan.
Därefter ligger själva ljudinformationen på skivan, om som man nu kan förstå avläses skivan inifrån
och ut. Längst ut på skivan ligger området som kallas Lead Out, och det består av digital tystna
att lyssnaren ska förstå att skivan är slut.
Det finns också en kod på skivan som
definerar den likt böckernas ISBN. Denna
kallas ISRC, och denna kod lagras i subkodens
Q-kanal (vi kommer senare till vad subkod och
Q-kanal är). Exakt vilken natur de
information har kan man se i bilden här till
höger.
CD-skivans tillverkning
En skiva formas genom att ta en plastdeg, som oftast är av materialet polykarbonat, och pressa den
till en platta. Det blir små djup i denna skiva, men som man kan se i
själva djupet på
skivan utan
”platåhoppen” som
ger avläsaren
information och
omvandlas till en
binär etta när
avläsaren gör om
inläsningen till binära
data.
skivans fysiska dimensioner och egenskaperbook vi vänder oss till för att få detaljerna om CD-skivans fysiska dimensioner.
Skivan är ungefär 1,2 mm tjock och dess centrumhål
har en diameter på 15 mm. Det är ytterst viktigt att
centrumhålet är exakt centrerat då det är mycket små
marginaler vid avläsningen av skivan och
avläsningshastigheten brukar ligga mella 1,2
ROM och CD-R/W, ungefär 50 gånger så hög.
Längst ut på skivan är ett område som kallas Lead
in. Detta lagrar skivans TOC, Table of Contents och
fungerar som index åt skivan genom att skapa
tidskoder som ger skivan information om hur alla
spår förhåller sig. Inget spår får vara kortare än
fyra sekunder och det får max finnas 99 spår på
Därefter ligger själva ljudinformationen på skivan, om som man nu kan förstå avläses skivan inifrån
Längst ut på skivan ligger området som kallas Lead Out, och det består av digital tystna
att lyssnaren ska förstå att skivan är slut.
Det finns också en kod på skivan som
definerar den likt böckernas ISBN. Denna
kallas ISRC, och denna kod lagras i subkodens
kanal (vi kommer senare till vad subkod och
kanal är). Exakt vilken natur denna unika
information har kan man se i bilden här till
En skiva formas genom att ta en plastdeg, som oftast är av materialet polykarbonat, och pressa den
till en platta. Det blir små djup i denna skiva, men som man kan se i bilden här nedanför så är det inte
62
skivans fysiska dimensioner och egenskaper skivans fysiska dimensioner.
Skivan är ungefär 1,2 mm tjock och dess centrumhål
diameter på 15 mm. Det är ytterst viktigt att
centrumhålet är exakt centrerat då det är mycket små
marginaler vid avläsningen av skivan och
avläsningshastigheten brukar ligga mella 1,2 – 1,4 m/s,
Därefter ligger själva ljudinformationen på skivan, om som man nu kan förstå avläses skivan inifrån
Längst ut på skivan ligger området som kallas Lead Out, och det består av digital tystnad för
En skiva formas genom att ta en plastdeg, som oftast är av materialet polykarbonat, och pressa den
bilden här nedanför så är det inte
63
Tillverkningen av CD-skivan fortsätter med att man lägger på ett skikt aluminiumoxid på
fördjupningarna på skivan. Detta då det är en laser som avläser skivan vilket innebär att man behöver
en stark reflektion när laserstrålen träffar skivmaterialet. Ovanpå detta läggs ett 10-30 mikrometer
skyddande lager lack och slutligen läggs skivetiketten på. Denna struktur på CD:n gör att skivan blir
som mest känslig för skada ovanifrån.
CD – skivans avläsning
Avläsningen av en CD-skiva sker inifrån och ut, till skillnad från en LP där det görs utifrån och in. Som
tidigare sagts så är det små marginaler själva avläsningen rör sig på, ett ”hål” i skivan (som är själva
information för avläsningen) är ca 0,5 mikrometer i bredd, 0,8 – 3,5 mikrometer lång och har runt 1,6
mikrometer mellan varje spår. Detta medför att mycket att läsarens konstruktion är till för att få en
så stor precision som möjligt på avläsningslasern.
Själva avläsningssystemet är uppbyggt med en laser
längst ner. Härifrån skickas en ljusstråle som först går
förbi ett prisma. Detta prisma reflekterar ljusstrålen till
en foto-detektor, vilket ger själva inläsningen av
informationen som registreras. Sen går lasern genom
en lins, en fokusspole styrd av en magnet och
ytterligare en lins, allt för att fokus ska bli så maximerat
som möjligt.
Fokuserings och radialservo
Servokretsarna ligger i spelaren för att se till att dels laserstrålen är i fokus på CDn samt att se till att
CDn rör sig på ett mjukt sätt.
Det går att räkna ut mängden data man får ut av servosystemets korrigering genom att helt enkelt
plussa ihop alla element i sensorn. Man får dess fokus genom att ta a+b – c-d och dess spår genom
att ta fram a – f.
64
Signalbehandlingen
Signalbehandlingen i CD-skivan är en lite komplicerad historia, men här görs ett försök att definiera
den. Varje ljudsample i stereo är två byte långt (16 bitar) och i stereo har ett komplett ljudsample
både spår för höger och vänster öra. Alltså består ett komplett ljudsample av 32 byte. Nu grupperar
man signalen i något som kallas ljudramar. Varje ljudram innehåller sex stereosamplingar, alltså är en
ljudram 6 x 32 = 192 bitar = 24 byte. Härifrån införs beteckning ljudsymbol, som är ekvivalent med
beteckningen byte.
Nu utför man ett steg i kodningen som kallas
interleaving, det innebär att symbolerna sprids ut
över tidsaxeln så att de inte har samma inbördes
ordning längre.
Nu utförs själva CIRCn. Först omvandlas en
stereosampling (som är 32 bitar) till fyra symboler
(som då blir åtta bitar stora var).
Nu fördröjs vartannat symbolpar i ljudramen med
två byte, skickas genom en korskoppling och får
därigenom en omkastad ordning mellan de 12
individuella symbolparen. Nu genereras också ett
första paritetsblock, fyra byte stort, som kallas Q.
Paritetsblock är tilläggskod som gör att man kan se var fel uppstår. Ett paritetsblock kommer att
hamna efter de första 12 symbolerna och efter att ljuddatan genomgått liknande
omkodningsprocesser igen får den ytterligare ett paritetsblock placerat i slutet av ljuddatan. Även en
byte subkod läggs till i början av ljudramen. Nu har alltså den 24
byte stora ljudramen blivit 33 byte stor.
Detta var CIRC förklarad extremt förenklad, men nu läggs ytterligare
koder till i form av styrkoder. På CD-Audio har man styrkoderna P &
Q även om det finns fler styrkoder på andra CD-format. Styrkoderna
läggs till med längden 1 byte i början av varje korrigerad dataram.
Detta är dock en väldigt begränsande mängd data för att kunna
utläsa något konkret, så man läser in subkoden som kanaler istället
när man avkodar ljudinformationen. Man läser alltså av själva
styrkoderna på ”tvären” medan ljudspåren läses av normalt.
DVD
”Digital Video Disc”, senare officiellt namngiven
”Digital Versatile Disc”. Grundläggande principen för
DVD är att de har två substrat istället för CD-
AUDIO:s enda, och varje sådant lager är 0,6 mm
tjockt. DVD kan då lagra 4,7 GB per lager. Man har
utvecklat både teknik för dubbel mängd lager och
lagring på båda sidor om skivan, som tillsammans fyrdubblar den redan existerande kapaciteten.
65
På en dvd – skiva använder man inte TOC som på CD – AUDIO, utan man använder RSPC-block. Man
använder sig av varje sektors unika nummer för att peka ut information på skivan. En sektor går
ungefär att jämföra med en ljudram hos CD – AUDIO. På DVD använder man sig av ESM-modulering
(Eight-to-sixteen modulation) som gör varje 8-bitars byte till sexton bitar. Detta för att se till att det
inte bildas flera ettor eller nollor i följd, så kallad ”jittering”. I vanlig CD använder man EFM, 8-14,
men ESM ger bättre jitterprestanda.
Magnetsik lagring När det gäller klassiska videoinspelningar så är maxfrekvensen vi kan spela in beroende av
hastigheten av hur snabbt bandet läses in av inspelningshuvudet samt gapet mellan de två polerna
på inspelningshuvudet. Detta kan sammanfattas i följande matematiska formel: Bf`e w@
Anta nu att vi har trumman som matar fram bandet. Den har oftast fyra knoppar som bildar ränderna
på bandet. Om vi vet mängden knoppar, mängden varv cylindern färdas varje sekund och längden på
varje rand så kan vi räkna ut hastigheten på bandet. Tar vi vanliga värden får vi 4 x 240 varv/s x 4.12
cm 3955 cm/s 13.19 Mhz (Om man sätter in värdena i formeln ovan och använder
standardvärden).
Tittar man på en videotrumma så kan dess
diameter användas för att räkna ut dess spårlängd
(ungefär). I första fallet är diametern 62 mm. 62 x π
= 194 mm och spårlängd
@ .
När man läser av bandet har man infört en vinkel
som praktiskt leder till en dämpning av högre
frekvenser. Detta kallas för ”Azimuthvinkel” och
beräknas so m den sammanlagda vinkeln mellan de
två olika vinklarna som har bildats i läshuvudplanet.
Överhörnings-dämpning är den separation som
uppstår mellan kanaler. Överhörning är ett fenomen som mäts i decibel och ju högre överhörningen
66
är ju mer monotekniskt är systemet. Ju lägre detta värde är desto bättre anpassat är det för
stereosändning. Ett stort problem med video var att man fick mycket bättre uppspelningskvalité ju
högre inspelningsfrekvensen var. Tyvärr är den tillgängliga inspelningsfrekvensen begränsad. Detta
löstes med något som kallas frekvenstransponering.
Poblemet med inspelning på video är att vi har
signaler mellan 30 Hz och 4’200’000 Hz. Detta
bildar ett ratio på 1:14000000 vilket är som spela
in en slagborr och en viskning samtidigt.
Med frekvensmodulation skickar man in
videosignalen, som max får vara 42 MHz, och en
annan signal på 8.6 MHz. Den bärande signalen
modulerar antingen frekvensen eller amplituden
hos originalsignalen. Dessa signaler bildar
tillsammans en signalstyrka som ligger mellan
4.4 – 12-8 Mhz. Här är skillnaden mellan största
och minsta signalstyrka mycket mindre, ratiot
ligger på 1:3, vilket är en klar förbättring.
Servon
Det finns olika servon som reglerar hastigheterna i videospelaren. Trumservot reglerar
videohuvudenas hastighet när de läser av bandet. Under inspelning kontrollerar den videons
horisontella synkpulser för att se om det spelas upp rätt spår för varje ruta film. Under uppspelning
så jämför trumservot antingen med den uppelade videon själv, eller en utomstående referens för att
se till att rätt spår spelas upp.
Capstan servot försöker istället se till att bandet spelas upp med en konstant hastighet. Här jämförs
under inspelningen servots regelbundna hastighet med de inkomna vertikala pulserna från videon.
Vid uppspelning jämför servot liksom trumservot med en utomstående referens för den uppspelade
videons vertikala synkpulser för att se till att rät hastighet uppnås.
Bandlagring
Det finns flera standarder för inspelning på band, här följer några ur ”D”-klassen:
• D1
I D1 standarden spelas bildinformationen in
på båda ändarna av spåret medan ljud spelas
in I mitten för att undvika skador som lätt
inträffar på kanterna. Azimuthvinkeln är 0.
67
• D2
D2 har liknande egenskaper som D1, fast här
spelas istället ljudet ut i kanterna och bilden in i
mitten. Azimuthvinkeln är 15+15 = 30 grader.
• D6
Väldigt annorlunda mot D1 och D2 då det har strukturen för datainspelning, inte bara video. Informationen är lagrad i klusters om 8 bitar och här ligger ljudet i första och sista klustret medan mittendelen innehåller bilden. Udda spår har krominansinformationen, de jämna ger luminansen.
• DVC
Följer strukturen för digitala format, först kommer
området ITI som innehåller styrkoder, följt av
ljudinformation, följd av bilden för att till sist ge
subkoden.
Digital Video Broadcasting (DVB) DVB är en samling av öppna standards för digital TV. Med digital TV har det öppnats fler möjligheter
än vad traditionell TV gjort. Nu kan användaren interagera med sändningen, du kan beställa film,
spela spel, ha tillgång till TV-guider m.m. via sin TV. Idag finns det flera olika sätt att ta i mot digitala
sändningar alla har sina fördelar och nackdelar.
68
Först behövs DVB - och MPEG 2 -
systemen förklaras. DVB systemet
är uppbyggt först med att bild och
ljudet komprimeras, efter det så
läggs datainformation till. När bild,
ljud och data ska skickas iväg
multiplexerar3 man dess strömmar.
Sändningen av strömmarna kan ske
på tre sätt: antingen via kabel,
satellit eller marksänt. När sändningen kommer fram till mottagaren så demultiplexerar och avkodar
man strömmen som sedan kan spelas upp på TV:n. För MPEG 2 systemet har vi på avsändarsidan en
video och ljudkodare som skickas till en system kodare där synkroniseringen görs av en PES syntax.
Kodarnas jobb är att
komprimera bild, ljud och
data så att de tar mindra
platts. På mottagarsidan
behandlas signalen på
samma sätt som på
avsändarsidan förutom att
nu går det åt andra hållet.
Felfilter & Funktioner
• Randomisering handlar om att man delar upp data av varje bild som sänds t ex om vi har fem
bilder som skickas iväg ligger data om bild ett i bild 1, 2, 3, 4 och 5. Det gör att om vi förlorar t
ex bild fyra så kommer inte hela bild fyra förloras helt utan vi kommer förlora lite data om
alla bilder. Randomisering gör så att inte vi förlorar en del av sändningen utan bara en del av
det avsnittet den delen som gick förlorat ligger nära till, det gör att hela bildupplevelsen
flyter på bättre.
• Reed Solomon kod hjälper signalen från skurfel.
• Faltnings kod är en mattematisk sannolikhetsfördelnings för att
rätta till linjer så att de blir skarpa.
• QPSK är den digital moderations schema
som modifierar data efter referensen som
ligger i signalen, helt enkelt en
fasmodellering. Bilden närmast till höger
representerar en fas och varje röd fyrkant
en QPSK - symbol som representeras av två bitar.
• QAM bilden längst bort till höger illustrerar 64 QAM
3 Multiplexering är när man samlar flera strömmar ihop till en enda ström
69
• Skyddslucka är att man skickar
signalen i omgångar, och mellan dem
har vi skyddsluckan. Funktionen är att
om vi får ett reflektions fel4 så
kommer inte den fördröjda signalen
accepterad och bortrensad.
TV via bredband
TV via bredbandet mottas via ett IP nätverk där det finns olika källor till sändningen t ex direktsänt, ”Video on demand” eller olika lokala TV-stationer. Källorna har alla sina sätt att skicka in sägningen till nätverket, några använder DVB-S, andra IRDs sen finns det många fler sätt. Det sätt som är effektivt är dock att man får in sägningen direkt från ett annat IP nätvärk. Nu när sägningen kommer in i IP nätverket görs den om till MPEG-2 och skickas sedan till mottagaren som kommer att kunna använda formatet direkt i sin dator/TV. Sättet att titta på TV via bredbandet har sina fördelar. Vi får ett lägre ”Bit Error Rates5” än vad vi skulle om vi använde någon av de gamla TV sändningsmetoderna. Det används ett till sätt att minska data förlusten och det kallas ”Forward Error Correction” som tilllåter informationen att gå flera vägar, möjliggör att om en väg sängs eller avbryts så går informationen en annan väg i nätverket. Nackdelar är att bredbandets bandbred inte är så stort, så frågan är om det blir fler och fler som använder detta sätt kommer bandbredden att räcka till?
TV via Satellit
TV via satellit kan användas i första hand på tre sätt, först
är det ”Direct broadcast satellite”(DBS) är satelliten sänder
direkt till mottagaren, eller så får en lokal TV-station
sändningen från satelliten och de skickar vidare den via
maksänd TV till mottagaren eller så skickas sändningen till
en ” headend” (fungerar som en hubb) som
vidarebefordrar sändningen till mottagaren via kabel.
En satellits bandbred ligger oftast från 27 MHz till 50 MHz. Nu när det gäller digital TV så sänder
satelliten formaten MPEG och DVB-S. Under underutveckling finns även ett nytt format DVB-S2 som
kan sända flera MPEG-2 ljud och video strömmar, detta är till för HDTV kräver ett större data flöde.
4 Reflektions fel är då två kanaler överlappar varandra. Detta menas med att man ser en svag bild av den andra
kanalen överlappa den kanalen man ser på 5 Data förluster
70
Föredelen med att se på TV via satellit är att men slipper reflektions fel. De felen man emellertid kan
uppleva är ett svagt brus i bilden. Detta kommer ifrån att sändningen har färdats en lång sträcka och i
och med det kan viss information störas. Dess utom kan inte alla se på satellit TV om de inte har en
klar vy från parabolen till satelliten.
Marksänd TV
Denna sändning sänds över radio frekvenser med hjälp av multiplex vilket ger möjligheten att sända
flera kanaler på en och samma frekvens. Formatet som sänds här i Europa är DVB-T och till detta
används en metod som heter Ortogonal frekvensdelningsmultiplex (OFDM). OFDM används i både 64
eller 16 QAM6 där 64 QAM kan sända mer information. HDTV emellertid kräver mer dataöverföring
vilket gör att två nya format (MPEG-4/AVC)håller på att ta över.
Fördelarna med detta system är att bildkvaliteten är bra överlags likaså när man har en låg
signalstyrka. Vi kan också få fler kanaler i en och samma digitalsändning. Emellertid har marksänd TV
problem med reflektions fel. Detta försöker man lösa igenom att ha små pauser i sändningen så att
reflektionerna sak tunnas ut. Användaren upplever dock inget avbrott i sändningen. En annan
nackdel är att det tar lite längre tid att byta kanal tillskillnad ifrån andra systemen.
Kabel
Kabel – TV (DVB – C) är som marksänd – TV baserat på 64 QAM som kan gå med både högre och
lägre moder. Bildhastigheten ligger på cirka 38.5 Mbits/s
6 Quadrature Amplitude Modulation ser till att data sänds på två bärvågor
71
Sammanställning av olika sändnings alternativ
TV-standarder
Som man kan se på bilden ovan så använder inte alla världens länder samma TV-system. Det betyder,
enkelt förklarat, att en TV-apparat från USA inte skulle fungera i Sverige eftersom man i Europa
72
använder ett annat system. (Detta behöver inte nödvändigtvis stämma då vissa TV-apparater kan
klara av flera system)7.
NTSC
National Television System Committee var det första kommersiella TV-systemet som togs fram, och
används idag i länder som USA, Kanada, Japan, Mexiko m.fl.
Det bestod i början av 30 bilder/s, men fick senare ändras till 29,97 bilder/s (60 halvbilder/s blev
59,94 halvbilder/s) eftersom man gick över till färg-TV. Varje bild är uppdelad i 525 linjer, men bara
475 av dessa är aktiva linjer, dvs bildlinjer (Detta bör undersökas närmare eftersom det på Wikipedia
och andra hemsidor står att det är 480 eller 486 som är antalet aktiva linjer). Färgbärvågen
(frekvensen som färgen sänds ut i) ligger på ungefär 3,58 MHz. En TV-kanal i NTSC kräver en total
bandbredd av 6 MHz.
+ Enkel avkodare - Problem med färgstabilitet. + Nästan flimmerfri bild - Dålig upplösning
NTSC brukar skämtsamt kallas för Never The Same Color just p.g.a. att systemet har problem med
färgstabiliteten (som för övrigt beror på fasförskjutningsfel, dvs signalen ändras mellan sändare och
mottagare). På NTSC-TV-apparater är det därför vanligt med en knapp som är märkt ”HUE” med
vilken man kan ställa in färgen själv för att få korrekta färger.
PAL
Phase Alternating Line är ett TV-system som används i större delen av världen. Det består utav 25
helbilder/s (50 halvbilder/s) där varje bild är uppdelad i 625 linjer. Det är dock bara 575 av dessa som
är aktiva linjer, dvs linjer som utgör bilden. De resterande linjerna används till annat. Färgbärvågen
ligger på ca 4.43 MHz.
+ Inga problem med färgstabilitet - Komplicerad avkodare + God upplösning - Flimrig bild
Fasfel i överföringen av signalen är inte något stort problem för PAL-systemets färgstabilitet.
Korrekta färger återges ändå, dock med mindre mättnad.
SECAM
Séquentiel couleur à mémoire som förkortas SECAM är TV-systemet som utvecklades av
fransmännen. Det liknar PAL-systemet eftersom även det utnyttjar 625 linjer per bild, och där
bildfrekvensen är 25 bilder/s (50 halvbilder/s). En lite avvikande sak är att färgbärvågen är inte är en
enda våg utan två vågor, en för rött (4,41 MHz) och en för blått (4,25 MHz).
+ Enkel avkodare - Flimrig bild + God upplösning - Olämplig i produktion
- Störning från färgbärvåg i ofärgade partier
7 http://www.220-electronics.com/tv/lcd.htm
73
I SECAM sänds färgen sekvensiellt på varannan linje, och för att kunna avkoda matas signalen genom
en fördröjningsledning, dvs ett minne. Det är även därifrån namnet kommer. Séquentiel couleur à
mémoire betyder nämligen ”Sequential Color with Memory”.
Omvandling mellan systemen
Det är enkelt att omvandla mellan PAL och SECAM eftersom de har så stora likheter. Det enda som
behöver omkodas är färgen. Det är dock svårare att omvandla dessa två system till NTSC då de inte
liknar varandra så mycket. Det är alltså en ganska komplicerad process.
HDTV
Det finns två standarder som används inom HDTV. Det ena är 720p (progressive), och det andra är
1080i (interlaced). Dessa
format syns till höger.
Vid progressive scan visas alla
linjer på en och samma bild
vilket kräver mycket
bandbredd medan interlaced
delar upp linjerna i två delar
och återger dem på skärmen
så snabbt att det ser ut som
att linjerna sitter ihop, vilket
kräver mindre bandbredd.