Video jargon uitgelegd

Elke nieuwe videocamera wordt geleverd met een verbijsterende lijst met opsommingstekens, specificaties en functies om uit te leggen waarom het beter is dan al het andere dat eerder is gegaan, maar wat betekenen ze allemaal en hoe belangrijk zijn ze eigenlijk?

Veel van de dingen die u zoekt in een fotocamera zijn ook belangrijk voor video, met name zaken als sensorgrootte en ISO-bereik. Maar video-opname introduceert een hele reeks andere aspecten en technische details die verder gaan, dus hier is een gids voor een deel van het jargon dat u waarschijnlijk zult tegenkomen, en wat het in reële termen betekent.

Video resolutie

12K, 8K, 6K, C4K, 4K UHD, FHD, HD … er zijn nu zoveel verschillende resoluties! HD is de oude ‘standaard HD’ met een framebreedte van 1280 pixels, terwijl FHD ‘FullHD’ is met de grotere en meer algemeen gebruikte breedte van 1920 pixels. Daarna geeft het getal de geschatte framebreedte in pixels aan, dus 4K is video 4.000 pixels breed, 6K is video 6000 pixels breed enzovoort. Ondanks de krantenkoppen over 6K, 8K en meer, is 4K de meest universele huidige resolutie en nog steeds erg hoog voor de meeste doeleinden.

Lengte-breedte verhoudingen

De hoogte-breedteverhouding is de breedte van het videoframe versus de hoogte. Het is vooral belangrijk voor video, waarbij u wilt dat de videoverhoudingen overeenkomen met het scherm of de weergave waarop het wordt weergegeven. Verreweg de meest voorkomende beeldverhouding is 16: 9 (16 eenheden breed bij 9 hoog). Dit wordt gebruikt door bijna alle gangbare videomodi op camera's, door huishoudelijke tv-toestellen en computermonitors. Er zijn bredere verhoudingen dan deze en worden gebruikt in bioscoopproducties. Cinema 4K (C4K of DCI 4K) heeft een iets bredere beeldverhouding dan gewone 4K UHD en wordt op sommige camera's aangeboden, en er zijn veel bredere filmverhoudingen dan deze die alleen in de filmindustrie worden gebruikt.

Anamorfe lens

Dit is een speciaal soort lens dat veel wordt gebruikt bij het maken van films op vaste filmformaten, om een ​​breed beeld horizontaal te comprimeren zodat het op een smaller filmgebied past. Een andere anamorfe lens zou worden gebruikt om de film te projecteren of anderszins weer te geven en deze weer uit te rekken tot de juiste proporties. Anamorfe lenzen beginnen een comeback te maken in digitale video, omdat ze een manier bieden om veel bredere scènes vast te leggen dan anders op de camerasensor zouden passen. Ze produceren ook optische effecten, zoals eliptische bokeh-vormen en streperige gloed waar veel cinematografen dol op zijn.

Gewassen en sensorafmetingen

Sensorgrootte is net zo belangrijk voor video als voor foto's omdat grotere sensoren een betere kwaliteit produceren, vooral bij weinig licht, en een kleinere scherptediepte geven voor een meer ‘filmisch’ effect. Maar een camera kan mogelijk niet altijd de volledige breedte van de sensor gebruiken bij het opnemen van video, afhankelijk van de sensorresolutie, de gebruikte framesnelheid en de verwerkingsmogelijkheden van de camera. Sommige full-frame camera's kunnen bijvoorbeeld alleen ‘bijgesneden’ video opnemen met een kleiner, centraal gedeelte van de sensor. Er is een algemene beweging in de richting van full-frame sensoren in video, waar voorheen de standaard het Super 35-formaat was (ongeveer APS-C-formaat) dat nog steeds op grote schaal wordt gebruikt en om de redenen vaak wordt aangeboden op full-frame camera's als een 'crop'-modus hierboven uitgelegd.

Pixelbinning versus oversampling

Sommige videocamera's zijn gemaakt met sensoren die exact dezelfde resolutie in pixels hebben als de video die ze opnemen. Bij camera's die zowel foto's als video opnemen, zal de sensorresolutie vaak veel hoger zijn dan nodig is voor video - je hebt bijvoorbeeld alleen een 12 MP-sensor nodig om 4K vast te leggen. Hierdoor hebben fabrikanten drie keuzes:

1) Leg bijgesneden video vast door een kleiner gebied van de sensor te gebruiken met dezelfde pixelafmetingen als de video - dit heeft de minste verwerking nodig, maar vermindert de beeldhoek van uw lenzen.

2) Gebruik ‘pixel binning’ of ‘line skipping’ om ongewenste pixels te combineren of te verwijderen - dit wordt over het algemeen gezien als een nogal onbevredigende, low-tech benadering.

3) Gebruik ‘oversampling’ om videoframes vast te leggen met de volledige resolutie van de sensor en ze vervolgens ter plekke opnieuw te samplen tot de vereiste videoresolutie - dit wordt beschouwd als de beste kwaliteit en snijdt het videoframe niet bij, maar vereist wel meer verwerkingskracht.

Interlaced versus progressief

In de oude tijd van tv-uitzendingen, toen de signaalbandbreedte beperkt was, werd interliniëring gebruikt om videoframes in twee delen te verzenden, een met oneven lijnen en een met alleen even lijnen, en ze vervolgens op het tv-scherm te ‘interliniëren’. Het werkte goed genoeg, maar je kunt de interliniëring gemakkelijk zien in stilstaande beelden of gedigitaliseerde oude tv-programma's. In de begintijd van digitale video gebruikten veel camera's nog interliniëring om het beste uit de beperkte verwerkingskracht te halen die op dat moment beschikbaar was. Nu is echter bijna alle video ‘progressief’, waarbij elk videoframe volledig wordt vastgelegd. De kwaliteit is veel beter en je krijgt niet langer het vreselijke gestreepte interliniëringeffect. Als je een ‘p’ ziet na een videoformaat, bijv. 1080p, of een framesnelheid van 30p, betekent progressive capture, terwijl ‘i’ interlaced capture betekent.

Framesnelheden

Om video er vloeiend uit te laten zien, heeft deze een opname- en afspeelsnelheid van 24-30 fps nodig. 24 fps is populair in cinematografie, 25 fps wordt gebruikt voor tv-uitzendingen en afspeelapparaten in het VK en veel Europese gebieden en maakt deel uit van de oude PAL-standaard, en 30 fps in de VS en andere gebieden zoals in de oude NTSC-standaard. Videografen zullen vaak de framesnelheid kiezen die past bij het territorium waarin ze zich bevinden, hoewel met digitale distributie en weergave de verschillen minder belangrijk worden, evenals de verschillen tussen de PAL- en NTSC-systemen. Camera's bieden veelvouden van deze framesnelheden voor slow motion-effecten. Opnemen met 60 fps en afspelen met 30 fps geeft bijvoorbeeld een 2x slow motion-effect. Hoge framesnelheden zijn een verkoopargument voor videocamera's, maar zijn processorintensief en kunnen gepaard gaan met lagere videoresoluties.

Bitrate

Bitrate geeft de maximale gegevensopnamesnelheid van een videocamera aan en is gerelateerd aan de videoresolutie en kwaliteitsinstellingen. Hoe hoger de bitsnelheid van de camera, hoe beter de kwaliteit die deze in grote lijnen kan vastleggen. 100 Mbps (megabits per seconde) is goed, maar high-end videocamera's bieden misschien wel 500 Mbps. Bitrates vertellen u niet alles wat u moet weten over de kwaliteit van een videocamera, maar ze geven u wel een idee van de professionele status en de ‘paardenkracht’ van de opname.

Kleurensubsampling

Videobeelden zijn erg>

Onbewerkte video

Onbewerkte video is als onbewerkte afbeeldingen in stilstaande fotografie. De camera neemt video op als onbewerkte, onverwerkte gegevens in plaats van als verwerkte, zichtbare filmbestanden. Het vastleggen van onbewerkte video stelt echter VEEL hogere eisen aan verwerkingskracht en opslagcapaciteit, vooral bij hoge resoluties zoals 4K en hoger, dus alleen zeer hoogwaardige videocamera's kunnen onbewerkte beelden intern vastleggen, en zelfs vrij geavanceerde modellen hebben mogelijk een externe recorder nodig.

Logboekmodi

Logmodi zijn een soort halverwege de richting van de flexibiliteit van onbewerkte video. Ze leggen video vast die tonaal erg vlak is, maar een extra hoog helderheidsbereik vastlegt om later mee te werken bij het bewerken of ‘beoordelen’ van de video. Log-modi zijn een belangrijke professionele functie in geavanceerdere camera's en verhogen over het algemeen de prijs - hoewel makers soms log-modi toevoegen via een firmware-update. Wanneer je Log-opnames beoordeelt, moet je een profiel toepassen om de tonen en kleuren te ‘corrigeren’ naar een normaal uiterlijk, of een LUT (opzoektabel) om een ​​specifiek cinematografisch kleurenpalet of ‘look’ te creëren.

Codecs versus formaten

Dit kan verwarrend zijn omdat het vaak klinkt alsof mensen ze als hetzelfde behandelen, maar dat is niet zo. In wezen is het videoformaat de ‘container’ voor de video, audio en diverse metadata om alles met elkaar te verbinden, terwijl de ‘codec’ puur het videocompressiesysteem is dat wordt gebruikt. De Sony A7S III gebruikt bijvoorbeeld een XAVC HS-indeling die de H.265-videocodec gebruikt. Het XAVC HS-formaat is eigendom van Sony, maar andere makers gebruiken dezelfde H.265-videocodec voor hun eigen videoformaten. Het gangbare MPEG-4-formaat (ook bekend als MP4 naar de bestandsextensie .mp4) gebruikt de even veel voorkomende H.264-videocodec. Je hebt containers (formaten) nodig voor video omdat ze ook audiobestanden en metadata moeten opslaan die de maker nodig heeft om eigen videofuncties te bieden voor afspelen en bewerken.

• Hoe u een videocamera kiest
• Beste camera's voor vloggen
• Beste 4K-camera's voor het maken van films
• Beste bioscoopcamera's
• Microfoonjargon uitgelegd

Interessante artikelen...