Beste allemaal,
Ik heb een redelijke concrete vraag maar ik moet er wel een kleine introductie bij geven.
Ik werk als videotechnicus (digitale projectie) op vele filmfestivals en zeker bij dit soort projecties is 'lip-sync' uiterst belangrijk. Daarom zorgen we altijd voor dat we het geluid kunnen vertragen zodat het weer klopt bij het beeld.
Nu heb ik van Dolby de bitstream analyser gekocht (vanwege DolbyE testsignalen) en daar zit een functie op om de latency te meten in digitale audio apparatuur. Dit wordt veel gebruikt in post-productie huizen om te kijken wat de vertraging is van de hele edit-suite.
Nu had ik een discussie met een collega die zei dat dit eigenlijk niet nodig was, omdat bij elk apparaat door de fabrikant wordt opgegeven wat de latency is.
Mijn theorie is dat niet helemaal waar is aangezien elke 'berekening' die een processor moet doen tijd kost. Zeker als een apparaat ontelbaar veel variabelen heeft zoals een digitale mixer.
Nu is de vraag of er collega's zijn die hier ervaring mee hebben. Of er dus verschil in latency op te merken is bij het wijzigen of toevoegen van een aantal berekeningen van het geluid.
Volgens mij zijn er ongeveer 3 opties.
1. Er is totaal geen verschil te merken bij welke instelling dan ook, de latency die opgegeven wordt door de fabrikant zal dan ook meestal juist zijn.
2. Er is wel degelijk verschil in latency te meten, het is dan ook goed om dit te kunnen meten.
3. Er is wel verschil in latency, maar dit is echter zo weinig dat het verwaarloosbaar is.
Nu is verwaarloosbaar een relatief begrip maar voor de helderheid stel ik het nu vast op een totale maximale afwijking van minder dan 1 milli-seconde per apparaat.
De vraag of dit te horen is, is voor mij niet van belang. Het gaat mij op dit moment meer om het theoretische model erachter.
Ben benieuwd of er iemand is met ervaring op dit vlak, want ik wil altijd graag bijleren.
Groet
Ik heb een redelijke concrete vraag maar ik moet er wel een kleine introductie bij geven.
Ik werk als videotechnicus (digitale projectie) op vele filmfestivals en zeker bij dit soort projecties is 'lip-sync' uiterst belangrijk. Daarom zorgen we altijd voor dat we het geluid kunnen vertragen zodat het weer klopt bij het beeld.
Nu heb ik van Dolby de bitstream analyser gekocht (vanwege DolbyE testsignalen) en daar zit een functie op om de latency te meten in digitale audio apparatuur. Dit wordt veel gebruikt in post-productie huizen om te kijken wat de vertraging is van de hele edit-suite.
Nu had ik een discussie met een collega die zei dat dit eigenlijk niet nodig was, omdat bij elk apparaat door de fabrikant wordt opgegeven wat de latency is.
Mijn theorie is dat niet helemaal waar is aangezien elke 'berekening' die een processor moet doen tijd kost. Zeker als een apparaat ontelbaar veel variabelen heeft zoals een digitale mixer.
Nu is de vraag of er collega's zijn die hier ervaring mee hebben. Of er dus verschil in latency op te merken is bij het wijzigen of toevoegen van een aantal berekeningen van het geluid.
Volgens mij zijn er ongeveer 3 opties.
1. Er is totaal geen verschil te merken bij welke instelling dan ook, de latency die opgegeven wordt door de fabrikant zal dan ook meestal juist zijn.
2. Er is wel degelijk verschil in latency te meten, het is dan ook goed om dit te kunnen meten.
3. Er is wel verschil in latency, maar dit is echter zo weinig dat het verwaarloosbaar is.
Nu is verwaarloosbaar een relatief begrip maar voor de helderheid stel ik het nu vast op een totale maximale afwijking van minder dan 1 milli-seconde per apparaat.
De vraag of dit te horen is, is voor mij niet van belang. Het gaat mij op dit moment meer om het theoretische model erachter.
Ben benieuwd of er iemand is met ervaring op dit vlak, want ik wil altijd graag bijleren.
Groet
Comment