Хватит уже вызывать специалиста по обслуживанию ПК при каждой проблеме с компом!
Видеокурс на 3-х DVD подробно расскажет как самостоятельно собрать компьютер, установить WinXP и драйвера, научит работать в основных популярных программах и многое другое.
CD4USER - CD-R / CD-RW и DVD технологии для пользователя - это вся правда о CD-R, CD-RW и DVD технологих глазами простого юзера! Запись, перезапись, копирование и восстановление дисков, свежие программы и драйвера, тесты приводов и расходных материалов, FAQ (вопросы и ответы), статьи и ссылки на полезные ресурсы - в общем все, что нужно пользователю CD и DVD!...
»»»
Все материалы, опубликованные на данном сайте, предназначены исключительно для образовательных и ознакомительных целей...
Если автор статьи не указан (или указан не верно) - свяжитесь со мной для разрешения этого вопроса по e-mail
Мы уважаем Закон и авторские права!
Что такое color format (метод кодирования цвета), luminance (яркость), chrominance (цветность)?
Color format (метод кодирования цвета) - это стандарт представления цветовой информации об одном пикселе изображения в цифровом виде. Наиболее известными стандартами являются: палитровый метод (указывается индекс цвета в массиве стандартной палитры), RGB представление (указывается интенсивность аддитивных компонент цвета), CMYK (указывается интенсивность субтрактивных компонент цвета), HUE (указываются более понятные человеку тон, насыщенность и чистота цвета).
Достаточно часто также используют метод, при котором информация о пикселе делится на две чести - яркость (luminance, Y) и цветность (chrominance, U/V). Во-первых, такой метод кодирования цвета позволяет получить черно-белую картинку простым отбрасыванием цветности. Во-вторых, известно, что человеческий глаз воспринимает изменения цвета хуже, чем изменения яркости. Поэтому цветность можно сохранять с худшим разрешением, чем яркость, сохраняя видимое качество картинки неизменным. Такой прием используется в аналоговом телевещании и композитном видеосигнале, а также в большинстве методов сжатия (например, MJPEG, MPEG, Intel Indeo). В зарубежной литературе этот прием получил название Chroma Subsampling.
Следует иметь в виду, что цветность достаточно часто называют цветоразностью. В принципе, это немного неправильно, так как цветоразностями называют компоненты цветности (всего их две - U и V). Такое название они получили из-за того, что если они равны нолю, то пиксель будет бесцветным - серым.
Какие виды кодирования цвета существуют?
Проще всего оформить ответ в виде таблицы:
Название
Бит на пиксель
Описание
RGB32
32
Для каждого пикселя сохраняются значения красной, зеленой и синей компоненты, а также канал прозрачности. На каждый сохраняемый параметр отводится по одному байту. Ввиду отсутствия в захватываемом аналоговом видеосигнале канала прозрачности использование этого вида кодирования цвета при захвате не имеет смысла. Аналогичное качество даст RGB24.
RGB24
24
Стандартный компьютерный формат TrueColor - для каждого пикселя сохраняются значения всех трех аддитивных компонент цвета. На каждую компоненту отводится по одному байту. Рекомендуется использовать для сохранения отдельных кадров видеопоследовательностей, а также для захвата видео с разрешением по горизонтали менее 512.
RGB16/ RGB15
16/15
Стандартный компьютерный формат HiColor - для каждого пиксела значения всех трех аддитивных компонент цвета. На каждую компоненту отводится по 5 бит (в RGB16 на зеленую компоненту отводится 6 бит).
YUY2
UYVY
YUYV
CYUV
YUV422
16
Первый из форматов, использующий Chroma Subsampling. В нем для каждых двух пикселей по горизонтали сохраняются разные значения яркости (Y) и только одно общее значение компонент цветности (U/V). На все три компоненты отводится по одному байту. Итого, на два соседних пикселя приходится два байта яркости и два байта компонент цветности, что дает 16 бит на один пиксель. Благодаря особенностям человеческого глаза, изображение, закодированное таким способом, практически неотличимо от RGB24. Этот формат рекомендуется применять при оцифровке полноформатного телеэфира стандарта PAL/SECAM (768х576), поскольку в нем частоты несущих цветоразностей в два раза меньше частоты несущей яркости. RGB24 для этого случая будет сохранять "излишнюю" информацию о цвете, зря расходуя битрейт. Также YUY2 является входным форматом для большинства кодеков MJPEG, MPEG2, и устаревшего кодека CinePak.
YUY2 также часто обозначают такой последовательностью цифр: 4:2:2. Это означает, что для каждых четырех подряд идущих пикселей сохраняются четыре значения яркости (Y), и по два значения для каждой компоненты цветности (U/V).
YUV12
I420
IYUV
YUV420
12
В этом формате значения Y сохраняются для всех пикселей, а U/V объединяются у пикселей, образующих квадраты 2х2. Итого, на четыре пикселя сохраняются четыре байта яркости и два байта цветности, что дает 12 бит на пиксель. Этот формат является входным для сжатия MPEG1. Оцифровку в него можно производить с разрешением по вертикали, меньшим 288, так как из-за объединения пикселей из соседних линий чересстрочное видео подвергнется серьезным искажениям.
Цифровое обозначение формата имеет вид 4:2:0. Расшифровки, подобной приведенной для YUY2, у этого обозначения не существует.
BTYUV
Y41P
YUV411
12
Для четырех подряд идущих пикселей по горизонтали сохраняются четыре значения Y и общие значения U/V. Благодаря объединению пикселей только одной строки этот формат можно применять при оцифровке чересстрочного видео. Этот формат рекомендуется применять при оцифровке полноформатного телеэфира стандарта NTSC (640x480), поскольку в нем частоты несущих цветоразностей в четыре раза меньше частоты несущей яркости. Точно также, его имеет смысл применять при оцифровке видео с композитных (VHS видеомагнитофоны, игровые приставки) и S-VIDEO (SVHS камеры, SVHS видеомагнитофоны) источников, так как у них частоты несущих цветоразностей примерно в пять раз меньше частоты несущей яркости.
Цифровое обозначение формата имеет вид 4:1:1.
YUV9
YVU9
9
Это формат является наихудшим с точки зрения качества. В нем значения U/V сохраняются для квадрата пикселей 4х4. Яркость сохраняется для каждого пикселя в квадрате. Оцифровывать в этот формат можно видео с размером кадра по вертикали не более 288 - иначе возникнут сильные искажения чересстрочного видео. В качестве входного этот формат используют кодеки серии Intel Indeo.
Y8
YUV400
Grayscale
B&W
8
Этот формат не является методом кодирования цвета - в нем сохраняется только яркостная информация о пикселе. Имеет смысл использовать при оцифровке черно-белых видеоматериалов, так как U и V не будут содержать шумов, вызывающих "цветной снег" на черно-белом изображении.
Почему возникает десинхронизация звука и видео?
Основная причина возникновения эффекта убегания/отставания звука от видео - захват их с разных устройств. Во-первых, как бы ни были точны современные кварцевые генераторы импульсов, но расхождения между конкретными экземплярами по частоте все-таки есть. Они практически незаметны на малых периодах времени, но за двадцать минут захвата из-за расхождений генераторов частот на карте видеозахвата и звуковой карте может набежать секунда разницы. Во-вторых, если во время захвата производится сжатие "на лету", и в какой-то момент кодек был вынужден затребовать все вычислительные мощности процессора для сжатия особо сложной сцены, кроме отброшенных кадров могут возникнуть и отброшенные звуковые данные. Поскольку вместо всех отброшенных кадров в видеопоток будут вставлены "заглушки", а в аудиопоток аналогичные "заглушки" вставить невозможно, звук "убежит" вперед.
Какие методы борьбы с десинхронизацией звука существуют?
Следует разделить эти методы на применяемые во время захвата и после него.
Основной способ борьбы с десинхронизацией звука и видео во время захвата - контроль частоты кадров видеопотока в соответствии с длительностью аудиопотока. Если аудио убегает вперед, то стоит ему убежать на время, большее промежутка между соседними кадрами, как в видеопоток добавляется "лишний" кадр. Если звук отстает, то стоит ему отстать на время, большее промежутка между соседними кадрами, как очередной кадр отбрасывается без вставления заглушки. Эти простые действия гарантируют синхронность потоков в любой ситуации.
Однако описанный метод не лишен недостатков - при нем не сохраняется плавность движений исходного видео, а также может теряться часть видеоинформации. Поэтому лучшим вариантом было бы воздействие на звуковой поток, что невозможно делать во время захвата - отбрасывание кусков или дополнение тишиной звуковой информации неизбежно приведет к слышимым искажениям.
Если захват производился без контроля синхронности по аудиопотоку, то длины захваченных видео- и аудио- потоков не будут совпадать. Для восстановления синхронности потоков можно воспользоваться двумя разными методами:
Изменить частоту кадров видеопотока так, чтобы его длительность совпала с длительностью аудиопотока. Этот метод прекрасно подходит для случаев, когда оцифрованное видео планируется просматривать только на компьютере. При нем сохраняется плавность движений, и используются все кадры аналогового источника. Но использовать такие файлы для вывода информации на аналоговый видеовыход или для компрессии в стандарты MPEG будет невозможно из-за несоответствия частоты кадров видеопотока стандартным (25 для PAL/SECAM и 30 для NTSC).
Изменить в звуковом редакторе длительность аудиопотока так, чтобы она совпала с длительностью видеопотока. Для этого потребуется записать звуковой поток в отдельный файл, в звуковом редакторе растянуть/сжать его до длительности видеопотока, и снова слить потоки в один файл.
Когда десинхронизация потоков вызвана отбрасыванием части аудиоинформации, восстановить синхронность гораздо сложнее. Для этого придется разбивать файл на куски, разрезая в местах отбрасывания звука, и для каждого куска вручную подбирать время, на которое необходимо задержать/растянуть/сжать звуковой поток.
Что такое interlaced video (чересстрочное видео), field (полукадр), field order (порядок полукадров), scan line effect (эффект "расчески")?
В аналоговом видео принято разделять полный кадр на два полукадра (fields), равных ему по ширине и вдвое меньших по высоте. В одном полукадре содержатся нечетные линии кадра (Field A, odd field), в другом - нечетные (Field B, even field). Такое разделение очень удобно для отображения видео на электронно-лучевых трубках телевизоров, использующих чересстрочную (interlaced) развертку. При чересстрочной развертке на экране сначала прочерчиваются все четные линии, а затем - все нечетные. Такой метод позволяет добиться отсутствия видимого мерцания картинки, несмотря на сравнительно медленную скорость ее изменения.
Тот факт, что отображение на экране четных и нечетных полукадров разнесено во времени, позволил повысить видимую частоту кадров - при съемке видеокамера производит захват кадров не 25 раз в секунду, а 50. Из каждого захваченного кадра попеременно отбрасываются четные либо нечетные строки, и полученный полукадр модулируется в аналоговый сигнал. Получается, что четные и нечетные полукадры такого сигнала относятся к разным моментам времени, и при выводе на ЭЛТ с чересстрочной разверткой это позволяет достигнуть большей плавности движений.
Важным понятием является порядок захвата полукадров (field order). В стандартах не оговорено, какой полукадр относится к более раннему моменту времени - четный или нечетный. При редактировании чересстрочного видео с применением изменяющихся во времени эффектов это может привести к неприятным последствиям в виде пульсаций освещенности, дрожании движений и пр. Поэтому в программах обработки видео обычно просят указать полукадр, соответствующий более раннему моменту времени.
Негативными последствиями чересстрочного видео является проблема его вывода на экран с прогрессивной разверткой, при которой отображается весь кадр целиком. Из двух полукадров приходится предварительно собирать один полный кадр, и лишь после этого производить отображение. Но, так как четные и нечетные полукадры такого кадра относятся к разным моментам времени, на границах движущихся предметов неизбежно возникнут не состыковки четных и нечетных линий, видимые в виде "зазубренностей". Этот эффект получил название эффекта "расчески" (scan line effect), ввиду того, что границы предметов при их движении становятся похожи на расческу.
Следует помнить, что все рассматриваемые в этом FAQ источники видео являются чересстрочными (телеэфир, композитный видеосигнал, S-Video сигнал).
Какие способы борьбы с эффектом "расчески" существуют?
Универсального метода борьбы с этим эффектом не существует. Самым простым способом является захват с разрешением по вертикали не превышающим 288 строк для PAL/SECAM или 240 строк для NTSC. При таком захвате будет использоваться информация только из одного полукадра (четного или нечетного, в зависимости от устройства видеозахвата), что исключит возможность возникновения эффекта расчески. Очевидным недостатком этого метода является потеря половины информации о видеосигнале.
Как возможный выход можно производить смешивание соответствующих линий полукадров, и дублирование результата. В этом случае на границах движущихся предметов вместо "зазубрин" возникнет подобие эффекта "motion blur", гораздо лучше выглядящего на дисплее с прогрессивной разверткой. Но для быстро движущихся предметов вместо "motion blur" возникнет эффект "двойного изображения".
Теоретически возможно нормально просматривать чересстрочное видео на прогрессивном дисплее, если программно эмулировать чересстрочный принцип построения картинки с учетом затухания свечения люминофора. Для этого потребуются дисплеи с прогрессивной разверткой порядка 150 Гц. Такие дисплеи уже существуют, однако софта для подобного просмотра пока нет. Остается надеяться, что в ближайшем будущем он появится.
Также, следует отметить, что не рекомендуется производить коррекцию эффекта расчески в случае, если впоследствии предполагается вывод видео на чересстрочные дисплеи.
Как влияет эффект "расчески" на сжатие видео?
Это зависит от используемого алгоритма сжатия. Если кодер знаком с понятием чересстрочного видео, то он перед сжатием разбивает кадр на два полукадра и сжимает их раздельно (так поступают MPEG2 и MJPEG). В противном случае кодер будет сжимать зазубренные края движущихся предметов как множество мелких деталей изображения, что приведет к неразумному расходу битрейта, и неизбежной потере качества. Поэтому, перед таким сжатием необходимо произвести фильтрацию эффекта расчески.
В чем различие между захватом телеэфира (антенна), композитного сигнала (VHS) и сигнала S-Video (SVHS, большинство аналоговых и цифровых видеокамер)?
Основное различие состоит в качестве исходных сигналов. Теоретически, наиболее качественным сигналом является телеэфир. Однако, его хорошее качество возможно только в случае кабельного вещания или в случае размещения принимающей антенны в прямой видимости от передающей башни. На втором месте по качеству идет S-Video сигнал, а наихудшим по качеству является композитный сигнал.
Есть ли "готовые" настройки для оцифровки видео, поступающего с различных источников?
Да, если под "готовыми" настройками подразумевается оцифровка видео с полным сохранением его качества. Вот эти настройки:
Система
Телеэфир
S-Video
Композитный сигнал
PAL/SECAM
720x576 YUV422
400x576 YUV411
360x576 YUV411
NTSC
720x480 YUV411
400x480 YUV411
360x480 YUV411
Какой софт лучше всего использовать для оцифровки видео?
На этот вопрос нельзя дать точного ответа. Все зависит от личных предпочтений. Вполне нормально работают программы, входящие в поставку коммерческих продуктов нелинейного видеомонтажа. Из бесплатного софта упоминания заслуживает программа VirtualDUB. Она позволяет преодолевать ограничение в 2 Гбайта, сжимать и обрабатывать фильтрами видео "на лету" и многое другое. Скачать ее можно с сайта программы.
Вопросы по обработке захваченного видео Какие стадии присутствуют в компьютерной обработке видео?
Обработку видео на компьютере обычно разделяют на три стадии: захват, монтаж и финальное сжатие. Разберем их последовательно.
В первой стадии - захвате - основной целью является оцифровка всех видеофрагментов, необходимых для составления конечного продукта, с максимально возможным качеством. Это исключает из применения при захвате рекурсивные алгоритмы сжатия. На это есть несколько причин: во-первых, эти алгоритмы вносят в изображение невидимые искажения, которые проявляются при обработке фрагментов фильтрами; во-вторых, при использовании таких алгоритмов монтаж без рекомпрессии возможен с точностью до ключевого (интра) кадра; в-третьих, деградация качества видео от сжатия "рекурсивным" методом весьма высока, и даже при однократной рекомпрессии снижение качества бросается в глаза.
Вторая стадия - монтаж - состоит из двух основных процедур. Во-первых, именно на этой стадии производится обработка видео различными фильтрами, а также проверяется и восстанавливается синхронность аудио и видео потоков. Во-вторых, на этой стадии производится нелинейный видеомонтаж оцифрованного материала.
Третья стадия - финальное сжатие - достаточно часто совмещается со второй в качестве ее последнего этапа. На этой стадии смонтированная видеопоследовательность подвергается окончательному сжатию с большим коэффициентом. Смонтированный и сжатый таким образом видеопоток считается окончательным результатом, пригодным для просмотра и помещения в видеоархив.
Что такое нелинейный видеомонтаж?
Нелинейным видеомантаж (НВМ) - это метод редактирования и совмещения нескольких видеоклипов в один финальный продукт, при котором в любой момент времени возможно использование любой части исходного видеоматериала. Самыми известными применениями НВМ являются плавные переходы с различными эффектами между разными видеоклипами, смешение методом "растворения" двух видеоклипов и метод "синего экрана" (замещение всех пикселей одного видеоклипа, имеющих один цвет, соответствующими пикселями другого видеоклипа).
НВМ стал стандартом в области обработки цифрового видео благодаря двум коммерческим программным пакетам: Adobe Premier и Ulead MediaStudio. По своим функциям оба пакета практически равнозначны, и выбор между ними в основном зависит от личных предпочтений.
Что такое "фильтры" видео, и когда нужно их применять?
Фильтры видео - это общее название для программ нанесения различных графических эффектов на кадры видеопотока. Их можно разделить на две основных группы: фильтры постобработки захваченного видео и фильтры нанесения спецэффектов. Для успешного монтажа необходимо знать следующие фильтры (все они относятся к первой группе):
Brightness (Яркость), Contrast (контрастность), Levels (уровни), Hue (оттенок), Saturation (насыщенность цвета). Эта группа фильтров позволяет скорректировать освещенность и цветность изображения.
Deinterlace (корректор эффекта "расчески"). Нужен для удаления эффекта расчески при подготовке видео, которое предполагается просматривать на прогрессивном дисплее.
Blur (размытие), Sharpen (увеличение четкости). Позволяют компенсировать высокочастотный шум или недостаточную четкость.
Resize (изменение размера), Crop (обрезание). Эти фильтры нужны для изменения размера кадра захваченного видео.
Чем отличаются форматы MPEG, AVI и ASF?
Эти форматы можно разделить на две группы: MPEG и AVI/ASF. Основное отличие между этими группами в том, что у всех MPEG жестко стандартизирован алгоритм декомпрессии, в то время как AVI/ASF являются всего лишь "оболочками" для сжатых данных, алгоритм декомпрессии которых может быть абсолютно любым. Для корректной декомпрессии AVI/ASF в их заголовках указывается четырехбуквенный код декомпрессора, который предварительно должен быть установлен в системе. Такая организация AVI/ASF приводит, с одной стороны, к необычайно гибкости этих форматов, но, с другой стороны, создает проблемы с переносимостью видео на другие компьютеры.
Достаточно интересно обстоят дела с отличиями между AVI и ASF. По сути дела, оно заключено в заголовках файла и блоков данных, расположении индекса, и наличии контрольных сумм для каждого блока данных. В свое время в сети была доступна для скачивания программа, конвертирующая любой AVI в ASF без рекомпрессии данных, что говорит о принципиальной похожести этих форматов. Однако стараниями Microsoft в большинстве новейших кодеков установлен программный блок, позволяющий этим кодекам работать только в составе Windows Media Tools. Кроме того, в судебном порядке Microsoft преследует любые попытки создать софт, позволяющий конвертировать видео из ASF в любой другой формат. Такое положение дел весьма прискорбно. У формата ASF есть неоспоримые преимущества в виде отсутствия ограничения на размер файла и хорошей поддержкой стриминга. Казалось бы, это открывает ему хорошие перспективы для использования в качестве промежуточного для оцифровки, перед нелинейным монтажом и компрессией в MPEG. Но, из-за отсутствия софта для редактирования и сжатия ASF в MPEG, область применения ASF ограничена стримингом (в основном в виде интернет-телевидения).
Формат MPEG является основным стандартом современного цифрового видео. Для декомпрессии MPEG потоков существуют множество аппаратных решений, применяемых как в компьютерах, так и в бытовой видеотехнике.
Отдельного упоминания заслуживает алгоритм сжатия MPEG4. Несмотря на то, что этот алгоритм также входит в группу MPEG стандартов, одобренных ISO, наибольшую популярность он получил в несколько модифицированных реализациях Microsoft MPEG4 V2, V3 и V7 для ASF и DivX 3.x, 4.x для AVI. Стандартный ISO MPEG4 (реализован в Microsoft MPEG4 V1) используется лишь при аппаратной компрессии видео некоторыми мобильными устройствами для передачи качественного видео по каналу с низкой пропускной способностью.
Когда следует сжимать видео в MPEG?
Видео следует сжимать в MPEG для достижения максимальной переносимости. Ввиду жестко стандартизированного алгоритма декомпрессии MPEG видео можно будет просматривать на любом компьютере, в том числе и с использованием специальной платы аппаратной декомпрессии MPEG. Кроме того, если сжать видео в MPEG1 формат и записать его на CD-R в соответствии со стандартом VideoCD, то результат можно будет просматривать на обычном телевизоре с использованием практически любого DVD- или VideoCD-плеера.
Когда следует сжимать видео в ASF?
В ASF видео следует сжимать для организации стриминга в сетях с низкой пропускной способностью. Одной из ключевых особенностей ASF является возможность помещения в один файл нескольких копий аудио и видео потоков с различным битрейтом, что позволяет клиенту запрашивать у сервера вариант видео с битрейтом, наиболее близким к пропускной способности канала клиент/сервер.
Какие кодеки нельзя использовать в "выходном продукте"?
Этот вопрос относится только к AVI-файлам. Ввиду достаточно большого возраста формата, для него существует множество различных кодеков (и их версий). Поэтому перечислить полный список кодеков, не рекомендованных к использованию при финальном сжатии невозможно. Однако возможно привести основные правила, которых следует придерживаться при выборе кодека. Во-первых, это должен быть аппаратно независимый кодек. Под аппаратной независимостью подразумевается наличие бесплатно доступного декомпрессора, работающего с достаточной для просмотра видео скоростью на ПК средней мощности. Именно по этой причине не рекомендуется использовать MJPEG в качестве кодека для финального сжатия. Во-вторых, не следует использовать старые кодеки. Под старыми кодеками имеются в виду кодеки, возраст которых превышает три года. Также не следует использовать кодеки старых версий, если уже вышли более новые версии. В-третьих, надо избегать использовать нестандартные кодеки, не включенные в стандартную поставку Windows. В случае использования таких кодеков желательно вместе с видео прилагать и кодек для декомпрессии.
Какой кодек (или формат файла) на сегодняшний день дает наилучшее качество видео при минимальном потоке?
Этот кодек называется DivX 4.01, и он доступен для бесплатного скачивания и использования на сайте проекта.
Многие опасаются его использовать, так как в интернете распространена информация о том, что DivX является взломанной версией Microsoft MPEG-4. Это соответствует действительности для DivX 3.х, но абсолютно неверно для DivX 4.x. Последний был разработан на основе полностью бесплатно доступных кодов ISO MPEG4, посредством оптимизации алгоритма для работы в больших разрешениях с низким битрейтом. Еще одной привлекательной стороной этого кодека является постоянное обновление его версий, с сохранением полной обратной совместимости. Так, декомпрессор DivX 4.х способен проигрывать потоки, сжатые DivX 3.x.
Каким кодеком следует сжимать звуковую дорожку AVI-файла (проблемы с использованием кодека MP3 и одно из возможных решений)?
Одна из наиболее часто совершаемых ошибок при финальной компрессии видео - сохранение аудиопотока в несжатом виде. В случае сжатия видео с малым коэффициентом это практически не влияет на размер файла, но для сильно сжатого видео битрейт аудиопотока может превысить битрейт видеопотока. Поэтому аудиопоток необходимо сжимать хотя бы в формат ADPCM, предоставляющий приличное качество при уменьшении размера в 3-4 раза.
Наилучшим вариантом является сжатие аудио в формат MP3. Однако при использовании этого формата могут возникнуть несколько проблем. Во-первых, потребуется версия аудиокодека, поддерживающая сжатие. Это может быть как легальный платный кодек Frauhhofer IIS MPEG Layer-3 Codec (professional), так и его одноименный взломанный вариант, наиболее известный под названием "Radium MP3". Кроме того, стандартные средства Video for Windows и Active Movie не умеют использовать для сжатия эти кодеки. Единственной программой, которую автор этого FAQ смог заставить сжимать аудио в MP3 этими кодеками, оказалась VirtualDUB. Причем, захватывать звук сразу в МР3 он также не может, однако при последующей обработке видео возможно провести сжатие аудиопотока, не рекомпрессируя при этом видеопоток.
Как наиболее дешевым способом вывести обработанное видео обратно на телевизор/видеомагнитофон?
Достаточно доступными решениями (менее 100 долларов) являются покупка дополнительной видеокарты с TV Out, либо платы аппаратного декодирования MPEG. Первый вариант достаточно привлекателен из-за отсутствия необходимости предварительного сжатия видео в формат MPEG перед выводом, однако качество исполнения TV Out на видеокартах зачастую оставляет желать лучшего. Второй вариант потребует больших временных затрат для рекомпрессирования видео в MPEG, однако аппаратное сглаживание и фильтрация артефактов MPEG могут значительно улучшить видимое качество. Кроме того, при наличии DVD привода появляется приятная дополнительная возможность качественного просмотра DVD фильмов. Поэтому второй вариант более предпочтителен.
Каким следует делать разрешение выходного видео?
Основное ограничение на разрешение выходного видео накладывает аппаратный оверлей современных видеокарт. Для просмотра видео с использованием аппаратного оверлея необходимо, чтобы его размеры по горизонтали и вертикали были кратны 16. Кроме того, стандартами де-факто стали отношения сторон кадра 4:3 и 16:9. В случае, если производится оцифровка видео, имеющего отношение сторон кадра 16:9, но дополненное до 3:4 с помощью черных полос, эти полосы необходимо перед сжатием удалить, вернув видео изначальное отношение сторон 16:9. Это необходимо сделать перед финальным сжатием видео, так как качественное сжатие резкой контрастной границы между черной полосой и кадром потребует большую часть битрейта видео. Среди стандартных компьютерных разрешений для видео чаще всего используют 320х240, 512х384 и 640х480. Из стандартных телевизионных разрешений используют 176х144, 352х288 и 704х576.
Как следует обрабатывать чересстрочное видео?
Обработка чересстрочного видео представляет собой отдельную проблему, так как единственными кодеками, разделяющими поля при сжатии, являются MJPEG и MPEG2. Поэтому при компьютерной обработке видео с последующей записью результата на аналоговый носитель необходимо использовать MJPEG для захвата и обработки, а финальный продукт сжимать в MPEG2. В случае применения любого другого кодека перед сжатием необходимо произвести фильтрацию эффекта "расчески", чтобы избежать повышенного расхода битрейта. Для обработки чересстрочного видео фильтрами также необходимо предварительно разделять поля. Для этих целей можно использовать фильтр Deinterlace из поставки VirtualDUB в режиме Unfold Fields Side-by-Side. Впоследствии поля можно снова совместить с помощью этого же фильтра в режиме Fold Side-by-Side Fields Together.