СИСТЕМА И СПОСОБ ДЛЯ КОДИРОВАНИЯ ВИДЕО Российский патент 2024 года по МПК H04N19/117 H04N19/82 H04N19/186 

Описание патента на изобретение RU2817290C2

Область техники, к которой относится изобретение

[0001] Данное раскрытие сущности относится к кодированию видео и, в частности, к системам, компонентам и способам кодирования и декодирования видео при кодировании и декодировании видео, к примеру, для выполнения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации).

Уровень техники

[0002] В силу совершенствований в технологии кодирования видео, из (H.261 и MPEG-1 в (H.264/AVC (стандарт усовершенствованного кодирования видео), MPEG-LA, (H.265/HEVC (стандарт высокоэффективного кодирования видео) и (H.266/VVC (универсальный видеокодек), остается постоянная потребность в том, чтобы предоставлять улучшения и оптимизации для технологии кодирования видео, с тем чтобы обрабатывать постоянно увеличивающийся объем цифровых видеоданных в различных вариантах применения. Данное раскрытие сущности относится к дополнительным усовершенствованиям, улучшениям и оптимизациям при кодировании видео, в частности, в процессе CCALF (кросскомпонентной адаптивной контурной фильтрации).

Сущность изобретения

[0003] Согласно одному аспекту, предоставляется кодер, который включает в себя схему и запоминающее устройство, соединенное со схемой. Схема, в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирует восстановленную выборку, расположенную внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений. Схема формирует первое значение коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости. Схема формирует второе значение коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности. Схема формирует третье значение коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента и кодирует третью восстановленную выборку изображений компонента сигнала цветности с использованием третьего значения коэффициента.

[0004] Согласно дополнительному аспекту, первая восстановленная выборка изображений расположена рядом со второй восстановленной выборкой изображений.

[0005] Согласно другому аспекту, схема, при работе: задает первое значение коэффициента равным нулю в ответ на первое значение коэффициента, меньшее 64.

[0006] Согласно другому аспекту, предоставляется кодер, который включает в себя: модуль разбиения блоков, который, при работе, разбивает первое изображение на множество блоков; модуль внутреннего прогнозирования, который, при работе, прогнозирует блоки, включенные в первое изображение, с использованием опорных блоков, включенных в первое изображение; модуль взаимного прогнозирования, который, при работе, прогнозирует блоки, включенные в первое изображение, с использованием опорных блоков, включенных во второе изображение, отличающееся от первого изображения; контурный фильтр, который, при работе, фильтрует блоки, включенные в первое изображение; преобразователь, который, при работе, преобразует ошибку прогнозирования между исходным сигналом и прогнозным сигналом, сформированным посредством модуля внутреннего прогнозирования или модуля взаимного прогнозирования, чтобы формировать коэффициенты преобразования; квантователь, который, при работе, квантует коэффициенты преобразования, чтобы формировать квантованные коэффициенты; и энтропийный кодер, который, при работе, переменно кодирует квантованные коэффициенты, чтобы формировать кодированный поток битов, включающий в себя кодированные квантованные коэффициенты и управляющую информацию. Контурный фильтр выполняет следующее:

- в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирование восстановленной выборки, расположенной внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений;

- формирование первого значения коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости;

- формирование второго значения коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности;

- формирование третьего значения коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента, и

- кодирование третьей восстановленной выборки изображений компонента сигнала цветности с использованием третьего значения коэффициента.

[0007] Согласно дополнительному аспекту, предоставляется декодер, который включает в себя схему и запоминающее устройство, соединенное со схемой. Схема, в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирует восстановленную выборку, расположенную внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений. Схема формирует первое значение коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости. Схема формирует второе значение коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности. Схема формирует третье значение коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента и декодирует третью восстановленную выборку изображений компонента сигнала цветности с использованием третьего значения коэффициента.

[0008] Согласно другому аспекту, предоставляется оборудование декодирования, которое включает в себя: декодер, который, при работе, декодирует кодированный поток битов, чтобы выводить квантованные коэффициенты; обратный квантователь, который, при работе, обратно квантует квантованные коэффициенты, чтобы выводить коэффициенты преобразования; обратный преобразователь, который, при работе, обратно преобразует коэффициенты преобразования, чтобы выводить ошибку прогнозирования; модуль внутреннего прогнозирования, который, при работе, прогнозирует блоки, включенные в первое изображение, с использованием опорных блоков, включенных в первое изображение; модуль взаимного прогнозирования, который, при работе, прогнозирует блоки, включенные в первое изображение, с использованием опорных блоков, включенных во второе изображение, отличающееся от первого изображения; контурный фильтр, который, при работе, фильтрует блоки, включенные в первое изображение; и вывод, который, при работе, выводит кадр, включающий в себя первое изображение. Контурный фильтр выполняет следующее:

- в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирование восстановленной выборки, расположенной внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений;

- формирование первого значения коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости;

- формирование второго значения коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности;

- формирование третьего значения коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента, и

- декодирование третьей восстановленной выборки изображений компонента сигнала цветности с использованием третьего значения коэффициента.

[0009] Согласно другому аспекту, предоставляется способ кодирования, который включает в себя:

- в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирование восстановленной выборки, расположенной внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений;

- формирование первого значения коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости;

- формирование второго значения коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности;

- формирование третьего значения коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента, и

- кодирование третьей восстановленной выборки изображений компонента сигнала цветности с использованием третьего значения коэффициента.

[0010] Согласно дополнительному аспекту, предоставляется способ декодирования, который включает в себя:

- в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирование восстановленной выборки, расположенной внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений;

- формирование первого значения коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости;

- формирование второго значения коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности;

- формирование третьего значения коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента, и

- декодирование третьей восстановленной выборки изображений компонента сигнала цветности с использованием третьего значения коэффициента.

[0011] В технологии кодирования видео, желательно предлагать новые способы для того, чтобы повышать эффективность кодирования, повышать качество изображений и уменьшать размер схем. Некоторые реализации вариантов осуществления настоящего раскрытия сущности, включающие в себя составляющие элементы вариантов осуществления настоящего раскрытия сущности, рассматриваемые отдельно или в различных комбинациях, могут упрощать одно или более из следующего: повышение эффективности кодирования, повышение качества изображений, уменьшение степени использования ресурсов обработки, ассоциированных с кодированием/декодированием, уменьшение размера схем, повышение скорости обработки кодирования/декодирования и т.д.

[0012] Помимо этого, некоторые реализации вариантов осуществления настоящего раскрытия сущности, включающие в себя составляющие элементы вариантов осуществления настоящего раскрытия сущности, рассматриваемые отдельно или в различных комбинациях, могут упрощать, при кодировании и декодировании, соответствующий выбор одного или более элементов, таких как фильтр, блок, размер, вектор движения, опорный кадр, опорный блок или операция. Следует отметить, что настоящее раскрытие сущности включает в себя раскрытие сущности относительно конфигураций и способов, которые могут предоставлять преимущества, отличные от вышеописанных преимуществ. Примеры таких конфигураций и способов включают в себя конфигурацию или способ для повышения эффективности кодирования при уменьшении роста использования ресурсов обработки.

[0013] Дополнительные выгоды и преимущества раскрытых вариантов осуществления должны становиться очевидными из подробного описания и чертежей. Выгоды и/или преимущества могут отдельно получаться посредством различных вариантов осуществления и признаков подробного описания и чертежей, не все из которых должны обязательно предоставляться для того, чтобы получать одну или более таких выгод и/или преимуществ.

[0014] Следует отметить, что общие или конкретные варианты осуществления могут реализовываться как система, способ, интегральная схема, компьютерная программа, носитель хранения данных или любая избирательная комбинация вышеозначенного.

Краткое описание чертежей

[0015] Фиг. 1 является принципиальной схемой, иллюстрирующей один пример функциональной конфигурации системы передачи согласно варианту осуществления.

Фиг. 2 является концептуальной схемой для иллюстрации одного примера иерархической структуры данных в потоке.

Фиг. 3 является концептуальной схемой для иллюстрации одного примера конфигурации срезов.

Фиг. 4 является концептуальной схемой для иллюстрации одного примера конфигурации плиток.

Фиг. 5 является концептуальной схемой для иллюстрации одного примера структуры кодирования при масштабируемом кодировании.

Фиг. 6 является концептуальной схемой для иллюстрации одного примера структуры кодирования при масштабируемом кодировании.

Фиг. 7 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера согласно варианту осуществления.

Фиг. 8 является функциональной блок-схемой, иллюстрирующей пример монтажа кодера.

Фиг. 9 является блок-схемой последовательности операций способа, указывающей один пример полного процесса декодирования, выполняемого посредством кодера.

Фиг. 10 является концептуальной схемой для иллюстрации одного примера разбиения блоков.

Фиг. 11 является блок-схемой, иллюстрирующей один пример функциональной конфигурации модуля разбиения согласно варианту осуществления.

Фиг. 12 является концептуальной схемой для иллюстрации примеров шаблонов разбиения.

Фиг. 13A является концептуальной схемой для иллюстрации одного примера синтаксического дерева шаблона разбиения.

Фиг. 13B является концептуальной схемой для иллюстрации другого примера синтаксического дерева шаблона разбиения.

Фиг. 14 является диаграммой, указывающей примерные базисные функции преобразования для различных типов преобразования.

Фиг. 15 является концептуальной схемой для иллюстрации примерных пространственно варьирующихся преобразований (SVT).

Фиг. 16 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством преобразователя.

Фиг. 17 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством преобразователя.

Фиг. 18 является блок-схемой, иллюстрирующей один пример функциональной конфигурации квантователя согласно варианту осуществления.

Фиг. 19 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса квантования, выполняемого посредством квантователя.

Фиг. 20 является блок-схемой, иллюстрирующей один пример функциональной конфигурации энтропийного кодера согласно варианту осуществления.

Фиг. 21 является концептуальной схемой для иллюстрации примерной последовательности операций процесса контекстно-адаптивного двоичного арифметического кодирования (CABAC) в энтропийном кодере.

Фиг. 22 является блок-схемой, иллюстрирующей один пример функциональной конфигурации контурного фильтра согласно варианту осуществления.

Фиг. 23A является концептуальной схемой, иллюстрирующей один пример формы фильтра, используемой в адаптивном контурном фильтре (ALF).

Фиг. 23B является концептуальной схемой для иллюстрации другого примера формы фильтра, используемой в ALF.

Фиг. 23C является концептуальной схемой для иллюстрации другого примера формы фильтра, используемой в ALF.

Фиг. 23D является концептуальной схемой для иллюстрации примерной последовательности операций кросскомпонентной ALF (CCALF).

Фиг. 23E является концептуальной схемой для иллюстрации примера формы фильтра, используемой в CCALF.

Фиг. 23F является концептуальной схемой для иллюстрации примерной последовательности операций объединенной CCALF сигналов цветности (JC-CCALF).

Фиг. 23G является таблицей, иллюстрирующей примерные возможные варианты весовых индексов, которые могут использоваться в JC-CCALF.

Фиг. 24 является блок-схемой, указывающей один пример конкретной конфигурации контурного фильтра, который функционирует в качестве фильтра удаления блочности (DBF).

Фиг. 25 является концептуальной схемой для иллюстрации примера фильтра удаления блочности, имеющего симметричную характеристику фильтрации относительно границы блока.

Фиг. 26 является концептуальной схемой для иллюстрации границы блока, для которой выполняется процесс фильтрации для удаления блочности.

Фиг. 27 является концептуальной схемой для иллюстрации примеров значений граничной интенсивности (Bs).

Фиг. 28 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством модуля прогнозирования кодера.

Фиг. 29 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством модуля прогнозирования кодера.

Фиг. 30 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством модуля прогнозирования кодера.

Фиг. 31 является концептуальной схемой для иллюстрации шестьдесят семи режимов внутреннего прогнозирования, используемых при внутреннем прогнозировании в варианте осуществления.

Фиг. 32 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством модуля внутреннего прогнозирования.

Фиг. 33 является концептуальной схемой для иллюстрации примеров опорных кадров.

Фиг. 34 является концептуальной схемой для иллюстрации примеров списков опорных кадров.

Фиг. 35 является блок-схемой последовательности операций способа, иллюстрирующей примерную базовую последовательность операций обработки взаимного прогнозирования.

Фиг. 36 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса извлечения векторов движения.

Фиг. 37 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса извлечения векторов движения.

Фиг. 38A является концептуальной схемой для иллюстрации примерных характеризаций режимов для MV-извлечения.

Фиг. 38B является концептуальной схемой для иллюстрации примерных характеризаций режимов для MV-извлечения.

Фиг. 39 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования в нормальном взаимном режиме.

Фиг. 40 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования в режиме нормального объединения.

Фиг. 41 является концептуальной схемой для иллюстрации одного примера процесса извлечения векторов движения в режиме объединения.

Фиг. 42 является концептуальной схемой для иллюстрации одного примера процесса MV-извлечения для текущего кадра посредством HMVP-режима объединения.

Фиг. 43 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса преобразования с повышением частоты кинокадров (FRUC).

Фиг. 44 является концептуальной схемой для иллюстрации одного примера сопоставления с шаблоном (билатерального сопоставления) между двумя блоками вдоль траектории движения.

Фиг. 45 является концептуальной схемой для иллюстрации одного примера сопоставления с шаблоном (сопоставления с эталоном) между эталоном в текущем кадре и блоком в опорном кадре.

Фиг. 46A является концептуальной схемой для иллюстрации одного примера извлечения вектора движения каждого субблока на основе векторов движения множества соседних блоков.

Фиг. 46B является концептуальной схемой для иллюстрации одного примера извлечения вектора движения каждого субблока в аффинном режиме, в котором используются три управляющих точки.

Фиг. 47A является концептуальной схемой для иллюстрации примерного MV-извлечения в управляющих точках в аффинном режиме.

Фиг. 47B является концептуальной схемой для иллюстрации примерного MV-извлечения в управляющих точках в аффинном режиме.

Фиг. 47C является концептуальной схемой для иллюстрации примерного MV-извлечения в управляющих точках в аффинном режиме.

Фиг. 48A является концептуальной схемой для иллюстрации аффинного режима, в котором используются две управляющих точки.

Фиг. 48B является концептуальной схемой для иллюстрации аффинного режима, в котором используются три управляющих точки.

Фиг. 49A является концептуальной схемой для иллюстрации одного примера способа для MV-извлечения в управляющих точках, когда число управляющих точек для кодированного блока и число управляющих точек для текущего блока отличаются друг от друга.

Фиг. 49B является концептуальной схемой для иллюстрации другого примера способа для MV-извлечения в управляющих точках, когда число управляющих точек для кодированного блока и число управляющих точек для текущего блока отличаются друг от друга.

Фиг. 50 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса в аффинном режиме объединения.

Фиг. 51 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса в аффинном взаимном режиме.

Фиг. 52A является концептуальной схемой для иллюстрации формирования двух треугольных прогнозных изображений.

Фиг. 52B является концептуальной схемой для иллюстрации примеров первой части первого сегмента, которая перекрывается со вторым сегментом, и первого и второго наборов выборок, которые могут взвешиваться в качестве части процесса коррекции.

Фиг. 52C является концептуальной схемой для иллюстрации первой части первого сегмента, которая составляет часть первого сегмента, которая перекрывается с частью смежного сегмента.

Фиг. 53 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса в треугольном режиме.

Фиг. 54 является концептуальной схемой для иллюстрации одного примера режима усовершенствованного временного прогнозирования векторов движения (ATMVP), в котором MV извлекается в единицах субблоков.

Фиг. 55 является блок-схемой последовательности операций способа, иллюстрирующей взаимосвязь между режимом объединения и динамическим обновлением векторов движения (DMVR).

Фиг. 56 является концептуальной схемой для иллюстрации одного примера DMVR.

Фиг. 57 является концептуальной схемой для иллюстрации другого примера DMVR для определения MV.

Фиг. 58A является концептуальной схемой для иллюстрации одного примера оценки движения в DMVR.

Фиг. 58B является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса оценки движения в DMVR.

Фиг. 59 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса формирования прогнозного изображения.

Фиг. 60 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса формирования прогнозного изображения.

Фиг. 61 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса коррекции прогнозного изображения посредством перекрывающейся блочной компенсации движения (OBMC).

Фиг. 62 является концептуальной схемой для иллюстрации одного примера процесса коррекции прогнозных изображений посредством OBMC.

Фиг. 63 является концептуальной схемой для иллюстрации модели при условии равномерного прямолинейного движения.

Фиг. 64 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса взаимного прогнозирования согласно BIO.

Фиг. 65 является функциональной блок-схемой, иллюстрирующей один пример функциональной конфигурации модуля взаимного прогнозирования, который может выполнять взаимное прогнозирование согласно BIO.

Фиг. 66A является концептуальной схемой для иллюстрации одного примера процесса для способа формирования прогнозных изображений с использованием процесса коррекции яркости, выполняемого посредством LIC.

Фиг. 66B является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса для способа формирования прогнозных изображений с использованием LIC.

Фиг. 67 является блок-схемой, иллюстрирующей функциональную конфигурацию декодера согласно варианту осуществления.

Фиг. 68 является функциональной блок-схемой, иллюстрирующей пример монтажа декодера.

Фиг. 69 является блок-схемой последовательности операций способа, иллюстрирующей один пример полного процесса декодирования, выполняемого посредством декодера.

Фиг. 70 является концептуальной схемой для иллюстрации взаимосвязи между модулем определения разбиения и другими составляющими элементами.

Фиг. 71 является блок-схемой, иллюстрирующей один пример функциональной конфигурации энтропийного декодера.

Фиг. 72 является концептуальной схемой для иллюстрации примерной последовательности операций CABAC-процесса в энтропийном декодере.

Фиг. 73 является блок-схемой, иллюстрирующей один пример функциональной конфигурации обратного квантователя.

Фиг. 74 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса обратного квантования, выполняемого посредством обратного квантователя.

Фиг. 75 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством обратного преобразователя.

Фиг. 76 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством обратного преобразователя.

Фиг. 77 является блок-схемой, иллюстрирующей один пример функциональной конфигурации контурного фильтра.

Фиг. 78 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством модуля прогнозирования декодера.

Фиг. 79 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством модуля прогнозирования декодера.

Фиг. 80A является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством модуля прогнозирования декодера.

Фиг. 80B является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством модуля прогнозирования декодера.

Фиг. 80C является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством модуля прогнозирования декодера.

Фиг. 81 является схемой, иллюстрирующей один пример процесса, выполняемого посредством модуля внутреннего прогнозирования декодера.

Фиг. 82 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса MV-извлечения в декодере.

Фиг. 83 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса MV-извлечения в декодере.

Фиг. 84 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством нормального взаимного режима в декодере.

Фиг. 85 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством режима нормального объединения в декодере.

Фиг. 86 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством FRUC-режима в декодере.

Фиг. 87 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством аффинного режима объединения в декодере.

Фиг. 88 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством аффинного взаимного режима в декодере.

Фиг. 89 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством треугольного режима в декодере.

Фиг. 90 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса оценки движения посредством DMVR в декодере.

Фиг. 91 является блок-схемой последовательности операций способа, иллюстрирующей один примерный процесс оценки движения посредством DMVR в декодере.

Фиг. 92 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса формирования прогнозного изображения в декодере.

Фиг. 93 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса формирования прогнозного изображения в декодере.

Фиг. 94 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса коррекции прогнозного изображения посредством OBMC в декодере.

Фиг. 95 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса коррекции прогнозного изображения посредством BIO в декодере.

Фиг. 96 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса коррекции прогнозного изображения посредством LIC в декодере.

Фиг. 97 является блок-схемой последовательности операций способа для примерной последовательности операций обработки для декодирования изображения, применяющего процесс CCALF (кросскомпонентной адаптивной контурной фильтрации) согласно первому аспекту.

Фиг. 98 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно варианту осуществления.

Фиг. 99 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно варианту осуществления.

Фиг. 100 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно варианту осуществления.

Фиг. 101 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно варианту осуществления.

Фиг. 102 является блок-схемой последовательности операций способа для примерной последовательности операций обработки для декодирования изображения, применяющего CCALF-процесс согласно второму аспекту.

Фиг. 103 иллюстрирует выборочные местоположения параметров отсечения, которые должны синтаксически анализироваться, например, из VPS, APS, SPS, PPS, заголовка среза, CTU или TU потока битов.

Фиг. 104 иллюстрирует примеры параметров отсечения.

Фиг. 105 является блок-схемой последовательности операций способа для примерной последовательности операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием коэффициента фильтрации согласно третьему аспекту.

Фиг. 106 является концептуальной схемой примера, указывающего местоположения коэффициентов фильтрации, которые должны использоваться в CCALF-процессе.

Фиг. 107 является концептуальной схемой примера, указывающего местоположения коэффициентов фильтрации, которые должны использоваться в CCALF-процессе.

Фиг. 108 является концептуальной схемой примера, указывающего местоположения коэффициентов фильтрации, которые должны использоваться в CCALF-процессе.

Фиг. 109 является концептуальной схемой примера, указывающего местоположения коэффициентов фильтрации, которые должны использоваться в CCALF-процессе.

Фиг. 110 является концептуальной схемой примера, указывающего местоположения коэффициентов фильтрации, которые должны использоваться в CCALF-процессе.

Фиг. 111 является концептуальной схемой дополнительного примера, указывающего местоположения коэффициентов фильтрации, которые должны использоваться в CCALF-процессе.

Фиг. 112 является концептуальной схемой дополнительного примера, указывающего местоположения коэффициентов фильтрации, которые должны использоваться в CCALF-процессе.

Фиг. 113 является блок-схемой, иллюстрирующей функциональную конфигурацию CCALF-процесса, выполняемого посредством кодера и декодера согласно варианту осуществления.

Фиг. 114 является блок-схемой последовательности операций способа для примерной последовательности операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием фильтра, выбранного из множества фильтров согласно четвертому аспекту.

Фиг. 115 иллюстрирует пример последовательности операций обработки выбора фильтра.

Фиг. 116 иллюстрирует примеры фильтров.

Фиг. 117 иллюстрирует примеры фильтров.

Фиг. 118 является блок-схемой последовательности операций способа для примерной последовательности операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием параметра согласно пятому аспекту.

Фиг. 119 иллюстрирует примеры числа коэффициентов, которые должны синтаксически анализироваться из потока битов.

Фиг. 120 является блок-схемой последовательности операций способа для примерной последовательности операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием параметра согласно шестому аспекту.

Фиг. 121 является концептуальной схемой, иллюстрирующей пример формирования CCALF-значения компонента сигнала яркости для текущей выборки сигналов цветности посредством вычисления средневзвешенного значения соседних выборок.

Фиг. 122 является концептуальной схемой, иллюстрирующей пример формирования CCALF-значения компонента сигнала яркости для текущей выборки сигналов цветности посредством вычисления средневзвешенного значения соседних выборок.

Фиг. 123 является концептуальной схемой, иллюстрирующей пример формирования CCALF-значения компонента сигнала яркости для текущей выборки сигналов цветности посредством вычисления средневзвешенного значения соседних выборок.

Фиг. 124 является концептуальной схемой, иллюстрирующей пример формирования CCALF-значения компонента сигнала яркости для текущей выборки посредством вычисления средневзвешенного значения соседних выборок, при этом местоположения соседних выборок определяются адаптивно относительно типа сигналов цветности.

Фиг. 125 является концептуальной схемой, иллюстрирующей пример формирования CCALF-значения компонента сигнала яркости для текущей выборки посредством вычисления средневзвешенного значения соседних выборок, при этом местоположения соседних выборок определяются адаптивно относительно типа сигналов цветности.

Фиг. 126 является концептуальной схемой, иллюстрирующей пример формирования CCALF-значения компонента сигнала яркости посредством применения побитового сдвига к выходному значению вычисления со взвешиванием.

Фиг. 127 является концептуальной схемой, иллюстрирующей пример формирования CCALF-значения компонента сигнала яркости посредством применения побитового сдвига к выходному значению вычисления со взвешиванием.

Фиг. 128 является блок-схемой последовательности операций способа для примерной последовательности операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием параметра согласно седьмому аспекту.

Фиг. 129 иллюстрирует выборочные местоположения одного или более параметров, которые должны синтаксически анализироваться из потока битов.

Фиг. 130 показывает примерные процессы извлечения одного или более параметров.

Фиг. 131 показывает выборочные значения второго параметра.

Фиг. 132 показывает пример синтаксического анализа второго параметра с использованием арифметического кодирования.

Фиг. 133 является концептуальной схемой варьирования этого варианта осуществления, применяемого к прямоугольным сегментам и непрямоугольным сегментам, таким как треугольные сегменты.

Фиг. 134 является блок-схемой последовательности операций способа для примерной последовательности операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием параметра согласно восьми аспектам.

Фиг. 135 является блок-схемой последовательности операций способа для примерной последовательности операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием параметра согласно восьмому аспекту.

Фиг. 136 показывает примерные местоположения типов 0-5 выборок сигналов цветности.

Фиг. 137 является концептуальной схемой, иллюстрирующей выборочное симметричное дополнение.

Фиг. 138 является концептуальной схемой, иллюстрирующей выборочное симметричное дополнение.

Фиг. 139 является концептуальной схемой, иллюстрирующей выборочное симметричное дополнение.

Фиг. 140 является концептуальной схемой, иллюстрирующей выборочное несимметричное дополнение.

Фиг. 141 является концептуальной схемой, иллюстрирующей выборочное несимметричное дополнение.

Фиг. 142 является концептуальной схемой, иллюстрирующей выборочное несимметричное дополнение.

Фиг. 143 является концептуальной схемой, иллюстрирующей выборочное несимметричное дополнение.

Фиг. 144 является концептуальной схемой, иллюстрирующей дополнительное выборочное несимметричное дополнение.

Фиг. 145 является концептуальной схемой, иллюстрирующей дополнительное выборочное несимметричное дополнение.

Фиг. 146 является концептуальной схемой, иллюстрирующей дополнительное выборочное несимметричное дополнение.

Фиг. 147 является концептуальной схемой, иллюстрирующей дополнительное выборочное несимметричное дополнение.

Фиг. 148 является концептуальной схемой, иллюстрирующей дополнительное выборочное симметричное дополнение.

Фиг. 149 является концептуальной схемой, иллюстрирующей дополнительное выборочное симметричное дополнение.

Фиг. 150 является концептуальной схемой, иллюстрирующей дополнительное выборочное симметричное дополнение.

Фиг. 151 является концептуальной схемой, иллюстрирующей дополнительное выборочное несимметричное дополнение.

Фиг. 152 является концептуальной схемой, иллюстрирующей дополнительное выборочное несимметричное дополнение.

Фиг. 153 является концептуальной схемой, иллюстрирующей дополнительное выборочное несимметричное дополнение.

Фиг. 154 является концептуальной схемой, иллюстрирующей дополнительное выборочное несимметричное дополнение.

Фиг. 155 иллюстрирует дополнительные примеры дополнения с горизонтальной и вертикальной виртуальной границей.

Фиг. 156 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно примеру, в котором симметричное дополнение используется в виртуальных граничных местоположениях в виртуальных граничных местоположениях для ALF, и симметричное или несимметричное дополнение используется в виртуальных граничных местоположениях для CCALF.

Фиг. 157 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно примеру, в котором другое симметричное дополнение используется в виртуальных граничных местоположениях для ALF, и одностороннее дополнение используется в виртуальных граничных местоположениях для CCALF.

Фиг. 158 является концептуальной схемой, иллюстрирующей пример одностороннего дополнения с горизонтальной или вертикальной виртуальной границей.

Фиг. 159 является концептуальной схемой, иллюстрирующей пример одностороннего дополнения с горизонтальной и вертикальной виртуальной границей.

Фиг. 160 является схемой, иллюстрирующей примерную общую конфигурацию системы предоставления контента для реализации услуги распространения контента.

Фиг. 161 является концептуальной схемой, иллюстрирующей пример экрана отображения веб-страницы.

Фиг. 162 является концептуальной схемой, иллюстрирующей пример экрана отображения веб-страницы.

Фиг. 163 является блок-схемой, иллюстрирующей один пример смартфона.

Фиг. 164 является блок-схемой, иллюстрирующей пример функциональной конфигурации смартфона.

Подробное описание вариантов осуществления

[0016] На чертежах, идентичные ссылки с номерами идентифицируют аналогичные элементы, если контекст не указывает иное. Размеры и относительные позиции элементов на чертежах не обязательно чертятся в масштабе.

[0017] В дальнейшем в этом документе описываются варианты осуществления со ссылкой на чертежи. Следует отметить, что варианты осуществления, описанные ниже, показывают общий или конкретный пример. Числовые значения, формы, материалы, компоненты, компоновка и соединение компонентов, этапов, взаимосвязь и порядок этапов и т.д., указываемых в нижеприведенных вариантах осуществления, представляют собой просто примеры и в силу этого не имеют намерение ограничивать объем формулы изобретения.

[0018] Ниже описываются варианты осуществления кодера и декодера. Варианты осуществления представляют собой примеры кодера и декодера, к которым являются применимыми процессы и/или конфигурации, представленные в описании аспектов настоящего раскрытия сущности. Процессы и/или конфигурации также могут реализовываться в кодере и декодере, отличающихся от кодера и декодера согласно вариантам осуществления. Например, относительно процессов и/или конфигураций, применяемых к вариантам осуществления, может реализовываться любое из следующего:

[0019] (1) Любой из компонентов кодера или декодера согласно вариантам осуществления, представленным в описании аспектов настоящего раскрытия сущности, может заменяться или комбинироваться с другим компонентом, представленным в любом месте в описании аспектов настоящего раскрытия сущности.

[0020] (2) В кодере или декодере согласно вариантам осуществления, дискреционные изменения могут вноситься в функции или процессы, выполняемые посредством одного или более компонентов кодера или декодера, такие как добавление, замена, удаление и т.д. функций или процессов. Например, любая функция или процесс может заменяться или комбинироваться с другой функцией или процессом, представленным в любом месте в описании аспектов настоящего раскрытия сущности.

[0021] (3) В способах, реализованных посредством кодера или декодера согласно вариантам осуществления, могут вноситься дискреционные изменения, такие как добавление, замена и удаление одного или более процессов, включенных в способ. Например, любой процесс в способе может заменяться или комбинироваться с другим процессом, представленным в любом месте в описании аспектов настоящего раскрытия сущности.

[0022] (4) Один или более компонентов, включенных в кодер или декодер согласно вариантам осуществления, могут комбинироваться с компонентом, представленным в любом месте в описании аспектов настоящего раскрытия сущности, могут комбинироваться с компонентом, включающим в себя одну или более функций, представленных в любом месте в описании аспектов настоящего раскрытия сущности, и могут комбинироваться с компонентом, который реализует один или более процессов, реализованных посредством компонента, представленного в описании аспектов настоящего раскрытия сущности.

[0023] (5) Компонент, включающий в себя одну или более функций кодера или декодера согласно вариантам осуществления, либо компонент, который реализует один или более процессов кодера или декодера согласно вариантам осуществления, может комбинироваться или заменяться компонентом, представленным в любом месте в описании аспектов настоящего раскрытия сущности, компонентом, включающим в себя одну или более функций, представленных в любом месте в описании аспектов настоящего раскрытия сущности, либо компонентом, который реализует один или более процессов, представленных в любом месте в описании аспектов настоящего раскрытия сущности.

[0024] (6) В способах, реализованных посредством кодера или декодера согласно вариантам осуществления, любой из процессов, включенных в способ, может заменяться или комбинироваться с процессом, представленным в любом месте в описании аспектов настоящего раскрытия сущности, либо с любым соответствующим или эквивалентным процессом.

[0025] (7) Один или более процессов, включенных в способы, реализованные посредством кодера или декодера согласно вариантам осуществления, могут комбинироваться с процессом, представленным в любом месте в описании аспектов настоящего раскрытия сущности.

[0026] (8) Реализация процессов и/или конфигураций, представленных в описании аспектов настоящего раскрытия сущности, не ограничена кодером или декодером согласно вариантам осуществления. Например, процессы и/или конфигурации могут реализовываться в устройстве, используемом для цели, отличающейся от кодера движущихся кадров или декодера движущихся кадров, раскрытого в вариантах осуществления.

[0027] Определения терминов

Соответствующие термины могут задаваться так, как указано ниже в качестве примеров.

[0028] Изображение представляет собой единицу данных, сконфигурированную с набором пикселов, представляет собой кадр или включает в себя блоки, меньшие пиксела. Изображения включают в себя неподвижное изображение в дополнение к видео.

[0029] Кадр представляет собой единицу обработки изображений, сконфигурированную с набором пикселов, и также может называться "кадром" или "полем". Кадр, например, может принимать форму массива выборок сигналов яркости в монохромном формате или массива выборок сигналов яркости и двух соответствующих массивов выборок сигналов цветности в цветовом формате 4:2:0, 4:2:2 и 4:4:4.

[0030] Блок представляет собой единицу обработки, которая представляет собой набор определенного числа пикселов. Блоки могут иметь любое число различных форм. Например, блок может иметь прямоугольную форму в MxN (M столбцов на N строк) пикселов, квадратную форму в MxM пикселов, треугольную форму, круглую форму и т.д. Примеры блоков включают в себя срезы, плитки, кирпичи, CTU, суперблоки, базовые единицы разбиения, VPDU, единицы разбиения для обработки для аппаратных средств, CU, блочные единицы для обработки, блочные единицы прогнозирования (PU), блочные единицы ортогонального преобразования (TU), единицы и субблоки. Блок может принимать форму массива MxN выборок или массива MxN коэффициентов преобразования. Например, блок может представлять собой квадратную или прямоугольную область пикселов, включающую в себя одну матрицу сигналов яркости и две матрицы сигналов цветности.

[0031] Пиксел или выборка представляет собой наименьшую точку изображения. Пикселы или выборки включают в себя пиксел в целочисленной позиции, а также пикселы в субпиксельных позициях, например, сформированных на основе пиксела в целочисленной позиции.

[0032] Пиксельное значение или выборочное значение представляет собой собственное значение пиксела. Пиксельные значения или выборочные значения могут включать в себя одно или более из значения сигнала яркости, значения сигнала цветности, уровня RGB-градации, значения глубины, двоичных значений в нуль или 1 и т.д.

[0033] Сигнал цветности или цветность представляют собой интенсивность цвета, типично представленную посредством символов Cb и Cr, которые указывают то, что значения массива выборок или одно выборочное значение представляют значения одного из двух цветоразностных сигналов, связанных с первичными цветами.

[0034] Сигнал яркости или яркость представляет собой яркость изображения, типично представленную посредством символа или подстрочного индекса Y или L, которые указывают то, что значения массива выборок или одно выборочное значение представляют значения монохромного сигнала, связанные с первичными цветами.

[0035] Флаг содержит один или более битов, которые указывают значение, например, параметра или индекса. Флаг может представлять собой двоичный флаг, который указывает двоичное значение флага, который также может указывать недвоичное значение параметра.

[0036] Сигнал передает информацию, которая преобразуется в символьную форму посредством или кодируется в сигнал. Сигналы включают в себя дискретные цифровые сигналы и непрерывные аналоговые сигналы.

[0037] Поток или поток битов представляет собой строку цифровых данных потока цифровых данных. Поток или поток битов может представлять собой один поток либо может быть сконфигурирован с множеством потоков, имеющих множество иерархических слоев. Поток или поток битов может передаваться при последовательной связи с использованием одного тракта передачи либо может передаваться при связи с коммутацией пакетов с использованием множества трактов передачи.

[0038] Разность означает различные математические разности, к примеру, простую разность (x-y), абсолютное значение разности (|x-y|), квадрат разности (x^2-y^2), квадратный корень разности (√(x-y)), взвешенную разность (ax-by: a и b являются константами), разность смещения (x-y+a: a является смещением) и т.д. В случае скалярной величины, простая разность может быть достаточной, и вычисление разности может включаться.

[0039] Сумма означает различные математические суммы, к примеру, простую сумму (x+y), абсолютное значение суммы (|x+y|), возведенную в квадрат сумму (x^2+y^2), квадратный корень суммы (√(x+y)), взвешенную разность (ax+by: a и b являются константами), сумму смещения (x+y+a: a является смещением) и т.д. В случае скалярной величины, простая сумма может быть достаточной, и вычисление сумм может включаться.

[0040] Кадр представляет собой композицию верхнего поля и нижнего поля, при этом строки 0, 2, 4, ..., выборок инициируются из верхнего поля, и строки 1, 3, 5, ..., выборок инициируются из нижнего поля.

[0041] Срез представляет собой целое число единиц дерева кодирования, содержащихся в одном независимом сегменте срезов и во всех последующих зависимых сегментах срезов (если таковые имеются), которые предшествуют следующему независимому сегменту срезов (если таковые имеются) в идентичной единице доступа.

[0042] Плитка представляет собой прямоугольную область блоков дерева кодирования в конкретном столбце плиток и конкретной строке плиток в кадре. Плитка может представлять собой прямоугольную область кинокадра, которая должна иметь возможность декодироваться и кодироваться независимо, хотя по-прежнему может применяться контурная фильтрация по краям плиток.

[0043] Единица дерева кодирования (CTU) может представлять собой блок дерева кодирования выборок сигнала яркости кадра, который имеет три массива выборок, или два соответствующих блока дерева кодирования выборок сигнала цветности. Альтернативно, CTU может представлять собой блок дерева кодирования выборок одного из монохромного кадра и кадра, который кодируется с использованием трех отдельных цветовых плоскостей и синтаксических структур, используемых для того, чтобы кодировать выборки. Суперблок может представлять собой квадратный блок в 64×64 пикселов, который состоит из или 1 или 2 блоков информации режима или рекурсивно сегментируется на четыре блока 32×32, которые сами дополнительно могут сегментироваться.

[0044] Конфигурация системы

Во-первых, описывается система передачи согласно варианту осуществления. Фиг. 1 является принципиальной схемой, иллюстрирующей один пример конфигурации системы 400 передачи согласно варианту осуществления.

[0045] Система 400 передачи представляет собой систему, которая передает поток, сформированный посредством кодирования изображения, и декодирует передаваемый поток. Как проиллюстрировано, система 400 передачи включает в себя кодер 100, сеть 300 и декодер 200, как проиллюстрировано на фиг. 1.

[0046] Изображение вводится в кодер 100. Кодер 100 формирует поток посредством кодирования входного изображения и выводит поток в сеть 300. Поток включает в себя, например, кодированную информацию изображений и управляющую информацию для декодирования кодированного изображения. Изображение сжимается посредством кодирования.

[0047] Следует отметить, что изображение до кодирования посредством кодера 100 также называется "исходным изображением", "исходным сигналом" или "исходной выборкой". Изображение может представлять собой видео или неподвижное изображение. Изображение представляет собой общий принцип последовательности, кадра и блока и в силу этого не ограничено пространственной областью, имеющей конкретный размер, и временной областью, имеющей конкретный размер, если не указано иное. Изображение представляет собой массив пикселов или пиксельных значений, и сигнал, представляющий изображение или пиксельные значения, также называется "выборками". Поток может называться "потоком битов", "кодированным потоком битов", "сжатым потоком битов" или "кодированным сигналом". Кроме того, кодер 100 может называться "кодером изображений" или "видеокодером". Способ кодирования, выполняемый посредством кодера 100, может называться "способом кодирования", "способом кодирования изображений" или "способом кодирования видео".

[0048] Сеть 300 передает поток, сформированный посредством кодера 100, в декодер 200. Сеть 200 может представлять собой Интернет, глобальную вычислительную сеть (WAN), локальную вычислительную сеть (LAN) либо любую комбинацию сетей. Сеть 300 не ограничена сетью двунаправленной связи и может представлять собой сеть однонаправленной связи, которая передает широковещательные волны цифровой наземной широковещательной передачи, спутниковой широковещательной передачи и т.п. Альтернативно, сеть 300 может заменяться посредством носителя записи, такого как универсальный цифровой диск (DVD) и Blu-Ray-диск (BD) и т.д., на который записывается поток.

[0049] Декодер 200 формирует, для примера, декодированное изображение, которое представляет собой несжатое изображение, посредством декодирования потока, передаваемого посредством сети 300. Например, декодер декодирует поток согласно способу декодирования, соответствующему способу кодирования, используемому посредством кодера 100.

[0050] Следует отметить, что декодер 200 также может называться "декодером изображений" или "видеодекодером", и что способ декодирования, выполняемый посредством декодера 200, также может называться "способом декодирования", "способом декодирования изображений" или "способом декодирования видео".

[0051] Структура данных

Фиг. 2 является концептуальной схемой для иллюстрации одного примера иерархической структуры данных в потоке. Для удобства, фиг. 2 описывается со ссылкой на систему 400 передачи по фиг. 1. Поток включает в себя, например, видеопоследовательность. Как проиллюстрировано в (a) по фиг. 2, видеопоследовательность включает в себя один или более наборов параметров видео (VPS), один или более наборов параметров последовательности (SPS), один или более наборов параметров кадра (PPS), дополнительную улучшающую информацию (SEI) и множество кадров.

[0052] В видео, имеющем множество слоев, VPS может включать в себя параметр кодирования, который является общим между некоторыми из множества слоев, и параметр кодирования, связанный с некоторыми из множества слоев, включенных в видео, или с отдельным слоем.

[0053] SPS включает в себя параметр, который используется для последовательности, т.е. параметр кодирования, к которому обращается декодер 200 для того, чтобы декодировать последовательность. Например, параметр кодирования может указывать ширину или высоту кадра. Следует отметить, что множество SPS могут присутствовать.

[0054] PPS включает в себя параметр, который используется для кадра, т.е. параметр кодирования, к которому обращается декодер 200 для того, чтобы декодировать каждый из кадров в последовательности. Например, параметр кодирования может включать в себя опорное значение для ширины квантования, которая используется для того, чтобы декодировать кадр, и флаг, указывающий применение прогнозирования со взвешиванием. Следует отметить, что множество PPS могут присутствовать. Каждый из SPS и PPS может называться просто "набором параметров".

[0055] Как проиллюстрировано в (b) по фиг. 2, кадр может включать в себя заголовок кадра и один или более срезов. Заголовок кадра включает в себя параметр кодирования, к которому обращается декодер 200 для того, чтобы декодировать один или более срезов.

[0056] Как проиллюстрировано в (c) по фиг. 2, срез включает в себя заголовок среза и один или более кирпичей. Заголовок среза включает в себя параметр кодирования, к которому обращается декодер 200 для того, чтобы декодировать один или более кирпичей.

[0057] Как проиллюстрировано в (d) по фиг. 2, кирпич включает в себя одну или более единиц дерева кодирования (CTU).

[0058] Следует отметить, что кадр может не включать в себя срез и может включать в себя группу плиток вместо среза. В этом случае, группа плиток включает в себя, по меньшей мере, одну плитку. Помимо этого, кирпич может включать в себя срез.

[0059] CTU также называется "суперблоком" или "базисной единицей разбиения". Как проиллюстрировано в (e) по фиг. 2, CTU включает в себя CTU-заголовок и, по меньшей мере, одну единицу кодирования (CU). Как проиллюстрировано, CTU включает в себя четыре единицы кодирования CU(10), CU(11), (CU(12) и CU(13). CTU-заголовок включает в себя параметр кодирования, к которому обращается декодер 200 для того, чтобы декодировать, по меньшей мере, одну CU.

[0060] CU может разбиваться на множество меньших CU. Как показано, CU(10) не разбивается на меньшие единицы кодирования; CU(11) разбивается на четыре меньших единицы кодирования CU(110), CU(111), CU(112) и CU(113); CU(12) не разбивается на меньшие единицы кодирования; и CU(13) разбивается на семь меньших единиц кодирования CU(1310), CU(1311), CU(1312), CU(1313), CU(132), CU(133) и CU(134), как проиллюстрировано в(f) по фиг. 2, CU включает в себя заголовок CU, информацию прогнозирования и информацию остаточных коэффициентов. Информация прогнозирования представляет собой информацию для прогнозирования CU, и информация остаточных коэффициентов представляет собой информацию, указывающую остаток прогнозирования, который описывается ниже. Хотя CU является по существу идентичной единице прогнозирования (PU) и единице преобразования (TU), следует отметить, что, например, субблочное преобразование (SBT), которое описывается ниже, может включать в себя множество TU, меньших CU. Помимо этого, CU может обрабатываться для каждой виртуальной конвейерной единицы декодирования (VPDU), включенной в CU. VPDU, например, представляет собой фиксированную единицу, которая может обрабатываться однократно, когда конвейерная обработка выполняется в аппаратных средствах.

[0061] Следует отметить, что поток может не включать в себя все иерархические слои, проиллюстрированные на фиг. 2. Порядок иерархических слоев может меняться, или любой из иерархических слоев может заменяться посредством другого иерархического слоя. Здесь, кадр, который представляет собой цель для процесса, который должен выполняться посредством устройства, такого как кодер 100 или декодер 200, называется "текущим кадром". Текущий кадр означает текущий кадр, который должен кодироваться, когда процесс представляет собой процесс кодирования, и текущий кадр означает текущий кадр, который должен декодироваться, когда процесс представляет собой процесс декодирования. Аналогично, например, CU или блок CU, который представляет собой цель для процесса, который должен выполняться посредством устройства, такого как кодер 100 или декодер 200, называется "текущим блоком". Текущий блок означает текущий блок, который должен кодироваться, когда процесс представляет собой процесс кодирования, и текущий блок означает текущий блок, который должен декодироваться, когда процесс представляет собой процесс декодирования.

[0062] Структура кадра: срез/плитка

Кадр может быть сконфигурирован с одной или более единиц срезов или одной или более единиц плиток, чтобы упрощать параллельное кодирование/декодирование кадра.

[0063] Срезы представляют собой базовые единицы кодирования, включенные в кадр. Кадр может включать в себя, например, один или более срезов. Помимо этого, срез включает в себя одну или боле единиц дерева кодирования (CTU).

[0064] Фиг. 3 является концептуальной схемой для иллюстрации одного примера конфигурации срезов. Например, на фиг. 3, кадр включает в себя CTU 11×8 и разбивается на четыре среза (срезы 1-4). Срез 1 включает в себя шестнадцать CTU, срез 2 включает в себя двадцать одну CTU, срез 3 включает в себя двадцать девять CTU, и срез 4 включает в себя двадцать две CTU. Здесь, каждая CTU в кадре принадлежит одному из срезов. Форма каждого среза представляет собой форму, полученную посредством разбиения кадра горизонтально. Граница каждого среза не должна обязательно совпадать с концом изображения и может совпадать с любой из границ между CTU в изображении. Порядок обработки CTU в срезе (порядок кодирования или порядок декодирования), например, представляет собой порядок растрового сканирования. Срез включает в себя заголовок среза и кодированные данные. Признаки среза могут записываться в заголовок среза. Признаки могут включать в себя CTU-адрес верхней CTU в срезе, тип среза и т.д.

[0065] Плитка представляет собой единицу прямоугольной области, включенной в кадр. Плиткам кадра может назначаться номер, называемый "TileId" в порядке растрового сканирования.

[0066] Фиг. 4 является концептуальной схемой для иллюстрации одного примера конфигурации плиток. Например, на фиг. 4, кадр включает в себя CTU 11×8 и разбивается на четыре плитки прямоугольных областей (плитки 1-4). Когда плитки используются, порядок обработки CTU может отличаться от порядка обработки в случае, если плитки не используются. Когда плитки не используются, множество CTU в кадре, в общем, обрабатываются в порядке растрового сканирования. Когда множество плиток используются, по меньшей мере, одна CTU в каждой из множества плиток обрабатывается в порядке растрового сканирования. Например, как проиллюстрировано на фиг. 4 порядок обработки CTU, включенных в плитку 1, с левого конца первого столбца плитки 1 к правому концу первого столбца плитки 1, а затем продолжается с левого конца второго столбца плитки 1 к правому концу второго столбца плитки 1.

[0067] Следует отметить, что одна плитка может включать в себя один или более срезов, и один срез может включать в себя одну или более плиток.

[0068] Следует отметить, что кадр может быть сконфигурирован с одним или более наборов плиток. Набор плиток может включать в себя одну или более групп плиток или одну или более плиток. Кадр может быть сконфигурирован с одним из набора плиток, группы плиток и плитки. Например, порядок для сканирования множества плиток для каждого набора плиток в порядке растрового сканирования предположительно представляет собой базовый порядок кодирования плиток. Набор из одной или более плиток, которые являются непрерывными в базовом порядке кодирования в каждом наборе плиток, предположительно представляет собой группу плиток. Такой кадр может быть сконфигурирован посредством модуля 102 разбиения (см. фиг. 7), который описывается ниже.

[0069] Масштабируемое кодирование

Фиг. 5 и 6 являются концептуальными схемами, иллюстрирующими примеры масштабируемых структур потока, и описываются для удобства со ссылкой на фиг. 1.

[0070] Как проиллюстрировано на фиг. 5, кодер 100 может формировать временно/пространственно масштабируемый поток посредством разделения каждого из множества кадров на любые из множества слоев и кодирования кадра в слое. Например, кодер 100 кодирует кадр для каждого слоя, за счет этого достигая масштабируемости, при которой улучшающий слой присутствует выше базового слоя. Такое кодирование каждого кадра также называется "масштабируемым кодированием". Таким образом, декодер 200 допускает переключение качества изображений для изображения, которое отображается посредством декодирования потока. Другими словами, декодер 200 может определять то, какой слой следует декодировать, на основе внутренних факторов, таких как характеристики обработки декодера 200, и внешних факторов, таких как состояние полосы пропускания линий связи. Как результат, декодер 200 допускает декодирование контента при свободном переключении между низким разрешением и высоким разрешением. Например, пользователь потока просматривает видео потока наполовину с использованием смартфона по пути домой и продолжает просмотр ролика дома на таком устройстве, как телевизор, соединенный с Интернетом. Следует отметить, что каждое из смартфона и устройства, описанных выше, включает в себя декодер 200, имеющий идентичную или различную производительность. В этом случае, когда устройство декодирует слои вплоть до верхнего слоя в потоке, пользователь может просматривать видео в высоком качестве дома. Таким образом, кодер 100 не должен формировать множество потоков, имеющих различные качества изображений идентичного контента, и в силу этого нагрузка по обработке может уменьшаться.

[0071] Кроме того, улучшающий слой может включать в себя метаинформацию на основе статистической информации относительно изображения. Декодер 200 может формировать видео, качество изображений которого повышено посредством выполнения формирования изображений со сверхразрешением на кадре в базовом слое на основе метаданных. Формирование изображений со сверхразрешением может включать в себя, например, улучшение SN-отношения при идентичном разрешении, увеличение разрешения и т.д. Метаданные могут включать в себя, например, информацию для идентификации коэффициента линейной или нелинейной фильтрации, используемой в процессе на основе сверхразрешения, либо информацию, идентифицирующую значение параметра в процессе фильтрации, при машинном обучении или в методе наименьших квадратов, используемом в обработке на основе сверхразрешения и т.д.

[0072] В варианте осуществления, может предоставляться конфигурация, в которой кадр разделяется, например, на плитки, например, в соответствии со смысловым значением объекта в кадре. В этом случае, декодер 200 может декодировать только частичную область в кадре посредством выбора плитки, которая должна декодироваться. Помимо этого, атрибут объекта (человека, автомобиля, шара и т.д.) и позиция объекта в кадре (координаты в идентичных изображениях) могут сохраняться в качестве метаданных. В этом случае, декодер 200 допускает идентификацию позиции требуемого объекта на основе метаданных и определение плитки, включающей в себя объект. Например, как проиллюстрировано на фиг. 6, метаданные могут сохраняться с использованием структуры хранения данных, отличающейся от данных изображений, такой как сообщение с SEI (дополнительной улучшающей информацией) в HEVC. Эти метаданные указывают, например, позицию, размер или цвет основного объекта.

[0073] Метаданные могут сохраняться в единицах множества кадров, к примеру, как поток, последовательность или единица произвольного доступа. Таким образом, декодер 200 допускает получение, например, времени, в которое конкретный человек появляется в видео, и посредством подгонки информации времени к информации единицы кадров, допускает идентификацию кадра, в котором объект (человек) присутствует, и определение позиции объекта в кадре.

[0074] Кодер

В дальнейшем описывается кодер согласно варианту осуществления. Фиг. 7 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера 100 согласно варианту осуществления. Кодер 100 представляет собой видеокодер, который кодирует видео в единицах блоков.

[0075] Как проиллюстрировано на фиг. 7, кодер 100 представляет собой оборудование, которое кодирует изображение в единицах блоков, и включает в себя модуль 102 разбиения, вычитатель 104, преобразователь 106, квантователь 108, энтропийный кодер 110, обратный квантователь 112, обратный преобразователь 114, сумматор 116, запоминающее устройство 118 блоков, контурный фильтр 120, запоминающее устройство 122 кинокадров, модуль 124 внутреннего прогнозирования, модуль 126 взаимного прогнозирования, контроллер 128 прогнозирования и формирователь 130 параметров прогнозирования. Как проиллюстрировано, модуль 124 внутреннего прогнозирования и модуль 126 взаимного прогнозирования представляют собой часть контроллера прогнозирования.

[0076] Кодер 100 реализуется, например, в качестве общего процессора и запоминающего устройства. В этом случае, когда программно-реализованная программа, сохраненная в запоминающем устройстве, выполняется посредством процессора, процессор функционирует в качестве модуля 102 разбиения, вычитателя 104, преобразователя 106, квантователя 108, энтропийного кодера 110, обратного квантователя 112, обратного преобразователя 114, сумматора 116, контурного фильтра 120, модуля 124 внутреннего прогнозирования, модуля 126 взаимного прогнозирования и контроллера 128 прогнозирования. Альтернативно, кодер 100 может реализовываться в качестве одной или более специализированных электронных схем, соответствующих модулю 102 разбиения, вычитателю 104, преобразователю 106, квантователю 108, энтропийному кодеру 110, обратному квантователю 112, обратному преобразователю 114, сумматору 116, контурному фильтру 120, модулю 124 внутреннего прогнозирования, модулю 126 взаимного прогнозирования и контроллеру 128 прогнозирования.

[0077] Пример монтажа кодера

Фиг. 8 является функциональной блок-схемой, иллюстрирующей пример монтажа кодера 100. Кодер 100 включает в себя процессор a1 и запоминающее устройство a2. Например, множество составляющих элементов кодера 100, проиллюстрированного на фиг. 7, смонтированы в процессоре a1 и запоминающем устройстве a2, проиллюстрированных на фиг. 8.

[0078] Процессор a1 представляет собой схему, которая выполняет обработку информации, и соединяется с запоминающим устройством a2. Например, процессор a1 представляет собой специализированную или общую электронную схему, которая кодирует изображение. Процессор a1 может представлять собой процессор, такой как CPU. Помимо этого, процессор a1 может представлять собой совокупность множества электронных схем. Помимо этого, например, процессор a1 может выполнять роли двух или более составляющих элементов из множества составляющих элементов кодера 100, проиллюстрированного на фиг. 7, и т.д.

[0079] Запоминающее устройство a2 представляет собой специализированное или общее запоминающее устройство для сохранения информации, которая используется посредством процессора a1 для того, чтобы кодировать изображение. Запоминающее устройство a2 может представлять собой электронную схему и может соединяться с процессором a1. Помимо этого, запоминающее устройство a2 может включаться в процессор a1. Помимо этого, запоминающее устройство a2 может представлять собой совокупность множества электронных схем. Помимо этого, запоминающее устройство a2 может представлять собой магнитный диск, оптический диск и т.п. либо может представляться как устройство хранения данных, носитель записи и т.п. Помимо этого, запоминающее устройство a2 может представлять собой энергонезависимое запоминающее устройство или энергозависимое запоминающее устройство.

[0080] Например, запоминающее устройство a2 может сохранять изображение, которое должно кодироваться, или поток битов, соответствующий кодированному изображению. Помимо этого, запоминающее устройство a2 может сохранять программу для инструктирования процессору a1 кодировать изображение.

[0081] Помимо этого, например, запоминающее устройство a2 может выполнять роли двух или более составляющих элементов для сохранения информации из множества составляющих элементов кодера 100, проиллюстрированного на фиг. 7, и т.д. Например, запоминающее устройство a2 может выполнять роли запоминающего устройства 118 блоков и запоминающего устройства 122 кинокадров, проиллюстрированных на фиг. 7. Более конкретно, запоминающее устройство a2 может сохранять восстановленный блок, восстановленный кадр и т.д.

[0082] Следует отметить, что, в кодере 100, все из множества составляющих элементов, указываемых на фиг. 7 и т.д., могут не реализовываться, и все процессы, описанные в данном документе, могут не выполняться. Часть составляющих элементов, указываемых на фиг. 7 и т.д., может включаться в другое устройство, или часть процессов, описанных в данном документе, может выполняться посредством другого устройства.

[0083] В дальнейшем в этом документе описывается полная последовательность операций процессов, выполняемых посредством кодера 100, и после этого описывается каждый из составляющих элементов, включенных в кодер 100.

[0084] Общая последовательность операций процесса кодирования

Фиг. 9 является блок-схемой последовательности операций способа, указывающей один пример полного процесса декодирования, выполняемого посредством кодера 100, и для удобства описывается со ссылкой на фиг. 7.

[0085] Во-первых, модуль 102 разбиения кодера 100 разбивает каждый из кадров, включенных во входное изображение, на множество блоков, имеющих фиксированный размер (например, 128×128 пикселов) (этап Sa_1). Модуль 102 разбиения затем выбирает шаблон разбиения для блока фиксированного размера (также называется "формой блока") (этап Sa_2). Другими словами, модуль 102 разбиения дополнительно разбивает блок фиксированного размера на множество блоков, которые формируют выбранный шаблон разбиения. Кодер 100 выполняет, для каждого из множества блоков, этапы Sa_3-Sa_9 для блока (который представляет собой текущий блок, который должен кодироваться).

[0086] Контроллер 128 прогнозирования и модуль выполнения прогнозирования (который включает в себя модуль 124 внутреннего прогнозирования и модуль 126 взаимного прогнозирования) формируют прогнозное изображение текущего блока (этап Sa 3). Прогнозное изображение также может называться "прогнозным сигналом", "блоком прогнозирования" или "прогнозными выборками".

[0087] Затем, вычитатель 104 формирует разность между текущим блоком и прогнозным изображением в качестве остатка прогнозирования (этап Sa_4). Остаток прогнозирования также может называться "ошибкой прогнозирования".

[0088] Затем, преобразователь 106 преобразует прогнозное изображение, и квантователь 108 квантует результат для того, чтобы формировать множество квантованных коэффициентов (этап Sa_5). Множество квантованных коэффициентов иногда могут называться "блоком коэффициентов".

[0089] Затем, энтропийный кодер 110 кодирует (в частности, энтропийно кодирует) множество квантованных коэффициентов и параметр прогнозирования, связанный с формированием прогнозного изображения, чтобы формировать поток (этап Sa_6). Поток может иногда называться "кодированным потоком битов" или "сжатым потоком битов".

[0090] Затем, обратный квантователь 112 выполняет обратное квантование множества квантованных коэффициентов, и обратный преобразователь 114 выполняет обратное преобразование результата, чтобы восстанавливать остаток прогнозирования (этап Sa_7).

[0091] Затем, сумматор 116 суммирует прогнозное изображение с восстановленным остатком прогнозирования, чтобы восстанавливать текущий блок (этап Sa_8). Таким образом, восстановленное изображение формируется. Восстановленное изображение также может называться "восстановленным блоком" или "декодированным блоком изображений".

[0092] Когда восстановленное изображение формируется, контурный фильтр 120 выполняет фильтрацию восстановленного изображения при необходимости (этап Sa_9).

[0093] Кодер 100 затем определяет то, закончено или нет кодирование всего кадра (этап Sa_10). При определении того, что кодирование еще не закончено ("Нет" на этапе Sa_10), выполнение процессов с этапа Sa_2 повторяется для следующего блока кадра.

[0094] Хотя кодер 100 выбирает один шаблон разбиения для блока фиксированного размера и кодирует каждый блок согласно шаблону разбиения в вышеописанном примере, следует отметить, что каждый блок может кодироваться согласно соответствующему одному из множества шаблонов разбиения. В этом случае, кодер 100 может оценивать затраты для каждого из множества шаблонов разбиения и, например, может выбирать поток, получаемый посредством кодирования согласно шаблону разбиения, который дает в результате наименьшие затраты, в качестве потока, который выводится.

[0095] Как проиллюстрировано, процессы на этапах Sa_1-Sa_10 выполняются последовательно посредством кодера 100. Альтернативно, два или более процессов могут выполняться параллельно, процессы могут переупорядочиваться и т.д.

[0096] Процесс кодирования, используемый посредством кодера 100, представляет собой гибридное кодирование с использованием прогнозного кодирования и кодирования с преобразованием. Помимо этого, прогнозное кодирование выполняется посредством контура кодирования, сконфигурированного с вычитателем 104, преобразователем 106, квантователем 108, обратным квантователем 112, обратным преобразователем 114, сумматором 116, контурным фильтром 120, запоминающим устройством 118 блоков, запоминающим устройством 122 кинокадров, модулем 124 внутреннего прогнозирования, модулем 126 взаимного прогнозирования и контроллером 128 прогнозирования. Другими словами, модуль выполнения прогнозирования, сконфигурированный с модулем 124 внутреннего прогнозирования и модулем 126 взаимного прогнозирования, представляет собой часть контура кодирования.

[0097] Модуль разбиения

Модуль 102 разбиения разбивает каждый кадр, включенный в исходное изображение, на множество блоков, и выводит каждый блок в вычитатель 104. Например, модуль 102 разбиения сначала разбивает кадр на блоки фиксированного размера (например, 128×128 пикселов). Могут использоваться другие фиксированные размеры блоков. Блок фиксированного размера также называется "единицей дерева кодирования (CTU)". Модуль 102 разбиения затем разбивает каждый блок фиксированного размера на блоки переменных размеров (например, 64×64 пикселов или меньше), на основе рекурсивного разбиения на блоки дерева квадрантов и/или двоичного дерева. Другими словами, модуль 102 разбиения выбирает шаблон разбиения. Блок переменного размера также может называться "единицей кодирования (CU)", "единицей прогнозирования (PU)" или "единицей преобразования (TU)". Следует отметить, что, в различных видах примеров обработки, нет необходимости различать между CU, PU и TU; все или некоторые блоки в кадре могут обрабатываться в единицах CU, PU или TU.

[0098] Фиг. 10 является концептуальной схемой для иллюстрации одного примера разбиения на блоки согласно варианту осуществления. На фиг. 10, сплошные линии представляют границы блоков для блоков, разбитых посредством разбиения на блоки дерева квадрантов, и пунктирные линии представляют границы блоков для блоков, разбитых посредством разбиения на блоки двоичного дерева.

[0099] Здесь, блок 10 представляет собой квадратный блок, имеющий 128×128 пикселов (блок 128×128). Это блок 10 128×128 сначала разбивается на четыре квадратных 64×64-пиксельных блока (разбиение на блоки дерева квадрантов).

[0100] Верхний левый 64×64-пиксельный блок дополнительно вертикально разбивается на два прямоугольных 32×64-пиксельных блока, и левый 32×64-пиксельный блок дополнительно вертикально разбивается на два прямоугольных 16×64-пиксельных блока (разбиение на блоки двоичного дерева). Как результат, верхний левый 64×64-пиксельный блок разбивается на два 16×64-пиксельных блока 11 и 12 и один 32×64-писелный блок 13.

[0101] Верхний правый 64×64-пиксельный блок горизонтально разбивается на два прямоугольных 64×32-пиксельных блока 14 и 15 (разбиение на блоки двоичного дерева).

[0102] Левый нижний квадратный 64×64-пиксельный блок сначала разбивается на четыре квадратных 32×32-пиксельных блока (разбиение на блоки дерева квадрантов). Верхний левый блок и нижний правый блок из четырех квадратных 32×32-пиксельных блоков дополнительно разбиваются. Верхний левый квадратный 32×32-пиксельный блок вертикально разбивается на два прямоугольных 16×32-пиксельных блока, и правый 16×32-пиксельный блок дополнительно горизонтально разбивается на два 16×16-пиксельных блока (разбиение на блоки двоичного дерева). Правый нижний 32×32-пиксельный блок горизонтально разбивается на два 32×16-пиксельных блока (разбиение на блоки двоичного дерева). Верхний правый квадратный 32×32-пиксельный блок горизонтально разбивается на два прямоугольных 32×16-пиксельных блока (разбиение на блоки двоичного дерева). Как результат, левый нижний квадратный 64×64-пиксельный блок разбивается на прямоугольный 16×32-пиксельный блок 16, два квадратных 16×16-пиксельных блока 17 и 18, два квадратных 32×32-пиксельных блока 19 и 20 и два прямоугольных 32×16-пиксельных блока 21 и 22.

[0103] Правый нижний 64×64-пиксельный блок 23 не разбивается.

[0104] Как описано выше, на фиг. 10, блок 10 разбивается на тринадцать блоков 11-23 переменного размера на основе рекурсивного разбиения на блоки дерева квадрантов и двоичного дерева. Этот тип разбиения также называется "разбиением на дерево квадрантов плюс двоичное дерево (QTBT)".

[0105] Следует отметить, что, на фиг. 10, один блок разбивается на четыре или два блока (разбиение на блоки дерева квадрантов или двоичного дерева), но разбиение не ограничено этими примерами. Например, один блок может разбиваться на три блока (разбиение на троичные блоки). Разбиение, включающее в себя такое разбиение на троичные блоки, также называется "разбиением на многотипное дерево (MBT)".

[0106] Фиг. 11 является блок-схемой, иллюстрирующей один пример функциональной конфигурации модуля 102 разбиения согласно одному варианту осуществления. Как проиллюстрировано на фиг. 11, модуль 102 разбиения может включать в себя модуль 102a определения разбиения блоков. Модуль 102a определения разбиения блоков может выполнять следующие процессы в качестве примеров.

[0107] Например, модуль 102a определения разбиения блоков может получать или извлекать информацию блоков из запоминающего устройства 118 блоков и/или запоминающего устройства 122 кинокадров и определять шаблон разбиения (например, вышеописанный шаблон разбиения) на основе информации блоков. Модуль 102 разбиения разбивает исходное изображение согласно шаблону разбиения и выводит, по меньшей мере, один блок, полученный посредством разбиения, в вычитатель 104.

[0108] Помимо этого, например, модуль 102a определения разбиения блоков выводит один или более параметров, указывающих определенный шаблон разбиения (например, вышеописанный шаблон разбиения), в преобразователь 106, обратный преобразователь 114, модуль 124 внутреннего прогнозирования, модуль 126 взаимного прогнозирования и энтропийный кодер 110. Преобразователь 106 может преобразовывать остаток прогнозирования на основе одного или более параметров. Модуль 124 внутреннего прогнозирования и модуль 126 взаимного прогнозирования могут формировать прогнозное изображение на основе одного или более параметров. Помимо этого, энтропийный кодер 110 может энтропийно кодировать один или более параметров.

[0109] Параметр, связанный с шаблоном разбиения, может записываться в поток, как указано ниже в качестве одного примера.

[0110] Фиг. 12 является концептуальной схемой для иллюстрации примеров шаблонов разбиения. Примеры шаблонов разбиения включают в себя: разбиение на четыре области (QT), при котором блок разбивается на две области как горизонтально, так и вертикально; разбиение на три области (HT или VT), при котором блок разбивается в идентичном направлении в соотношении 1:2:1; разбиение на две области (HB или VB), при котором блок разбивается в идентичном направлении в соотношении 1:1; и отсутствие разбиения (NS).

[0111] Следует отметить, что шаблон разбиения не имеет направления разбиения блоков в случае разбиения на четыре области и отсутствия разбиения, и что шаблон разбиения имеет информацию направления разбиения в случае разбиения на две области или три области.

[0112] Фиг. 13A является концептуальной схемой для иллюстрации одного примера синтаксического дерева шаблона разбиения.

[0113] Фиг. 13B является концептуальной схемой для иллюстрации другого примера синтаксического дерева шаблона разбиения.

[0114] Фиг. 13A и 13B являются концептуальными схемами для иллюстрации примеров синтаксического дерева шаблона разбиения. В примере по фиг. 13A, во-первых, информация, указывающая то, следует выполнять или нет разбиение (S: флаг разбиения), присутствует, и информация, указывающая то, следует или нет выполнять разбиение на четыре области (QT: QT-флаг), присутствует после нее. Информация, указывающая то, что из разбиения на три области и две области должно выполняться (TT: TT-флаг или BT: BT-флаг), присутствует после нее, и информация, указывающая направление разделения (Ver: вертикальный флаг, или Hor: горизонтальный флаг), присутствует после этого. Следует отметить, что каждый, по меньшей мере, один блок, полученный посредством разбиения согласно такому шаблону разбиения, дополнительно может разбиваться многократно в аналогичном процессе. Другими словами, в качестве одного примера, то, выполняется лили нет разбиение, то, выполняется или нет разбиение на четыре области, то, какое из горизонтального направления и вертикального направления представляет собой направление, в котором должен выполняться способ разбиения, что из разбиения на три области и разбиения на две области должно выполняться, может рекурсивно определяться, и результаты определения могут кодироваться в потоке согласно порядку кодирования, раскрытому посредством синтаксического дерева, проиллюстрированного на фиг. 13A.

[0115] Помимо этого, хотя информационные элементы, соответственно, указывающие S, QT, TT и Ver, размещаются в перечисленном порядке в синтаксическом дереве, проиллюстрированном на фиг. 13A, информационные элементы, соответственно, указывающие S, QT, Ver и BT, могут размещаться в перечисленном порядке. Другими словами, в примере по фиг. 13B, во-первых, информация, указывающая то, следует или нет выполнять разбиение (S: флаг разбиения), присутствует, и информация, указывающая то, следует или нет выполнять разбиение на четыре области (QT: QT-флаг), присутствует после нее. Информация, указывающая направление разбиения (Ver: вертикальный флаг, или Hor: горизонтальный флаг), присутствует после нее, и информация, указывающая то, что из разбиения на две области и разбиения на три области должно выполняться (BT: BT-флаг, или TT: TT-флаг), присутствует после этого.

[0116] Следует отметить, что шаблоны разбиения, описанные выше, представляют собой примеры, и шаблоны разбиения, отличные от описанных шаблонов разбиения, могут использоваться, или часть описанных шаблонов разбиения может использоваться.

[0117] Вычитатель

Вычитатель 104 вычитает прогнозное изображение (прогнозную выборку, которая вводится из контроллера 128 прогнозирования, указываемого ниже) из исходного изображения, в единицах блоков вводятся из модуля 102 разбиения и разбиения посредством модуля 102 разбиения. Другими словами, вычитатель 104 вычисляет остатки прогнозирования (также называемые "ошибками") текущего блока. Вычитатель 104 затем выводит вычисленные остатки прогнозирования в преобразователь 106.

[0118] Исходное изображение может представлять собой изображение, которое введено в кодер 100 в качестве сигнала, представляющего изображение каждого кадра, включенного в видео (например, сигнала яркости и двух сигналов цветности). Сигнал, представляющий изображение, также может называться "выборкой".

[0119] Преобразователь

Преобразователь 106 преобразует остатки прогнозирования в пространственной области в коэффициенты преобразования в частотной области и выводит коэффициенты преобразования в квантователь 108. Более конкретно, преобразователь 106 применяет, например, заданное дискретное косинусное преобразование (DCT) или дискретное синусное преобразование (DST) к остаткам прогнозирования в пространственной области. Заданное DCT или DST может быть предварительно задано.

[0120] Следует отметить, что преобразователь 106 может адаптивно выбирать тип преобразования из множества типов преобразования и преобразовывать остатки прогнозирования в коэффициенты преобразования посредством использования базисной функции преобразования, соответствующей выбранному типу преобразования. Этот вид преобразования также называется "явным множественным базовым преобразованием (EMT)" или "адаптивным множественным преобразованием (AMT)". Базисная функция преобразования также может называться "базисом".

[0121] Типы преобразования включают в себя, например, DCT-II, DCT-V, DCT-VIII, DST-I и DST-VII. Следует отметить, что эти типы преобразования могут представляться как DCT2, DCT5, DCT8, DST1 и DST7. Фиг. 14 является диаграммой, указывающей примерные базисные функции преобразования для примерных типов преобразования. На фиг. 14, N указывает число входных пикселов. Например, выбор типа преобразования из множества типов преобразования может зависеть от типа прогнозирования (одно из внутреннего прогнозирования и взаимного прогнозирования) и может зависеть от режима внутреннего прогнозирования.

[0122] Информация, указывающая то, следует или нет применять такое EMT или AMT (называется, например, "EMT-флагом" или "AMT-флагом"), и информация, указывающая выбранный тип преобразования, нормально передается в служебных сигналах на уровне CU. Следует отметить, что передача в служебных сигналах этой информации не должна обязательно выполняться на уровне CU и может выполняться на другом уровне (например, на уровне последовательности, уровне кадра, уровне среза, уровне плитки или уровне CTU).

[0123] Помимо этого, преобразователь 106 может повторно преобразовывать коэффициенты преобразования (которые представляют собой результаты преобразования). Такое повторное преобразование также называется "адаптивным вторичным преобразованием (AST)" или "неразделимым вторичным преобразованием (NSST)". Например, преобразователь 106 выполняет повторное преобразование в единицах субблока (например, 4×4-пиксельного субблока), включенного в блок коэффициентов преобразования, соответствующий остатку внутреннего прогнозирования. Информация, указывающая то, следует или нет применять NSST, и информация, связанная с матрицей преобразования для использования в NSST, нормально передается в служебных сигналах на уровне CU. Следует отметить, что передача в служебных сигналах этой информации не должна обязательно выполняться на уровне CU и может выполняться на другом уровне (например, на уровне последовательности, уровне кадра, уровне среза, уровне плитки или уровне CTU).

[0124] Преобразователь 106 может использовать разделимое преобразование и неразделимое преобразование. Разделимое преобразование представляет собой способ, в котором преобразование выполняется многократно посредством отдельного выполнения преобразования для каждого из определенного числа направлений согласно числу размерностей вводов. Неразделимое преобразование представляет собой способ выполнения коллективного преобразования, в котором две или более размерностей в многомерных вводах совместно рассматриваются в качестве одной размерности.

[0125] В одном примере неразделимого преобразования, когда ввод представляет собой 4×4-пиксельный блок, 4×4-пиксельный блок рассматривается в качестве единого массива, включающего в себя шестнадцать элементов, и преобразование применяет матрицу преобразования 16×16 к массиву.

[0126] В другом примере неразделимого преобразования, входной блок из 4×4 пикселов рассматривается в качестве единого массива, включающего в себя шестнадцать элементов, и после этого может выполняться преобразование (гиперкубическое преобразование Гивенса), при котором вращение Гивенса выполняется для массива многократно.

[0127] При преобразовании в преобразователе 106, типы преобразования для базовых функций преобразования, которые должны преобразовываться в частотную область согласно областям в CU, могут переключаться. Примеры включают в себя пространственно варьирующееся преобразование (SVT).

[0128] Фиг. 15 является концептуальной схемой для иллюстрации одного примера SVT.

[0129] В SVT, как проиллюстрировано на фиг. 5B, CU разбиваются на две равных области горизонтально или вертикально, и только одна из областей преобразуется в частотную область. Базисный тип преобразования может задаваться для каждой области. Например, используются DST7 и DST8. Например, из двух областей, полученных посредством разбиения CU вертикально на две равных области, DST7 и DCT8 могут использоваться для области в позиции 0. Альтернативно, из двух областей, DST7 используется для области в позиции 1. Аналогично, из двух областей, полученных посредством разбиения CU горизонтально на две равных области, DST7 и DCT8 используются для области в позиции 0. Альтернативно, из двух областей, DST7 используется для области в позиции 1. Хотя только одна из двух областей в CU преобразуется, а другая не преобразуется в примере, проиллюстрированном на фиг. 15, каждая из двух областей может преобразовываться. Помимо этого, способ разбиения может включать в себя не только разбиение на две области, но также и разбиение на четыре области. Помимо этого, способ разбиения может быть более гибким. Например, информация, указывающая способ разбиения, может кодироваться и может передаваться в служебных сигналах, идентично CU-разбиению. Следует отметить, что SVT также может называться "субблочным преобразованием (SBT)".

[0130] AMT и EMT, описанные выше, могут называться "MTS (множественным выбором преобразования)". Когда MTS применяется, тип преобразования, который представляет собой DST7, DCT8 и т.п., может выбираться, и информация, указывающая выбранный тип преобразования, может кодироваться как информация индекса для каждой CU. Предусмотрен другой процесс, называемый "IMTS (неявным MTS)", в качестве процесса для выбора типа преобразования, который должен использоваться для ортогонального преобразования, выполняемого без кодирования информации индекса. Когда IMTS применяется, например, когда CU имеет прямоугольную форму, ортогональное преобразование прямоугольной формы может выполняться с использованием DST7 для короткой стороны и DST2 для длинной стороны. Помимо этого, например, когда CU имеет квадратную форму, ортогональное преобразование прямоугольной формы может выполняться с использованием DCT2, когда MTS является эффективным в последовательности, и с использованием DST7, когда MTS является неэффективным в последовательности. DCT2 и DST7 представляют собой просто примеры. Другие типы преобразования могут использоваться, и также можно изменять комбинацию типов преобразования для использования на другую комбинацию типов преобразования. IMTS может использоваться только для блоков внутреннего прогнозирования или может использоваться для блоков внутреннего прогнозирования и блока взаимного прогнозирования.

[0131] Три процесса в виде MTS, SBT и IMTS описываются выше в качестве процессов выбора для избирательного переключения типов преобразования для использования при ортогональном преобразовании. Тем не менее, все три процесса выбора могут использоваться, или только часть процессов выбора может избирательно использоваться. То, используются либо нет один или более процессов выбора, может идентифицироваться, например, на основе информации флага и т.п. в заголовке, к примеру, в SPS. Например, когда все три процесса выбора доступны для использования, один из трех процессов выбора выбирается для каждой CU, и ортогональное преобразование CU выполняется. Следует отметить, что процессы выбора для избирательного переключения типов преобразования могут представлять собой процессы выбора, отличающиеся от вышеуказанных трех процессов выбора, либо каждый из трех процессов выбора может заменяться посредством другого процесса. Типично, по меньшей мере, одна из следующих четырех передаточных функций [1]-[4] выполняется. Функция [1] представляет собой функцию для выполнения ортогонального преобразования всей CU и кодирования информации, указывающей тип преобразования, используемый при преобразовании. Функция [2] представляет собой функцию для выполнения ортогонального преобразования всей CU и определения типа преобразования на основе определенного правила без кодирования информации, указывающей тип преобразования. Функция [3] представляет собой функцию для выполнения ортогонального преобразования частичной области CU и кодирования информации, указывающей тип преобразования, используемый при преобразовании. Функция [4] представляет собой функцию для выполнения ортогонального преобразования частичной области CU и определения типа преобразования на основе определенного правила без кодирования информации, указывающей тип преобразования, используемый при преобразовании. Определенные правила могут быть предварительно определены.

[0132] Следует отметить, что то, применяется либо нет MTS, IMTS и/или SBT, может определяться для каждой единицы обработки. Например, то, применяется либо нет MTS, IMTS и/или SBT, может определяться для каждой последовательности, кадра, кирпича, среза, CTU или CU.

[0133] Следует отметить, что инструментальное средство для избирательного переключения типов преобразования в настоящем раскрытии сущности может описываться как способ для избирательного выбора базиса для использования в процессе преобразования, в процессе выбора или в процессе для выбора базиса. Помимо этого, инструментальное средство для избирательного переключения типов преобразования может описываться как режим для адаптивного выбора типов преобразования.

[0134] Фиг. 16 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством преобразователя 106, и описывается для удобства со ссылкой на фиг. 7.

[0135] Например, преобразователь 106 определяет то, следует или нет выполнять ортогональное преобразование (этап St_1). Здесь, при определении необходимости выполнять ортогональное преобразование ("Да" на этапе St_1), преобразователь 106 выбирает тип преобразования для использования при ортогональном преобразовании из множества типов преобразования (этап St_2). Затем, преобразователь 106 выполняет ортогональное преобразование посредством применения выбранного типа преобразования к остатку прогнозирования текущего блока (этап St_3). Преобразователь 106 затем выводит информацию, указывающую выбранный тип преобразования, в энтропийный кодер 110, с тем чтобы обеспечивать возможность энтропийному кодеру 110 кодировать информацию (этап St_4). С другой стороны, при определении необходимости не выполнять ортогональное преобразование ("Нет" на этапе St_1), преобразователь 106 выводит информацию, указывающую то, что ортогональное преобразование не выполняется, с тем чтобы обеспечивать возможность энтропийному кодеру 110 кодировать информацию (этап St_5). Следует отметить, что то, следует или нет выполнять ортогональное преобразование, на этапе St_1 может определяться, например, на основе размера блока преобразования, режима прогнозирования, применяемого к CU, и т.д. Альтернативно, ортогональное преобразование может выполняться с использованием заданного типа преобразования без кодирования информации, указывающей тип преобразования для использования при ортогональном преобразовании. Заданный тип преобразования может быть предварительно задан.

[0136] Фиг. 17 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством преобразователя 106, и описывается для удобства со ссылкой на фиг. 7. Следует отметить, что пример, проиллюстрированный на фиг. 17, представляет собой пример ортогонального преобразования в случае, если типы преобразования для использования при ортогональном преобразовании избирательно переключаются, как и в случае примера, проиллюстрированного на фиг. 16.

[0137] В качестве одного примера, первая группа типов преобразования может включать в себя DCT2, DST7 и DCT8. В качестве другого примера, вторая группа типов преобразования может включать в себя DCT2. Типы преобразования, включенные в первую группу типов преобразования, и типы преобразования, включенные во вторую группу типов преобразования, могут частично перекрываться между собой или могут полностью отличаться друг от друга.

[0138] Преобразователь 106 определяет то, меньше или равен либо нет размер преобразования определенному значению (этап Su_1). Здесь, при определении того, что размер преобразования меньше или равен определенному значению ("Да" на этапе Su_1), преобразователь 106 выполняет ортогональное преобразование остатка прогнозирования текущего блока с использованием типа преобразования, включенного в первую группу типов преобразования (этап Su_2). Затем, преобразователь 106 выводит информацию, указывающую тип преобразования, который должен использоваться, по меньшей мере, из одного типа преобразования, включенного в первую группу типов преобразования, в энтропийный кодер 110, с тем чтобы обеспечивать возможность энтропийному кодеру 110 кодировать информацию (этап Su_3). С другой стороны, при определении того, что размер преобразования не меньше или равен предварительно определенному значению ("Нет" на этапе Su_1), преобразователь 106 выполняет ортогональное преобразование остатка прогнозирования текущего блока с использованием второй группы типов преобразования (этап Su_4). Определенное значение может представлять собой пороговое значение и может составлять предварительно определенное значение.

[0139] На этапе Su_3, информация, указывающая тип преобразования для использования при ортогональном преобразовании, может представлять собой информацию, указывающую комбинацию типа преобразования, который должен применяться вертикально в текущем блоке, и типа преобразования, который должен применяться горизонтально в текущем блоке. Первая группа типов может включать в себя только один тип преобразования, и информация, указывающая тип преобразования для использования при ортогональном преобразовании, может не кодироваться. Вторая группа типов преобразования может включать в себя множество типов преобразования, и информация, указывающая тип преобразования для использования при ортогональном преобразовании из одного или более типов преобразования, включенных во вторую группу типов преобразования, может кодироваться.

[0140] Альтернативно, тип преобразования может указываться на основе размера преобразования без кодирования информации, указывающей тип преобразования. Следует отметить, что такие определения не ограничены определением в отношении того, меньше или равен либо нет размер преобразования определенному значению, и другие процессы также являются возможными для определения типа преобразования для использования при ортогональном преобразовании на основе размера преобразования.

[0141] Квантователь

Квантователь 108 квантует коэффициенты преобразования, выводимые из преобразователя 106. Более конкретно, квантователь 108 сканирует, в определенном порядке сканирования, коэффициенты преобразования текущего блока и квантует сканированные коэффициенты преобразования на основе параметров квантования (QP), соответствующих коэффициентам преобразования. Квантователь 108 затем выводит квантованные коэффициенты преобразования (в дальнейшем также называются "квантованными коэффициентами") текущего блока в энтропийный кодер 110 и обратный квантователь 112. Определенный порядок сканирования может быть предварительно определен.

[0142] Определенный порядок сканирования представляет собой порядок для квантования/обратного квантования коэффициентов преобразования. Например, определенный порядок сканирования может задаваться как порядок по возрастанию частоты (от низкой к высокой частоте) или порядок по убыванию частоты (от высокой к низкой частоте).

[0143] Параметр квантования (QP) представляет собой параметр, задающий шаг квантования (ширину квантования). Например, когда значение параметра квантования увеличивается, размер шага квантования также увеличивается. Другими словами, когда значение параметра квантования увеличивается, ошибка в квантованных коэффициентах (ошибка квантования) увеличивается.

[0144] Помимо этого, матрица квантования может использоваться для квантования. Например, несколько видов матриц квантования могут использоваться, соответственно, чтобы выполнять преобразование частоты для размеров, таких как 4×4 и 8×8, режимов прогнозирования, таких как внутреннее прогнозирование и взаимное прогнозирование, и пиксельных компонентов, таких как пиксельные компоненты сигнала яркости и сигнала цветности. Следует отметить, что квантование означает оцифровку значений, дискретизированных с определенными интервалами, соответственно, в определенные уровни. В этой области техники, квантование может упоминаться с использованием других выражений, таких как округление и масштабирование, и может использовать округление и масштабирование. Определенные интервалы и определенные уровни могут быть предварительно определены.

[0145] Способы с использованием матриц квантования могут включать в себя способ с использованием матрицы квантования, которая задана непосредственно на стороне кодера 100, и способ с использованием матрицы квантования, которая задана в качестве значения по умолчанию (матрицы по умолчанию). На стороне кодера 100, матрица квантования, подходящая для признаков изображения, может задаваться посредством прямого задания матрицы квантования. Тем не менее, этот случай может иметь недостаток увеличения объема кодирования для кодирования матрицы квантования. Следует отметить, что матрица квантования, которая должна использоваться для того, чтобы квантовать текущий блок, может формироваться на основе матрицы квантования по умолчанию или кодированной матрицы квантования, вместо непосредственного использования матрицы квантования по умолчанию или кодированной матрицы квантования.

[0146] Предусмотрен способ для квантования высокочастотного коэффициента и низкочастотного коэффициента без использования матрицы квантования. Следует отметить, что этот способ может считаться эквивалентным способу с использованием матрицы квантования (плоской матрицы), коэффициенты которой имеют идентичное значение.

[0147] Матрица квантования может кодироваться, например, на уровне последовательности, уровне кадра, уровне среза, уровне кирпича или уровне CTU. Матрица квантования может указываться с использованием, например, набора параметров последовательности (SPS) или набора параметров кадра (PPS). SPS включает в себя параметр, который используется для последовательности, и PPS включает в себя параметр, который используется для кадра. Каждый из SPS и PPS может называться просто "набором параметров".

[0148] При использовании матрицы квантования, квантователь 108 масштабирует, для каждого коэффициента преобразования, например, ширину квантования, которая может вычисляться на основе параметра квантования и т.д., с использованием значения матрицы квантования. Процесс квантования, выполняемый без использования матрицы квантования, может представлять собой процесс для коэффициентов преобразования квантования на основе ширины квантования, вычисленной на основе параметра квантования и т.д. Следует отметить, что, в процессе квантования, выполняемом без использования матриц квантования, ширина квантования может умножаться на определенное значение, которое является общим для всех коэффициентов преобразования в блоке. Определенное значение может быть предварительно определено.

[0149] Фиг. 18 является блок-схемой, иллюстрирующей один пример функциональной конфигурации квантователя согласно варианту осуществления. Например, квантователь 108 включает в себя формирователь 108a параметров разностного квантования, формирователь 108b прогнозированных параметров квантования, формирователь 108c параметров квантования, устройство 108d хранения параметров квантования и модуль 108e выполнения квантования.

[0150] Фиг. 19 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса квантования, выполняемого посредством квантователя 108, и описывается для удобства со ссылкой на фиг. 7 и 18.

[0151] В качестве одного примера, квантователь 108 может выполнять квантование для каждой CU на основе блок-схемы последовательности операций способа, проиллюстрированной на фиг. 19. Более конкретно, формирователь 108c параметров квантования определяет то, следует или нет выполнять квантование (этап Sv_1). Здесь, при определении необходимости выполнять квантование ("Да" на этапе Sv_1), формирователь 108c параметров квантования формирует параметр квантования для текущего блока (этап Sv_2) и сохраняет параметр квантования в устройство 108d хранения параметров квантования (этап Sv_3).

[0152] Затем, модуль 108e выполнения квантования квантует коэффициенты преобразования текущего блока с использованием параметра квантования, сформированного на этапе Sv_2 (этап Sv_4). Формирователь 108b прогнозированных параметров квантования затем получает параметр квантования для единицы обработки, отличающейся от текущего блока, из устройства 108d хранения параметров квантования (этап Sv_5). Формирователь 108b прогнозированных параметров квантования формирует прогнозированный параметр квантования текущего блока на основе полученного параметра квантования (этап Sv_6). Формирователь 108a параметров разностного квантования вычисляет разность между параметром квантования текущего блока, сформированным посредством формирователя 108c параметров квантования, и прогнозированным параметром квантования текущего блока, сформированным посредством формирователя 108b прогнозированных параметров квантования (этап Sv_7). Параметр разностного квантования может формироваться посредством вычисления разности. Формирователь 108a параметров разностного квантования выводит параметр разностного квантования в энтропийный кодер 110, с тем чтобы обеспечивать возможность энтропийному кодеру 110 кодировать параметр разностного квантования (этап Sv_8).

[0153] Следует отметить, что параметр разностного квантования может кодироваться, например, на уровне последовательности, уровне кадра, уровне среза, уровне кирпича или уровне CTU. Помимо этого, начальное значение параметра квантования может кодироваться на уровне последовательности, уровне кадра, уровне среза, уровне кирпича или уровне CTU. При инициализации, параметр квантования может формироваться с использованием начального значения параметра квантования и параметра разностного квантования.

[0154] Следует отметить, что квантователь 108 может включать в себя множество квантователей и может применять зависимое квантование, при котором коэффициенты преобразования квантуются с использованием способа квантования, выбранного из множества способов квантования.

[0155] Энтропийный кодер

Фиг. 20 является блок-схемой, иллюстрирующей один пример функциональной конфигурации энтропийного кодера 110 согласно варианту осуществления, и описывается для удобства со ссылкой на фиг. 7. Энтропийный кодер 110 формирует поток посредством энтропийного кодирования квантованных коэффициентов, вводимых из квантователя 108, и параметра прогнозирования, вводимого из формирователя 130 параметров прогнозирования. Например, контекстно-адаптивное двоичное арифметическое кодирование (CABAC) используется в качестве энтропийного кодирования. Более конкретно, энтропийный кодер 110, как проиллюстрировано, включает в себя модуль 110a преобразования в двоичную форму, контроллер 110b контекстов и двоичный арифметический кодер 110c. Модуль 110a преобразования в двоичную форму выполняет преобразование в двоичную форму, при котором многоуровневые сигналы, такие как квантованные коэффициенты и параметр прогнозирования, преобразуются в двоичные сигналы. Примеры способов преобразования в двоичную форму включают в себя преобразование в двоичную форму усеченным кодом Райса, экспоненциальные коды Голомба и преобразование в двоичную форму кодом фиксированной длины. Контроллер 110b контекстов извлекает значение контекста согласно признаку или окружающему состоянию синтаксического элемента, который представляет собой вероятность возникновения двоичного сигнала. Примеры способов для извлечения значения контекста включают в себя обход, обращение к синтаксическому элементу, обращение к верхнему и левому смежным блокам, обращение к иерархической информации и т.д. Двоичный арифметический кодер 110c арифметически кодирует двоичный сигнал с использованием извлеченного контекста.

[0156] Фиг. 21 является концептуальной схемой для иллюстрации примерной последовательности операций CABAC-процесса в энтропийном кодере 110. Во-первых, инициализация выполняется в CABAC в энтропийном кодере 110. При инициализации, выполняются инициализация в двоичном арифметическом кодере 110c и задание начального значения контекста. Например, модуль 110a преобразования в двоичную форму и двоичный арифметический кодер 110c могут выполнять преобразование в двоичную форму и арифметическое кодирование множества коэффициентов квантования в CTU последовательно. Контроллер 110b контекстов может обновлять значение контекста каждый раз, когда арифметическое кодирование выполняется. Контроллер 110b контекстов затем может сохранять значение контекста в качестве постобработки. Сохраненное значение контекста может использоваться, например, чтобы инициализировать значение контекста для следующей CTU.

[0157] Обратный квантователь

Обратный квантователь 112 обратно квантует квантованные коэффициенты, которые введены из квантователя 108. Более конкретно, обратный квантователь 112 обратно квантует, в определенном порядке сканирования, квантованные коэффициенты текущего блока. Обратный квантователь 112 затем выводит обратно квантованные коэффициенты преобразования текущего блока в обратный преобразователь 114. Определенный порядок сканирования может быть предварительно определен.

[0158] Обратный преобразователь

Обратный преобразователь 114 восстанавливает остатки прогнозирования посредством обратного преобразования коэффициентов преобразования, которые введены из обратного квантователя 112. Более конкретно, обратный преобразователь 114 восстанавливает остатки прогнозирования текущего блока посредством выполнения обратного преобразования, соответствующего преобразованию, применяемого к коэффициентам преобразования посредством преобразователя 106. Обратный преобразователь 114 затем выводит восстановленные остатки прогнозирования в сумматор 116.

[0159] Следует отметить, что поскольку информация потеряна в квантовании, восстановленные ошибки прогнозирования не совпадают с ошибками прогнозирования, вычисленными посредством вычитателя 104. Другими словами, восстановленные ошибки прогнозирования нормально включают в себя ошибки квантования.

[0160] Сумматор

Сумматор 116 восстанавливает текущий блок посредством суммирования остатков прогнозирования, которые введены из обратного преобразователя 114, и прогнозных изображений, которые введены из контроллера 128 прогнозирования. Следовательно, восстановленное изображение формируется. Сумматор 116 затем выводит восстановленное изображение в запоминающее устройство 118 блоков и контурный фильтр 120. Восстановленный блок также может называться "локальным декодированным блоком".

[0161] Запоминающее устройство блоков

Запоминающее устройство 118 блоков представляет собой устройство хранения данных для сохранения блоков в текущем кадре, например, для использования при внутреннем прогнозировании. Более конкретно, запоминающее устройство 118 блоков сохраняет восстановленные изображения, выводимые из сумматора 116.

[0162] Запоминающее устройство кинокадров

Запоминающее устройство 122 кинокадров, например, представляет собой устройство хранения данных для сохранения опорных кадров для использования при взаимном прогнозировании, и также называется "буфером кинокадров". Более конкретно, запоминающее устройство 122 кинокадров сохраняет восстановленные изображения, фильтрованные посредством контурного фильтра 120.

[0163] Контурный фильтр

Контурный фильтр 120 применяет контурный фильтр к восстановленному изображению, выводимому посредством сумматора 116, и выводит фильтрованное восстановленное изображение в запоминающее устройство 122 кинокадров. Контурный фильтр представляет собой фильтр, используемый в контуре кодирования (внутриконтурном фильтре). Примеры контурных фильтров включают в себя, например, адаптивный контурный фильтр (ALF), фильтр удаления блочности (DB или DBF), фильтр на основе дискретизированного адаптивного смещения (SAO) и т.д.

[0164] Фиг. 22 является блок-схемой, иллюстрирующей один пример функциональной конфигурации контурного фильтра 120 согласно варианту осуществления. Например, как проиллюстрировано на фиг. 22, контурный фильтр 120 включает в себя модуль 120a выполнения фильтрации для удаления блочности, модуль 120b SAO-выполнения и модуль 120c ALF-выполнения. Модуль 120a выполнения фильтрации для удаления блочности выполняет процесс фильтрации для удаления блочности для восстановленного изображения. Модуль 120b SAO-выполнения выполняет SAO-процесс для восстановленного изображения после подвергания процессу фильтрации для удаления блочности. Модуль 120c ALF-выполнения выполняет ALF-процесс для восстановленного изображения после подвергания SAO-процессу. Ниже подробно описываются ALF и фильтр удаления блочности. SAO-процесс представляет собой процесс для повышения качества изображений посредством уменьшения кольцевания (явления, при котором пиксельные значения искажаются как волны вокруг края) и коррекции отклонения в пиксельном значении. Примеры SAO-процессов включают в себя процесс краевого смещения и процесс полосового смещения. Следует отметить, что контурный фильтр 120, в некоторых вариантах осуществления, может не включать в себя все составляющие элементы, раскрытые на фиг. 22, и может включать в себя некоторые составляющие элементы и может включать в себя дополнительные элементы. Помимо этого, контурный фильтр 120 может быть выполнен с возможностью выполнять вышеуказанные процессы в порядке обработки, отличающемся от порядка обработки, раскрытого на фиг. 22, может не выполнять все процессы и т.д.

[0165] Контурный фильтр > адаптивный контурный фильтр

В ALF, применяется фильтр ошибок по методу наименьших квадратов для удаления артефактов сжатия. Например, один фильтр, выбранный из множества фильтров на основе направления и активности локальных градиентов, применяется для каждого 2×2-пиксельного субблока в текущем блоке.

[0166] Более конкретно, сначала каждый субблок (например, каждый 2×2-пиксельный субблок) классифицируется на один из множества классов (например, пятнадцать или двадцать пять классов). Классификация субблока может быть основана, например, на направленности и активности градиентов. Например, классификационный индекс C (например, C=5D+A) извлекается на основе направленности D градиентов (например, 0-2 или 0-4) и активности A градиентов (например, 0-4). Затем на основе классификационного индекса C каждый субблок классифицируется на один из множества классов.

[0167] Например, направленность D градиентов вычисляется посредством сравнения градиентов множества направлений (например, горизонтального, вертикального и двух диагональных направлений). Кроме того, например, активность A градиентов вычисляется посредством суммирования градиентов множества направлений и квантования результата суммирования.

[0168] Фильтр, который должен использоваться для каждого субблока, может определяться из множества фильтров на основе результата такой классификации.

[0169] Форма фильтра, который должен использоваться в ALF, например, представляет собой круглую симметричную форму фильтра. Фиг. 23A-23C являются концептуальными схемами для иллюстрации примеров форм фильтра, используемых в ALF. Фиг. 23A иллюстрирует фильтр ромбовидной формы 5×5, фиг. 23B иллюстрирует фильтр ромбовидной формы 7×7, и фиг. 23C иллюстрирует фильтр ромбовидной формы 9×9. Информация, указывающая форму фильтра, нормально передается в служебных сигналах на уровне кадра. Следует отметить, что передача в служебных сигналах этой информации, указывающей форму фильтра, не обязательно должна выполняться на уровне кадра и может выполняться на другом уровне (например, на уровне последовательности, уровне среза, уровне плитки, уровне CTU или уровне CU).

[0170] Включение или выключение ALF может определяться, например, на уровне кадра или на уровне CU. Например, решение касательно того, следует или нет применять ALF к сигналу яркости, может приниматься на уровне CU, и решение касательно того, следует или нет применять ALF к сигналу цветности, может приниматься на уровне кадра. Информация, указывающая включение или выключение ALF, нормально передается в служебных сигналах на уровне кадра или на уровне CU. Следует отметить, что передача в служебных сигналах информации, указывающей включение или выключение ALF, не обязательно должна выполняться на уровне кадра или на уровне CU и может выполняться на другом уровне (например, на уровне последовательности, уровне среза, уровне плитки или уровне CTU).

[0171] Помимо этого, как описано выше, один фильтр выбирается из множества фильтров, и ALF-процесс субблока выполняется. Набор коэффициентов для коэффициентов, которые должны использоваться для каждого из множества фильтров (например, вплоть до пятнадцатого или двадцать пятого фильтра), нормально передается в служебных сигналах на уровне кадра. Следует отметить, что передача в служебных сигналах набора коэффициентов не должна обязательно выполняться на уровне кадра и может выполняться на другом уровне (например, на уровне последовательности, уровне среза, уровне плитки, уровне CTU, уровне CU или уровне субблока).

[0172] Контурный фильтр > кросскомпонентный адаптивный контурный фильтр

Фиг. 23D является концептуальной схемой для иллюстрации примерной последовательности операций кросскомпонентной ALF (CCALF). Фиг. 23E является концептуальной схемой для иллюстрации примера формы фильтра, используемой в CCALF, к примеру, CCALF по фиг. 23D. Примерная CCALF по фиг. 23D и 23E работает посредством применения линейного, ромбовидного фильтра к каналу сигнала яркости для каждого компонента сигнала цветности. Коэффициенты фильтрации, например, могут передаваться в APS, масштабироваться на коэффициент 2^10 и округляться для представления с фиксированной запятой. Например, на фиг. 23D, Y-выборки (первый компонент) используются для CCALF для Cb и CCALF для Cr (для компонентов, отличающихся от первого компонента).

[0173] Применение фильтров может управляться для переменного размера блока и передаваться в служебных сигналах посредством контекстно-кодированного флага, принимаемого для каждого блока выборок. Размер блока наряду с флагом CCALF-активации может приниматься на уровне среза для каждого компонента сигнала цветности. CCALF может поддерживать различные размеры блоков, например (в выборках сигналов цветности) 16×16 пикселов, 32×32 пикселов, 64×64 пикселов, 128×128 пикселов.

[0174] Контурный фильтр > объединенный кросскомпонентный адаптивный контурный фильтр сигналов цветности

Один пример объединенной CCALF сигналов цветности проиллюстрирован на фиг. 23F и 23G. Фиг. 23F является концептуальной схемой для иллюстрации примерной последовательности операций объединенной CCALF сигналов цветности. Фиг. 23G является таблицей, иллюстрирующей примерные возможные варианты весовых индексов. Как проиллюстрировано, один CCALF-фильтр используется для того, чтобы формировать один CCALF-фильтрованный вывод в качестве сигнала детализации сигнала цветности для одного цветового компонента, в то время как взвешенная версия идентичного сигнала детализации сигнала цветности применяется к другому цветовому компоненту. Таким образом, сложность существующей CCALF уменьшается примерно наполовину. Значение весового коэффициента может кодироваться как флаг знака и весовой индекс. Весовой индекс (обозначаемый в качестве weight_index) может кодироваться в 3 битах и указывает абсолютную величину весового JC-CCALF-коэффициента JcCcWeight, которая представляет собой ненулевую абсолютную величину. Абсолютная величина JcCcWeight, например, может определяться следующим образом:

Если weight_index меньше или равен 4, JcCcWeight равен weight_index>>2;

В противном случае, JcCcWeight равен 4/(weight_index-4).

[0175] Управление включением/выключением на блочном уровне ALF-фильтрации для Cb и Cr может быть отдельным. Это является идентичным с CCALF, и могут кодироваться два отдельных набора флагов управления включением/выключением на блочном уровне. В отличие от CCALF, в данном документе, размеры блоков управления включением/выключением Cb, Cr являются идентичными, и в силу этого может кодироваться только одна переменная размера блока.

[0176] Контурный фильтр > фильтр удаления блочности

В процессе фильтрации для удаления блочности, контурный фильтр 120 выполняет процесс фильтрации для границы блока в восстановленном изображении таким образом, чтобы уменьшать искажение, которое возникает на границе блока.

[0177] Фиг. 24 является блок-схемой, иллюстрирующей один пример конкретной конфигурации модуля 120a выполнения фильтрации для удаления блочности контурного фильтра 120 (см. фиг. 7 и 22), который функционирует в качестве фильтра удаления блочности.

[0178] Модуль 120a выполнения фильтрации для удаления блочности включает в себя: модуль 1201 определения границ; модуль 1203 определения фильтрации; модуль 1205 выполнения фильтрации; модуль 1208 определения обработки; модуль 1207 определения характеристик фильтра; и переключатели 1202, 1204 and 1206.

[0179] Модуль 1201 определения границ определяет то, присутствует или нет пиксел, который должен фильтроваться для удаления блочности (т.е. текущий пиксел), около блока около границы блока. Модуль 1201 определения границ затем выводит результат определения в переключатель 1202 и модуль 1208 определения обработки.

[0180] В случае если модуль 1201 определения границ определяет то, что текущий пиксел присутствует около границы блока, переключатель 1202 выводит нефильтрованное изображение в переключатель 1204. В противоположном случае, в котором модуль 1201 определения границ определяет то, что текущий пиксел не присутствует около границы блока, переключатель 1202 выводит нефильтрованное изображение в переключатель 1206. Следует отметить, что нефильтрованное изображение представляет собой изображение, сконфигурированное с текущим пикселом и, по меньшей мере, одним окружающим пикселом, расположенным около текущего пиксела.

[0181] Модуль 1203 определения фильтрации определяет то, следует или нет выполнять фильтрацию для удаления блочности текущего пиксела, на основе пиксельного значения, по меньшей мере, одного окружающего пиксела, расположенного около текущего пиксела. Модуль 1203 определения фильтрации затем выводит результат определения в переключатель 1204 и модуль 1208 определения обработки.

[0182] В случае если определено то, что модуль 1203 определения фильтрации выполняет фильтрацию для удаления блочности текущего пиксела, переключатель 1204 выводит нефильтрованное изображение, полученное через переключатель 1202, в модуль 1205 выполнения фильтрации. В противоположном случае, в котором определено то, что модуль 1203 определения фильтрации не выполняет фильтрацию для удаления блочности текущего пиксела, переключатель 1204 выводит нефильтрованное изображение, полученное через переключатель 1202, в переключатель 1206.

[0183] При получении нефильтрованного изображения через переключатели 1202 и 1204, модуль 1205 выполнения фильтрации выполняет, для текущего пиксела, фильтрацию для удаления блочности с характеристикой фильтра, определенной посредством модуля 1207 определения характеристик фильтра. Модуль 1205 выполнения фильтрации затем выводит фильтрованный пиксел в переключатель 1206.

[0184] Под управлением модуля 1208 определения обработки, переключатель 1206 избирательно выводит один из пиксела, который не фильтруется для удаления блочности, и пиксела, который фильтруется для удаления блочности посредством модуля 1205 выполнения фильтрации.

[0185] Модуль 1208 определения обработки управляет переключателем 1206 на основе результатов определений, выполняемых посредством модуля 1201 определения границ и модуля 1203 определения фильтрации. Другими словами, модуль 1208 определения обработки инструктирует переключателю 1206 выводить пиксел, который фильтруется для удаления блочности, когда модуль 1201 определения границ определяет то, что текущий пиксел присутствует около границы блока, и когда модуль 1203 определения фильтрации определяет необходимость выполнять фильтрацию для удаления блочности текущего пиксела. Помимо этого, в отличие от вышеописанного случая, модуль 1208 определения обработки инструктирует переключателю 1206 выводить пиксел, который не фильтруется для удаления блочности. Фильтрованное изображение выводится из переключателя 1206 посредством повторения вывода пиксела таким образом. Следует отметить, что конфигурация, проиллюстрированная на фиг. 24, представляет собой один пример конфигурации в модуле 120a выполнения фильтрации для удаления блочности. Модуль 120a выполнения фильтрации для удаления блочности может иметь различные конфигурации.

[0186] Фиг. 25 является концептуальной схемой для иллюстрации примера фильтра удаления блочности, имеющего симметричную характеристику фильтрации относительно границы блока.

[0187] В процессе фильтрации для удаления блочности, один из двух фильтров удаления блочности, имеющих различные характеристики, т.е. из сильного фильтра и слабого фильтра, может выбираться с использованием пиксельных значений и параметров квантования. В случае сильного фильтра, когда пикселы p0-p2 и пикселы q0-q2 присутствуют на границе блока, как проиллюстрировано на фиг. 25, пиксельные значения соответствующего пиксела q0-q2 изменяются на пиксельные значения q'0-q'2 посредством выполнения, например, вычислений согласно нижеприведенным выражениям.

[0188] q'0=(p1+2xp0+2xq0+2xq1+q2+4)/8

q'1=(p0+q0+q1+q2+2)/4

q'2=(p0+q0+q1+3xq2+2xq3+4)/8

[0189] Следует отметить, что, в вышеприведенных выражениях, p0-p2 и q0-q2 представляют собой пиксельные значения соответствующих пикселов p0-p2 и пикселов q0-q2. Помимо этого, q3 представляет собой пиксельное значение соседнего пиксела q3, расположенного в противоположной стороне пиксела q2 относительно границы блока. Помимо этого, в правой стороне каждого из выражений, коэффициенты, которые умножаются на соответствующие пиксельные значения пикселов, которые должны использоваться для фильтрации для удаления блочности, представляют собой коэффициенты фильтрации.

[0190] Кроме того, при фильтрации для удаления блочности, отсечение может выполняться таким образом, что вычисленные пиксельные значения не изменяются более чем на пороговое значение. Например, в процессе отсечения, пиксельные значения, вычисленные согласно вышеприведенным выражениям, могут отсекаться до значения, полученного согласно "вычисленное пиксельное значение ± 2 x пороговое значение" с использованием порогового значения, определенного на основе параметра квантования. Таким образом, можно предотвращать чрезмерное сглаживание.

[0191] Фиг. 26 является концептуальной схемой для иллюстрации границы блока, для которой выполняется процесс фильтрации для удаления блочности. Фиг. 27 является концептуальной схемой для иллюстрации примеров значений граничной интенсивности (Bs).

[0192] Граница блока, для которой выполняется процесс фильтрации для удаления блочности, например, представляет собой границу между CU, PU или TU, имеющими 8×8-пиксельные блоки, как проиллюстрировано на фиг. 26. Процесс фильтрации для удаления блочности может выполняться, например, в единицах четырех строк или четырех столбцов. Во-первых, значения граничной интенсивности (Bs) определяются, как указано на фиг. 27 для блока P и блока Q, проиллюстрированных на фиг. 26.

[0193] Согласно Bs-значениям на фиг. 27, может определяться то, следует или нет выполнять процессы фильтрации для удаления блочности границ блоков, принадлежащих идентичному изображению, с использованием различных интенсивностей. Процесс фильтрации для удаления блочности для сигнала цветности выполняется, когда Bs-значение равно 2. Процесс фильтрации для удаления блочности для сигнала яркости выполняется, когда Bs-значение равно 1 или более, и определенное условие удовлетворяется. Определенное условие может быть предварительно определено. Следует отметить, что условия для определения Bs-значений не ограничены указываемыми на фиг. 27, и Bs-значение может определяться на основе другого параметра.

[0194] Модуль прогнозирования (модуль внутреннего прогнозирования, модуль взаимного прогнозирования, контроллер прогнозирования)

Фиг. 28 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством модуля прогнозирования кодера 100. Следует отметить, что модуль прогнозирования включает в себя все или часть следующих составляющих элементов: модуль 124 внутреннего прогнозирования; модуль 126 взаимного прогнозирования; и контроллер 128 прогнозирования. Модуль выполнения прогнозирования включает в себя, например, модуль 124 внутреннего прогнозирования и модуль 126 взаимного прогнозирования.

[0195] Модуль прогнозирования формирует прогнозное изображение текущего блока (этап Sb_1). Это прогнозное изображение также может называться "прогнозным сигналом" или "блоком прогнозирования". Следует отметить, что прогнозный сигнал, например, представляет собой внутреннее прогнозное изображение (сигнал прогнозирования изображений) или взаимное прогнозное изображение (взаимный прогнозный сигнал). Модуль прогнозирования формирует прогнозное изображение текущего блока с использованием восстановленного изображения, которое уже получено через другой блок, через формирование прогнозного изображения, формирование остатка прогнозирования, формирование квантованных коэффициентов, восстановление остатка прогнозирования и суммирование прогнозного изображения.

[0196] Восстановленное изображение, например, может представлять собой изображение в опорном кадре или изображение кодированного блока (т.е. другого блока, описанного выше) в текущем кадре, который представляет собой кадр, включающий в себя текущий блок. Кодированный блок в текущем кадре, например, представляет собой соседний блок относительно текущего блока.

[0197] Фиг. 29 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством модуля прогнозирования кодера 100.

[0198] Модуль прогнозирования формирует прогнозное изображение с использованием первого способа (этап Sc_1a), формирует прогнозное изображение с использованием второго способа (этап Sc_1b) и формирует прогнозное изображение с использованием третьего способа (этап Sc_1c). Первый способ, второй способ и третий способ могут представлять собой взаимно различные способы для формирования прогнозного изображения. Каждый из первого-третьего способов может представлять собой способ взаимного прогнозирования, способ внутреннего прогнозирования или другой способ прогнозирования. Вышеописанное восстановленное изображение может использоваться в этих способах прогнозирования.

[0199] Затем, процессор прогнозирования оценивает прогнозные изображения, сформированные на этапах Sc_1a, Sc_1b и Sc_1c (этап Sc_2). Например, модуль прогнозирования вычисляет затраты C для прогнозных изображений, сформированных на этапе Sc_1a, Sc_1b и Sc_1, и оценивает прогнозные изображения посредством сравнения затрат C прогнозных изображений. Следует отметить, что затраты C могут вычисляться, например, согласно выражению модели R-D-оптимизации, например, C=D+λ x R. В этом выражении, D указывает артефакты сжатия прогнозного изображения и представляется, например, как сумма абсолютных разностей между пиксельным значением текущего блока и пиксельным значением прогнозного изображения. Помимо этого, R указывает скорость передачи битов потока. Помимо этого, λ указывает, например, множитель согласно способу на основе множителей Лагранжа.

[0200] Модуль прогнозирования затем выбирает одно из прогнозных изображений, сформированных на этапах Sc_1a, Sc_1b и Sc_1c (этап Sc_3). Другими словами, модуль прогнозирования выбирает способ или режим для получения конечного прогнозного изображения. Например, модуль прогнозирования выбирает прогнозное изображение, имеющее наименьшие затраты C, на основе затрат C, вычисленных для прогнозных изображений. Альтернативно, оценка на этапе Sc_2 и выбор прогнозного изображения на этапе Sc_3 могут выполняться на основе параметра, который используется в процессе кодирования. Кодер 100 может преобразовывать информацию для идентификации выбранного прогнозного изображения, способа или режима в поток. Информация, например, может представлять собой флаг и т.п. Таким образом, декодер 200 допускает формирование прогнозного изображения согласно способу или режиму, выбранному посредством кодера 100, на основе информации. Следует отметить, что, в примере, проиллюстрированном на фиг. 29, модуль прогнозирования выбирает любое из прогнозных изображений после того, как прогнозные изображения формируются с использованием соответствующих способов. Тем не менее, модуль прогнозирования может выбирать способ или режим на основе параметра для использования в вышеописанном процессе кодирования до формирования прогнозных изображений и может формировать прогнозное изображение согласно выбранному способу или режиму.

[0201] Например, первый способ и второй способ могут представлять собой внутренне прогнозирование и взаимное прогнозирование, соответственно, и модуль прогнозирования может выбирать конечное прогнозное изображение для текущего блока из прогнозных изображений, сформированных согласно способам прогнозирования.

[0202] Фиг. 30 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством модуля прогнозирования кодера 100.

[0203] Во-первых, модуль прогнозирования формирует прогнозное изображение с использованием внутреннего прогнозирования (этап Sd_1a) и формирует прогнозное изображение с использованием взаимного прогнозирования (этап Sd_1b). Следует отметить, что прогнозное изображение, сформированное посредством внутреннего прогнозирования, также называется "внутренним прогнозным изображением", и прогнозное изображение, сформированное посредством взаимного прогнозирования, также называется "взаимным прогнозным изображением".

[0204] Затем, модуль прогнозирования оценивает каждое из внутреннего прогнозного изображения и взаимного прогнозного изображения (этап Sd_2). Затраты C, описанные выше, могут использоваться при оценке. Модуль прогнозирования затем может выбирать прогнозное изображение, для которого наименьшие затраты C вычислены, из внутреннего прогнозного изображения и взаимного прогнозного изображения, в качестве конечного прогнозного изображения для текущего блока (этап Sd_3). Другими словами, выбирается способ или режим прогнозирования для формирования прогнозного изображения для текущего блока.

[0205] Процессор прогнозирования затем выбирает прогнозное изображение, для которого наименьшие затраты C вычислены из внутреннего прогнозного изображения и взаимного прогнозного изображения, в качестве конечного прогнозного изображения для текущего блока (этап Sd_3). Другими словами, выбирается способ или режим прогнозирования для формирования прогнозного изображения для текущего блока.

[0206] Модуль внутреннего прогнозирования

Модуль 124 внутреннего прогнозирования формирует прогнозный сигнал (т.е. внутренний прогнозный сигнал) посредством выполнения внутреннего прогнозирования (также называется "внутрикадровым прогнозированием") текущего блока посредством обращения к блоку или блокам в текущем кадре, сохраненном в запоминающем устройстве 118 блоков. Более конкретно, модуль 124 внутреннего прогнозирования формирует внутреннее прогнозное изображение посредством выполнения внутреннего прогнозирования посредством обращения к пиксельным значениям (например, значениям сигнала яркости и/или сигнала цветности) блока или блоков, соседних с текущим блоком, и затем выводит внутреннее прогнозное изображение в контроллер 128 прогнозирования.

[0207] Например, модуль 124 внутреннего прогнозирования выполняет внутреннее прогнозирование посредством использования одного режима из множества режимов внутреннего прогнозирования, которые задаются. Режимы внутреннего прогнозирования типично включают в себя один или более режимов ненаправленного прогнозирования и множество режимов направленного прогнозирования. Заданные режимы могут быть предварительно заданы.

[0208] Один или более режимов ненаправленного прогнозирования включают в себя, например, режим планарного прогнозирования и режим DC-прогнозирования, заданные в стандарте H.265/высокоэффективного кодирования видео (HEVC).

[0209] Множество режимов направленного прогнозирования включают в себя, например, тридцать три режима направленного прогнозирования, заданные в H.265/HEVC-стандарте. Следует отметить, что множество режимов направленного прогнозирования дополнительно могут включать в себя тридцать два режима направленного прогнозирования в дополнение к тридцати трем режимам направленного прогнозирования (в сумме шестьдесят пять режимов направленного прогнозирования). Фиг. 31 является концептуальной схемой для иллюстрации шестьдесят семи режимов внутреннего прогнозирования в сумме, которые могут использоваться при внутреннем прогнозировании (два режима ненаправленного прогнозирования и шестьдесят пять режимов направленного прогнозирования). Сплошные стрелки представляют тридцать три направления, заданные в H.265/HEVC-стандарте, и пунктирные стрелки представляют дополнительные тридцать два направления (два режима ненаправленного прогнозирования не проиллюстрированы на фиг. 31).

[0210] В различных видах примеров обработки, на блок сигналов яркости можно ссылаться при внутреннем прогнозировании блока сигналов цветности. Другими словами, компонент сигнала цветности текущего блока может прогнозироваться на основе компонента сигнала яркости текущего блока. Такое внутреннее прогнозирование также называется "прогнозированием на основе кросскомпонентной линейной модели (CCLM)". Режим внутреннего прогнозирования для блока сигналов цветности, в котором на такой блок сигналов яркости ссылаются (также называется, например, "CCLM-режимом"), может добавляться в качестве одного из режимов внутреннего прогнозирования для блоков сигналов цветности.

[0211] Модуль 124 внутреннего прогнозирования может корректировать внутренне прогнозированные пиксельные значения на основе горизонтальных/вертикальных опорных пиксельных градиентов. Внутреннее прогнозирование, сопровождаемое посредством этого вида коррекции, также называется "позиционно-зависимой комбинацией с внутренним прогнозированием (PDPC)". Информация, указывающая то, следует или нет применять PDPC (называется, например, "PDPC-флагом"), нормально передается в служебных сигналах на уровне CU. Следует отметить, что передача в служебных сигналах этой информации не должна обязательно выполняться на уровне CU и может выполняться на другом уровне (например, на уровне последовательности, уровне кадра, уровне среза, уровне плитки или уровне CTU).

[0212] Фиг. 32 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством модуля 124 внутреннего прогнозирования.

[0213] Модуль 124 внутреннего прогнозирования выбирает один режим внутреннего прогнозирования из множества режимов внутреннего прогнозирования (этап Sw_1). Модуль 124 внутреннего прогнозирования затем формирует прогнозное изображение согласно выбранному режиму внутреннего прогнозирования (этап Sw_2). Затем, модуль 124 внутреннего прогнозирования определяет наиболее вероятные режимы (MPM) (этап Sw_3). MPM включают в себя, например, шесть режимов внутреннего прогнозирования. Например, два режима из шести режимов внутреннего прогнозирования могут представлять собой планарный режим и режим DC-прогнозирования, и другие четыре режима могут представлять собой режимы направленного прогнозирования. Модуль 124 внутреннего прогнозирования определяет то, включается или нет режим внутреннего прогнозирования, выбранный на этапе Sw_1, в MPM (этап Sw_4).

[0214] Здесь, при определении того, что режим внутреннего прогнозирования, выбранный на этапе Sw_1, включается в MPM ("Да" на этапе Sw_4), модуль 124 внутреннего прогнозирования задает MPM-флаг равным 1 (этап Sw_5) и формирует информацию, указывающую выбранный режим внутреннего прогнозирования, из MPM (этап Sw_6). Следует отметить, что MPM-флаг, заданный равным 1, и информация, указывающая режим внутреннего прогнозирования, могут кодироваться как параметры прогнозирования посредством энтропийного кодера 110.

[0215] При определении того, что выбранный режим внутреннего прогнозирования не включается в MPM ("Нет" на этапе Sw_4), модуль 124 внутреннего прогнозирования задает MPM-флаг равным 0 (этап Sw_7). Альтернативно, модуль 124 внутреннего прогнозирования вообще не задает MPM-флаг. Модуль 124 внутреннего прогнозирования затем формирует информацию, указывающую выбранный режим внутреннего прогнозирования, по меньшей мере, из одного режима внутреннего прогнозирования, который не включается в MPM (этап Sw_8). Следует отметить, что MPM-флаг, заданный равным 0, и информация, указывающая режим внутреннего прогнозирования, могут кодироваться как параметры прогнозирования посредством энтропийного кодера 110. Информация, указывающая режим внутреннего прогнозирования, указывает, например, любое из 0-60.

[0216] Модуль внутреннего прогнозирования

Модуль 126 взаимного прогнозирования формирует прогнозное изображение (взаимное прогнозное изображение) посредством выполнения взаимного прогнозирования (также называется "межкадровым прогнозированием") текущего блока посредством обращения к блоку или блокам в опорном кадре, который отличается от текущего кадра и сохраняется в запоминающем устройстве 122 кинокадров. Взаимное прогнозирование выполняется в единицах текущего блока или текущего субблока (например, блока 4×4) в текущем блоке. Субблок включается в блок и представляет собой единицу, меньшую блока. Размер субблока может иметь форму среза, кирпича, кадра и т.д.

[0217] Например, модуль 126 взаимного прогнозирования выполняет оценку движения в опорном кадре для текущего блока или текущего субблока и находит опорный блок или опорный субблок, который имеет наилучшее совпадение с текущим блоком или текущим субблоком. Модуль 126 взаимного прогнозирования затем получает информацию движения (например, вектор движения), которая компенсирует движение или изменение с опорного блока или опорного субблока на текущий блок или субблок. Модуль 126 взаимного прогнозирования формирует взаимное прогнозное изображение текущего блока или субблока посредством выполнения компенсации движения (или прогнозирования движения) на основе информации движения. Модуль 126 взаимного прогнозирования выводит сформированное взаимное прогнозное изображение в контроллер 128 прогнозирования.

[0218] Информация движения, используемая при компенсации движения, может передаваться в служебных сигналах в качестве взаимных прогнозных сигналов в различных формах. Например, вектор движения может передаваться в служебных сигналах. Другими словами, разность между вектором движения и предиктором вектора движения может передаваться в служебных сигналах.

[0219] Список опорных кадров

Фиг. 33 является концептуальной схемой для иллюстрации примеров опорных кадров. Фиг. 34 является концептуальной схемой для иллюстрации примеров списков опорных кадров. Список опорных кадров представляет собой список, указывающий, по меньшей мере, один опорный кадр, сохраненный в запоминающем устройстве 122 кинокадров. Следует отметить, что на фиг. 33, каждый из прямоугольников указывает кадр, каждая из стрелок указывает опорную взаимосвязь кадров, горизонтальная ось указывает время, I, P и B в прямоугольниках указывают внутренний прогнозный кадр, унипрогнозный кадр и бипрогнозный кадр, соответственно, и номера в прямоугольниках указывают порядок декодирования. Как проиллюстрировано на фиг. 33, порядок декодирования кадров представляет собой порядок I0, P1, B2, B3 и B4, и порядок отображения кадров представляет собой порядок I0, B3, B2, B4 и P1. Как проиллюстрировано на фиг. 34, список опорных кадров представляет собой список, представляющий возможные варианты опорных кадров. Например, один кадр (или срез) может включать в себя, по меньшей мере, один список опорных кадров. Например, один список опорных кадров используется, когда текущий кадр представляет собой унипрогнозный кадр, и два списка опорных кадров используются, когда текущий кадр представляет собой бипрогнозный кадр. В примерах по фиг. 33 и 34, кадр B3, который представляет собой текущий кадр currPic, имеет два списка опорных кадров, которые представляют собой L0-список и L1-список. Когда текущий кадр currPic представляет собой кадр B3, возможные варианты опорных кадров для текущего кадра currPic представляют собой I0, P1 и B2, и списки опорных кадров (которые представляют собой L0-список и L1-список) указывают эти кадры. Модуль 126 взаимного прогнозирования или контроллер 128 прогнозирования указывает то, к какому кадру в каждом списке опорных кадров следует фактически обращаться, в форме индекса refidxLx опорного кадра. На фиг. 34, опорные кадры P1 и B2 указываются посредством индексов refIdxL0 и refIdxL1 опорных кадров.

[0220] Такой список опорных кадров может формироваться для каждой единицы, такой как последовательность, кадр, срез, кирпич, CTU или CU. Помимо этого, из опорных кадров, указываемых в списках опорных кадров, индекс опорного кадра, указывающий опорный кадр, к которому обращаются при взаимном прогнозировании, может передаваться в служебных сигналах на уровне последовательности, уровне кадра, уровне среза, уровне кирпича, уровне CTU или уровне CU. Помимо этого, общий список опорных кадров может использоваться во множестве режимов взаимного прогнозирования.

[0221] Базовая последовательность операций взаимного прогнозирования

Фиг. 35 является блок-схемой последовательности операций способа, иллюстрирующей примерную базовую последовательность операций обработки процесса взаимного прогнозирования.

[0222] Во-первых, модуль 126 взаимного прогнозирования формирует прогнозный сигнал (этапы Se_1-Se_3). Затем, вычитатель 104 формирует разность между текущим блоком и прогнозным изображением в качестве остатка прогнозирования (этап Se_4).

[0223] Здесь, при формировании прогнозного изображения, модуль 126 взаимного прогнозирования формирует прогнозное изображение посредством определения вектора движения (MV) текущего блока (этапы Se_1 и Se_2) и компенсации движения (этап Se_3). Кроме того, при определении MV, модуль 126 взаимного прогнозирования определяет MV посредством выбора возможного варианта вектора движения (возможного MV-варианта) (этап Se_1) и извлечения MV (этап Se_2). Выбор возможного MV-варианта выполняется, например, посредством модуля 126 внутреннего прогнозирования, формирующего список возможных MV-вариантов и выбирающего, по меньшей мере, один возможный MV-вариант из списка возможных MV-вариантов. Следует отметить, что MV, извлекаемые ранее, могут добавляться в список возможных MV-вариантов. Альтернативно, при извлечении MV, модуль 126 взаимного прогнозирования дополнительно может выбирать, по меньшей мере, один возможный MV-вариант, по меньшей мере, из одного возможного MV-варианта и определять выбранный, по меньшей мере, один возможный MV-вариант в качестве MV для текущего блока. Альтернативно, модуль 126 взаимного прогнозирования может определять MV для текущего блока посредством выполнения оценки в области опорного кадра, указываемой посредством каждого из выбранного, по меньшей мере, одного возможного MV-варианта. Следует отметить, что оценка в области опорного кадра может называться "оценкой движения".

[0224] Помимо этого, хотя этапы Se_1-Se_3 выполняются посредством модуля 126 взаимного прогнозирования в вышеописанном примере, процесс, который, например, представляет собой этап Se_1, этап Se_2 и т.п., может выполняться посредством другого составляющего элемента, включенного в кодер 100.

[0225] Следует отметить, что список возможных MV-вариантов может формироваться для каждого процесса в режиме взаимного прогнозирования, или общий список возможных MV-вариантов может использоваться во множестве режимов взаимного прогнозирования. Процессы на этапах Se_3 и Se_4 соответствуют этапам Sa_3 и Sa_4, проиллюстрированным на фиг. 9, соответственно. Процесс на этапе Se_3 соответствует процессу на этапе Sd_1b на фиг. 30.

[0226] Последовательность операций извлечения векторов движения

Фиг. 36 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса извлечения векторов движения.

[0227] Модуль 126 взаимного прогнозирования может извлекать MV текущего блока в режиме для кодирования информации движения (например, MV). В этом случае, например, информация движения может кодироваться как параметр прогнозирования и может передаваться в служебных сигналах. Другими словами, кодированная информация движения включается в поток.

[0228] Альтернативно, модуль 126 взаимного прогнозирования может извлекать MV в режиме, в котором информация движения не кодируется. В этом случае, информация движения не включается в поток.

[0229] Здесь, режимы MV-извлечения могут включать в себя нормальный взаимный режим, режим объединения, FRUC-режим, аффинный режим и т.д., которые описываются ниже. Режимы, в которых информация движения кодируется, из числа режимов, включают в себя нормальный взаимный режим, режим нормального объединения, аффинный режим (в частности, аффинный взаимный режим и аффинный режим объединения) и т.д. Следует отметить, что информация движения может включать в себя не только MV, но также и информацию выбора предиктора вектора движения, которая описывается ниже. Режимы, в которых информация движения не кодируется, включают в себя FRUC-режим и т.д. Модуль 126 взаимного прогнозирования выбирает режим для извлечения MV текущего блока из множества режимов и извлекает MV текущего блока с использованием выбранного режима.

[0230] Фиг. 37 является блок-схемой последовательности операций способа, иллюстрирующей другой пример извлечения векторов движения.

[0231] Модуль 126 взаимного прогнозирования может извлекать MV текущего блока в режиме, в котором MV-разность кодируется. В этом случае, например, MV-разность может кодироваться как параметр прогнозирования и может передаваться в служебных сигналах. Другими словами, кодированная MV-разность включается в поток. MV-разность представляет собой разность между MV текущего блока и MV-предиктором. Следует отметить, что MV-предиктор представляет собой предиктор вектора движения.

[0232] Альтернативно, модуль 126 взаимного прогнозирования может извлекать MV в режиме, в котором MV-разность не кодируется. В этом случае, кодированная MV-разность не включается в поток.

[0233] Здесь, как описано выше, режимы MV-извлечения включают в себя нормальный взаимный режим, режим нормального объединения, FRUC-режим, аффинный режим и т.д., которые описываются ниже. Режимы, в которых MV-разность кодируется, из числа режимов включают в себя нормальный взаимный режим, аффинный режим (в частности, аффинный взаимный режим) и т.д. Режимы, в которых MV-разность не кодируется, включают в себя FRUC-режим, режим нормального объединения, аффинный режим (в частности, аффинный режим объединения) и т.д. Модуль 126 взаимного прогнозирования выбирает режим для извлечения MV текущего блока из множества режимов и извлекает MV текущего блока с использованием выбранного режима.

[0234] Режимы извлечения векторов движения

Фиг. 38A и 38B являются концептуальными схемами для иллюстрации примерной категоризации режимов для MV-извлечения. Например, как проиллюстрировано на фиг. 38A, режимы MV-извлечения примерно категоризируются на три режима согласно тому, следует или нет кодировать информацию движения, и тому, следует или нет кодировать MV-разности. Три режима представляют собой взаимный режим, режим объединения и режим преобразования с повышением частоты кинокадров (FRUC). Взаимный режим представляет собой режим, в котором оценка движения выполняется, и в котором информация движения и MV-разность кодируются. Например, как проиллюстрировано на фиг. 38B, взаимный режим включает в себя аффинный взаимный режим и нормальный взаимный режим. Режим объединения представляет собой режим, в котором оценка движения не выполняется, и в котором MV выбирается из кодированного окружающего блока, и MV для текущего блока извлекается с использованием MV. Режим объединения представляет собой режим, в котором, по существу, информация движения кодируется, а MV-разность не кодируется. Например, как проиллюстрировано на фиг. 38B, режимы объединения включают в себя режим нормального объединения (также называемый "режимом нормального объединения" или "регулярным режимом объединения"), режим объединения с разностью векторов движения (MMVD), режим комбинированного взаимного объединения и внутреннего прогнозирования (CIIP), треугольный режим, ATMVP-режим и аффинный режим объединения. Здесь, MV-разность кодируется исключительно в MMVD-режиме из режимов, включенных в режимы объединения. Следует отметить, что аффинный режим объединения и аффинный взаимный режим представляют собой режимы, включенные в аффинные режимы. Аффинный режим представляет собой режим для извлечения, в качестве MV текущего блока, MV каждого из множества субблоков, включенных в текущий блок, при условии аффинного преобразования. FRUC-режим представляет собой режим, который служит для извлечения MV текущего блока посредством выполнения оценки между кодированными областями, и в котором не кодируются ни информация движения, ни любая MV-разность. Следует отметить, что ниже подробнее описываются соответствующие режимы.

[0235] Следует отметить, что категоризация режимов, проиллюстрированных на фиг. 38A и 38B, представляет собой примеры, и категоризация не ограничена этим. Например, когда MV-разность кодируется в CIIP-режиме, CIIP-режим категоризируется на взаимные режимы.

[0236] MV-извлечение > нормальный взаимный режим

Нормальный взаимный режим представляет собой режим взаимного прогнозирования для извлечения MV текущего блока на основе блока, аналогичного изображению текущего блока, из области опорных кадров, указываемой посредством возможного MV-варианта. В этом нормальном взаимном режиме, MV-разность кодируется.

[0237] Фиг. 39 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования в нормальном взаимном режиме.

[0238] Во-первых, модуль 126 взаимного прогнозирования получает множество возможных MV-вариантов для текущего блока на основе такой информации, как MV множества кодированных блоков, временно или пространственно окружающих текущий блок (этап Sg_1). Другими словами, модуль 126 взаимного прогнозирования формирует список возможных MV-вариантов.

[0239] Затем, модуль 126 взаимного прогнозирования извлекает N (целое число в 2 или более) возможных MV-вариантов из множества возможных MV-вариантов, полученных на этапе Sg_1, в качестве возможных вариантов предикторов векторов движения (также называются "возможными вариантами MV-предикторов") согласно определенному порядку приоритетов (этап Sg_2). Следует отметить, что порядок приоритетов может определяться заранее для каждого из N возможных MV-вариантов.

[0240] Затем, модуль 126 взаимного прогнозирования выбирает один возможный вариант предиктора вектора движения из возможных вариантов предикторов векторов движения N, в качестве предиктора вектора движения (также называется "MV-предиктором") текущего блока (этап Sg_3). В это время, модуль 126 взаимного прогнозирования кодирует, в потоке, информацию выбора предиктора вектора движения для идентификации выбранного предиктора вектора движения. Другими словами, модуль 126 взаимного прогнозирования выводит информацию выбора MV-предикторов в качестве параметра прогнозирования в энтропийный кодер 110 через формирователь 130 параметров прогнозирования.

[0241] Затем, модуль 126 взаимного прогнозирования извлекает MV текущего блока посредством обращения к кодированному опорному кадру (этап Sg_4). В это время, модуль 126 взаимного прогнозирования дополнительно кодирует, в потоке, значение разности между извлеченным MV и предиктором вектора движения в качестве MV-разности. Другими словами, модуль 126 взаимного прогнозирования выводит MV-разность в качестве параметра прогнозирования в энтропийный кодер 110 через формирователь 130 параметров прогнозирования. Следует отметить, что кодированный опорный кадр представляет собой кадр, включающий в себя множество блоков, которые восстановлены после кодирования.

[0242] В завершение, модуль 126 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения компенсации движения текущего блока с использованием извлеченного MV и кодированного опорного кадра (этап Sg_5). Процессы на этапах Sg_1-Sg_5 выполняются для каждого блока. Например, когда процессы на этапах Sg_1-Sg_5 выполняются для всех блоков в срезе, взаимное прогнозирование среза с использованием нормального взаимного режима заканчивается. Например, когда процессы на этапах Sg_1-Sg_5 выполняются для всех блоков в кадре, взаимное прогнозирование кадра с использованием нормального взаимного режима заканчивается. Следует отметить, что не все блоки включены в срез, процессы могут подвергаться на этапах Sg_1-Sg_5, и взаимное прогнозирование среза с использованием нормального взаимного режима может заканчиваться, когда часть блоков подвергается процессам. Это также применяется к процессам на этапах Sg_1-Sg_5. Взаимное прогнозирование кадра с использованием нормального взаимного режима может заканчиваться, когда процессы выполняются для части блоков в кадре.

[0243] Следует отметить, что прогнозное изображение представляет собой взаимный прогнозный сигнал, как описано выше. Помимо этого, информация, указывающая режим взаимного прогнозирования (нормальный взаимный режим в вышеприведенном примере), используемый для того, чтобы формировать прогнозное изображение, например, кодируется в качестве параметра прогнозирования в кодированном сигнале.

[0244] Следует отметить, что список возможных MV-вариантов также может использоваться в качестве списка для использования в другом режиме. Помимо этого, процессы, связанные со списком возможных MV-вариантов, могут применяться к процессам, связанным со списком для использования в другом режиме. Процессы, связанные со списком возможных MV-вариантов, включают в себя, например, извлечение или выбор возможного MV-варианта из списка возможных MV-вариантов, переупорядочение возможных MV-вариантов или удаление возможного MV-варианта.

[0245] MV-извлечение > режим нормального объединения

Режим нормального объединения представляет собой режим взаимного прогнозирования для выбора возможного MV-варианта из списка возможных MV-вариантов в качестве MV текущего блока, за счет этого извлекая MV. Следует отметить, что режим нормального объединения представляет собой тип режима объединения и может называться просто "режимом объединения". В этом варианте осуществления, режим нормального объединения и режим объединения отличаются, и режим объединения используется в более широком смысле.

[0246] Фиг. 40 является блок-схемой последовательности операций способа, иллюстрирующей пример взаимного прогнозирования в режиме нормального объединения.

[0247] Во-первых, модуль 126 взаимного прогнозирования получает множество возможных MV-вариантов для текущего блока на основе такой информации, как MV множества кодированных блоков, временно или пространственно окружающих текущий блок (этап Sh_1). Другими словами, модуль 126 взаимного прогнозирования формирует список возможных MV-вариантов.

[0248] Затем, модуль 126 взаимного прогнозирования выбирает один возможный MV-вариант из множества возможных MV-вариантов, полученных на этапе Sh_1, за счет этого извлекая MV текущего блока (этап Sh_2). В это время, модуль 126 взаимного прогнозирования кодирует, в потоке, информацию MV-выбора для идентификации выбранного возможного MV-варианта. Другими словами, модуль 126 взаимного прогнозирования выводит информацию MV-выбора в качестве параметра прогнозирования в энтропийный кодер 110 через формирователь 130 параметров прогнозирования.

[0249] В завершение, модуль 126 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения компенсации движения текущего блока с использованием извлеченного MV и кодированного опорного кадра (этап Sh_3). Процессы на этапах Sh_1-Sh_3 выполняются, например, для каждого блока. Например, когда процессы на этапах Sh_1-Sh_3 выполняются для всех блоков в срезе, взаимное прогнозирование среза с использованием режима нормального объединения заканчивается. Помимо этого, когда процессы на этапах Sh_1-Sh_3 выполняются для всех блоков в кадре, взаимное прогнозирование кадра с использованием режима нормального объединения заканчивается. Следует отметить, что не все блоки, включенные в срез, могут подвергаться процессам на этапах Sh_1-Sh_3, и взаимное прогнозирование среза с использованием режима нормального объединения может заканчиваться, когда часть блоков подвергается процессам. Это также применяется к процессам на этапах Sh_1-Sh_3. Взаимное прогнозирование кадра с использованием режима нормального объединения может заканчиваться, когда процессы выполняются для части блоков в кадре.

[0250] Помимо этого, информация, указывающая режим взаимного прогнозирования (режим нормального объединения в вышеприведенном примере), используемый для того, чтобы формировать прогнозное изображение, и включенная в кодированный сигнал, например, кодируется в качестве параметра прогнозирования в потоке.

[0251] Фиг. 41 является концептуальной схемой для иллюстрации одного примера процесса извлечения векторов движения текущего кадра посредством режима нормального объединения.

[0252] Во-первых, модуль 126 взаимного прогнозирования формирует список возможных MV-вариантов, в котором регистрируются возможные MV-варианты. Примеры возможных MV-вариантов включают в себя: пространственно соседние возможные MV-варианты, которые представляют собой MV множества кодированных блоков, расположенных пространственно окружающими текущий блок; временно соседние возможные MV-варианты, которые представляют собой MV окружающих блоков, на которые проецируется позиция текущего блока в кодированном опорном кадре; комбинированные возможные MV-варианты, которые представляют собой MV, сформированные посредством комбинирования MV-значения пространственно соседнего MV-предиктора и MV-значения временно соседнего MV-предиктора; и нулевой возможный MV-вариант, который представляет собой MV, имеющий нулевое значение.

[0253] Затем, модуль 126 взаимного прогнозирования выбирает один возможный MV-вариант из множества возможных MV-вариантов, зарегистрированных в списке возможных MV-вариантов, и определяет возможный MV-вариант в качестве MV текущего блока.

[0254] Кроме того, энтропийный кодер 110 записывает и кодирует, в потоке, merge_idx, который представляет собой сигнал, указывающий то, какой возможный MV-вариант выбран.

[0255] Следует отметить, что возможные MV-варианты, зарегистрированные в списке возможных MV-вариантов, описанном на фиг. 41, представляют собой примеры. Число возможных MV-вариантов может отличаться от числа возможных MV-вариантов на схеме, список возможных MV-вариантов может быть сконфигурирован таким образом, что некоторые виды возможных MV-вариантов на схеме могут не включаться, либо таким образом, что один или более возможных MV-вариантов, отличных от видов возможных MV-вариантов на схеме, включаются.

[0256] Конечный MV может определяться посредством выполнения динамического обновления векторов движения (DMVR), которое описывается ниже, с использованием MV текущего блока, извлекаемого посредством режима нормального объединения. Следует отметить, что в режиме нормального объединения, информация движения кодируется, а MV-разность не кодируется. В MMVD-режиме, один возможный MV-вариант выбирается из списка возможных MV-вариантов, как и в случае режима нормального объединения, MV-разность кодируется. Как проиллюстрировано на фиг. 38B, MMVD может категоризироваться на режимы объединения вместе с режимом нормального объединения. Следует отметить, что MV-разность в MMVD-режиме не всегда должна быть идентичной MV-разности для использования во взаимном режиме. Например, извлечение MV-разностей в MMVD-режиме может представлять собой процесс, который требует меньшего объема обработки, чем объем обработки, требуемый для извлечения MV-разностей во взаимном режиме.

[0257] Помимо этого, режим комбинированного взаимного объединения и внутреннего прогнозирования (CIIP) может выполняться. Режим служит для перекрытия прогнозного изображения, сформированного при взаимном прогнозировании, и прогнозного изображения, сформированного при внутреннем прогнозировании, чтобы формировать прогнозное изображение для текущего блока.

[0258] Следует отметить, что список возможных MV-вариантов может называться "списком возможных вариантов". Помимо этого, merge_idx представляет собой информацию MV-выбора.

[0259] MV-извлечение > HMVP-режим

Фиг. 42 является концептуальной схемой для иллюстрации одного примера процесса MV-извлечения для текущего кадра с использованием HMVP-режима объединения.

[0260] В режиме нормального объединения, MV, например, для CU, которая представляет собой текущий блок, определяется посредством выбора одного возможного MV-варианта из MV-списка, сформированного посредством обращения к кодированному блоку (например, CU). Здесь, другой возможный MV-вариант может регистрироваться в списке возможных MV-вариантов. Режим, в котором регистрируется такой другой возможный MV-вариант, называется "HMVP-режимом".

[0261] В HMVP-режиме, возможные MV-варианты управляются с использованием сервера на основе принципа "первый на входе - первый на выходе" (FIFO) для HMVP, отдельно от списка возможных MV-вариантов для режима нормального объединения.

[0262] В FIFO-буфере, информация движения, такая как MV блоков, обработанных ранее, сохраняются "самые новые первыми". При управлении FIFO-буфером, каждый раз, когда один блок обрабатывается, MV для самого нового блока (который представляет собой CU, обработанную непосредственно перед этим) сохраняется в FIFO-буфере, и MV самой старой CU (т.е. CU, обработанной раньше всего), удаляется из FIFO-буфера. В примере, проиллюстрированном на фиг. 42, HMVP1 представляет собой MV для самого нового блока, и HMVP5 представляет собой MV для самого старого MV.

[0263] Модуль 126 взаимного прогнозирования затем, например, проверяет то, представляет собой каждый MV, управляемый в FIFO-буфере, или нет MV, отличающийся от всех возможных MV-вариантов, которые уже зарегистрированы в списке возможных MV-вариантов, для режима нормального объединения, начинающегося с HMVP1. При определении того, что MV отличается от всех возможных MV-вариантов, модуль 126 взаимного прогнозирования может добавлять MV, управляемый в FIFO-буфере, в список возможных MV-вариантов для режима нормального объединения, в качестве возможного MV-варианта. В это время, один или более возможных MV-вариантов в FIFO-буфере могут регистрироваться (добавляться в список возможных MV-вариантов).

[0264] Посредством использования HMVP-режима таким образом, можно добавлять не только MV блока, который граничит с текущим блоком пространственно или временно, но также и MV для блока, обработанного ранее. Как результат, варьирование возможных MV-вариантов для режима нормального объединения расширяется, что увеличивает вероятность того, что эффективность кодирования может повышаться.

[0265] Следует отметить, что MV может представлять собой информацию движения. Другими словами, информация, сохраненная в списке возможных MV-вариантов и FIFO-буфере, может включать в себя не только MV-значения, но также и информацию опорных кадров, опорные направления, числа кадров и т.д. Помимо этого, блок, например, может представлять собой CU.

[0266] Следует отметить, что список возможных MV-вариантов и FIFO-буфер, проиллюстрированные на фиг. 42, представляют собой примеры. Список возможных MV-вариантов и FIFO-буфер могут отличаться по размеру от списка возможных MV-вариантов и FIFO-буфера на фиг. 42 или могут быть выполнены с возможностью регистрировать возможные MV-варианты в порядке, отличающемся от порядка на фиг. 42. Помимо этого, процесс, описанный здесь, может быть общим между кодером 100 и декодером 200.

[0267] Следует отметить, что HMVP-режим может применяться для режимов, отличных от режима нормального объединения. Например, также возможно то, что информация движения, такая как MV блоков, обработанных в аффинном режиме ранее, может сохраняться "самые новые сначала" и может использоваться в качестве возможных MV-вариантов, которые могут способствовать лучшей эффективности. Режим, полученный посредством применения HMVP-режима к аффинному режиму, может называться "аффинным режимом на основе предыстории".

[0268] MV-извлечение > FRUC-режим

Информация движения может извлекаться на стороне декодера без передачи в служебных сигналах из стороны кодера. Например, информация движения может извлекаться посредством выполнения оценки движения на стороне декодера 200. В варианте осуществления, на стороне декодера, оценка движения выполняется без использования пиксельных значений в текущем блоке. Режимы для выполнения оценки движения на стороне декодера 200 вообще без использования пиксельного значения в текущем блоке включают в себя режим преобразования с повышением частоты кинокадров (FRUC), режим извлечения векторов движения на основе сопоставления с шаблоном (PMMVD) и т.д.

[0269] Один пример FRUC-процесса в форме блок-схемы последовательности операций способа проиллюстрирован на фиг. 43. Во-первых, список, который указывает, в качестве возможных MV-вариантов, MV для кодированных блоков, каждый из которых граничит с текущим блоком пространственно или временно посредством обращения к MV (список может представлять собой список возможных MV-вариантов и также использоваться в качестве списка возможных MV-вариантов для режима нормального объединения) (этап Si_1).

[0270] Затем, наилучший возможный MV-вариант выбирается из множества возможных MV-вариантов, зарегистрированных в списке возможных MV-вариантов (этап Si_2). Например, значения оценки соответствующих возможных MV-вариантов, включенных в список возможных MV-вариантов, вычисляются, и один возможный MV-вариант выбирается на основе значений оценки. На основе выбранных возможных вариантов векторов движения, вектор движения для текущего блока затем извлекается (этап Si_4). Более конкретно, например, выбранный возможный вариант вектора движения (наилучший возможный MV-вариант) извлекается непосредственно в качестве вектора движения для текущего блока. Помимо этого, например, вектор движения для текущего блока может извлекаться с использованием сопоставления с шаблоном в окружающей области позиции в опорном кадре, при этом позиция в опорном кадре соответствует выбранному возможному варианту вектора движения. Другими словами, оценка с использованием сопоставления с шаблоном и значений оценки может выполняться в окружающей области наилучшего возможного MV-варианта, и когда имеется MV, который дает в результате лучшее значение оценки, наилучший возможный MV-вариант может обновляться на MV, который дает в результате лучшее значение оценки, и обновленный MV может определяться в качестве конечного MV для текущего блока. В некоторых вариантах осуществления, обновление вектора движения, который дает в результате лучшее значение оценки, может не выполняться.

[0271] В завершение, модуль 126 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения компенсации движения текущего блока с использованием извлеченного MV и кодированного опорного кадра (этап Si_5). Процессы на этапах Si_1-Si_5 выполняются, например, для каждого блока. Например, когда процессы на этапах Si_1-Si_5 выполняются для всех блоков в срезе, взаимное прогнозирование среза с использованием FRUC-режима заканчивается. Например, когда процессы на этапах Si_1-Si_5 выполняются для всех блоков в кадре, взаимное прогнозирование кадра с использованием FRUC-режима заканчивается. Следует отметить, что не все блоки, включенные в срез, могут подвергаться процессам на этапах Si_1-Si_5, и взаимное прогнозирование среза с использованием FRUC-режима может заканчиваться, когда часть блоков подвергается процессам. Когда процессы на этапах Si_1-Si_5 выполняются для части блоков, включенных в кадр аналогичным образом, взаимное прогнозирование кадра с использованием FRUC-режима может заканчиваться.

[0272] Аналогичный процесс может выполняться в единицах субблоков.

[0273] Значения оценки могут вычисляться согласно различным видам способов. Например, сравнение проводится между восстановленным изображением в области в опорном кадре, соответствующей вектору движения, и восстановленным изображением в определенной области (область, например, может представлять собой область в другом опорном кадре или область в соседнем блоке текущего кадра, как указано ниже). Определенная область может быть предварительно определена.

[0274] Разность между пиксельными значениями двух восстановленных изображений может использоваться для значения оценки векторов движения. Следует отметить, что значение оценки может вычисляться с использованием информации, отличной от значения разности.

[0275] Далее подробно описывается пример сопоставления с шаблоном. Во-первых, один возможный MV-вариант, включенный в список возможных MV-вариантов (например, список объединения), выбирается в качестве начальной точки оценки посредством сопоставления с шаблоном. Например, в качестве сопоставления с шаблоном, может использоваться первое сопоставление с шаблоном или второе сопоставление с шаблоном. Первое сопоставление с шаблоном и второе сопоставление с шаблоном могут называться "билатеральным сопоставлением" и "сопоставлением с эталоном", соответственно.

[0276] MV-извлечение > FRUC > билатеральное сопоставление

При первом сопоставлении с шаблоном, сопоставление с шаблоном выполняется между двумя блоками, которые расположены вдоль траектории движения текущего блока и включаются в два различных опорных кадра. Соответственно, при первом сопоставлении с шаблоном, область в другом опорном кадре вдоль траектории движения текущего блока используется в качестве определенной области для вычисления значения оценки вышеописанного возможного варианта. Определенная область может быть предварительно определена.

[0277] Фиг. 44 является концептуальной схемой для иллюстрации одного примера первого сопоставления с шаблоном (билатерального сопоставления) между двумя блоками в двух опорных кадрах вдоль траектории движения. Как проиллюстрировано на фиг. 44, при первом сопоставлении с шаблоном, два вектора (MV0, MV1) движения извлекаются посредством оценки пары, которая имеет наилучшее совпадение, из числа пар в двух блоках, включенных в два различных опорных кадра (Ref0, Ref1) и расположенных вдоль траектории движения текущего блока (Cur block). Более конкретно, разность между восстановленным изображением в указанном местоположении в первом кодированном опорном кадре (Ref0), указываемом посредством возможного MV-варианта, и восстановленным изображением в указанном местоположении во втором кодированном опорном кадре (Ref1), указываемом посредством симметричного MV, полученная посредством масштабирования возможного MV-варианта во временном интервале отображения, извлекается для текущего блока, и значение оценки вычисляется с использованием значения полученной разности. Можно выбирать, в качестве конечного MV, возможный MV-вариант, который дает в результате наилучшее значение оценки из множества возможных MV-вариантов и который с большой вероятностью должен приводить к хорошим результатам.

[0278] При допущении относительно траектории непрерывного движения, векторы (MV0, MV1) движения, указывающие два опорных блока, являются пропорциональными временным расстояниям (TD0, TD1) между текущим кадром (Cur Pic) и двумя опорными кадрами (Ref0, Ref1). Например, когда текущий кадр временно находится между двумя опорными кадрами, и временные расстояния от текущего кадра до соответствующих двух опорных кадров равны друг другу, зеркально-симметричные двунаправленные векторы движения извлекаются при первом сопоставлении с шаблоном.

[0279] MV-извлечение > FRUC > сопоставление с эталоном

При втором сопоставлении с шаблоном (сопоставлении с эталоном), сопоставление с шаблоном выполняется между блоком в опорном кадре и эталоном в текущем кадре (эталон представляет собой блок, соседний с текущим блоком в текущем кадре (соседний блок, например, представляет собой верхний и/или левый соседний блок(и))). Следовательно, при втором сопоставлении с шаблоном, блок, соседний с текущим блоком в текущем кадре, используется в качестве предварительно определенной области для вышеописанного вычисления значения оценки возможного MV-варианта.

[0280] Фиг. 45 является концептуальной схемой для иллюстрации одного примера сопоставления с шаблоном (сопоставления с эталоном) между эталоном в текущем кадре и блоком в опорном кадре. Как проиллюстрировано на фиг. 45, при втором сопоставлении с шаблоном, вектор движения текущего блока (Cur block) извлекается посредством оценки, в опорном кадре (Ref0), блока, который имеет наилучшее совпадение с блоком, соседним с текущим блоком в текущем кадре (Cur Pic). Более конкретно, разность между восстановленным изображением в кодированной области, которая граничит как слева, так и выше либо или слева, или выше, и восстановленным изображением, которое находится в соответствующей области в кодированном опорном кадре (Ref0) и указывается посредством возможного MV-варианта, извлекается, и значение оценки вычисляется с использованием значения полученной разности. Возможный MV-вариант, который дает в результате наилучшее значение оценки из множества возможных MV-вариантов, может выбираться в качестве наилучшего возможного MV-варианта.

[0281] Эта информация, указывающая то, следует или нет применять FRUC-режим (называется, например, "FRUC-флагом"), может передаваться в служебных сигналах на уровне CU. Помимо этого, когда FRUC-режим применяется (например, когда FRUC-флаг является истинным), информация, указывающая применимый способ сопоставления с шаблоном (например, первое сопоставление с шаблоном или второе сопоставление с шаблоном), может передаваться в служебных сигналах на уровне CU. Следует отметить, что передача в служебных сигналах этой информации не должна обязательно выполняться на уровне CU и может выполняться на другом уровне (например, на уровне последовательности, уровне кадра, уровне среза, уровне плитки, уровне CTU или уровне субблока).

[0282] MV-извлечение > аффинный режим

Аффинный режим представляет собой режим для формирования MV с использованием аффинного преобразования. Например, MV может извлекаться в единицах субблоков на основе векторов движения множества соседних блоков. Этот режим также называется "аффинным режимом прогнозирования с компенсацией движения".

[0283] Фиг. 46A является концептуальной схемой для иллюстрации одного примера MV-извлечения в единицах субблоков на основе векторов движения множества соседних блоков. На фиг. 46A текущий блок включает в себя, например, шестнадцать субблоков 4×4. Здесь, вектор V0 движения в верхней левой угловой управляющей точке в текущем блоке извлекается на основе вектора движения соседнего блока, и аналогично, вектор V1 движения в верхней правой угловой управляющей точке в текущем блоке извлекается на основе вектора движения соседнего субблока. Два вектора v0 и v1 движения могут проецироваться согласно выражению (1A), указываемому ниже, и векторы (vx, vy) движения для соответствующих субблоков в текущем блоке могут извлекаться.

[0284] Математическое выражение 1

[0285] Здесь, x и y указывают горизонтальную позицию и вертикальную позицию субблока, соответственно, и w указывает определенный весовой коэффициент. Определенный весовой коэффициент может быть предварительно определен.

[0286] Эта информация, указывающая аффинный режим (например, называется "аффинным флагом"), может передаваться в служебных сигналах на уровне CU. Следует отметить, что передача в служебных сигналах информации, указывающей аффинный режим, не обязательно должна выполняться на уровне CU и может выполняться на другом уровне (например, на уровне последовательности, уровне кадра, уровне среза, уровне плитки, уровне CTU или уровне субблока).

[0287] Помимо этого, аффинный режим может включать в себя несколько режимов для различных способов для извлечения векторов движения в верхней левой и верхней правой угловых управляющих точках. Например, аффинный режим включает в себя два режима, которые представляют собой аффинный взаимный режим (также называется "аффинным нормальным взаимным режимом") и аффинный режим объединения.

[0288] MV-извлечение > аффинный режим

Фиг. 46B является концептуальной схемой для иллюстрации одного примера MV-извлечения в единицах субблоков в аффинном режиме, в котором используются три управляющих точки. На фиг. 46B, текущий блок включает в себя, например, шестнадцать блоков 4×4. Здесь, вектор v0 движения в верхней левой угловой управляющей точке в текущем блоке извлекается на основе вектора движения соседнего блока. Здесь, вектор V1 движения в верхней правой угловой управляющей точке в текущем блоке извлекается на основе вектора движения соседнего блока, и аналогично, вектор V2 движения в нижней левой угловой управляющей точке для текущего блока извлекается на основе вектора движения соседнего блока. Три вектора v0, v1 и v2 движения могут проецироваться согласно выражению (1B), указываемому ниже, и векторы (vx, vy) движения для соответствующих субблоков в текущем блоке могут извлекаться.

[0289] Математическое выражение 2

[0290] Здесь, x и y указывает горизонтальную позицию и вертикальную позицию субблока, соответственно, и w и h может могут весовыми коэффициентами, которые могут составлять предварительно определенные весовые коэффициенты. В варианте осуществления, w может указывать ширину текущего блока, и h может указывать высоту текущего блока.

[0291] Аффинные режимы, в которых используются различные числа управляющих точек (например, две и три управляющих точки), могут переключаться и передаваться в служебных сигналах на уровне CU. Следует отметить, что информация, указывающая число управляющих точек в аффинном режиме, используемом на уровне CU, может передаваться в служебных сигналах на другом уровне (например, на уровне последовательности, уровне кадра, уровне среза, уровне плитки, уровне CTU или уровне субблока).

[0292] Помимо этого, такой аффинный режим, в котором используются три управляющих точки, может включать в себя различные способы для извлечения векторов движения в верхней левой, верхней правой и нижней левой угловых управляющих точках. Например, аффинные режимы, в которых используются три управляющих точки, могут включать в себя два режима, которые представляют собой аффинный взаимный режим и аффинный режим объединения, как и в случае аффинных режимов, в которых используются две управляющих точки.

[0293] Следует отметить, что, в аффинных режимах, размер каждого субблока, включенного в текущий блок, может не быть ограничен 4×4 пикселов и может представлять собой другой размер. Например, размер каждого субблока может составлять 8×8 пикселов.

[0294] MV-извлечение > аффинный режим > управляющая точка

Фиг. 47A, фиг. 47B и фиг. 47C является концептуальными схемами для иллюстрации примеров MV-извлечения в управляющих точках в аффинном режиме.

[0295] Как проиллюстрировано на фиг. 47A, в аффинном режиме, например, предикторы векторов движения в соответствующих управляющих точках текущего блока вычисляются на основе множества векторов движения, соответствующих блокам, кодированным согласно аффинному режиму, из кодированного блока A (левого), блока B (верхнего), блока C (верхнего правого), блока D (нижнего левого) и блока E (верхнего левого), которые являются соседними с текущим блоком. Более конкретно, кодированный блок A (левый), блок B (верхний), блок C (верхний правый), блок D (нижний левый) и блок E (верхний левый) проверяются в перечисленном порядке, и первый эффективный блок, кодированный согласно аффинному режиму, идентифицируется. Предикторы векторов движения в управляющих точках текущего блока вычисляются на основе множества векторов движения, соответствующих идентифицированному блоку.

[0296] Например, как проиллюстрировано на фиг. 47B, когда блок A, который является соседним слева от текущего блока, кодирован согласно аффинному режиму, в котором используются две управляющих точки, векторы v3 и v4 движения, проецируемые в верхней левой угловой позиции и верхней правой угловой позиции кодированного блока, включающего в себя блок A, извлекаются. Вектор v0 движения в верхней левой угловой управляющей точке текущего блока и вектор v1 движения в верхней правой угловой управляющей точке текущего блока затем вычисляются из извлеченных векторов v3 и v4 движения.

[0297] Например, как проиллюстрировано на фиг. 47C, когда блок A, который является соседним слева от текущего блока, кодирован согласно аффинному режиму, в котором используются три управляющих точки, векторы v3, v4 и v5 движения, проецируемые в верхней левой угловой позиции, верхней правой угловой позиции и нижней левой угловой позиции кодированного блока, включающего в себя блок A, извлекаются. Вектор v0 движения в верхней левой угловой управляющей точке текущего блока, вектор v1 движения в верхней правой угловой управляющей точке текущего блока и вектор v2 движения в нижней левой угловой управляющей точке текущего блока затем вычисляются из извлеченных векторов v3, v4 и v5 движения.

[0298] Способы MV-извлечения, проиллюстрированные на фиг. 47A-47C, могут использоваться при MV-извлечении в каждой управляющей точке для текущего блока на этапе Sk_1, проиллюстрированном на фиг. 50, или могут использоваться для извлечения MV-предиктора в каждой управляющей точке для текущего блока на этапе Sj_1, проиллюстрированном на фиг. 51, описанном ниже.

[0299] Фиг. 48A и 48B являются концептуальными схемами для иллюстрации примеров MV-извлечения в управляющих точках в аффинном режиме.

[0300] Фиг. 48A является концептуальной схемой для иллюстрации примерного аффинного режима, в котором используются две управляющих точки.

[0301] В аффинном режиме, как проиллюстрировано на фиг. 48A, MV, выбранный из MV в кодированном блоке A, блок B и блок C, которые граничат с текущим блоком, используются в качестве вектора v0 движения в верхней левой угловой управляющей точке для текущего блока. Аналогично, MV, выбранный из MV кодированного блока D и блока E, которые граничат с текущим блоком, используется в качестве вектора v1 движения в верхней правой угловой управляющей точке для текущего блока.

[0302] Фиг. 48B является концептуальной схемой для иллюстрации примерного аффинного режима, в котором используются три управляющих точки.

[0303] В аффинном режиме, как проиллюстрировано на фиг. 48B, MV, выбранный из MV в кодированном блоке A, блок B и блок C, которые граничат с текущим блоком, используются в качестве вектора v0 движения в верхней левой угловой управляющей точке для текущего блока. Аналогично, MV, выбранный из MV кодированного блока D и блока E, которые граничат с текущим блоком, используется в качестве вектора v1 движения в верхней правой угловой управляющей точке для текущего блока. Кроме того, MV, выбранный из MV кодированного блока F и блока G, которые граничат с текущим блоком, используется в качестве вектора v2 движения в нижней левой угловой управляющей точке для текущего блока.

[0304] Следует отметить, что способы MV-извлечения, проиллюстрированные на фиг. 48A и 48B, могут использоваться при MV-извлечении в каждой управляющей точке для текущего блока на этапе Sk_1, проиллюстрированном на фиг. 50, описанном ниже, или может использоваться для извлечения MV-предиктора в каждой управляющей точке для текущего блока на этапе Sj_1, проиллюстрированном на фиг. 51, описанном ниже.

[0305] Здесь, когда аффинные режимы, в которых используются различные числа управляющих точек (например, две и три управляющих точки), могут переключаться и передаваться в служебных сигналах на уровне CU, число управляющих точек для кодированного блока и число управляющих точек для текущего блока могут отличаться друг от друга.

[0306] Фиг. 49A и 49B являются концептуальными схемами для иллюстрации примеров способа для MV-извлечения в управляющих точках, когда число управляющих точек для кодированного блока и число управляющих точек для текущего блока отличаются друг от друга.

[0307] Например, как проиллюстрировано на фиг. 49A, текущий блок имеет три управляющих точки в верхнем левом углу, верхнем правом углу и левом нижнем углу, и блок A, который граничит слева относительно текущего блока, кодирован согласно аффинному режиму, в котором используются две управляющих точки. В этом случае, векторы v3 и v4 движения, проецируемые в верхней левой угловой позиции и верхней правой угловой позиции в кодированном блоке, включающем в себя блок A, извлекаются. Вектор v0 движения в верхней левой угловой управляющей точке и вектор v1 движения в верхней правой угловой управляющей точке для текущего блока затем вычисляются из извлеченных векторов v3 и v4 движения. Кроме того, вектор v2 движения в нижней левой угловой управляющей точке вычисляется из извлеченных векторов v0 и v1 движения.

[0308] Например, как проиллюстрировано на фиг. 49B, текущий блок имеет две управляющих точки в верхнем левом углу и в верхнем правом углу, и блок A, который граничит слева относительно текущего блока, кодирован согласно аффинному режиму, в котором используются три управляющих точки. В этом случае, векторы v3, v4 и v5 движения, проецируемые в верхней левой угловой позиции в кодированном блоке, включающем в себя блок A, в верхней правой угловой позиции в кодированном блоке и в нижней левой угловой позиции в кодированном блоке, извлекаются. Вектор v0 движения в верхней левой угловой управляющей точке для текущего блока и вектор v1 движения в верхней правой угловой управляющей точке для текущего блока затем вычисляются из извлеченных векторов v3, v4 и v5 движения.

[0309] Следует отметить, что способы MV-извлечения, проиллюстрированные на фиг. 49A и 49B, могут использоваться при MV-извлечении в каждой управляющей точке для текущего блока на этапе Sk_1, проиллюстрированном на фиг. 50, описанном ниже, или может использоваться для извлечения MV-предиктора в каждой управляющей точке для текущего блока на этапе Sj_1, проиллюстрированном на фиг. 51, описанном ниже.

[0310] MV-извлечение > аффинный режим > аффинный режим объединения

Фиг. 50 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса в аффинном режиме объединения.

[0311] В аффинном режиме объединения, как проиллюстрировано, сначала, модуль 126 взаимного прогнозирования извлекает MV в соответствующих управляющих точках для текущего блока (этап Sk_1). Управляющие точки представляют собой верхнюю левую угловую точку текущего блока и верхнюю правую угловую точку текущего блока, как проиллюстрировано на фиг. 46A, либо верхнюю левую угловую точку текущего блока, верхнюю правую угловую точку текущего блока и нижнюю левую угловую точку текущего блока, как проиллюстрировано на фиг. 46B. Модуль 126 взаимного прогнозирования может кодировать информацию MV-выбора для идентификации двух или трех извлеченных MV в потоке.

[0312] Например, когда способы MV-извлечения, проиллюстрированные на фиг. 47A-47C, используются, как проиллюстрировано на фиг. 47A, модуль 126 взаимного прогнозирования проверяет кодированный блок A (левый), блок B (верхний), блок C (верхний правый), блок D (нижний левый) и блок E (верхний левый) в перечисленном порядке и идентифицирует первый эффективный блок, кодированный согласно аффинному режиму.

[0313] Модуль 126 взаимного прогнозирования извлекает MV в управляющей точке с использованием идентифицированного первого эффективного блока, кодированного согласно идентифицированному аффинному режиму. Например, когда блок A идентифицируется, и блок A имеет две управляющих точки, как проиллюстрировано на фиг. 47B, модуль 126 взаимного прогнозирования вычисляет вектор v0 движения в верхней левой угловой управляющей точке текущего блока и вектор v1 движения в верхней правой угловой управляющей точке текущего блока из векторов v3 и v4 движения в верхнем левом углу кодированного блока, включающего в себя блок A, и в верхнем правом углу кодированного блока. Например, модуль 126 взаимного прогнозирования вычисляет вектор v0 движения в верхней левой угловой управляющей точке текущего блока и вектор v1 движения в верхней правой угловой управляющей точке текущего блока посредством проецирования векторов v3 и v4 движения в верхнем левом углу и в верхнем правом углу кодированного блока на текущий блок.

[0314] Альтернативно, когда блок A идентифицируется, и блок A имеет три управляющих точки, как проиллюстрировано на фиг. 47C, модуль 126 взаимного прогнозирования вычисляет вектор v0 движения в верхней левой угловой управляющей точке текущего блока, вектор v1 движения в верхней правой угловой управляющей точке текущего блока и вектор v2 движения в нижней левой угловой управляющей точке текущего блока из векторов v3, v4 и v5 движения в верхнем левом углу кодированного блока, включающего в себя блок A, в верхнем правому углу кодированного блока и в левом нижнем углу кодированного блока. Например, модуль 126 взаимного прогнозирования вычисляет вектор v0 движения в верхней левой угловой управляющей точке текущего блока, вектор v1 движения в верхней правой угловой управляющей точке текущего блока и вектор v2 движения в нижней левой угловой управляющей точке текущего блока посредством проецирования векторов v3, v4 и v5 движения в верхнем левом углу, верхнем правом углу и левом нижнем угле кодированного блока на текущий блок.

[0315] Следует отметить, что, как проиллюстрировано на фиг. 49A, описанном выше, MV в трех управляющих точках могут вычисляться, когда блок A идентифицируется, и блок A имеет две управляющих точки, и что, как проиллюстрировано на фиг. 49B, описанном выше, MV в двух управляющих точках могут вычисляться, когда блок A идентифицируется, и блок A имеет три управляющих точки.

[0316] Затем, модуль 126 взаимного прогнозирования выполняет компенсацию движения каждого из множества субблоков, включенных в текущий блок. Другими словами, модуль 126 взаимного прогнозирования вычисляет MV для каждого из множества субблоков в качестве аффинного MV, например, с использованием двух векторов v0 и v1 движения и вышеуказанного выражения (1A) или трех векторов v0, v1 и v2 движения и вышеуказанного выражения (1B) (этап Sk_2). Модуль 126 взаимного прогнозирования затем выполняет компенсацию движения субблоков с использованием этих аффинных MV и кодированных опорных кадров (этап Sk_3). Когда процессы на этапах Sk_2 и Sk_3 выполняются для каждого из всех субблоков, включенных в текущий блок, процесс для формирования прогнозного изображения с использованием аффинного режима объединения для текущего блока заканчивается. Другими словами, компенсация движения текущего блока выполняется для того, чтобы формировать прогнозное изображение текущего блока.

[0317] Следует отметить, что вышеописанный список возможных MV-вариантов может формироваться на этапе Sk_1. Список возможных MV-вариантов, например, может представлять собой список, включающий в себя возможные MV-варианты, извлекаемые с использованием множества способов MV-извлечения для каждой управляющей точки. Множество способов MV-извлечения, например, могут представлять собой любую комбинацию способов MV-извлечения, проиллюстрированных на фиг. 47A-47C, способов MV-извлечения, проиллюстрированных на фиг. 48A и 48B, способов MV-извлечения, проиллюстрированных на фиг. 49A и 49B, и других способов MV-извлечения.

[0318] Следует отметить, что списки возможных MV-вариантов могут включать в себя возможные MV-варианты в режиме, в котором прогнозирование выполняется в единицах субблоков, отличном от аффинного режима.

[0319] Следует отметить, что, например, список возможных MV-вариантов, включающий в себя возможные MV-варианты в аффинном режиме объединения, в котором используются две управляющих точки, и в аффинном режиме объединения, в котором используются три управляющих точки, может формироваться в качестве списка возможных MV-вариантов. Альтернативно, список возможных MV-вариантов, включающий в себя возможные MV-варианты в аффинном режиме объединения, в котором используются две управляющих точки, и список возможных MV-вариантов, включающий в себя возможные MV-варианты в аффинном режиме объединения, в котором используются три управляющих точки, могут формироваться отдельно. Альтернативно, список возможных MV-вариантов, включающий в себя возможные MV-варианты в одном из аффинного режима объединения, в котором используются две управляющих точки, и аффинного режима объединения, в котором используются три управляющих точки, может формироваться. Возможный MV-вариант(ы), например, может представлять собой MV для кодированного блока A (левого), блока B (верхнего), блока C (верхнего правого), блока D (нижнего левого) и блока E (верхнего левого) или MV для эффективного блока из блоков.

[0320] Следует отметить, что индекс, указывающий один из MV в списке возможных MV-вариантов, может передаваться как информация MV-выбора.

[0321] MV-извлечение > аффинный режим > аффинный взаимный режим

Фиг. 51 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса в аффинном взаимном режиме.

[0322] В аффинном взаимном режиме, как проиллюстрировано, сначала, модуль 126 взаимного прогнозирования извлекает MV-предикторы (v0, v1) или (v0, v1, v2) соответствующих двух или трех управляющих точек текущего блока (этап Sj_1). Управляющие точки, например, могут представлять собой верхнюю левую угловую точку для текущего блока, верхнюю правую угловую точку текущего блока и верхнюю правую угловую точку для текущего блока, как проиллюстрировано на фиг. 46A или фиг. 46B.

[0323] Например, когда способы MV-извлечения, проиллюстрированные на фиг. 48A и 48B, используются, модуль 126 взаимного прогнозирования извлекает MV-предикторы (v0, v1) или (v0, v1, v2) в соответствующих двух или трех управляющих точках для текущего блока посредством выбора MV любого из блоков из кодированных блоков около соответствующих управляющих точек для текущего блока, проиллюстрированного на фиг. 48A или фиг. 48B. В это время, модуль 126 взаимного прогнозирования кодирует, в потоке, информацию выбора MV-предикторов для идентификации выбранных двух или трех MV-предикторов.

[0324] Например, модуль 126 взаимного прогнозирования может определять, с использованием оценки затрат и т.п., блок, из которого выбирается MV в качестве MV-предиктора в управляющей точке, из числа кодированных блоков, граничащих с текущим блоком, и может записывать, в потоке битов, флаг, указывающий то, какой MV-предиктор выбран. Другими словами, модуль 126 взаимного прогнозирования выводит, в качестве параметра прогнозирования, информацию выбора MV-предикторов, такую как флаг, в энтропийный кодер 110 через формирователь 130 параметров прогнозирования.

[0325] Затем, модуль 126 взаимного прогнозирования выполняет оценку движения (этап Sj_3 и Sj_4) при обновлении MV-предиктора вектора, выбранного или извлеченного на этапе Sj_1 (этап Sj_2). Другими словами, модуль 126 взаимного прогнозирования вычисляет, в качестве аффинного MV, MV каждого из субблоков, который соответствует обновленному MV-предиктору, с использованием выражения (1A) либо выражения (1B), описанных выше (этап Sj_3). Модуль 126 взаимного прогнозирования затем выполняет компенсацию движения субблоков с использованием этих аффинных MV и кодированных опорных кадров (этап Sj_4). Процессы на этапе Sj_3 и Sj_4 выполняются для всех блоков в текущем блоке, когда MV-предиктор обновляется на этапе Sj_2. Как результат, например, модуль 126 взаимного прогнозирования определяет MV-предиктор, который дает в результате наименьшие затраты, в качестве MV в управляющей точке в контуре оценки движения (этап Sj_5). В это время, модуль 126 взаимного прогнозирования дополнительно кодирует, в потоке, значение разности между определенным MV и MV-предиктором в качестве MV-разности. Другими словами, модуль 126 взаимного прогнозирования выводит MV-разность в качестве параметра прогнозирования в энтропийный кодер 110 через формирователь 130 параметров прогнозирования.

[0326] В завершение, модуль 126 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения компенсации движения текущего блока с использованием определенного MV и кодированного опорного кадра (этап Sj_6).

[0327] Следует отметить, что вышеописанный список возможных MV-вариантов может формироваться на этапе Sj_1. Список возможных MV-вариантов, например, может представлять собой список, включающий в себя возможные MV-варианты, извлекаемые с использованием множества способов MV-извлечения для каждой управляющей точки. Множество способов MV-извлечения, например, могут представлять собой любую комбинацию способов MV-извлечения, проиллюстрированных на фиг. 47A-47C, способов MV-извлечения, проиллюстрированных на фиг. 48A и 48B, способов MV-извлечения, проиллюстрированных на фиг. 49A и 49B, и других способов MV-извлечения.

[0328] Следует отметить, что списки возможных MV-вариантов могут включать в себя возможные MV-варианты в режиме, в котором прогнозирование выполняется в единицах субблоков, отличном от аффинного режима.

[0329] Следует отметить, что, например, список возможных MV-вариантов, включающий в себя возможные MV-варианты в аффинном взаимном режиме, в котором используются две управляющих точки, и в аффинном взаимном режиме, в котором используются три управляющих точки, может формироваться в качестве списка возможных MV-вариантов. Альтернативно, список возможных MV-вариантов, включающий в себя возможные MV-варианты в аффинном взаимном режиме, в котором используются две управляющих точки, и список возможных MV-вариантов, включающий в себя возможные MV-варианты в аффинном взаимном режиме, в котором используются три управляющих точки, могут формироваться отдельно. Альтернативно, список возможных MV-вариантов, включающий в себя возможные MV-варианты в одном из аффинного взаимного режима, в котором используются две управляющих точки, и аффинного взаимного режима, в котором используются три управляющих точки, может формироваться. Возможный MV-вариант(ы), например, может представлять собой MV для кодированного блока A (левого), блока B (верхнего), блока C (верхнего правого), блока D (нижнего левого) и блока E (верхнего левого) или MV для эффективного блока из блоков.

[0330] Следует отметить, что индекс, указывающий один из возможных MV-вариантов в списке возможных MV-вариантов, может передаваться как информация выбора MV-предикторов.

[0331] MV-извлечение > треугольный режим

Модуль 126 взаимного прогнозирования формирует одно прямоугольное прогнозное изображение для текущего прямоугольного блока в вышеприведенном примере. Тем не менее, модуль 126 взаимного прогнозирования может формировать множество прогнозных изображений, имеющих форму, отличающуюся от прямоугольника, для текущего прямоугольного блока, и может комбинировать множество прогнозных изображений для того, чтобы формировать конечное прямоугольное прогнозное изображение. Форма, отличающаяся от прямоугольника, например, может представлять собой треугольник.

[0332] Фиг. 52A является концептуальной схемой для иллюстрации формирования двух треугольных прогнозных изображений.

[0333] Модуль 126 взаимного прогнозирования формирует треугольное прогнозное изображение посредством выполнения компенсации движения первого сегмента, имеющего треугольную форму в текущем блоке, посредством использования первого MV первого сегмента для того, чтобы формировать треугольное прогнозное изображение. Аналогично, модуль 126 взаимного прогнозирования формирует треугольное прогнозное изображение посредством выполнения компенсации движения второго сегмента, имеющего треугольную форму в текущем блоке, посредством использования второго MV второго сегмента для того, чтобы формировать треугольное прогнозное изображение. Модуль 126 взаимного прогнозирования затем формирует прогнозное изображение, имеющее прямоугольную форму, идентичную прямоугольной форме текущего блока, посредством комбинирования этих прогнозных изображений.

[0334] Следует отметить, что первое прогнозное изображение, имеющее прямоугольную форму, соответствующую текущему блоку, может формироваться в качестве прогнозного изображения для первого сегмента, с использованием первого MV. Помимо этого, второе прогнозное изображение, имеющее прямоугольную форму, соответствующую текущему блоку, может формироваться в качестве прогнозного изображения для второго сегмента, с использованием второго MV. Прогнозное изображение для текущего блока может формироваться посредством выполнения суммирования со взвешиванием первого прогнозного изображения и второго прогнозного изображения. Следует отметить, что часть, которая подвергается суммированию со взвешиванием, может представлять собой частичную область на границе между первым сегментом и вторым сегментом.

[0335] Фиг. 52B является концептуальной схемой для иллюстрации примеров первой части первого сегмента, которая перекрывается со вторым сегментом, и первого и второго наборов выборок, которые могут взвешиваться в качестве части процесса коррекции. Первая часть, например, может составлять одну четверть от ширины или высоты первого сегмента. В другом примере, первая часть может иметь ширину, соответствующую N выборок, смежных с краем первого сегмента, где N является целым числом, большим нуля, например, N может быть целым числом 2. Как проиллюстрировано, левый пример по фиг. 52B показывает прямоугольный сегмент, имеющий прямоугольную часть с шириной, которая составляет одну четверть от ширины первого сегмента, с первым набором выборок, включающим в себя выборки за пределами первой части и выборки внутри первой части, и вторым набором выборок, включающим в себя выборки внутри первой части. Центральный пример по фиг. 52B показывает прямоугольный сегмент, имеющий прямоугольную часть с высотой, которая составляет одну четверть от высоты первого сегмента, с первым набором выборок, включающим в себя выборки за пределами первой части и выборки внутри первой части, и вторым набором выборок, включающим в себя выборки внутри первой части. Правый пример по фиг. 52B показывает треугольный сегмент, имеющий многоугольную часть с высотой, которая соответствует двум выборкам, с первым набором выборок, включающим в себя выборки за пределами первой части и выборки внутри первой части, и вторым набором выборок, включающим в себя выборки внутри первой части.

[0336] Первая часть может составлять часть первого сегмента, которая перекрывается со смежным сегментом. Фиг. 52C является концептуальной схемой для иллюстрации первой части первого сегмента, которая составляет часть первого сегмента, которая перекрывается с частью смежного сегмента. Для простоты иллюстрации, показывается прямоугольный сегмент, имеющий перекрывающуюся часть с пространственно смежным прямоугольным сегментом. Сегменты, имеющие другие формы, к примеру, треугольные сегменты, могут использоваться, и перекрывающиеся части могут перекрываться с пространственно смежным или смежным во времени сегментом.

[0337] Помимо этого, хотя приводится пример, в котором прогнозное изображение формируется для каждого из двух сегментов с использованием взаимного прогнозирования, прогнозное изображение может формироваться, по меньшей мере, для одного сегмента с использованием внутреннего прогнозирования.

[0338] Фиг. 53 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса в треугольном режиме.

[0339] В треугольном режиме, во-первых, модуль 126 взаимного прогнозирования разбивает текущий блок на первый сегмент и второй сегмент (этап Sx_1). В это время, модуль 126 взаимного прогнозирования может кодировать, в потоке, информацию сегментов, которая представляет собой информацию, связанную с разбиением, на сегменты, в качестве параметра прогнозирования. Другими словами, модуль 126 взаимного прогнозирования может выводить информацию сегментов в качестве параметра прогнозирования в энтропийный кодер 110 через формирователь 130 параметров прогнозирования.

[0340] Во-первых, модуль 126 взаимного прогнозирования получает множество возможных MV-вариантов для текущего блока на основе такой информации, как MV множества кодированных блоков, временно или пространственно окружающих текущий блок (этап Sx_2). Другими словами, модуль 126 взаимного прогнозирования формирует список возможных MV-вариантов.

[0341] Модуль 126 взаимного прогнозирования затем выбирает возможный MV-вариант для первого сегмента и возможный MV-вариант для второго сегмента в качестве первого MV и второго MV, соответственно, из множества возможных MV-вариантов, полученных на этапе Sx_1 (этап Sx_3). В это время, модуль 126 взаимного прогнозирования кодирует, в потоке, информацию MV-выбора для идентификации выбранного возможного MV-варианта. Другими словами, модуль 126 взаимного прогнозирования выводит информацию MV-выбора в качестве параметра прогнозирования в энтропийный кодер 110 через формирователь 130 параметров прогнозирования.

[0342] Затем, модуль 126 взаимного прогнозирования формирует первое прогнозное изображение посредством выполнения компенсации движения с использованием выбранного первого MV и кодированного опорного кадра (этап Sx_4). Аналогично, модуль 126 взаимного прогнозирования формирует второе прогнозное изображение посредством выполнения компенсации движения с использованием выбранного второго MV и кодированного опорного кадра (этап Sx_5).

[0343] В завершение, модуль 126 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения суммирования со взвешиванием первого прогнозного изображения и второго прогнозного изображения (этап Sx_6).

[0344] Следует отметить, что хотя первый сегмент и второй сегмент представляют собой треугольники в примере, проиллюстрированном на фиг. 52A, первый сегмент и второй сегмент могут представлять собой трапеции либо другие формы, отличающиеся друг от друга. Кроме того, хотя текущий блок включает в себя два сегмента в примерах, проиллюстрированных на фиг. 52A и 52C, текущий блок может включать в себя три или более сегментов.

[0345] Помимо этого, первый сегмент и второй сегмент могут перекрываться между собой. Другими словами, первый сегмент и второй сегмент могут включать в себя идентичную пиксельную область. В этом случае, прогнозное изображение для текущего блока может формироваться с использованием прогнозного изображения в первом сегменте и прогнозного изображения во втором сегменте.

[0346] Помимо этого, хотя проиллюстрирован пример, в котором прогнозное изображение формируется для каждого из двух сегментов с использованием взаимного прогнозирования, прогнозное изображение может формироваться, по меньшей мере, для одного сегмента с использованием внутреннего прогнозирования.

[0347] Следует отметить, что список возможных MV-вариантов для выбора первого MV и список возможных MV-вариантов для выбора второго MV могут отличаться друг от друга, либо список возможных MV-вариантов для выбора первого MV также может использоваться в качестве списка возможных MV-вариантов для выбора второго MV.

[0348] Следует отметить, что информация сегментов может включать в себя индекс, указывающий направление разбиения, в котором, по меньшей мере, текущий блок разбивается на множество сегментов. Информация MV-выбора может включать в себя индекс, указывающий выбранный первый MV, и индекс, указывающий выбранный второй MV. Один индекс может указывать множество фрагментов информации. Например, один индекс, совместно указывающий часть или всю информацию сегментов и часть или всю информацию MV-выбора, может кодироваться.

[0349] MV-извлечение > ATMVP-режим

Фиг. 54 является концептуальной схемой для иллюстрации одного примера режима усовершенствованного временного прогнозирования векторов движения (ATMVP), в котором MV извлекается в единицах субблоков.

[0350] ATMVP-режим представляет собой режим, категоризированный на режим объединения. Например, в ATMVP-режиме, возможный MV-вариант для каждого субблока регистрируется в списке возможных MV-вариантов для использования в режиме нормального объединения.

[0351] Более конкретно, в ATMVP-режиме, во-первых, как проиллюстрировано на фиг. 54, временной опорный MV-блок, ассоциированный с текущим блоком, идентифицируется в кодированном опорном кадре, указываемом посредством MV (MV0) соседнего блока, расположенного в левой нижней позиции относительно текущего блока. Затем, в каждом субблоке в текущем блоке, идентифицируется MV, используемый для того, чтобы кодировать область, соответствующую субблоку во временном опорном MV-блоке. MV, идентифицированный таким образом, включается в список возможных MV-вариантов в качестве возможного MV-варианта для субблока в текущем блоке. Когда возможный MV-вариант для каждого субблока выбирается из списка возможных MV-вариантов, субблок подвергается компенсации движения, при которой возможный MV-вариант используется в качестве MV для субблока. Таким образом, прогнозное изображение для каждого субблока формируется.

[0352] Хотя блок, расположенный в левой нижней позиции относительно текущего блока, используется в качестве окружающего опорного MV-блока в примере, проиллюстрированном на фиг. 54, следует отметить, что может использоваться другой блок. Помимо этого, размер субблока может составлять 4×4 пикселов, 8×8 пикселов или другой размер. Размер субблока может переключаться для единицы, такой как срез, кирпич, кадр и т.д.

[0353] MV-извлечение > DMVR

Фиг. 55 является блок-схемой последовательности операций способа, иллюстрирующей взаимосвязь между режимом объединения и детализацией векторов движения в декодере (DMVR).

[0354] Модуль 126 взаимного прогнозирования извлекает вектор движения для текущего блока согласно режиму объединения (этап Sl_1). Затем, модуль 126 взаимного прогнозирования определяет то, следует или нет выполнять оценку вектора движения, т.е. оценку движения (этап Sl_2). Здесь, при определении необходимости не выполнять оценку движения ("Нет" на этапе Sl_2), модуль 126 взаимного прогнозирования определяет вектор движения, извлекаемый на этапе Sl_1, в качестве конечного вектора движения для текущего блока (этап Sl_4). Другими словами, в этом случае, вектор движения текущего блока определяется согласно режиму объединения.

[0355] При определении необходимости выполнять оценку движения на этапе Sl_1 ("Да" на этапе Sl_2), модуль 126 взаимного прогнозирования извлекает конечный вектор движения для текущего блока посредством оценки окружающей области опорного кадра, указываемого посредством вектора движения, извлекаемого на этапе Sl_1 (этап Sl_3). Другими словами, в этом случае, вектор движения текущего блока определяется согласно DMVR.

[0356] Фиг. 56 является концептуальной схемой для иллюстрации одного примера DMVR-процесса для определения MV.

[0357] Во-первых, в режиме объединения, например, возможные MV-варианты (L0 и L1) выбираются для текущего блока. Опорный пиксел идентифицируется из первого опорного кадра (L0), который представляет собой кодированный кадр в L0-списке согласно возможному MV-варианту (L0). Аналогично, опорный пиксел идентифицируется из второго опорного кадра (L1), который представляет собой кодированный кадр в L1-списке согласно возможному MV-варианту (L1). Эталон формируется посредством вычисления среднего этих опорных пикселов.

[0358] Затем, каждая из окружающих областей возможных MV-вариантов первого опорного кадра (L0) и второго опорного кадра (L1) оценивается с использованием эталона, и MV, который дает в результате наименьшие затраты, определяется в качестве конечного MV. Следует отметить, что затраты могут вычисляться, например, с использованием значения разности между каждым из пиксельных значений в эталоне и соответствующим одним из пиксельных значений в области оценки, значений возможных MV-вариантов и т.д.

[0359] Совершенно идентичные процессы, описанные здесь, не всегда должны обязательно выполняться. Другой процесс для обеспечения возможности извлечения конечного MV посредством оценки в окружающих областях возможных MV-вариантов может использоваться.

[0360] Фиг. 57 является концептуальной схемой для иллюстрации другого примера DMVR для определения MV. В отличие от примера DMVR, проиллюстрированного на фиг. 56, в примере, проиллюстрированном на фиг. 57, затраты вычисляются без формирования эталона.

[0361] Во-первых, модуль 126 взаимного прогнозирования оценивает окружающую область опорного блока, включенного в каждый из опорных кадров в L0-списке и L1-списке, на основе начального MV, который представляет собой возможный MV-вариант, полученный из каждого списка возможных MV-вариантов. Например, как проиллюстрировано на фиг. 57, начальный MV, соответствующий опорному блоку в L0-списке, представляет собой InitMV_L0, и начальный MV, соответствующий опорному блоку в L1-списке, представляет собой InitMV_L1. При оценке движения, модуль 126 взаимного прогнозирования сначала задает позицию поиска для опорного кадра в L0-списке. На основе позиции, указываемой посредством векторной разности, указывающей позицию поиска, которая должна задаваться, а именно, начального MV (т.е. InitMV_L0), векторная разность для позиции поиска представляет собой MVd_L0. Модуль 126 взаимного прогнозирования затем определяет оцениваемую позицию в опорном кадре в L1-списке. Эта позиция поиска указывается посредством векторной разности для позиции поиска из позиции, указываемой посредством начального MV (т.е. InitMV_L1). Более конкретно, модуль 126 взаимного прогнозирования определяет векторную разность в качестве MVd_L1 посредством зеркалирования MVd_L0. Другими словами, модуль 126 взаимного прогнозирования определяет позицию, которая является симметричной относительно позиции, указываемой посредством начального MV, в качестве позиции поиска в каждом опорном кадре в L0-списке и L1-списке. Модуль 126 взаимного прогнозирования вычисляет, для каждой позиции поиска, общую сумму абсолютных разностей (SAD) между значениями пикселов в позициях поиска в блоках в качестве затрат и узнает позицию поиска, которая дает в результате наименьшие затраты.

[0362] Фиг. 58A является концептуальной схемой для иллюстрации одного примера оценки движения в DMVR, и фиг. 58B является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса оценки движения.

[0363] Во-первых, на этапе 1, модуль 126 взаимного прогнозирования вычисляет затраты между позицией поиска (также называемой "начальной точкой"), указываемой посредством начального MV, и восемью окружающими позициями поиска. Модуль 126 взаимного прогнозирования затем определяет то, являются или нет затраты в каждой из позиций поиска, отличных от начальной точки, наименьшими. Здесь, при определении того, что затраты в позиции поиска, отличной от начальной точки, являются наименьшими, модуль 126 взаимного прогнозирования изменяет цель на позицию поиска, в которой наименьшие затраты получаются, и выполняет процесс на этапе 2. Когда затраты в начальной точке являются наименьшими, модуль 126 взаимного прогнозирования пропускает процесс на этапе 2 и выполняет процесс на этапе 3.

[0364] На этапе 2, модуль 126 взаимного прогнозирования выполняет поиск, аналогичный процессу на этапе 1, относительно, в качестве новой начальной точки, позиции поиска после того, как цель изменяется, согласно результату процесса на этапе 1. Модуль 126 взаимного прогнозирования затем определяет то, являются или нет затраты в каждой из позиций поиска, отличных от начальной точки, наименьшими. Здесь, при определении того, что затраты в позиции поиска, отличной от начальной точки, являются наименьшими, модуль 126 взаимного прогнозирования выполняет процесс на этапе 4. Когда затраты в начальной точке являются наименьшими, модуль 126 взаимного прогнозирования выполняет процесс на этапе 3.

[0365] На этапе 4, модуль 126 взаимного прогнозирования рассматривает позицию поиска в начальной точке в качестве конечной позиции поиска и определяет разность между позицией, указываемой посредством начального MV, и конечной позицией поиска в качестве векторной разности.

[0366] На этапе 3, модуль 126 взаимного прогнозирования определяет пиксельную позицию с субпиксельной точностью, при которой наименьшие затраты получаются, на основе затрат в четырех точках, расположенных в верхней, нижней, левой и правой позициях относительно начальной точки на этапе 1 или на этапе 2, и рассматривает пиксельную позицию в качестве конечной позиции поиска. Пиксельная позиция с субпиксельной точностью определяется посредством выполнения суммирования со взвешиванием каждого из четырех верхнего, нижнего, левого и правого векторов ((0, 1), (0,-1), (-1, 0) и (1, 0)), с использованием, в качестве весового коэффициента, затрат в соответствующих одной из четырех позиций поиска. Модуль 126 взаимного прогнозирования затем определяет разность между позицией, указываемой посредством начального MV, и конечной позицией поиска в качестве векторной разности.

[0367] Компенсация движения > BIO/OBMC/LIC

Компенсация движения заключает в себе режим для формирования прогнозного изображения и коррекции прогнозного изображения. Режим, например, представляет собой двунаправленный оптический поток (BIO), перекрывающуюся блочную компенсацию движения (OBMC), компенсацию локальной освещенности (LIC), которые описываются ниже, и т.д.

[0368] Фиг. 59 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса формирования прогнозного изображения.

[0369] Модуль 126 взаимного прогнозирования формирует прогнозное изображение (этап Sm_1) и корректирует прогнозное изображение согласно любому из режимов, описанных выше (этап Sm_2).

[0370] Фиг. 60 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса формирования прогнозного изображения.

[0371] Модуль 126 взаимного прогнозирования определяет вектор движения текущего блока (этап Sn_1). Затем, модуль 126 взаимного прогнозирования формирует прогнозное изображение с использованием вектора движения (этап Sn_2) и определяет то, следует или нет выполнять процесс коррекции (этап Sn_3). Здесь, при определении необходимости выполнять процесс коррекции ("Да" на этапе Sn_3), модуль 126 взаимного прогнозирования формирует конечное прогнозное изображение посредством коррекции прогнозного изображения (этап Sn_4). Следует отметить, что в LIC, описанной ниже, яркость и цветность может корректироваться на этапе Sn_4. При определении необходимости не выполнять процесс коррекции ("Нет" на этапе Sn_3), модуль 126 взаимного прогнозирования выводит прогнозное изображение в качестве конечного прогнозного изображения без коррекции прогнозного изображения (этап Sn_5).

[0372] Компенсация движения > OBMC

Следует отметить, что взаимное прогнозное изображение может формироваться с использованием информации движения для соседнего блока в дополнение к информации движения для текущего блока, полученной посредством оценки движения. Более конкретно, взаимное прогнозное изображение может формироваться для каждого субблока в текущем блоке посредством выполнения суммирования со взвешиванием прогнозного изображения на основе информации движения, полученной посредством оценки движения (в опорном кадре), и прогнозного изображения на основе информации движения соседнего блока (в текущем кадре). Такое взаимное прогнозирование (компенсация движения) также называется "перекрывающейся блочной компенсацией движения (OBMC)" или "OBMC-режимом".

[0373] В OBMC-режиме, информация, указывающая размер субблока для OBMC (называется, например, "размером OBMC-блока"), может передаваться в служебных сигналах на уровне последовательности. Кроме того, информация, указывающая то, следует или нет применять OBMC-режим (называется, например, "OBMC-флагом"), передается в служебных сигналах на уровне CU. Следует отметить, что передача в служебных сигналах этой информации не должна обязательно выполняться на уровне последовательности и уровне CU и может выполняться на другом уровне (например, на уровне кадра, уровне среза, уровне кирпича, уровне CTU или уровне субблока).

[0374] В дальнейшем подробнее описывается OBMC-режим. Фиг. 61 и 62 являются блок-схемой последовательности операций способа и концептуальной схемой для иллюстрации краткого представления процесса коррекции прогнозных изображений, выполняемого посредством OBMC.

[0375] Во-первых, как проиллюстрировано на фиг. 62, прогнозное изображение (Pred) посредством нормальной компенсации движения получается с использованием MV, назначенного текущему блоку. На фиг. 62, стрелка "MV" указывает на опорный кадр и указывает то, на что ссылается текущий блок текущего кадра, чтобы получать прогнозное изображение.

[0376] Затем, прогнозное изображение (Pred_L) получается посредством применения вектора (MV_L) движения, который уже извлечен для кодированного блока, соседнего слева от текущего блока, к текущему блоку (многократного использования вектора движения для текущего блока). Вектор (MV_L) движения указывается посредством стрелки "MV_L", указывающей опорный кадр, из текущего блока. Первая коррекция прогнозного изображения выполняется посредством перекрытия двух прогнозных изображений Pred и Pred_L. Это предоставляет преимущество смешивания границы между соседними блоками.

[0377] Аналогично, прогнозное изображение (Pred_U) получается посредством применения MV (MV_U), который уже извлечен для кодированного блока, соседнего выше текущего блока, к текущему блоку (многократного использования MV для текущего блока). MV (MV_U) указывается посредством стрелки "MV_U", указывающей опорный кадр, из текущего блока. Вторая коррекция прогнозного изображения выполняется посредством перекрытия прогнозного изображения Pred_U с прогнозными изображениями (например, Pred и Pred_L), для которых выполнена первая коррекция. Это предоставляет преимущество смешивания границы между соседними блоками. Прогнозное изображение, полученное посредством второй коррекции, представляет собой прогнозное изображение, в котором граница между соседними блоками смешивается (сглаживается), и в силу этого представляет собой конечное прогнозное изображение текущего блока.

[0378] Хотя вышеприведенный пример представляет собой способ коррекции с двумя трактами с использованием левого и верхнего соседних блоков, следует отметить, что способ коррекции может представлять собой способ коррекции с тремя или более трактов с использованием также правого соседнего блока и/или нижнего соседнего блока.

[0379] Следует отметить, что область, в которой выполняется такое перекрытие, может составлять только часть области около границы блока вместо пиксельной области всего блока.

[0380] Следует отметить, что выше описывается процесс коррекции прогнозных изображений согласно OBMC для получения одного прогнозного изображения Pred из одного опорного кадра посредством перекрытия дополнительного прогнозного изображения Pred_L и Pred_U. Тем не менее, когда прогнозное изображение корректируется на основе множества опорных изображений, аналогичный процесс может применяться к каждому из множества опорных кадров. В таком случае, после того, как скорректированные прогнозные изображения получаются из соответствующих опорных кадров посредством выполнения OBMC-коррекции изображений на основе множества опорных кадров, полученные скорректированные прогнозные изображения дополнительно перекрываются, чтобы получать конечное прогнозное изображение.

[0381] Следует отметить, что, в OBMC, текущая блочная единица может представлять собой PU или субблочную единицу, полученную посредством дополнительного разбиения PU.

[0382] Один пример способа для определения того, следует или нет применять OBMC, представляет собой способ для использования obmc_flag, который представляет собой сигнал, указывающий то, следует или нет применять OBMC. В качестве одного конкретного примера, кодер 100 может определять то, принадлежит или нет текущий блок области, имеющей усложненное движение. Кодер задает obmc_flag равным значению "1", когда блок принадлежит области, имеющей усложненное движение, и применяет OBMC при кодировании и задает obmc_flag равным значению "0", когда блок не принадлежит области, имеющей усложненное движение, и кодирует блок без применения OBMC. Декодер 200 переключается между применением и неприменением OBMC посредством декодирования obmc_flag, записываемого в поток.

[0383] Компенсация движения > BIO

Далее описывается способ MV-извлечения. Во-первых, описывается режим для извлечения MV на основе модели при условии равномерного прямолинейного движения. Этот режим также называется "режимом двунаправленного оптического потока (BIO)". Помимо этого, этот двунаправленный оптический поток может записываться в качестве BDOF вместо BIO.

[0384] Фиг. 63 является концептуальной схемой для иллюстрации модели при условии равномерного прямолинейного движения. На фиг. 63, (vx, vy) указывает вектор скорости, и τ0 и τ1 указывают временные расстояния между текущим кадром (Cur Pic) и двумя опорными кадрами (Ref0, Ref1). (MVx0, MVy0) указывают MV, соответствующие опорному кадру Ref0, и (MVx1, MVy1) указывают MV, соответствующие опорному кадру Ref0.

[0385] Здесь, согласно допущению относительно равномерного прямолинейного движения, демонстрируемого посредством вектора скорости (vx, vy), (MVx0, MVy0) и (MVx1, MVy1) представляются как (vxτ0, vyτ0) и (-vxτ1,- vyτ1), соответственно, и задается следующее уравнение (2) оптического потока:

[0386] Математическое выражение 3

[0387] Здесь, I(k) указывает значение сигнала яркости с компенсацией движения опорного кадра k (k=0, 1) после компенсации движения. Это уравнение оптического потока показывает то, что сумма (i) производной по времени значения сигнала яркости, (ii) произведения горизонтальной скорости и горизонтального компонента пространственного градиента опорного изображения и (iii) произведения вертикальной скорости и вертикального компонента пространственного градиента опорного изображения равна нулю. Вектор движения каждого блока, полученный, например, из списка возможных MV-вариантов, может корректироваться в единицах пикселов, на основе комбинации уравнения оптического потока и эрмитовой интерполяции.

[0388] Следует отметить, что вектор движения может извлекаться на стороне декодера 200 с использованием способа, отличного от извлечения вектора движения, на основе модели при условии равномерного прямолинейного движения. Например, вектор движения может извлекаться в единицах субблока на основе векторов движения множества соседних блоков.

[0389] Фиг. 64 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса взаимного прогнозирования согласно BIO. Фиг. 65 является функциональной блок-схемой, иллюстрирующей один пример функциональной конфигурации модуля 126 взаимного прогнозирования, который может выполнять взаимное прогнозирование согласно BIO.

[0390] Как проиллюстрировано на фиг. 65, модуль 126 взаимного прогнозирования включает в себя, например, запоминающее устройство 126a, модуль 126b извлечения интерполированных изображений, модуль 126c извлечения градиентных изображений, модуль 126d извлечения оптических потоков, модуль 126e извлечения значений коррекции и корректор 126f прогнозных изображений. Следует отметить, что запоминающее устройство 126a может представлять собой запоминающее устройство 122 кинокадров.

[0391] Модуль 126 взаимного прогнозирования извлекает два вектора (M0, M1) движения с использованием двух опорных кадров (Ref0, Ref1), отличающихся от кадра (Cur Pic), включающего в себя текущий блок. Модуль 126 взаимного прогнозирования затем извлекает прогнозное изображение для текущего блока с использованием двух векторов (M0, M1) движения (этап Sy_1). Следует отметить, что вектор M0 движения представляет собой вектор (MVx0, MVy0) движения, соответствующий опорному кадру Ref0, и вектор M1 движения представляет собой вектор (MVx1, MVy1) движения, соответствующий опорному кадру Ref1.

[0392] Затем, модуль 126b извлечения интерполированных изображений извлекает интерполированное изображение I0 для текущего блока с использованием вектора M0 движения и опорного кадра L0 посредством обращения к запоминающему устройству 126a. Помимо этого, модуль 126b извлечения интерполированных изображений извлекает интерполированное изображение I1 для текущего блока с использованием вектора M1 движения и опорного кадра L1 посредством обращения к запоминающему устройству 126a (этап Sy_2). Здесь, интерполированное изображение I0 представляет собой изображение, включенное в опорный кадр Ref0, и которое должно извлекаться для текущего блока, и интерполированное изображение I1 представляет собой изображение, включенное в опорный кадр Ref1, и которое должно извлекаться для текущего блока. Каждое из интерполированного изображения I0 и интерполированного изображения I1 может иметь размер, идентичный размеру текущего блока. Альтернативно, каждое из интерполированного изображения I0 и интерполированного изображения I1 может представлять собой изображение, большее текущего блока. Кроме того, интерполированное изображение I0 и интерполированное изображение I1 могут включать в себя прогнозное изображение, полученное посредством использования векторов (M0, M1) движения и опорных кадров (L0, L1) и применения фильтра для компенсации движения.

[0393] Помимо этого, модуль 126c извлечения градиентных изображений извлекает градиентные изображения (Ix0, Ix1, Iy0, Iy1) текущего блока из интерполированного изображения I0 и интерполированного изображения I1 (этап Sy_3). Следует отметить, что градиентные изображения в горизонтальном направлении представляют собой (Ix0, Ix1), и градиентные изображения в вертикальном направлении представляют собой (Iy0, Iy1). Модуль 126c извлечения градиентных изображений может извлекать каждое градиентное изображение, например, посредством применения градиентного фильтра к интерполированным изображениям. Градиентное изображение может указывать величину пространственного изменения пиксельного значения вдоль горизонтального направления, вдоль вертикального направления либо вдоль обоих направлений.

[0394] Затем, модуль 126d извлечения оптических потоков извлекает, для каждого субблока текущего блока, оптический поток (vx, vy), который представляет собой вектор скорости, с использованием интерполированных изображений (I0, I1) и градиентных изображений (Ix0, Ix1, Iy0, Iy1) (этап Sy_4). Оптический поток указывает коэффициенты для коррекции величины пространственного пиксельного перемещения и может называться "локальным значением оценки движения", "скорректированным вектором движения" или "скорректированным весовым вектором". В качестве одного примера, субблок может представлять собой 4×4-пиксельную суб-CU. Следует отметить, что извлечение оптических потоков может выполняться для каждой единицы пикселов и т.п. вместо выполнения для каждого субблока.

[0395] Затем, модуль 126 взаимного прогнозирования корректирует прогнозное изображение для текущего блока с использованием оптического потока (vx, vy). Например, модуль 126e извлечения значений коррекции извлекает значение коррекции для значения пиксела, включенного в текущий блок, с использованием оптического потока (vx, vy) (этап Sy_5). Корректор 126f прогнозных изображений затем может корректировать прогнозное изображение для текущего блока с использованием значения коррекции (этап Sy_6). Следует отметить, что значение коррекции может извлекаться в единицах пиксела либо может извлекаться в единицах множества пикселов или в единицах субблоков.

[0396] Следует отметить, что поток BIO-процесса не ограничен процессом, раскрытым на фиг. 64. Например, только часть процессов, раскрытых на фиг. 64, может выполняться, либо другой процесс может добавляться или использоваться в качестве замены, либо процессы могут выполняться в другом порядке обработки и т.д.

[0397] Компенсация движения > LIC

Далее описывается один пример режима для формирования прогнозного изображения (прогнозирования) с использованием процесса компенсации локальной освещенности (LIC).

[0398] Фиг. 66A является концептуальной схемой для иллюстрации одного примера процесса для способа формирования прогнозных изображений с использованием процесса коррекции яркости, выполняемого посредством LIC. Фиг. 66B является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса для способа формирования прогнозных изображений с использованием LIC.

[0399] Во-первых, модуль 126 взаимного прогнозирования извлекает MV из кодированного опорного кадра и получает опорное изображение, соответствующее текущему блоку (этап Sz_1).

[0400] Затем, модуль 126 взаимного прогнозирования извлекает, для текущего блока, информацию, указывающую то, как значение сигнала яркости изменено между текущим блоком и опорным кадром (этап Sz_2). Это извлечение выполняется на основе пиксельных значений сигнала яркости кодированной левой соседней опорной области (окружающей опорной области) и кодированной верхней соседней опорной области (окружающей опорной области) в текущем кадре и пиксельных значений сигнала яркости в соответствующих позициях в опорном кадре, указываемых посредством извлеченных MV. Модуль 126 взаимного прогнозирования вычисляет параметр коррекции яркости, с использованием информации, указывающей то, как значение сигнала яркости изменено (этап Sz_3).

[0401] Модуль 126 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения процесса коррекции яркости, в котором параметр коррекции яркости применяется к опорному изображению в опорном кадре, указываемом посредством MV (этап Sz_4). Другими словами, прогнозное изображение, которое представляет собой опорное изображение в опорном кадре, указываемом посредством MV, подвергается коррекции на основе параметра коррекции яркости. При этой коррекции, яркость может корректироваться, либо цветность может корректироваться, либо и то, и другое может корректироваться. Другими словами, параметр коррекции цветности может вычисляться с использованием информации, указывающей то, как цветность изменена, и процесс коррекции цветности может выполняться.

[0402] Следует отметить, что форма окружающей опорной области, проиллюстрированной на фиг. 66A, представляет собой один пример; может использоваться другая форма.

[0403] Кроме того, хотя здесь описывается процесс, в котором прогнозное изображение формируется из одного опорного кадра, идентично могут описываться случаи, в которых прогнозное изображение формируется из множества опорных кадров. Прогнозное изображение может формироваться после выполнения процесса коррекции яркости опорных изображений, полученных из опорных кадров, идентично вышеописанному.

[0404] Один пример способа для определения того, следует или нет применять LIC, представляет собой способ для использования lic_flag, который представляет собой сигнал, указывающий то, следует или нет применять LIC. В качестве одного конкретного примера, кодер 100 определяет то, принадлежит или нет текущий блок области, имеющей изменение яркости. Кодер 100 задает lic_flag равным значению "1", когда блок принадлежит области, имеющей изменение яркости, и применяет LIC при кодировании и задает lic_flag равным значению "0", когда блок не принадлежит области, имеющей изменение яркости, и выполняет кодирование без применения LIC. Декодер 200 может декодировать lic_flag, записываемый в потоке, и декодировать текущий блок посредством переключения между применением и неприменением LIC в соответствии со значением флага.

[0405] Один пример другого способа определения того, следует или нет применять LIC-процесс, представляет собой способ определения в соответствии с тем, применен или нет LIC-процесс к окружающему блоку. В качестве одного конкретного примера, когда текущий блок обрабатывается в режиме объединения, модуль 126 взаимного прогнозирования определяет то, кодирован или нет кодированный окружающий блок, выбранный при MV-извлечении в режиме объединения, с использованием LIC. Модуль 126 взаимного прогнозирования выполняет кодирование посредством переключения между применением и неприменением LIC согласно результату. Следует отметить, что также в этом примере, идентичные процессы применяются в процессах на стороне декодера 200.

[0406] Процесс коррекции яркости (LIC) описывается со ссылкой на фиг. 66A и 66B и дополнительно описывается ниже.

[0407] Во-первых, модуль 126 взаимного прогнозирования извлекает MV для получения опорного изображения, соответствующего текущему блоку, который должен кодироваться, из опорного кадра, который представляет собой кодированный кадр.

[0408] Затем, модуль 126 взаимного прогнозирования извлекает информацию, указывающую то, как значение сигнала яркости опорного кадра изменено на значение сигнала яркости текущего кадра, с использованием пиксельных значений сигнала яркости кодированных окружающих опорных областей, которые являются соседними слева от или выше текущего блока, и значений сигнала яркости в соответствующих позициях в опорных кадрах, указываемых посредством MV, и вычисляет параметр коррекции яркости. Например, предполагается, что пиксельное значение сигнала яркости данного пиксела в окружающей опорной области в текущем кадре составляет p0, и что пиксельное значение сигнала яркости пиксела, соответствующего данному пикселу в окружающей опорной области в опорном кадре, составляет p1. Модуль 126 взаимного прогнозирования вычисляет коэффициенты A и B для оптимизации A*p1+B=p0 в качестве параметра коррекции яркости для множества пикселов в окружающей опорной области.

[0409] Затем, модуль 126 взаимного прогнозирования выполняет процесс коррекции яркости с использованием параметра коррекции яркости для опорного изображения в опорном кадре, указываемом посредством MV, чтобы формировать прогнозное изображение для текущего блока. Например, предполагается, что пиксельное значение сигнала яркости в опорном изображении составляет p2, и что скорректированное по яркости пиксельное значение сигнала яркости прогнозного изображения составляет p3. Модуль 126 взаимного прогнозирования формирует прогнозное изображение после подвергания процессу коррекции яркости посредством вычисления A*p2+B=p3 для каждого из пикселов в опорном изображении.

[0410] Например, область, имеющая определенное число пикселов, извлеченных из каждого из верхнего соседнего пиксела и левого соседнего пиксела, может использоваться в качестве окружающей опорной области. Помимо этого, окружающая опорная область не ограничена областью, которая является соседней с текущим блоком, и может представлять собой область, которая не является соседней с текущим блоком. В примере, проиллюстрированном на фиг. 66A, окружающая опорная область в опорном кадре может представлять собой область, указываемую посредством другого MV в текущем кадре, из окружающей опорной области в текущем кадре. Например, другой MV может представлять собой MV в окружающей опорной области в текущем кадре.

[0411] Хотя здесь описываются операции, выполняемые посредством кодера 100, следует отметить, что декодер 200 выполняет аналогичные операции.

[0412] Следует отметить, что LIC может применяться не только к сигналу яркости, но также и к сигналу цветности. В это время, параметр коррекции может извлекаться отдельно для каждого из Y, Cb и Cr, или общий параметр коррекции может использоваться для любого из Y, Cb и Cr.

[0413] Помимо этого, LIC-процесс может применяться в единицах субблоков. Например, параметр коррекции может извлекаться с использованием окружающей опорной области в текущем субблоке и окружающей опорной области в опорном субблоке в опорном кадре, указываемом посредством MV текущего субблока.

[0414] Контроллер прогнозирования

Контроллер 128 прогнозирования выбирает один из внутреннего прогнозного сигнала (изображения или сигнала, выводимого из модуля 124 внутреннего прогнозирования) и взаимного прогнозного сигнала (изображения или сигнала, выводимого из модуля 126 взаимного прогнозирования) и выводит выбранное прогнозное изображение в вычитатель 104 и сумматор 116 в качестве прогнозного сигнала.

[0415] Формирователь параметров прогнозирования

Формирователь 130 параметров прогнозирования может выводить информацию, связанную с внутренним прогнозированием, взаимным прогнозированием, выбором прогнозного изображения в контроллере 128 прогнозирования и т.д. в качестве параметра прогнозирования в энтропийный кодер 110. Энтропийный кодер 110 может формировать поток, на основе параметра прогнозирования, который вводится из формирователя 130 параметров прогнозирования, и квантованных коэффициентов, которые вводятся из квантователя 108. Параметр прогнозирования может использоваться в декодере 200. Декодер 200 может принимать и декодировать поток и выполнять процессы, идентичные процессам прогнозирования, выполняемым посредством модуля 124 внутреннего прогнозирования, модуля 126 взаимного прогнозирования и контроллера 128 прогнозирования. Параметр прогнозирования может включать в себя, например, (i) выбираемый прогнозный сигнал (например, MV, тип прогнозирования или режим прогнозирования, используемый посредством модуля 124 внутреннего прогнозирования или модуля 126 взаимного прогнозирования), или (ii) необязательный индекс, флаг или значение, которое основано на процессе прогнозирования, выполняемом в каждом из модуля 124 внутреннего прогнозирования, модуля 126 взаимного прогнозирования и контроллера 128 прогнозирования, либо которое указывает процесс прогнозирования.

[0416] Декодер

Далее описывается декодер 200, допускающий декодирование потока, выводимого из кодера 100, описанного выше. Фиг. 67 является блок-схемой, иллюстрирующей функциональную конфигурацию декодера 200 согласно этому варианту осуществления. Декодер 200 представляет собой оборудование, которое декодирует поток, который представляет собой кодированное изображение в единицах блоков.

[0417] Как проиллюстрировано на фиг. 67, декодер 200 включает в себя энтропийный декодер 202, обратный квантователь 204, обратный преобразователь 206, сумматор 208, запоминающее устройство 210 блоков, контурный фильтр 212, запоминающее устройство 214 кинокадров, модуль 216 внутреннего прогнозирования, модуль 218 взаимного прогнозирования, контроллер 220 прогнозирования, формирователь 222 параметров прогнозирования и модуль 224 определения разбиения. Следует отметить, что модуль 216 внутреннего прогнозирования и модуль 218 взаимного прогнозирования сконфигурированы как часть модуля выполнения прогнозирования.

[0418] Пример монтажа декодера

Фиг. 68 является функциональной блок-схемой, иллюстрирующей пример монтажа декодера 200. Декодер 200 включает в себя процессор b1 и запоминающее устройство b2. Например, множество составляющих элементов декодера 200, проиллюстрированного на фиг. 67, смонтированы в процессоре b1 и запоминающем устройстве b2, проиллюстрированных на фиг. 68.

[0419] Процессор b1 представляет собой схему, которая выполняет обработку информации, и соединяется с запоминающим устройством b2. Например, процессор b1 представляет собой специализированную или общую электронную схему, которая декодирует поток. Процессор b1 может представлять собой процессор, такой как CPU. Помимо этого, процессор b1 может представлять собой совокупность множества электронных схем. Помимо этого, например, процессор b1 может выполнять роли двух или более составляющих элементов, отличных от составляющего элемента для сохранения информации, из множества составляющих элементов декодера 200, проиллюстрированного на фиг. 67, и т.д.

[0420] Запоминающее устройство b2 представляет собой специализированное или общее запоминающее устройство для сохранения информации, которая используется посредством процессора b1 для того, чтобы декодировать поток. Запоминающее устройство b2 может представлять собой электронную схему и может соединяться с процессором b1. Помимо этого, запоминающее устройство b2 может включаться в процессор b1. Помимо этого, запоминающее устройство b2 может представлять собой совокупность множества электронных схем. Помимо этого, запоминающее устройство b2 может представлять собой магнитный диск, оптический диск и т.п. либо может представляться как устройство хранения данных, носитель записи и т.п. Помимо этого, запоминающее устройство b2 может представлять собой энергонезависимое запоминающее устройство или энергозависимое запоминающее устройство.

[0421] Например, запоминающее устройство b2 может сохранять изображение или поток. Помимо этого, запоминающее устройство b2 может сохранять программу для инструктирования процессору b1 декодировать поток.

[0422] Помимо этого, например, запоминающее устройство b2 может выполнять роли двух или более составляющих элементов для сохранения информации из множества составляющих элементов декодера 200, проиллюстрированного на фиг. 67, и т.д. Более конкретно, запоминающее устройство b2 может выполнять роли запоминающего устройства 210 блоков и запоминающего устройства 214 кинокадров, проиллюстрированных на фиг. 67. Более конкретно, запоминающее устройство b2 может сохранять восстановленное изображение (в частности, восстановленный блок, восстановленный кадр и т.п.).

[0423] Следует отметить, что, в декодере 200, не все из множества составляющих элементов, проиллюстрированных на фиг. 67 и т.д., могут реализовываться, и не все процессы, описанные в данном документе, могут выполняться. Часть составляющих элементов, указываемых на фиг. 67 и т.д., может включаться в другое устройство, или часть процессов, описанных в данном документе, может выполняться посредством другого устройства.

[0424] В дальнейшем в этом документе, описывается полная последовательность операций процессов, выполняемых посредством декодера 200, и после этого описывается каждый из составляющих элементов, включенных в декодер 200. Следует отметить, что некоторые составляющие элементы, включенные в декодер 200, выполняют процессы, идентичные процессам, выполняемым посредством части кодера 100, и в силу этого идентичные процессы подробно не описываются повторно. Например, обратный квантователь 204, обратный преобразователь 206, сумматор 208, запоминающее устройство 210 блоков, запоминающее устройство 214 кинокадров, модуль 216 внутреннего прогнозирования, модуль 218 взаимного прогнозирования, контроллер 220 прогнозирования и контурный фильтр 212, включенные в декодер 200, выполняют процессы, аналогичные процессам, выполняемым посредством обратного квантователя 112, обратного преобразователя 114, сумматора 116, запоминающего устройства 118 блоков, запоминающего устройства 122 кинокадров, модуля 124 внутреннего прогнозирования, модуля 126 взаимного прогнозирования, контроллера 128 прогнозирования и контурного фильтра 120, включенных в декодер 200, соответственно.

[0425] Общая последовательность операций процесса декодирования

Фиг. 69 является блок-схемой последовательности операций способа, иллюстрирующей один пример полного процесса декодирования, выполняемого посредством декодера 200.

[0426] Во-первых, модуль 224 определения разбиения в декодере 200 определяет шаблон разбиения каждого из множества блоков фиксированного размера (128×128 пикселов), включенных в кадр, на основе параметра, который вводится из энтропийного декодера 202 (этап Sp_1). Этот шаблон разбиения представляет собой шаблон разбиения, выбранный посредством кодера 100. Декодер 200 затем выполняет процессы этапа Sp_2-Sp_6 для каждого из множества блоков шаблона разбиения.

[0427] Энтропийный декодер 202 декодирует (в частности, энтропийно декодирует) кодированные квантованные коэффициенты и параметр прогнозирования текущего блока (этап Sp_2).

[0428] Затем, обратный квантователь 204 выполняет обратное квантование множества квантованных коэффициентов, и обратный преобразователь 206 выполняет обратное преобразование результата для того, чтобы восстанавливать остатки прогнозирования (т.е. разностный блок) (этап Sp_3).

[0429] Затем, модуль выполнения прогнозирования, включающий в себя все или часть из модуля 216 внутреннего прогнозирования, модуля 218 взаимного прогнозирования и контроллера 220 прогнозирования, формирует прогнозный сигнал текущего блока (этап Sp_4).

[0430] Затем, сумматор 208 суммирует прогнозное изображение с остатком прогнозирования для того, чтобы формировать восстановленное изображение (также называется "декодированным блоком изображений") текущего блока (этап Sp_5).

[0431] Когда восстановленное изображение формируется, контурный фильтр 212 выполняет фильтрацию восстановленного изображения (этап Sp_6).

[0432] Декодер 200 затем определяет то, закончено или нет декодирование всего кадра (этап Sp_7). При определении того, что декодирование еще не закончено ("Нет" на этапе Sp_7), декодер 200 повторяет процессы, начиная с этапа Sp_1.

[0433] Следует отметить, что процессы этих этапов Sp_1-Sp_7 могут выполняться последовательно посредством декодера 200, либо два или более процессов могут выполняться параллельно. Порядок обработки двух или более процессов может модифицироваться.

[0434] Модуль определения разбиения

Фиг. 70 является концептуальной схемой для иллюстрации взаимосвязи между модулем 224 определения разбиения и другими составляющими элементами в варианте осуществления. Модуль 224 определения разбиения может выполнять следующие процессы в качестве примеров.

[0435] Например, модуль 224 определения разбиения собирает информацию блоков из запоминающего устройства 210 блоков или запоминающего устройства 214 кинокадров и, кроме того, получает параметр из энтропийного декодера 202. Модуль 224 определения разбиения затем может определять шаблон разбиения блока фиксированного размера, на основе информации блоков и параметра. Модуль 224 определения разбиения затем может выводить информацию, указывающую определенный шаблон разбиения, в обратный преобразователь 206, модуль 216 внутреннего прогнозирования и модуль 218 взаимного прогнозирования. Обратный преобразователь 206 может выполнять обратное преобразование коэффициентов преобразования, на основе шаблона разбиения, указываемого посредством информации из модуля 224 определения разбиения. Модуль 216 внутреннего прогнозирования и модуль 218 взаимного прогнозирования могут формировать прогнозное изображение, на основе шаблона разбиения, указываемого посредством информации из модуля 224 определения разбиения.

[0436] Энтропийный декодер

Фиг. 71 является блок-схемой, иллюстрирующей один пример функциональной конфигурации энтропийного декодера 202.

[0437] Энтропийный декодер 202 формирует квантованные коэффициенты, параметр прогнозирования и параметр, связанный с шаблоном разбиения, посредством энтропийного декодирования потока. Например, CABAC используется при энтропийном декодировании. Более конкретно, энтропийно декодировать 202, включает в себя, например, двоичный арифметический декодер 202a, контроллер 202b контекстов и модуль 202c отмены преобразования в двоичную форму. Двоичный арифметический декодер 202a арифметически декодирует поток с использованием значения контекста, извлекаемого посредством контроллера 202b контекстов, в двоичный сигнал. Контроллер 202b контекстов извлекает значение контекста согласно признаку или окружающему состоянию синтаксического элемента, которое представляет собой вероятность возникновения двоичного сигнала, идентично тому, что выполняется посредством контроллера 110b контекстов кодера 100. Модуль 202c отмены преобразования в двоичную форму выполняет отмену преобразования в двоичную форму для преобразования двоичного сигнала, выводимого из двоичного арифметического декодера 202a, в многоуровневый сигнал, указывающий квантованные коэффициенты, как описано выше. Это преобразование в двоичную форму может выполняться согласно способу преобразования в двоичную форму, описанному выше.

[0438] Вследствие этого, энтропийный декодер 202 выводит квантованные коэффициенты каждого блока в обратный квантователь 204. Энтропийный декодер 202 может выводить параметр прогнозирования, включенный в поток (см. фиг. 1), в модуль 216 внутреннего прогнозирования, модуль 218 взаимного прогнозирования и контроллер 220 прогнозирования. Модуль 216 внутреннего прогнозирования, модуль 218 взаимного прогнозирования и контроллер 220 прогнозирования допускают выполнение процессов прогнозирования, идентичных процессам прогнозирования, выполняемым посредством модуля 124 внутреннего прогнозирования, модуля 126 взаимного прогнозирования и контроллера 128 прогнозирования на стороне кодера 100.

[0439] Фиг. 72 является концептуальной схемой для иллюстрации последовательности операций примерного CABAC-процесса в энтропийном декодере 202.

[0440] Во-первых, инициализация выполняется в CABAC в энтропийном декодере 202. При инициализации, инициализация в двоичном арифметическом декодере 202a и задание начального значения контекста выполняется. Двоичный арифметический декодер 202a и модуль 202c отмены преобразования в двоичную форму затем выполняют арифметическое декодирование и отмену преобразования в двоичную форму, например, кодированных данных CTU. В это время, контроллер 202b контекстов обновляет значение контекста каждый раз, когда выполняется арифметическое декодирование. Контроллер 202b контекстов затем сохраняет значение контекста в качестве постобработки. Сохраненное значение контекста используется, например, чтобы инициализировать значение контекста для следующей CTU.

[0441] Обратный квантователь

Обратный квантователь 204 обратно квантует квантованные коэффициенты текущего блока, которые представляют собой вводы из энтропийного декодера 202. Более конкретно, обратный квантователь 204 обратно квантует квантованные коэффициенты текущего блока, на основе параметров квантования, соответствующих квантованным коэффициентам. Обратный квантователь 204 затем выводит обратно квантованные коэффициенты преобразования (которые представляют собой коэффициенты преобразования) текущего блока в обратный преобразователь 206.

[0442] Фиг. 73 является блок-схемой, иллюстрирующей один пример функциональной конфигурации обратного квантователя 204.

[0443] Обратный квантователь 204 включает в себя, например, формирователь 204a параметров квантования, формирователь 204b прогнозированных параметров квантования, устройство 204d хранения параметров квантования и модуль 204e выполнения обратного квантования.

[0444] Фиг. 74 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса обратного квантования, выполняемого посредством обратного квантователя 204.

[0445] Обратный квантователь 204 может выполнять процесс обратного квантования в качестве одного примера для каждой CU на основе последовательности операций, проиллюстрированной на фиг. 74. Более конкретно, формирователь 204a параметров квантования определяет то, следует или нет выполнять обратное квантование (этап Sv_11). Здесь, при определении необходимости выполнять обратное квантование ("Да" на этапе Sv_11), формирователь 204a параметров квантования получает параметр разностного квантования для текущего блока из энтропийного декодера 202 (этап Sv_12).

[0446] Затем, формирователь 204b прогнозированных параметров квантования затем получает параметр квантования для единицы обработки, отличающейся от текущего блока, из устройства 204d хранения параметров квантования (этап Sv_13). Формирователь 204b прогнозированных параметров квантования формирует прогнозированный параметр квантования текущего блока на основе полученного параметра квантования (этап Sv_14).

[0447] Формирователь 204a параметров квантования затем формирует параметр квантования для текущего блока на основе параметра разностного квантования для текущего блока, полученного из энтропийного декодера 202, и прогнозированного параметра квантования для текущего блока, сформированного посредством формирователя 204b прогнозированных параметров квантования (этап Sv_15). Например, параметр разностного квантования для текущего блока, полученный из энтропийного декодера 202, и прогнозированный параметр квантования для текущего блока, сформированный посредством формирователя 204b прогнозированных параметров квантования, могут суммироваться между собой, чтобы формировать параметр квантования для текущего блока. Помимо этого, формирователь 204a параметров квантования сохраняет параметр квантования для текущего блока в устройстве 204d хранения параметров квантования (этап Sv_16).

[0448] Затем, модуль 204e выполнения обратного квантования обратно квантует квантованные коэффициенты текущего блока в коэффициенты преобразования, с использованием параметра квантования, сформированного на этапе Sv_15 (этап Sv_17).

[0449] Следует отметить, что параметр разностного квантования может декодироваться на уровне битовой последовательности, уровне кадра, уровне среза, уровне кирпича или уровне CTU. Помимо этого, начальное значение параметра квантования может декодироваться на уровне последовательности, уровне кадра, уровне среза, уровне кирпича или уровне CTU. В это время, параметр квантования может формироваться с использованием начального значения параметра квантования и параметра разностного квантования.

[0450] Следует отметить, что обратный квантователь 204 может включать в себя множество обратных квантователей и может обратно квантовать квантованные коэффициенты с использованием способа обратного квантования, выбранного из множества способов обратного квантования.

[0451] Обратный преобразователь

Обратный преобразователь 206 восстанавливает остатки прогнозирования посредством обратного преобразования коэффициентов преобразования, которые представляют собой вводы из обратного квантователя 204.

[0452] Например, когда информация, синтаксически проанализированная из потока, указывает то, что EMT или AMT должно применяться (например, когда AMT-флаг является истинным), обратный преобразователь 206 обратно преобразует коэффициенты преобразования текущего блока на основе информации, указывающей синтаксически проанализированный тип преобразования.

[0453] Кроме того, например, когда информация, синтаксически проанализированная из потока, указывает то, что NSST должно применяться, обратный преобразователь 206 применяет вторичное обратное преобразование к коэффициентам преобразования.

[0454] Фиг. 75 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством обратного преобразователя 206.

[0455] Например, обратный преобразователь 206 определяет то, присутствует или нет информация, указывающая то, что ортогональное преобразование не выполняется, в потоке (этап St_11). Здесь, при определении того, что эта информация не присутствует ("Нет" на этапе St_11) (например: отсутствие индикаторов в отношении того, выполняется или нет ортогональное преобразование; присутствие индикатора того, что ортогональное преобразование должно выполняться); обратный преобразователь 206 получает информацию, указывающую тип преобразования, декодированный посредством энтропийного декодера 202 (этап St_12). Затем, на основе информации, обратный преобразователь 206 определяет тип преобразования, используемый для ортогонального преобразования в кодере 100 (этап St_13). Обратный преобразователь 206 затем выполняет обратное ортогональное преобразование с использованием определенного типа преобразования (этап St_14). Как проиллюстрировано на фиг. 75, при определении того, что информация, указывающая то, что ортогональное преобразование не выполняется, присутствует ("Да" на этапе St_11) (например, явный индикатор того, что ортогональное преобразование не выполняется; отсутствие индикатора ортогональное преобразование выполняется), ортогональное преобразование не выполняется.

[0456] Фиг. 76 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством обратного преобразователя 206.

[0457] Например, обратный преобразователь 206 определяет то, меньше или равен либо нет размер преобразования определенному значению (этап Su_11). Определенное значение может быть предварительно определено. Здесь, при определении того, что размер преобразования меньше или равен определенному значению ("Да" на этапе Su_11), обратный преобразователь 206 получает, из энтропийного декодера 202, информацию, указывающую то, какой тип преобразования использован посредством кодера 100, по меньшей мере, из одного типа преобразования, включенного в первую группу типов преобразования (этап Su_12). Следует отметить, что эта информация декодируется посредством энтропийного декодера 202 и выводится в обратный преобразователь 206.

[0458] На основе информации, обратный преобразователь 206 определяет тип преобразования, используемый для ортогонального преобразования в кодере 100 (этап Su_13). Обратный преобразователь 206 затем выполняет обратное ортогональное преобразование для коэффициентов преобразования текущего блока с использованием определенного типа преобразования (этап Su_14). При определении того, что размер преобразования не меньше или равен определенному значению ("Нет" на этапе Su_11), обратный преобразователь 206 обратно преобразует коэффициенты преобразования текущего блока с использованием второй группы типов преобразования (этап Su_15).

[0459] Следует отметить, что обратное ортогональное преобразование посредством обратного преобразователя 206 может выполняться согласно последовательности операций, проиллюстрированной на фиг. 75 или фиг. 76 для каждой TU, в качестве одного примера. Помимо этого, обратное ортогональное преобразование может выполняться посредством использования заданного типа преобразования без декодирования информации, указывающей тип преобразования, используемый для ортогонального преобразования. Заданный тип преобразования может представлять собой предварительно заданный тип преобразования или тип преобразования по умолчанию. Помимо этого, тип преобразования конкретно может представлять собой DST7, DCT8 и т.п. При обратном ортогональном преобразовании, используется базисная функция обратного преобразования, соответствующая типу преобразования.

[0460] Сумматор

Сумматор 208 восстанавливает текущий блок посредством суммирования остатка прогнозирования, который представляет собой ввод из обратного преобразователя 206, и прогнозного изображения, которое представляет собой ввод из контроллера 220 прогнозирования. Другими словами, восстановленное изображение текущего блока формируется. Сумматор 208 затем выводит восстановленное изображение текущего блока в запоминающее устройство 210 блоков и контурный фильтр 212.

[0461] Запоминающее устройство блоков

Запоминающее устройство 210 блоков представляет собой устройство хранения данных для сохранения блока, который включается в текущий кадр, и может упоминаться при внутреннем прогнозировании. Более конкретно, запоминающее устройство 210 блоков сохраняет восстановленное изображение, выводимое из сумматора 208.

[0462] Контурный фильтр

Контурный фильтр 212 применяет контурный фильтр к восстановленному изображению, сформированному посредством сумматора 208, и выводит фильтрованное восстановленное изображение в запоминающее устройство 214 кинокадров и предоставляет вывод декодера 200, например, и выводит на устройство отображения и т.д.

[0463] Когда информация, указывающая включение или выключение ALF, синтаксически проанализированная из потока, указывает то, что ALF включена, один фильтр из множества фильтров может выбираться, например, на основе направления и активности локальных градиентов, и выбранный фильтр применяется к восстановленному изображению.

[0464] Фиг. 77 является блок-схемой, иллюстрирующей один пример функциональной конфигурации контурного фильтра 212. Следует отметить, что контурный фильтр 212 имеет конфигурацию, аналогичную конфигурации контурного фильтра 120 кодера 100.

[0465] Например, как проиллюстрировано на фиг. 77, контурный фильтр 212 включает в себя модуль 212a выполнения фильтрации для удаления блочности, модуль 212b SAO-выполнения и модуль 212c ALF-выполнения. Модуль 212a выполнения фильтрации для удаления блочности выполняет процесс фильтрации для удаления блочности для восстановленного изображения. Модуль 212b SAO-выполнения выполняет SAO-процесс для восстановленного изображения после подвергания процессу фильтрации для удаления блочности. Модуль 212c ALF-выполнения выполняет ALF-процесс для восстановленного изображения после подвергания SAO-процессу. Следует отметить, что контурный фильтр 212 не всегда должен включать в себя все составляющие элементы, раскрытые на фиг. 77, и может включать в себя только часть составляющих элементов. Помимо этого, контурный фильтр 212 может быть выполнен с возможностью выполнять вышеуказанные процессы в порядке обработки, отличающемся от порядка обработки, раскрытого на фиг. 77, может не выполнять все процессы, проиллюстрированные на фиг. 77, и т.д.

[0466] Запоминающее устройство кинокадров

Запоминающее устройство 214 кинокадров, например, представляет собой устройство хранения данных для сохранения опорных кадров для использования при взаимном прогнозировании, и также может называться "буфером кинокадров". Более конкретно, запоминающее устройство 214 кинокадров сохраняет восстановленное изображение, фильтрованное посредством контурного фильтра 212.

[0467] Модуль прогнозирования (модуль внутреннего прогнозирования, модуль взаимного прогнозирования, контроллер прогнозирования)

Фиг. 78 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса, выполняемого посредством модуля прогнозирования декодера 200. Следует отметить, что модуль выполнения прогнозирования может включать в себя все или часть следующих составляющих элементов: модуль 216 внутреннего прогнозирования; модуль 218 взаимного прогнозирования; и контроллер 220 прогнозирования. Модуль выполнения прогнозирования включает в себя, например, модуль 216 внутреннего прогнозирования и модуль 218 взаимного прогнозирования.

[0468] Модуль прогнозирования формирует прогнозное изображение текущего блока (этап Sq_1). Это прогнозное изображение также называется "прогнозным сигналом" или "блоком прогнозирования". Следует отметить, что прогнозный сигнал, например, представляет собой внутренний прогнозный сигнал или взаимный прогнозный сигнал. Более конкретно, модуль прогнозирования формирует прогнозное изображение текущего блока с использованием восстановленного изображения, которое уже получено для другого блока через формирование прогнозного изображения, восстановление остатка прогнозирования и суммирование прогнозного изображения. Модуль прогнозирования декодера 200 формирует прогнозное изображение, идентичное прогнозному изображению, сформированному посредством модуля прогнозирования кодера 100. Другими словами, прогнозные изображения формируются согласно способу, общему между модулями прогнозирования, или взаимно соответствующими способами.

[0469] Восстановленное изображение, например, может представлять собой изображение в опорном кадре или изображение декодированного блока (т.е. другого блока, описанного выше) в текущем кадре, который представляет собой кадр, включающий в себя текущий блок. Декодированный блок в текущем кадре, например, представляет собой соседний блок относительно текущего блока.

[0470] Фиг. 79 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством модуля прогнозирования декодера 200.

[0471] Модуль прогнозирования определяет способ или режим для формирования прогнозного изображения (этап Sr_1). Например, способ или режим может определяться, например, на основе параметра прогнозирования и т.д.

[0472] При определении первого способа в качестве режима для формирования прогнозного изображения, модуль прогнозирования формирует прогнозное изображение согласно первому способу (этап Sr_2a). При определении второго способа в качестве режима для формирования прогнозного изображения, модуль прогнозирования формирует прогнозное изображение согласно второму способу (этап Sr_2b). При определении третьего способа в качестве режима для формирования прогнозного изображения, модуль прогнозирования формирует прогнозное изображение согласно третьему способу (этап Sr_2c).

[0473] Первый способ, второй способ и третий способ могут представлять собой взаимно различные способы для формирования прогнозного изображения. Каждый из первого-третьего способов может представлять собой способ взаимного прогнозирования, способ внутреннего прогнозирования или другой способ прогнозирования. Вышеописанное восстановленное изображение может использоваться в этих способах прогнозирования.

[0474] Фиг. 80A-80C (совместно, фиг. 80) являются блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса, выполняемого посредством модуля прогнозирования декодера 200.

[0475] Модуль прогнозирования может выполнять процесс прогнозирования согласно последовательности операций, проиллюстрированной на фиг. 80, в качестве одного примера. Следует отметить, что внутриблочное копирование, проиллюстрированное на фиг. 80, представляет собой один режим, который принадлежит взаимному прогнозированию, и в котором блок, включенный в текущий кадр, называется "опорным изображением" или "опорным блоком". Другими словами, к кадру, отличающемуся от текущего кадра, не обращаются при внутриблочном копировании. Помимо этого, PCM-режим, проиллюстрированный на фиг. 80, представляет собой один режим, который принадлежит внутреннему прогнозированию, и в котором преобразование и квантование не выполняются.

[0476] Модуль внутреннего прогнозирования

Модуль 216 внутреннего прогнозирования выполняет внутреннее прогнозирование посредством обращения к блоку в текущем кадре, сохраненном в запоминающем устройстве 210 блоков, на основе режима внутреннего прогнозирования, синтаксически проанализированного из потока, чтобы формировать прогнозное изображение текущего блока (т.е. блока внутреннего прогнозирования). Более конкретно, модуль 216 внутреннего прогнозирования выполняет внутреннее прогнозирование посредством обращения к пиксельным значениям (например, значениям сигнала яркости и/или сигнала цветности) блока или блоков, соседних с текущим блоком, чтобы формировать внутреннее прогнозное изображение, и затем выводит внутреннее прогнозное изображение в контроллер 220 прогнозирования.

[0477] Следует отметить, что, когда выбирается режим внутреннего прогнозирования, в котором обращаются к блоку сигналов яркости при внутреннем прогнозировании блока сигналов цветности, модуль 216 внутреннего прогнозирования может прогнозировать компонент сигнала цветности текущего блока на основе компонента сигнала яркости текущего блока.

[0478] Кроме того, когда информация, синтаксически проанализированная из потока, указывает то, что PDPC должна применяться, модуль 216 внутреннего прогнозирования корректирует внутренне прогнозированные пиксельные значения на основе горизонтальных/вертикальных опорных пиксельных градиентов.

[0479] Фиг. 81 является схемой, иллюстрирующей один пример процесса, выполняемого посредством модуля 216 внутреннего прогнозирования декодера 200.

[0480] Модуль 216 внутреннего прогнозирования сначала определяет то, должен или нет использоваться MPM. Как проиллюстрировано на фиг. 81, модуль 216 внутреннего прогнозирования определяет то, присутствует или нет MPM-флаг, указывающий 1, в потоке (этап Sw_11). Здесь, при определении того, что MPM-флаг, указывающий 1, присутствует ("Да" на этапе Sw_11), модуль 216 внутреннего прогнозирования получает, из энтропийного декодера 202, информацию, указывающую режим внутреннего прогнозирования, выбранный в кодере 100, из MPM. Следует отметить, что эта информация декодируется посредством энтропийного декодера 202 и выводится в модуль 216 внутреннего прогнозирования. Затем, модуль 216 внутреннего прогнозирования определяет MPM (этап Sw_13). MPM включают в себя, например, шесть режимов внутреннего прогнозирования. Модуль 216 внутреннего прогнозирования затем определяет режим внутреннего прогнозирования, который включается во множество режимов внутреннего прогнозирования, включенных в MPM, и указывается посредством информации, полученной на этапе Sw_12 (этап Sw_14).

[0481] При определении того, что MPM-флаг, указывающий 1, не присутствует ("Нет" на этапе Sw_11), модуль 216 внутреннего прогнозирования получает информацию, указывающую режим внутреннего прогнозирования, выбранный в кодере 100 (этап Sw_15). Другими словами, модуль 216 внутреннего прогнозирования получает, из энтропийного декодера 202, информацию, указывающую режим внутреннего прогнозирования, выбранный в кодере 100 из числа, по меньшей мере, одного режима внутреннего прогнозирования, который не включается в MPM. Следует отметить, что эта информация декодируется посредством энтропийного декодера 202 и выводится в модуль 216 внутреннего прогнозирования. Модуль 216 внутреннего прогнозирования затем определяет режим внутреннего прогнозирования, который не включается во множество режимов внутреннего прогнозирования, включенных в MPM, и указывается посредством информации, полученной на этапе Sw_15 (этап Sw_17).

[0482] Модуль 216 внутреннего прогнозирования формирует прогнозное изображение согласно режиму внутреннего прогнозирования, определенному на этапе Sw_14 или на этапе Sw_17 (этап Sw_18).

[0483] Модуль взаимного прогнозирования

Модуль 218 взаимного прогнозирования прогнозирует текущий блок посредством обращения к опорному кадру, сохраненному в запоминающем устройстве 214 кинокадров. Прогнозирование выполняется в единицах текущего блока или текущего субблока в текущем блоке. Следует отметить, что субблок включается в блок и представляет собой единицу, меньшую блока. Размер субблока может составлять 4×4 пикселов, 8×8 пикселов или другой размер. Размер субблока может переключаться для единицы, такой как срез, кирпич, кадр и т.д.

[0484] Например, модуль 218 взаимного прогнозирования формирует взаимный прогнозный сигнал текущего блока или субблока посредством выполнения компенсации движения посредством использования информации движения (например, вектора движения), синтаксически проанализированной из кодированного потока битов (например, параметра прогнозирования, выводимого из энтропийного декодера 202), и выводит взаимный прогнозный сигнал в контроллер 220 прогнозирования.

[0485] Когда информация, синтаксически проанализированная из потока, указывает то, что OBMC-режим должен применяться, модуль 218 взаимного прогнозирования формирует взаимное прогнозное изображение с использованием информации движения соседнего блока в дополнение к информации движения текущего блока, полученной через оценку движения.

[0486] Кроме того, когда информация, синтаксически проанализированная из потока, указывает то, что FRUC-режим должен применяться, модуль 218 взаимного прогнозирования извлекает информацию движения посредством выполнения оценки движения в соответствии со способом сопоставления с шаблоном (к примеру, билатеральным сопоставлением или сопоставлением с эталоном), синтаксически проанализированным из потока. Модуль 218 взаимного прогнозирования затем выполняет компенсацию движения (прогнозирование) с использованием извлеченной информации движения.

[0487] Кроме того, когда BIO-режим должен применяться, модуль 218 взаимного прогнозирования извлекает MV на основе модели при условии равномерного прямолинейного движения. Помимо этого, когда информация, синтаксически проанализированная из потока, указывает то, что аффинный режим должен применяться, модуль 218 взаимного прогнозирования извлекает MV для каждого субблока, на основе MV множества соседних блоков.

[0488] Последовательность операций для MV-извлечения

Фиг. 82 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса MV-извлечения в декодере 200.

[0489] Модуль 218 взаимного прогнозирования определяет то, например, следует или нет декодировать информацию движения (например, MV). Например, модуль 218 взаимного прогнозирования может выполнять определение согласно режиму прогнозирования, включенному в поток, или может выполнять определение на основе другой информации, включенной в поток. Здесь, при определении необходимости декодировать информацию движения, модуль 218 взаимного прогнозирования извлекает MV для текущего блока в режиме, в котором информация движения декодируется. При определении необходимости не декодировать информацию движения, модуль 218 взаимного прогнозирования извлекает MV в режиме, в котором информация движения не декодируется.

[0490] Здесь, режимы MV-извлечения могут включать в себя нормальный взаимный режим, режим нормального объединения, FRUC-режим, аффинный режим и т.д., которые описываются ниже. Режимы, в которых информация движения декодируется, из числа режимов, включают в себя нормальный взаимный режим, режим нормального объединения, аффинный режим (в частности, аффинный взаимный режим и аффинный режим объединения) и т.д. Следует отметить, что информация движения может включать в себя не только MV, но также и информацию выбора MV-предикторов, которая описывается ниже. Режимы, в которых информация движения не декодируется, включают в себя FRUC-режим и т.д. Модуль 218 взаимного прогнозирования выбирает режим для извлечения MV для текущего блока из множества режимов и извлекает MV для текущего блока с использованием выбранного режима.

[0491] Фиг. 83 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса MV-извлечения в декодере 200.

[0492] Например, модуль 218 взаимного прогнозирования может определять то, следует или нет декодировать MV-разность, т.е., например, может выполнять определение согласно режиму прогнозирования, включенному в поток, или может выполнять определение на основе другой информации, включенной в поток. Здесь, при определении необходимости декодировать MV-разность, модуль 218 взаимного прогнозирования может извлекать MV для текущего блока в режиме, в котором MV-разность декодируется. В этом случае, например, MV-разность, включенная в поток, декодируется в качестве параметра прогнозирования.

[0493] При определении необходимости вообще не декодировать MV-разность, модуль 218 взаимного прогнозирования извлекает MV в режиме, в котором MV-разность не декодируется. В этом случае, кодированная MV-разность не включается в поток.

[0494] Здесь, как описано выше, режимы MV-извлечения включают в себя нормальный взаимный режим, режим нормального объединения, FRUC-режим, аффинный режим и т.д., которые описываются ниже. Режимы, в которых MV-разность кодируется, из числа режимов включают в себя нормальный взаимный режим и аффинный режим (в частности, аффинный взаимный режим) и т.д. Режимы, в которых MV-разность не кодируется, включают в себя FRUC-режим, режим нормального объединения, аффинный режим (в частности, аффинный режим объединения) и т.д. Модуль 218 взаимного прогнозирования выбирает режим для извлечения MV для текущего блока из множества режимов и извлекает MV для текущего блока с использованием выбранного режима.

[0495] MV-извлечение > нормальный взаимный режим

Например, когда информация, синтаксически проанализированная из потока, указывает то, что нормальный взаимный режим должен применяться, модуль 218 взаимного прогнозирования извлекает MV на основе информации, синтаксически проанализированной из потока, и выполняет компенсацию (прогнозирование) движения с использованием MV.

[0496] Фиг. 84 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством нормального взаимного режима в декодере 200.

[0497] Модуль 218 взаимного прогнозирования декодера 200 выполняет компенсацию движения для каждого блока. Сначала, модуль 218 взаимного прогнозирования получает множество возможных MV-вариантов для текущего блока на основе такой информации, как MV множества декодированных блоков, временно или пространственно окружающих текущий блок (этап Sg_11). Другими словами, модуль 218 взаимного прогнозирования формирует список возможных MV-вариантов.

[0498] Затем, модуль 218 взаимного прогнозирования извлекает N (целое число в 2 или более) возможных MV-вариантов из множества возможных MV-вариантов, полученных на этапе Sg_11, в качестве возможных вариантов предикторов векторов движения (также называются "возможными вариантами MV-предикторов") согласно определенным рангам в порядке приоритетов (этап Sg_12). Следует отметить, что ранги в порядке приоритетов могут определяться заранее для соответствующих N возможных вариантов MV-предикторов и могут быть предварительно определены.

[0499] Затем, модуль 218 взаимного прогнозирования декодирует информацию выбора MV-предикторов из входного потока и выбирает один возможный вариант MV-предиктора из N возможных вариантов MV-предикторов в качестве MV-предиктора для текущего блока с использованием декодированной информации выбора MV-предикторов (этап Sg_13).

[0500] Затем, модуль 218 взаимного прогнозирования декодирует MV-разность из входного потока и извлекает MV для текущего блока посредством суммирования значения разности, которое представляет собой декодированную MV-разность, и выбранного MV-предиктора (этап Sg_14).

[0501] В завершение, модуль 218 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения компенсации движения текущего блока с использованием извлеченного MV и декодированного опорного кадра (этап Sg_15). Процессы на этапах Sg_11-Sg_15 выполняются для каждого блока. Например, когда процессы на этапах Sg_11-Sg_15 выполняются для каждого из всех блоков в срезе, взаимное прогнозирование среза с использованием нормального взаимного режима заканчивается. Например, когда процессы на этапах Sg_11-Sg_15 выполняются для каждого из всех блоков в кадре, взаимное прогнозирование кадра с использованием нормального взаимного режима заканчивается. Следует отметить, что не все блоки, включенные в срез, могут подвергаться процессам на этапах Sg_11-Sg_15, и взаимное прогнозирование среза с использованием нормального взаимного режима может заканчиваться, когда часть блоков подвергается процессам. Это также применяется к кадрам на этапах Sg_11-Sg_15. Взаимное прогнозирование кадра с использованием нормального взаимного режима может заканчиваться, когда процессы выполняются для части блоков в кадре.

[0502] MV-извлечение > режим нормального объединения

Например, когда информация, синтаксически проанализированная из потока, указывает то, что режим нормального объединения должен применяться, модуль 218 взаимного прогнозирования извлекает MV и выполняет компенсацию (прогнозирование) движения с использованием MV.

[0503] Фиг. 85 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством режима нормального объединения в декодере 200.

[0504] Модуль 218 взаимного прогнозирования получает множество возможных MV-вариантов для текущего блока на основе такой информации, как MV множества декодированных блоков, временно или пространственно окружающих текущий блок (этап Sh_11). Другими словами, модуль 218 взаимного прогнозирования формирует список возможных MV-вариантов.

[0505] Затем, модуль 218 взаимного прогнозирования выбирает один возможный MV-вариант из множества возможных MV-вариантов, полученных на этапе Sh_11, извлекая MV текущего блока (этап Sh_12). Более конкретно, модуль 218 взаимного прогнозирования получает информацию MV-выбора, включенную в качестве параметра прогнозирования в поток, и выбирает возможный MV-вариант, идентифицированный посредством информации MV-выбора в качестве MV для текущего блока.

[0506] В завершение, модуль 218 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения компенсации движения текущего блока с использованием извлеченного MV и декодированного опорного кадра (этап Sh_13). Процессы на этапах Sh_11-Sh_13 выполняются, например, для каждого блока. Например, когда процессы на этапах Sh_11-Sh_13 выполняются для каждого из всех блоков в срезе, взаимное прогнозирование среза с использованием режима нормального объединения заканчивается. Помимо этого, когда процессы на этапах Sh_11-Sh_13 выполняются для каждого из всех блоков в кадре, взаимное прогнозирование кадра с использованием режима нормального объединения заканчивается. Следует отметить, что не все блоки, включенные в срез, подвергаются процессам на этапах Sh_11-Sh_13, и взаимное прогнозирование среза с использованием режима нормального объединения может заканчиваться, когда часть блоков подвергается процессам. Это также применяется к кадрам на этапах Sh_11-Sh_13. Взаимное прогнозирование кадра с использованием режима нормального объединения может заканчиваться, когда процессы выполняются для части блоков в кадре.

[0507] MV-извлечение > FRUC-режим

Например, когда информация, синтаксически проанализированная из потока, указывает то, что FRUC-режим должен применяться, модуль 218 взаимного прогнозирования извлекает MV в FRUC-режиме и выполняет компенсацию (прогнозирование) движения с использованием MV. В этом случае, информация движения извлекается на стороне декодера 200 без передачи в служебных сигналах из стороны кодера 100. Например, декодер 200 может извлекать информацию движения посредством выполнения оценки движения. В этом случае, декодер 200 выполняет оценку движения вообще без использования пиксельных значений в текущем блоке.

[0508] Фиг. 86 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством FRUC-режима в декодере 200.

[0509] Во-первых, модуль 218 взаимного прогнозирования формирует список, указывающий MV декодированных блоков, пространственно или временно соседних с текущие блоком, посредством обращения к MV в качестве возможных MV-вариантов (список представляет собой список возможных MV-вариантов и, например, может использоваться также в качестве списка возможных MV-вариантов для режима нормального объединения (этап Si_11). Затем, наилучший возможный MV-вариант выбирается из множества возможных MV-вариантов, зарегистрированных в списке возможных MV-вариантов (этап Si_12). Например, модуль 218 взаимного прогнозирования вычисляет значение оценки каждого возможного MV-варианта, включенного в список возможных MV-вариантов, и выбирает один из возможных MV-вариантов в качестве наилучшего возможного MV-варианта на основе значений оценки. На основе выбранных наилучших возможных MV-вариантов, модуль 218 взаимного прогнозирования затем извлекает MV для текущего блока (этап Si_14). Более конкретно, например, выбранные наилучшие возможные MV-варианты непосредственно извлекаются в качестве MV для текущего блока. Помимо этого, например, MV для текущего блока может извлекаться с использованием сопоставления с шаблоном в окружающей области позиции, которая включается в опорный кадр и соответствует выбранному наилучшему возможному MV-варианту. Другими словами, оценка с использованием сопоставления с шаблоном в опорном кадре и значений оценки может выполняться в окружающей области наилучшего возможного MV-варианта, и когда имеется MV, который дает в результате лучшее значение оценки, наилучший возможный MV-вариант может обновляться на MV, который дает в результате лучшее значение оценки, и обновленный MV может определяться в качестве конечного MV для текущего блока. В варианте осуществления, обновление на MV, который дает в результате лучшее значение оценки, может не выполняться.

[0510] В завершение, модуль 218 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения компенсации движения текущего блока с использованием извлеченного MV и декодированного опорного кадра (этап Si_15). Процессы на этапах Si_11-Si_15 выполняются, например, для каждого блока. Например, когда процессы на этапах Si_11-Si_15 выполняются для каждого из всех блоков в срезе, взаимное прогнозирование среза с использованием FRUC-режима заканчивается. Например, когда процессы на этапах Si_11-Si_15 выполняются для каждого из всех блоков в кадре, взаимное прогнозирование кадра с использованием FRUC-режима заканчивается. Каждый субблок может обрабатываться аналогично случаю каждого блока.

[0511] MV-извлечение > FRUC-режим

Например, когда информация, синтаксически проанализированная из потока, указывает то, что аффинный режим объединения должен применяться, модуль 218 взаимного прогнозирования извлекает MV в аффинном режиме объединения и выполняет компенсацию (прогнозирование) движения с использованием MV.

[0512] Фиг. 87 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством аффинного режима объединения в декодере 200.

[0513] В аффинном режиме объединения, во-первых, модуль 218 взаимного прогнозирования извлекает MV в соответствующих управляющих точках для текущего блока (этап Sk_11). Управляющие точки представляют собой верхнюю левую угловую точку текущего блока и верхнюю правую угловую точку текущего блока, как проиллюстрировано на фиг. 46A, либо верхнюю левую угловую точку текущего блока, верхнюю правую угловую точку текущего блока и нижнюю левую угловую точку текущего блока, как проиллюстрировано на фиг. 46B.

[0514] Например, когда способы MV-извлечения, проиллюстрированные на фиг. 47A-47C, используются, как проиллюстрировано на фиг. 47A, модуль 218 взаимного прогнозирования проверяет декодированный блок A (левый), блок B (верхний), блок C (верхний правый), блок D (нижний левый) и блок E (верхний левый) в этом порядке и идентифицирует первый эффективный блок, декодированный согласно аффинному режиму. Модуль 218 взаимного прогнозирования извлекает MV в управляющей точке с использованием идентифицированного первого эффективного блока, декодированного согласно аффинному режиму. Например, когда блок A идентифицируется, и блок A имеет две управляющих точки, как проиллюстрировано на фиг. 47B, модуль 218 взаимного прогнозирования вычисляет вектор v0 движения в верхней левой угловой управляющей точке текущего блока и вектор v1 движения в верхней правой угловой управляющей точке текущего блока из векторов v3 и v4 движения в верхнем левом углу и в верхнем правом углу декодированного блока, включающего в себя блок A. Таким образом, MV в каждой управляющей точке извлекается.

[0515] Следует отметить, что, как проиллюстрировано на фиг. 49A, MV в трех управляющих точках могут вычисляться, когда блок A идентифицируется, и блок A имеет две управляющих точки, и что, как проиллюстрировано на фиг. 49B, MV в двух управляющих точках могут вычисляться, когда блок A идентифицируется, и когда блок A имеет три управляющих точки.

[0516] Помимо этого, когда информация MV-выбора включается в качестве параметра прогнозирования в потоке, модуль 218 взаимного прогнозирования может извлекать MV в каждой управляющей точке для текущего блока с использованием информации MV-выбора.

[0517] Затем, модуль 218 взаимного прогнозирования выполняет компенсацию движения каждого из множества субблоков, включенных в текущий блок. Другими словами, модуль 218 взаимного прогнозирования вычисляет MV для каждого из множества субблоков в качестве аффинного MV, с использованием либо двух векторов v0 и v1 движения и вышеуказанного выражения (1A), либо трех векторов v0, v1 и v2 движения и вышеуказанного выражения (1B) (этап Sk_12). Модуль 218 взаимного прогнозирования затем выполняет компенсацию движения субблоков с использованием этих аффинных MV и декодированных опорных кадров (этап Sk_13). Когда процессы на этапах Sk_12 и Sk_13 выполняются для каждого из субблоков, включенных в текущий блок, взаимное прогнозирование с использованием аффинного режима объединения для текущего блока завершается. Другими словами, компенсация движения текущего блока выполняется для того, чтобы формировать прогнозное изображение текущего блока.

[0518] Следует отметить, что вышеописанный список возможных MV-вариантов может формироваться на этапе Sk_11. Список возможных MV-вариантов, например, может представлять собой список, включающий в себя возможные MV-варианты, извлекаемые с использованием множества способов MV-извлечения для каждой управляющей точки. Множество способов MV-извлечения, например, могут представлять собой любую комбинацию способов MV-извлечения, проиллюстрированных на фиг. 47A-47C, способов MV-извлечения, проиллюстрированных на фиг. 48A и 48B, способов MV-извлечения, проиллюстрированных на фиг. 49A и 49B, и других способов MV-извлечения.

[0519] Следует отметить, что список возможных MV-вариантов может включать в себя возможные MV-варианты в режиме, в котором прогнозирование выполняется в единицах субблоков, отличном от аффинного режима.

[0520] Следует отметить, что, например, список возможных MV-вариантов, включающий в себя возможные MV-варианты в аффинном режиме объединения, в котором используются две управляющих точки, и в аффинном режиме объединения, в котором используются три управляющих точки, может формироваться в качестве списка возможных MV-вариантов. Альтернативно, список возможных MV-вариантов, включающий в себя возможные MV-варианты в аффинном режиме объединения, в котором используются две управляющих точки, и список возможных MV-вариантов, включающий в себя возможные MV-варианты в аффинном режиме объединения, в котором используются три управляющих точки, могут формироваться отдельно. Альтернативно, список возможных MV-вариантов, включающий в себя возможные MV-варианты в одном из аффинного режима объединения, в котором используются две управляющих точки, и аффинного режима объединения, в котором используются три управляющих точки, может формироваться.

[0521] MV-извлечение > аффинный взаимный режим

Например, когда информация, синтаксически проанализированная из потока, указывает то, что аффинный взаимный режим должен применяться, модуль 218 взаимного прогнозирования извлекает MV в аффинном взаимном режиме и выполняет компенсацию (прогнозирование) движения с использованием MV.

[0522] Фиг. 88 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством аффинного взаимного режима в декодере 200.

[0523] В аффинном взаимном режиме, сначала, модуль 218 взаимного прогнозирования извлекает MV-предикторы (v0, v1) или (v0, v1, v2) соответствующих двух или трех управляющих точек текущего блока (этап Sj_11). Управляющие точки представляют собой верхнюю левую угловую точку текущего блока, верхнюю правую угловую точку текущего блока и нижнюю левую угловую точку текущего блока, как проиллюстрировано на фиг. 46A или фиг. 46B.

[0524] Модуль 218 взаимного прогнозирования получает информацию выбора MV-предикторов, включенную в качестве параметра прогнозирования в поток, и извлекает MV-предиктор в каждой управляющей точке для текущего блока с использованием MV, идентифицированного посредством информации выбора MV-предикторов. Например, когда способы MV-извлечения, проиллюстрированные на фиг. 48A и 48B, используются, модуль 218 взаимного прогнозирования извлекает предикторы (v0, v1) или (v0, v1, v2) векторов движения в управляющих точках для текущего блока посредством выбора MV блока, идентифицированного посредством информации выбора MV-предикторов, из декодированных блоков около соответствующих управляющих точек для текущего блока, проиллюстрированного на фиг. 48A либо на фиг. 48B.

[0525] Затем, модуль 218 взаимного прогнозирования получает каждую MV-разность, включенную в качестве параметра прогнозирования в поток, и суммирует MV-предиктор в каждой управляющей точке для текущего блока и MV-разность, соответствующую MV-предиктору (этап Sj_12). Таким образом, MV в каждой управляющей точке для текущего блока извлекается.

[0526] Затем, модуль 218 взаимного прогнозирования выполняет компенсацию движения каждого из множества субблоков, включенных в текущий блок. Другими словами, модуль 218 взаимного прогнозирования вычисляет MV для каждого из множества субблоков в качестве аффинного MV с использованием либо двух векторов v0 и v1 движения и вышеуказанного выражения (1A), либо трех векторов v0, v1 и v2 движения и вышеуказанного выражения (1B) (этап Sj_13). Модуль 218 взаимного прогнозирования затем выполняет компенсацию движения субблоков с использованием этих аффинных MV и декодированных опорных кадров (этап Sj_14). Когда процессы на этапах Sj_13 и Sj_14 выполняются для каждого из субблоков, включенных в текущий блок, взаимное прогнозирование с использованием аффинного режима объединения для текущего блока завершается. Другими словами, компенсация движения текущего блока выполняется для того, чтобы формировать прогнозное изображение текущего блока.

[0527] Следует отметить, что вышеописанный список возможных MV-вариантов может формироваться на этапе Sj_11, аналогично этапу Sk_11.

[0528] MV-извлечение > треугольный режим

Например, когда информация, синтаксически проанализированная из потока, указывает то, что треугольный режим должен применяться, модуль 218 взаимного прогнозирования извлекает MV в треугольном режиме и выполняет компенсацию (прогнозирование) движения с использованием MV.

[0529] Фиг. 89 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса взаимного прогнозирования посредством треугольного режима в декодере 200.

[0530] В треугольном режиме, во-первых, модуль 218 взаимного прогнозирования разбивает текущий блок на первый сегмент и второй сегмент (этап Sx_11). Например, модуль 218 взаимного прогнозирования может получать, из потока, информацию сегментов, которая представляет собой информацию, связанную с разбиением, в качестве параметра прогнозирования. Модуль 218 взаимного прогнозирования затем может разбивать текущий блок на первый сегмент и второй сегмент согласно информации сегментов.

[0531] Затем, модуль 218 взаимного прогнозирования получает множество возможных MV-вариантов для текущего блока на основе такой информации, как MV множества декодированных блоков, временно или пространственно окружающих текущий блок (этап Sx_12). Другими словами, модуль 218 взаимного прогнозирования формирует список возможных MV-вариантов.

[0532] Модуль 218 взаимного прогнозирования затем выбирает возможный MV-вариант для первого сегмента и возможный MV-вариант для второго сегмента в качестве первого MV и второго MV, соответственно, из множества возможных MV-вариантов, полученных на этапе Sx_11 (этап Sx_13). В это время, модуль 218 взаимного прогнозирования может получать, из потока, информацию MV-выбора для идентификации выбранного возможного MV-варианта в качестве параметра прогнозирования. Модуль 218 взаимного прогнозирования затем может выбирать первый MV и второй MV согласно информации MV-выбора.

[0533] Затем, модуль 218 взаимного прогнозирования формирует первое прогнозное изображение посредством выполнения компенсации движения с использованием выбранного первого MV и декодированного опорного кадра (этап Sx_14). Аналогично, модуль 218 взаимного прогнозирования формирует второе прогнозное изображение посредством выполнения компенсации движения с использованием выбранного второго MV и декодированного опорного кадра (этап Sx_15).

[0534] В завершение, модуль 218 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения суммирования со взвешиванием первого прогнозного изображения и второго прогнозного изображения (этап Sx_16).

[0535] MV-оценка > DMVR

Например, информация, синтаксически проанализированная из потока, указывает то, что DMVR должна применяться, модуль 218 взаимного прогнозирования выполняет оценку движения с использованием DMVR.

[0536] Фиг. 90 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса оценки движения посредством DMVR в декодере 200.

[0537] Модуль 218 взаимного прогнозирования извлекает MV для текущего блока согласно режиму объединения (этап Sl_11). Затем, модуль 218 взаимного прогнозирования извлекает конечный MV для текущего блока посредством выполнения поиска в области, окружающей опорный кадр, указываемый посредством MV, извлекаемого на Sl_11 (этап Sl_12). Другими словами, в этом случае, MV текущего блока определяется согласно DMVR.

[0538] Фиг. 91 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса оценки движения посредством DMVR в декодере 200 и является идентичным фиг. 58B.

[0539] Во-первых, на этапе 1, проиллюстрированном на фиг. 58A, модуль 218 взаимного прогнозирования вычисляет затраты между позицией поиска (также называемой "начальной точкой"), указываемой посредством начального MV, и восемью окружающими позициями поиска. Модуль 218 взаимного прогнозирования затем определяет то, являются или нет затраты в каждой из позиций поиска, отличных от начальной точки, наименьшими. Здесь, при определении того, что затраты в одной из позиций поиска, отличных от начальной точки, являются наименьшими, модуль 218 взаимного прогнозирования изменяет цель на позицию поиска, в которой наименьшие затраты получаются, и выполняет процесс на этапе 2, проиллюстрированном на фиг. 58. Когда затраты в начальной точке являются наименьшими, модуль 218 взаимного прогнозирования пропускает процесс на этапе 2, проиллюстрированном на фиг. 58A, и выполняет процесс на этапе 3.

[0540] На этапе 2, проиллюстрированном на фиг. 58A, модуль 218 взаимного прогнозирования выполняет поиск, аналогичный процессу на этапе 1, относительно позиции поиска после того, как цель изменяется, в качестве новой начальной точки согласно результату процесса на этапе 1. Модуль 218 взаимного прогнозирования затем определяет то, являются или нет затраты в каждой из позиций поиска, отличных от начальной точки, наименьшими. Здесь, при определении того, что затраты в одной из позиций поиска, отличных от начальной точки, являются наименьшими, модуль 218 взаимного прогнозирования выполняет процесс на этапе 4. Когда затраты в начальной точке являются наименьшими, модуль 218 взаимного прогнозирования выполняет процесс на этапе 3.

[0541] На этапе 4, модуль 218 взаимного прогнозирования рассматривает позицию поиска в начальной точке в качестве конечной позиции поиска и определяет разность между позицией, указываемой посредством начального MV, и конечной позицией поиска в качестве векторной разности.

[0542] На этапе 3, проиллюстрированном на фиг. 58A, модуль 218 взаимного прогнозирования определяет пиксельную позицию с субпиксельной точностью, при которой наименьшие затраты получаются, на основе затрат в четырех точках, расположенных в верхней, нижней, левой и правой позициях относительно начальной точки на этапе 1 или на этапе 2, и рассматривает пиксельную позицию в качестве конечной позиции поиска.

[0543] Пиксельная позиция с субпиксельной точностью определяется посредством выполнения суммирования со взвешиванием каждого из четырех верхнего, нижнего, левого и правого векторов ((0, 1), (0,-1), (-1, 0) и (1, 0)), с использованием, в качестве весового коэффициента, затрат в соответствующих одной из четырех позиций поиска. Модуль 218 взаимного прогнозирования затем определяет разность между позицией, указываемой посредством начального MV, и конечной позицией поиска в качестве векторной разности.

[0544] Компенсация движения > BIO/OBMC/LIC

Например, когда информация, синтаксически проанализированная из потока, указывает то, что коррекция прогнозного изображения должна выполняться при формировании прогнозного изображения, модуль 218 взаимного прогнозирования корректирует прогнозное изображение на основе режима для коррекции. Режим, например, представляет собой одно из BIO, OBMC и LIC, описанных выше.

[0545] Фиг. 92 является блок-схемой последовательности операций способа, иллюстрирующей один пример процесса формирования прогнозного изображения в декодере 200.

[0546] Модуль 218 взаимного прогнозирования формирует прогнозное изображение (этап Sm_11) и корректирует прогнозное изображение согласно любому из режимов, описанных выше (этап Sm_12).

[0547] Фиг. 93 является блок-схемой последовательности операций способа, иллюстрирующей другой пример процесса формирования прогнозного изображения в декодере 200.

[0548] Модуль 218 взаимного прогнозирования извлекает MV для текущего блока (этап Sn_11). Затем, модуль 218 взаимного прогнозирования формирует прогнозное изображение с использованием MV (этап Sn_12) и определяет то, следует или нет выполнять процесс коррекции (этап Sn_13). Например, модуль 218 взаимного прогнозирования получает параметр прогнозирования, включенный в поток, и определяет то, следует или нет выполнять процесс коррекции, на основе параметра прогнозирования. Этот параметр прогнозирования, например, представляет собой флаг, указывающий то, должны либо нет применяться один или более вышеописанных режимов. Здесь, при определении необходимости выполнять процесс коррекции ("Да" на этапе Sn_13), модуль 218 взаимного прогнозирования формирует конечное прогнозное изображение посредством коррекции прогнозного изображения (этап Sn_14). Следует отметить, что, в LIC, яркость и цветность может корректироваться на этапе Sn_14. При определении необходимости не выполнять процесс коррекции ("Нет" на этапе Sn_13), модуль 218 взаимного прогнозирования выводит конечное прогнозное изображение без коррекции прогнозного изображения (этап Sn_15).

[0549] Компенсация движения > OBMC

Например, когда информация, синтаксически проанализированная из потока, указывает то, что OBMC должна выполняться при формировании прогнозного изображения, модуль 218 взаимного прогнозирования корректирует прогнозное изображение согласно OBMC.

[0550] Фиг. 94 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса коррекции прогнозного изображения посредством OBMC в декодере 200. Следует отметить, что блок-схема последовательности операций способа на фиг. 94 указывает последовательность операций коррекции прогнозного изображения с использованием текущего кадра и опорного кадра, проиллюстрированную на фиг. 62.

[0551] Во-первых, как проиллюстрировано на фиг. 62, модуль 218 взаимного прогнозирования получает прогнозное изображение (Pred) посредством нормальной компенсации движения с использованием MV, назначенного текущему блоку.

[0552] Затем, прогнозное изображение (Pred_L) получается посредством применения вектора (MV_L) движения, который уже извлечен для кодированного блока, соседнего слева от текущего блока, к текущему блоку (многократного использования вектора движения для текущего блока). Модуль 218 взаимного прогнозирования затем выполняет первую коррекцию прогнозного изображения посредством перекрытия двух прогнозных изображений Pred и Pred_L. Это предоставляет преимущество смешивания границы между соседними блоками.

[0553] Аналогично, модуль 218 взаимного прогнозирования получает прогнозное изображение (Pred_U) посредством применения MV (MV_U), который уже извлечен для декодированного блока, граничащего выше текущего блока с текущим блоком (многократного использования вектора движения для текущего блока). Модуль 218 взаимного прогнозирования затем выполняет вторую коррекцию прогнозного изображения посредством перекрытия прогнозного изображения Pred_U с прогнозными изображениями (например, Pred и Pred_L), для которых выполнена первая коррекция. Это предоставляет преимущество смешивания границы между соседними блоками. Прогнозное изображение, полученное посредством второй коррекции, представляет собой прогнозное изображение, в котором граница между соседними блоками смешивается (сглаживается), и в силу этого представляет собой конечное прогнозное изображение текущего блока.

[0554] Компенсация движения > BIO

Например, когда информация, синтаксически проанализированная из потока, указывает то, что BIO должен выполняться при формировании прогнозного изображения, модуль 218 взаимного прогнозирования корректирует прогнозное изображение согласно BIO.

[0555] Фиг. 95 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса коррекции прогнозного изображения посредством BIO в декодере 200.

[0556] Как проиллюстрировано на фиг. 63, модуль 218 взаимного прогнозирования извлекает два вектора (M0, M1) движения, с использованием двух опорных кадров (Ref0, Ref1), отличающихся от кадра (Cur Pic), включающего в себя текущий блок. Модуль 218 взаимного прогнозирования затем извлекает прогнозное изображение для текущего блока с использованием двух векторов (M0, M1) движения (этап Sy_11). Следует отметить, что вектор M0 движения представляет собой вектор (MVx0, MVy0) движения, соответствующий опорному кадру Ref0, и вектор M1 движения представляет собой вектор (MVx1, MVy1) движения, соответствующий опорному кадру Ref0.

[0557] Затем, модуль 218 взаимного прогнозирования извлекает интерполированное изображение I0 для текущего блока с использованием вектора M0 движения и опорного кадра L0. Помимо этого, модуль 218 взаимного прогнозирования извлекает интерполированное изображение I1 для текущего блока с использованием вектора M1 движения и опорного кадра L1 (этап Sy_12). Здесь, интерполированное изображение I0 представляет собой изображение, включенное в опорный кадр Ref0, и которое должно извлекаться для текущего блока, и интерполированное изображение I1 представляет собой изображение, включенное в опорный кадр Ref1, и которое должно извлекаться для текущего блока. Каждое из интерполированного изображения I0 и интерполированного изображения I1 может иметь размер, идентичный размеру текущего блока. Альтернативно, каждое из интерполированного изображения I0 и интерполированного изображения I1 может представлять собой изображение, большее текущего блока. Кроме того, интерполированное изображение I0 и интерполированное изображение I1 могут включать в себя прогнозное изображение, полученное посредством использования векторов (M0, M1) движения и опорных кадров (L0, L1) и применения фильтра для компенсации движения.

[0558] Помимо этого, модуль 218 взаимного прогнозирования извлекает градиентные изображения (Ix0, Ix1, Iy0, Iy1) текущего блока, из интерполированного изображения I0 и интерполированного изображения I1 (этап Sy_13). Следует отметить, что градиентные изображения в горизонтальном направлении представляют собой (Ix0, Ix1), и градиентные изображения в вертикальном направлении представляют собой (Iy0, Iy1). Модуль 218 взаимного прогнозирования может извлекать градиентные изображения, например, посредством применяя градиентный фильтр к интерполированным изображениям. Градиентные изображения могут представлять собой градиентные изображения, каждое из которых указывает величину пространственного изменения пиксельного значения вдоль горизонтального направления или величину пространственного изменения пиксельного значения вдоль вертикального направления.

[0559] Затем, модуль 218 взаимного прогнозирования извлекает, для каждого субблока текущего блока, оптический поток (vx, vy), который представляет собой вектор скорости, с использованием интерполированных изображений (I0, I1) и градиентных изображений (Ix0, Ix1, Iy0, Iy1) (этап Sy_14). В качестве одного примера, субблок может представлять собой 4×4-пиксельную суб-CU.

[0560] Затем, модуль 218 взаимного прогнозирования корректирует прогнозное изображение для текущего блока с использованием оптического потока (vx, vy). Например, модуль 218 взаимного прогнозирования извлекает значение коррекции для значения пиксела, включенного в текущий блок, с использованием оптического потока (vx, vy) (этап Sy_15). Модуль 218 взаимного прогнозирования затем может корректировать прогнозное изображение для текущего блока с использованием значения коррекции (этап Sy_16). Следует отметить, что значение коррекции может извлекаться в единицах пиксела либо может извлекаться в единицах множества пикселов или в единицах субблоков и т.д.

[0561] Следует отметить, что поток BIO-процесса не ограничен процессом, раскрытым на фиг. 95. Только часть процессов, раскрытая на фиг. 95, может выполняться, либо другой процесс может добавляться или использоваться в качестве замены, либо процессы могут выполняться в другом порядке обработки.

[0562] Компенсация движения > LIC

Например, когда информация, синтаксически проанализированная из потока, указывает то, что LIC должна выполняться при формировании прогнозного изображения, модуль 218 взаимного прогнозирования корректирует прогнозное изображение согласно LIC.

[0563] Фиг. 96 является блок-схемой последовательности операций способа, иллюстрирующей пример процесса коррекции прогнозного изображения посредством LIC в декодере 200.

[0564] Во-первых, модуль 218 взаимного прогнозирования получает опорное изображение, соответствующее текущему блоку из декодированного опорного кадра с использованием MV (этап Sz_11).

[0565] Затем, модуль 218 взаимного прогнозирования извлекает, для текущего блока, информацию, указывающую то, как значение яркости изменено между текущим кадром и опорным кадром (этап Sz_12). Это извлечение может выполняться на основе пиксельных значений сигнала яркости для декодированной левой соседней опорной области (окружающей опорной области) и декодированной верхней соседней опорной области (окружающей опорной области) и пиксельных значений сигнала яркости в соответствующих позициях в опорном кадре, указываемых посредством извлеченных MV. Модуль 218 взаимного прогнозирования вычисляет параметр коррекции яркости, с использованием информации, указывающей то, как значение сигнала яркости изменено (этап Sz_13).

[0566] Модуль 218 взаимного прогнозирования формирует прогнозное изображение для текущего блока посредством выполнения процесса коррекции яркости, в котором параметр коррекции яркости применяется к опорному изображению в опорном кадре, указываемом посредством MV (этап Sz_14). Другими словами, прогнозное изображение, которое представляет собой опорное изображение в опорном кадре, указываемом посредством MV, подвергается коррекции на основе параметра коррекции яркости. При этой коррекции, яркость может корректироваться, либо цветность может корректироваться.

[0567] Контроллер прогнозирования

Контроллер 220 прогнозирования выбирает внутреннее прогнозное изображение или взаимное прогнозное изображение и выводит выбранное изображение в сумматор 208. В целом, конфигурации, функции и процессы контроллера 220 прогнозирования, модуля 216 внутреннего прогнозирования и модуля 218 взаимного прогнозирования на стороне декодера 200 могут соответствовать конфигурациям, функциям и процессам контроллера 128 прогнозирования, модуля 124 внутреннего прогнозирования и модуля 126 взаимного прогнозирования на стороне кодера 100.

[0568] Первый аспект

Фиг. 97 является блок-схемой последовательности операций способа для примера последовательности 1000 операций обработки для декодирования изображения с использованием процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) согласно первому аспекту. Последовательность операций обработки 1000 может выполняться, например, посредством декодера 200 по фиг. 67 и т.д.

[0569] На этапе S1001, процесс фильтрации применяется к восстановленным выборкам изображений первого компонента. Первый компонент, например, может представлять собой компонент сигнала яркости. Компонент сигнала яркости может представляться как Y-компонент. Восстановленные выборки изображений сигнала яркости могут представлять собой выходные сигналы ALF-процесса. Выходные сигналы ALF могут представлять собой восстановленные выборки сигналов яркости, сформированные через SAO-процесс. В некоторых вариантах осуществления, этот процесс фильтрации, выполняемый на этапе S1001, может представляться как CCALF-процесс. Числа восстановленных выборок сигналов яркости могут быть идентичными числу коэффициентов фильтра, которые должны использоваться в CCALF-процессе. В других вариантах осуществления, процесс отсечения может выполняться для фильтрованных восстановленных выборок сигналов яркости.

[0570] На этапе S1002, восстановленная выборка изображений второго компонента модифицируется. Второй компонент может представлять собой компонент сигнала цветности. Компонент сигнала цветности может представляться как Cb- и/или Cr-компонент. Восстановленные выборки изображений сигнала цветности могут представлять собой выходные сигналы ALF-процесса. Выходные сигналы ALF могут восстанавливаться выборки сигналов цветности, сформированные через SAO-процесс. Модифицированная восстановленная выборка изображений может представлять собой сумму восстановленных выборок сигнала цветности и фильтрованных восстановленных выборок сигнала яркости, которые представляют собой вывод этапа S1001. Другими словами, процесс модификации может выполняться посредством суммирования фильтрованного значения восстановленных выборок сигналов яркости, сформированных посредством CCALF-процесса этапа S1001, с фильтрованным значением восстановленных выборок сигналов цветности, сформированных посредством ALF-процесса. В некоторых вариантах осуществления, процесс отсечения может выполняться для восстановленных выборок сигналов цветности. Первый компонент и второй компонент могут принадлежать идентичному блоку или могут принадлежать различным блокам.

[0571] На этапе S1003, значение модифицированной восстановленной выборки изображений компонента сигнала цветности отсекается. Посредством выполнения процесса отсечения, значение выборок может гарантированно находиться в определенном диапазоне. Дополнительно, отсечение может способствовать лучшей сходимости в процессе оптимизации методом наименьших квадратов и т.д., чтобы минимизировать разность между остатком (разностью между исходным выборочным значением и восстановленным выборочным значением) и фильтрованным значением выборок сигналов цветности, чтобы определять коэффициенты фильтрации.

[0572] На этапе S1004, изображение декодируется с использованием отсеченной восстановленной выборки изображений компонента сигнала цветности. В некоторых вариантах осуществления, этап S1003 не должен выполняться. В этом случае, изображение декодируется с использованием модифицированной восстановленной выборки сигналов цветности, которая не отсекается.

[0573] Фиг. 98 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно варианту осуществления. В этом варианте осуществления, процесс отсечения применяется к модифицированной восстановленной выборке изображений компонента сигнала цветности, аналогично этапу S1003 по фиг. 97. Например, модифицированная восстановленная выборка изображений может отсекаться таким образом, что она находится в диапазоне [0, 1023] для 10-битового вывода. Когда фильтрованные восстановленные выборки изображений компонента сигнала яркости, сформированного посредством CCALF-процесса, отсекаются, может быть необязательным отсекать модифицированную восстановленную выборку изображений компонента сигнала цветности в некоторых вариантах осуществления.

[0574] Фиг. 99 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно варианту осуществления. В этом варианте осуществления, процесс отсечения применяется к модифицированной восстановленной выборке изображений компонента сигнала цветности, аналогично этапу S1003 по фиг. 97. Процесс отсечения не применяется к фильтрованным восстановленным выборкам сигналов яркости, сформированным посредством CCALF-процесса. Фильтрованное значение восстановленных выборок сигналов цветности, сформированных посредством ALF-процесса, не должно отсекаться, как показано посредством "без отсечения" на фиг. 99. Другими словами, восстановленная выборка изображений, которая должна модифицироваться, формируется с использованием фильтрованного значения (ALF-сигнала цветности) и разностного значения (Cb/Cr CCALF), при этом отсечение не применяется к выводу сформированного выборочного значения.

[0575] Фиг. 100 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно варианту осуществления. В этом варианте осуществления, процесс отсечения применяется к фильтрованным восстановленным выборкам сигналов яркости, сформированным посредством CCALF-процесса ("отсечение выходных выборок"), и к модифицированным восстановленным выборкам изображений компонента сигнала цветности ("отсечение после суммирования"). Фильтрованное значение восстановленных выборок сигналов цветности, сформированных посредством ALF-процесса, не отсекается ("без отсечения"). В качестве примера, отсеченный диапазон, применяемый к фильтрованной восстановленной выборке изображений компонента сигнала яркости, может составлять [-2^15, 2^15-1] или [-2^7, 2^7-1].

[0576] Фиг. 101 показывает другой пример, в котором процесс отсечения применяется к фильтрованным восстановленным выборкам сигналов яркости, сформированным посредством CCALF-процесса ("отсечение выходных выборок"), к модифицированным восстановленным выборкам изображений компонента сигнала цветности ("отсечение после суммирования") и к фильтрованным восстановленным выборкам сигналов цветности, сформированным посредством ALF-процесса ("отсечение"). Другими словами, выходные значения из CCALF-процесса и ALF-процесса для сигналов цветности отдельно отсекаются и отсекаются снова после того, как они суммируются. В этом варианте осуществления, модифицированная восстановленная выборка изображений компонента сигнала цветности не должна отсекаться. В качестве примера, конечный вывод из ALF-процесса для сигналов цветности может отсекаться до 10-битового значения. В качестве примера, отсеченный диапазон, применяемый к фильтрованным восстановленным выборкам изображений компонента сигнала яркости, может составлять [-2^15, 2^15-1] или [-2^7, 2^7-1]. Этот диапазон может быть фиксированным или может адаптивно определяться. В любом случае, диапазон может передаваться в служебных сигналах в информации заголовка, например, в SPS (наборе параметров последовательности) или APS (наборе параметров адаптации). В случае, когда нелинейная ALF используется, параметры отсечения могут задаваться для "отсечения после суммирования" на фиг. 101.

[0577] Восстановленные выборки изображений компонента сигнала яркости, который должен фильтроваться посредством CCALF-процесса, могут представлять собой соседние выборки, которые являются смежными с текущей восстановленной выборкой изображений компонента сигнала цветности. Таким образом, модифицированная текущая восстановленная выборка изображений может формироваться посредством суммирования фильтрованного значения соседних выборок изображений компонента сигнала яркости, расположенного рядом с текущей выборкой изображений, с фильтрованным значением текущей выборки изображений компонента сигнала цветности. Фильтрованное значение выборок изображений компонента сигнала яркости может представляться как разностное значение.

[0578] Процессы, раскрытые в этом аспекте, могут уменьшать аппаратный размер внутреннего запоминающего устройства, требуемый для того, чтобы сохранять фильтрованные выборочные значения изображений.

[0579] Второй аспект

Фиг. 102 является блок-схемой последовательности операций способа для примера последовательности 2000 операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием заданной информации, согласно второму аспекту. Последовательность операций обработки 2000 может выполняться, например, посредством декодера 200 по фиг. 67 и т.д.

[0580] На этапе S2001, параметр отсечения синтаксически анализируется из потока битов. Параметр отсечения может синтаксически анализироваться из VPS, APS, SPS, PPS, заголовка среза, на CTU- или TU-уровне, как описано на фиг. 103. Фиг. 103 является концептуальной схемой, указывающей местоположение(я) параметров отсечения. Параметр, описанный на фиг. 103, может заменяться посредством другого типа параметра отсечения, флага или индекса. Два или более параметров отсечения могут синтаксически анализироваться из двух или более наборов параметров в потоке битов.

[0581] На этапе S2002, разность отсекается с использованием параметра отсечения. Разность формируется на основе восстановленных выборок изображений первого компонента (например, разностного значения (Cb/Cr CCALF) на фиг. 98-101). В качестве примера, первый компонент представляет собой компонент сигнала яркости, и разность представляет собой фильтрованные восстановленные выборки сигналов яркости, сформированные посредством CCALF-процесса. В этом случае, процесс отсечения применяется к фильтрованным восстановленным выборкам сигналов яркости с использованием синтаксически проанализированного параметра отсечения.

[0582] Параметр отсечения ограничивает значение таким образом, что оно находится в требуемом диапазоне. Если требуемый диапазон составляет [-3, 3], согласно примеру, значение 5 отсекается до 3 с использованием операции clip(-3, 3, 5). В этом примере, значение -3 представляет собой нижний диапазон, и значение 3 представляет собой верхний диапазон.

[0583] Параметр отсечения может указывать индекс, чтобы извлекать нижний диапазон и верхний диапазон, как показано на фиг. 104(i). В этом примере, ccalf_luma_clip_idx[] представляет собой индекс, -range_array[] представляет собой нижний диапазон, и range_array[] представляет собой верхний диапазон. В этом примере, range_array[] представляет собой определенный массив диапазонов, который может отличаться от массива диапазонов, используемого для ALF. Определенный массив диапазонов может быть предварительно определен.

[0584] Параметр отсечения может указывать нижний диапазон и верхний диапазон, как показано на фиг. 104(ii). В этом примере, -ccalf_luma_clip_low_range[] представляет собой нижний диапазон, и ccalf_luma_clip_up_range[] представляет собой верхний диапазон.

[0585] Параметр отсечения может указывать общий диапазон как для нижнего диапазона, так и для верхнего диапазона, как показано на фиг. 104(iii). В этом примере, -ccalf_luma_clip_range представляет собой нижний диапазон, и ccalf_luma_clip_range представляет собой верхний диапазон.

[0586] Разность формируется посредством умножения, деления, суммирования или вычитания, по меньшей мере, двух восстановленных выборок изображений первого компонента. Две восстановленных выборки изображений, например, могут исходить из текущих и соседних выборок изображений или двух соседних выборок изображений. Местоположения текущих и соседних выборок изображений могут быть предварительно определены.

[0587] На этапе S2003, восстановленная выборка изображений второго компонента, отличающегося от первого компонента, модифицируется с использованием отсеченного значения. Отсеченное значение может представлять собой отсеченное значение восстановленной выборки изображений компонента сигнала яркости. Второй компонент может представлять собой компонент сигнала цветности. Модификация может включать в себя операцию, чтобы умножать, делить, суммировать или вычитать отсеченное значение относительно восстановленной выборки изображений второго компонента.

[0588] На этапе S2004, изображение декодируется с использованием модифицированной восстановленной выборки изображений.

[0589] В настоящем раскрытии сущности, один или более параметров отсечения для кросскомпонентной адаптивной контурной фильтрации передаются в служебных сигналах в потоке битов. При этой передаче служебных сигналов, синтаксис кросскомпонентной адаптивной контурной фильтрации и синтаксис адаптивного контурного фильтра могут комбинироваться для упрощения синтаксиса. Кроме того, при этой передаче служебных сигналов, проектирование кросскомпонентной адаптивной контурной фильтрации может быть более гибким для повышения эффективности кодирования.

[0590] Параметры отсечения могут задаваться или предварительно задаваться для кодеров и декодеров без передачи в служебных сигналах. Параметры отсечения также могут извлекаться с использованием информации сигнала яркости без передачи в служебных сигналах. Например, параметры отсечения, соответствующие большому диапазону отсечения, могут извлекаться, если сильный градиент или край обнаруживается в восстановленном изображении сигнала яркости, и параметры отсечения, соответствующие короткому диапазону отсечения, могут извлекаться, если слабый градиент или край обнаруживается в восстановленном изображении сигнала яркости.

[0591] Третий аспект

Фиг. 105 является блок-схемой последовательности операций способа для примера последовательности 3000 операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием коэффициента фильтрации согласно третьему аспекту. Последовательность операций обработки 3000 может выполняться, например, посредством декодера 200 по фиг. 67 и т.д. Коэффициент фильтрации используется на этапе фильтрации CCALF-процесса, чтобы формировать фильтрованную восстановленную выборку изображений компонента сигнала яркости.

[0592] На этапе S3001, определяется то, расположен или нет коэффициент фильтрации в заданной симметричной области фильтра. Необязательно, может выполняться дополнительный этап проведения оценки в отношении того, является или нет форма коэффициентов фильтрации симметричной. Информация, указывающая то, является выборка коэффициентов фильтрации симметричной или нет, может кодироваться в поток битов. Если форма является симметричной, местоположения коэффициентов, которые находятся внутри симметричной области, могут определяться или предварительно определяться.

[0593] На этапе S3002, если коэффициент фильтрации находится внутри заданной симметричной области ("Да" на этапе S3001), коэффициент фильтрации копируется в симметричную позицию, и набор коэффициентов фильтрации формируется.

[0594] На этапе S3003, коэффициенты фильтрации используются для того, чтобы фильтровать восстановленные выборки изображений первого компонента. Первый компонент может представлять собой компонент сигнала яркости.

[0595] На этапе S3004, вывод фильтрации используется для того, чтобы модифицировать восстановленную выборку изображений второго компонента, отличающегося от первого компонента. Второй компонент может представлять собой компонент сигнала цветности.

[0596] На этапе S3005, изображение декодируется с использованием модифицированной восстановленной выборки изображений.

[0597] Если коэффициенты фильтрации не являются симметричными ("Нет" на этапе S3001), все коэффициенты фильтрации могут кодироваться из потока битов, и набор коэффициентов фильтрации может формироваться без копирования.

[0598] Этот аспект может уменьшать объем информации, которая должна кодироваться в поток битов. Таким образом, только один из коэффициентов фильтрации, которые являются симметричными, возможно, должен кодироваться в потоке битов.

[0599] Фиг. 106, 107, 108, 109 и 110 являются концептуальными схемами примеров, указывающих местоположения коэффициентов фильтрации, которые должны использоваться в CCALF-процессе. В этих примерах, некоторые коэффициенты, включенные в набор коэффициентов, передаются в служебных сигналах, при условии, что симметрия существует.

[0600] В частности, фиг. 106(a), 106(b), 106(c) и 106(d) указывают примеры, в которых часть набора CCALF-коэффициентов (помеченных посредством диагональных линий и сетчатых шаблонов) расположена в заданной симметричной области. В этих примерах, симметричные области имеют линейно-симметричную форму. Только некоторые помеченные коэффициенты (помеченные посредством диагональных линий или сетчатых шаблонов) и коэффициенты белого цвета могут кодироваться в поток битов, и другие коэффициенты могут формироваться посредством использования кодированных коэффициентов. В качестве других примеров, только помеченные коэффициенты могут формироваться и использоваться в процессе фильтрации. Другие коэффициенты белого цвета (не помеченные посредством любого шаблона) не должны использоваться в процессе фильтрации.

[0601] Фиг. 106(e), 106(f), 106(g) и 106(h) указывают примеры, в которых форма симметричной области является горизонтальной, вертикальной, диагональной, наряду с направлением, точечно-симметричной или точечно-симметричной с направлением.

[0602] На этих чертежах, только часть коэффициентов, которые помечаются посредством диагональных линий или сетчатых шаблонов, возможно, должна кодироваться. Местоположения коэффициентов, которые должны кодироваться, могут определяться или предварительно определяться. Например, коэффициенты могут кодироваться в определенном порядке сканирования, и коэффициент, который появляется первым, может кодироваться первым. Коэффициент в симметричной области, коэффициент которой не кодируется, может копироваться из коэффициента, который расположен в его симметричной позиции. В некоторых вариантах осуществления, может быть необязательным обрабатывать коэффициенты на основе симметрии. Например, когда определяется то, что i-ый коэффициент является идентичным j-ому коэффициенту в порядке сканирования, процесс может просто копировать j-ое значение в i-ое значение. Местоположение может определяться на основе других параметров.

[0603] Фиг. 107(a), 107(b), 107(c) и 107(d) указывают примеры, в которых часть набора CCALF-коэффициентов (помеченных посредством диагональных линий и сетчатых шаблонов) расположена в заданной симметричной области. В этих примерах, число симметричных коэффициентов может отличаться. Число симметричных коэффициентов может определяться, предварительно определяться или может передаваться в служебных сигналах на уровне кадра, уровне среза или уровне блока.

[0604] Фиг. 107(e), 107(f), 107(g) и 107(h) указывают примеры, в которых часть набора CCALF-коэффициентов (помеченных посредством диагональных линий и сетчатых шаблонов) расположена в заданной симметричной области. В этих примерах, симметричные коэффициенты на одной симметричной стороне могут отличаться от соответствующих коэффициентов на другой симметричной стороне, т.е. некоторые коэффициенты (например, набор коэффициентов) на одной стороне являются симметричными с различными значениями коэффициентов (например, другим набором коэффициентов) на другой стороне. В качестве примера, только часть коэффициентов "сетчатого шаблона" на одной симметричной стороне может кодироваться в поток битов и копироваться, чтобы формировать коэффициенты "шаблона с диагональными линиями" на другой симметричной стороне.

[0605] Фиг. 108(a), 108(b), 108(c) и 108(d) указывают примеры форм фильтра, в которых тип сигналов цветности служит в качестве определенного формата. Определенный формат, например, может представлять собой YUV 420 тип 0. Отмеченные коэффициенты (коэффициенты шаблона с диагональными линиями или коэффициенты сетчатого шаблона) являются симметричными относительно позиции сигнала цветности типа сигналов цветности. Форма фильтра может проектироваться с возможностью быть симметричной относительно позиции сигнала цветности других YUV-форматов. Например, эти формы фильтра по фиг. 108(a)-108(d) могут использоваться в качестве значения по умолчанию, и другие формы фильтра могут определяться для использования в процессе фильтрации, когда параметр, кодированный в потоке битов, указывает другие форматы.

[0606] Фиг. 108(e), 108(f), 108(g) и 108(h) указывают примеры форм фильтра, в которых тип сигналов цветности служит в качестве определенного формата. Определенный формат может представлять собой YUV-формат сигнала цветности, отличающийся от YUV 420 тип 0. Различные формы фильтра могут использоваться для других форматов.

[0607] Фиг. 109(a), 109(b), 109(c) и 109(d) указывают другие примеры форм фильтра. На фиг. 109(a), число симметричных коэффициентов может быть нулем, и все коэффициенты передаются в служебных сигналах независимо. Число симметричных коэффициентов не должно обязательно кодироваться в поток битов. На фиг. 109(b), число симметричных коэффициентов может составлять одну половину от всех коэффициентов.

[0608] Фиг. 110(a), 110(b), 110(c) и 110(d) указывают другие примеры форм фильтра и сигналов, которые должны кодироваться, с порядком сканирования, указываемым посредством стрелок. На фиг. 110(a), порядок растрового сканирования применяется к коэффициентам фильтрации независимо от типа симметрии. На фиг. 110(b), порядок растрового сканирования применяется к коэффициентам фильтрации, независимо от типа симметрии, и только коэффициенты белого цвета и коэффициенты сетчатого шаблона передаются в служебных сигналах в потоке битов в порядке растрового сканирования. Декодер может использовать LUT (таблицу поиска), чтобы дублировать скопированные коэффициенты сетки, чтобы формировать коэффициенты шаблона с диагональными линиями. На фиг. 110(c), скопированные коэффициенты сетки, расположенные в симметричной области, сканируются и передаются в служебных сигналах, и затем коэффициенты белого цвета, расположенные в асимметричной области, сканируются и передаются в служебных сигналах. На фиг. 110(d), коэффициенты, расположенные в асимметричной области, сканируются и передаются в служебных сигналах, и затем коэффициенты сетчатого шаблона сканируются и передаются в служебных сигналах.

[0609] Фиг. 111 и 112 являются концептуальными схемами дополнительных примеров, указывающих местоположения коэффициентов фильтрации, которые должны использоваться в CCALF-процессе. В этих примерах, симметричные позиции, местоположения или числа коэффициентов в наборе коэффициентов фильтрации могут быть адаптивными относительно типа сигналов цветности.

[0610] Фиг. 113 является блок-схемой, иллюстрирующей функциональную конфигурацию CCALF-процесса, выполняемого посредством кодера и декодера согласно варианту осуществления. После фильтрации кадра сигналов яркости с использованием сформированных коэффициентов фильтрации, выходные выборки применяются к кадру сигналов цветности. Фильтр с сформированными коэффициентами фильтрации применяется к выходному SAO-кадру сигналов яркости. Фильтрованные выборки (CC ALF Cb и CC ALF Cr) затем суммируются с выходным ALF-кадром сигналов цветности.

[0611] Четвертый аспект

Фиг. 114 является блок-схемой последовательности операций способа для примера последовательности 4000 операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием фильтра, выбранного из множества фильтров согласно четвертому аспекту. Последовательность 4000 операций обработки может выполняться, например, посредством декодера 200 по фиг. 67 и т.д. Этот вариант осуществления раскрывает способы модификации восстановленных выборок компонента с использованием информации из другого компонента.

[0612] На этапе S4001, параметр определяется. Параметр может синтаксически анализироваться из VPS, APS, SPS, PPS, заголовка среза или на CTU- или TU-уровне, как описано на фиг. 103. Параметр синтаксически анализируется из потока битов, чтобы указывать фильтр. Например, параметр может указывать индекс, чтобы выбирать фильтр из определенного множества фильтров. Параметр может синтаксически анализироваться из потока битов, чтобы указывать формат субдискретизации сигналов цветности в качестве 4:4:4, 4:2:0, 4:2:2 или 4:1:1. Параметр может синтаксически анализироваться из потока битов, чтобы указывать цветовое пространство в качестве YCbCr или RGB. Параметр может синтаксически анализироваться из потока битов, чтобы указывать разрешение кадров в качестве 4K, FHD, CIF, QCIF. Параметр может указывать цветовой компонент в качестве Y, Cb или Cr. Параметр также может извлекаться с использованием информации сигнала яркости без передачи в служебных сигналах. Согласно примеру, параметр, соответствующий фильтру с небольшим числом отводов, может извлекаться, если сильный градиент или край обнаруживается в восстановленном изображении сигнала яркости, и параметр, соответствующий фильтру с большим числом отводов, может извлекаться, если слабый градиент или край обнаруживается в восстановленном изображении сигнала яркости. В качестве другого примера, параметр, соответствующий фильтру с большим числом отводов, может извлекаться, если сильный градиент или край обнаруживается в восстановленном изображении сигнала яркости, и параметр, соответствующий фильтру с небольшим числом отводов, может извлекаться, если слабый градиент или край обнаруживается в восстановленном изображении сигнала яркости.

[0613] На этапе S4002, фильтр выбирается из множества фильтров на основе параметра. Множество фильтров могут иметь различные формы или размеры. Множество фильтров могут иметь идентичную форму и иметь различные значения коэффициентов. Параметр может указывать значения коэффициентов, которые должны использоваться для того, чтобы формировать набор коэффициентов фильтрации.

[0614] Фиг. 115 показывает пример последовательности операций обработки выбора фильтра.

[0615] На этапе S4011, определяется то, указывает или нет параметр определенный формат. Формат может быть предварительно определен. Определенный формат может указывать формат субдискретизации сигналов цветности в качестве 4:4:4, 4:2:0, 4:2:2 или 4:1:1. Определенный формат может указывать цветовой компонент в качестве Y, Cb или Cr. Определенный формат может указывать цветовое пространство в качестве YCbCr или RGB. Определенный формат может указывать разрешение кадров в качестве 4K, FHD, CIF, QCIF.

[0616] На этапе S4012, если определяется то, что параметр указывает определенный формат ("Да" на этапе S4011), первый фильтр из множества фильтров выбирается.

[0617] На этапе S4013, если определяется то, что параметр не указывает определенный формат ("Нет" на этапе S4011), фильтр, отличающийся от первого фильтра, выбирается из множества фильтров. Форма, размер или значения коэффициентов фильтрации могут отличаться между S4012 и S4013.

[0618] Фиг. 116 и фиг. 117 иллюстрируют некоторые примеры фильтров. На фиг. 116, показывающем фильтры (1a)-(1i), общее число строк, имеющих максимальное число коэффициентов, является четным (например, 2, 4 или 6). На фиг. 117, показывающем фильтры (2a)-(2i), общее число строк, имеющих максимальное число коэффициентов, является нечетным (например, 1, 3 или 5).

[0619] Например, фильтр из фиг. 116 может выбираться, если параметр указывает то, что формат субдискретизации сигналов цветности 4:2:0 применяется, в то время как фильтр из фиг. 117 может выбираться, если параметр указывает то, что формат субдискретизации сигналов цветности 4:2:2, 4:4:4 или 4:1:1 применяется. Выбор фильтров из фиг. 116 и фиг. 117 может быть изменен на противоположное.

[0620] Например, фильтр из фиг. 116 может выбираться, если параметр указывает то, что Y используется для того, чтобы модифицировать Cb или Cr, в то время как фильтр из фиг. 117 может выбираться, если параметр указывает то, что Cb используется для того, чтобы модифицировать Cr, либо Cr используется для того, чтобы модифицировать Cb. Выбор фильтров из фиг. 116 и фиг. 117 может быть изменен на противоположное.

[0621] Например, фильтр из фиг. 116 может выбираться, если параметр указывает то, что цветовое YCbCr-пространство применяется, в то время как фильтр из фиг. 117 может выбираться, если параметр указывает то, что цветовое RGB-пространство применяется. Выбор фильтров из фиг. 116 и фиг. 117 может быть изменен на противоположное.

[0622] Например, первый фильтр из фиг. 116 может выбираться, если параметр указывает то, что разрешение изображений является большим (например, 4K или 8K), в то время как фильтр, отличающийся от первого фильтра из фиг. 116, может выбираться, если параметр указывает то, что разрешение изображений является небольшим (например, QCIF или CIF). Размер двух выбранных фильтров может отличаться. Например, фильтр (1a) может выбираться для QCIF-разрешения изображений, фильтр (1c) может выбираться для FHD-разрешения изображений, и фильтр (1e) может выбираться для 8K-разрешения изображений.

[0623] Например, первый фильтр из фиг. 117 может выбираться, если параметр указывает то, что разрешение изображений является большим (например, 4K или 8K), в то время как фильтр, отличающийся от первого фильтра из фиг. 117, может выбираться, если параметр указывает то, что разрешение изображений является небольшим (например, QCIF или CIF). Размер двух выбранных фильтров может отличаться. Например, фильтр (2a) может выбираться для QCIF-разрешения изображений, фильтр (2c) может выбираться для FHD-разрешения изображений, и фильтр (2e) может выбираться для 8K-разрешения изображений.

[0624] На этапе S4003, восстановленные выборки изображений первого компонента фильтруются с использованием выбранного фильтра. Первый компонент может представлять собой компонент сигнала яркости. Процесс фильтрации содержит, по меньшей мере, операцию умножения, деления, суммирования или вычитания, по меньшей мере, для двух восстановленных выборок изображений первого компонента. Например, две восстановленных выборки изображений могут исходить из текущих и соседних выборок изображений или могут исходить из двух соседних выборок изображений. Местоположения текущих и соседних выборок изображений могут быть предварительно определены.

[0625] На этапе S4004, восстановленная выборка изображений второго компонента, отличающегося от первого компонента, модифицируется с использованием вывода фильтрации. Второй компонент может представлять собой компонент сигнала цветности. Модификация включает в себя операцию, чтобы умножать, делить, суммировать или вычитать вывод фильтрации с восстановленной выборкой изображений.

[0626] На этапе S4005, изображение декодируется с использованием модифицированной восстановленной выборки изображений.

[0627] Настоящее раскрытие сущности относится к адаптивному выбору одного фильтра из множества фильтров для кросскомпонентной фильтрации. Различные фильтры могут иметь различные формы или размеры. Адаптивный выбор фильтра обеспечивает большую гибкость кросскомпонентной фильтрации для повышения эффективности кодирования.

[0628] Более одного набора фильтров может передаваться в служебных сигналах. Различные наборы фильтров могут иметь различные формы и размеры. То, какой фильтр должен использоваться, может синтаксически анализироваться или определяться после этого (например, из filter_id).

[0629] Пятый аспект

Фиг. 118 является блок-схемой последовательности операций способа для примера последовательности 5000 операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием параметра согласно пятому аспекту. Последовательность операций обработки 5000 может выполняться, например, посредством декодера 200 по фиг. 67 и т.д.

[0630] На этапе S5001, первый параметр синтаксически анализируется из потока битов. Первый параметр может синтаксически анализироваться из VPS, APS, SPS, PPS, заголовка среза или на CTU- или TU-уровне (фиг. 103, при этом "параметр" соответствует "первому параметру"). Первый параметр может указывать формат субдискретизации сигналов цветности в качестве 4:4:4, 4:2:0, 4:2:2 или 4:1:1. Первый параметр может указывать цветовое пространство в качестве YCbCr или RGB. Первый параметр может указывать разрешение кадров в качестве 4K, FHD, CIF, QCIF. Первый параметр может указывать цветовой компонент в качестве Y, Cb или Cr.

[0631] На этапе S5002, определяется то, равен или нет первый параметр определенному значению. Определенное значение может быть предварительно определено.

[0632] На этапе S5003, если определяется то, что первый параметр равен определенному значению ("Да" на этапе S5002), первое число коэффициентов синтаксически анализируется из потока битов. Первое число коэффициентов может синтаксически анализироваться из VPS, APS, SPS, PPS, заголовка среза или на CTU- или TU-уровне (фиг. 103, при этом "параметр" соответствует "первому числу коэффициентов").

[0633] На этапе S5004, если определяется то, что первый параметр не равен определенному значению ("Нет" на этапе S5003), второе число коэффициентов, не равное первому числу коэффициентов, синтаксически анализируется из потока битов. Второе число коэффициентов может синтаксически анализироваться из VPS, APS, SPS, PPS, заголовка среза или на CTU- или TU-уровне (фиг. 103, при этом "параметр" соответствует "второму числу коэффициентов"). Первое число и второе число из этапа S5002 и этапа S5003 могут отличаться.

[0634] Например, как показано на фиг. 119(i), число коэффициентов, когда первый параметр указывает то, что формат субдискретизации сигналов цветности 4:2:0 применяется, отличается от числа коэффициентов, когда первый параметр указывает то, что формат субдискретизации сигналов цветности 4:2:2, 4:4:4 или 4:1:1 применяется.

[0635] Например, как показано на фиг. 119(ii), число коэффициентов, когда первый параметр указывает то, что цветовое YCbCr-пространство применяется, отличается от числа коэффициентов, когда первый параметр указывает то, что цветовое RGB-пространство применяется.

[0636] Например, как показано на фиг. 119(iii), число коэффициентов, когда первый параметр указывает то, что Y используется для того, чтобы модифицировать Cb или Cr, отличается от числа коэффициентов, когда первый параметр указывает то, что Cb используется для того, чтобы модифицировать Cr, или Cr используется для того, чтобы модифицировать Cb.

[0637] Например, как показано на фиг. 119 (iv), число коэффициентов, когда первый параметр указывает то, что разрешение изображений является большим (например, 4K, или 8K), отличается от числа коэффициентов, когда первый параметр указывает то, что разрешение изображений является небольшим (например, QCIF или CIF).

[0638] На фиг. 119, информация как формат субдискретизации сигналов цветности и разрешение изображений может получаться, если SPS_id кодируется в APS.

[0639] На этапе S5005, восстановленные выборки изображений первого компонента фильтруются с использованием синтаксически проанализированных коэффициентов. Процесс фильтрации содержит, по меньшей мере, операцию умножения, деления, суммирования или вычитания, по меньшей мере, для двух восстановленных выборок изображений первого компонента. Две восстановленных выборки изображений, например, могут исходить из текущих и соседних выборок изображений или могут исходить из двух соседних выборок изображений. Местоположения текущих и соседних выборок изображений могут быть предварительно определены.

[0640] На этапе S5006, восстановленная выборка изображений компонента, отличающегося от первого компонента, модифицируется с использованием вывода фильтрации. Модификация включает в себя операцию, чтобы умножать, делить, суммировать или вычитать вывод фильтрации с восстановленной выборкой изображений.

[0641] На этапе S5007, изображение декодируется с использованием модифицированной восстановленной выборки изображений.

[0642] Настоящее раскрытие сущности относится к адаптивному извлечению числа коэффициентов фильтрации для кросскомпонентной фильтрации. Адаптивное извлечение числа коэффициентов фильтрации обеспечивает большую гибкость кросскомпонентной фильтрации для повышения эффективности кодирования.

[0643] Более одного набора коэффициентов может передаваться в служебных сигналах. Различные наборы коэффициентов могут иметь различные числа коэффициентов. Различные наборы коэффициентов могут иметь идентичное число коэффициентов. Число коэффициентов из этих наборов коэффициентов может быть фиксированным. Который набор коэффициентов использоваться синтаксически анализируется или определяется после этого (например, из coeff_set_id или filter_id).

[0644] Шестой аспект

Фиг. 120 является блок-схемой последовательности операций способа для примера последовательности 6000 операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием параметра согласно шестому аспекту. Последовательность операций обработки 6000 может выполняться, например, посредством декодера 200 по фиг. 67 и т.д.

[0645] На S6001, процесс выбирает, по меньшей мере, набор восстановленных выборок из первого компонента.

[0646] На S6002, процесс извлекает значение на основе выбранного набора восстановленных выборок.

[0647] На S6003, процесс фильтрует восстановленные выборки на основе извлеченного значения.

[0648] На S6004, процесс модифицирует восстановленную выборку изображений второго компонента с использованием вывода фильтрации

[0649] На S6005, процесс декодирует изображение с использованием фильтрованной восстановленной выборки изображений.

[0650] Фиг. 121, 122 и 123 являются концептуальными схемами, иллюстрирующими примеры формирования CCALF-значения компонента сигнала яркости (см. этап S6002) для текущей выборки сигналов цветности посредством вычисления средневзвешенного значения соседних выборок. Другими словами, в этом примере, CCALF-значение выборок сигналов яркости для выборки сигналов цветности формируется посредством вычисления взвешенной суммы выборок сигналов яркости, расположенных в соседней области выборки сигналов цветности. Выборки сигналов яркости включают в себя выборку, расположенную рядом с выборкой сигналов цветности.

[0651] На фиг. 121, местоположение, указываемое посредством ромбовидной формы, представляет собой местоположение текущей выборки сигналов цветности. Например, значение, соответствующее местоположению (curr) для CCALF, может извлекаться посредством вычисления усредненного значения соседних выборок сигналов яркости, которые помечаются с сетчатыми шаблонами. Выборки сигналов яркости белого цвета не должны использоваться для процесса усреднения. Другими словами, значение для CCALF может извлекаться посредством обращения к выборочному значению выборки сигналов яркости, расположенной рядом с текущей выборкой сигналов цветности. Предусмотрено две таких выборки сигналов яркости в примере по фиг. 121.

[0652] Фиг. 122 описывает примерные уравнения для вычисления CCALF-значения. CCALF-значение может извлекаться посредством использования значений коэффициентов фильтрации и выборочных значений сигналов яркости. Значение коэффициента фильтрации умножается на подконструкт из двух значений соседней выборки сигналов яркости. Выборка сигналов яркости, используемая при каждом вычислении подконструкта, может быть расположена рядом с текущей выборкой сигналов цветности. Форма уравнений может быть идентичной форме, используемой в процессе ALF-фильтрации. В некоторых вариантах осуществления, если значение коэффициента фильтрации меньше 64, значение коэффициента может задаваться равным нулю.

[0653] Как описано на фиг. 123, различные числа выборок сигналов яркости могут усредняться, и число усредненных соседних выборок сигналов яркости может предварительно задаваться или передаваться в служебных сигналах на уровне кадра, среза или блока. Позиции усредненных соседних выборок сигналов яркости могут предварительно задаваться или передаваться в служебных сигналах на уровне кадра, среза или блока. Весовые коэффициенты усредненных соседних выборок сигналов яркости могут предварительно задаваться или передаваться в служебных сигналах на уровне кадра, среза или блока.

[0654] Фиг. 124 и 125 являются концептуальными схемами, иллюстрирующими примеры формирования CCALF-значения компонента сигнала яркости для текущей выборки посредством вычисления средневзвешенного значения соседних выборок, при этом местоположения соседних выборок определяются адаптивно относительно (согласно) типа сигналов цветности. Другими словами, местоположения выборок сигналов яркости, которые должны использоваться при вычислении со взвешиванием, определяются на основе местоположения текущей выборки сигналов цветности.

[0655] Выборки, помеченные с различными шаблонами, могут представлять различные весовые коэффициенты. Число усредненных выборок может быть адаптивным (может соответствовать) относительно типа сигналов цветности. Весовые коэффициенты усредненных выборок могут быть адаптивными (могут соответствовать) относительно типа сигналов цветности.

[0656] Фиг. 126 и 127 являются концептуальными схемами, иллюстрирующими примеры формирования CCALF-значения компонента сигнала яркости посредством применения побитового сдвига к выходному значению вычисления со взвешиванием. Другими словами, процесс сдвига с понижающим масштабированием применяется к фильтрованному значению выборок сигналов яркости, идентично ALF-процессу. В некоторых вариантах осуществления, если значение коэффициента меньше 64, значение коэффициента может задаваться равным нулю.

[0657] Число битов для сдвига для CCALF представляется как x. Значение x может определяться в качестве идентичного значения со значением в ALF-процессе. В некоторых примерах значение x может быть фиксированно равным 10. В некоторых примерах значение x может быть фиксированно равным 7.

[0658] Седьмой аспект

Фиг. 128 является блок-схемой последовательности операций способа для примера последовательности 7000 операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием параметра согласно седьмому аспекту. Последовательность операций обработки 7000 может выполняться, например, посредством декодера 200 по фиг. 67 и т.д. В дальнейшем описываются способы определения восстановленных выборок, которые должны фильтроваться с использованием одного или более параметров.

[0659] На этапе S7001, один или более параметров синтаксически анализируются из потока битов. Один или более параметров могут кодироваться, по меньшей мере, в одном из APS, SPS, PPS, заголовка среза или на уровне CTU, как показано на фиг. 129. Фиг. 130 показывает примерные процессы извлечения одного или более параметров.

[0660] Один или более параметров могут находиться в SPS. Срез во-первых находит PPS согласно PPS_id, который кодируется в срезе. PPS затем находит SPS согласно SPS_id, который кодируется в PPS. Через это соединение, срез может извлекать один или более параметров в SPS, как показано на фиг. 130(a).

[0661] Один или более параметров могут находиться в наборе параметров на уровне кадра, например, в PPS. Срез во-первых находит PPS согласно PPS_id, который кодируется в срезе. Через это соединение, срез может извлекать один или более параметров в PPS, как показано на фиг. 130(b).

[0662] Один или более параметров могут находиться в APS. Срез во-первых находит APS согласно APS_id, который кодируется в срезе. Через это соединение, срез может извлекать один или более параметров в APS, как показано на фиг. 130(c).

[0663] Один или более параметров могут находиться в срезе (фиг. 130(d)). Срез может получать один или более параметров из своего внутреннего заголовка или данных.

[0664] Один или более параметров могут включать в себя первый параметр, который выбирает размер выборок, которые должны модифицироваться. Один или более параметров могут указывать то, активируется или нет CCALF-процесс. Один или более параметров могут включать в себя параметры, указывающие то, активируется или нет CCALF-процесс, и параметры, указывающие значения коэффициентов фильтра, которые должен использоваться.

[0665] Выборки могут группироваться в квадратную форму, имеющую конкретный размер, к примеру, в 4×4, 8×8, 16×16, 16×16, 32×32, 64×64 или 128×128 выборок.

[0666] Первый параметр может синтаксически анализироваться до синтаксического анализа заголовка среза или данных срезов. Например, первый параметр может синтаксически анализироваться из APS, SPS или PPS.

[0667] Первый параметр может синтаксически анализироваться из заголовка среза.

[0668] Первый параметр может синтаксически анализироваться из данных единиц дерева кодирования (CTU).

[0669] Первый параметр может зависеть от типа субдискретизации сигналов цветности или CTU-размера или обоих. Если тип субдискретизации сигналов цветности представляет собой 4:4:4, размер блока, выбранный посредством первого параметра, может составлять 4×4, 8×8, 16×16, 32×32, 64×64 или 128×128. Если тип субдискретизации сигналов цветности представляет собой 4:2:2 или 4:2:0, размер блока, выбранный посредством первого параметра, может составлять 4×4, 8×8, 16×16, 32×32 или 64×64.

[0670] Первый параметр может зависеть от CTU-размера, причем выбранный размер блока не может превышать его CTU-размер.

[0671] Один или более параметров могут включать в себя второй параметр, который указывает то, должен или нет фильтроваться блок выборок.

[0672] Второй параметр может представлять собой флаг со значением 1 или 0, при этом 1 указывает необходимость модифицировать восстановленные выборки, и 0 указывает необходимость не модифицировать восстановленные выборки.

[0673] Второй параметр может синтаксически анализироваться до синтаксического анализа первых данных единиц дерева кодирования (CTU). Например, второй параметр может синтаксически анализироваться из APS, SPS, PPS, заголовка среза или данных срезов.

[0674] Второй параметр может синтаксически анализироваться из данных единиц дерева кодирования (CTU). Фиг. 131 показывает выборочные значения второго параметра. Множество вторых параметров могут указывать то, должны или нет модифицироваться множество блоков в единице дерева кодирования (CTU), имеющей конкретные размеры.

[0675] Вторые параметры могут указывать то, деактивируется или нет модификация восстановленных выборок в кадре или последовательности. Если вторые параметры указывают то, что модификация восстановленных выборок деактивируется, этап S7002 по фиг. 128 должен приводить к этапу S7005 непосредственно, который соответствует ветви "Нет" на фиг. 128.

[0676] Один или более параметров могут включать в себя параметр, который может синтаксически анализироваться с использованием неарифметического кодирования, к примеру, кодирования фиксированной длины, кодирования экспоненциальным кодом Голомба или VLC.

[0677] Один или более параметров могут включать в себя параметр, который может синтаксически анализироваться с использованием арифметического кодирования, к примеру, CAVLC или CABAC.

[0678] Согласно примеру, как показано на фиг. 132, второй параметр может синтаксически анализироваться с использованием арифметического кодирования до синтаксического анализа первых данных единиц дерева кодирования в срезе, а далее данных байтового совмещения или битового совмещения. В этом примере, инициализация арифметического кодирования для синтаксического анализа параметров после второго параметра в идентичном срезе может применяться.

[0679] На этапе S7002, определяется то, должен или нет использоваться фильтр, на основе синтаксически проанализированных параметров.

[0680] Если фильтр должен использоваться, на этапе S7003, по меньшей мере, восстановленная выборка из первого компонента фильтруется. Первый компонент может представлять собой выборки яркости.

[0681] На этапе S7004, восстановленные выборки модифицируются с использованием, по меньшей мере, одной фильтрованной восстановленной выборки из компонента, отличающегося от первого компонента. Компонент, отличающийся от первого компонента, может представлять собой выборки цветности.

[0682] На этапе S7005, блок выборок изображений декодируется с использованием модифицированных восстановленных выборок.

[0683] Настоящее раскрытие сущности иллюстрирует характеристики одного или более параметров на нескольких уровнях для фильтрации, включающие в себя способы формирования, функции и способы кодирования. С использованием этих управляющих параметров, проектирование фильтрации может оптимизироваться, чтобы сокращать число битов кодирования, улучшать высокочастотные компоненты с использованием модифицированных выборок и уменьшать избыточность между различными каналами, чтобы за счет этого повышать качество изображений.

[0684] Фиг. 133 является концептуальной схемой варьирования этого варианта осуществления.

[0685] Один или более параметров могут зависеть от сегмента единицы дерева кодирования. Когда сегмент имеет размер, отличающийся от размера, указываемого посредством первого параметра, второй параметр, указывающий то, фильтруется или нет сегмент, не кодируется, и фильтрация сегмента деактивируется. В этом примере, кодированные биты вторых параметров уменьшаются.

[0686] Форма или выборки, описанные в седьмом аспекте, могут заменяться сегментом прямоугольной или непрямоугольной формы. Примеры сегмента непрямоугольной формы могут представлять собой, по меньшей мере, одно из сегмента треугольной формы, сегмента Г-образной формы, сегмента пятиугольной формы, сегмента шестиугольной формы и сегмента многоугольной формы, как показано на фиг. 133.

[0687] Восьмой аспект

Фиг. 134 является блок-схемой последовательности операций способа для примера последовательности 8000 операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием параметра согласно восьмому аспекту. Последовательность 8000 операций обработки может выполняться, например, посредством декодера 200 по фиг. 67 и т.д.

[0688] На этапе S8001, определяется то, находится или нет первая выборка первого компонента за пределами виртуальной границы.

[0689] На этапе S8002, если определяется то, что первая выборка первого компонента находится за пределами виртуальной границы, вторая выборка первого компонента копируется в первую выборку, при этом вторая выборка расположена внутри виртуальной границы.

[0690] На этапе S8003, восстановленная выборка первого компонента, который включает в себя первую и вторую выборки, фильтруется.

[0691] На этапе S8004, восстановленная выборка компонента, отличающегося от первого компонента, модифицируется с использованием вывода фильтрации.

[0692] На этапе S8005, модифицированная восстановленная выборка используется для того, чтобы декодировать изображение.

[0693] Способ дополнения на S8002 может быть идентичным независимо от формата дискретизации сигналов цветности. Например, симметричное дополнение может использоваться. Способ дополнения, например, может изменяться в зависимости от формата дискретизации сигналов цветности между симметричным дополнением и несимметричным дополнением.

[0694] Первый компонент может представлять собой выборки сигналов яркости, и другой компонент, выборочные значения которого модифицируются, могут представлять собой выборки сигналов цветности. Сигнал цветности может представлять собой Cb, Cr либо и то, и другое.

[0695] Фиг. 135 является блок-схемой последовательности операций способа для примера последовательности 8100 операций обработки для декодирования изображения, применяющего CCALF-процесс с использованием параметра согласно восьмому аспекту. Последовательность 8100 операций обработки может выполняться, например, посредством декодера 200 по фиг. 67 и т.д.

[0696] На S8101, определяется то, представляет собой тип выборок сигналов цветности или нет первый тип. Фиг. 136 показывает примерные местоположения типов 0-5 выборок сигналов цветности.

[0697] На S8102, если определяется то, что тип выборок сигналов цветности имеет первый тип, первая выборка и вторая выборка используются при фильтрации восстановленных выборок первого компонента, при этом первая выборка дублируется из второй восстановленной выборки.

[0698] На S8103, если определяется то, что тип выборок сигналов цветности не имеет первого типа, вторая выборка и третья выборка используются при фильтрации восстановленных выборок первого компонента, и первая выборка исключается, в котором третья выборка отличается сначала или вторая выборка.

[0699] На S8104, восстановленная выборка из компонента, отличающегося от первого компонента, модифицируется с использованием вывода фильтрации. Например, первый компонент указывает яркость, и вывод фильтрации суммируется с восстановленной выборкой из компонента цветности. В другом примере, первый компонент указывает компонент Cr цветности, и вывод фильтрации суммируется с восстановленной выборкой из компонента Cb цветности. В другом примере, вывод фильтрации и восстановленная выборка могут суммироваться, вычитаться, умножаться, делиться или подвергаться любой комбинации математических процессов, чтобы получать модифицированную восстановленную выборку.

[0700] На S8105, модифицированная восстановленная выборка используется для того, чтобы декодировать изображение. Например, модифицированная восстановленная выборка сохраняется в буфере опорных кадров.

[0701] Фиг. 137, 138 и 139 являются концептуальными схемами примеров симметричного дополнения.

[0702] Например, на S8002 по фиг. 134, если тип выборок сигналов цветности равен 0 или 1, и виртуальная граница находится между C0 и C2, как показано на фиг. 137(a), восстановленное выборочное значение второй выборки (C15) дублируется в первую выборку (C17). Аналогично, восстановленное выборочное значение второй выборки (C2) дублируется в первую выборку (C0).

[0703] В качестве другого примера, на S8002, если тип выборок сигналов цветности равен 0 или 1, и виртуальная граница находится между C15 и C17, как показано на фиг. 137(b), восстановленное выборочное значение второй выборки (C2) дублируется в первую выборку (C0). Аналогично, восстановленное выборочное значение второй выборки (C15) дублируется в первую выборку (C17).

[0704] В качестве другого примера, на S8002, если тип выборок сигналов цветности равен 0 или 1, и виртуальная граница находится между C2 и C6, как показано на фиг. 137(c), восстановленные выборочные значения вторых выборок (C10, C11 и C12) дублируются в первые выборки (C14, C15, C16 и C17). Аналогично, восстановленные выборочные значения вторых выборок (C5, C6 и C7) дублируются в первые выборки (C0, C1, C2 и C3).

[0705] В качестве другого примера, на S8002, если тип выборок сигналов цветности равен 0 или 1, и виртуальная граница находится между C11 и C15, как показано на фиг. 137(d), восстановленные выборочные значения вторых выборок (C5, C6 и C7) дублируются в первые выборки (C0, C1, C2 и C3). Аналогично, восстановленные выборочные значения вторых выборок (C10, C11 и C12) дублируются в первые выборки (C14, C15, C16 и C17).

[0706] Фиг. 138 и 139 показывают примеры выборок, которые дублируются на фиг. 137(a) и фиг. 137(c), соответственно.

[0707] После дублирования, дублированные выборки используются при фильтрации восстановленных выборок первого компонента.

[0708] Фиг. 140, 141, 142 и 143 является концептуальными схемами примеров несимметричного дополнения.

[0709] Например, на S8002, если тип выборок сигналов цветности равен 2 или 3, и виртуальная граница находится между C0 и C2, как показано на фиг. 140(a), восстановленные выборочные значения вторых выборок (C10, C11 и C12) дублируются в первые выборки (C14, C15, C16 или C17). Аналогично, восстановленное выборочное значение второй выборки (C2) дублируется в первую выборку (C0).

[0710] В другом примере S8002, если тип выборок сигналов цветности равен 2 или 3, и виртуальная граница находится между C15 и C17, как показано на фиг. 140(b), восстановленное выборочное значение второй выборки (C15) дублируется в первую выборку (C17).

[0711] В другом примере S8002, если тип выборок сигналов цветности равен 2 или 3, и виртуальная граница находится между C2 и C6, как показано на фиг. 140(c), восстановленные выборочные значения вторых выборок (C4, C5, C6, C7 и C8) дублируются в первые выборки (C9, C10, C11, C12, C13, C14, C15, C16 и C17). Аналогично, восстановленные выборочные значения вторых выборок (C5, C6 и C7) дублируются в первые выборки (C0, C1, C2 и C3).

[0712] В другом примере S8002, если тип выборок сигналов цветности равен 2 или 3, и виртуальная граница находится между C11 и C15, как показано на фиг. 140(d), восстановленные выборочные значения вторых выборок (C5, C6 и C7) дублируются в первые выборки (C0, C1, C2 и C3).

[0713] Фиг. 141, 142 и 143 показывают примеры выборок, которые дублируются на фиг. 140(a), фиг. 140(c) и фиг. 140(d), соответственно.

[0714] После дублирования, дублированные выборки используются при фильтрации восстановленных выборок первого компонента.

[0715] Фиг. 144, 145, 146 и 147 являются концептуальными схемами дополнительных примеров несимметричного дополнения.

[0716] В примере S8002, если тип выборок сигналов цветности равен 4 или 5, и виртуальная граница находится между C0 и C2, как показано на фиг. 144(a), восстановленное выборочное значение второй выборки (C2) дублируется в первую выборку (C0).

[0717] В другом примере S8002, если тип выборок сигналов цветности равен 4 или 5, и виртуальная граница находится между C15 и C17, как показано на фиг. 144(b), восстановленные выборочные значения вторых выборок (C5, C6 и C7) дублируются в первые выборки (C0, C1, C2 и C3). Аналогично, восстановленное выборочное значение второй выборки (C15) дублируется в первую выборку (C17).

[0718] В другом примере S8002, если тип выборок сигналов цветности равен 4 или 5, и виртуальная граница находится между C2 и C6, как показано на фиг. 144(c), восстановленное выборочное значение второй выборки (C15) дублируется в первую выборку (C17). Аналогично, восстановленные выборочные значения вторых выборок (C5, C6 и C7) дублируются в первые выборки (C0, C1, C2 и C3).

[0719] В другом примере S8002, если тип выборок сигналов цветности равен 4 или 5, и виртуальная граница находится между C11 и C15, как показано на фиг. 144(d), восстановленные выборочные значения вторых выборок (C9, C10, C11, C12 и C13) дублируются в первые выборки (C0, C1, C2, C3, C4, C5, C6, C7 и C8).

[0720] Фиг. 145, 146 и 147 показывают примеры выборок, которые дублируются на фиг. 144(b), фиг. 144(c) и фиг. 144(d), соответственно.

[0721] После дублирования, дублированные выборки используются при фильтрации восстановленных выборок первого компонента.

[0722] Фиг. 148, 149 и 150 являются концептуальными схемами дополнительных примеров симметричного дополнения.

[0723] В примере S8002, если тип выборок сигналов цветности равен 0, 2 или 4, и виртуальная граница находится между C4 и C5, как показано на фиг. 148(a), восстановленные выборочные значения вторых выборок (C7 и C12) дублируются в первые выборки (C8 и C13). Аналогично, восстановленные выборочные значения вторых выборок (C5 и C10) дублируются в первые выборки (C4 и C9).

[0724] В другом примере S8002, если тип выборок сигналов цветности равен 0, 2 или 4, и виртуальная граница находится между C7 и C8, как показано на фиг. 148(b), восстановленные выборочные значения вторых выборок (C5 и C10) дублируются в первые выборки (C4 и C9). Аналогично, восстановленные выборочные значения вторых выборок (C7 и C12) дублируются в первые выборки (C8 и C13).

[0725] В другом примере S8002, если тип выборок сигналов цветности равен 0, 2 или 4, и виртуальная граница находится между C5 и C6, как показано на фиг. 148(c), восстановленные выборочные значения вторых выборок (C2, C6, C11 и C15) дублируются в первые выборки (C1, C4, C5, C9, C10 и C14). Аналогично, восстановленные выборочные значения вторых выборок (C2, C6, C11 и C15) дублируются в первые выборки (C3, C7, C8, C12, C13 и C16).

[0726] В другом примере S8002, если тип выборок сигналов цветности равен 0, 2 или 4, и виртуальная граница находится между C6 и C7, как показано на фиг. 148(d), восстановленные выборочные значения вторых выборок (C2, C6, C11 и C15) дублируются в первые выборки (C1, C4, C5, C9, C10 и C14). Аналогично, восстановленные выборочные значения вторых выборок (C2, C6, C11 и C15) дублируются в первые выборки (C3, C7, C8, C12, C13 и C16).

[0727] Фиг. 149 и фиг. 150 показывают примеры выборок, которые дублируются на фиг. 148(a) и фиг. 148(c), соответственно.

[0728] После дублирования, дублированные выборки используются при фильтрации восстановленных выборок первого компонента.

[0729] Фиг. 151, 152, 153, 154 и 155 являются концептуальными схемами дополнительных примеров несимметричного дополнения.

[0730] В примере S8002, если тип выборок сигналов цветности равен 1, 3 или 5, и виртуальная граница находится между C4 и C5, как показано на фиг. 151(a), восстановленные выборочные значения вторых выборок (C5 и C10) дублируются в первые выборки (C4 и C9).

[0731] В другом примере S8002, если тип выборок сигналов цветности равен 1, 3 или 5, и виртуальная граница находится между C7 и C8, как показано на фиг. 151(b), восстановленные выборочные значения вторых выборок (C2, C6, C11 и C15) дублируются в первые выборки (C1, C4, C5, C9, C10 и C14). Аналогично, восстановленные выборочные значения вторых выборок (C7 и C12) дублируются в первые выборки (C8 и C13).

[0732] В другом примере S8002, если тип выборок сигналов цветности равен 1, 3 или 5, и виртуальная граница находится между C5 и C6, как показано на фиг. 151(c), восстановленные выборочные значения вторых выборок (C7 и C12) дублируются в первые выборки (C8 и C13). Аналогично, восстановленные выборочные значения вторых выборок (C2, C6, C11 и C15) дублируются в первые выборки (C1, C4, C5, C9, C10 и C14).

[0733] Фиг. 152, 153 и 154 показывают примеры выборок, которые дублируются на фиг. 151(a), фиг. 151(b) и фиг. 151(c), соответственно.

[0734] Фиг. 155 показывает дополнительные примеры дополнения с горизонтальной и вертикальной виртуальной границей.

[0735] После дублирования, дублированные выборки используются при фильтрации восстановленных выборок первого компонента.

[0736] Настоящее раскрытие сущности иллюстрирует дополнение или дублирование выборок, используемых в фильтре, на основе типа выборок сигналов цветности и виртуального граничного местоположения в фильтре. Такой способ дополнения или дублирования выборок повышает качество кадров.

[0737] Разновидности

Тип выборок сигналов цветности может заменяться другой информацией, которая указывает взаимосвязь между первым компонентом и другим компонентом, отличающимся от первого компонента.

[0738] Тип выборок сигналов цветности может заменяться флагом, который выбирает симметричное или несимметричное дополнение внутри виртуальной границы, где 0 выбирает симметричное дополнение, и 1 выбирает несимметричное дополнение, или 1 выбирает симметричное дополнение, и 0 выбирает несимметричное дополнение.

[0739] Флаг может передаваться в служебных сигналах из потока битов или может извлекаться.

[0740] Значение по умолчанию флага может представлять собой симметричное дополнение внутри виртуальной границы.

[0741] Значение по умолчанию флага может представлять собой несимметричное дополнение внутри виртуальной границы.

[0742] Например, флаг может извлекаться на основе состояния включения/выключения другого фильтра. Например, если ALF-фильтр включен, флаг может выбирать симметричное дополнение. Если ALF-фильтр выключен, флаг может выбирать несимметричное дополнение.

[0743] В качестве другого примера, если ALF-фильтр включен, флаг может выбирать несимметричное дополнение. Если ALF-фильтр выключен, флаг может выбирать симметричное дополнение.

[0744] Другие фильтры, которые могут использоваться, включают в себя LMCS, SAO, DBF и другие постфильтры.

[0745] В некоторых вариантах осуществления, флаг может задаваться на основе профиля.

[0746] Виртуальная граница может заменяться границей кадра, среза, кирпича, плитки или субкадра.

[0747] Фиг. 156 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно примеру, в котором симметричное дополнение используется в виртуальных граничных местоположениях для ALF, и симметричное или несимметричное дополнение используется в виртуальных граничных местоположениях для CCALF на основе типа выборок сигналов цветности и виртуальном граничном местоположении.

[0748] Фиг. 157 является блок-схемой, иллюстрирующей функциональную конфигурацию кодера и декодера согласно примеру, в котором другое симметричное дополнение используется в виртуальных граничных местоположениях для ALF, и одностороннее дополнение используется в виртуальных граничных местоположениях для CCALF.

[0749] Фиг. 158 является концептуальной схемой, иллюстрирующей пример одностороннего дополнения с горизонтальной или вертикальной виртуальной границей.

[0750] Фиг. 159 является концептуальной схемой, иллюстрирующей пример одностороннего дополнения с горизонтальной и вертикальной виртуальной границей.

[0751] Ввод в CCALF (восстановленные выборки используемого для фильтрации первого компонента) не ограничивается SAO-выводом. Ввод может предоставляться из вывода преобразования сигнала яркости с масштабированием сигнала цветности (LMCS), билатерального фильтра/фильтра Адамара или фильтра удаления блочности либо любых комбинаций постфильтров.

[0752] CCALF может включаться/выключаться в каждом блоке. Блок не должен обязательно перекрываться более чем между одной CTU. Поскольку ALF может включаться/выключаться в CTU, CCALF может включаться для CTU, в которой ALF включен.

[0753] Один или более аспектов, раскрытых в данном документе, могут выполняться в комбинации, по меньшей мере, с частью других аспектов в настоящем раскрытии сущности. Помимо этого, один или более аспектов, раскрытых в данном документе, могут выполняться посредством комбинирования, с другими аспектами, части процессов, указываемых на любой из блок-схем последовательности операций способа согласно аспектам, части конфигурации любого из устройств, части синтаксисов и т.д. Аспекты, описанные со ссылкой на составляющий элемент кодера, могут выполняться аналогично посредством соответствующего составляющего элемента декодера.

[0754] Реализации и варианты применения

Как описано в каждом из вышеописанных вариантов осуществления, каждый функциональный или рабочий блок типично может реализовываться, например, в качестве MPU (микропроцессора) и запоминающего устройства. Кроме того, процессы, выполняемые посредством каждого из функциональных блоков, могут реализовываться в качестве модуля выполнения программ, такого как процессор, который считывает и выполняет программное обеспечение (программу), записанное на носителе записи, таком как ROM. Программное обеспечение может быть распределенным. Программное обеспечение может записываться на множестве носителей записи, таких как полупроводниковое запоминающее устройство. Следует отметить, что каждый функциональный блок также может реализовываться в качестве аппаратных средств (специализированной схемы). Могут использоваться различные комбинации аппаратных средств и программного обеспечения.

[0755] Кроме того, обработка, описанная в каждом из вариантов осуществления, может реализовываться через интегрированную обработку с использованием одного оборудования (системы) и, альтернативно, может реализовываться через децентрализованную обработку с использованием множества элементов оборудования. Кроме того, процессор, который выполняет вышеописанную программу, может представлять собой один процессор или множество процессоров. Другими словами, может выполняться интегрированная обработка, и, альтернативно, может выполняться децентрализованная обработка.

[0756] Варианты осуществления настоящего раскрытия сущности не ограничены вышеуказанными примерными вариантами осуществления; различные модификации могут вноситься в примерные варианты осуществления, результаты которых также включаются в пределы объема вариантов осуществления настоящего раскрытия сущности.

[0757] Далее описываются примеры вариантов применения способа кодирования движущихся кадров (способа кодирования изображений) и способа декодирования движущихся кадров (способа декодирования изображений), описанных в каждом из вышеуказанных вариантов осуществления, а также различных систем, которые реализуют примеры вариантов применения. Такая система может характеризоваться как включающая в себя кодер изображений, который использует способ кодирования изображений, декодер изображений, который использует способ декодирования изображений, и кодер-декодер изображений, который включает в себя как кодер изображений, так и декодер изображений. Другие конфигурации такой системы могут модифицироваться для каждого отдельного случая.

[0758] Примеры использования

Фиг. 160 иллюстрирует общую конфигурацию системы ex100 предоставления контента, подходящей для реализации услуги распространения контента. Зона, в которой предоставляется услуга связи, разделяется на соты требуемых размеров, и базовые станции ex106, ex107, ex108, ex109 и ex110, которые представляют собой стационарные беспроводные станции в проиллюстрированном примере, расположены в соответствующих сотах.

[0759] В системе ex100 предоставления контента, устройства, включающие в себя компьютер ex111, игровое устройство ex112, камеру ex113, бытовой прибор ex114 и смартфон ex115, соединяются с Интернетом ex101 через поставщика ex102 Интернет-услуг или сеть ex104 связи и базовые станции ex106-ex110. Система ex100 предоставления контента может комбинировать и соединять любую комбинацию вышеуказанных устройств. В различных реализациях, устройства могут прямо или косвенно соединяться между собой через телефонную сеть или связь ближнего радиуса действия, а не через базовые станции ex106-ex110. Дополнительно, потоковый сервер ex103 может соединяться с устройствами, включающими в себя компьютер ex111, игровое устройство ex112, камеру ex113, бытовой прибор ex114 и смартфон ex115, например, через Интернет ex101. Потоковый сервер ex103 также может соединяться, например, с терминалом в публичной точке доступа в самолете ex117 через спутник ex116.

[0760] Следует отметить, что вместо базовых станций ex106-ex110, могут использоваться точки беспроводного доступа или публичные точки доступа. Потоковый сервер ex103 может соединяться с сетью ex104 связи непосредственно, а не через Интернет ex101 или поставщика ex102 Интернет-услуг, и может соединяться с самолетом ex117 непосредственно, а не через спутник ex116.

[0761] Камера ex113 может представлять собой устройство, допускающее захват неподвижных изображений и видео, к примеру, цифровую камеру. Смартфон ex115 может представлять собой смартфон, сотовый телефон или телефон по стандарту системы персональных мобильных телефонов (PHS), который может работать согласно стандартам системы мобильной связи для 2G-, 3G-, 3,9G- и 4G-систем, а также 5G-системы следующего поколения.

[0762] Бытовой прибор ex114, например, представляет собой холодильник или устройство, включенное в домашнюю систему совместной выработки тепла и электроэнергии на топливных элементах.

[0763] В системе ex100 предоставления контента, терминал, включающий в себя функцию захвата изображений и/или видео, допускает, например, потоковую передачу вживую посредством соединения с потоковым сервером ex103, например, через базовую станцию ex106. При потоковой передаче вживую, терминал (например, компьютер ex111, игровое устройство ex112, камера ex113, бытовой прибор ex114, смартфон ex115 или терминал в самолете ex117) может выполнять обработку кодирования, описанную в вышеприведенных вариантах осуществления, для контента неподвижных изображений или видеоконтента, захваченного пользователем через терминал, может мультиплексировать видеоданные, полученные через кодирование, и аудиоданные, полученные посредством кодирования аудио, соответствующего видео, и может передавать полученные данные на потоковый сервер ex103. Другими словами, терминал функционирует в качестве кодера изображений согласно одному аспекту настоящего раскрытия сущности.

[0764] Потоковый сервер ex103 передает в потоковом режиме передаваемые данные контента в клиенты, которые запрашивают поток. Примеры клиента включают в себя компьютер ex111, игровое устройство ex112, камеру ex113, бытовой прибор ex114, смартфон ex115 и терминалы в самолете ex117, которые допускают декодирование вышеописанных кодированных данных. Устройства, которые принимают передаваемые в потоковом режиме данные, могут декодировать и воспроизводить принимаемые данные. Другими словами, устройства могут функционировать в качестве декодера изображений согласно одному аспекту настоящего раскрытия сущности.

[0765] Децентрализованная обработка

Потоковый сервер ex103 может реализовываться в качестве множества серверов или компьютеров, между которыми разделяются такие задачи, как обработка, запись и потоковая передача данных. Например, потоковый сервер ex103 может реализовываться в качестве сети доставки контента (CDN), которая передает в потоковом режиме контент через сеть, соединяющую несколько краевых серверов, расположенных по всему миру. В CDN, краевой сервер физически около клиента может динамически назначаться клиенту. Контент кэшируется и передается в потоковом режиме на краевой сервер, чтобы уменьшать время загрузки. В случае, например, определенного типа ошибки или изменения подключения, например, вследствие пика в трафике, можно передавать в потоковом режиме данные стабильно на высоких скоростях, поскольку можно избегать затрагиваемых частей сети, например, посредством разделения обработки между множеством краевых серверов или переключения нагрузок потоковой передачи на другой краевой сервер и продолжения потоковой передачи.

[0766] Децентрализация не ограничена просто разделением обработки для потоковой передачи; кодирование захваченных данных может разделяться между и выполняться посредством терминалов, на серверной стороне либо обоими способами. В одном примере, при типичном кодировании, обработка выполняется в двух контурах. Первый контур служит для обнаружения того, насколько усложненным является изображение, на покадровой или посценовой основе либо для обнаружения нагрузки при кодировании. Второй контур служит для обработки, которая сохраняет качество изображений и повышает эффективность кодирования. Например, можно снижать нагрузку по обработке терминалов и повышать качество и эффективность кодирования контента за счет инструктирования терминалам выполнять первый контур кодирования и инструктирования серверной стороне, которая принимает контент, выполнять второй контур кодирования. В таком случае, при приеме запроса на декодирование, кодированные данные, получающиеся в результате первого контура, выполняемого посредством одного терминала, могут приниматься и воспроизводиться на другом терминале приблизительно в реальном времени. Это позволяет реализовывать плавную потоковую передачу в режиме реального времени.

[0767] В другом примере, камера ex113 и т.п. извлекает количество признаков (количество признаков или характеристик) из изображения, сжимает данные, связанные с количеством признаков, в качестве метаданных, и передает сжатые метаданные на сервер. Например, сервер определяет значимость объекта на основе количества признаков и изменяет точность квантования, соответственно, чтобы выполнять сжатие, подходящее для смыслового значения (или значимости контента) изображения. Данные количества признаков являются, в частности, эффективными при повышении точности и эффективности прогнозирования векторов движения во время второго прохода сжатия, выполняемого посредством сервера. Кроме того, кодирование, которое имеет относительно низкую нагрузку по обработке, такое как кодирование переменной длины (VLC), может обрабатываться посредством терминала, и кодирование, которое имеет относительно высокую нагрузку по обработке, такое как контекстно-адаптивное двоичное арифметическое кодирование (CABAC), может обрабатываться посредством сервера.

[0768] В еще одном другом примере, возникают случаи, в которых множество видео приблизительно идентичной сцены захватываются посредством множества терминалов, например, на стадионе, в торговом центре или на фабрике. В таком случае, например, кодирование может быть децентрализовано посредством разделения задач обработки между множеством терминалов, которые захватывают видео, и, при необходимости, другими терминалами, которые не захватывают видео, и сервером в расчете на единицу. Единицы, например, могут представлять собой группы кадров (GOP), кадры или плитки, получающиеся в результате разделения кадра. Это позволяет уменьшать время загрузки и достигать потоковой передачи, которая находится ближе к реальному времени.

[0769] Поскольку видео имеют приблизительно идентичную сцену, управление и/или инструкции могут выполняться посредством сервера таким образом, что на видео, захваченные посредством терминалов, можно перекрестно ссылаться. Кроме того, сервер может принимать кодированные данные из терминалов, изменять опорную взаимосвязь между элементами данных либо корректировать или заменять непосредственно кадры и затем выполнять кодирование. Это позволяет формировать поток с увеличенным качеством и эффективностью для отдельных элементов данных.

[0770] Кроме того, сервер может передавать в потоковом режиме видеоданные после выполнения транскодирования, чтобы преобразовывать формат кодирования видеоданных. Например, сервер может преобразовывать формат кодирования от MPEG до VP (например, VP9), может преобразовываться (H.264 в (H.265 и т.д.

[0771] Таким образом, кодирование может выполняться посредством терминала или одного или более серверов. Соответственно, хотя устройство, которое выполняет кодирование, называется "сервером" или "терминалом" в нижеприведенном описании, некоторые или все процессы, выполняемые посредством сервера, могут выполняться посредством терминала, и аналогично некоторые или все процессы, выполняемые посредством терминала, могут выполняться посредством сервера. Это также применяется к процессам декодирования.

[0772] Трехмерный многоракурсный режим

Происходит увеличение использования изображений или видео, комбинированных из изображений или видео различных сцен, параллельно захваченных, либо идентичной сцены, захваченной из различных углов посредством множества терминалов, таких как камера ex113 и/или смартфон ex115. Видео, захваченное посредством терминалов, может комбинироваться, например, на основе отдельно полученной относительной позиционной взаимосвязи между терминалами или областями в видео, имеющими совпадающие характерные точки.

[0773] В дополнение к кодированию двумерных движущихся кадров, сервер может кодировать неподвижное изображение на основе анализа сцен движущегося кадра, например, автоматически либо в момент времени, указываемый пользователем, и передавать кодированное неподвижное изображение в приемный терминал. Кроме того, когда сервер может получать относительную позиционную взаимосвязь между терминалами захвата видео, в дополнение к двумерным движущимся кадрам, сервер может формировать трехмерную геометрию сцены на основе видео идентичной сцены, захваченной из различных углов. Сервер может отдельно кодировать трехмерные данные, сформированные, например, из облака точек, и, на основе результата распознавания или отслеживания человека или объекта с использованием трехмерных данных, может выбирать или восстанавливать и формировать видео, которые должно передаваться в приемный терминал, из видео, захваченных посредством множества терминалов.

[0774] Это обеспечивает возможность пользователю пользоваться сценой посредством свободного выбора видео, соответствующих терминалам захвата видео, и обеспечивает возможность пользователю пользоваться контентом, полученным посредством извлечения видео в выбранной точке обзора из трехмерных данных, восстановленных из множества изображений или видео, видео. Кроме того, аналогично видео, звук может записываться из относительно различных углов, и сервер может мультиплексировать аудио из конкретного угла или пространства с соответствующим видео и передавать мультиплексированное видео и аудио.

[0775] В последние годы, также становится популярным контент, который представляет собой составной объект из реального мира и виртуального мира, к примеру, контент в стиле виртуальной реальности (VR) и дополненной реальности (AR). В случае VR-изображений, сервер может создавать изображения из точек обзора левого и правого глаза и выполнять кодирование, которое допускает ссылку между двумя изображениями точек обзора, такое как многовидовое кодирование (MVC), и альтернативно, может кодировать изображения в качестве отдельных потоков без ссылки. Когда изображения декодируются в качестве отдельных потоков, потоки могут синхронизироваться при воспроизведении таким образом, чтобы воссоздавать виртуальное трехмерное пространство в соответствии с точкой обзора пользователя.

[0776] В случае AR-изображений, сервер может накладывать информацию виртуальных объектов, существующую в виртуальном пространстве, на информацию камеры, представляющую пространство реального мира, например, на основе трехмерной позиции или перемещения с точки зрения пользователя. Декодер может получать или сохранять информацию виртуальных объектов и трехмерные данные, формировать двумерные изображения на основе перемещения с точки зрения пользователя и затем формировать наложенные данные посредством прозрачного соединения изображений. Альтернативно, декодер может передавать, в сервер, движение с точки зрения пользователя в дополнение к запросу на информацию виртуальных объектов. Сервер может формировать наложенные данные на основе трехмерных данных, сохраненных на сервере в соответствии с принимаемым движением, и кодировать и передавать в потоковом режиме сформированные наложенные данные в декодер. Следует отметить, что наложенные данные типично включают в себя, в дополнение к RGB-значениям, значение α, указывающее прозрачность, и сервер задает значение α для секций, отличных от объекта, сформированного из трехмерных данных, например, равным 0, и может выполнять кодирование в то время, когда эти секции являются прозрачными. Альтернативно, сервер может задавать фон как определенное RGB-значение, такое как цветовая рирпроекция, и формировать данные, в которых зоны, отличные от объекта, задаются в качестве фона. Определенное RGB-значение может быть предварительно определено.

[0777] Декодирование аналогично передаваемых в потоковом режиме данных может выполняться посредством клиента (т.е. терминалов), на серверной стороне либо разделяться между ними. В одном примере, один терминал может передавать запрос на прием на сервер, запрошенный контент может приниматься и декодироваться посредством другого терминала, и декодированный сигнал может передаваться в устройство, имеющее дисплей. Можно воспроизводить данные с высоким качеством изображений посредством децентрализации обработки и надлежащего выбора контента независимо от характеристик обработки непосредственно терминала связи. В еще одном другом примере, в то время как телевизор, например, принимает данные изображений, которые имеют большой размер, область кадра, такая как плитка, полученная посредством разделения кадра, может декодироваться и отображаться на персональном терминале или терминалах зрителя или зрителей телевизора. Это позволяет зрителям совместно использовать вид с большими кадрами, а также каждому зрителю проверять свою назначенную зону или обследовать область более подробно крупным планом.

[0778] В ситуациях, в которых множество беспроводных соединений являются возможными на небольшие, средние и большие расстояния, в помещениях или вне помещений, может быть возможным прозрачно принимать контент с использованием стандарта системы потоковой передачи, такого как MPEG DASH. Пользователь может переключаться между данными в реальном времени при свободном выборе декодера или оборудования отображения, включающего в себя терминал пользователя, дисплеи, размещаемые в помещениях или вне помещений, и т.д. Кроме того, например, с использованием информации относительно позиции пользователя, декодирование может выполняться при переключении того, какой терминал обрабатывает декодирование, а какой терминал обрабатывает отображение контента. Это позволяет преобразовывать и отображать информацию в то время, когда пользователь находится в движении на маршруте в пункт назначения, на стене близлежащего здания, в которое встраивается устройство, допускающее отображение контента, или на части земли. Кроме того, также можно переключать скорость передачи битов принимаемых данных на основе достижимости для кодированных данных по сети, к примеру, когда кодированные данные кэшируются на сервере, быстро доступном из приемного терминала, либо когда кодированные данные копируются на краевой сервер в службе доставки контента.

[0779] (Оптимизация веб-страниц)

Фиг. 161, например, иллюстрирует пример экрана отображения веб-страницы на компьютере ex111. Фиг. 162, например, иллюстрирует пример экрана отображения веб-страницы на смартфоне ex115. Как проиллюстрировано на фиг. 161 и фиг. 162, веб-страница может включать в себя множество ссылок на изображения, которые представляют собой ссылки на контент изображений, и внешний вид веб-страницы может отличаться в зависимости от устройства, используемого для того, чтобы просматривать веб-страницу. Когда множество ссылок на изображения являются просматриваемыми на экране до тех пор, пока пользователь явно не выбирает ссылку на изображение, либо до тех пор, пока ссылка на изображение не находится в аппроксимированном центре экрана, или полная ссылка на изображение не вписывается в экран, оборудование отображения (декодер) может отображать, в качестве ссылок на изображения, неподвижные изображения, включенные в контент, или I-кадры, может отображать видео, такое как анимированный GIF-файл с использованием множества неподвижных изображений или I-кадров, например, либо может принимать только базовый слой и декодировать и отображать видео.

[0780] Когда ссылка на изображение выбирается пользователем, оборудование отображения выполняет декодирование, например, при предоставлении наивысшего приоритета для базового слоя. Следует отметить, что если имеется информация в HTML-коде веб-страницы, указывающая то, что контент является масштабируемым, оборудование отображения может декодировать вплоть до улучшающего слоя. Дополнительно, чтобы упрощать воспроизведение в реальном времени, до того, как осуществляется выбор, либо когда полоса пропускания сильно ограничивается, оборудование отображения может уменьшать задержку между моментом времени, в который декодируется опережающий кадр, и моментом времени, в который отображается декодированный кадр (т.е. задержку от начала декодирования контента до отображения контента) посредством декодирования и отображения только прямых опорных кадров (I-кадра, P-кадра, прямого опорного B-кадра). Еще дополнительно, оборудование отображения может намеренно игнорировать опорную взаимосвязь между кадрами и приблизительно декодировать все B- и P- кадры в качестве прямых опорных кадров и затем выполнять нормальное декодирование по мере того, как число кадров, принимаемых во времени, увеличивается.

[0781] Автономное вождение

При передаче и приеме в данных неподвижных изображений или видеоданных, таких как двух- или трехмерная картографическая информация для автономного вождения или вождения с использованием помощи автомобиля, приемный терминал может принимать, в дополнение к данным изображений, принадлежащим одному или более слоев, информацию, например, относительно погоды или дорожных работ в качестве метаданных, и ассоциировать метаданные с данными изображений при декодировании. Следует отметить, что метаданные могут назначаться в расчете на слой и, альтернативно, могут просто мультиплексироваться с данными изображений.

[0782] В таком случае, поскольку автомобиль, беспилотный аппарат, самолет и т.д., содержащий приемный терминал, является мобильным, приемный терминал может прозрачно принимать и выполнять декодирование при переключении между базовыми станциями из числа базовых станций ex106-ex110 посредством передачи информации, указывающей позицию приемного терминала. Кроме того, в соответствии с выбором, осуществленным пользователем, ситуацией пользователя и/или полосой пропускания соединения, приемный терминал может динамически выбирать то, до какой степени принимаются метаданные, либо то, до какой степени, например, обновляется картографическая информация.

[0783] В системе ex100 предоставления контента, клиент может принимать, декодировать и воспроизводить, в реальном времени, кодированную информацию, передаваемую пользователем.

[0784] Потоковая передача контента от людей

В системе ex100 предоставления контента, в дополнение к длительному контенту с высоким качеством изображений, распространяемому посредством объекта распространения видео, одноадресная или многоадресная потоковая передача короткого контента с низким качеством изображений от человека также является возможной. Популярность такого контента от людей с большой вероятностью должна еще более возрастать. Сервер может сначала выполнять обработку редактирования для контента перед обработкой кодирования, чтобы уточнять контент от людей. Это может достигаться, например, с использованием следующей конфигурации.

[0785] В реальном времени, при захвате видеоконтента или контента изображений либо после того, как контент захвачен и накоплен, сервер выполняет обработку распознавания на основе необработанных данных или кодированных данных, такую как обработка ошибок при захвате, обработка поиска сцен, анализ смысловых значений и/или обработка обнаружения объектов. После этого, на основе результата обработки распознавания сервер (например, при указании или автоматически) редактирует контент, примеры чего включают в себя: коррекцию, такую как коррекция фокуса и/или размытости при движении; удаление сцен с низким приоритетом, таких как сцены, которые имеют низкую яркость по сравнению с другими кадрами или находятся не в фокусе; регулирование краев объектов; и регулирование цветовых тонов. Сервер кодирует отредактированные данные на основе результата редактирования. Известно, что чрезмерно длительные видео имеют тенденцию принимать меньшее число видов. Соответственно, чтобы сохранять контент в пределах конкретной продолжительности, которая масштабируется с продолжительностью исходного видео, сервер может, в дополнение к сценам с низким приоритетом, описанным выше, автоматически вырезать сцены с незначительным перемещением на основе результата обработки изображений. Альтернативно, сервер может формировать и кодировать видеодайджест на основе результата анализа смыслового значения сцены.

[0786] Могут возникать случаи, в которых контент от людей может включать в себя контент, который нарушает авторское право, моральное право, книжные права и т.д. Такой случай может приводить к непредпочтительной ситуации для создателя, к примеру, когда контент совместно используется за пределами объема, намеченного создателем. Соответственно, перед кодированием, сервер, например, может редактировать изображения таким образом, чтобы, например, размывать лица людей на периферии экрана или размывать внутреннюю часть дома. Дополнительно, сервер может быть выполнен с возможностью распознавать лица людей, отличных от зарегистрированного человека, в изображениях, которые должны кодироваться, и когда такие лица появляются в изображении, может применять мозаичный фильтр, например, к лицу человека. Альтернативно, в качестве предварительной обработки или постобработки для кодирования, пользователь может указывать, по причинам авторского права, область изображения, включающую в себя человека, или область фона, которая должна обрабатываться. Сервер может обрабатывать указанную область, например, посредством замены области другим изображением или размытия области. Если область включает в себя человека, человек может отслеживаться в движущемся кадре, и область головы пользователя может заменяться другим изображением по мере того, как человек перемещается.

[0787] Поскольку имеется спрос на просмотр в реальном времени контента, сформированного людьми, который зачастую имеет небольшой размер данных, декодер сначала может принимать базовый слой в качестве наивысшего приоритета и выполнять декодирование и воспроизведение, хотя это может отличаться в зависимости от полосы пропускания. Когда контент воспроизводится два или более раз, к примеру, когда декодер принимает улучшающий слой во время декодирования и воспроизведения базового слоя и циклично выполняет воспроизведение, декодер может воспроизводить видео с высоким качеством изображений, включающее в себя улучшающий слой. Если поток кодируется с использованием такого масштабируемого кодирования, видео может быть низкокачественным в невыбранном состоянии или в начале видео, но оно может предлагать восприятие, в котором качество изображений потока постепенно увеличивается интеллектуальным способом. Это не ограничено просто масштабируемым кодированием; идентичное восприятие может предлагаться посредством конфигурирования одного потока из низкокачественного потока, воспроизведенного в первый раз, и второго потока, кодированного с использованием первого потока в качестве опорного.

[0788] Другие примеры реализации и вариантов применения

Кодирование и декодирование может выполняться посредством LSI ex500 (большой интегральной схемы) (см. фиг. 160), которая типично включается в каждый терминал. LSI ex500 может быть сконфигурирована из одной микросхемы или множества микросхем. Программное обеспечение для кодирования и декодирования движущихся кадров может интегрироваться в некоторый тип носителя записи (такой как CD-ROM, гибкий диск или жесткий диск), который является считываемым, например, посредством компьютера ex111, и кодирование и декодирование могут выполняться с использованием программного обеспечения. Кроме того, когда смартфон ex114 оснащен камерой, могут передаваться видеоданные, полученные посредством камеры. В этом случае, видеоданные могут кодироваться посредством LSI ex500, включенной в смартфон ex115.

[0789] Следует отметить, что LSI ex500 может быть выполнена с возможностью загружать и активировать приложение. В таком случае, терминал сначала определяет то, является он или нет совместимым со схемой, используемой для того, чтобы кодировать контент, либо то, допускает он или нет выполнение конкретной услуги. Когда терминал не является совместимым со схемой кодирования контента, либо когда терминал не допускает выполнение конкретной услуги, терминал сначала может загружать кодек или прикладное программное обеспечение, а затем получать и воспроизводить контент.

[0790] Помимо примера системы ex100 предоставления контента, которая использует Интернет ex101, по меньшей мере, кодер движущихся кадров (кодер изображений) или декодер движущихся кадров (декодер изображений), описанные в вышеприведенных вариантах осуществления, могут реализовываться в цифровой широковещательной системе. Идентичная обработка кодирования и обработка декодирования могут применяться для того, чтобы передавать и принимать широковещательные радиоволны, накладываемые с мультиплексированными аудио- и видеоданными, с использованием, например, спутника, даже если она приспосабливается к многоадресной передаче, тогда как одноадресная передача осуществляется проще с системой ex100 предоставления контента.

[0791] Аппаратная конфигурация

Фиг. 163 иллюстрирует дополнительные сведения относительно примерного смартфона ex115, показанного на фиг. 160. Фиг. 164 иллюстрирует пример функциональной конфигурации смартфона ex115. Смартфон ex115 включает в себя антенну ex450 для передачи и приема радиоволн в/из базовой станции ex110, камеру ex465, допускающую захват видео и неподвижных изображений, и дисплей ex458, который отображает декодированные данные, такие как видео, захваченное посредством камеры ex465, и видео, принимаемое посредством антенны ex450. Смартфон ex115 дополнительно включает в себя пользовательский интерфейс ex466, такой как сенсорная панель; модуль ex457 аудиовывода, такой как динамик для вывода речи или другого аудио; модуль ex456 аудиоввода, такой как микрофон для аудиоввода; запоминающее устройство ex467, допускающее сохранение декодированных данных, таких как захваченные видео или неподвижные изображения, записанное аудио, принимаемые видео или неподвижные изображения и почтовые сообщения, а также декодированные данные; и гнездо ex464, которое представляет собой интерфейс для SIM-карты ex468 для авторизации доступа к сети и различным данным. Следует отметить, что внешнее запоминающее устройство может использоваться вместо или в дополнение к запоминающему устройству ex467.

[0792] Главный контроллер ex460, который может всесторонне управлять дисплеем ex458 и пользовательским интерфейсом ex466, схема ex461 подачи мощности, контроллер ex462 ввода из пользовательского интерфейса, процессор ex455 видеосигналов, интерфейс ex463 камеры, контроллер ex459 отображения, модулятор/демодулятор ex452, мультиплексор/демультиплексор ex453, процессор ex454 аудиосигналов, гнездо ex464 и запоминающее устройство ex467 соединяются через шину ex470.

[0793] Когда пользователь включает кнопку питания схемы ex461 подачи мощности, смартфон ex115 включается в работоспособное состояние, и каждый компонент снабжается мощностью, например, из аккумуляторного блока.

[0794] Смартфон ex115 выполняет обработку, например, для вызовов и передачи данных, на основе управления, выполняемого посредством главного контроллера ex460, который включает в себя CPU, ROM и RAM. При выполнении вызовов, аудиосигнал, записанный посредством модуля ex456 аудиоввода, преобразуется в цифровой аудиосигнал посредством процессора ex454 аудиосигналов, к которому применяется обработка с расширенным спектром посредством модулятора/демодулятора ex452 и применяется обработка цифро-аналогового преобразования и преобразования частоты посредством приемо-передающего устройства ex451, и результирующий сигнал передается через антенну ex450. Принимаемые данные усиливаются, преобразуются по частоте и подвергаются аналого-цифровому преобразованию, подвергаются обратной обработке с расширенным спектром посредством модулятора/демодулятора ex452, преобразуются в аналоговый аудиосигнал посредством процессора ex454 аудиосигналов и затем выводятся из модуля ex457 аудиовывода.

[0795] В режиме передачи данных, текст, данные неподвижных изображений или видеоданные могут передаваться, например, под управлением главного контроллера ex460 через контроллер ex462 ввода из пользовательского интерфейса на основе операции пользовательского интерфейса ex466 основного корпуса. Аналогичная обработка передачи и приема выполняется. В режиме передачи данных, при отправке видео, неподвижного изображения или видео и аудио, процессор ex455 видеосигналов кодирует со сжатием, через способ кодирования движущихся кадров, описанный в вышеприведенных вариантах осуществления, видеосигнал, сохраненный в запоминающем устройстве ex467, или видеосигнал, вводимый из камеры ex465, и передает кодированные видеоданные в мультиплексор/демультиплексор ex453. Процессор ex454 аудиосигналов кодирует аудиосигнал, записанный посредством модуля ex456 аудиоввода, в то время как камера ex465 захватывает видео или неподвижное изображение, и передает кодированные аудиоданные в мультиплексор/демультиплексор ex453. Мультиплексор/демультиплексор ex453 мультиплексирует кодированные видеоданные и кодированные аудиоданные с использованием определенной схемы, модулирует и преобразует данные с использованием модулятора/демодулятора ex452 (схемы модулятора/демодулятора) и приемо-передающего устройства ex451 и передает результат через антенну ex450. Определенная схема может быть предварительно определена.

[0796] Когда видео, вложенное в почтовом сообщении или в чате, или видео, содержащее ссылку из веб-страницы, принимается, например, для того чтобы декодировать мультиплексированные данные, принимаемые через антенну ex450, мультиплексор/демультиплексор ex453 демультиплексирует мультиплексированные данные, чтобы разделять мультиплексированные данные на поток битов видеоданных и поток битов аудиоданных, предоставляет кодированные видеоданные в процессор ex455 видеосигналов через синхронную шину ex470 и предоставляет кодированные аудиоданные в процессор ex454 аудиосигналов через синхронную шину ex470. Процессор ex455 видеосигналов декодирует видеосигнал с использованием способа декодирования движущихся кадров, соответствующего способу кодирования движущихся кадров, описанному в вышеприведенных вариантах осуществления, и видео или неподвижное изображение, включенное в связанный файл движущихся кадров, отображается на дисплее ex458 через контроллер ex459 отображения. Процессор ex454 аудиосигналов декодирует аудиосигнал и выводит аудио из модуля ex457 аудиовывода. Поскольку потоковая передача в режиме реального времени становится все более популярной, могут возникать случаи, в которых воспроизведение аудио может быть социально нецелесообразным, в зависимости от окружения пользователя. Соответственно, в качестве начального значения, может быть предпочтительной конфигурация, в которой только видеоданные воспроизводятся, например, аудиосигнал не воспроизводится; аудио может синхронизироваться и воспроизводиться только тогда, когда принимается ввод, к примеру, когда пользователь щелкает видеоданные.

[0797] Хотя смартфон ex115 использован в вышеприведенном примере, другие реализации возможны: приемо-передающий терминал, включающий в себя как кодер, так и декодер; передающий терминал, включающий в себя только кодер; и приемный терминал, включающий в себя только декодер. В описании цифровой широковещательной системы, приводится пример, в котором мультиплексированные данные, полученные в результате мультиплексирования видеоданных с аудиоданными, принимаются или передаются. Тем не менее, мультиплексированные данные могут представлять собой видеоданные, мультиплексированные с данными, отличными от аудиоданных, такими как текстовые данные, связанные с видео. Дополнительно, непосредственно видеоданные, а не мультиплексированные данные могут приниматься или передаваться.

[0798] Хотя главный контроллер ex460, включающий в себя CPU, описывается как управляющий процессами кодирования или декодирования, различные терминалы зачастую включают в себя графические процессоры (GPU). Соответственно, приемлемой является конфигурация, в которой большая зона обрабатывается сразу посредством использования характеристик с точки зрения производительности GPU через запоминающее устройство, совместно используемое посредством CPU и GPU, либо через запоминающее устройство, включающее в себя адрес, которое управляется таким образом, чтобы обеспечивать возможность широкого использования посредством CPU и GPU, либо через отдельные запоминающие устройства. Это позволяет сокращать время кодирования, поддерживать характер реального времени потока и уменьшать задержку. В частности, обработка, связанная с оценкой движения, фильтрацией для удаления блочности, дискретизированным адаптивным смещением (SAO) и преобразованием/квантованием, может эффективно выполняться посредством GPU вместо CPU, например, в единицах кадров, одновременно.

Похожие патенты RU2817290C2

название год авторы номер документа
СИСТЕМА И СПОСОБ ДЛЯ КОДИРОВАНИЯ ВИДЕО 2020
  • Сунь, Хай Вэй
  • Лим, Чонг Соон
  • Ли, Цзин Я
  • Тео, Хан Боон
  • Куо, Чэ-Вэй
  • Ванг, Чу Тонг
  • Тома, Тадамаса
  • Ниси, Такахиро
  • Абе, Киёфуми
  • Като, Юсуке
RU2819086C2
СИСТЕМА И СПОСОБ ДЛЯ КОДИРОВКИ ВИДЕО 2020
  • Куо, Чэ-Вэй
  • Лим, Чонг Соон
  • Тео, Хан Боон
  • Ли, Цзин Я
  • Сунь, Хай Вэй
  • Ванг, Чу Тонг
  • Тома, Тадамаса
  • Ниси, Такахиро
  • Абе, Киёфуми
  • Като, Юсуке
RU2813135C1
КОДЕР, ДЕКОДЕР, СПОСОБ КОДИРОВАНИЯ И СПОСОБ ДЕКОДИРОВАНИЯ 2020
  • Ли, Цзин Я
  • Лим, Чонг Соон
  • Тео, Хан Боон
  • Куо, Чэ Вэй
  • Сунь, Хай Вэй
  • Ванг, Чу Тонг
  • Абе, Киёфуми
  • Ниси, Такахиро
  • Тома, Тадамаса
  • Като, Юсуке
RU2821010C2
КОДЕР, ДЕКОДЕР, СПОСОБ КОДИРОВАНИЯ И СПОСОБ ДЕКОДИРОВАНИЯ 2020
  • Ли, Цзин Я
  • Лим, Чонг Соон
  • Тео, Хан Боон
  • Куо, Чэ Вэй
  • Сунь, Хай Вэй
  • Ванг, Чу Тонг
  • Абе, Киёфуми
  • Ниси, Такахиро
  • Тома, Тадамаса
  • Като, Юсуке
RU2808454C1
ОБОРУДОВАНИЕ И СПОСОБ ДЛЯ КОДИРОВАНИЯ ИЗОБРАЖЕНИЙ НА ОСНОВЕ ФИЛЬТРАЦИИ 2023
  • Чой, Дзангвон
  • Нам, Дзунгхак
RU2820296C1
ДЕКОДЕР, СПОСОБ КОДИРОВАНИЯ И СПОСОБ ДЕКОДИРОВАНИЯ 2019
  • Ли, Цзин Я
  • Лим, Чонг Соон
  • Шашидхар, Сугхош Паван
  • Ляо, Жу Лин
  • Сунь, Хай Вэй
  • Тео, Хан Боон
  • Абе, Киёфуми
  • Тома, Тадамаса
  • Ниси, Такахиро
RU2795260C2
ОБОРУДОВАНИЕ И СПОСОБ ДЛЯ КОДИРОВАНИЯ ИЗОБРАЖЕНИЙ НА ОСНОВЕ ФИЛЬТРАЦИИ 2020
  • Чой, Дзангвон
  • Нам, Дзунгхак
RU2787884C1
ОБОРУДОВАНИЕ И СПОСОБ ДЛЯ КОДИРОВАНИЯ ИЗОБРАЖЕНИЙ НА ОСНОВЕ ФИЛЬТРАЦИИ 2020
  • Чой, Дзангвон
  • Нам, Дзунгхак
RU2806728C2
ОБОРУДОВАНИЕ И СПОСОБ ДЛЯ КОДИРОВАНИЯ ИЗОБРАЖЕНИЯ 2020
  • Чой, Дзангвон
  • Нам, Дзунгхак
RU2785998C1
ОБОРУДОВАНИЕ И СПОСОБ ДЛЯ КОДИРОВАНИЯ ИЗОБРАЖЕНИЯ 2020
  • Чой, Дзангвон
  • Нам, Дзунгхак
RU2807256C2

Иллюстрации к изобретению RU 2 817 290 C2

Реферат патента 2024 года СИСТЕМА И СПОСОБ ДЛЯ КОДИРОВАНИЯ ВИДЕО

Изобретение относится к области кодирования/декодирования видео и изображений, в частности для выполнения процесса кросскомпонентной адаптивной контурной фильтрации (CCALF). Техническим результатом является повышение эффективности кодирования/декодирования. Кодер включает в себя схему и запоминающее устройство, соединенное со схемой. Схема, в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирует восстановленную выборку, расположенную внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений. Схема формирует первое значение коэффициента посредством применения процесса CCALF к первой восстановленной выборке изображений компонента сигнала яркости. Схема формирует второе значение коэффициента посредством применения процесса адаптивной контурной фильтрации (ALF) ко второй восстановленной выборке изображений компонента сигнала цветности. Схема формирует третье значение коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента и кодирует третью восстановленную выборку изображений компонента сигнала цветности с использованием третьего значения коэффициента. 6 н. и 4 з.п. ф-лы, 164 ил.

Формула изобретения RU 2 817 290 C2

1. Кодер, содержащий:

- процессор, который выполняет обработку информации; и

- запоминающее устройство, соединенное с процессором;

- при этом процессор, при работе:

- в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирует восстановленную выборку, расположенную внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений;

- формирует первое значение коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости;

- задает первое значение коэффициента равным нулю в ответ на первое значение коэффициента, меньшее 64;

- формирует второе значение коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности;

- формирует третье значение коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента; и

- выводит третью восстановленную выборку изображений компонента сигнала цветности с использованием третьего значения коэффициента.

2. Кодер по п. 1, в котором:

- первая восстановленная выборка изображений расположена рядом со второй восстановленной выборкой изображений.

3. Кодер, содержащий:

- модуль разбиения блоков, который, при работе, разбивает первое изображение на множество блоков;

- модуль внутреннего прогнозирования, который, при работе, прогнозирует блоки, включенные в первое изображение, с использованием опорных блоков, включенных в первое изображение;

- модуль взаимного прогнозирования, который, при работе, прогнозирует блоки, включенные в первое изображение, с использованием опорных блоков, включенных во второе изображение, отличающееся от первого изображения;

- контурный фильтр, который, при работе, фильтрует блоки, включенные в первое изображение;

- преобразователь, который, при работе, преобразует ошибку прогнозирования между исходным сигналом и прогнозным сигналом, сформированным посредством модуля внутреннего прогнозирования или модуля взаимного прогнозирования, чтобы формировать коэффициенты преобразования;

- квантователь, который, при работе, квантует коэффициенты преобразования, чтобы формировать квантованные коэффициенты; и

- энтропийный кодер, который, при работе, переменно кодирует квантованные коэффициенты, чтобы формировать кодированный поток битов, включающий в себя кодированные квантованные коэффициенты и управляющую информацию,

- при этом контурный фильтр выполняет:

- в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирование восстановленной выборки, расположенной внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений;

- формирование первого значения коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости;

- установление первого значения коэффициента равным нулю в ответ на первое значение коэффициента, меньшее 64;

- формирование второго значения коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности;

- формирование третьего значения коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента; и

- вывод третьей восстановленной выборки изображений компонента сигнала цветности с использованием третьего значения коэффициента.

4. Кодер по п. 3, в котором:

- первая восстановленная выборка изображений расположена рядом со второй восстановленной выборкой изображений.

5. Декодер, содержащий:

- процессор, который выполняет обработку информации; и

- запоминающее устройство, соединенное с процессором;

- при этом процессор, при работе:

- в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирует восстановленную выборку, расположенную внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений;

- формирует первое значение коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости;

- задает первое значение коэффициента равным нулю в ответ на первое значение коэффициента, меньшее 64;

- формирует второе значение коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности;

- формирует третье значение коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента; и

- выводит третью восстановленную выборку изображений компонента сигнала цветности с использованием третьего значения коэффициента.

6. Декодер по п. 5, в котором:

- первая восстановленная выборка изображений расположена рядом со второй восстановленной выборкой изображений.

7. Оборудование декодирования, содержащее:

- декодер, который, при работе, декодирует кодированный поток битов, чтобы выводить квантованные коэффициенты;

- обратный квантователь, который, при работе, обратно квантует квантованные коэффициенты, чтобы выводить коэффициенты преобразования;

- обратный преобразователь, который, при работе, обратно преобразует коэффициенты преобразования, чтобы выводить ошибку прогнозирования;

- модуль внутреннего прогнозирования, который, при работе, прогнозирует блоки, включенные в первое изображение, с использованием опорных блоков, включенных в первое изображение;

- модуль взаимного прогнозирования, который, при работе, прогнозирует блоки, включенные в первое изображение, с использованием опорных блоков, включенных во второе изображение, отличающееся от первого изображения;

- контурный фильтр, который, при работе, фильтрует блоки, включенные в первое изображение; и

- вывод, который, при работе, выводит кадр, включающий в себя первое изображение,

- при этом контурный фильтр выполняет:

- в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублирование восстановленной выборки, расположенной внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений;

- формирование первого значения коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости;

- установление первого значения коэффициента равным нулю в ответ на первое значение коэффициента, меньшее 64;

- формирование второго значения коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности;

- формирование третьего значения коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента; и

- вывод третьей восстановленной выборки изображений компонента сигнала цветности с использованием третьего значения коэффициента.

8. Оборудование декодирования по п. 7, в котором:

- первая восстановленная выборка изображений расположена рядом со второй восстановленной выборкой изображений.

9. Способ кодирования, содержащий этапы, на которых:

- в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублируют восстановленную выборку, расположенную внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений;

- формируют первое значение коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости;

- задают первое значение коэффициента равным нулю в ответ на первое значение коэффициента, меньшее 64;

- формируют второе значение коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности;

- формируют третье значение коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента; и

- выводят третью восстановленную выборку изображений компонента сигнала цветности с использованием третьего значения коэффициента.

10. Способ декодирования, содержащий этапы, на которых:

- в ответ на первую восстановленную выборку изображений, расположенную за пределами виртуальной границы, дублируют восстановленную выборку, расположенную внутри и рядом с виртуальной границей, с тем чтобы формировать первую восстановленную выборку изображений;

- формируют первое значение коэффициента посредством применения процесса CCALF (кросскомпонентной адаптивной контурной фильтрации) к первой восстановленной выборке изображений компонента сигнала яркости;

- задают первое значение коэффициента равным нулю в ответ на первое значение коэффициента, меньшее 64;

- формируют второе значение коэффициента посредством применения процесса ALF (адаптивной контурной фильтрации) ко второй восстановленной выборке изображений компонента сигнала цветности;

- формируют третье значение коэффициента посредством суммирования первого значения коэффициента со вторым значением коэффициента; и

- выводят третью восстановленную выборку изображений компонента сигнала цветности с использованием третьего значения коэффициента.

Документы, цитированные в отчете о поиске Патент 2024 года RU2817290C2

MISRA K
et al., Cross-Component Adaptive Loop Filter for chroma, Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, JVET-O0636_r1, 15th Meeting: Gothenburg, 3-12 July 2019
US 2013044809 A1, 2013-02-21
US 2018220138 A1, 2018-08-02
СПОСОБ И УСТРОЙСТВО ДЛЯ ОПТИМИЗАЦИИ КОДИРОВАНИЯ/ДЕКОДИРОВАНИЯ КОМПЕНСАЦИОННЫХ СМЕЩЕНИЙ ДЛЯ НАБОРА ВОССТАНОВЛЕННЫХ ВЫБОРОК ИЗОБРАЖЕНИЯ 2012
  • Ларош Гийом
  • Жиске Кристоф
  • Франсуа Эдуар
  • Онно Патрис
RU2641230C1
US 2013322523 A1, 2013-12-05
US 2014092999 A1,

RU 2 817 290 C2

Авторы

Ванг, Чу Тонг

Лим, Чонг Соон

Тео, Хан Боон

Сунь, Хай Вэй

Ли, Цзин Я

Куо, Чэ-Вэй

Тома, Тадамаса

Ниси, Такахиро

Абе, Киёфуми

Като, Юсуке

Даты

2024-04-12Публикация

2020-08-07Подача