Данная заявка испрашивает приоритет предварительной патентной заявки США номер 60/788467, поданной 31 марта 2006 года.
Настоящая система относится к эффектам окружающего освещения, которые модулируются посредством характеристик потоков видео- и аудиосодержимого.
Koninklijke Philips Electronics N.V. (Philips) и другие компании раскрыли средство изменения окружающего или периферического освещения, чтобы улучшать видеосодержимое в типичных бытовых и коммерческих применениях. Окружающее освещение, модулируемое посредством видеосодержимого, которое предоставляется вместе с монитором или телевизором, как оказалось, уменьшает утомление зрителя и повышает реализм и глубину впечатлений. В настоящее время Philips имеет линейку телевизоров, в том числе плоскопанельных телевизоров, с окружающим освещением, где рамка вокруг телевизора включает в себя источники окружающего света, которые проецируют окружающий свет на заднюю стенку, которая поддерживает или находится рядом с телевизором. Дополнительно, источники света, отдельные от телевизора, также могут быть модулированы относительно видеосодержимого, чтобы сформировать окружающий свет, который может управляться аналогичным образом.
В случае одноцветного источника света модуляция источника света может быть только модуляцией яркости источника света. Источник света, выполненный с возможностью формирования многоцветного света, предоставляет возможность модулировать множество аспектов источника многоцветного света на основе воспроизводимого видеосодержимого, в том числе широкий диапазон выбираемых цветов на точку.
Задача настоящей системы состоит в том, чтобы преодолеть недостатки, присущие уровню техники, и/или обеспечить более глубокое пространственное погружение в эффект от окружающего освещения.
Настоящая система предусматривает способ, программу и устройство для определения данных окружающего освещения, чтобы управлять элементом окружающего освещения. Способ включает в себя обработку комбинированных данных окружающего освещения, при этом комбинированные данные окружающего освещения основаны на соответствующих частях видеосодержимого и соответствующих частях аудиосодержимого. Обработанные комбинированные данные окружающего освещения затем могут быть использованы для того, чтобы управлять элементом окружающего освещения. В одном варианте выполнения изобретения комбинированные данные окружающего освещения могут быть приняты в виде комбинированного сценария окружающего освещения или отдельных основанных на видеосодержимом и основанных на аудиосодержимом сценариев окружающего освещения.
Основанные на видеосодержимом данные окружающего освещения и основанные на аудиосодержимом данные окружающего освещения могут быть комбинированы, чтобы сформировать комбинированные данные окружающего освещения. Комбинирование основанных на видеосодержимом и основанных на аудиосодержимом данных окружающего освещения может включать в себя модуляцию основанных на видеосодержимом данных окружающего освещения посредством основанных на аудиосодержимом данных окружающего освещения.
В одном варианте выполнения изобретения видеосодержимое и/или аудиосодержимое может быть проанализировано так, чтобы сформировать основанные на видеосодержимом и/или основанные на аудиосодержимом данные окружающего освещения. Анализ видеосодержимого может включать в себя анализ частей видеосодержимого с целью создания временных частей основанных на видеосодержимом данных окружающего освещения. В этом варианте выполнения изобретения временные части основанных на видеосодержимом данных окружающего освещения могут быть комбинированы с целью создания основанного на видеосодержимом сценария окружающего освещения как основанные на видеосодержимом данные окружающего освещения.
Аудиосодержимое может быть проанализировано с целью создания основанных на аудиосодержимом данных окружающего освещения. Анализ видеосодержимого может включать в себя анализ, по меньшей мере, одного из частоты, диапазона частот и амплитуды соответствующих частей аудиосодержимого. Анализ аудиосодержимого позволяет идентифицировать и использовать другие характеристики аудиосодержимого, в том числе тактов в минуту; тональности, такие как мажорная и минорная тональность, а также абсолютная тональность аудиосодержимого; интенсивность; и/или классификация, такая как классическая музыка, поп-музыка, дебаты, фильм. Дополнительно, могут быть проанализированы данные, которые являются отдельными от самого аудиосодержимого, но могут быть связаны с аудиоданными, к примеру метаданные, которые связаны с аудиоданными. Комбинирование основанных на видеосодержимом и основанных на аудиосодержимом данных окружающего освещения может включать в себя использование основанных на аудиосодержимом данных окружающего освещения для того, чтобы регулировать динамику цветовой точки, определенной с помощью основанных на видеосодержимом данных окружающего освещения.
Настоящая система будет более подробно описана, в качестве примера, со ссылкой на сопровождающие чертежи, на которых:
Фиг.1 изображает блок-схему в соответствии с вариантом выполнения настоящей системы; и
Фиг.2 изображает устройство в соответствии с вариантом выполнения настоящей системы.
Далее приводятся описания иллюстративных вариантов выполнения изобретения, которые в сочетании с сопровождающими чертежами демонстрируют вышеуказанные, а также дополнительные признаки и преимущества. В нижеследующем описании в целях пояснения, а не ограничения конкретные подробности, такие как конкретная архитектура, интерфейсы, методики и т.д., излагаются для иллюстрации. Тем не менее, специалистам в данной области техники должно быть очевидно, что другие варианты выполнения изобретения, которые выходят за рамки этих конкретных подробностей, должны также быть истолкованы как находящиеся в рамках объема изобретения, определенного прилагаемой формулой изобретения. Более того, для ясности подробные описания хорошо известных устройств, схем и способов опускаются, с тем чтобы не мешать описанию настоящей системы.
Следует определенно понимать, что чертежи включены для иллюстративных целей и не представляют объем настоящей системы.
Фиг.1 изображает блок-схему 100 в соответствии с вариантом выполнения настоящей системы. На этапе 110 процесс начинается. Затем на этапе 120 принимаются данные окружающего освещения, связанные с видеосодержимым, далее называемые основанными на видеосодержимом данными окружающего освещения. Основанные на видеосодержимом данные окружающего освещения могут быть приняты в форме сценария освещения, который сформирован внутри системы или вне ее, как описано в Международной патентной заявке серийный номер IB2006/053524 (номер дела поверенного 003663), поданной 27 сентября 2006 года, которая испрашивает приоритет предварительных патентных заявок США № 60/722903 и 60/826117, все из которых уступлены правообладателю настоящей заявки, и содержимое всех из которых полностью включено в настоящий документ путем ссылки. В одном варианте выполнения изобретения сценарий освещения формируется внешним образом относительно системы, например, посредством службы создания сценариев освещения, которая создает сценарий освещения, связанный с конкретным видеосодержимым. Сценарий освещения может быть извлечен из внешнего источника, доступного, например, посредством проводного или беспроводного подключения к Интернету. В этом варианте выполнения изобретения видеосодержимое или носитель, на котором хранится видеосодержимое, может включать в себя идентификатор содержимого, и/или идентификатор может быть выведен непосредственно из содержимого. Идентификатор может быть использован для того, чтобы извлекать сценарий освещения, который соответствует видеосодержимому. В другом варианте выполнения изобретения сценарий освещения может быть сохранен или предоставлен на том же носителе, что и аудиовизуальное содержимое. В этом варианте выполнения изобретения идентификатор может быть необязателен для извлечения соответствующего сценария освещения.
В другом варианте выполнения изобретения видеосодержимое может быть обработано так, чтобы сформировать основанные на видеосодержимом данные окружающего освещения, связанные с видеосодержимым, на этапе 130. Обработка в форме анализа видеосодержимого или его частей может быть выполнена непосредственно перед воспроизведением видеосодержимого либо может быть выполнена для сохраненного или доступного видеосодержимого. PCT патентная заявка WO 2004/006570, в полном объеме включенная в настоящий документ путем ссылки, раскрывает систему и устройство для управления эффектами окружающего освещения на основе цветовых характеристик содержимого, таких как оттенок, насыщенность, яркость, цвета, скорость смены сцен, распознаваемые символы, обнаруженная тональность и т.д. При работе система анализирует принимаемое содержимое и может использовать распределение содержимого, такое как средний цвет, по одному или более кадров видеосодержимого или использовать части видеосодержимого, которые размещаются рядом с границей одного или более кадров, чтобы сформировать основанные на видеосодержимом данные окружающего освещения, связанные с видеосодержимым. Временное усреднение может быть использовано для того, чтобы сглаживать временные переходы в основанных на видеосодержимом данных окружающего освещения, вызываемые посредством быстрого изменения анализируемого видеосодержимого.
Международная патентная заявка серийный номер IB2006/053524 также раскрывает систему анализа видеосодержимого для формирования основанных на видеосодержимом данных окружающего освещения, связанных с видеосодержимым. В данном варианте выполнения изобретения пикселы видеосодержимого анализируются с тем, чтобы идентифицировать пикселы, которые предоставляют когерентный цвет, тогда как пикселы некогерентного цвета отбрасываются. Пикселы когерентного цвета затем используются для того, чтобы формировать основанные на видеосодержимом данные окружающего освещения.
Предусмотрено множество других систем для определения основанных на видеосодержимом данных окружающего освещения, в том числе гистограммный анализ видеосодержимого, анализ цветовых полей видеосодержимого и т.д. Специалисты в данной области техники могут легко понять, что для формирования основанных на видеосодержимом данных окружающего освещения в соответствии с настоящей системой может быть применена любая из упомянутых систем.
Основанные на видеосодержимом данные окружающего освещения могут включать в себя данные для управления характеристиками окружающего освещения, такими как оттенок, насыщенность, яркость, цвет и т.д. одного или более элементов окружающего освещения. Например, в одном варианте выполнения изобретения в соответствии с настоящей системой данные основанного на видеосодержимом окружающего освещения определяют зависимые от времени цветовые точки одного или более элементов окружающего освещения, которые соответствуют видеосодержимому.
На этапе 140 настоящая система принимает данные окружающего освещения, связанные с аудиосодержимым, далее упоминаемые как основанные на аудиосодержимом данные окружающего освещения. Основанные на аудиосодержимом данные окружающего освещения, аналогично основанным на видеосодержимом данным окружающего освещения, могут приниматься в форме основанного на аудиосодержимом сценария окружающего освещения. В одном варианте выполнения изобретения основанный на аудиосодержимом сценарий освещения формируется внешним образом относительно системы, например посредством службы создания сценариев освещения, которая создает сценарий освещения, связанный с конкретным аудиосодержимым. Сценарий освещения может быть извлечен из внешнего источника, доступного, например, посредством проводного или беспроводного подключения к Интернету. В этом варианте выполнения изобретения аудиосодержимое или носитель, на котором хранится аудиосодержимое, может включать в себя идентификатор содержимого, и/или идентификатор может быть выделен непосредственно из содержимого. В другом варианте выполнения изобретения идентификатор, определенный из видеосодержимого, может быть использован для извлечения основанного на аудиосодержимом сценария освещения, поскольку аудиосодержимое в обычном варианте соответствует видеосодержимому аудиовизуального содержимого. В любом случае идентификатор, будь то основанный на аудиосодержимом или основанный на видеосодержимом, может быть использован для извлечения сценария освещения, который соответствует аудиосодержимому. В одном варианте выполнения изобретения основанный на аудиосодержимом сценарий освещения может быть доступен, например, из носителя, на котором хранится аудиовизуальное содержимое, без использования идентификатора.
В другом варианте выполнения изобретения аудиосодержимое может быть обработано для формирования основанных на аудиосодержимом данных окружающего освещения, связанных с аудиосодержимым, на этапе 150. Обработка в форме анализа аудиосодержимого или его частей может быть выполнена непосредственно перед воспроизведением аудиосодержимого либо может быть выполнена для сохраненного или доступного аудиосодержимого. Аудиоанализ с целью формирования основанных на аудиосодержимом данных окружающего освещения может включать в себя анализ частоты аудиосодержимого, диапазона частот аудиосодержимого, энергии аудиосодержимого, амплитуды энергии аудиосодержимого, такта аудиосодержимого, ритма аудиосодержимого и других систем для определения характеристик аудиосодержимого, которые могут быть с легкостью применены. В другом варианте выполнения изобретения может быть использован гистограммный анализ аудиосодержимого, например гистограммный анализ аудиосодержимого в частотной области. Для того чтобы сглаживать временные переходы в основанных на аудиосодержимом данных окружающего освещения, вызываемые посредством быстрого изменения анализируемого аудиосодержимого, может быть использовано временное усреднение. Анализ аудиосодержимого позволяет идентифицировать и использовать другие характеристики аудиосодержимого, в том числе число тактов в минуту; тональности, такие как мажорная и минорная тональность, а также абсолютная тональность аудиосодержимого; интенсивность; и/или классификация, такая как классическая музыка, поп-музыка, дебаты, фильм. Дополнительно могут быть проанализированы данные, которые являются отдельными от самого аудиосодержимого, но могут быть связаны с аудиоданными, к примеру метаданные, которые связаны с аудиосодержимым. Специалисты в данной области техники могут легко понять, что любые системы выделения характеристик аудиосодержимого могут быть применены для формирования основанных на аудиосодержимом данных окружающего освещения в соответствии с настоящей системой.
Основанные на аудиосодержимом данные окружающего освещения могут включать в себя данные для управления характеристиками окружающего освещения, такими как динамика (к примеру, яркость, насыщенность и т.д.) одного или более элементов окружающего освещения, а также для модулирования основанных на видеосодержимом характеристик окружающего освещения, описанных в настоящем документе. Основанные на аудиосодержимом данные окружающего освещения могут быть использованы для того, чтобы определять данные для управления характеристиками окружающего освещения, которые аналогичны и/или комплементарны определенным основанным на видеосодержимом данным окружающего освещения.
На этапе 160 основанные на видеосодержимом данные окружающего освещения и основанные на аудиосодержимом данные окружающего освещения комбинируются для формирования комбинированных данных окружающего освещения. В типичном варианте видеосодержимое и аудиосодержимое синхронизируются в аудиовизуальном содержимом. По сути, основанные на видеосодержимом данные окружающего освещения и основанные на аудиосодержимом данные окружающего освещения представляются как временные последовательности данных. Соответственно, временные части основанных на видеосодержимом данных окружающего освещения и основанных на аудиосодержимом данных окружающего освещения могут быть комбинированы для формирования комбинированных данных окружающего освещения, которые также синхронизированы с аудиовизуальным содержимым, и могут быть воспроизведены как таковые на этапе 170. После воспроизведения процесс завершается на этапе 180.
В одном варианте выполнения изобретения в соответствии с настоящей системой основанные на видеосодержимом данные окружающего освещения могут быть использованы для определения цветовых характеристик данных окружающего освещения, таких как цветовые точки. Тогда для модулирования цветовых точек, к примеру, в виде регулирования динамики определенных из видеосодержимого цветовых точек, могут быть применены основанные на аудиосодержимом данные окружающего освещения.
Например, в аудиовизуальной последовательности, в которой основанные на видеосодержимом данные окружающего освещения определяют присвоение указанной характеристики данных окружающего освещения указанной цветовой точке в течение указанного отрезка времени, основанные на аудиосодержимом данные окружающего освещения в сочетании с основанными на видеосодержимом данными окружающего освещения могут регулировать цвет до более тусклого (к примеру, менее яркого) цвета на основании невысокого уровня энергии аудиосодержимого в течение соответствующей аудиовизуальной последовательности. Аналогично, в аудиовизуальной последовательности, в которой основанные на видеосодержимом данные окружающего освещения определяют присвоение характеристики окружающего освещения указанной цветовой точке, аудиосодержимое может регулировать цвет до более яркого цвета на основании высокого уровня энергии аудиосодержимого в течение соответствующей аудиовизуальной последовательности. Несомненно, что другие системы комбинирования основанных на видеосодержимом данных окружающего освещения и основанных на аудиосодержимом данных окружающего освещения должны быть очевидными специалистам в данной области техники, и предполагается, что они будут истолкованы как находящиеся в рамках объема настоящей системы и прилагаемой формулы изобретения. Таким образом, комбинированные данные окружающего освещения могут быть использованы для того, чтобы управлять элементами окружающего освещения в ответ на представляемые соответствующие аудио- и видеосодержимое. В одном варианте выполнения изобретения в соответствии с настоящей системой пользователь может регулировать воздействие, которое каждое из аудио- и видеосодержимого имеет на комбинированные данные окружающего освещения. Например, пользователь может решить, что основанные на аудиосодержимом данные окружающего освещения оказывают меньшее или большее влияние на основанные на видеосодержимом данные окружающего освещения при определении комбинированных данных окружающего освещения.
В дополнительном варианте выполнения изобретения аудиосодержимое и видеосодержимое могут представлять собой раздельное содержимое, не скомпонованное предварительно в виде аудиовизуального содержимого. Например, изображение или видеопоследовательность может иметь аудиосодержимое, предназначенное для воспроизведения в течение отображения изображения или видеопоследовательности. В соответствии с настоящей системой основанные на видеосодержимом данные окружающего освещения могут быть модулированы посредством основанных на аудиосодержимом данных окружающего освещения аналогично тому, как предусмотрено выше для аудиовизуального содержимого. В дополнительном варианте выполнения изобретения для воспроизведения вместе с видеосодержимым может быть предусмотрено несколько частей аудиосодержимого. В соответствии с настоящей системой для определения основанных на аудиосодержимом данных окружающего освещения может быть использована одна и/или другая из упомянутых частей аудиосодержимого.
Хотя Фиг.1 показывает прием основанных на видеосодержимом данных окружающего освещения и основанных на аудиосодержимом данных окружающего освещения по отдельности друг от друга, очевидно, что нет необходимости принимать упомянутые данные по отдельности. Например, может быть сформирован такой принимаемый сценарий окружающего освещения, который определяется на основе как аудио-, так и визуальных характеристик аудиовизуального содержимого. Дополнительные этапы 130 и 150 могут быть предусмотрены практически одновременно, так что комбинированные данные окружающего освещения формируются непосредственно без необходимости формировать основанные на видеосодержимом данные окружающего освещения и основанные на аудиосодержимом данные окружающего освещения, которые затем комбинируются. Специалистам в данной области техники должны быть явно очевидными и другие варианты, и подразумевается, что такие варианты включены в объем настоящей системы.
В варианте выполнения в соответствии с настоящей системой при комбинировании основанных на видеосодержимом данных окружающего освещения и основанных на аудиосодержимом данных окружающего освещения основанные на аудиосодержимом данные окружающего освещения могут быть использованы для определения основанных на аудиосодержимом характеристик окружающего освещения, как описано для основанных на видеосодержимом данных окружающего освещения, с последующим модулированием посредством основанных на видеосодержимом данных окружающего освещения. Например, в одном варианте выполнения изобретения характеристики основанных на аудиосодержимом данных окружающего освещения могут быть сопоставлены с характеристиками окружающего освещения. Таким образом, характеристика аудиосодержимого, такая как указанное число тактов в минуту аудиоданных, может быть сопоставлена с указанным цветом окружающего освещения. Например, определенный цвет окружающего освещения может быть сопоставлен с диапазоном тактов в минуту. Разумеется, другие характеристики аудиосодержимого и окружающего освещения могут быть просто сопоставлены аналогичным образом.
В еще одном варианте выполнения изобретения основанные на видеосодержимом характеристики окружающего освещения могут быть модулированы так, что формируется основанный на аудиосодержимом шаблон с помощью цветов, определенных из основанных на видеосодержимом характеристик окружающего освещения, аналогично представлению с помощью волюметра, как могут легко понять специалисты в данной области техники. Например, в пиксельной системе окружающего освещения отдельные части пиксельной системы окружающего освещения могут быть модулированы посредством основанных на аудиосодержимом данных окружающего освещения. В представлении с помощью волюметра аудиомодуляция упомянутого представления может быть выполнена в направлении от нижней части к верхней в системе окружающего освещения, или наоборот (к примеру, сверху вниз). В качестве дополнения, продвижение может быть слева направо или от центральной части системы окружающего освещения к периферии.
Как можно дополнительно понять из настоящей заявки, поскольку основанные на аудиосодержимом данные окружающего освещения в обычном варианте могут различаться для различных каналов аудиоданных, включая левые данные, правые данные, центральные данные, задние левые данные, задние правые данные и т.д., каждая из этих позиционных частей аудиоданных или их фрагменты легко могут быть использованы в сочетании с основанными на видеосодержимом данными и характеристиками окружающего освещения. Например, часть основанных на видеосодержимом характеристик окружающего освещения, предназначенных для представления на левой стороне дисплея, может быть комбинирована с левым каналом основанных на аудиосодержимом данных окружающего освещения, тогда как часть основанных на видеосодержимом характеристик окружающего освещения, предназначенных для представления на правой стороне дисплея, может быть комбинирована с правым каналом основанных на аудиосодержимом данных окружающего освещения. Могут быть легко применены другие комбинации частей основанных на видеосодержимом данных окружающего освещения и частей основанных на аудиосодержимом данных окружающего освещения.
Фиг.2 изображает устройство 200 в соответствии с вариантом выполнения настоящей системы. Устройство имеет процессор 210, функционально соединенный с запоминающим устройством 220, устройство 230 представления видеосодержимого (к примеру, дисплей), устройство 280 представления аудиосодержимого (к примеру, динамики), элементы 250, 260 окружающего освещения, ввод/вывод (I/O) 240 и устройство 270 пользовательского ввода. Запоминающее устройство 220 может быть любым типом устройства для хранения данных приложений, а также других данных, таких как данные окружающего освещения, аудиоданные, видеоданные, данные сопоставления и т.д. Данные приложений и другие данные принимаются процессором 210 для конфигурирования процессора 210, чтобы выполнять этапы процесса в соответствии с настоящей системой. Этапы процесса включают в себя управление, по меньшей мере, одним из дисплея 230 для воспроизведения содержимого, и управление одним или более из элементов 250, 260 окружающего освещения для отображения эффектов окружающего освещения в соответствии с настоящей системой. Устройство 270 пользовательского ввода может включать в себя клавиатуру, мышь или другие устройства, включая сенсорные дисплеи, которые могут быть автономными или быть частью системы, такой как персональный компьютер, карманный персональный компьютер, и устройство отображения, такое как телевизор, для обмена данными с процессором посредством любого типа соединения, такого как проводное или беспроводное соединение. Очевидно, что процессор 210, запоминающее устройство 220, дисплей 230, элементы 250, 260 окружающего освещения и/или устройство 270 пользовательского ввода все или частично могут быть частью телевизионной платформы, такой как отдельный телевизор, либо могут быть отдельными устройствами.
Способы настоящей системы особенно подходят для выполнения посредством компьютерного программного обеспечения, причем это компьютерное программное обеспечение предпочтительно содержит модули, соответствующие отдельным этапам способов. Это программное обеспечение, разумеется, может быть осуществлено в машиночитаемом носителе, таком как интегральная микросхема, периферийное устройство или запоминающее устройство, такое как запоминающее устройство 220 или другое запоминающее устройство, соединенное с процессором 210.
Машиночитаемый носитель и/или запоминающее устройство 220 может быть любым носителем записи (к примеру, RAM, ROM, съемное запоминающее устройство, CD-ROM, жесткие диски, DVD, гибкие диски или карты памяти) либо может быть средой передачи (к примеру, сетью, содержащей оптоволокно, сетью Интернет, кабелями или беспроводным каналом, использующим множественный доступ с временным разделением каналов, множественный доступ с кодовым разделением каналов, или другим радиочастотным каналом). Любой известный или разрабатываемый носитель, который может предоставлять информацию, подходящую для использования с компьютерной системой, может быть использован в качестве машиночитаемого носителя и/или запоминающего устройства 220.
Также могут быть использованы дополнительные запоминающие устройства. Машиночитаемый носитель, запоминающее устройство 220 и/или любые другие запоминающие устройства могут быть долговременными, кратковременными или комбинацией долговременных и кратковременных запоминающих устройств. Эти запоминающие устройства обеспечивают процессору 210 возможность осуществлять способы, этапы процесса и функции, раскрытые в настоящей заявке. Запоминающие устройства могут быть распределенными или локальными, и процессор 210, в котором могут быть предусмотрены дополнительные процессоры, также может быть распределенным и, к примеру, располагаться в составе элементов окружающего освещения, либо может быть одиночным. Запоминающие устройства могут быть реализованы как электрическое, магнитное или оптическое запоминающее устройство либо комбинация этих и других типов устройств хранения. Кроме того, термин "запоминающее устройство" должен рассматриваться в достаточно широком смысле, чтобы включать в себя любую информацию, которую можно считывать или записывать в какой-либо адрес в адресуемом пространстве, к которому может осуществлять доступ процессор. При таком определении информация в сети по-прежнему находится в рамках запоминающего устройства 220, например, поскольку процессор 210 может извлекать информацию из сети для работы в соответствии с настоящей системой.
Процессор 210 выполнен с возможностью предоставления сигналов управления и/или выполнения операций в соответствии с входными сигналами из устройства 270 пользовательского ввода и приведения в исполнение команд, сохраненных в запоминающем устройстве 220. Процессор 210 может быть специализированной или общей интегральной микросхемой(ами). Дополнительно, процессор 210 может быть специализированным процессором для работы в соответствии с настоящей системой или может быть процессором общего назначения, в котором только одна из множества функций служит для работы в соответствии с настоящей системой. Процессор 210 может работать с использованием программной части, нескольких программных сегментов или может быть аппаратным устройством, использующим специализированную или универсальную интегральную микросхему.
Ввод/вывод 240 может быть использован для передачи идентификатора содержимого, для приема одного или более сценариев освещения и/или для других операций, как описано выше.
Разумеется, следует принимать во внимание, что любой из вышеприведенных вариантов выполнения изобретения или процессов может быть комбинирован с одним или более другими вариантами выполнения изобретения или процессами или может быть осуществлен отдельно в соответствии с настоящей системой.
Наконец, вышеприведенное описание служит лишь для целей иллюстрации настоящей системы и не должно быть истолковано как ограничивающее прилагаемую формулу изобретения каким-либо конкретным вариантом выполнения изобретения или группой вариантов выполнения изобретения. Таким образом, хотя настоящая система описана со ссылкой на примерные варианты выполнения изобретения, также следует понимать, что специалистами в данной области техники может быть обнаружено множество модификаций и альтернативных вариантов выполнения изобретения, не выходящих за рамки предполагаемых авторами и понимаемых в широком смысле сущности и объема настоящей системы, изложенных в нижеследующей формуле изобретения. Соответственно, описание и чертежи должны рассматриваться в иллюстративном смысле и не предназначены для того, чтобы ограничивать объем прилагаемой формулы изобретения.
При толковании прилагаемой формулы изобретения следует понимать, что:
a) слово "содержащий" не исключает наличия других элементов или этапов, не перечисленных в данном пункте формулы изобретения;
b) слово "a" или "an" перед элементом не исключает наличия множества таких элементов;
c) любые номера ссылочных позиций в формуле изобретения не ограничивают ее объем;
d) несколько "средств" могут быть представлены в виде одного и того же элемента или аппаратно или программно реализованной структуры либо функции;
e) любые из раскрытых элементов могут состоять из аппаратных частей (к примеру, включающих в себя дискретные и интегрированные электронные схемы), программных частей (к примеру, вычислительного программирования) и любого сочетания упомянутых частей;
f) аппаратные части могут состоять из аналоговых или из цифровых частей, либо из сочетания упомянутых частей;
g) любое из раскрытых устройств или их частей могут быть комбинированы вместе или разделены на дополнительные части, если иное не указано конкретно; и
h) ни одна конкретная последовательность операций или этапов не должна считаться обязательной, если иное не указано явно.
Изобретение относится к системам управления источниками света, а более конкретно к управлению системой окружающего освещения. Техническим результатом является обеспечение системы окружающего освещения, которая управляется на основе комбинированных данных окружающего освещения, полученных путем анализа совместно видео- и аудиоданных. Результат достигается тем, что принимают основанные на видео данные окружающего освещения, содержащие информацию для управления характеристиками окружающего освещения на основе видеосодержимого, принимают основанные на аудио данные окружающего освещения, содержащие информацию для управления характеристиками окружающего освещения на основе аудиосодержимого, комбинируют принятые основанные на видео данные окружающего освещения и принятые основанные на аудио данные окружающего освещения для формирования комбинированных данных окружающего освещения путем модулирования принятых основанных на видео данных окружающего освещения принятыми основанными на аудио данными окружающего освещения и управляют характеристиками окружающего освещения элемента окружающего освещения на основе комбинированных данных окружающего освещения. 3 н. и 16 з.п. ф-лы, 2 ил.
1. Способ управления характеристиками окружающего освещения элемента окружающего освещения для отображения эффектов окружающего освещения, причем характеристики окружающего освещения включают в себя по меньшей мере одно из оттенка, насыщенности, яркости и цвета, содержащий этапы, на которых:
принимают основанные на видео данные окружающего освещения, содержащие информацию для управления характеристиками окружающего освещения на основе видеосодержимого;
принимают основанные на аудио данные окружающего освещения, содержащие информацию для управления характеристиками окружающего освещения на основе аудиосодержимого;
комбинируют принятые основанные на видео данные окружающего освещения и принятые основанные на аудио данные окружающего освещения для формирования комбинированных данных окружающего освещения путем модулирования принятых основанных на видео данных окружающего освещения принятыми основанными на аудио данными окружающего освещения,
управляют характеристиками окружающего освещения элемента окружающего освещения на основе комбинированных данных окружающего освещения.
2. Способ по п.1, в котором комбинированные данные окружающего освещения имеют форму комбинированного сценария окружающего освещения.
3. Способ по п.1, дополнительно содержащий этап, на котором посредством модулирования принятых основанных на видео данных окружающего освещения принятыми основанными на аудио данными окружающего освещения, регулируют указанную цветовую точку в течение указанного отрезка времени в основанных на видео данных окружающего освещения, чтобы сделать ее более яркой, на основе высокой энергии аудио, определенной основанными на аудио данными окружающего освещения, или менее яркой на основе низкой энергии аудио, определенной основанными на аудио данными окружающего освещения.
4. Способ по п.1, содержащий этап, на котором анализируют видеосодержимое для формирования основанных на видео данных окружающего освещения.
5. Способ по п.4, в котором этап анализа видеосодержимого содержит этап, на котором определяют множество цветовых точек в качестве основанных на видео данных окружающего освещения.
6. Способ по п.1, содержащий этап, на котором анализируют аудиосодержимое для формирования основанных на аудио данных окружающего освещения.
7. Способ по п.6, в котором этап анализа аудиосодержимого содержит этап, на котором анализируют по меньшей мере одно из частоты, диапазона частот и амплитуды соответствующих частей аудиосодержимого.
8. Способ по п.6, в котором этап анализа аудиосодержимого содержит этап, на котором анализируют временные части аудиосодержимого для формирования временных частей основанных на
аудио данных окружающего освещения.
9. Способ по п.6, в котором этап анализа аудиосодержимого содержит этап, на котором анализируют позиционные части аудиосодержимого для формирования позиционных частей основанных на аудио данных окружающего освещения.
10. Способ по п.1, в котором этап комбинирования содержит этапы, на которых:
определяют цветовую точку на основе принятых основанных на видео данных окружающего освещения; и
используют основанные на аудио данные окружающего освещения для регулирования динамики цветовой точки.
11. Машиночитаемый носитель, содержащий осуществленное на нем приложение, конфигурированное для управления характеристиками окружающего освещения элемента окружающего освещения для отображения эффектов окружающего освещения, причем характеристики окружающего освещения включают в себя по меньшей мере одно из оттенка, насыщенности, яркости и цвета, причем приложение содержит:
модуль, конфигурированный для приема основанных на видео данных окружающего освещения, содержащих информацию для управления характеристиками окружающего освещения на основе видеосодержимого;
модуль, конфигурированный для приема основанных на аудио данных окружающего освещения, содержащих информацию для управления характеристиками окружающего освещения на основе аудиосодержимого;
модуль, конфигурированный для комбинирования принятых основанных на видео данных окружающего освещения и принятых основанных на аудио данных окружающего освещения для формирования комбинированных данных окружающего освещения путем модулирования принятых основанных на видео данных окружающего освещения принятыми основанными на аудио данными окружающего освещения,
модуль, конфигурированный для управления характеристиками окружающего освещения элемента окружающего освещения на основе комбинированных данных окружающего освещения.
12. Машиночитаемый носитель по п.11, в котором приложение содержит модуль, конфигурированный для анализа видеосодержимого для формирования основанных на видео данных окружающего освещения, причем модуль, конфигурированный для анализа видеосодержимого, конфигурирован для определения цветовой точки в качестве основанных на видео данных окружающего освещения.
13. Машиночитаемый носитель по п.11, в котором приложение содержит модуль, конфигурированный для анализа аудиосодержимого для формирования основанных на аудио данных окружающего освещения, причем модуль, конфигурированный для анализа аудиосодержимого, конфигурирован для анализа частей аудиосодержимого для создания частей основанных на аудио данных окружающего освещения в качестве основанных на аудио данных окружающего освещения.
14. Машиночитаемый носитель по п.13, в котором части основанных на аудио данных окружающего освещения являются разделенными на части соответственно по меньшей мере одному из позиционного и временного разделения.
15. Машиночитаемый носитель по п.13, в котором модуль приложения, конфигурированный для анализа аудиосодержимого, конфигурирован для анализа по меньшей мере одного из частоты, диапазона частот и амплитуды соответствующих частей аудиосодержимого.
16. Машиночитаемый носитель по п.11, в котором приложение содержит модуль, конфигурированный для определения цветовой точки на основе основанных на видео данных окружающего освещения, при этом модуль, конфигурированный для комбинирования, конфигурирован для использования основанных на аудио данных окружающего освещения для регулирования динамики цветовой точки.
17. Устройство управления элементом окружающего освещения, при этом устройство содержит:
запоминающее устройство (220) и
процессор (210), функционально соединенный с запоминающим устройством (220), при этом процессор (210) конфигурирован для:
приема основанных на видео данных окружающего освещения, содержащих информацию для управления характеристиками окружающего освещения на основе видеосодержимого;
приема основанных на аудио данных окружающего освещения, содержащих информацию для управления характеристиками окружающего освещения на основе аудиосодержимого; и
комбинирования принятых основанных на видео данных окружающего освещения и принятых основанных на аудио данных окружающего освещения для формирования комбинированных данных окружающего освещения путем модулирования принятых основанных на видео данных окружающего освещения принятыми основанными на аудио данными окружающего освещения,
управления характеристиками окружающего освещения элемента окружающего освещения на основе комбинированных данных окружающего освещения.
18. Устройство по п.17, в котором процессор (210) конфигурирован для:
анализа видеосодержимого для формирования цветовой точки в качестве основанных на видео данных окружающего освещения и
использования основанных на аудио данных окружающего освещения для модулирования цветовой точки.
19. Устройство по п.17, в котором процессор (210) конфигурирован для анализа по меньшей мере одной из временных и позиционных частей аудиосодержимого для формирования основанных на аудио данных окружающего освещения.
WO 2006003624 A1, 12.01.2006 | |||
Способ повышения работоспособности спортсмена | 1989 |
|
SU1703131A1 |
WO 03101098 A1, 04.12.2003 | |||
Телевизионный цветосинтезатор | 1987 |
|
SU1432801A1 |
0 |
|
SU250690A1 |
Авторы
Даты
2012-08-27—Публикация
2007-03-27—Подача