ОБЛАСТЬ ТЕХНИКИ
Настоящее изобретение относится к устройству и способу пользовательского ввода для управления отображаемой информацией.
ПРЕДПОСЫЛКИ СОЗДАНИЯ ИЗОБРЕТЕНИЯ
Сенсорные экраны широко используются во многих портативных электронных устройствах, например устройствах PDA (Personal Digital Assistant, персональный цифровой помощник), планшетных компьютерах, сенсорных поверхностях и мобильных устройствах. Управление сенсорными экранами осуществляется с помощью указывающего устройства (или стилуса) и/или пальца. Обычно такие устройства также содержат традиционные кнопки для выполнения определенных операций.
Для портативных и переносных устройств также были разработаны стереоскопические или трехмерные (3D) дисплеи, способные отображать стереоскопические изображения. Стереоскопические дисплеи могут использоваться для отображения элементов пользовательского интерфейса (User Interface, UI), так чтобы пользователь воспринимал трехмерное (three-dimensional, 3D) изображение. Внедрение стереоскопических дисплеев также приводит к постановке новых задач и обеспечению новых возможностей при разработке технологий взаимодействия с пользователем.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
Различные аспекты примеров настоящего изобретения охарактеризованы в формуле изобретения.
Согласно одному из аспектов предложено устройство, включающее: по меньшей мере один процессор и по меньшей мере одну память, содержащую компьютерный программный код, при этом указанная по меньшей мере одна память и указанный компьютерный программный код конфигурированы для обеспечения, совместно с указанным по меньшей мере одним процессором, выполнения указанным устройством по меньшей мере следующего: приема информации о наличии объекта в непосредственной близости от поверхности сенсорного экрана, обнаружения элемента отображения, связанного в текущий момент времени с указанным объектом, при этом осуществляется визуализация смещения указанного элемента отображения относительно уровня поверхности экрана в направлении z, по существу перпендикулярном поверхности экрана, и адаптации элемента отображения на основании расстояния между указанным объектом и поверхностью экрана, при этом осуществляется визуализация размещения указанного элемента отображения по существу на уровне поверхности сенсорного экрана в ответ на обнаружение касания объектом поверхности сенсорного экрана.
Согласно одному из аспектов предложен способ, включающий: прием устройством информации о наличии объекта в непосредственной близости от поверхности сенсорного экрана, обнаружение элемента отображения, связанного в текущий момент времени с указанным объектом, при этом визуализируется смещение указанного элемента отображения относительно уровня поверхности экрана в направлении z, по существу перпендикулярном поверхности экрана, и адаптацию элемента отображения на основании расстояния между указанным объектом и поверхностью экрана, при этом визуализируется размещение указанного элемента отображения по существу на уровне поверхности сенсорного экрана в ответ на обнаружение касания объектом поверхности сенсорного экрана.
Согласно примеру осуществления настоящего изобретения управление операцией отображения для адаптации визуализированного смещения элемента отображения в направлении z осуществляют на основании значения диспаратности, зависящего от обнаруженного расстояния.
Настоящее изобретение и различные варианты его осуществления обеспечивают ряд преимуществ, которые станут очевидны из представленного далее подробного описания.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Для более полного понимания примеров осуществления настоящего изобретения далее приведено подробное описание совместно с сопровождающими чертежами, на которых:
фиг.1а и 1b иллюстрируют управление внешним видом элементов отображения стереоскопического дисплея в соответствии с примером осуществления настоящего изобретения;
фиг.2 является упрощенной структурной схемой вида сбоку устройства в соответствии с примером осуществления настоящего изобретения;
фиг.3-5 иллюстрируют способы в соответствии с примерами осуществления настоящего изобретения;
фиг.6 иллюстрирует электронное устройство в соответствии с примером осуществления настоящего изобретения и
фиг.7 иллюстрирует способ в соответствии с примером осуществления настоящего изобретения.
ПОДРОБНОЕ ОПИСАНИЕ
На фиг.1а проиллюстрированы элементы 2, 3, 4 отображения, такие как графические элементы или значки, представляющие элементы данных и/или доступные действия, виртуального трехмерного изображения дисплея электронного устройства, например, переносного мобильного устройства. Верхнее изображение иллюстрирует вид спереди экрана в направлениях x и y, по существу параллельных поверхности 5 экрана, а нижнее изображение иллюстрирует вид сбоку в направлении z, по существу перпендикулярном поверхности 5 экрана. Элементы 2-4 отображения могут отображаться стереоскопическим дисплеем с обеспечением 3D-эффекта, так чтобы по меньшей мере некоторые элементы отображения размещались на разных уровнях относительно уровня поверхности сенсорного экрана, например один элемент 2 отображения на первом уровне и другой элемент 3 отображения на втором уровне относительно уровня 5 поверхности сенсорного экрана. Таким образом, может быть обеспечена визуализация смещения по меньшей мере некоторых элементов отображения относительно уровня поверхности экрана в направлении z. Необходимо понимать, что элементы 2-4 отображения могут иметь различный вид, и в некоторых вариантах осуществления их форма может быть изменена пользователем. Например, элементы 2 и 4 отображения могут быть «плавающими» над поверхностью 5 экрана, а элемент 3 отображения может быть показан как элемент, размещенный на заднем плане, ниже уровня 5 поверхности экрана.
В примерах осуществления настоящего изобретения «зависание» (hovering) объекта ввода используется для управления внешним видом и/или положением одного или более элементов 2-4 отображения. «Зависание» относится, в общем, к размещению объекта 1 ввода, такого как палец или стилус, в непосредственной близости от поверхности 5 сенсорного экрана, но без контакта с ней. Показанное положение элемента(-ов) отображения в направлении z может быть адаптировано на основе обнаруженного расстояния от указанного объекта до поверхности 3 экрана. Это относится, в общем, к любому типу операции отображения, облегчающему восприятие элемента отображения, приближающегося к поверхности экрана или отдаляющегося от нее. Обнаружение расстояния может включать обнаружение, например, на основе конкретного оцененного значения расстояния или на основе значения сигнала, зависящего от расстояния до объекта. Таким образом, на основе повторяющегося и/или непрерывного контроля расстояния до объекта 1 может быть обеспечено управление элементом (-ами) отображения в отношении перемещения пальца по направлению к сенсорному экрану или от него.
Среди отображаемых элементов 2-4 отображения 3D-изображения один или более элементов 2-4 отображения могут быть обнаружены в качестве целевых объектов на основе положения объекта 1. Управление операцией отображения для обеспечения перемещения 6 целевого элемента 2 отображения может быть выполнено в соответствии с обнаруженным изменением расстояния до объекта 1. Если объект 1 приближается к поверхности 3 экрана, посредством 3D-эффектов может быть визуализировано перемещение 6, 7 элемента отображения по направлению к поверхности 5 сенсорного экрана. Как показано на фиг.1b, если обнаружено, что объект 1 ввода касается поверхности 3 сенсорного экрана, может быть визуализировано 8 размещение целевого элемента 2 отображения в плоскости поверхности экрана. Таким образом, может быть обеспечено восприятие пользователем соприкосновения пальца и элемента отображения в направлении z на уровне поверхности экрана. Это позволяет улучшить восприятие касания и обеспечить большую интуитивность и интерактивность ощущений пользователя, взаимодействующего с объектами графического пользовательского интерфейса (Graphical User Interface, GUI) 3D-изображения на различных уровнях глубины. Кроме того, без ограничения объема настоящего изобретения, заданного формулой изобретения, может быть обеспечено уменьшение неприятного ощущения, возникающего у некоторых пользователей при попытке выбрать значки, появляющиеся выше или ниже уровня поверхности экрана, путем касания поверхности экрана.
На фиг.2 показан пример устройства 100, в котором может быть обеспечено управление элементом отображения на основе «зависания». Устройство 100 может быть периферийным устройством или может быть интегрировано в электронное устройство. Примеры электронных устройств включают любое пользовательское электронное устройство, например компьютеры, медиаплееры, беспроводные оконечные устройства связи и так далее.
Пример устройства 100 включает сенсорный дисплей 110 с множеством датчиков 114 касания для распознавания сенсорного ввода на поверхности сенсорного экрана. Устройство 100 включает систему или блок 120 обнаружения приближения, конфигурированную для обнаружения размещения объекта 1 ввода в непосредственной близости от поверхности 112 сенсорного экрана, но без контакта с ней. Область 140 обнаружения, которая также может быть названа областью зависания, может иллюстрировать ближайшую область и/или расстояние, на котором обнаруживается объект 1 ввода при его зависании над поверхностью экрана. Пользовательский ввод, например конкретный жест в области 140 зависания, обнаруженный по меньшей мере частично на основе объекта 1 ввода, не касающегося поверхности 112 экрана, может быть назван вводом с использованием зависания. Такой ввод с использованием зависания связан по меньшей мере с одной функцией, например выбором элемента отображения, масштабированием области отображения, активацией всплывающего меню, модификацией элемента отображения или перемещением элемента отображения. Объект 1 ввода с использованием зависания и ввод с использованием зависания могут быть обнаружены на основе сенсорного сигнала или расстояния 150 от объекта 1 ввода до поверхности 112 экрана, удовлетворяющих заранее заданному пороговому значению. В некоторых вариантах осуществления область 140 зависания обеспечивает также ввод данных и/или доступ к ним в устройстве 100 даже без касания поверхности 112 экрана.
В некоторых вариантах осуществления система 120 обнаружения формирует поле обнаружения посредством одного или более датчиков 122 приближения. В одном из примеров осуществления используется емкостная система обнаружения приближения, в соответствии с чем датчики 122 представляют собой узлы емкостного обнаружения. Осуществляется контроль возмущений, вносимых в поле обнаружения одним или более объектами 100 ввода, и на основании обнаруженных возмущений осуществляется обнаружение наличия одного или более объектов. Схема 120 емкостного обнаружения обнаруживает изменения емкости над поверхностью 112 экрана.
Однако очевидно, что данные признаки не ограничивают настоящее изобретение конкретным типом обнаружения приближения. Система 120 обнаружения приближения может быть основана на инфракрасном обнаружении приближения, оптическом обнаружении тени, акустическом обнаружении излучения, ультразвуковом обнаружении или любых других подходящих способах обнаружения приближения. Например, в случае, если система 120 обнаружения приближения основана на инфракрасном обнаружении, система будет включать один или более излучателей, посылающих импульсы инфракрасного излучения. Для обнаружения отражений такого излучения от расположенных поблизости объектов 100 будут использоваться один или более детекторов. Если система обнаруживает отраженное излучение, предполагается, что объект ввода имеется в наличии.
Система 120 обнаружения может быть выполнена с возможностью оценки (или предоставления сигнала, обеспечивающего оценку) расстояния от поверхности 112 экрана до объекта 1 ввода, что позволяет предоставить координатные данные z положения объекта 1 относительно поверхности 112 экрана. Это может выполняться непрерывно или, в некоторых вариантах осуществления, в конкретные периоды времени и/или после какого-либо инициирования. Система 120 обнаружения приближения также может быть выполнена с возможностью формирования информации о положении х, у объекта 1 для обеспечения возможности определения целевого элемента отображения или области ввода с использованием зависания. В зависимости от используемого способа обнаружения приближения, размера устройства 100 и поверхности 112 экрана, а также требуемого взаимодействия с пользователем область 140 зависания может простираться от поверхности 112 экрана на расстояние, например, от нескольких миллиметров до многих десятков сантиметров.
Устройство 100 может содержать стереоскопический дисплей, обладающий возможностью отображения стереоскопических изображений. Стереоскопический дисплей может быть выполнен с возможностью формирования 3D-изображения(-ий), то есть изображений, включающих целое изображение или по меньшей мере некоторые элементы отображения с 3D-эффектами, которые визуализируются на различных уровнях глубины (в направлении z), например элементы 2-4 отображения, как показано на фиг.1а и 1b. Стереоскопический дисплей может направлять информацию от нескольких субпикселей изображения в различных направлениях, так что зритель может видеть различные изображения каждым глазом. Если эти изображения достаточно сходны, человеческий мозг будет полагать, что зритель смотрит на единый объект и объединять соответствующие точки на двух изображениях с формированием объекта, воспринимаемого как единое целое. Данные для 3D-элемента отображения могут быть получены, например, путем съемки множества двумерных изображений и объединения пикселей изображений в субпиксели единого изображения для представления на стереоскопическом дисплее. В одном из вариантов, две камеры, которые расположены на небольшом заранее заданном расстоянии друг относительно друга, снимают двумерные изображения для 3D-представления. Каждая камера может включать цепочку обработки изображений, применяющую обработку изображений к захваченным изображениям. Система стереоскопического дисплея также может включать пользовательское устройство формирования изображений и функциональные средства отслеживания положения глаз. Дисплей может иметь специальные 2D и SD-режимы и система может переключаться между этими режимами. В зависимости от требуемой реализации и применяемой технологии стереоскопического дисплея, сенсорный экран 110 может быть выполнен с возможностью обеспечения особенностей стереоскопического дисплея, или элементы стереоскопического дисплея могут быть по меньшей мере частично отделены от сенсорного экрана 110 (не показаны на фиг.2). В одном из вариантов осуществления стереоскопический дисплей представляет собой автостереоскопический дисплей, а 3D-изображения представляют собой автостереоскопические изображения, которые относятся в общем к стереоскопическому представлению элемента отображения, не требующему применения специальных очков для пользователя. Могут применяться различные автостереоскопические дисплеи, например автостереоскопические дисплеи на основе параллаксного барьера и/или линз Френеля или на основе применения голографии и/или отслеживания перемещения глаз.
Система 120 обнаружения приближения соединена с контроллером 130. Система 120 обнаружения приближения конфигурирована для подачи сигналов в контроллер 130 при обнаружении объекта 1 ввода в области 140 зависания. На основе таких сигналов ввода могут быть инициированы команды, выбор или другие типы действий, обычно путем предоставления пользователю визуальной, звуковой и/или тактильной обратной связи. Сенсорный ввод в датчики 114 касания может быть сигнализирован в контроллер 130 или другой контроллер посредством схемы управления.
Контроллер 130 может быть также соединен с одним или более устройствами вывода, например сенсорным дисплеем с функциями 3D-дисплея и/или отдельным блоком отображения, обладающим возможностью обеспечения 3D-ощущения. Контроллер 130 может быть конфигурирован для управления различными изображениями приложений на дисплее 110. Контроллер 130 может обнаруживать сенсорный ввод и ввод с использованием зависания на основе сигналов от системы 120 обнаружения приближения и датчиков 114 касания. Контроллер 130 может затем управлять функцией отображения, связанной с обнаруженным сенсорным вводом или вводом с использованием зависания. Кроме того, контроллер 130 может быть выполнен с возможностью обнаружения элемента отображения, являющегося целевым в текущий момент времени и связанного с объектом 1 зависания, и обеспечить с использованием операции отображения адаптацию визуализируемого положения (глубины) элемента отображения в направлении z на основе информации, зависящей от текущего расстояния от объекта 1 до поверхности 112 экрана. Ряд примеров других признаков, которые могут быть по меньшей мере частично выполнены контроллером 130, проиллюстрированы далее. Будет понятно, что функции контроллера 130 могут быть реализованы одиночным блоком управления или множеством блоков управления.
Необходимо понимать, что устройство 100 может содержать различные дополнительные элементы, не рассмотренные подробно в настоящем описании. Хотя устройство 100 и контроллер 130 показаны как единый объект, различные признаки могут быть реализованы в одном или более физических или логических объектах. Например, может быть предложено устройство на микросхемах, конфигурированное для выполнения функций управления контроллера 130. Кроме того, может быть предложен специальный функциональный модуль (модули), например, для выполнения одного или более шагов, описанных в отношении фиг.3.
На фиг.3 проиллюстрирован способ управления элементами отображения на основе зависания в соответствии с одним из примеров осуществления. Способ может быть применен, например, контроллером 130 в качестве алгоритма управления.
Наличие объекта в непосредственной близости от поверхности экрана обнаруживают на шаге 310. Необходимо отметить, что в ряде вариантов осуществления принимают информацию о наличии объекта и упомянутое обнаружение основано на этой принятой информации.
На шаге 320 обнаруживают элемент отображения, указываемый объектом ввода с использованием зависания. Обнаружение целевого элемента отображения относится в общем к обнаружению элемента отображения, связанного в текущий момент времени с объектом зависания, что может быть обнаружено на основе текущего положения х, у объекта 1. Однако на обнаружение целевого элемента отображения могут влиять дополнительные условия, например расстояние 150 до объекта 1. Осуществляется визуализация смещения указанного элемента отображения от плоскости поверхности экрана, то есть может быть показано, что элемент отображения расположен выше или ниже поверхности 5 сенсорного экрана.
На шаге 330 осуществляют проверку расстояния от объекта 1 до поверхности 112 экрана. Указанная проверка может быть выполнена на основе сигнала или значения, генерируемых, например, системой 120 обнаружения приближения.
На основе текущего обнаруженного расстояния осуществляют адаптацию указанного элемента отображения. Таким образом, может осуществляться управление 340 операцией отображения для адаптации показанного положения элемента отображения в направлении z. Управление операцией отображения следует понимать в широком смысле, как действие, вызывающее и приводящее к изменению элемента отображения, воспринимаемого пользователем. Например, оно может включать адаптацию выходного изображения(-ий) путем изменения положения изображения(-ий), извлечения нового изображения(-ий) из базы данных изображений и/или повторной визуализации 20/30-векторной графики в режиме реального времени.
Пример процедуры, показанной на фиг.3, включает также контроль состояния 350 датчика касания. Проверка состояния датчика касания может быть осуществлена 350, 360, например, на основе сигнала от контроллера дисплея. Если сенсорный ввод не обнаружен, может быть выполнен возврат к шагу 330, и может быть осуществлена, например, периодически, повторная проверка расстояния. Если обнаружено касание поверхности 112 сенсорного экрана, может быть выполнен переход к шагу 370 и осуществлено управление операцией отображения для визуализации размещения элемента отображения в плоскости (5) поверхности экрана.
Это обеспечивает возможность адаптации положения визуализируемого элемента отображения по глубине на основе расстояния от объекта 1 ввода до поверхности сенсорного экрана, так чтобы пользователь мог воспринять приближение пальца к элементу отображения и соприкосновение с пальцем при касании поверхности 112 сенсорного экрана.
Пользовательский интерфейс устройства, такого как устройство 100, может быть конфигурирован для обеспечения выполнения по меньшей мере некоторых соответствующих функций ввода/вывода, показанных на фиг.3. Необходимо понимать, что в отношении примера способа, показанного на фиг.3, могут применены различные модификации и дополнения. Например, объект 1 ввода с использованием зависания и текущий целевой элемент 2 отображения могут быть обнаружены по существу одновременно или пользователь может выполнить ввод с использованием зависания только спустя некоторое время после выполнения шага 310. Другой пример заключается в том, что может быть выполнена дополнительная процедура проверки того, обнаружено ли удаление объекта из области, находящейся в непосредственной близости от поверхности 112 экрана. Если объект больше не обнаруживается в области 140 зависания, процедура, показанная на фиг.3, может быть завершена. Несколько дополнительных примеров осуществления настоящего изобретения будут проиллюстрированы далее.
В примерах, показанных на фиг.1а и 1b, устройство 100 может быть выполнено с возможностью адаптации (340) дисплея для отображения перемещения 6 элемента 2 отображения по меньшей мере в направлении z. Так, целевой элемент 2 отображения может быть выполнен с возможностью реагирования на перемещение «зависающего» пальца, при этом может быть обеспечено восприятие пользователем перемещения элемента 2 отображения с помощью пальца. Если элемент 3 отображения отображается на заднем плане ниже уровня 5 поверхности экрана или «за» ним, может быть визуализировано перемещение пальца пользователя и элемента 3 отображения в противоположных направлениях и их контакт на экране. Если элемент 2 отображения находится над экраном, визуально значок и палец могут перемещаться в одном и том же направлении и осуществить контакт на уровне поверхности экрана.
В зависимости от применяемой технологии формирования 3D-восприятия имеются различные варианты выполнения операций 340, 370 отображения для осуществления адаптации воспринимаемого положения элемента отображения в направлении z. В ряде вариантов осуществления они включают изменение поперечного положения в направлении x 20-элементов отображения, используемых для формирования элемента 3 отображения с 3D-эффектом. Эти операции также могут включать адаптацию размера или формы элемента 3 отображения.
В ряде вариантов осуществления управление визуализируемым смещением элемента отображения в направлении z относительно уровня поверхности экрана осуществляют на основе значения диспаратности в зависимости от обнаруженного расстояния от объекта 1 до поверхности 5 экрана. Термин «диспаратность» в настоящем описании относится в общем к различию и сдвигу между изображением, формируемым для поля зрения левого глаза, и другим изображением, формируемым для поля зрения правого глаза, которые также могут называться изображением, полученным левым глазом, и изображением, полученным правым глазом, каждое из которых имеет конкретное расположение в плоскости х, у экрана. Значение диспаратности может представлять собой параметр любого типа, задающий или влияющий на поперечный сдвиг в направлении x между изображениями, полученными для левого глаза и для правого глаза, который приводит к изменению воспринимаемого положения результирующего элемента отображения по глубине. Значение диспаратности может непосредственно задавать параллакс между изображениями, полученными для левого глаза и для правого глаза, задавая воспринимаемое положение элемента отображения по глубине. Если используется положительный параллакс, пользователь может воспринимать элемент 2 отображения «плавающим» над экраном 5. Если используется отрицательный параллакс, компоненты пользовательского интерфейса воспринимаются как находящиеся ниже экрана 5. Так в примере, показанном на фиг.1а и 1b, изображение элемента 2 отображения, приближающегося к поверхности 5 экрана, может быть обеспечено на основе уменьшения поперечного сдвига между двумя 2D-изображениями, формирующими указанный элемент отображения.
На фиг.4 проиллюстрирован пример способа, аналогичного способу, показанному на фиг.3, который, например, может быть выполнен после шага 320, показанного на фиг.3. После обнаружения 410 текущего расстояния до поверхности экрана, на шаге 420 задают значение диспаратности. Например, в памяти, соединенной с контроллером 130, может храниться таблица соответствий или любой другой тип структуры данных с набором расстояний (или диапазонов расстояний) и соответствующих значений диспаратности.
Управление 430 операцией адаптации элемента отображения осуществляют для адаптации отображаемого положения элемента отображения в направлении z в соответствии со значением диспаратности. Это может относиться к любому типу операций, обеспечивающих изменение сдвига или смещения в направлении x между двумя изображениями (копиями изображений), формирующими элемент отображения. После этого координаты положения в направлении x для одного или обоих изображений могут быть изменены, и может быть выполнена операция визуализации для отображения изображений в адаптированном положении экрана. Необходимо отметить, что изображения могут по меньшей мере частично перекрываться. Два выходных изображения могут быть дополнительно адаптированы, например, посредством управления отображением изображения(-ий), извлеченного из базы данных изображений или путем повторной визуализации 20/30-векторной графики в реальном времени.
Если в результате проверки 440, 450 сенсорный ввод не был обнаружен, может быть выполнен возврат к шагу 410 и может быть произведена повторная, например периодическая, проверка расстояния. Это позволяет обеспечить автоматическую регулировку диспаратности целевого элемента отображения относительно уровня поверхности экрана в соответствии с расстоянием зависания.
Если касание поверхности 112 сенсорного экрана обнаружено, может быть выполнен переход к шагу 460 и значение диспаратности может быть установлено равным нулю, что приводит к отображению элемента отображения на уровне 5 поверхности экрана. При этом между изображением, полученным левым глазом, и изображением, полученным правым глазом, отсутствует отличие в поперечном направлении, и может отображаться единое 20-изображение без обеспечения 3D-эффекта по глубине. Положение плоскости экрана в направлении z может быть исходно установлено в качестве точки нулевого параллакса (Zero Parallax Point, ZPP), при этом управление элементом отображения на шаге 460 осуществляют в точке ZPP.
Необходимо понимать, что визуализация перемещения целевого элемента 3 отображения от поверхности 112 экрана может быть также осуществлена путем увеличения диспаратности для упрощения восприятия элемента отображения, следующего за удаляющимся объектом.
На фиг.5 проиллюстрирован пример способа, который может быть применен контроллером 130, например, в связи с шагами 410 и 420. После обнаружения 510 текущего расстояния от объекта 1 до поверхности 112 экрана, обнаруженное расстояние сравнивают 520, 530, 550 с ранее сохраненным значением, которое представляет собой ранее обнаруженное расстояние. Если обнаруженное расстояние меньше, чем указанное сохраненное значение, значение диспаратности адаптируют 540 для обеспечения визуализации приближения элемента отображения к поверхности 112 экрана. В случае положительного параллакса, то есть в случае, когда элемент 2 отображения показан над поверхностью 5 экрана, контроллер 130 может уменьшить смещение изображений в направлении х. В случае отрицательного параллакса контроллер 130 может увеличить смещение изображений в направлении х.
Если обнаруженное расстояние больше, чем сохраненное значение, значение диспаратности адаптируют 560 для обеспечения визуализации элемента отображения, удаленного дальше от поверхности 112 экрана. Например, в случае положительного параллакса, контроллер 130 может таким образом увеличить смещение изображений в направлении х. На шаге 570 сохраненное значение расстояния обновляют с использованием значения, обнаруженного на шаге 510, и процедура может вернуться к шагу 510 (если объект все еще зависает в области 140 зависания).
В одном из вариантов осуществления в ответ на обнаружение сенсорного ввода, например, на шаге 370/460 осуществляется переход в режим 2D-отображения, и 3D-изображение превращается в 2D-изображение. Таким образом могут быть устранены 3D-эффекты для всех или некоторых отображаемых элементов, и пользователь может дополнительно выполнить сенсорный ввод 2D-изображений.
В некоторых примерах осуществления устройство 100 конфигурировано для обнаружения поперечного положения объекта 1 в направлениях x, y, параллельных поверхности 3 экрана. Это может быть обнаружено, например, на шаге 330. Также может быть осуществлено управление визуализируемым перемещением целевого элемента 2 отображения (например, на шаге 340) в соответствии с обнаруженным поперечным положением, так что элемент отображения перемещается в поперечном направлении аналогично указанному объекту.
В одном из примеров осуществления устройство 100 конфигурировано для обнаружения виртуального касания элемента 2 отображения (появляющегося над поверхностью 5 экрана) объектом 1 на шаге 320. Так, элемент отображения может быть обнаружен в качестве целевого элемента отображения в ответ на обнаружение виртуального касания. В ответ на обнаружение действия по нажатию с использованием зависания, то есть обнаружение объекта, приближающегося к поверхности 5 экрана после обнаружения виртуального касания, устройство может быть конфигурировано для адаптации внешнего вида элемента 2 отображения, например, на шаге 340 и/или 370.
Устройство 100 может быть конфигурировано для обнаружения жеста(-ов) с использованием зависания. В одном из примеров осуществления устройство на шаге 320 конфигурируют для обнаружения жеста с использованием зависания, связанного по меньшей мере с элементом 2 отображения. Управление выбором и/или отображением перемещения элемента отображения может быть выполнено 330 в соответствии с указанным жестом с использованием зависания. Например, устройство 100 может быть выполнено с возможностью обнаружения вращения или функции двойного нажатия, связанной с целевым элементом 2 отображения.
В некоторых вариантах осуществления устройство 100 конфигурировано для управления операцией отображения элемента отображения на основе дополнительных характеристик, связанных с перемещением объекта 1 ввода в области 140 зависания. В еще одном примере осуществления устройство 100 конфигурировано для оценки скорости перемещения объекта 1. Устройство может быть также выполнено с возможностью выбора операции отображения для адаптации (например, на шаге 340/370) внешнего вида элемента отображения в соответствии с обнаруженной скоростью. Может быть использован один или более пороговых параметров, влияющих на выбор операции отображения, которая должна зависеть от скорости перемещения объекта.
Система 120 обнаружения приближения может быть выполнена с возможностью обнаружения одновременного или совместного использования двух или более объектов 1. В одном из примеров осуществления связанный элемент отображения обнаруживают в ответ на обнаружение зависания двух или более пальцев над поверхностью экрана. В другом примере элемент отображения может быть обнаружен и/или внешний вид элемента отображения может быть модифицирован в ответ на обнаружение двух зависающих пальцев. Проиллюстрированные выше в отношении фиг.3 признаки могут, например, использоваться отдельно для каждого обнаруженного пальца или для комбинации пальцев.
В одном из примеров осуществления в связи с одним или более шагами 340, 370, 430, 460, 540, 560 используются дополнительные эффекты. Например, могут быть обеспечена генерация дополнительных визуальных, звуковых и/или тактильных выходных сигналов.
В одном из примеров осуществления устройство 100 выполнено с возможностью обнаружения давления, приложенного к сенсорному экрану. Датчики 114 касания могут быть выполнены с возможностью генерации сигнала, представляющего давление, приложенное, например, объектом 1 к поверхности 112 экрана. Контроллер 130 может принимать информацию об обнаруженном давлении, и эта информация может быть использована для дополнительной адаптации целевого элемента обнаружения. Проиллюстрированное положение z элемента 2 отображения может быть адаптировано на основе указанного давления. Например, после выполнения касания элемента 2 отображения, если обнаружено, что нажатие на поверхность экрана было более сильным, может быть показано перемещение элемента 2 отображения из положения 8 ниже уровня 5 поверхности экрана.
Необходимо понимать, что два или более проиллюстрированных выше примеров условий могут использоваться для осуществления влияния на операции отображения. В дополнение к уже рассмотренным выше вариантам осуществления доступен широкий диапазон различных функций для выбора, связанного с вводом, обнаруженным сенсорной системой обнаружения и/или системой 120 обнаружения приближения. Контроллер 130 может быть конфигурирован для адаптации ассоциаций в соответствии, например, с текущим рабочим состоянием устройства 100, пользовательским вводом или приложением, выполняемым в устройстве 100. Например, указанные ассоциации могут зависеть от приложения, меню, вида и/или контекста (который может быть задан на основе информации, полученной от текущего окружения или использования устройства 100).
На фиг.6 показана блок-схема структуры электронного устройства 600 в соответствии с примером осуществления. Электронное устройство может включать устройство 100. Хотя проиллюстрирован и далее будет описан в качестве примера один вариант осуществления электронного устройства 600, варианты осуществления настоящего изобретения могут применяться в других типах электронных устройств, таких как, не ограничиваясь перечисленным, PDA, пейджеры, мобильные компьютеры, настольные компьютеры, портативные компьютеры, планшетные компьютеры, медиапроигрыватели, телевизионные приемники, игровые устройства, камеры, видеомагнитофоны, устройства позиционирования, электронные книги, носимые устройства, проекционные устройства, сенсорные поверхности, сенсорные стены и другие типы электронных систем.
Кроме того, устройство в примере осуществления не обязательно должно представлять собой цельное электронное устройство, а может быть компонентом или группой компонентов электронного устройства в других примерах осуществления. Например, устройство может быть выполнено в виде чипсета или какого-либо другого типа аппаратного модуля для управления выполнением по меньшей мере некоторых из описанных выше функций, таких как функции контроллера 130 на фиг.2.
Процессор 602 конфигурирован для выполнения инструкции и операций, связанных с электронным устройством 600. Процессор 602 может включать средства, такие как устройство цифровой обработки сигналов, микропроцессорное устройство и дополнительные схемы, для выполнения различных функций, включающих, например, одну или более функций, описанных в отношении фиг.3-5. Процессор 602 может управлять приемом и обработкой входных и выходных данных между компонентами электронного устройства 600 путем использования инструкций, извлеченных из памяти. Процессор 602 может быть выполнен на одной микросхеме, на множестве микросхем или множестве электронных компонентов. Некоторые примеры архитектуры, которая может использоваться для процессора 602, включают выделенный или встроенный процессор и специализированную интегральную микросхему (Application-Specific Integrated Circuit, ASIC). Для простоты на фиг.6 процессор 602 показан в виде единого блока, однако необходимо понимать, что электронное устройство 600 может включать множество подсистем управления, таких как, например, одна или более подсистем ввода/вывода, подсистема обработки приложения и подсистема обработки протоколов связи, каждая из которых может включать один или более контроллеров. Необходимо понимать, что между процессором 602 и дисплеем 612, выполняющим по меньшей мере некоторые функции, проиллюстрированные выше в отношении фиг.3-5, такие как подстройка диспаратности, обеспечивающая подстройку значения диспаратности, может присутствовать специальный контроллер.
Процессор 602 может включать функциональные возможности для работы одной или более компьютерных программ. Компьютерный программный код может храниться в памяти 604. Указанная по меньшей мере одна память и указанный компьютерный программный код могут быть конфигурированы для обеспечения, совместно по меньшей мере с одним процессором, для выполнения устройством по меньшей мере одного варианта осуществления, включая, например, управление одной или более функциями, описанными в отношении фиг.3-5. Например, процессор 602 может быть выполнен с возможностью осуществления по меньшей мере части функций контроллера 130, показанного на фиг.2. Обычно процессор 602 работает совместно с операционной системой для выполнения компьютерного кода и создания и использования данных.
В качестве примера память 604 может включать энергонезависимую часть, такую как, например, электрически стираемое программируемое постоянное запоминающее устройство (Electrically Erasable Programmable Read-Only Memory, EEPROM), флеш-память или тому подобное, и энергозависимую память, такую как оперативная память (Random Access Memory, RAM), включающую кеш-область для временного хранения данных. Информация для управления функциональными возможностями процессора 602 может также быть размещена на съемном носителе данных и загружена или инсталлирована при необходимости на электронное устройство 600.
Электронное устройство 600 может содержать антенну (или множество антенн), функционально соединенную к блоку 606 приемопередатчика, включающего передатчик и приемник. Электронное устройство 600 может работать с использованием одного или более стандартов радиоинтерфейса и протоколов связи. В качестве примера электронное устройство 600 может работать в соответствии с любым количеством протоколов связи первого, второго, третьего и/или четвертого поколений и тому подобными. Например, электронное устройство 600 может работать в соответствии с протоколами проводной связи, такими как Ethernet и протокол цифровой абонентской линии (Digital Subscriber Line, DSL), с протоколами беспроводной связи второго поколения (second generation, 2G), такими как протокол глобальной системы мобильной связи (Global System for Mobile communications, GSM), с протоколами беспроводной связи третьего поколения (third generation, 3G), такими как протоколы 3G проекта партнерства третьего поколения (Third Generation Partnership Project, 3GPP), CDMA2000 (Code Division Multiple Access, множественный доступ с кодовым разделением каналов), широкополосный CDMA (wideband CDMA, WCDMA) и протокол синхронного CDMA с временным разделением каналов (time division-synchronous CDMA, TD-SCDMA), с протоколами беспроводной связи четвертого поколения (fourth generation, 4G), такими как протокол долгосрочного развития 3GPP (Long Term Evolution, LTE), с протоколами беспроводной локальной сети, такими как 802.11, с протоколами беспроводной связи ближнего действия, такими как Bluetooth и/или тому подобное.
Пользовательский интерфейс электронного устройства 600 может включать устройство 608 вывода, такое как динамик, одно или более устройств 610 ввода данных, например микрофон, клавиатуру или одну или более кнопок или приводов, и устройство 612 отображения, подходящее для рассматриваемого электронного устройства 600.
Устройство 610 ввода может включать сенсорное устройство, конфигурированное для приема входных данных от пользовательского касания и передачи данной информации в процессор 602. Такое сенсорное устройство может также быть конфигурировано для распознавания положения и силы нажатия на сенсорную поверхность. Сенсорное устройство может быть основано на сенсорных технологиях, включающих, не ограничиваясь перечисленным, емкостное сенсорное восприятие, резистивное сенсорное восприятие, сенсорное восприятие на основе поверхностных звуковых волн, сенсорное восприятие на основе давления, индуктивное сенсорное восприятие и оптическое сенсорное восприятие. Кроме того, сенсорное устройство может быть основано на одиночных точечных касаниях или множественных точечных касаниях. В одном из вариантов осуществления устройство ввода является сенсорным экраном, который располагается перед дисплеем 612.
Электронное устройство 600 также включает систему 614 обнаружения приближения с датчиком(-ами) приближения, такую как описанная ранее система 120, функционально соединенная с процессором 602. Система 614 обнаружения приближения конфигурирована для обнаружения нахождения пальца, стилуса или другого указывающего устройства в непосредственной близости от некоторых компонентов компьютерной системы, включая, например, корпус или устройства ввода/вывода, такие как сенсорный экран, но не в контакте с ними.
Электронное устройство 600 может также включать дополнительные блоки и элементы, не показанные на фиг.6, такие как дополнительные интерфейсные устройства, дополнительные датчики (например, датчик ускорения), батарея, элемент захвата медиаданных, такие как камера, видео- и/или аудиомодуль, блок позиционирования и блок идентификации пользователя.
В некоторых вариантах осуществления на основании, например, обнаруженного ввода данных с использованием зависания устройство 100 может производить другие выходные сигналы, такие как аудио- и/или тактильные выходные сигналы. Так, процессор 602 может быть выполнен с возможностью управления динамиком и/или выходным тактильным приводом, например вибромотором, в электронном устройстве 600 для обеспечения таких дополнительных выходных сигналов.
На фиг.7 проиллюстрирован еще один пример способа, который может быть выполнен устройством, например контроллером 130 или процессором 602. На шаге 710 осуществляют прием информации о наличии объекта в непосредственной близости от поверхности сенсорного экрана. На шаге 720 обнаруживают элемент отображения, связанный в текущий момент времени с указанным объектом, при этом визуализируют смещение элемента отображения от уровня поверхности экрана в направлении z, по существу перпендикулярном поверхности экрана. На шаге 730 элемент отображения адаптируют на основании расстояния между объектом и поверхностью экрана, при этом осуществляют визуализацию размещения указанного элемента отображения по существу на уровне поверхности сенсорного экрана, в ответ на обнаружение касания объектом поверхности сенсорного экрана. Необходимо понимать, что по меньшей мере часть проиллюстрированных выше дополнительных вариантов осуществления может использоваться в связи со способом, показанным на фиг.7, например, аналогично способу, показанному на фиг.3.
Варианты осуществления настоящего изобретения могут быть реализованы с использованием программного обеспечения, аппаратных средств, программной логики или их комбинации. В примере осуществления программная логика, программное обеспечение или набор инструкций хранятся на одном из различных традиционных машиночитаемых носителей. В контексте данного документа «машиночитаемым носителем» может быть любая среда или средства, которые могут содержать, хранить, передавать, распространять или транспортировать инструкции для их использования системой выполнения инструкций, оборудованием или устройством, таким как компьютер, один из примеров которого описан и показан на фиг.6, или для использования в связи с ними. Машиночитаемый носитель может включать энергонезависимый машиночитаемый носитель данных, который может быть любой средой или средством, содержащим или хранящим инструкции для их использования системой выполнения инструкций, оборудованием или устройством, таким как компьютер, или для использования в связи с ними.
В одном из примеров осуществления может быть предложена схема, или схема пользовательского интерфейса, конфигурированная для обеспечения по меньшей мере некоторых функций управления, описанных выше. Используемый в данном описании термин «схема» относится ко всему из следующего: (а) только аппаратным реализациям схем (например, реализациям только в виде аналоговых и/или цифровых схем) и (b) комбинациям схем и программного обеспечения (и/или встроенной программы), таким как (если это применимо): (i) комбинация процессора(-ов) или (ii) частей процессора(-ов) / программного обеспечения (включая, процессор(-ы) цифровой обработки сигналов), программного обеспечения и памяти, которые, работая совместно, обеспечивают выполнение устройством, таким как мобильный телефон или сервер, различных функций; и (с) к схемам, таким как микропроцессор(-ы) или часть микропроцессора(-ов), которым для работы необходимо программное обеспечение или встроенная программа, даже если программное обеспечение или встроенная программа физически не представлены. Данное определение термина «схема» относится ко всем случаям использования данного термина в данном описании, включая любые пункты формулы изобретения. В качестве еще одного примера, используемый в настоящем описании термин «схема» также охватывает реализацию только процессора (или множества процессоров) или части процессора и сопутствующего ему (или им) программного обеспечения и/или встроенной программы.
Если необходимо, по меньшей мере часть различных функций, рассмотренных в данном описании, может быть выполнена в отличном от представленного порядке и/или одновременно друг с другом. Кроме того, при необходимости одна или более из описанных выше функций могут быть опциональными или могут комбинироваться.
Хотя в независимых пунктах формулы изобретения охарактеризованы различные аспекты настоящего изобретения, другие аспекты изобретения включают другие комбинации признаков из описанных вариантов осуществления и/или зависимых пунктов формулы изобретения совместно с признаками независимых пунктов формулы изобретения, при этом упомянутые комбинации не обязательно явно указаны в формуле изобретения.
Также необходимо отметить, что хотя выше описаны примеры осуществления изобретения, данное описание не должно рассматриваться в ограничивающем смысле. Напротив, существуют различные изменения и модификации, которые могут быть выполнены без выхода за рамки настоящего изобретения, охарактеризованного в приложенной формуле изобретения.
название | год | авторы | номер документа |
---|---|---|---|
УСТРОЙСТВО И СПОСОБ ПОЛЬЗОВАТЕЛЬСКОГО ВВОДА ДЛЯ УПРАВЛЕНИЯ ОТОБРАЖАЕМОЙ ИНФОРМАЦИЕЙ | 2011 |
|
RU2558620C2 |
УПРАВЛЕНИЕ СТЕРЕОСКОПИЧЕСКИМ МЕНЮ | 2011 |
|
RU2595944C2 |
УСТРОЙСТВО ОТОБРАЖЕНИЯ ТРЕХМЕРНОГО ИЗОБРАЖЕНИЯ И СПОСОБ ОТОБРАЖЕНИЯ ДЛЯ ТАКОВОГО | 2011 |
|
RU2598989C2 |
УСТРОЙСТВО ДЛЯ АВТОСТЕРЕОСКОПИЧЕСКОГО РЕНДЕРИНГА И ОТОБРАЖЕНИЯ | 2009 |
|
RU2524834C2 |
ОБРАБОТКА 3D ОТОБРАЖЕНИЯ СУБТИТРОВ | 2009 |
|
RU2517402C2 |
ОСНОВАННОЕ НА ЗНАЧИМОСТИ ОТОБРАЖЕНИЕ ДИСПАРАТНОСТИ | 2012 |
|
RU2580439C2 |
ВСПОМОГАТЕЛЬНЫЕ ДАННЫЕ В ТРАНСЛЯЦИИ 3D ИЗОБРАЖЕНИЯ | 2011 |
|
RU2589307C2 |
СПОСОБ И УСТРОЙСТВО ДЛЯ ОБЕСПЕЧЕНИЯ БЫСТРОГО ДОСТУПА К ФУНКЦИЯМ УСТРОЙСТВА | 2012 |
|
RU2582854C2 |
СПОСОБЫ И СИСТЕМЫ ДЛЯ ПРЕДСТАВЛЕНИЯ ТРЕХМЕРНЫХ ИЗОБРАЖЕНИЙ ДВИЖЕНИЯ С АДАПТИВНОЙ К СОДЕРЖИМОМУ ИНФОРМАЦИЕЙ | 2009 |
|
RU2546546C2 |
СПОСОБ И СИСТЕМА ДЛЯ ОБРАБОТКИ ВХОДНОГО ТРЕХМЕРНОГО ВИДЕОСИГНАЛА | 2009 |
|
RU2519433C2 |
Изобретение относится к компьютерной технике, а именно к системам пользовательского ввода для управления отображаемой информацией. Техническим результатом является обеспечение визуализации смещения элементов отображения относительно уровня поверхности экрана в направлении z, перпендикулярном поверхности экрана. Предложено устройство для управления отображаемой информацией при пользовательском вводе. Устройство содержит процессор, память, содержащую компьютерный программный код. Устройство выполнено с возможностью приема информации о наличии объекта в непосредственной близости от поверхности сенсорного экрана. А также устройство выполнено с возможностью адаптации элемента отображения на основании расстояния между указанным объектом и поверхностью экрана, при этом осуществляется визуализация размещения указанного элемента отображения по существу на уровне поверхности сенсорного экрана в ответ на обнаружение касания объектом поверхности сенсорного экрана. 5 н. и 15 з.п. ф-лы, 8 ил.
1. Устройство для управления отображаемой информацией при пользовательском вводе, включающее:
по меньшей мере, один процессор и
по меньшей мере, одну память, содержащую компьютерный программный код,
при этом указанная, по меньшей мере, одна память и указанный компьютерный программный код конфигурированы для обеспечения, совместно с указанным, по меньшей мере, одним процессором, выполнения указанным устройством, по меньшей мере, следующего:
приема информации о наличии объекта в непосредственной близости от поверхности сенсорного экрана,
обнаружения элемента отображения, связанного в текущий момент времени с указанным объектом, при этом осуществляется визуализация смещения указанного элемента отображения относительно уровня поверхности экрана в направлении z, по существу перпендикулярном поверхности экрана, и
адаптации элемента отображения на основании расстояния между указанным объектом и поверхностью экрана, при этом осуществляется визуализация размещения указанного элемента отображения по существу на уровне поверхности сенсорного экрана в ответ на обнаружение касания объектом поверхности сенсорного экрана.
2. Устройство для управления отображаемой информацией при пользовательском вводе, включающее:
средства для приема информации о наличии объекта в непосредственной близости от поверхности сенсорного экрана,
средства для обнаружения элемента отображения, связанного в текущий момент времени с указанным объектом, при этом визуализируется смещение указанного элемента отображения относительно уровня поверхности экрана в направлении z, по существу перпендикулярном поверхности экрана, и
средства для адаптации элемента отображения на основании расстояния между указанным объектом и поверхностью экрана, при этом визуализируется размещение указанного элемента отображения по существу на уровне поверхности сенсорного экрана в ответ на обнаружение касания объектом поверхности сенсорного экрана.
3. Устройство по п. 1 или 2, конфигурированное для осуществления операции отображения для адаптации визуализированного смещения элемента отображения в направлении z относительно уровня поверхности экрана на основании значения диспаратности, зависящего от обнаруженного расстояния.
4. Устройство по п. 3, в котором значение диспаратности задает смещение между двумя изображениями элемента отображения в направлении х, по существу параллельном поверхности экрана.
5. Устройство по п. 4, конфигурированное для установления значения диспаратности равным нулю в ответ на обнаружение касания объектом поверхности сенсорного экрана.
6. Устройство по п. 1 или 2, конфигурированное для визуализации элемента отображения с той же стороны от уровня сенсорного экрана, что и указанный объект, и
конфигурированное для выполнения операции отображения для визуализации перемещения указанного элемента отображения в том же направлении, что и указанный объект.
7. Устройство по п. 1 или 2, конфигурированное для визуализации указанного элемента отображения с противоположной стороны от уровня сенсорного экрана по сравнению с положением указанного объекта и
конфигурированное для выполнения операции отображения для визуализации перемещения указанного элемента отображения в направлении, противоположном направлению перемещения указанного объекта.
8. Устройство по п. 1 или 2, конфигурированное для переключения между трехмерным и двумерным режимами и
конфигурированное для перехода в двумерный режим в ответ на обнаружение касания объектом поверхности сенсорного экрана.
9. Устройство по п. 1 или 2, конфигурированное для обнаружения виртуального касания объектом части элемента отображения и
конфигурированное для обнаружения указанного элемента отображения как целевого элемента отображения в ответ на обнаружение виртуального касания.
10. Устройство по п. 1 или 2, представляющее собой устройство мобильной связи, включающее сенсорный экран.
11. Способ управления отображаемой информацией при пользовательском вводе, включающий:
прием устройством информации о наличии объекта в непосредственной близости от поверхности сенсорного экрана,
обнаружение элемента отображения, связанного в текущий момент времени с указанным объектом, при этом визуализируют смещение указанного элемента отображения относительно уровня поверхности экрана в направлении z, по существу перпендикулярном поверхности экрана, и
адаптацию элемента отображения на основании расстояния между указанным объектом и поверхностью экрана, при этом визуализируется размещение указанного элемента отображения по существу на уровне поверхности сенсорного экрана в ответ на обнаружение касания объектом поверхности сенсорного экрана.
12. Способ по п. 11, в котором осуществляют управление операцией отображения для адаптации визуализированного смещения элемента отображения в направлении z относительно уровня поверхности экрана на основании значения диспаратности, зависящего от обнаруженного расстояния.
13. Способ по п. 12, в котором значение диспаратности задает смещение между двумя изображениями элемента отображения в направлении х, по существу параллельном поверхности экрана.
14. Способ по п. 13, в котором значение диспаратности устанавливают равным нулю в ответ на обнаружение касания объектом поверхности сенсорного экрана.
15. Способ по любому из пп. 11-14, в котором элемент отображения визуализируют с той же стороны от уровня сенсорного экрана, что и указанный объект, и
обеспечивают выполнение операции отображения для визуализации перемещения указанного элемента отображения в том же направлении, что и указанный объект.
16. Способ по любому из пп. 11-14, в котором указанный элемент отображения визуализируют с противоположной стороны от уровня сенсорного экрана по сравнению с положением указанного объекта и
обеспечивают выполнение операции отображения для визуализации перемещения указанного элемента отображения в направлении, противоположном направлению перемещения указанного объекта.
17. Способ по любому из пп. 11-14, в котором указанное устройство переключается из трехмерного режима в двумерный режим в ответ на обнаружение касания объектом поверхности сенсорного экрана.
18. Способ по любому из пп. 11-14, в котором обнаруживают виртуальное касание объектом части элемента отображения и
обнаруживают указанный элемент отображения как целевой элемент отображения в ответ на обнаружение виртуального касания.
19. Пользовательский интерфейс для электронного устройства, содержащего систему обнаружения приближения для обнаружения наличия объекта ввода в непосредственной близости от поверхности экрана, при этом указанный пользовательский интерфейс конфигурирован для:
обнаружения наличия объекта в непосредственной близости от поверхности сенсорного экрана,
обнаружения элемента отображения, связанного в текущий момент времени с указанным объектом, при этом визуализируется смещение указанного элемента отображения относительно уровня поверхности экрана в направлении z, по существу перпендикулярном поверхности экрана, и
адаптации элемента отображения на основании расстояния между указанным объектом и поверхностью экрана, при этом визуализируется размещение указанного элемента отображения по существу на уровне поверхности сенсорного экрана в ответ на обнаружение касания объектом поверхности сенсорного экрана.
20. Машиночитаемый носитель, на котором хранится компьютерный программный код для использования в компьютере, содержащий код для обеспечения выполнения компьютером способа по любому из пп. 11-18.
Приспособление для суммирования отрезков прямых линий | 1923 |
|
SU2010A1 |
РЕЛЬСОВОЕ СТЫКОВОЕ СОЕДИНЕНИЕ | 1997 |
|
RU2128749C1 |
Колосоуборка | 1923 |
|
SU2009A1 |
Станок для изготовления деревянных ниточных катушек из цилиндрических, снабженных осевым отверстием, заготовок | 1923 |
|
SU2008A1 |
Исходная мера единицы угла фазового сдвига между двумя электрическими напряжениями | 1988 |
|
SU1596271A1 |
СПОСОБ И УСТРОЙСТВО ДЛЯ ПРОСМОТРА ИНФОРМАЦИИ НА ДИСПЛЕЕ | 2002 |
|
RU2288512C2 |
Авторы
Даты
2015-08-10—Публикация
2011-11-02—Подача