MÉTODO DE PROCESSAMENTO DE EVENTO DE TOQUE E DISPOSITIVO PORTÁTIL IMPLEMENTANDO O MESMO ANTECEDENTES Campo Técnico [001] A presente revelação diz respeito a dispositivos eletrônicos portáteis e, mais particularmente, a um método de processamento de evento de toque em um dispositivo portátil para impedir invasão por hacker de um evento de toque que ocorre em uma tela sensivel ao toque do dispositivo portátil.TOUCH EVENT AND LAPTOP PROCESSING METHOD IMPLEMENTING THE SAME BACKGROUND Technical Field [001] This disclosure relates to portable electronic devices and, more particularly, a touch event processing method in a handheld device to prevent intrusion by hacker of a touch event that occurs on a portable device touch screen.
Descrição da Técnica Relacionada [002] Com a popularidade de acesso à Internet, dispositivos portáteis (terminais móveis) recentes tais como telefones inteligentes e tablets equipados com um módulo de radiocomunicação estão sendo usados para trocar informação sensivel com um servidor de rede pela Internet. Particularmente, pagamento eletrônico e informação bancária via Internet são agora trocados comumente via terminais móveis. Por exemplo, a fim de completar a compra de um produto em um shopping online usando um terminal móvel, o usuário envia informação de segurança (por exemplo, número de conta, número de cartão de crédito e senha) para um servidor de rede dentro do procedimento de pagamento eletrônico. Para um terminal móvel equipado com uma tela sensivel ao toque, a informação de segurança pode ser introduzida por meio da tela sensivel ao toque . Para este propósito, o terminal exibe um miniteclado na tela para receber a informação de segurança do usuário. Se a informação de segurança vazar e for usada por outros ilegalmente, isto pode causar dano de propriedade significativo. [003] Entretanto, Sistema Multioperacional (OS) é uma tecnologia usada no ambiente de servidor. Recentemente, esta tecnologia tem sido adotada no ambiente móvel para fornecer segurança. O Sistema Multioperacional convencional inclui um OS de hospedeiro (principal ou normal) e pelo menos um OS de hóspede (secundário) dependente do OS de hospedeiro e responsável por segurança. Nesta relação hospedeiro-hóspede, o OS de hóspede recebe a informação de segurança do OS de hospedeiro e em seguida processa a informação de segurança. Entretanto, se um programa de invasão por hacker estiver instalado no terminal móvel e executar no OS de hospedeiro, o evento de toque gerado na tela sensível ao toque pode ser acessado ilegalmente no processo de ser transferido para o OS de hóspede. Isto é, o terminal móvel de sistema multioperacional convencional é vulnerável ao vazamento de informação de evento de toque confidencial por meio de invasão por hacker do OS de hospedeiro.Description of the Related Art With the popularity of Internet access, recent portable devices (mobile terminals) such as smart phones and tablets equipped with a radio module are being used to exchange sensitive information with a network server over the Internet. In particular, electronic payment and Internet banking information is now commonly exchanged via mobile terminals. For example, in order to complete the purchase of a product at an online mall using a mobile terminal, the user sends security information (eg account number, credit card number and password) to a network server within electronic payment procedure. For a mobile terminal equipped with a touchscreen, safety information can be entered via the touchscreen. For this purpose, the terminal displays an on-screen mini-keyboard to receive user safety information. If security information is leaked and used by others illegally, it may cause significant property damage. However, Multi-Operating System (OS) is a technology used in the server environment. Recently, this technology has been adopted in the mobile environment to provide security. The conventional Multioperational System includes a host OS (primary or normal) and at least one host OS (dependent) dependent upon the host OS and responsible for security. In this host-guest relationship, the guest OS receives security information from the host OS and then processes the security information. However, if a hacking intrusion program is installed on the mobile terminal and running on the host OS, the touch event generated on the touchscreen may be unlawfully accessed in the process of being transferred to the guest OS. That is, the conventional multi-operating system mobile terminal is vulnerable to the leakage of confidential touch event information through hacking into the host OS.
SUMÁRIO [004] Modalidades reveladas neste documento abordam o problema de invasão por hacker em evento de toque causado pela vulnerabilidade do OS de hospedeiro em um dispositivo portátil utilizando tecnologia de sistema multioperacional. Modalidades reveladas visam fornecer um método para proteger eventos de toques contra o ataque de invasão por hacker e um dispositivo portátil implementando o mesmo de uma tal maneira que permita aos OSs controlar o painel de toque independentemente. [005] Em um método de processamento de evento de toque exemplar em um dispositivo portátil tendo múltiplos sistemas operacionais, coordenadas de toque de um painel de toque primeiramente são fornecidas para um primeiro sistema operacional (por exemplo, principal). É então determinado se uma função correspondendo às coordenadas de toque é para executar uma aplicação de segurança. Se assim, uma mensagem de transferência de direito de processamento de evento de toque é transmitida do primeiro sistema operacional para um segundo sistema operacional, para transferir um direito de processar um evento de toque que ocorre no painel de toque para o segundo sistema operacional. [006] De acordo com um outro aspecto, um método de processamento de evento de toque de um dispositivo portátil tendo primeiro e segundo sistemas operacionais inclui receber, no segundo sistema operacional, coordenadas de toque de um painel de toque; determinar se as coordenadas de toque são as coordenadas em uma imagem de segurança exibida em uma tela; e transmitir, quando as coordenadas de toque não são as coordenadas na imagem de segurança, uma mensagem de transferência de direito de processamento de evento de toque para transferência de um direito de processar um evento de toque que ocorre no painel de toque para o primeiro sistema operacional. [007] De acordo com um outro aspecto, um método de processamento de evento de toque de um dispositivo portátil tendo múltiplos sistemas operacionais inclui receber uma interrupção de um painel de toque; determinar um sistema operacional tendo um direito de processar um evento de toque entre os múltiplos sistemas operacionais; transmitir a interrupção para o sistema operacional tendo o direito de processar o evento de toque; e transmitir as coordenadas de toque para o sistema operacional para o qual a interrupção foi transmitida, em resposta a uma mensagem de solicitação de coordenadas de toque recebida desse sistema operacional. [008] De acordo com um aspecto, um dispositivo portátil inclui uma tela sensivel ao toque tendo um painel de exibição e um painel de toque; uma memória para armazenar uma aplicação de segurança e primeiro e segundo sistemas operacionais; e uma Unidade Central de Processamento (CPU) que acessa a memória para executar os primeiro e segundo sistemas operacionais. 0 primeiro sistema operacional recebe coordenadas de toque de um painel de toque, e transmite, quando uma função correspondendo às coordenadas de toque é para executar uma aplicação de segurança, uma mensagem de transferência de direito de processamento de evento de toque para transferência de um direito de processar um evento de toque no painel de toque para o segundo sistema operacional.SUMMARY [004] Modalities disclosed in this document address the touch event hacking issue caused by host OS vulnerability on a handheld device using multi-operating system technology. Disclosed embodiments are intended to provide a method for protecting touch events against a hacking attack and a handheld device by implementing it in such a way that allows OSs to control the touch panel independently. [005] In an exemplary touch event processing method on a handheld device having multiple operating systems, touch coordinates of a touch panel are first provided for a first (e.g. primary) operating system. It is then determined whether a function corresponding to the touch coordinates is to execute a safety application. If so, a touch event processing right transfer message is transmitted from the first operating system to a second operating system to transfer a right to process a touch event that occurs on the touch panel to the second operating system. According to another aspect, a touch event processing method of a handheld device having first and second operating systems includes receiving, in the second operating system, touch coordinates of a touch panel; determine if the touch coordinates are the coordinates in a security image displayed on a screen; and transmit, when the touch coordinates are not the coordinates in the security image, a touch event processing entitlement transfer message for transferring a right to process a touch event that occurs on the touch panel to the first system operational. In another aspect, a touch event processing method of a handheld device having multiple operating systems includes receiving a touch panel interrupt; determining an operating system having a right to process a touch event between multiple operating systems; transmit the interrupt to the operating system having the right to process the touch event; and transmitting the touch coordinates to the operating system to which the interrupt was transmitted in response to a touch coordinate request message received from that operating system. According to one aspect, a portable device includes a touch screen having a display panel and a touch panel; a memory for storing a security application and first and second operating systems; and a Central Processing Unit (CPU) that accesses memory to run the first and second operating systems. The first operating system receives touch coordinates from a touch panel, and transmits, when a function corresponding to the touch coordinates is to execute a security application, a touch event processing entitlement transfer message for a entitlement transfer to process a touch event on the touch panel for the second operating system.
DESCRIÇÃO RESUMIDA DOS DESENHOS [009] A figura 1 é um diagrama de blocos ilustrando uma configuração do dispositivo portátil de acordo com uma modalidade da presente invenção; [010] A figura 2 é um diagrama de blocos ilustrando uma estrutura hierárquica do dispositivo portátil de acordo com uma modalidade da presente invenção; [011] A figura 3 é um diagrama de fluxo de sinal ilustrando um método de processamento de evento de toque de acordo com uma modalidade da presente invenção; [012] A figura 4 é um diagrama ilustrando uma exibição de tela exemplar para explicar o método de processamento de evento de toque da figura 3; [013] A figura 5 é um diagrama de blocos ilustrando o método de processamento de evento de toque de acordo com uma modalidade da presente invenção; [014] A figura 6 é um diagrama ilustrando uma exibição de tela exemplar para explicar o método de processamento de evento de toque da figura 5; [015] A figura 7 é um fluxograma ilustrando um método de processamento de evento de toque de acordo com uma outra modalidade da presente invenção; e [016] A figura 8 é um fluxograma ilustrando um método de processamento de evento de toque de acordo com uma outra modalidade da presente invenção.BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a block diagram illustrating a configuration of the portable device according to an embodiment of the present invention; Figure 2 is a block diagram illustrating a hierarchical structure of the portable device according to an embodiment of the present invention; Figure 3 is a signal flow diagram illustrating a touch event processing method according to an embodiment of the present invention; Fig. 4 is a diagram illustrating an exemplary screen display for explaining the touch event processing method of Fig. 3; Figure 5 is a block diagram illustrating the touch event processing method according to one embodiment of the present invention; Figure 6 is a diagram illustrating an exemplary screen display for explaining the touch event processing method of Figure 5; Figure 7 is a flowchart illustrating a touch event processing method according to another embodiment of the present invention; and Figure 8 is a flowchart illustrating a touch event processing method according to another embodiment of the present invention.
DESCRIÇÃO DETALHADA [017] Modalidades exemplares serão descritas agora com referência aos desenhos anexos, nos quais números de referência iguais indicam elementos ou recursos iguais. Na descrição seguinte e reivindicações que seguem, as expressões e palavras usadas não estão limitadas aos significados bibliográficos, e são usadas pelo inventor meramente para capacitar um entendimento claro e consistente da tecnologia revelada. Desta maneira, deve ficar aparente para os versados na técnica que a descrição a seguir de modalidades exemplares da presente invenção é fornecida somente para propósito de ilustração e não para o propósito de limitar a invenção tal como definida pelas reivindicações anexas e suas equivalências. Nos desenhos, certos elementos podem estar exagerados ou omitidos ou representados esquematicamente para clareza de ilustração, e os tamanhos reais dos elementos não estão refletidos. Assim, a presente invenção não está limitada por um tamanho ou distância relativa nos desenhos anexos. Descrição detalhada de funções e estruturas bem conhecidas incorporadas a este documento pode estar omitida para evitar obscurecer a matéria em questão descrita neste documento. [018] Nesta revelação, um "dispositivo portátil" pode ser qualquer um de vários dispositivos eletrônicos tais como um dispositivo de mão incorporado como um telefone inteligente, um computador tabular, um computador portátil ou uma câmera digital. Um dispositivo portátil com uma função de comunicação também pode ser chamado de terminal móvel. Modalidades de métodos de processamento de evento(s) de toque(s) executados dentro de um dispositivo portátil e um dispositivo portátil para implementar as mesmas são descritos em seguida. [019] A figura 1 é um diagrama de blocos ilustrando uma configuração de um dispositivo portátil exemplar, 100, de acordo com uma modalidade da presente invenção. O dispositivo portátil 100 inclui uma unidade de exibição incorporada como uma tela sensível ao toque 110, uma unidade de entrada de tecla 120, uma unidade de memória secundária 130, uma unidade de radiocomunicação 140, uma unidade de processamento de áudio 150, um alto-falante (SPK), um microfone (MIC) e uma unidade de controle 160. [020] A tela sensível ao toque 110 inclui um painel de exibição 111 e um painel de toque 112. O painel de exibição 111 exibe dados em sua tela sob o controle da unidade de controle 160. Isto é, a unidade de controle 160 processa os dados (por exemplo, decodifica e redimensiona dados recuperados), e armazena temporariamente os dados processados em um armazenamento temporário. O painel de exibição 111 converte os dados armazenados temporariamente em sinais analógicos para acionar seletivamente pixels e assim formar uma imagem de acordo com os dados na tela. Quando a tela sensível ao toque 110 é ligada, o painel de exibição 111 exibe uma imagem de bloqueio na tela. Se informação de desbloqueio for introduzida no estado de exibir a imagem de bloqueio, a unidade de controle 160 desbloqueia a tela, pela que uma "tela inicial" é exibida em vez de a imagem de bloqueio. A tela inicial inclui uma imagem de plano de fundo (por exemplo, foto selecionada pelo usuário) e uma pluralidade de ícones arranjados sobre a foto. Aqui, os ícones representam aplicações ("apps") e conteúdos correspondentes (por exemplo, arquivo de foto, arquivo de vídeo, arquivo de gravação, documento e mensagem). Se o usuário selecionar um dos icones representando uma aplicação de informação sensível, por exemplo, um ícone de aplicação bancária, a unidade de controle 190 executa a aplicação bancária e controla o painel de exibição 111 para exibir a imagem de execução (por exemplo, um miniteclado seguro). [021] A tela sensível ao toque 110 exibe múltiplas imagens que podem ser apresentadas em uma estrutura de múltiplas camadas onde uma imagem de primeiro plano aparece sobreposta a uma imagem de plano de fundo, sob o controle da unidade de controle 160. Por exemplo, na aplicação bancária, o painel de exibição 111 exibe uma primeira imagem de pré-visualização (por exemplo, a imagem inicial ou outro plano de fundo gerado enquanto a aplicação bancária é executada) na tela como uma imagem de plano de fundo. Uma segunda imagem de pré-visualização (por exemplo, o miniteclado seguro) pode ser exibido sobreposto à primeira imagem. A primeira imagem de pré-visualização pode ser exibida como uma imagem de plano de fundo na área total da tela, e a segunda imagem de pré-visualização pode ser exibida como uma imagem de primeiro plano em uma área parcial da tela. Desta maneira, neste caso a segunda imagem de pré-visualização é totalmente visualizável e a primeira imagem é visualizável somente de forma parcial. Em uma outra implementação, a segunda imagem é exibida na área total da tela. Aqui, a segunda imagem pode ser exibida de forma transparente ou semitransparente de maneira que o usuário também possa ver a primeira imagem de pré-visualização totalmente (debaixo da segunda imagem). Também em um outro projeto, as duas imagens de pré-visualização podem ser separadas uma da outra de tal maneira que cada uma é exibida na camada mais superior (isto é, primeiro plano) da tela. Isto é, a tela sensível ao toque 110 é controlada para exibir a primeira imagem em uma primeira área da tela e a segunda imagem em uma segunda área diferente da tela sem sobreposição entre elas. [022] A discussão anterior envolveu exemplos de primeira e de segunda imagem de pré-visualização. Além do mais, o painel de exibição 111 também pode ser controlado para exibir continuamente uma certa imagem, por exemplo, uma imagem de execução de aplicação de Banco via Internet, na camada superior da tela. Isto é, enquanto a aplicação de Banco via Internet está executando, sua imagem de execução é exibida na camada superior da imagem de tela total. Por exemplo, um navegador de rede é executado pelo usuário e assim uma página de rede é exibida na tela. Neste tempo, um miniteclado seguro é exibido em uma camada mais alta que aquela da página de rede (por exemplo, miniteclado seguro em primeiro plano, página de rede em plano de fundo). Deve ser notado que se a função "sempre no topo" está desligada, as imagens podem estar no primeiro plano e plano de fundo seletivamente. [023] Referindo-se momentaneamente à figura 4, um exemplo de uma primeira imagem exibivel pelo painel de exibição 111 é uma imagem de região de indicadores 410, a qual inclui indicadores para capacidade residual de batería, hora corrente, etc. A primeira imagem é exibida na primeira área indicada anteriormente. Uma segunda imagem 420, por exemplo, um miniteclado seguro, é exibida na segunda área sem sobrepor a primeira imagem. [024] O painel de exibição 111 pode ser implementado, por exemplo, como Tela de Cristal Líquido (LCD) , Diodo Orgânico Emissor de Luz (OLED), Diodo Orgânico Emissor de Luz de Matriz Ativa (AMOLED) ou mostrador flexível. [025] O painel de toque 112 é montado na superfície do painel de exibição 111. Mais especificamente, o painel de toque 112 pode ser colocado na superfície do painel de exibição 111 em um tipo complementar ou inserido na unidade de exibição 110 em um tipo sobre célula ou dentro de célula. [026] 0 painel de toque 112 gera um sinal de entrada analógico (representando um evento de toque) em resposta a um gesto do usuário aplicado ao painel de toque 112 (neste documento, "gesto" pode se referir a um toque em um único ponto, ou toque em múltiplos pontos, ou um arrasto a partir do ponto ou pontos de toque inicial). O IC (Circuito Integrado) de toque 113 do painel de toque 112 executa conversão Analógica/Digital (A/D) no sinal analógico para gerar um sinal digital para a unidade de controle 160. Aqui, o sinal de entrada inclui as coordenadas de toque (x, y) . Por exemplo, o IC de toque 113 determina coordenadas representativas entre múltiplas coordenadas de toque e transfere as coordenadas representativas de toque para a unidade de controle 160. Este controle para esta operação pode ser executado pela unidade de controle 160. As coordenadas de toque podem ser coordenadas de pixel. Por exemplo, se a resolução de tela for de 640 (número de pixels na direção horizontal) * 480 (número de pixels na direção vertical) , a coordenada de eixo X pode variar de 0 a 640 e as coordenadas de eixo Y variam de 0 a 480. Se as coordenadas de toque forem recebidas do IC de toque 113 a unidade de controle 160 determina que um gesto de toque foi aplicado ao painel de toque 112 com um implemento de toque (por exemplo, dedo ou caneta) e, se as coordenadas de toque não forem mais recebidas, o toque foi liberado. Se as coordenadas forem mudadas, por exemplo, de (xO, yO) para (xl, yl), e o deslocamento (por exemplo, D(D2 = (xO - xl)2 + (yO - yl)2) for maior que um limiar de movimento (por exemplo, 1 milímetro), a unidade de controle 160 determina que o toque foi deslocado. Se movimento de toque for detectado, a unidade de controle 160 calcula o deslocamento de toque (dx, dy) e a velocidade de movimento do toque. A unidade de controle 160 pode diferenciar entre gestos de toque do usuário de toque único, toque múltiplo, batida, batida dupla, batida longa, batida e toque, arrasto, pancada de leve, pressionamento, aperto e liberação de aperto, com base nas coordenadas de toque, liberação de toque, movimento de toque, deslocamento de toque, velocidade de toque, etc. [027] O painel de toque 112 pode ser um painel de toque integrado incluindo um painel de toque de mão para detectar um gesto de mão e um painel de toque de caneta para detectar um gesto de caneta. Aqui, o painel de toque de mão preferivelmente é implementado como um tipo capacitivo; entretanto, outros tipos são possíveis, por exemplo, tipos resistivos, infravermelhos ou de micro-ondas. O painel de toque de mão é capaz de detectar o evento de toque feito por meio de um objeto (por exemplo, um objeto de material condutivo capaz de influenciar capacitância em um circuito) assim como aquele de uma mão do usuário. O painel de toque de caneta pode ser implementado como um tipo de indução eletromagnética. Neste caso, o painel de toque de caneta detecta o evento de toque feito por meio de uma caneta apontadora fabricada para formar um campo magnético. [028] A unidade de entrada de tecla 120 inclui uma pluralidade de teclas alfanuméricas (virtuais e/ou físicas) para introduzir informação alfanumérica e teclas de funções para configurar e estabelecer várias funções. Estas teclas podem incluir uma tecla de menu, uma tecla de ligar/desligar tela, uma tecla de ligar/desligar energia, uma tecla de controle de volume, etc. A unidade de entrada de tecla 120 é capaz de gerar um sinal de evento de tecla relacionado com o estabelecimento de usuário e controle de função do dispositivo portátil 100 para a unidade de controle 160. O evento de tecla é capaz de um evento de ligar/desligar energia, um evento de controle de volume, um evento de ligar/desligar tela, um evento de obturador, etc. A unidade de controle 160 é capaz de controlar os componentes em resposta ao evento de tecla. As teclas fisicas, se fornecidas, da unidade de entrada de tecla 120 são referidas como teclas de função enquanto que as teclas virtuais exibidas pelo painel de exibição 111 são referidas como teclas programáveis. [029] A unidade de memória secundária 130 pode ser implementada com pelo menos um de um disco, Memória de Acesso Aleatório (RAM), Memória Somente de Leitura (ROM) e memória flash. A unidade de memória secundária 130 armazena os dados gerados no dispositivo portátil 100 e recebidos de dispositivos externos (por exemplo, servidor, computador de área de trabalho e tablet) por meio da unidade de radiocomunicação 140 sob o controle da unidade de controle 160 . [030] A unidade de memória secundária 130 armazena um programa de inicialização, Sistemas Operacionais (OSs), um monitor OS e outros programas de aplicação. Quando o dispositivo portátil 100 é ligado, o programa de inicialização é carregado na unidade de memória principal da unidade de controle 160. O programa de inicialização carrega um dos OSs na memória. O OS fornece a interface entre o hardware e aplicações e entre as aplicações, e o AP 161 gerencia os componentes de hardware tal como a unidade de memória principal 162 e a unidade de memória secundária 130. [031] De acordo com uma modalidade da presente invenção, a unidade de memória secundária 130 armazena pelo menos dois OSs (programas OS de primeiro e segundo tipo). Um dos OSs trabalha como um OS principal e um outro OS trabalha como um OS secundário. De acordo com uma modalidade da presente invenção, um de Android, Windows e iOS pode ser usado como o OS principal. Por exemplo, "MobiCore" (um produto da empresa Giesecke & Devrient (G&D) ) pode ser usado como o OS secundário. MobiCore é um OS capacitado com segurança para Banco via Internet e pagamento eletrônico seguros com um terminal móvel. O monitor OS trabalha como uma interface entre OSs. Por exemplo, a tecnologia "TrustZone" da Advance RISC Machines (ARM) Ltd. pode ser adotada como o monitor OS em algumas modalidades. [032] A unidade de memória secundária 130 também armazena a informação de tamanho e de área de exibição a respeito de uma imagem (por exemplo, miniteclado seguro, imagem em movimento ou mensagem) a ser exibida. Assumindo que a tela consiste de pixels, a informação de tamanho é expressada tal como x*y. O x denota o pixel de ordem x no eixo x, e y denota o pixel de ordem y no eixo y. A informação de área de exibição pode ser expressada como quatro coordenadas de cantos, isto é, (xl, yl) , (x2, yl), (xl, y2) e (x2, y2) para um tamanho de imagem de (x2 - xl) por (y2 - yl) . A informação de área de exibição alternativamente pode ser expressada como uma única coordenada (por exemplo, um ponto central de uma janela, onde o tamanho de janela é predeterminado). [033] A unidade de radiocomunicação 140 é responsável por comunicação de voz, video e de dados com um outro terminal por meio de uma rede sob o controle da unidade de controle 160. A unidade de radiocomunicação 140 inclui um transmissor RF para converter de forma ascendente frequência e amplificar o sinal a ser transmitido e um receptor RF para amplificar ruído baixo e converter de forma descendente o sinal recebido. A unidade de radiocomunicação 140 inclui pelo menos um de um módulo de comunicação celular (por exemplo, módulos de comunicação móvel de terceira, de ordem três e meia e de quarta geração), um módulo de difusão digital (por exemplo, módulo DMB), e um módulo de comunicação de pequeno alcance (por exemplo, módulo Wi-Fi, módulo Bluetooth e módulo de Comunicação de Campo Próximo (NFC)). [034] A unidade de processamento de áudio 150 executa reconhecimento de fala, gravação de voz e entrada e saida de sinal de áudio (por exemplo, voz) para gravação digital e processamento de chamada em cooperação com um alto-falante (SPK) e um microfone (MIC) . A unidade de processamento de áudio 150 converte o sinal de áudio analógico introduzido por meio do microfone (MIC) para o sinal de áudio digital e envia o sinal de áudio digital para a unidade de controle 160. O alto-falante (SPK) converte o sinal de áudio proveniente da unidade de processamento de áudio 150 para uma onda sonora audível. O microfone (MIC) converte a onda sonora de uma voz humana ou outro som de entrada para o sinal de áudio. [035] A unidade de controle 160 controla operações completas do dispositivo portátil 100, fluxos de sinais entre os componentes do dispositivo portátil 100 e fornecimento de energia para os componentes, e processa dados. Particularmente, coordenadas de toque são recebidas da tela sensível ao toque 110, e a unidade de controle 160 determina o OS para processar as coordenadas de toque. Por exemplo, quando uma aplicação de banco via Internet é executada com uma imagem de segurança (por exemplo, miniteclado seguro), o OS secundário tem o direito de processar o evento de toque (isto é, o OS secundário pode receber diretamente as coordenadas de toque). Se as coordenadas de toque forem aquelas de uma imagem não de segurança (por exemplo, um toque em uma região de indicadores), o OS principal tem o direito de processar o evento de toque. Se a imagem de segurança desaparecer, o direito de processamento de evento de toque é transferido para o OS principal. O procedimento de processamento de evento de toque é descrito com mais detalhes mais tarde.DETAILED DESCRIPTION Exemplary embodiments will now be described with reference to the accompanying drawings, in which like reference numerals indicate like elements or features. In the following description and claims that follow, the expressions and words used are not limited to bibliographic meanings, and are used by the inventor merely to enable a clear and consistent understanding of the disclosed technology. Accordingly, it should be apparent to those skilled in the art that the following description of exemplary embodiments of the present invention is provided for illustration purposes only and not for the purpose of limiting the invention as defined by the appended claims and their equivalents. In the drawings, certain elements may be exaggerated or omitted or represented schematically for clarity of illustration, and actual element sizes are not reflected. Thus, the present invention is not limited by a relative size or distance in the accompanying drawings. Detailed description of well-known functions and structures incorporated herein may be omitted to avoid obscuring the subject matter described herein. [018] In this disclosure, a "portable device" may be any of a number of electronic devices such as a handheld device incorporated such as a smart phone, a tabular computer, a laptop computer or a digital camera. A portable device with a communication function may also be called a mobile terminal. Modalities of touch event (s) processing methods performed within a handheld device and a handheld device to implement them are described below. Figure 1 is a block diagram illustrating a configuration of an exemplary portable device 100 according to one embodiment of the present invention. The portable device 100 includes a display unit incorporated as a touch screen 110, a key input unit 120, a secondary memory unit 130, a radiocommunication unit 140, an audio processing unit 150, a loudspeaker. (SPK), a microphone (MIC), and a 160 control unit. [020] The touch screen 110 includes a display panel 111 and a touch panel 112. The display panel 111 displays data on your screen under control of control unit 160. That is, control unit 160 processes the data (for example, decodes and resizes retrieved data), and temporarily stores the processed data in temporary storage. Display panel 111 converts temporarily stored data to analog signals to selectively trigger pixels and thereby form an image according to the data on the screen. When the touch screen 110 is turned on, display panel 111 displays a lock image on the screen. If unlocking information is entered in the lock image display state, the control unit 160 unlocks the screen, whereby a "splash screen" is displayed instead of the lock image. The home screen includes a background image (for example, user-selected photo) and a plurality of icons arranged over the photo. Here, the icons represent applications ("apps") and corresponding content (eg photo file, video file, recording file, document and message). If the user selects one of the icons representing a sensitive information application, for example a bank application icon, control unit 190 executes the bank application and controls display panel 111 to display the execution image (for example, a secure mini-keyboard). [021] Touch screen 110 displays multiple images that can be displayed in a multilayer structure where a foreground image appears overlaid on a background image under control of the control unit 160. For example, In banking, display panel 111 displays a first preview image (for example, the start image or other background generated while banking is running) on the screen as a background image. A second preview image (for example, the secure mini-keyboard) may be displayed overlaid on the first image. The first preview image can be displayed as a background image in the full screen area, and the second preview image can be displayed as a foreground image in a partial area of the screen. Thus, in this case the second preview image is fully viewable and the first image is only partially viewable. In another implementation, the second image is displayed in the full screen area. Here, the second image can be displayed transparently or semi-transparently so that the user can also see the first preview image fully (underneath the second image). Also in another project, the two preview images can be separated from each other in such a way that each one is displayed at the topmost (ie foreground) layer of the screen. That is, the touch screen 110 is controlled to display the first image in a first screen area and the second image in a different second screen area without overlapping between them. [022] The previous discussion involved examples of first and second preview images. In addition, display panel 111 may also be controlled to continuously display a certain image, for example, an Internet Banking application execution image, at the top layer of the screen. That is, while the Internet Banking application is running, its execution image is displayed at the top layer of the full screen image. For example, a web browser is run by the user and thus a web page is displayed on the screen. At this time, a secure mini-keyboard is displayed at a higher layer than that of the web page (for example, secure foreground mini-keyboard, background webpage). It should be noted that if the "always on top" function is off, images may be in the foreground and background selectively. Referring momentarily to Fig. 4, an example of a first image displayable by display panel 111 is an indicator region image 410, which includes indicators for residual battery capacity, current time, and so on. The first image is displayed in the first area indicated above. A second image 420, for example a secure mini-keyboard, is displayed in the second area without overlapping the first image. [024] Display panel 111 may be implemented, for example, as Liquid Crystal Display (LCD), Organic Light Emitting Diode (OLED), Organic Active Light Emitting Diode (AMOLED) or flexible display. [025] Touch panel 112 is mounted on the surface of display panel 111. More specifically, touch panel 112 can be placed on the surface of display panel 111 in a complementary type or inserted into display unit 110 in a type. over cell or inside cell. [026] Touch panel 112 generates an analog input signal (representing a touch event) in response to a user gesture applied to touch panel 112 (in this document, "gesture" may refer to a single touch point, or touch multiple points, or a drag from the starting point or touch points). Touch panel 112 (touch panel IC) 113 performs Analog / Digital (A / D) conversion on the analog signal to generate a digital signal for control unit 160. Here, the input signal includes the touch coordinates. (x, y). For example, touch IC 113 determines representative coordinates between multiple touch coordinates and transfers the representative touch coordinates to control unit 160. This control for this operation can be performed by control unit 160. Touch coordinates can be Pixel coordinates. For example, if the screen resolution is 640 (number of pixels in the horizontal direction) * 480 (number of pixels in the vertical direction), the X axis coordinate may range from 0 to 640 and the Y axis coordinates range from 0. 480. If touch coordinates are received from touch IC 113, control unit 160 determines that a touch gesture has been applied to touch panel 112 with a touch implement (for example, finger or pen), and if the ring coordinates are no longer received, the ring has been released. If the coordinates are changed, for example, from (xO, yO) to (xl, yl), and the offset (for example, D (D2 = (xO - xl) 2 + (yO - yl) 2) is greater than motion threshold (for example, 1 millimeter), the control unit 160 determines that the touch has been displaced.If touch motion is detected, the control unit 160 calculates the touch displacement (dx, dy) and touch movement.The 160 control unit can differentiate between user touch gestures from single touch, multiple touch, beat, double beat, long beat, beat and touch, drag, light strike, press, grip and release grip, based on touch coordinates, touch release, touch movement, touch shift, touch speed, etc. [027] The touch panel 112 can be an integrated touch panel including a hand touch panel to detect a hand gesture and a pen touch panel to detect a pen gesture. Here, the hand touch panel preferably it is implemented as a capacitive type; however, other types are possible, for example resistive, infrared or microwave types. The hand touch panel is capable of detecting the touch event made by means of an object (for example, an object of conductive material capable of influencing capacitance in a circuit) as well as that of a user's hand. The pen touch panel can be implemented as a type of electromagnetic induction. In this case, the pen touch panel detects the touch event made by a pointing pen manufactured to form a magnetic field. [028] Key input unit 120 includes a plurality of alphanumeric keys (virtual and / or physical) for entering alphanumeric information and function keys for configuring and establishing various functions. These keys may include a menu key, a screen on / off key, a power on / off key, a volume control key, and so on. The key input unit 120 is capable of generating a user event related function establishment and function control signal from the handheld 100 to the control unit 160. The key event is capable of an on / off event. power off, a volume control event, a screen on / off event, a shutter event, etc. Control unit 160 is capable of controlling components in response to the key event. The physical keys, if provided, of the key input unit 120 are referred to as function keys while the soft keys displayed by display panel 111 are referred to as programmable keys. [029] Secondary memory unit 130 can be implemented with at least one disk, Random Access Memory (RAM), Read Only Memory (ROM), and flash memory. Secondary memory unit 130 stores data generated on portable device 100 and received from external devices (for example, server, desktop computer, and tablet) via radio unit 140 under control of control unit 160. [030] Secondary memory unit 130 stores a boot program, Operating Systems (OSs), an OS monitor, and other application programs. When the portable device 100 is powered on, the startup program is loaded into the control unit 160 main memory unit. The startup program loads one of the OSs into memory. OS provides the interface between hardware and applications and between applications, and AP 161 manages hardware components such as main memory unit 162 and secondary memory unit 130. [031] According to one embodiment of the present In this invention, secondary memory unit 130 stores at least two OSs (first and second type OS programs). One of the OSs works as a primary OS and another OS works as a secondary OS. According to one embodiment of the present invention, one of Android, Windows and iOS may be used as the main OS. For example, "MobiCore" (a product of Giesecke & Devrient (G&D)) can be used as the secondary OS. MobiCore is a secure Internet banking and secure electronic payment enabled OS with a mobile terminal. The monitor OS works as an interface between OSs. For example, Advance RISC Machines (ARM) Ltd. "TrustZone" technology may be adopted as the OS monitor in some modalities. [032] Secondary memory unit 130 also stores size and display area information about an image (for example, secure mini-keyboard, moving image, or message) to be displayed. Assuming the screen consists of pixels, size information is expressed as x * y. X denotes the x-order pixel on the x axis, and y denotes the y-order pixel on the y axis. Display area information can be expressed as four corner coordinates, that is, (xl, yl), (x2, yl), (xl, y2), and (x2, y2) for an image size of (x2 - xl) by (y2 - yl). The display area information may alternatively be expressed as a single coordinate (for example, a center point of a window, where the window size is predetermined). [033] Radio unit 140 is responsible for voice, video and data communication with another terminal via a network under control of control unit 160. Radio unit 140 includes an RF transmitter for converting up frequency and amplify the signal to be transmitted and an RF receiver to amplify low noise and downconvert the received signal. The radio communication unit 140 includes at least one of a cellular communication module (e.g. third generation, third and half order and fourth generation mobile communication modules), a digital broadcast module (e.g. DMB module), and a short range communication module (for example, Wi-Fi module, Bluetooth module, and Near Field Communication (NFC) module). [034] Audio processing unit 150 performs speech recognition, voice recording, and audio signal input and output (e.g., voice) for digital recording and call processing in cooperation with a speaker (SPK) and a microphone (MIC). The audio processing unit 150 converts the analog audio signal input through the microphone (MIC) to the digital audio signal and sends the digital audio signal to the control unit 160. The speaker (SPK) converts the audio signal from audio processing unit 150 for an audible sound wave. The microphone (MIC) converts the sound wave from a human voice or other input sound to the audio signal. [035] Control unit 160 controls complete handheld 100 operations, signal flows between handheld 100 components, and power supply to the components, and processes data. In particular, touch coordinates are received from touch screen 110, and control unit 160 determines the OS to process touch coordinates. For example, when an Internet banking application runs with a security image (for example, secure mini-keyboard), the secondary OS has the right to process the touch event (that is, the secondary OS can directly receive the coordinates of Touch). If the touch coordinates are those of a non-security image (for example, a touch in an indicator region), the primary OS has the right to process the touch event. If the security image disappears, the touch event processing right is transferred to the master OS. The touch event processing procedure is described in more detail later.
[036] A unidade de controle 160 controla a tela de exibição do dispositivo portátil com base na informação de tamanho e na informação de área de exibição a respeito das imagens armazenadas na segunda unidade de memória 130. Por exemplo, se um evento de toque solicitando a exibição de um miniteclado seguro ocorrer, a unidade de controle 160 lê a informação de tamanho e informação de área de exibição correspondendo ao miniteclado seguro na unidade de memória secundária 130 e controla a tela sensível ao toque 110 para exibir o miniteclado seguro na área de exibição correspondente com base na informação de leitura. O miniteclado seguro pode ser exibido na área total ou parcial da tela. [037] A unidade de controle 160 inclui um Processador de Aplicação (AP) 161 que compreende uma ou mais Unidades Centrais de Processamento (CPUs) . A CPU é a unidade de controle principal de um sistema de computação para executar operações e comparação em dados e interpretar e executar comandos. A CPU inclui diversos registradores armazenando dados e comandos temporariamente. A unidade de controle 160 pode incluir uma ou mais Unidades de Processamento Gráfico (GPUs). A GPU é a unidade de controle gráfico para executar operação e comparação nos dados gráficos e interpretar e executar comandos relacionados com os dados gráficos. Cada uma de a CPU e a GPU pode ser fabricada como um pacote de dois ou mais núcleos independentes (por exemplo, quatro núcleos). A CPU e a GPU podem ser integradas na forma de Sistema em Um Chip (SoC). A CPU e a GPU também podem ser compactadas em múltiplas camadas. Deve ser notado que a estrutura da CPU e da GPU pode ser referida como o AP 161. [038] A unidade de controle 160 inclui uma unidade de memória principal 162, por exemplo, Memória de Acesso Aleatório (RAM). A unidade de memória principal 162 armazena vários programas carregados da unidade de memória secundária 130 tais como um programa de inicialização, Sistema Operacional (OS) e aplicações. Isto é, cada uma das CPUs e GPUs da unidade de controle 160 acessa um programa para interpretar comandos de programa e executa uma função de acordo com o resultado de interpretação. A memória principal 162 inclui uma memória cache para armazenar dados a ser gravados na unidade de memória secundária 130 e lidos na unidade de memória secundária 130 temporariamente. [039] O dispositivo portátil 100 pode incluir adicionalmente vários componentes que não estão representados no desenho tais como uma câmera, um sensor de aceleração, um módulo de Sistema de Posicionamento Global (GPS), um motor de vibração, uma tomada de ouvido e outros acessórios. Aqui, os acessórios podem ser partes separáveis do dispositivo portátil 100 tais como uma caneta para uso ao fazer gestos de toque. [040] A figura 2 é um diagrama de blocos ilustrando uma estrutura de processamento hierárquico do dispositivo portátil de acordo com uma modalidade da presente invenção. A estrutura hierárquica está arranjada esquematicamente como uma parte de nível mais alto 290 e uma parte de nivel mais baixo 280. O nivel mais alto 290 inclui uma primeira aplicação de segurança 210, um primeiro OS 220, um primeiro conjunto de acionadores 230, uma segunda aplicação de segurança 240, um segundo OS 250, um segundo conjunto de acionadores 260 e um monitor OS 270 (por exemplo, um monitor "TrustZone" mencionado anteriormente). Cada um destes elementos pode ser um módulo de software carregado da unidade de memória secundária 130 para a memória principal 162 durante operação de dispositivo. [041] Na estrutura hierárquica, os conjuntos de acionadores 230 e 260 capacitam operações do hardware (por exemplo, a tela sensível ao toque 110, a unidade de radiocomunicação 140, a unidade de entrada de tecla 120 e a unidade de processamento de áudio 150) . O conjunto de acionadores 230 inclui um acionador de circuito inter- integrado (I2C) 231 e um acionador de painel de toque 232. Segundo conjunto de acionadores 260 de forma similar inclui um acionador de painel de toque 262 e um acionador I2C 261. O primeiro conjunto de acionadores 230 inclui adicionalmente outros acionadores de dispositivos periféricos (por exemplo, o acionador de unidade de radiocomunicação 140d, um acionador de unidade de entrada de tecla 120d, um acionador de unidade de processamento de áudio 150d e o acionador de painel de exibição llld) . O segundo conjunto de acionadores 260 inclui acionadores de dispositivos equivalentes (não mostrados) para os outros acionadores de dispositivos periféricos llld, 120d, 140d, 150d. Os acionadores de dispositivos periféricos recebem comandos do OS servidor e controlam a entrada e saida do dispositivo periférico correspondente (na figura 2, o caminho de múltiplas conexões 167 ilustra que o AP 161 está acoplado operacionalmente a cada uma de a unidade de radiocomunicação 140, a unidade de entrada de tecla 120, a unidade de processamento de áudio 150 e o painel de exibição 111). O acionador I2C 231 (261) controla a entrada e saida da interface I2C 161a do AP 161. A interface I2C 161a transfere a interrupção e coordenadas de toque recebidas do IC de toque 113 para o conjunto de acionadores do OS tendo o direito de processamento de evento de toque. Se o OS tendo o direito de processamento de evento de toque solicitar as coordenadas de toque, a interface I2C 161a lê as coordenadas de toque na memória interna do IC de toque 113 e transfere as coordenadas de toque para o conjunto de acionadores do OS tendo o direito de processamento. [042] Os OSs 220 e 250 existem hierarquicamente acima dos respectivos conjuntos de acionadores 230 e 260 e o monitor OS 270 é colocado entre os OSs 220 e 250. O primeiro OS 220 é o OS principal do dispositivo portátil 100 e inclui um programa OS de primeiro tipo 221 (por exemplo, "Android"). 0 primeiro OS 220 também inclui um conector 222 e um acionador de acesso 223 para fornecer uma interface com o segundo OS 250 via monitor OS 270. O segundo OS 250 é o OS secundário e inclui um programa OS de segundo tipo 251 (por exemplo, "MobiCore"). [043] O ambiente de processamento inclui adicionalmente as primeira e segunda aplicações de segurança 210 e 240 acima dos OSs 220 e 250. Aqui, a primeira aplicação de segurança 210 é responsável por apresentar a imagem de segurança. Por exemplo, se o primeiro OS 220 tiver o direito de processar o evento de toque corrente e se o usuário selecionar um icone representando a primeira aplicação de segurança 210, o primeiro OS 220 recebe uma interrupção da interface I2C 161a por meio do primeiro conjunto de acionadores 230. Em resposta, o primeiro OS 220 envia para a interface I2C 161a do AP 161 uma mensagem de solicitação de coordenadas de toque. Quando as coordenadas de toque são recebidas da interface I2C 161a, o primeiro OS 220 verifica a função correspondendo às coordenadas. Se a função verificada for para executar a primeira aplicação de segurança 210, o primeiro OS 220 carrega a primeira aplicação de segurança 210 na unidade de memória principal 162. A primeira aplicação de segurança carregada comanda o primeiro OS 220 para exibir a imagem de segurança. Em resposta, o primeiro OS 220 comanda o AP 161 para exibir a imagem de segurança. [044] Uma vez que a imagem de segurança é exibida, a segunda aplicação de segurança 240 é responsável por processar coordenadas de toque de entrada de um evento de toque na imagem de segurança. Com a imagem de segurança exibida, o segundo OS 250 tem o direito de processar um evento de toque corrente. Isto é, ao contrário de técnicas convencionais, em vez de o segundo OS 250 receber coordenadas de toque por meio do primeiro OS 220, as coordenadas de toque contornam o primeiro OS 220, isto é, elas são transferidas diretamente do AP 161 para o segundo OS 250. Desta maneira, se uma interrupção for recebida da interface I2C 161a por meio do segundo conjunto de acionadores 260, o segundo OS 250 responde ao enviar para a interface I2C 161a uma mensagem de solicitação de coordenadas de toque. Quando as coordenadas de toque são recebidas da interface I2C 161a, o segundo OS 250 determina se as coordenadas de toque casam com as coordenadas de imagem de segurança. Se assim, o segundo OS 250 envia as coordenadas de toque para a segunda aplicação de segurança 240. A segunda aplicação de segurança 240 criptografa um caractere (por exemplo, um número) correspondendo às coordenadas de toque e comanda o segundo OS 250 para transmitir a informação criptografada para uma entidade segura associada com a aplicação, tal como um servidor de Banco via Internet. Em uma modalidade onde o segundo conjunto de acionadores 260 não inclui um acionador de radiocomunicação 140d, o segundo OS 250 responde ao enviar a informação criptografada para o primeiro OS 220 por meio do monitor OS 270. Então o primeiro OS controla ? AP 161 para transmitir a informação criptografada para o servidor de Banco via Internet. Alternativamente, se o segundo conjunto de acionadores 260 estiver incorporado com um acionador de radiocomunicação 140d, o segundo OS 250 comanda o AP 161 para transmitir a informação criptografada para o servidor de Banco via Internet diretamente. O AP 161 controla a unidade de radiocomunicação 140 para transmitir a informação criptografada para o servidor de banco via Internet. [045] Além da primeira aplicação de segurança 210, as outras aplicações 212 existem acima do primeiro OS 220 no nivel superior 290. As outras aplicações 212 são classificadas como aplicações incorporadas e aplicações de entidade externa. Por exemplo, as aplicações incorporadas incluem navegador de rede, aplicação de correio eletrônico e aplicação de mensageiro instantâneo. Igualmente, outras aplicações (não mostradas) podem existir acima do segundo OS 250, assim como a segunda aplicação de segurança 240. [046] A figura 3 é um diagrama de fluxo de sinal ilustrando um método de processamento de evento de toque de acordo com uma modalidade da presente invenção. A figura 4 é um diagrama ilustrando uma exibição de tela exemplar para explicar o método de processamento de evento de toque da figura 3. [047] Referindo-se às figuras 3 e 4, o usuário aplica um gesto de toque à tela sensível ao toque 110 com um implemento de toque na etapa 301. O IC de toque 113 armazena então as coordenadas de toque do gesto de toque na sua memória interna na etapa 302 e gera uma interrupção para ? AP 161 a fim de notificá-lo das coordenadas na etapa 303 . [048] Um indicador que indica o OS tendo o direito de processar o evento de toque corrente pode ser armazenado em um registrador do AP 161. Isto é, o AP 161 verifica o indicador do registrador e transmite a interrupção para o OS tendo o direito de processar o evento de toque na etapa 304. Por exemplo, um indicador estabelecido para 0 pode ser usado para indicar o primeiro OS 220, e um indicador estabelecido para 1 indica o segundo OS 250. Se o indicador for estabelecido para 0, o AP 161 transmite a interrupção para o primeiro OS 220 tendo o direito de processar o evento de toque corrente. No exemplo da figura 3, o primeiro OS 220 tem o direito de processamento, pelo que a interrupção é transferida para o primeiro OS 220 na etapa 304 por meio do primeiro conjunto de acionadores 230. [049] A seguir, em resposta à interrupção, na etapa 305 o primeiro OS 220 envia a mensagem de solicitação de coordenadas de toque via primeiro conjunto de acionadores 230 para o IC de toque 113 por meio da interface I2C 161a do AP 161. Em resposta, o IC de toque 113 envia as coordenadas de toque armazenadas em sua memória interna para o primeiro OS 220 por meio do primeiro conjunto de acionadores 230 na etapa 306. Desta vez, as coordenadas de toque são as coordenadas de toque armazenadas primeiro (isto é, no toque inicial do evento de toque) na memória interna do IC de toque 113. Isto é, o primeiro conjunto de acionadores 230 lê as coordenadas de toque armazenadas mais cedo entre as coordenadas de toque na memória interna do IC de toque 113 e envia as coordenadas de toque lidas para o primeiro OS 220. Se o primeiro OS 220 determinar que as coordenadas de toque correspondem a um icone da primeira aplicação de segurança, por exemplo, uma aplicação de Banco via Internet, a primeira aplicação de segurança é iniciada na etapa 307 . Se as coordenadas de toque não forem as coordenadas do primeiro icone de aplicação de segurança, as coordenadas de toque são processadas pelo primeiro OS de acordo com uma regra predeterminada. No caso precedente, o primeiro OS 220 executa a primeira aplicação de segurança 210 ao carregar a primeira aplicação de segurança 210 na unidade de memória principal 162. Quando o carregamento é completado, a primeira aplicação de segurança 210 comanda o primeiro OS 220 para exibir a imagem de segurança. O primeiro OS 220 comanda então o AP 161 para exibir a imagem de segurança na etapa 308. 0 AP 161 lê a informação de tamanho e de área de exibição do miniteclado de segurança e controla o painel de exibição 111 para exibir o miniteclado seguro na área de exibição correspondente com base na informação lida. No caso exemplar da figura 4, o painel de exibição 111 exibe a região de indicadores 410 e o miniteclado seguro 420 sob o controle do AP 161. Com o miniteclado seguro exibido, o primeiro OS 220 comanda o AP 161 para mudar o direito de processamento na etapa 309. De acordo com o comando, o AP 161 muda o valor de indicador de 0 para 1 de maneira que o segundo OS 220 receberá diretamente coordenadas de toque subsequentes do AP 161. [050] Após comandar o AP 161 para exibir a imagem de segurança, o primeiro OS 220 comanda o segundo OS 250 para receber e processar o evento de toque. Isto é, o primeiro OS 220 envia para o segundo OS 250 um direito de processamento mensagem de transferência. A mensagem de transferência de direito de processamento é enviada para o segundo OS 250 por meio do monitor OS 270. O segundo OS 250 comanda o segundo conjunto de acionadores 260 para obter interrupção e coordenadas de toque em resposta à mensagem de transferência de direito de processamento. [051] Na descrição anterior, é assumido que durante o tempo anterior à execução da primeira aplicação de segurança, isto é, enquanto o primeiro OS 220 tem o direito de processamento de coordenadas de toque, o OS 220 determina se coordenadas de toque recebidas correspondem ao primeiro icone de aplicação de segurança. Em uma implementação alternativa, o primeiro conjunto de acionadores 230 pode ser configurado para fazer esta determinação. Neste caso, se as coordenadas de toque forem as coordenadas no icone de segurança, o primeiro conjunto de acionadores 230 envia para o primeiro OS 220 uma mensagem de notificação indicando que as coordenadas de toque são as coordenadas no icone de segurança. Se a mensagem de notificação for recebida, o primeiro OS 220 envia para o segundo OS 250 uma mensagem de transferência de direito de processamento de painel de toque para o painel de toque 112. A mensagem de transferência de direito de processamento é enviada para o segundo OS 250 por meio do monitor OS 270. [052] Em uma ou outra das implementações indicadas acima, quando o segundo OS recebe diretamente coordenadas de toque, as coordenadas de toque transmitidas podem ser reutilizadas ou descartadas de acordo com a diretriz de operação do segundo OS 250 (reutilizar se refere a permitir uma entrada em sistema automática para conveniência do usuário). Quando o direito de processamento é transferido pelo primeiro OS 220, o segundo OS 250 solicita ao segundo conjunto de acionadores 260 as coordenadas de toque. Em resposta, o segundo conjunto de acionadores 260 obtém as coordenadas de toque do IC de toque 113 e executa uma função correspondendo às coordenadas de toque. [053] A figura 5 é um diagrama de blocos ilustrando um método de processamento de evento de toque de acordo com uma modalidade da presente invenção. A figura 6 é um diagrama ilustrando uma exibição de tela exemplar para explicar o método de processamento de evento de toque da figura 5. [054] Referindo-se às figuras 5 e 6, inicialmente, a imagem de segurança é exibida na tela, e o segundo OS 250 tem o direito de processar o evento de toque corrente e conhece a área de exibição da imagem de segurança baseado na informação de área de exibição armazenada na memória secundária 130. Neste estado, quando uma nova entrada de toque é detectada, o segundo OS 250 recebe uma interrupção do AP 161 por meio do segundo conjunto de acionadores 260 na etapa 510. Esta interrupção é para permitir que as coordenadas de toque recém-detectadas sejam transmitidas para o segundo OS. O segundo OS 250 comanda o segundo conjunto de acionadores 260 para obter as coordenadas de toque em resposta à interrupção na etapa 520. O segundo OS 250 recebe as coordenadas de toque do IC de toque 113 por meio do segundo conjunto de acionadores 260 na etapa 530. O segundo OS 250 determina então se as coordenadas de toque são as coordenadas na imagem de segurança na etapa 540. [055] Se as coordenadas de toque forem as coordenadas na imagem de segurança, o segundo OS 250 executa a função correspondendo às coordenadas de toque na etapa 550. Isto é, o segundo OS 250 envia as coordenadas de toque para a segunda aplicação de segurança, onde elas são processadas. [056] Dependendo da aplicação, enquanto a imagem de segurança tal como 420 na figura 4 é exibida, uma outra região da tela tal como 410 pode ser designada para aceitar entradas do tipo não de segurança para comandar outras operações. Por exemplo, a tela da figura 4 pode ser projetada para permitir a um usuário tocar na região 410 e fazer um gesto de arrastar para baixo, tal como mostrado na figura 6, revelando assim submenus para configurações. Desta maneira, no método da figura 5, se as coordenadas de toque detectadas não forem as coordenadas na imagem de segurança, o segundo OS envia para o primeiro OS 220 uma mensagem de transferência de direito de processamento para o painel de toque 112 na etapa 560. A mensagem de transferência de direito de processamento é enviada para o primeiro OS 220 por meio do monitor OS 270. Desta vez as coordenadas de toque são as coordenadas não exigindo segurança (por exemplo, coordenadas da região de indicadores 410) e são transmitidas assim para o primeiro OS 220 na mensagem de transferência de direito de processamento. Se o direito de processamento for transferido pelo segundo OS 250, o primeiro OS 220 comanda o primeiro conjunto de acionadores 230 para obter as coordenadas de toque. Em resposta, o primeiro conjunto de acionadores 230 recebe as coordenadas de toque do IC de toque 113 e executa uma função correspondendo às coordenadas de toque (de acordo com comandos do primeiro OS 220) . No caso exemplar da figura 6, o primeiro OS 220 recebe as coordenadas de toque do IC de toque 113 por meio do primeiro conjunto de acionadores 230. O primeiro OS 220 determina que o gesto de usuário aplicado à tela é um 'arrasto' 610 com base nas coordenadas de toque recebidas e exibe uma região de indicadores estendida 620 de acordo com a direção do arrasto 610. [057] A figura 7 é um fluxograma ilustrando um método de processamento de evento de toque de acordo com uma outra modalidade da presente invenção. Inicialmente, um evento externo é detectado na etapa 710. Por exemplo, a unidade de radiocomunicação 140 recebe um evento de solicitação de telefonia de um outro terminal por meio de uma rede de rádio (por exemplo, via uma estação base) e transfere o evento de solicitação de telefonia para o AP 161. O AP 161 transfere o evento de solicitação de telefonia para o acionador de radiocomunicação 234 do OS tendo o direito de processar a telefonia, isto é, o primeiro (principal) OS 220. O acionador de radiocomunicação 234 transfere o evento de solicitação de telefonia para o primeiro OS 220. Em resposta, o primeiro OS 220 comanda o AP 161 para exibir uma imagem de notificação de chamada de entrada. O painel de exibição 111 exibe a imagem de notificação de chamada de entrada sob o controle do AP 161. 0 evento externo pode ser o evento notificando a respeito do recebimento de qualquer uma de uma mensagem de Serviço de Rede Social (SNS), mensagem de Serviço de Mensagens Curtas (SMS) e mensagem de Serviço de Mensagens Multimídia (MMS), e um evento de notificação de uma atualização disponível de uma aplicação de entidade externa. 0 evento externo também pode ser um evento que ocorre em uma aplicação. Por exemplo, o evento externo pode ser uma aplicação de relógio gerando um evento de alarme para o primeiro OS 220 quando uma hora de alarme predefinida tiver chegado. [058] Se um evento externo for detectado, o primeiro OS 220 determina se ele tem o direito de processar um evento de toque subsequente na etapa 720. Por exemplo, o primeiro OS 220 acessa a memória (por exemplo, registrador) na qual o valor de indicação está gravado para verificar qual OS tem o direito de processar o evento de toque corrente. Se ele tiver o direito de processar o evento de toque, o primeiro OS 220 processa o evento de toque na etapa 730. [059] Se o primeiro OS 220 não tiver o direito de processar o evento de toque (isto é, a primeira aplicação de segurança 210 foi executada anteriormente que transferiu o direito de processamento de evento de toque para o segundo OS 250), ele determina se uma imagem de primeiro plano ("aplicação de primeiro plano") é a primeira aplicação de segurança 210 na etapa 740. Isto é, o primeiro OS 220 determina se qualquer imagem relacionada com o evento externo é exibida na tela. Se nenhuma imagem relacionada com evento externo não for exibida, o primeiro OS 220 mantém o estado corrente na etapa 750. Isto significa que o segundo OS 250 tem o direito de processar o evento de toque. [060] Se uma imagem relacionada com evento externo (por exemplo, imagem de notificação de chamada de entrada) for exibida, o primeiro OS 220 envia para o segundo OS 250 uma mensagem de solicitação de retirada de direito de processamento de evento de toque na etapa 7 60. Aqui, a imagem relacionada com evento externo pode ser exibida na imagem de segurança ou em uma área onde a imagem de segurança não é exibida. A mensagem de solicitação é enviada para o segundo OS 250 por meio do monitor OS 270. [061] A seguir, o primeiro OS 220 recebe a mensagem de transferência de direito de processamento do segundo OS 250. Aqui, a mensagem de transferência de direito de processamento é enviada para o primeiro OS 220 por meio do monitor OS 270. [062] Se a mensagem de transferência de direito de processamento for recebida, o primeiro OS 220 processa o evento de toque na etapa 780. [063] A figura 8 é um fluxograma ilustrando um método de processamento de evento de toque de acordo com uma outra modalidade da presente invenção. Inicialmente, o primeiro OS 220 determina se a execução da primeira aplicação de segurança 210 está terminada na etapa S810. Se a execução estiver terminada, isto significa que a primeira aplicação de segurança 210 foi descarregada da unidade de memória principal 162. Se assim, o primeiro OS 220 determina se o segundo OS 250 tem o direito de processamento de evento de toque na etapa 820. Se sim, o primeiro OS 220 envia para o segundo OS 250 uma mensagem de retirada de direito de processamento na etapa 830. Aqui, a mensagem de solicitação é enviada para o segundo OS 250 por meio do monitor OS 270. A seguir, o primeiro OS 220 recebe a mensagem de transferência de direito de processamento do segundo OS 250 na etapa 840. Aqui, a mensagem de transferência de direito de processamento é enviada para o primeiro OS 220 por meio do monitor OS 270. O primeiro OS 220 comanda então ? primeiro conjunto de acionadores 230 para obter uma interrupção e coordenadas de toque em resposta à mensagem de transferência de direito de processamento. [064] O método de processamento de evento de toques descrito anteriormente de acordo com as modalidades da presente invenção pode ser implementado por meio de comandos de programa executável por computador que são armazenados em uma midia de armazenamento não transitório legível por computador. A midia de armazenamento legível por computador pode armazenar os comandos de programa, arquivos de dados e estruturas de dados em formas individuais ou combinadas. Os comandos de programa gravados na mídia de armazenamento podem ser projetados e implementados para várias modalidades exemplares da presente invenção ou usados pelos versados no campo de software de computador. A mídia de armazenamento legível por computador inclui mídias magnéticas tais como um disco flexível e uma fita magnética, mídias óticas incluindo um Disco Compacto (CD) ROM e um Disco de Vídeo Digital (DVD) ROM, uma mídia magneto-ótica tal como um disco ótico, e o dispositivo de hardware projetado para armazenar e executar comandos de programa tal como ROM, RAM e memória flash. Os comandos de programa incluem o código de linguagem executável por computadores usando um interpretador assim como os códigos de linguagem de máquina criados por um compilador. O dispositivo de hardware mencionado anteriormente pode ser implementado com um ou mais módulos de software para executar as operações das várias modalidades exemplares da presente invenção. [065] O método de processamento de evento de toque e dispositivo portátil implementando o mesmo podem ser praticados com várias modificações sem divergir do espirito e escopo da presente invenção.[036] Control unit 160 controls the handheld display screen based on size information and display area information about the images stored in the second memory unit 130. For example, if a touch event requesting When a secure mini-keyboard display occurs, the control unit 160 reads the size and display area information corresponding to the secure mini-keyboard on the secondary memory unit 130 and controls the touchscreen 110 to display the secure mini-keyboard in the display area. corresponding display based on the reading information. The secure mini-keyboard can be displayed in full or partial area of the screen. [037] Control unit 160 includes an Application Processor (AP) 161 comprising one or more Central Processing Units (CPUs). The CPU is the main control unit of a computing system for performing operations and comparing data and interpreting and executing commands. The CPU includes several registers storing data and commands temporarily. Control unit 160 may include one or more Graphics Processing Units (GPUs). The GPU is the graphical control unit for performing operation and comparison on graphical data and interpreting and executing graphical-related commands. Each of the CPU and GPU can be manufactured as a package of two or more independent cores (for example, four cores). The CPU and GPU can be integrated as One Chip System (SoC). The CPU and GPU can also be compressed into multiple layers. It should be noted that the CPU and GPU structure may be referred to as AP 161. [038] Control unit 160 includes a main memory unit 162, for example, Random Access Memory (RAM). Primary memory unit 162 stores various programs loaded from secondary memory unit 130 such as a startup program, Operating System (OS), and applications. That is, each of the control unit 160 CPUs and GPUs access a program to interpret program commands and perform a function according to the interpretation result. Main memory 162 includes a cache memory for storing data to be written to the secondary memory unit 130 and read from the secondary memory unit 130 temporarily. [039] The portable device 100 may additionally include various components not shown in the drawing such as a camera, an acceleration sensor, a Global Positioning System (GPS) module, a vibration motor, an ear jack and others. accessories. Here, the accessories may be detachable parts of the portable device 100 such as a pen for use when making touch gestures. Figure 2 is a block diagram illustrating a hierarchical processing structure of the handheld device according to one embodiment of the present invention. The hierarchical structure is schematically arranged as a higher level part 290 and a lower level part 280. The highest level 290 includes a first safety application 210, a first OS 220, a first set of actuators 230, a second security application 240, a second OS 250, a second set of triggers 260, and an OS 270 monitor (for example, a "TrustZone" monitor mentioned above). Each of these elements may be a software module loaded from secondary memory unit 130 to main memory 162 during device operation. [041] In the hierarchical structure, driver sets 230 and 260 enable hardware operations (for example, touch screen 110, radio communication unit 140, key input unit 120, and audio processing unit 150 ). The driver assembly 230 includes an integrated circuit (I2C) driver 231 and a touch panel driver 232. Second set of drivers 260 similarly includes a touch panel driver 262 and an I2C driver 261. The first driver set 230 additionally includes other peripheral device drivers (for example, radio communication unit driver 140d, key input unit driver 120d, audio processing unit driver 150d, and display panel driver llld ). Second set of drivers 260 include equivalent device drivers (not shown) for the other peripheral device drivers llld, 120d, 140d, 150d. Peripheral device drivers receive commands from the server OS and control the input and output of the corresponding peripheral device (in figure 2, the multipath path 167 illustrates that the AP 161 is operatively coupled to each of the radio unit 140, key input unit 120, audio processing unit 150, and display panel 111). The I2C trigger 231 (261) controls the input and output of the AP 161 interface I2C 161a. The I2C interface 161a transfers the interrupt and touch coordinates received from the touch IC 113 to the OS trigger set having the processing right. touch event. If the OS having the touch event processing right requests the touch coordinates, the I2C interface 161a reads the touch coordinates in the touch IC 113 internal memory and transfers the touch coordinates to the OS trigger set having the processing right. [042] OS 220 and 250 exist hierarchically above their respective driver sets 230 and 260 and the OS 270 monitor is placed between OS 220 and 250. The first OS 220 is the main OS of the handheld 100 and includes an OS program. first type 221 (e.g. "Android"). The first OS 220 also includes a connector 222 and an access driver 223 to provide an interface with the second OS 250 via the OS 270 monitor. The second OS 250 is the secondary OS and includes a second type 251 OS program (e.g., "MobiCore"). The processing environment additionally includes the first and second security applications 210 and 240 above OS 220 and 250. Here, the first security application 210 is responsible for displaying the security image. For example, if the first OS 220 has the right to process the current ring event and if the user selects an icon representing the first security application 210, the first OS 220 receives an interrupt from the I2C interface 161a through the first set of 230. In response, the first OS 220 sends a touch coordinate request message to the AP 161 interface I2C 161a. When the touch coordinates are received from the I2C interface 161a, the first OS 220 checks the function corresponding to the coordinates. If the function checked is to run the first security application 210, the first OS 220 loads the first security application 210 on main memory unit 162. The first loaded security application commands the first OS 220 to display the security image. In response, the first OS 220 commands the AP 161 to display the security image. [044] Once the security image is displayed, the second security application 240 is responsible for processing input touch coordinates of a security image touch event. With the security image displayed, the second OS 250 has the right to process a current ring event. That is, unlike conventional techniques, instead of the second OS 250 receiving touch coordinates via the first OS 220, the touch coordinates bypass the first OS 220, that is, they are transferred directly from the AP 161 to the second. Thus, if an interrupt is received from the I2C interface 161a via the second trigger set 260, the second OS 250 responds by sending a touch coordinate request message to the I2C interface 161a. When touch coordinates are received from the I2C 161a interface, the second OS 250 determines whether the touch coordinates match the security image coordinates. If so, the second OS 250 sends the touch coordinates to the second security application 240. The second security application 240 encrypts a character (for example, a number) corresponding to the touch coordinates and commands the second OS 250 to transmit the encrypted information to a secure entity associated with the application, such as a Bank server via the Internet. In an embodiment where the second set of triggers 260 do not include a radio trigger 140d, the second OS 250 responds by sending encrypted information to the first OS 220 via the OS 270 monitor. So does the first OS control? AP 161 to transmit encrypted information to the Bank server via the Internet. Alternatively, if the second set of triggers 260 are incorporated with a radio communication trigger 140d, the second OS 250 commands the AP 161 to transmit the encrypted information to the Bank server via the Internet directly. AP 161 controls radio unit 140 to transmit encrypted information to the bank server via the Internet. [045] In addition to the first security application 210, the other applications 212 exist above the first OS 220 at the top level 290. The other applications 212 are classified as embedded applications and external entity applications. For example, built-in applications include web browser, email application and instant messenger application. Also, other applications (not shown) may exist above the second OS 250, as well as the second security application 240. [046] Figure 3 is a signal flow diagram illustrating a touch event processing method according to an embodiment of the present invention. Figure 4 is a diagram illustrating an exemplary screen display explaining the touch event processing method of figure 3. [047] Referring to figures 3 and 4, the user applies a touch gesture to the touch screen 110 with a touch implement in step 301. Touch IC 113 then stores the touch gesture touch coordinates in its internal memory in step 302 and generates an interrupt for? AP 161 to notify you of the coordinates in step 303. [048] An indicator indicating the OS having the right to process the current ring event can be stored in an AP 161 register. That is, AP 161 checks the register indicator and transmits the interrupt to the OS having the right. processing the ringtone event in step 304. For example, an indicator set to 0 can be used to indicate the first OS 220, and an indicator set to 1 indicates the second OS 250. If the indicator is set to 0, the AP 161 transmits the interrupt to the first OS 220 having the right to process the current ring event. In the example of Figure 3, the first OS 220 has the processing right, so the interrupt is transferred to the first OS 220 in step 304 via the first set of triggers 230. [049] Next, in response to the interrupt, at step 305 the first OS 220 sends the touch coordinate request message via the first set of triggers 230 to touch IC 113 via the AP 161 interface I2C 161a. In response, touch IC 113 sends the coordinates of touch. ringtones stored in its internal memory for the first OS 220 via the first set of triggers 230 in step 306. This time, the ringtones are the ringtones stored first (that is, the initial ringer of the ringer event) in ring IC 113 internal memory. That is, the first set of triggers 230 read the ring coordinates stored earlier between the ring coordinates in ring IC 113 internal memory and send the read ring coordinates. for the first OS 220. If the first OS 220 determines that the touch coordinates correspond to an icon of the first security application, for example, an Internet Banking application, the first security application is started at step 307. If the touch coordinates are not the coordinates of the first security application icon, the touch coordinates are processed by the first OS according to a predetermined rule. In the foregoing case, the first OS 220 executes the first security application 210 by loading the first security application 210 into main memory unit 162. When loading is completed, the first security application 210 commands the first OS 220 to display the security image. The first OS 220 then commands the AP 161 to display the security image in step 308. The AP 161 reads the size and display information of the security mini-keyboard and controls display panel 111 to display the secure mini-keyboard in the area. corresponding display information based on the information read. In the exemplary case of Fig. 4, display panel 111 displays indicator region 410 and secure mini-keyboard 420 under the control of AP 161. With the secure mini-keyboard displayed, the first OS 220 commands AP 161 to change the processing right. according to the command, AP 161 changes the indicator value from 0 to 1 so that the second OS 220 will directly receive subsequent AP 161 touch coordinates. [050] After commanding AP 161 to display the security image, the first OS 220 commands the second OS 250 to receive and process the touch event. That is, the first OS 220 sends to the second OS 250 a processing message transfer right. The processing rights transfer message is sent to the second OS 250 through the OS 270 monitor. The second OS 250 commands the second set of triggers 260 to obtain interrupt and touch coordinates in response to the processing right transfer message. . In the above description, it is assumed that during the time prior to the execution of the first security application, that is, while the first OS 220 has the right to coordinate touch coordinates, OS 220 determines whether received touch coordinates correspond the first security application icon. In an alternative implementation, the first set of triggers 230 may be configured to make this determination. In this case, if the touch coordinates are the coordinates in the safety icon, the first set of triggers 230 sends to the first OS 220 a notification message indicating that the touch coordinates are the coordinates in the safety icon. If the notification message is received, the first OS 220 sends to the second OS 250 a touch panel processing rights transfer message to touch panel 112. The processing rights transfer message is sent to the second OS 250 via the OS 270 monitor. [052] In either of the above implementations, when the second OS receives direct touch coordinates, the transmitted touch coordinates may be reused or discarded according to the second operating directive. OS 250 (reuse refers to allowing automatic system entry for user convenience). When the processing right is transferred by the first OS 220, the second OS 250 requests the second set of triggers 260 for the touch coordinates. In response, the second set of triggers 260 obtain the touch coordinates of the touch IC 113 and perform a function corresponding to the touch coordinates. [053] Figure 5 is a block diagram illustrating a touch event processing method according to an embodiment of the present invention. Fig. 6 is a diagram illustrating an exemplary screen display for explaining the touch event processing method of Fig. 5. [054] Referring to Figs. 5 and 6, initially the security image is displayed on the screen, and the second OS 250 has the right to process the current ring event and knows the security image display area based on the display area information stored in secondary memory 130. In this state, when a new touch input is detected, the The second OS 250 receives an interrupt from AP 161 via the second set of triggers 260 at step 510. This interrupt is to allow newly detected ring coordinates to be transmitted to the second OS. The second OS 250 commands the second trigger set 260 to obtain the ring coordinates in response to the interruption in step 520. The second OS 250 receives the touch coordinates of the touch IC 113 via the second trigger set 260 in step 530 The second OS 250 then determines whether the touch coordinates are the coordinates in the security image in step 540. [055] If the touch coordinates are the coordinates in the security image, the second OS 250 performs the function corresponding to the coordinates of the security image. tap step 550. That is, the second OS 250 sends the tap coordinates to the second security application where they are processed. [056] Depending on the application, while the security image such as 420 in figure 4 is displayed, another screen region such as 410 may be designated to accept non-security type inputs to command other operations. For example, the screen of figure 4 may be designed to allow a user to touch region 410 and make a drag down gesture as shown in figure 6, thus revealing submenus for configurations. Thus, in the method of Fig. 5, if the detected touch coordinates are not the coordinates in the security image, the second OS sends to the first OS 220 a processing right transfer message to the touch panel 112 at step 560. The processing entitlement transfer message is sent to the first OS 220 via the OS 270 monitor. This time the touch coordinates are the coordinates not requiring security (for example, indicator region coordinates 410) and are thus transmitted. to the first OS 220 in the processing rights transfer message. If the processing right is transferred by the second OS 250, the first OS 220 commands the first set of triggers 230 to obtain the touch coordinates. In response, the first set of drivers 230 receive the touch coordinates of the touch IC 113 and perform a function corresponding to the touch coordinates (according to commands of the first OS 220). In the exemplary case of FIG. 6, the first OS 220 receives the touch coordinates of the touch IC 113 via the first set of triggers 230. The first OS 220 determines that the user gesture applied to the screen is a 'drag' 610 with based on the received touch coordinates and displays an extended indicator region 620 according to the drag direction 610. Figure 0 is a flowchart illustrating a touch event processing method according to another embodiment of the present invention. . Initially, an external event is detected in step 710. For example, the radio unit 140 receives a telephony request event from another terminal via a radio network (for example, via a base station) and transfers the event. 161. The AP 161 transfers the telephony request event to the OS radio trigger 234 having the right to process the telephony, that is, the first (major) OS 220. The radio trigger 234 transfers the telephony request event to the first OS 220. In response, the first OS 220 commands the AP 161 to display an incoming call notification image. Display panel 111 displays the incoming call notification image under the control of AP 161. The external event may be the event notifying you of receiving any of a Social Network Service (SNS) message, Short Message Service (SMS) and Multimedia Messaging Service (MMS) message, and an event of notification of an update available from an external entity application. The external event can also be an event that occurs in an application. For example, the external event may be a clock application generating an alarm event for the first OS 220 when a predefined alarm time has arrived. [058] If an external event is detected, the first OS 220 determines whether it has the right to process a subsequent ring event in step 720. For example, the first OS 220 accesses memory (for example, register) in which the Indication value is recorded to check which OS has the right to process the current ring event. If it has the right to process the touch event, the first OS 220 processes the touch event in step 730. [059] If the first OS 220 does not have the right to process the touch event (that is, the first application 210 was previously executed that transferred the touch event processing right to the second OS 250), it determines if a foreground image ("foreground application") is the first security application 210 in step 740. That is, the first OS 220 determines if any image related to the external event is displayed on the screen. If no external event related image is not displayed, the first OS 220 maintains the current state in step 750. This means that the second OS 250 has the right to process the touch event. [060] If an external event related image (for example, incoming call notification image) is displayed, the first OS 220 sends to the second OS 250 a touch event processing withdrawal request message on the step 7 60. Here, the external event related image can be displayed in the security image or in an area where the security image is not displayed. The request message is sent to the second OS 250 via the OS 270 monitor. [061] Next, the first OS 220 receives the second OS 250 processing right transfer message. Here, the right transfer message [062] If the processing entitlement transfer message is received, the first OS 220 processes the ring event in step 780. [063] Figure 8 is a flowchart illustrating a touch event processing method according to another embodiment of the present invention. Initially, the first OS 220 determines whether execution of the first security application 210 is terminated at step S810. If execution is complete, this means that the first security application 210 has been unloaded from main memory unit 162. If so, the first OS 220 determines whether the second OS 250 has the touch event processing right in step 820. If so, the first OS 220 sends to the second OS 250 a withdrawal message from processing in step 830. Here, the request message is sent to the second OS 250 through the OS 270 monitor. Then the first OS 220 receives the processing rights transfer message from the second OS 250 at step 840. Here, the processing rights transfer message is sent to the first OS 220 via monitor 270. Does the first OS 220 then command? first set of triggers 230 for an interrupt and ring coordinates in response to the processing right transfer message. The ring event processing method described above in accordance with embodiments of the present invention may be implemented by means of computer executable program commands which are stored in a computer readable non-transient storage media. Computer readable storage media can store program commands, data files and data structures in individual or combined forms. Program commands recorded on storage media may be designed and implemented for various exemplary embodiments of the present invention or used by those skilled in the computer software field. Computer readable storage media includes magnetic media such as a floppy disk and magnetic tape, optical media including a Compact Disc (CD) ROM and a Digital Video Disc (DVD) ROM, a magneto-optical media such as a disc. optical device, and the hardware device designed to store and execute program commands such as ROM, RAM, and flash memory. Program commands include computer-executable language code using an interpreter as well as machine language code created by a compiler. The aforementioned hardware device may be implemented with one or more software modules to perform operations of the various exemplary embodiments of the present invention. [065] The touch event processing method and handheld device implementing it can be practiced with various modifications without departing from the spirit and scope of the present invention.