[go: up one dir, main page]

JP5495813B2 - Display control apparatus, display control method, program, and storage medium - Google Patents

Display control apparatus, display control method, program, and storage medium Download PDF

Info

Publication number
JP5495813B2
JP5495813B2 JP2010014327A JP2010014327A JP5495813B2 JP 5495813 B2 JP5495813 B2 JP 5495813B2 JP 2010014327 A JP2010014327 A JP 2010014327A JP 2010014327 A JP2010014327 A JP 2010014327A JP 5495813 B2 JP5495813 B2 JP 5495813B2
Authority
JP
Japan
Prior art keywords
touch
display
image
display control
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010014327A
Other languages
Japanese (ja)
Other versions
JP2011154455A (en
JP2011154455A5 (en
Inventor
亮 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010014327A priority Critical patent/JP5495813B2/en
Publication of JP2011154455A publication Critical patent/JP2011154455A/en
Publication of JP2011154455A5 publication Critical patent/JP2011154455A5/en
Application granted granted Critical
Publication of JP5495813B2 publication Critical patent/JP5495813B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチ入力(タッチ操作)に応じた表示を制御するための表示制御装置、表示制御方法、及びプログラム、並びに記憶媒体に関する。 The present invention relates to a display control device for controlling the display in accordance with the touch input (touch operation), display system personage method, and program, and a storage medium body.

近年、デジタル機器等において、タッチ操作に応じた表示を表示部(例えば、ディスプレイ装置)に行うものが知られている。このようなデジタル機器は、タッチ操作のためのタッチパネルを備えるとともに、タッチ操作に応じた表示制御を行うための表示制御装置を有している。   2. Description of the Related Art In recent years, digital devices and the like that display on a display unit (for example, a display device) according to a touch operation are known. Such a digital device includes a touch panel for touch operation and a display control device for performing display control according to the touch operation.

そして、タッチ操作に応じた表示制御を行うようにすれば、ユーザーは直感的な操作を行うことができる。ここでは、タッチパネルを有するディスプレイ装置をタッチパネルディスプレイ装置と呼ぶ。   If display control is performed according to the touch operation, the user can perform an intuitive operation. Here, a display device having a touch panel is referred to as a touch panel display device.

上記のデジタル機器においては、表示制御装置は、一般にタッチパネルディスプレイ装置の表示画面上に配置されたボタンアイコンをタッチ操作すると、ボタンアイコンに割り当てられた表示機能を実行する。   In the above digital device, the display control device executes a display function assigned to the button icon when a button icon generally arranged on the display screen of the touch panel display device is touch-operated.

一方、デジタル機器として、デジタルカメラ又はフォトビューワー等が知られているが、デジタルカメラ等においても、撮影した画像等を閲覧する際にタッチパネルディスプレイ装置が用いられている。そして、表示制御装置は、表示されたボタンアイコンをタッチ操作すると、現在表示されている画像を他の画像に切り替える所謂画像送り機能(表示機能の一種である)を有している。   On the other hand, a digital camera, a photo viewer, or the like is known as a digital device, but a touch panel display device is also used in a digital camera or the like when browsing a captured image or the like. The display control device has a so-called image feed function (a type of display function) that switches the currently displayed image to another image when the displayed button icon is touched.

例えば、表示制御装置において、表示されたボタンアイコンにタッチすると、ボタンアイコンの表示形態を一定時間変化させるようにしたものがある(例えば、特許文献1参照)。そして、特許文献1においては、ボタンアイコンの表示形態が変化している間に、もう一度そのボタンアイコンをタッチすると、さらに、ボタンアイコンの表示形態を変化させるようにしている。   For example, in a display control apparatus, when a displayed button icon is touched, the button icon display form is changed for a certain period of time (see, for example, Patent Document 1). And in patent document 1, if the button icon is touched again while the display mode of a button icon is changing, the display mode of a button icon will be changed further.

これによって、ボタンアイコンに対して複数回のタッチ操作を連続して行った場合に、ユーザーは表示制御装置が連続してタッチ操作を受け付けたことを知ることができるとしている。   Thus, when the touch operation is continuously performed a plurality of times on the button icon, the user can know that the display control device has continuously accepted the touch operation.

特開平7−160424号公報JP-A-7-160424

上述のように、特許文献1に記載の表示制御装置においては、画像閲覧中に画像送りのためのボタンアイコンを画面上に表示して、ユーザーがボタンアイコンをタッチ操作した場合に画像送りを実行している。   As described above, in the display control device described in Patent Document 1, a button icon for image forwarding is displayed on the screen during image browsing, and image forwarding is executed when the user touches the button icon. doing.

ところが、ディスプレイ装置上に表示されたボタンアイコンによって、不可避的にディスプレイ装置上に表示された画像が部分的に隠れてしまうことになる。この結果、ボタンアイコンによって画像の閲覧が妨げられてしまうという好ましくない事態が生じることになる。   However, the button icon displayed on the display device inevitably partially hides the image displayed on the display device. As a result, an unfavorable situation occurs in which browsing of images is hindered by the button icon.

このような不都合を回避するため、常時ボタンアイコンを表示することなく、画像の閲覧開始の際に、所定の時間、タッチ操作によって画像送り可能な領域(タッチ領域)をガイダンスとして表示することがある。そして、ユーザーが画像送り可能な領域をタッチ操作すると、画像送りが実行される。   In order to avoid such an inconvenience, an area (touch area) where an image can be fed by a touch operation for a predetermined time may be displayed as a guidance at the start of image browsing without always displaying a button icon. . Then, when the user performs a touch operation on a region where the image can be fed, the image feeding is executed.

しかしながら、このような画像送り手法では、所定時間が経過すると、タッチ操作によって画像送り可能な領域がどこであるか正確にはわからなくなってしまうという問題点がある。   However, such an image feeding method has a problem that when a predetermined time elapses, it is impossible to accurately know where an image can be fed by a touch operation.

特に、タッチ操作を続けることによって連続的に画像送りを行いたい場合には、タッチ操作をいずれの領域で受け付けているのかについて正確に分からないと、連続的な画像送りを行うことができない場合がある。つまり、タッチパネルをタッチする指の動きに起因して、無意識のうちに連続的な画像送りが終了してしまうことがあり、ユーザーが困惑する可能性がある。   In particular, if you want to continuously feed images by continuing touch operations, you may not be able to feed images continuously unless you know exactly which area the touch operation is accepted in. is there. That is, due to the movement of the finger touching the touch panel, the continuous image feed may end unconsciously, and the user may be confused.

このような問題点は、画像送り用のボタンアイコンに限らず、他の表示機能を実行するためのボタンアイコンについても同様に起こりうる。   Such a problem may occur not only for the button icon for image feed but also for the button icon for executing another display function.

加えて、デジタルカメラ等の小型デジタル機器においては、ディスプレイ装置は小型である。そして、小型のディスプレイ装置上で画像の閲覧を行う際には、ボタンアイコン等とは直接的に関係のない情報(画像)を表示すると、画像自体が極めて見づらくなってしまう。さらに、小型のディスプレイ装置上でタッチ操作すると、ボタンアイコン自体が極めて小さいので、いずれの操作を選択したか極めて分かりづらいという問題点もある。   In addition, in a small digital device such as a digital camera, the display device is small. When viewing an image on a small display device, if information (image) that is not directly related to a button icon or the like is displayed, the image itself becomes extremely difficult to see. In addition, when a touch operation is performed on a small display device, the button icon itself is extremely small, which makes it very difficult to understand which operation is selected.

そこで、本発明の目的は、ユーザーの画像閲覧を妨げることなく、タッチ操作を受け付けるタッチ領域を正確にユーザーに認識させることができる表示制御装置、表示制御方法、及びプログラム、並びに記憶媒体を提供することにある。 An object of the present invention, without the user of the image閲list and Samatageruko, Table示制control apparatus which can accurately recognize the user the data pitch region for accepting a touch operation, the display system personage method, and program , as well as a storage medium body.

上記の目的を達成するため、本発明の表示制御装置は、表示手段の表示画面上へのタッチを検出するタッチ検出手段と、前記表示画面に画像を表示させるように前記表示手段を制御する画像表示制御手段と、前記表示画面上の一部の領域である第1の領域へのタッチ操作に応じて前記表示画面に表示されている画像を切り替える第1の機能を実行するように制御する制御手段と、前記タッチ検出手段によって前記第1の領域へのタッチを検出したことに応じて前記表示画面に表示されている画像の上に前記第1の領域の範囲を示す第1の識別画像を表示させ、該第1の領域への前記タッチが検出されなくなったことに応じて前記第1の識別画像を表示させないように制御する表示制御手段とを有し、前記制御手段は、前記第1の領域へのタッチが所定時間以上継続した後で且つ前記第1の領域へのタッチが継続している間は、前記第1の機能を連続して実行するように制御し、前記第1の領域へのタッチが前記所定時間以上継続せずに離された場合は、前記タッチが離されたことに応じて前記第1の機能を1回実行するように制御することを特徴とする。 In order to achieve the above object, a display control apparatus according to the present invention includes a touch detection unit that detects a touch on a display screen of a display unit, and an image that controls the display unit to display an image on the display screen. Control for controlling to execute display control means and a first function for switching an image displayed on the display screen in response to a touch operation on a first area which is a partial area on the display screen And a first identification image indicating a range of the first area on the image displayed on the display screen in response to detection of a touch on the first area by the touch detection means. Display control means for controlling the display so that the first identification image is not displayed when the touch on the first area is no longer detected. The control means includes: Touch to the area Is continued for a predetermined time or longer and while the touch on the first area is continued, the first function is controlled to be executed continuously, and the touch on the first area is controlled. If released without continuing the predetermined time or more, it characterized that you control to run once the first function in response to the touch is released.

発明によれば、ユーザーの画像閲覧を妨げることなく、タッチ操作を受け付けるタッチ領域を正確にユーザーに認識させることができ According to the present invention, without interfering with the image browsing Yu Za, Ru can be a touch area for accepting a touch operation accurately recognize the user.

本発明の実施の形態による表示制御装置の一例を備えるデジタルカメラの一例を示すブロック図である。It is a block diagram which shows an example of a digital camera provided with an example of the display control apparatus by embodiment of this invention. 図1に示すデジタルカメラを再生モードで起動した場合の動作の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of an operation when the digital camera shown in FIG. 1 is activated in a playback mode. 図2に示す画像送りガイダンス表示を説明するための図である。It is a figure for demonstrating the image advance guidance display shown in FIG. 図2に示すシングル再生処理を説明するためのフローチャートである。3 is a flowchart for explaining a single reproduction process shown in FIG. 2. 図2に示すシングル再生処理を説明するためのフローチャートである。3 is a flowchart for explaining a single reproduction process shown in FIG. 2. 図1に示すデジタルカメラにおいて無入力の状態におけるディスプレイの表示画面を示す図である。It is a figure which shows the display screen of a display in the state of no input in the digital camera shown in FIG. 図4aに示す次画像送りガイダンス表示処理におけるディスプレイの表示画面を示す図である。It is a figure which shows the display screen of the display in the next image advance guidance display process shown to FIG. 4a. 図1に示すデジタルカメラにおいてディスプレイに表示されるボタン類の一例を示す図である。It is a figure which shows an example of the buttons displayed on a display in the digital camera shown in FIG.

以下、本発明の実施の形態による表示制御装置の一例について図面を参照して説明する。なお、この実施の形態では、デジタル機器として、表示制御装置を有するデジタルカメラを例に挙げて説明するが、デジタルカメラ以外のデジタル機器であっても、表示制御装置を備えていれば、同様にしてこの実施の形態を適用できるものである。   Hereinafter, an example of a display control apparatus according to an embodiment of the present invention will be described with reference to the drawings. In this embodiment, a digital camera having a display control device will be described as an example of a digital device. However, even if a digital device other than a digital camera is provided with a display control device, the same applies. This embodiment can be applied.

図1は、本発明の実施の形態による表示制御装置の一例を備えるデジタルカメラ100の一例を示すブロック図である。   FIG. 1 is a block diagram illustrating an example of a digital camera 100 including an example of a display control apparatus according to an embodiment of the present invention.

図1を参照して、図示のデジタルカメラ100は、CPU(中央演算装置)101を有している。さらに、デジタルカメラ100は、撮像部102、メモリ103、ディスプレイ装置(以下、単にディスプレイと呼ぶ)104、入力部105、記録媒体ドライブ106、ネットワークインターフェイス(I/F)107、及びセンサー112を備えている。そして、これら各構成要素は、内部バス111によって相互に接続されている。   Referring to FIG. 1, the illustrated digital camera 100 has a CPU (Central Processing Unit) 101. The digital camera 100 further includes an imaging unit 102, a memory 103, a display device (hereinafter simply referred to as a display) 104, an input unit 105, a recording medium drive 106, a network interface (I / F) 107, and a sensor 112. Yes. These components are connected to each other by an internal bus 111.

CPU101は、デジタルカメラ100の動作を制御する演算処理装置である。例えば、CPU101は、入力部105を介してユーザーからの指示受け付け、後述する各種プログラム(例えば、コンテンツ管理プログラム)を実行する。そして、CPU101は、ディスプレイ104の表示制御を行う。   The CPU 101 is an arithmetic processing device that controls the operation of the digital camera 100. For example, the CPU 101 receives an instruction from the user via the input unit 105 and executes various programs (for example, a content management program) described later. Then, the CPU 101 performs display control of the display 104.

このように、図示の例では、CPU101は、表示制御装置として機能する。なお、メモリ103は、CPU101のワークエリアとして使用される。   Thus, in the illustrated example, the CPU 101 functions as a display control device. The memory 103 is used as a work area for the CPU 101.

撮像部102は、例えば、CCD(Charge Coupled Device)等の撮像素子(図示せず)を備えており、撮像素子上に結像した光学像は、撮像素子で電気信号に変換される。そして、この電気信号は、撮像部102でデジタル信号に変換される(以下、このデジタル信号を撮像信号と呼ぶ)。   The imaging unit 102 includes an imaging element (not shown) such as a CCD (Charge Coupled Device), and an optical image formed on the imaging element is converted into an electrical signal by the imaging element. The electrical signal is converted into a digital signal by the imaging unit 102 (hereinafter, this digital signal is referred to as an imaging signal).

そして、CPU101は、記録媒体ドライブ106を介して外部記録媒体108に、撮像信号を画像データとして書き込む。   Then, the CPU 101 writes the imaging signal as image data on the external recording medium 108 via the recording medium drive 106.

ディスプレイ104は、後述するグラフィックユーザーインターフェースを表示するための表示部であり、このディスプレイ104上に後述する画像及び各種の表示アイテムが表示される。   The display 104 is a display unit for displaying a graphic user interface described later, and images and various display items described later are displayed on the display 104.

入力部105は、例えば、キーボード及びポインティングデバイスであるマウスを備えている。また、図示の例では、入力部105はタッチパネルを有しており、入力部105は入力デバイスとして用いられる。つまり、図示はしないが、入力部105であるタッチパネルは、ディスプレイ104の表示画面上に配置されている。そして、ユーザーは入力部105を操作することによって、コンテンツ管理プログラムを、CPU101上で実行することができる。   The input unit 105 includes a mouse that is a keyboard and a pointing device, for example. In the illustrated example, the input unit 105 has a touch panel, and the input unit 105 is used as an input device. That is, although not shown, the touch panel as the input unit 105 is arranged on the display screen of the display 104. Then, the user can execute the content management program on the CPU 101 by operating the input unit 105.

記録媒体ドライブ106には、外部記録媒体108が挿入される。外部記録媒体108は、例えば、CD−ROM、DVD−ROM、又はフラッシュメモリである。記録媒体ドライブ106は、外部記録媒体108に格納されているデータ(プログラムを含む)の読み出し、及び外部記録媒体108にデータの書き込みを行う。   An external recording medium 108 is inserted into the recording medium drive 106. The external recording medium 108 is, for example, a CD-ROM, DVD-ROM, or flash memory. The recording medium drive 106 reads data (including programs) stored in the external recording medium 108 and writes data to the external recording medium 108.

図示の例では、外部記録媒体108には、前述のようにして撮像部102で得られた画像データがデータとして記憶されるとともに、CPU101が実行する各種プログラムが記憶されているものとする。   In the illustrated example, it is assumed that the external recording medium 108 stores the image data obtained by the imaging unit 102 as described above as data and various programs executed by the CPU 101.

I/F107は、例えば、通信回線109を介してネットワーク110と接続される。そして、I/F107を介してネットワーク110上の各種情報がデータとしてデジタルカメラ100に取り込まれる。さらに、デジタルカメラ100内の画像データを含む各種データをI/F107を介してネットワーク110に送出することもできる。   The I / F 107 is connected to the network 110 via the communication line 109, for example. Various information on the network 110 is taken into the digital camera 100 as data via the I / F 107. Furthermore, various data including image data in the digital camera 100 can be transmitted to the network 110 via the I / F 107.

なお、CPU101はI/F107を介してネットワーク110上にあるプログラムを実行することが可能である。よって、ネットワーク110上のプログラムも、CPU101によって実行されるプログラムということができる。   Note that the CPU 101 can execute a program on the network 110 via the I / F 107. Therefore, the program on the network 110 can also be called a program executed by the CPU 101.

センサー112は、例えば、加速度センサーであり、センサー112によってデジタルカメラ100の姿勢が検出される。   The sensor 112 is an acceleration sensor, for example, and the attitude of the digital camera 100 is detected by the sensor 112.

ところで、入力部105がタッチパネルである場合、CPU101はタッチパネル上でのタッチ操作を検出する。例えば、CPU101は、タッチパネルを指又はペン等で触れたこと(以下、タッチダウンと呼ぶ)を検出する。また、CPU101は、タッチパネルを指又はペン等で触れている状態であること(以下、タッチオンと呼ぶ)を検出する。   When the input unit 105 is a touch panel, the CPU 101 detects a touch operation on the touch panel. For example, the CPU 101 detects that the touch panel is touched with a finger or a pen (hereinafter referred to as touchdown). Further, the CPU 101 detects that the touch panel is touched with a finger or a pen (hereinafter referred to as touch-on).

さらに、CPU101は、タッチパネルを指又はペン等で触れた状態で指等を移動していること(以下、ムーブと呼ぶ)を検出する。加えて、CPU101は、タッチパネルに触れていた指又はペン等を離したこと(以下、タッチアップと呼ぶ)を検出する。そして、CPU101は、タッチパネルに何も触れていない状態(以下、タッチオフと呼ぶ)を検出する。   Further, the CPU 101 detects that the finger or the like is moved while the touch panel is touched with a finger or a pen (hereinafter referred to as a move). In addition, the CPU 101 detects that a finger or pen that has been touching the touch panel has been released (hereinafter referred to as touch-up). Then, the CPU 101 detects a state where nothing is touched on the touch panel (hereinafter referred to as touch-off).

タッチパネル上のタッチ操作及びタッチ操作の位置(以下、位置座標と呼ぶ)が内部バス111を介してタッチ検出信号としてCPU101に通知される。CPU101は、タッチ検出信号に応じてタッチパネル上でどのようなタッチ操作が行なわれたかについて判定する。   The touch operation on the touch panel and the position of the touch operation (hereinafter referred to as position coordinates) are notified to the CPU 101 via the internal bus 111 as a touch detection signal. The CPU 101 determines what touch operation has been performed on the touch panel according to the touch detection signal.

タッチ検出信号は、上述のタッチダウン、タッチオン、ムーブ、タッチアップ、及びタッチオフのいずれかを表している。ムーブを例にとると、CPU101は、タッチ検出信号に応じて、タッチパネル上で指又はペン等が移動していると判定すると、ムーブであると判断することになる。そして、タッチパネル上における指等の移動方向についても、位置座標の変化に応じて、CPU101はタッチパネル上の垂直成分・水平成分毎に判定することができる。   The touch detection signal represents any one of the touch-down, touch-on, move, touch-up, and touch-off described above. Taking a move as an example, if the CPU 101 determines that a finger, a pen, or the like is moving on the touch panel in accordance with the touch detection signal, it determines that it is a move. The movement direction of the finger or the like on the touch panel can be determined for each vertical component / horizontal component on the touch panel according to the change in the position coordinates.

図示の例では、タッチパネル上においてタッチダウンから一定のムーブを経て、タッチアップした場合、これら一連のタッチ操作を、ストロークを描いたとする。そして、素早くストロークを描くタッチ操作をフリックと呼ぶにする。   In the illustrated example, it is assumed that when a touch-up is performed after a certain move from a touchdown on the touch panel, a series of these touch operations draws a stroke. A touch operation that draws a stroke quickly is called a flick.

このフリックは、タッチパネルに指等を触れたままの状態で、ある程度の距離だけ指等を素早く動かした後、タッチパネルから指等を離すタッチ操作である。つまり、フリックは、タッチパネル上を指等で弾くように素早くなぞるタッチ操作である。   This flick is a touch operation in which a finger or the like is quickly moved by a certain distance while the finger or the like is kept touching the touch panel, and then the finger or the like is released from the touch panel. That is, the flick is a touch operation that quickly traces as if the finger is played on the touch panel.

従って、CPU101は、タッチ検出信号に応じて、所定の距離以上、所定の速度以上でムーブしたことを検出した後、タッチアップを検出すると、フリックが行われたと判定することになる。   Therefore, the CPU 101 determines that a flick has been performed when it detects a touch-up after detecting that it has moved at a predetermined distance or more and a predetermined speed or more according to the touch detection signal.

また、CPU101は、所定距離以上、所定速度未満でムーブしたことを検出すると、ドラッグが行われたと判定する。   Further, when the CPU 101 detects that it has moved at a predetermined distance or more and less than a predetermined speed, it determines that a drag has been performed.

以下、図示の例では、デジタルカメラ100を再生モードで起動してタッチパネルをタッチ操作した場合に、画像送り可能となる領域(タッチ領域)を予めガイダンスとして所定時間表示した後、画像再生処理を行う場合について説明する。   Hereinafter, in the illustrated example, when the digital camera 100 is activated in the reproduction mode and the touch panel is touched, an area (touch area) in which an image can be sent is displayed in advance as guidance for a predetermined time, and then an image reproduction process is performed. The case will be described.

図2は、図1に示すデジタルカメラ100を再生モードで起動した場合の動作の一例を説明するためのフローチャートである。なお、ここでは、再生モードで起動するとは、例えば、デジタルカメラ100において撮影モードから再生モードへ切り替わった場合、又は電源オフから再生モードでデジタルカメラ100を立ち上げた場合等をいう。   FIG. 2 is a flowchart for explaining an example of the operation when the digital camera 100 shown in FIG. 1 is activated in the playback mode. Here, starting in the playback mode means, for example, when the digital camera 100 is switched from the shooting mode to the playback mode, or when the digital camera 100 is started up in the playback mode from the power-off.

以下の説明におけるCPU101の動作は、例えば、外部記録媒体に記憶されたプログラムをCPU101が実行することによって行われる。   The operation of the CPU 101 in the following description is performed, for example, when the CPU 101 executes a program stored in an external recording medium.

図1及び図2を参照して、デジタルカメラ100が再生モードで起動されると、CPU101は、デジタルカメラ100の設定において、ガイダンス設定がオン(「入り」)か否かを判定する(ステップS201)。ガイダンス設定がオンであると判定すると(ステップS201において、YES)、CPU101は、ディスプレイ104に画像送りを行うタッチ領域を、画像送りガイダンス(第2のガイダンス)として所定の時間だけ表示する(ステップS202:第2のガイダンス提示手段)。この所定の時間は、例えば5秒程度である。つまり、CPU101は、所定の時間だけ第2のガイダンス表示を実行する。   1 and 2, when the digital camera 100 is activated in the playback mode, the CPU 101 determines whether or not the guidance setting is on (“ON”) in the setting of the digital camera 100 (step S201). ). If it is determined that the guidance setting is on (YES in step S201), the CPU 101 displays a touch area for image feeding on the display 104 as an image feeding guidance (second guidance) for a predetermined time (step S202). : 2nd guidance presentation means). This predetermined time is, for example, about 5 seconds. That is, the CPU 101 executes the second guidance display for a predetermined time.

図3は、図2に示すステップS202における画像送りガイダンス表示を説明するための図である。図3に示すように、ディスプレイ104(図1)の画面300には、画像303の他に画面300の下側に、「起動しています」という文言が表示される。   FIG. 3 is a view for explaining the image feed guidance display in step S202 shown in FIG. As shown in FIG. 3, on the screen 300 of the display 104 (FIG. 1), in addition to the image 303, the word “being activated” is displayed on the lower side of the screen 300.

さらに、画面300の両側にはそれぞれ矩形で規定されたタッチ領域301及び302が表示される。タッチ領域301には図中右方向の矢印体301aがあり、タッチ領域302には図中左方向の矢印体302aが現れる。そして、矢印体301a及び302aの向きによって画像の送り方向が規定されている。   Further, touch areas 301 and 302 defined by rectangles are displayed on both sides of the screen 300, respectively. The touch area 301 has a right arrow body 301a in the figure, and the touch area 302 has a left arrow body 302a in the figure. Then, the image feeding direction is defined by the directions of the arrow bodies 301a and 302a.

図示の例では、ユーザーがタッチ領域301をタッチ操作すると、CPU101は次の画像に画像送りを行って、当該次の画像をディスプレイ104の表示画面に表示する。一方、ユーザーがタッチ領域302をタッチすると、CPU101は前の画像に画像送りを行って、当該前の画像を表示画面に表示する。   In the illustrated example, when the user performs a touch operation on the touch area 301, the CPU 101 sends an image to the next image and displays the next image on the display screen of the display 104. On the other hand, when the user touches the touch area 302, the CPU 101 feeds the image to the previous image and displays the previous image on the display screen.

再び図1及び図2を参照して、所定の時間だけ画像送りガイダンスを表示すると、CPU101は、後述する再生モードにおける処理(以下、シングル再生処理と呼ぶ)を実行する(ステップS203)。そして、シングル再生処理が終了すると、CPU101は処理を終了する。なお、ステップS201において、ガイダンス設定がオフであると、CPU101はステップS203に移行して、シングル再生処理を実行する。   Referring to FIGS. 1 and 2 again, when the image feed guidance is displayed for a predetermined time, CPU 101 executes a process in a playback mode (to be referred to as a single playback process hereinafter) (step S203). Then, when the single reproduction process ends, the CPU 101 ends the process. If the guidance setting is off in step S201, the CPU 101 proceeds to step S203 and executes single reproduction processing.

図4a及び図4bは、図2に示すシングル再生処理(ステップS203)を説明するためのフローチャートである。   4a and 4b are flowcharts for explaining the single reproduction process (step S203) shown in FIG.

また、図5は、図1に示すデジタルカメラ100において無入力の状態におけるディスプレイ104の表示画面を示す図である。   FIG. 5 is a diagram showing a display screen of the display 104 in the no-input state in the digital camera 100 shown in FIG.

ここでは、再生モードにおける起動後、無入力の状態からタッチ操作によって画像がディスプレイ104に表示されるまでの動作について説明する。なお、ここで、無入力の状態とは、図5に示すように、ディスプレイ104の画面500に外部記録媒体108に格納されている画像データのみが画像501として表示されている状態をいう。   Here, the operation from the start in the reproduction mode until the image is displayed on the display 104 by a touch operation will be described. Here, the no-input state means a state in which only image data stored in the external recording medium 108 is displayed as an image 501 on the screen 500 of the display 104 as shown in FIG.

図1、図4a、及び図4bを参照して、シングル再生処理においては、まず、CPU101は、入力部105からの入力イベント(ユーザー指示)を監視する(イベント監視:ステップS401)。ここで、入力イベントとは、前述したタッチアップ、タッチダウン、及びドラッグ等が挙げられ、さらに、入力部105からのタッチ操作以外の操作イベントなどを挙げることができる。   Referring to FIGS. 1, 4a, and 4b, in the single reproduction process, first, the CPU 101 monitors an input event (user instruction) from the input unit 105 (event monitoring: step S401). Here, the input event includes the touch-up, touch-down, dragging, and the like described above, and further includes an operation event other than the touch operation from the input unit 105.

入力イベントが発生すると、CPU101は、当該入力イベントがタッチダウン(タッチダウンイベント)であるか否かを判定する(ステップS402)。入力イベントがタッチダウンイベントであると(ステップS402において、YES)、CPU101はタッチダウンした際の座標Pをメモリ103に保持する(ステップS403)。   When an input event occurs, the CPU 101 determines whether or not the input event is a touchdown (touchdown event) (step S402). If the input event is a touch-down event (YES in step S402), the CPU 101 holds the coordinates P at the time of touch-down in the memory 103 (step S403).

その後、CPU101は、外部記録媒体108に格納されている再生対象画像データが複数存在するか否かを判定する(ステップS404)。再生対象画像データが複数存在すると(ステップS404において、YES)、CPU101は上記の座標Pが次方向に画像送りさせるためのタッチ領域、つまり、タッチ領域301の内にあるか否かについて判定をする(ステップS405)。   Thereafter, the CPU 101 determines whether or not there are a plurality of reproduction target image data stored in the external recording medium 108 (step S404). If there are a plurality of reproduction target image data (YES in step S404), the CPU 101 determines whether or not the coordinate P is within the touch area for moving the image in the next direction, that is, the touch area 301. (Step S405).

座標Pがタッチ領域301の内にあると(ステップS405において、YES)、つまり、次画像送り領域の内にあると、CPU101は、次画像送りガイダンス表示処理を行う(ステップS406:第1のガイダンス提示手段)。つまり、CPU101は第1のガイダンス表示を実行する。   If the coordinate P is within the touch area 301 (YES in step S405), that is, if it is within the next image feed area, the CPU 101 performs a next image feed guidance display process (step S406: first guidance). Presentation means). That is, the CPU 101 executes the first guidance display.

図6は、図4aに示す次画像送りガイダンス表示処理におけるディスプレイ104の表示画面を示す図である。   FIG. 6 is a diagram showing a display screen of the display 104 in the next image feed guidance display process shown in FIG. 4A.

図6に示すように、次画像送りガイダンス表示処理においては、CPU101は右側に位置するタッチ領域(図6においては、タッチ領域は符号601で示されている)のみをディスプレイ104の画面600に表示する。つまり、CPU101は左側に位置していたタッチ領域は表示さない。ここでは、タッチ領域601が特定領域である。   As shown in FIG. 6, in the next image feed guidance display processing, the CPU 101 displays only the touch area located on the right side (in FIG. 6, the touch area is indicated by reference numeral 601) on the screen 600 of the display 104. To do. That is, the CPU 101 does not display the touch area located on the left side. Here, the touch area 601 is a specific area.

このようにして、CPU101は、タッチ操作と関連するタッチ領域601(特定領域)のみを、ガイダンス(第1のガイダンス)として画面600に表示する。つまり、CPU101は、タッチ領域601を特定領域として、識別可能な状態において表示することになる。これによって、ユーザーはこの後どのような処理がされるのか予測することが可能となる。   In this way, the CPU 101 displays only the touch area 601 (specific area) related to the touch operation on the screen 600 as guidance (first guidance). That is, the CPU 101 displays the touch area 601 as a specific area in an identifiable state. This allows the user to predict what processing will be performed thereafter.

また、ステップS404において再生対象画像データが複数ある場合にのみ、図6に示すガイダンスを表示するようにしたので、ユーザーは複数の再生対象画像データが存在する場合にのみ次画像送りを行うことができると認識(識別)することができる。   Further, since the guidance shown in FIG. 6 is displayed only when there are a plurality of reproduction target image data in step S404, the user can perform the next image feed only when there are a plurality of reproduction target image data. Can be recognized (identified).

例えば、ユーザーは、外部記録媒体108に格納されている画像データの合計数を確認しなくても、図6に示す画面600において画像データが複数存在するか否かを認識することができることになる。   For example, the user can recognize whether or not there are a plurality of image data on the screen 600 shown in FIG. 6 without checking the total number of image data stored in the external recording medium 108. .

なお、図5に示すように、前述の第1のガイダンス表示が行われる前には、ディスプレイ104の表示画面のうち特定の領域を含む領域に画像が表示されている。そして、図6に示すように、CPU101は、この表示画面に表示されていた画像に重畳してタッチ領域601、つまり、特定領域を表示する。   As shown in FIG. 5, before the first guidance display described above is performed, an image is displayed in an area including a specific area in the display screen of the display 104. Then, as shown in FIG. 6, the CPU 101 displays a touch area 601, that is, a specific area, superimposed on the image displayed on the display screen.

再び図1、図4a、及び図4bを参照して、続いて、CPU101はタッチダウンイベントの後、所定の時間(予め規定された時間)が経過したか否かを判定する(ステップS407:表示制御手段)。所定の時間経過すると(ステップS407において、YES)、CPU101は次方向において画像送り処理(次画像送り処理)を開始する(ステップS408:表示制御手段)。   Referring to FIGS. 1, 4a, and 4b again, subsequently, the CPU 101 determines whether or not a predetermined time (predetermined time) has elapsed after the touchdown event (step S407: display). Control means). When the predetermined time has elapsed (YES in step S407), the CPU 101 starts image feed processing (next image feed processing) in the next direction (step S408: display control means).

次画像送り処理が開始されると、CPU101は画像送り終了の指示があるまで所定の時間経過後、一定時間おきに画像データを画像として1枚ずつ連続的に再生する。   When the next image feed process is started, the CPU 101 continuously reproduces image data one by one as an image at regular intervals after a predetermined time has elapsed until an instruction to end image feed is received.

そして、CPU101は、再度入力イベントの監視を行う(ステップS409)。なお、ステップS407において、所定の時間が経過していないと(ステップS407において、NO)、CPU101はステップS409に移行し、入力イベントの監視を行う。   Then, the CPU 101 monitors the input event again (step S409). If the predetermined time has not elapsed in step S407 (NO in step S407), the CPU 101 proceeds to step S409 and monitors the input event.

入力イベントがあると、CPU101は当該入力イベントがタッチアップイベントであるか否かを判定する(ステップS410)。つまり、CPU101はタッチ操作(タッチ入力)が解除されたか否かを判定することになる。   If there is an input event, the CPU 101 determines whether or not the input event is a touch-up event (step S410). That is, the CPU 101 determines whether or not the touch operation (touch input) has been canceled.

入力イベントがタッチアップイベントでないと(ステップS410において、NO)、CPU101は入力イベントがドラッグイベントであるか否かを判定する(ステップS411)。   If the input event is not a touch-up event (NO in step S410), CPU 101 determines whether or not the input event is a drag event (step S411).

そして、入力イベントがドラッグイベントであると(ステップS411において、YES)CPU101は、入力イベントが図6に示すタッチ領域601の内におけるムーブであるか否かについて判定をする(ステップS412)。つまり、CPU101は、入力イベントが次画像領域の内におけるムーブ(移動)であるか否かについて判定することになる。   If the input event is a drag event (YES in step S411), CPU 101 determines whether or not the input event is a move in touch area 601 shown in FIG. 6 (step S412). That is, the CPU 101 determines whether or not the input event is a move within the next image area.

入力イベントがタッチ領域601の内におけるムーブであると(ステップS412において、YES)、CPU101はステップS407に戻って、処理を続行する。一方、入力イベントがタッチ領域601の内におけるムーブでないと(ステップS412において、NO)、CPU101は次画像送り処理を停止する(ステップS413)。そして、CPU101は次画像送りガイダンスを非表示とする(ステップS414)。   If the input event is a move in touch area 601 (YES in step S412), CPU 101 returns to step S407 and continues the process. On the other hand, if the input event is not a move in the touch area 601 (NO in step S412), the CPU 101 stops the next image feed process (step S413). Then, the CPU 101 hides the next image feed guidance (step S414).

その後、CPU101はシングル再生処理を終了するか否かについて判定する(ステップS415)。シングル再生処理を終了すると判定すると(ステップS415において、YES)、CPU101はシングル再生処理を終了する。一方、シングル再生処理を終了しないと判定すると(ステップS415において、NO)、CPU101はステップS401に戻って、入力イベントの監視を続ける。   Thereafter, the CPU 101 determines whether or not to end the single reproduction process (step S415). If it is determined that the single reproduction process is to be ended (YES in step S415), CPU 101 ends the single reproduction process. On the other hand, if it is determined not to end the single reproduction process (NO in step S415), CPU 101 returns to step S401 and continues to monitor the input event.

ステップS411において、入力イベントがドラッグイベントでないと(ステップS411において、NO)、CPU101はステップS413に移行して、次画像送り処理を停止する。   If the input event is not a drag event in step S411 (NO in step S411), the CPU 101 proceeds to step S413 and stops the next image feed process.

また、ステップS410において、入力イベントがタッチアップイベントであると(ステップS410において、YES)、CPU101は少なくとも1枚画像送りがあったか否かについて判定をする(ステップS416)。つまり、CPU101はタッチダウンイベントを受けてからタッチアップイベントを受けるまでの間に、少なくとも1枚画像送りがあったか否かについて判定をすることになる。   In step S410, if the input event is a touch-up event (YES in step S410), CPU 101 determines whether or not at least one image has been fed (step S416). That is, the CPU 101 determines whether or not at least one image has been fed between the time when the touchdown event is received and the time when the touchup event is received.

画像送りが全くないと(ステップS416において、NO)、CPU101は次方向に1枚だけ画像送りを行う(ステップS417)。つまり、CPU101は画像送りを少なくとも一回行う。そして、CPU101はステップS413に移行して、次画像送り処理を停止する。   If there is no image feed (NO in step S416), CPU 101 feeds only one image in the next direction (step S417). That is, the CPU 101 performs image feeding at least once. Then, the CPU 101 proceeds to step S413 and stops the next image feeding process.

タッチダウンイベントと判定した後、次画像送り処理を開始したにも拘わらず、所定の時間の内にタッチアップイベントがあった場合に1枚も画像送りがされないというのは不自然である。従って、ここでは、タッチダウンイベント後1枚も画像送りされていない場合には、1枚だけ画像送りを行って画像送りの操作性を向上させるようにしている。   It is unnatural that no image is forwarded when a touch-up event occurs within a predetermined time despite the start of the next image forwarding process after the touchdown event is determined. Therefore, here, when no image is fed after the touchdown event, only one image is fed to improve the operability of image feeding.

一方、少なくとも1枚の画像送りがあると(ステップS416において、YES)、CPU101はステップS413に移行して、次画像送り処理を停止する。   On the other hand, if there is at least one image feed (YES in step S416), CPU 101 proceeds to step S413 and stops the next image feed process.

前述のステップS405において、座標Pが図3に示すタッチ領域301の内にないと(ステップS405において、NO)、つまり、次画像送り領域の内にないと、CPU101は、座標Pが図3に示すタッチ領域302の内にあるか否かを判定する(ステップS418)。つまり、CPU101は座標Pが前方向に画像送りさせるためのタッチ領域(前画像送り領域)302の内にあるか否かを判定することになる。   In step S405 described above, if the coordinate P is not within the touch area 301 shown in FIG. 3 (NO in step S405), that is, if it is not within the next image feed area, the CPU 101 determines that the coordinate P is in FIG. It is determined whether or not it is within the touch area 302 shown (step S418). That is, the CPU 101 determines whether or not the coordinate P is within the touch area (previous image feed area) 302 for moving the image forward.

座標Pがタッチ領域302の内にあると(ステップS418において、YES)、つまり、前画像送り領域の内にあると、CPU101は、前画像送りガイダンス表示処理を行う(ステップS419)。   If the coordinate P is within the touch area 302 (YES in step S418), that is, if it is within the previous image feed area, the CPU 101 performs a previous image feed guidance display process (step S419).

この前画像送りガイダンス表示処理では、図6で説明した次画像送りガイダンス表示処理と同様にして、CPU101は左側に位置するタッチ領域302のみをディスプレイ104の画面に表示する。つまり、CPU101は右側に位置していたタッチ領域301は表示さない。ここでは、タッチ領域302が特定領域である。   In the previous image advance guidance display process, the CPU 101 displays only the touch area 302 located on the left side on the screen of the display 104 in the same manner as the next image advance guidance display process described with reference to FIG. That is, the CPU 101 does not display the touch area 301 located on the right side. Here, the touch area 302 is a specific area.

このようにして、CPU101は、タッチ操作と関連するタッチ領域302のみを、前画像送りガイダンスとしてディスプレイ104に画面表示する。この場合、前画像送りガイダンスが第1のガイダンスであり、CPU101は第1のガイダンス表示を実行することになる。   In this way, the CPU 101 displays only the touch area 302 related to the touch operation on the display 104 as the previous image feed guidance. In this case, the previous image feed guidance is the first guidance, and the CPU 101 executes the first guidance display.

続いて、CPU101はタッチダウンイベントの後、所定の時間が経過したか否かを判定する(ステップS420)。所定の時間経過すると(ステップS420において、YES)、CPU101は前方向において画像送り処理(前画像送り処理)を開始する(ステップS421)。   Subsequently, the CPU 101 determines whether or not a predetermined time has elapsed after the touchdown event (step S420). When a predetermined time has elapsed (YES in step S420), CPU 101 starts image feed processing (previous image feed processing) in the forward direction (step S421).

前画像送り処理が開始されると、CPU101は画像送り終了の指示があるまで所定の時間経過後、一定時間おきに画像データを画像として1枚ずつ連続的に再生する。   When the previous image feed process is started, the CPU 101 continuously reproduces image data one by one as an image at regular intervals after a predetermined time has elapsed until an instruction to end image feed is given.

そして、CPU101は、再度入力イベントの監視を行う(ステップS422)。なお、ステップS420において、所定の時間が経過していないと(ステップS420において、NO)、CPU101はステップS422に移行し、入力イベントの監視を行う。   Then, the CPU 101 monitors the input event again (step S422). If the predetermined time has not elapsed in step S420 (NO in step S420), the CPU 101 proceeds to step S422 and monitors the input event.

入力イベントがあると、CPU101は当該入力イベントがタッチアップイベントであるか否かを判定する(ステップS423)。入力イベントがタッチアップイベントでないと(ステップS423において、NO)、CPU101は入力イベントがドラッグイベントであるか否かを判定する(ステップS424)。   If there is an input event, the CPU 101 determines whether or not the input event is a touch-up event (step S423). If the input event is not a touch-up event (NO in step S423), CPU 101 determines whether or not the input event is a drag event (step S424).

そして、入力イベントがドラッグイベントであると(ステップS424において、YES)、CPU101は、入力イベントが図3に示すタッチ領域302の内におけるムーブ(移動)であるか否かについて判定をする(ステップS425)。つまり、CPU101は、入力イベントが前画像領域の内におけるムーブであるか否かについて判定することになる。   If the input event is a drag event (YES in step S424), CPU 101 determines whether or not the input event is a move (movement) in touch area 302 shown in FIG. 3 (step S425). ). That is, the CPU 101 determines whether or not the input event is a move in the previous image area.

入力イベントがタッチ領域302の内におけるムーブであると(ステップS425において、YES)、CPU101はステップS420に戻って、処理を続行する。一方、入力イベントがタッチ領域302の内におけるムーブでないと(ステップS425において、NO)、CPU101は前画像送り処理を停止する(ステップS426)。そして、CPU101は前画像送りガイダンスを非表示とする(ステップS427)。   If the input event is a move in touch area 302 (YES in step S425), CPU 101 returns to step S420 and continues processing. On the other hand, if the input event is not a move in the touch area 302 (NO in step S425), the CPU 101 stops the previous image feed process (step S426). Then, the CPU 101 hides the previous image feed guidance (step S427).

その後、CPU101は、ステップS415に移行して、シングル再生処理を終了するか否かについて判定する。   Thereafter, the CPU 101 proceeds to step S415 to determine whether or not to end the single reproduction process.

ステップS424において、入力イベントがドラッグイベントでないと(ステップS424において、NO)、CPU101はステップS426に移行して、前画像送り処理を停止する。   If the input event is not a drag event in step S424 (NO in step S424), the CPU 101 proceeds to step S426 and stops the previous image feed process.

また、ステップS423において、入力イベントがタッチアップイベントであると(ステップS423において、YES)、CPU101は少なくとも1枚画像送りがあったか否かについて判定をする(ステップS428)。つまり、CPU101はタッチダウンイベントを受けてからタッチアップイベントを受けるまでの間に、少なくとも1枚画像送りがあったか否かについて判定をすることになる。   In step S423, if the input event is a touch-up event (YES in step S423), the CPU 101 determines whether at least one image has been fed (step S428). That is, the CPU 101 determines whether or not at least one image has been fed between the time when the touchdown event is received and the time when the touchup event is received.

画像送りが全くないと(ステップS428において、NO)、CPU101は前方向に1枚だけ画像送りを行う(ステップS429)。そして、CPU101はステップS426に移行して、前画像送り処理を停止する。   If there is no image feed (NO in step S428), CPU 101 feeds only one image forward (step S429). Then, the CPU 101 proceeds to step S426 and stops the previous image feed process.

一方、少なくとも1枚の画像送りがあると(ステップS428において、YES)、CPU101はステップS426に移行して、前画像送り処理を停止する。   On the other hand, if there is at least one image feed (YES in step S428), CPU 101 proceeds to step S426 and stops the previous image feed process.

ところで、前述のステップS402において、入力イベントがタッチダウンイベントでないと(ステップS402において、NO)、CPU101は、入力イベントがタッチ領域のタッチ以外の他の入力であるか否かを判定する(ステップS430)。つまり、CPU101は、入力イベントがタッチ関連以外のイベントであるか否かを判定することになる。   By the way, if the input event is not a touch-down event in the above-described step S402 (NO in step S402), the CPU 101 determines whether the input event is an input other than touch in the touch area (step S430). ). That is, the CPU 101 determines whether or not the input event is an event other than touch-related events.

入力イベントがタッチ関連以外のイベントであると(ステップS430において、YES)、CPU101は、当該入力イベントに応じた処理を行う(その他の処理:ステップS431)。ステップS431においては、タッチパネル以外の入力部105からの入力イベント又はタッチした座標Pが図3に示す領域301及び302の領域外におけるタッチダウンに対する処理が行われる。   If the input event is an event other than touch-related (YES in step S430), CPU 101 performs processing according to the input event (other processing: step S431). In step S431, a process is performed for a touchdown when the input event from the input unit 105 other than the touch panel or the touched coordinate P is outside the areas 301 and 302 shown in FIG.

例えば、ディスプレイ104の中央をタッチした場合には、CPU101はディスプレイ104に表示された画像の拡大処理を行う。また、タッチパネル以外の入力部105からの入力イベントである場合には、CPU101はディスプレイ104に表示された画面をサムネイル画面に遷移させる。   For example, when the center of the display 104 is touched, the CPU 101 performs an enlargement process on the image displayed on the display 104. In the case of an input event from the input unit 105 other than the touch panel, the CPU 101 changes the screen displayed on the display 104 to a thumbnail screen.

入力イベントがタッチ関連以外のイベントでないと(ステップS430において、NO)、CPU101は、ステップS415に移行して、シングル再生処理を終了するか否かについて判定する。   If the input event is not an event other than touch-related (NO in step S430), CPU 101 proceeds to step S415 and determines whether or not to end the single reproduction process.

なお、ステップS404において、再生対象画像データが複数存在しないと(ステップS404において、NO)、CPU101は上記のステップS431に移行して、前述の処理を行う。   If there is not a plurality of reproduction target image data in step S404 (NO in step S404), the CPU 101 proceeds to step S431 and performs the above-described processing.

また、ステップS418において、上記の座標Pがタッチ領域302の内にないと(ステップS418において、NO)、つまり、前画像送り領域の内にないと、CPU101は、ステップS431に移行して、前述の処理を行う。   In step S418, if the coordinate P is not in the touch area 302 (NO in step S418), that is, if it is not in the previous image feed area, the CPU 101 proceeds to step S431, and the above-described processing is performed. Perform the process.

上述したように、シングル再生処理の際に、CPU101は、ステップS407〜S414とステップS416及びS417の処理を行っている。従って、例えば、図3に示すタッチ領域301又は302の内でタッチダウンを行い、タッチオンの状態でタッチ領域301又は302の外へドラッグして他の処理をさせたい場合、CPU101がステップS407〜S414とステップS416及びS417の処理を選択的に行うことになる。これによって、CPU101は画像送り処理を行うことなく、他の処理を優先させることになる。   As described above, during the single reproduction process, the CPU 101 performs the processes of steps S407 to S414 and steps S416 and S417. Therefore, for example, when a touchdown is performed in the touch area 301 or 302 shown in FIG. 3 and dragging outside the touch area 301 or 302 in the touch-on state to perform other processing, the CPU 101 performs steps S407 to S414. The processes in steps S416 and S417 are selectively performed. As a result, the CPU 101 prioritizes other processes without performing the image feed process.

例えば、タッチダウン後タッチオン状態のまま図3において左方向へフリックすると、CPU101はサムネイル画像一覧を表示する表示処理を行うとする。この場合には、ダッチダウンの位置がタッチ領域301又は302の内であると、サムネイル画像一覧表示処理ではなく、次方向の画像送り処理が行われてしまうことになる。このような処理はユーザーの意思と反する処理であり、このような処理をさけるため、上記のステップS407〜S414とステップS416及びS417の処理が選択的に行われて、ユーザー操作を快適にするようにしている。   For example, assume that the CPU 101 performs a display process for displaying a thumbnail image list when flicking leftward in FIG. In this case, if the position of the dutch down is within the touch area 301 or 302, not the thumbnail image list display process but the image feed process in the next direction will be performed. Such a process is contrary to the user's intention, and in order to avoid such a process, the processes in steps S407 to S414 and steps S416 and S417 are selectively performed to make the user operation comfortable. I have to.

図7は、図1に示すデジタルカメラ100においてディスプレイ104に表示されるボタン類の一例を示す図である。   FIG. 7 is a diagram showing an example of buttons displayed on the display 104 in the digital camera 100 shown in FIG.

例えば、図6に示すタッチ領域601のみを表示する際には、タッチ領域601の表示に代えて、CPU101は、図7に示すように、ディスプレイ104の画面700にMUNU(メニュー)領域701、FUNC(機能)領域702、及びDISP(表示)領域703を表示するようにしてもよい。このように、ディスプレイ104の画面700にMUNU領域701、FUNC領域702、及びDISP領域703を表示するようにすれば、ユーザーは視覚的に容易に操作を認識、つまり、識別することができる。   For example, when only the touch area 601 shown in FIG. 6 is displayed, instead of displaying the touch area 601, the CPU 101 displays a MUNU (menu) area 701, FUNC on the screen 700 of the display 104 as shown in FIG. A (function) area 702 and a DISP (display) area 703 may be displayed. As described above, when the MUNU area 701, the FUNC area 702, and the DISP area 703 are displayed on the screen 700 of the display 104, the user can easily visually recognize, that is, identify the operation.

上述の説明から明らかなように、ディスプレイ104の表示画面に表示されるタッチ領域は、予め定められた表示機能の実行を規定し、互いにその規定する表示機能が異なることになる。また、CPU101は、第1のガイダンス表示を行う第1のガイダンス提示手段として機能するとともに、第2のガイダンス表示を行う第2のガイダンス提示手段として機能する。さらに、CPU101は表示制御手段としても機能することなる。   As is clear from the above description, the touch area displayed on the display screen of the display 104 defines the execution of a predetermined display function, and the display functions defined by each other are different. Further, the CPU 101 functions as a first guidance presentation unit that performs a first guidance display, and also functions as a second guidance presentation unit that performs a second guidance display. Furthermore, the CPU 101 also functions as a display control unit.

このようにして、本発明の実施の形態による表示制御装置では、事前にユーザーに画像送りの有効範囲を知らせるようにしたので、画像閲覧時に余計な情報を表示することなく画像送りを行うことができる。さらに、タッチ操作の際においてもタッチ領域に応じた処理が視覚的に分かるので、ユーザーは確実に操作を行うことができる。   In this way, in the display control apparatus according to the embodiment of the present invention, the user is informed of the effective range of image advance in advance, so that image advancement can be performed without displaying extra information during image viewing. it can. Furthermore, since the processing corresponding to the touch area can be visually recognized even during the touch operation, the user can reliably perform the operation.

以上、本発明について実施の形態に基づいて説明したが、本発明はこれらの実施の形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。そして、上述の実施の形態の一部を適宜組み合わせてもよい。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. And you may combine a part of above-mentioned embodiment suitably.

また、上述の表示制御装置が有する機能を、表示制御方法として構成してもよく、この際には、表示制御方法は、ガイダンス提示ステップ及び表示制御ステップを有することになる。   Moreover, you may comprise the function which the above-mentioned display control apparatus has as a display control method, and in this case, a display control method has a guidance presentation step and a display control step.

さらに、上述の実施の形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、又は有線/無線通信を用いて、プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含まれる。このプログラムは、例えば、表示制御プログラムと呼ばれる。   Furthermore, a software program that realizes the functions of the above-described embodiments is supplied from a recording medium directly or using wired / wireless communication to a system or apparatus having a computer that can execute the program, and the program is executed. Such cases are also included in the present invention. This program is called, for example, a display control program.

従って、本発明の機能処理をコンピュータで実現するために、コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。   Accordingly, the program code itself supplied and installed in the computer in order to realize the functional processing of the present invention by the computer also realizes the present invention. That is, the computer program itself for realizing the functional processing of the present invention is also included in the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。   In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.

プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、クライアントコンピュータがコンピュータプログラムをダウンロードするようにしてもよい。   As a recording medium for supplying the program, for example, a magnetic recording medium such as a hard disk or a magnetic tape, an optical / magneto-optical storage medium, or a nonvolatile semiconductor memory may be used. As a program supply method, a computer program forming the present invention may be stored in a server on a computer network, and a client computer may download the computer program.

また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、この例に限定されない。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置に設けられた印刷画像選択および確認のためのディスプレイ、デジタルフォトフレームなど、タッチパネルを用い、画像を閲覧可能な表示制御装置であれば適用可能である。   In the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example. However, the present invention is not limited to this example. That is, the present invention can browse images using a touch panel such as a personal computer, a PDA, a mobile phone terminal, a portable image viewer, a display for selecting and confirming a print image provided in a printer, and a digital photo frame. Any display control device can be applied.

101 CPU(中央演算装置)
102 撮像部
103 メモリ
104 ディスプレイ
105 入力部
106 記録媒体ドライブ
107 ネットワークインターフェイス(I/F)
108 外部記録媒体
112 センサー
101 CPU (Central Processing Unit)
DESCRIPTION OF SYMBOLS 102 Image pick-up part 103 Memory 104 Display 105 Input part 106 Recording medium drive 107 Network interface (I / F)
108 External recording medium 112 Sensor

Claims (15)

表示手段の表示画面上へのタッチを検出するタッチ検出手段と、
前記表示画面に画像を表示させるように前記表示手段を制御する画像表示制御手段と、
前記表示画面上の一部の領域である第1の領域へのタッチ操作に応じて前記表示画面に表示されている画像を切り替える第1の機能を実行するように制御する制御手段と、
前記タッチ検出手段によって前記第1の領域へのタッチを検出したことに応じて前記表示画面に表示されている画像の上に前記第1の領域の範囲を示す第1の識別画像を表示させ、該第1の領域への前記タッチが検出されなくなったことに応じて前記第1の識別画像を表示させないように制御する表示制御手段とを有し、
前記制御手段は、前記第1の領域へのタッチが所定時間以上継続した後で且つ前記第1の領域へのタッチが継続している間は、前記第1の機能を連続して実行するように制御し、前記第1の領域へのタッチが前記所定時間以上継続せずに離された場合は、前記タッチが離されたことに応じて前記第1の機能を1回実行するように制御することを特徴とする表示制御装置。
Touch detection means for detecting a touch on the display screen of the display means;
Image display control means for controlling the display means to display an image on the display screen;
Control means for controlling to execute a first function for switching an image displayed on the display screen in response to a touch operation on a first area which is a partial area on the display screen;
Displaying a first identification image indicating a range of the first area on an image displayed on the display screen in response to detecting a touch on the first area by the touch detection unit; Display control means for controlling the first identification image not to be displayed in response to the touch to the first region being no longer detected ,
The control means continuously executes the first function after the touch on the first area continues for a predetermined time or longer and while the touch on the first area continues. When the touch on the first area is released without continuing for the predetermined time or longer, the first function is executed once in response to the release of the touch. A display control device.
前記制御手段は、前記表示画面上の一部の領域である第2の領域へのタッチ操作に応じて前記表示画面に表示されている画像を切り替える第2の機能を実行するように制御し、
前記表示制御手段は、前記タッチ検出手段によって前記第2の領域へのタッチを検出したことに応じて前記表示画面に表示されている画像の上に前記第2の領域の範囲を示す第2の識別画像を表示させ、該第2の領域への前記タッチが検出されなくなったことに応じて前記第2の識別画像を表示させないように制御することを特徴とする請求項1に記載の表示制御装置。
The control means controls to execute a second function of switching an image displayed on the display screen in response to a touch operation on a second area which is a partial area on the display screen,
The display control means includes a second area indicating a range of the second area on the image displayed on the display screen in response to detection of a touch on the second area by the touch detection means. 2. The display control according to claim 1, wherein an identification image is displayed, and control is performed so that the second identification image is not displayed in response to the detection of the touch on the second region. apparatus.
前記表示制御手段は、画像を表示する特定の動作モードに移行したことに応じて、前記第1の識別画像及び前記第2の識別画像の双方を表示するように制御し、特定の条件が満たされると前記第1の識別画像及び前記第2の識別画像を表示させないように制御することを特徴とする請求項2に記載の表示制御装置。   The display control means controls to display both the first identification image and the second identification image in response to transition to a specific operation mode for displaying an image, and a specific condition is satisfied. 3. The display control apparatus according to claim 2, wherein control is performed so that the first identification image and the second identification image are not displayed when the first identification image and the second identification image are displayed. 前記特定の条件は前記第1の識別画像及び前記第2の識別画像の双方を表示してから一定時間が経過することであることを特徴とする請求項3に記載の表示制御装置。   The display control apparatus according to claim 3, wherein the specific condition is that a predetermined time elapses after displaying both the first identification image and the second identification image. 前記表示制御手段は、前記第1の識別画像を表示させる際、前記第1の機能の内容を表す画像も表示させるように制御することを特徴とする請求項1乃至4の何れか1項に記載の表示制御装置。   5. The display control unit according to claim 1, wherein when the first identification image is displayed, the display control unit controls to display an image representing the content of the first function. The display control apparatus described. 前記表示制御手段は、前記第1の機能が実行できない場合には、前記タッチ検出手段で前記第1の領域へのタッチを検出しても前記第1の識別画像を表示させないように制御することを特徴とする請求項1乃至5の何れか1項に記載の表示制御装置。   When the first function cannot be executed, the display control unit performs control so that the first identification image is not displayed even when the touch detection unit detects a touch on the first region. The display control apparatus according to claim 1, wherein: 前記制御手段は、前記第1の領域へのタッチが所定時間以上継続した場合は、該第1の領域へのタッチが継続している間、一定時間おきに前記第1の機能を実行するように制御することを特徴とする請求項1乃至6の何れか1項に記載の表示制御装置。   When the touch on the first area continues for a predetermined time or longer, the control means executes the first function at regular intervals while the touch on the first area continues. The display control apparatus according to claim 1, wherein the display control apparatus controls the display. 前記制御手段は、前記第1の領域へのタッチが所定時間以上経過したことに応じて前記第1の機能が実行された後に、該タッチが離されたことに応じて前記第1の機能を実行しないように制御することを特徴とする請求項7に記載の表示制御装置。   The control means performs the first function in response to the release of the first function after the first function is executed in response to the touch of the first area being performed for a predetermined time or more. The display control apparatus according to claim 7, wherein the display control apparatus is controlled so as not to execute. 前記第1の機能は、前記表示手段に表示される画像を、現在表示されている画像から特定の順序で次の画像に切り替える機能であることを特徴とする請求項1乃至8の何れか1項に記載の表示制御装置。 The first function, the image displayed on the display unit, any one of claims 1乃optimum 8, which is a function of switching from the currently displayed image in a specific order to the next image The display control apparatus according to item 1. 前記第2の機能は、前記表示手段に表示される画像を、現在表示されている画像から特定の順序で前の画像に切り替える機能であることを特徴とする請求項2乃至4の何れか1項に記載の表示制御装置。   5. The function according to claim 2, wherein the second function is a function of switching an image displayed on the display unit from a currently displayed image to a previous image in a specific order. The display control device according to item. 撮像手段を備えたデジタルカメラであることを特徴とする請求項1乃至10の何れか1項に記載の表示制御装置。 The display control device according to any one of claims 1 to 10, characterized in that a digital camera having imaging means. 前記表示制御手段は、前記第1の識別画像を表示させる際、前記画像に重畳して前記第1の識別画像を表示するように制御することを特徴とする請求項1乃至11の何れか1項に記載の表示制御装置。 Wherein the display control unit, when displaying said first identification image, any one of claims 1 to 11, wherein the controller controls so as to display the first identification image to be superimposed on the image 1 The display control device according to item. 表示手段の表示画面上へのタッチを検出するタッチ検出ステップと、
前記表示画面に画像を表示させるように前記表示手段を制御する画像表示制御ステップと、
前記表示画面上の一部の領域である第1の領域へのタッチ操作に応じて前記表示画面に表示されている画像を切り替える第1の機能を実行するように制御する制御ステップと、
前記タッチ検出ステップで前記第1の領域へのタッチを検出したことに応じて前記表示画面に表示されている画像の上に前記第1の領域の範囲を示す第1の識別画像を表示させ、該第1の領域への前記タッチが検出されなくなったことに応じて前記第1の識別画像を非表示とするように制御する表示制御ステップとを有し、
前記制御ステップは、前記第1の領域へのタッチが所定時間以上継続した後で且つ前記第1の領域へのタッチが継続している間は、前記第1の機能を連続して実行するように制御し、前記第1の領域へのタッチが前記所定時間以上継続せずに離された場合は、前記タッチが離されたことに応じて前記第1の機能を1回実行するように制御することを特徴とする表示制御方法。
A touch detection step of detecting a touch on the display screen of the display means;
An image display control step for controlling the display means to display an image on the display screen;
A control step for controlling to execute a first function for switching an image displayed on the display screen in response to a touch operation on a first area which is a partial area on the display screen;
Displaying a first identification image indicating a range of the first region on the image displayed on the display screen in response to detecting a touch to the first region in the touch detection step; A display control step for controlling to hide the first identification image in response to the touch to the first region being no longer detected .
In the control step, the first function is continuously executed after the touch on the first area continues for a predetermined time or longer and while the touch on the first area continues. When the touch on the first area is released without continuing for the predetermined time or longer, the first function is executed once in response to the release of the touch. And a display control method.
コンピュータを、請求項1乃至12の何れか1項に記載された表示制御装置の各手段として機能させるためのプログラム。 The program for functioning a computer as each means of the display control apparatus as described in any one of Claims 1 thru | or 12 . コンピュータを、請求項1乃至12の何れか1項に記載された表示制御装置の各手段として機能させるためのプログラムを格納したコンピュータ読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each unit of the display control device according to any one of claims 1 to 12 .
JP2010014327A 2010-01-26 2010-01-26 Display control apparatus, display control method, program, and storage medium Active JP5495813B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010014327A JP5495813B2 (en) 2010-01-26 2010-01-26 Display control apparatus, display control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010014327A JP5495813B2 (en) 2010-01-26 2010-01-26 Display control apparatus, display control method, program, and storage medium

Publications (3)

Publication Number Publication Date
JP2011154455A JP2011154455A (en) 2011-08-11
JP2011154455A5 JP2011154455A5 (en) 2013-03-14
JP5495813B2 true JP5495813B2 (en) 2014-05-21

Family

ID=44540383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010014327A Active JP5495813B2 (en) 2010-01-26 2010-01-26 Display control apparatus, display control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP5495813B2 (en)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5789145B2 (en) 2011-07-13 2015-10-07 オークマ株式会社 Synchronous motor
WO2013051259A1 (en) * 2011-10-07 2013-04-11 パナソニック株式会社 Image pickup device and image pickup method
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US9774917B1 (en) 2012-12-10 2017-09-26 Apple Inc. Channel bar user interface
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
US12149779B2 (en) 2013-03-15 2024-11-19 Apple Inc. Advertisement user interface
CN118210424A (en) 2014-06-24 2024-06-18 苹果公司 Column interface for navigating in a user interface
AU2015279949B2 (en) * 2014-06-24 2018-05-10 Apple Inc. Input device and user interface interactions
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US12307082B2 (en) 2018-02-21 2025-05-20 Apple Inc. Scrollable set of content items with locking feature
AU2019100574B4 (en) 2018-06-03 2020-02-20 Apple Inc. Setup procedures for an electronic device
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
EP3928228B1 (en) 2019-03-24 2024-09-11 Apple Inc. User interfaces for a media browsing application
CN114302210B (en) 2019-03-24 2024-07-05 苹果公司 User interface for viewing and accessing content on an electronic device
US11057682B2 (en) 2019-03-24 2021-07-06 Apple Inc. User interfaces including selectable representations of content items
CN120595989A (en) 2019-05-31 2025-09-05 苹果公司 User interface for podcast browsing and playback applications
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
WO2023148858A1 (en) * 2022-02-02 2023-08-10 バルミューダ株式会社 City information display device and city information display program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4454958B2 (en) * 2003-04-30 2010-04-21 株式会社東芝 Information processing apparatus and function selection method
JP4808029B2 (en) * 2003-08-21 2011-11-02 マイクロソフト コーポレーション Focus management using aerial points
JP4990753B2 (en) * 2007-12-28 2012-08-01 パナソニック株式会社 Electronic device input device, input operation processing method, and input control program

Also Published As

Publication number Publication date
JP2011154455A (en) 2011-08-11

Similar Documents

Publication Publication Date Title
JP5495813B2 (en) Display control apparatus, display control method, program, and storage medium
JP5066055B2 (en) Image display device, image display method, and program
CN110658972B (en) Information processing apparatus, information processing method, and computer readable medium
US11435870B2 (en) Input/output controller and input/output control program
JP5893456B2 (en) Display control apparatus, control method therefor, program, and storage medium
KR20130080179A (en) Method and apparatus for managing icon in portable terminal
KR101669079B1 (en) Display control apparatus and control method thereof
US8847929B2 (en) Information processing apparatus, information processing method, and computer readable medium storing program
US8947464B2 (en) Display control apparatus, display control method, and non-transitory computer readable storage medium
JP5523119B2 (en) Display control apparatus and display control method
JP5875262B2 (en) Display control device
JP2012230537A (en) Display control device and program
JP5993711B2 (en) Information processing apparatus, control method thereof, and program
WO2012014625A1 (en) Information processing device
US20170351423A1 (en) Information processing apparatus, information processing method and computer-readable storage medium storing program
JP5446617B2 (en) Selection support apparatus and program
JP4648217B2 (en) Image device, method of selecting processed image
US11009991B2 (en) Display control apparatus and control method for the display control apparatus
JP6758994B2 (en) Electronic devices and their control methods
JP5943743B2 (en) Display control apparatus, control method thereof, and program
JP6362110B2 (en) Display control device, control method therefor, program, and recording medium
JP6120907B2 (en) Display control apparatus and display control method
JP5762502B2 (en) Display control apparatus and display control method
JP2015225483A (en) Display control device
JP2021026561A (en) Information processing device, information processing method and information processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140304

R151 Written notification of patent or utility model registration

Ref document number: 5495813

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151