JP2013062761A - Image processor, image processing method, and program - Google Patents
Image processor, image processing method, and program Download PDFInfo
- Publication number
- JP2013062761A JP2013062761A JP2011201501A JP2011201501A JP2013062761A JP 2013062761 A JP2013062761 A JP 2013062761A JP 2011201501 A JP2011201501 A JP 2011201501A JP 2011201501 A JP2011201501 A JP 2011201501A JP 2013062761 A JP2013062761 A JP 2013062761A
- Authority
- JP
- Japan
- Prior art keywords
- attention area
- image processing
- image
- focus
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 120
- 238000000034 method Methods 0.000 claims abstract description 65
- 230000002093 peripheral effect Effects 0.000 claims abstract description 15
- 239000006185 dispersion Substances 0.000 claims description 38
- 238000003384 imaging method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- LDXJRKWFNNFDSA-UHFFFAOYSA-N 2-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)-1-[4-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]piperazin-1-yl]ethanone Chemical compound C1CN(CC2=NNN=C21)CC(=O)N3CCN(CC3)C4=CN=C(N=C4)NCC5=CC(=CC=C5)OC(F)(F)F LDXJRKWFNNFDSA-UHFFFAOYSA-N 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
Abstract
【課題】画像中の注目領域を撮影情報に基づいて適切に決定するための、画像処理装置、画像処理方法およびプログラムする。
【解決手段】複数の手法のうちで、入力画像の撮影に際して得られた撮影情報に応じた手法に従って前記入力画像における注目領域を決定する注目領域決定部と、前記注目領域に含まれない周辺領域に対してぼかし処理を施す画像処理部と、を備える、画像処理装置。
【選択図】図8An image processing apparatus, an image processing method, and a program for appropriately determining a region of interest in an image based on shooting information.
An attention area determination unit that determines an attention area in the input image according to a technique according to photographing information obtained at the time of photographing an input image among a plurality of techniques, and a peripheral area not included in the attention area And an image processing unit that performs a blurring process on the image processing apparatus.
[Selection] Figure 8
Description
本開示は、画像処理装置、画像処理方法およびプログラムに関する。 The present disclosure relates to an image processing device, an image processing method, and a program.
近日、撮影装置には多様な撮影モードが実装される傾向にある。例えば、ミニチュアモードによれば、撮影時の画像、または撮影後の画像を、被写界深度が浅いミニチュアのような画像にすることが可能である。 Recently, various photographing modes tend to be implemented in photographing apparatuses. For example, according to the miniature mode, an image at the time of shooting or an image after shooting can be changed to an image like a miniature with a shallow depth of field.
このようなミニチュアモードに関し、例えば特許文献1には、主要被写体を含まない背景領域に、レンズの焦点距離に応じた度合いでぼかし処理を施す撮影装置が開示されている。ここで、特許文献1には、画像中の合焦位置に対応する領域を主要被写体領域に決定する例や、被写体として複数の顔領域が抽出された場合には、最もサイズが大きい顔領域、または、最も中央に寄っている顔領域を基準として主要被写体領域を決定する例が記載されている。 Regarding such a miniature mode, for example, Patent Document 1 discloses a photographing apparatus that performs a blurring process on a background region that does not include a main subject to a degree corresponding to the focal length of a lens. Here, in Patent Document 1, an example in which a region corresponding to a focus position in an image is determined as a main subject region, or when a plurality of face regions are extracted as subjects, a face region having the largest size, Alternatively, an example is described in which the main subject area is determined based on the face area closest to the center.
しかし、複数の合焦位置が存在する画像から、ぼかし処理を施さない注目領域を1つの合焦位置を基準にして決定する場合と、複数の合焦位置を基準にして決定する場合とでは、得られる結果が異なる。したがって、注目領域を画一的に1つの合焦位置を基準にして決定すると、ユーザが期待した結果を得られない場合が生じ得る。 However, in the case where the region of interest that is not subjected to the blurring process is determined based on one in-focus position from the image in which a plurality of in-focus positions exist, The results obtained are different. Therefore, if the attention area is uniformly determined with reference to one in-focus position, the user may not obtain the expected result.
そこで、本開示では、画像中の注目領域を撮影情報に基づいて適切に決定することが可能な、新規かつ改良された画像処理装置、画像処理方法およびプログラムを提案する。 Therefore, the present disclosure proposes a new and improved image processing apparatus, image processing method, and program capable of appropriately determining a region of interest in an image based on shooting information.
本開示によれば、複数の手法のうちで、入力画像の撮影に際して得られた撮影情報に応じた手法に従って前記入力画像における注目領域を決定する注目領域決定部と、前記注目領域に含まれない周辺領域に対してぼかし処理を施す画像処理部と、を備える画像処理装置が提供される。 According to the present disclosure, an attention area determination unit that determines an attention area in the input image according to a technique according to photographing information obtained when photographing the input image among a plurality of techniques, and is not included in the attention area An image processing apparatus is provided that includes an image processing unit that performs a blurring process on a peripheral region.
また、本開示によれば、複数の手法のうちで、入力画像の撮影に際して得られた撮影情報に応じた手法に従って前記入力画像における注目領域を決定することと、前記注目領域に含まれない周辺領域に対してぼかし処理を施すことと、を含む画像処理方法が提供される。 In addition, according to the present disclosure, among a plurality of methods, determining a region of interest in the input image according to a method according to photographing information obtained at the time of photographing the input image, and surroundings not included in the region of interest An image processing method is provided that includes performing a blurring process on a region.
また、本開示によれば、コンピュータを、複数の手法のうちで、入力画像の撮影に際して得られた撮影情報に応じた手法に従って前記入力画像における注目領域を決定する注目領域決定部と、前記注目領域に含まれない周辺領域に対してぼかし処理を施す画像処理部と、として機能させるための、プログラムが提供される。 In addition, according to the present disclosure, the computer includes a region-of-interest determination unit that determines a region of interest in the input image according to a method according to shooting information obtained at the time of shooting of the input image among a plurality of methods, and the attention A program is provided for functioning as an image processing unit that performs a blurring process on a peripheral region that is not included in the region.
以上説明したように本開示によれば、画像中の注目領域を撮影情報に基づいて適切に決定することができる。 As described above, according to the present disclosure, it is possible to appropriately determine a region of interest in an image based on shooting information.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 In the present specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.
また、以下に示す項目順序に従って本開示を説明する。
1.画像処理システムの基本構成
2.画像処理装置の構成
3.画像処理装置の動作
3−1.第1の動作例
3−2.第2の動作例
4.ハードウェア構成
5.むすび
Moreover, this indication is demonstrated according to the item order shown below.
1. 1. Basic configuration of image processing system 2. Configuration of image processing apparatus Operation of image processing apparatus 3-1. First operation example 3-2. Second operation example 4. Hardware configuration Conclusion
<1.画像処理システムの基本構成>
本開示による技術は、一例として「2.画像処理装置の構成」〜「3.画像処理装置の動作」において詳細に説明するような形態で実施され得る。本開示の実施形態による画像処理装置(20)は、
A.複数の手法のうちで、入力画像の撮影に際して得られた撮影情報に応じた手法に従って前記入力画像における注目領域を決定する注目領域決定部と、
B.前記注目領域に含まれない周辺領域に対してぼかし処理を施す画像処理部と、を備える。
<1. Basic Configuration of Image Processing System>
The technology according to the present disclosure may be implemented in a form described in detail in “2. Configuration of Image Processing Device” to “3. Operation of Image Processing Device” as an example. An image processing apparatus (20) according to an embodiment of the present disclosure includes:
A. Of a plurality of methods, a region of interest determination unit that determines a region of interest in the input image according to a method according to shooting information obtained at the time of shooting of the input image;
B. An image processing unit that performs a blurring process on a peripheral area not included in the attention area.
以下では、まず、このような画像処理装置を含む画像処理システムの基本構成について説明する。 In the following, first, a basic configuration of an image processing system including such an image processing apparatus will be described.
図1は、本開示の実施形態による画像処理システム1の構成を示した説明図である。図1に示したように、本開示の実施形態による画像処理システム1は、撮影装置10と、画像処理装置20と、を備える。
FIG. 1 is an explanatory diagram illustrating a configuration of an image processing system 1 according to an embodiment of the present disclosure. As illustrated in FIG. 1, the image processing system 1 according to an embodiment of the present disclosure includes a
(撮影装置10)
撮影装置10は、被写体を撮影して画像を取得する。具体的には、撮影装置10は、撮影レンズおよびズームレンズなどの撮影光学系、およびCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備える。撮影光学系は、被写体から発せられる光を集光して、撮影素子の撮像面に被写体像を形成する。撮影素子は、撮影光学系によって形成された被写体像を電気的な画像信号に変換する。
(Photographing device 10)
The photographing
また、本実施形態による撮影装置10は、撮像面の複数箇所にフォーカスポイントを有し、フォーカスポイント毎の合焦状態を検出することができる。例えば、図2に示したように、撮像面14の35箇所にフォーカスポイントP1〜P35が配置され、撮影装置10は、各フォーカスポイントにおける合焦の度合いを検出することができる。
In addition, the
このような撮影装置10は、画像の撮影時に撮影情報を取得し、図1に示したように、画像および撮影情報を含む画像ファイルを画像処理装置20に供給する。なお、撮影情報は、例えば、画像撮影時の焦点距離を示す焦点距離情報、およびフォーカス情報を含む。また、フォーカス情報は、各フォーカスポイントにおける合焦の度合いを示す情報や、撮影時のレンズ位置のような光学系の状態を示す情報を含んでもよい。
Such a photographing
(画像処理装置20)
画像処理装置20は、撮影装置10から供給される画像に多様な画像処理を施す機能を有する。例えば、画像処理装置20は、撮影装置10から供給される画像に、当該画像の撮影情報を用いてミニチュア処理を施すことが可能である。ミニチュア処理は、画像中の注目領域はぼかさず、注目領域の周辺領域にぼかし処理を施す処理であり、これにより、被写界深度が浅いミニチュアのような画像を得ることが可能である。以下、図3〜図5を参照し、ミニチュア処理について簡単に説明する。
(Image processing apparatus 20)
The
図3〜図5は、ミニチュア処理を示した説明図である。なお、図3〜図5においては、ミニチュア処理による画像のぼけの強さを色の濃淡で表現している。すなわち、図3〜図5においては、ぼけの強い領域ほど薄い色を付している。 3-5 is explanatory drawing which showed the miniature process. Note that in FIGS. 3 to 5, the intensity of image blur due to miniature processing is expressed by color shading. That is, in FIG. 3 to FIG. 5, the region where the blur is strong is given a lighter color.
図3に示したように、画像の中央付近のフォーカスポイントP20が画像中で唯一の合焦位置(すなわち、合焦の度合いが閾値を超えている位置)である場合、フォーカスポイントP20を含む領域が注目領域として決定される。また、図4に示したように、画像の下部のフォーカスポイントP30が画像中で唯一の合焦位置である場合、フォーカスポイントP30を含む領域が注目領域として決定される。同様に、図5に示したように、画像の上部のフォーカスポイントP5が画像中で唯一の合焦位置である場合、フォーカスポイントP5を含む領域が注目領域として決定される。 As shown in FIG. 3, when the focus point P <b> 20 near the center of the image is the only in-focus position in the image (that is, the position where the degree of focus exceeds the threshold value), the region including the focus point P <b> 20. Is determined as a region of interest. As shown in FIG. 4, when the focus point P30 at the bottom of the image is the only in-focus position in the image, the area including the focus point P30 is determined as the attention area. Similarly, as shown in FIG. 5, when the focus point P5 at the top of the image is the only in-focus position in the image, the area including the focus point P5 is determined as the attention area.
そして、画像処理装置20は、注目領域を中心に、注目領域の周辺領域にぼかし処理を施す。具体的には、画像処理装置20は、図3〜図5に示したように、注目領域から離れるほど強いぼかし処理を施す。これにより、被写界深度が浅いミニチュアのような画像が得られる。または、画像処理装置20は、合焦位置を中心に、合焦位置の周辺領域にぼかし処理を施してもよい。
Then, the
なお、本明細書においては、上記のようなミニチュア処理を画像処理装置20において行う例を説明するが、ミニチュア処理を行うための構成を撮影装置10に設けることにより、撮影装置10においてミニチュア処理を行うことも可能である。この場合、撮影装置10は、画像の撮影後にミニチュア処理を行ってもよいし、画像の撮影時にミニチュア処理を行ってもよい。
In the present specification, an example in which the above-described miniature processing is performed in the
また、画像処理装置20の一例としてPC(Personal Computer)を示しているが、画像処理装置20はPCに限定されない。例えば、画像処理装置20は、家庭用映像処理装置(DVDレコーダ、ビデオデッキなど)、PDA(Personal Digital Assistants)、家庭用ゲーム機器、家電機器などの情報処理装置であってもよい。また、画像処理装置20は、携帯電話、PHS(Personal Handyphone System)、携帯用映像処理装置、携帯用ゲーム機器などの情報処理装置であってもよい。
Also, although a PC (Personal Computer) is shown as an example of the
(背景)
上述したように、画像中に存在する合焦位置が1つである場合、その合焦位置を含むように注目領域を決定することができる。しかし、実際には、画像中に複数の合焦位置が存在する場合がある。以下、複数の合焦位置が存在する画像の具体例を説明する。
(background)
As described above, when there is one in-focus position in the image, the attention area can be determined so as to include the in-focus position. However, in practice, there may be a plurality of in-focus positions in the image. Hereinafter, a specific example of an image having a plurality of in-focus positions will be described.
図6および図7は、複数の合焦位置が存在する画像の具体例を示した説明図である。図6に示した例では、人物の顔領域に対応するフォーカスポイントP11、P12、P18およびP19において画像が合焦している。特にフォーカスポイントP12の合焦度合いが最も高い。 6 and 7 are explanatory diagrams showing specific examples of an image having a plurality of in-focus positions. In the example shown in FIG. 6, the image is in focus at the focus points P11, P12, P18, and P19 corresponding to the human face area. In particular, the degree of focus at the focus point P12 is the highest.
また、図7に示した例では、道路脇の木の領域に対応するフォーカスポイントP2、P6、P9、P13、P15、P21、P22およびP28において画像が合焦している。特にフォーカスポイントP28の合焦度合いが最も高い。 In the example shown in FIG. 7, the image is in focus at the focus points P2, P6, P9, P13, P15, P21, P22 and P28 corresponding to the tree area beside the road. In particular, the degree of focus at the focus point P28 is the highest.
このような複数の合焦位置が存在する画像から注目領域を決定するための手法として、最合焦位置を含む領域を注目領域に決定する手法や、複数の合焦位置を考慮して例えば複数の合焦位置の重心位置を含む領域を注目領域に決定する手法などが挙げられる。 As a method for determining a region of interest from an image in which a plurality of in-focus positions exist, a method for determining a region including the most in-focus position as a region of interest, or a plurality of in consideration of a plurality of in-focus positions, for example, a plurality And a method of determining an area including the center of gravity position of the in-focus position as an attention area.
しかし、用いる手法によって決定される注目領域が異なる場合がある。例えば、図6に示したように合焦位置が1箇所に集中している場合には、各手法によって決定される注目領域に大差は無い。一方、図7に示したように合焦位置が分散している場合には、各手法で異なる注目領域が決定される。このように注目領域が異なると、ミニチュア処理により最終的に得られる画像も異なるので、注目領域が適切でない場合、ユーザが期待した結果を得ることが困難である。 However, the attention area determined by the method used may differ. For example, when the in-focus positions are concentrated at one place as shown in FIG. 6, there is no great difference in the attention area determined by each method. On the other hand, when the in-focus positions are dispersed as shown in FIG. 7, different attention areas are determined for each method. When the attention area is different as described above, an image finally obtained by the miniature processing is also different. Therefore, when the attention area is not appropriate, it is difficult to obtain a result expected by the user.
そこで、上記事情を一着眼点にして本実施形態による画像処理装置20を創作するに至った。本実施形態による画像処理装置20は、画像中の注目領域を撮影情報に基づいて適切に決定することが可能である。以下、このような本実施形態による画像処理装置20について詳細に説明する。
Thus, the
<2.画像処理装置の構成>
図8は、本実施形態による画像処理装置20の構成を示した説明図である。図8に示したように、本実施形態による画像処理装置20は、記憶部216と、注目領域決定部220と、ぼかし処理部230と、を備える。
<2. Configuration of Image Processing Device>
FIG. 8 is an explanatory diagram showing the configuration of the
記憶部216は、撮影装置10から供給された画像および撮影情報からなる画像ファイルを記憶する。なお、記憶部216は、不揮発性メモリ、磁気ディスク、光ディスク、およびMO(Magneto Optical)ディスクなどの記憶媒体であってもよい。
The
注目領域決定部220は、記憶部216に記憶されている画像について、当該画像の撮影情報に基づいて注目領域を決定するための手法を選択し、選択した手法によって当該画像の注目領域を決定する。注目領域を決定するための手法としては、最合焦位置を含む領域を注目領域に決定する手法や、複数の合焦位置を考慮して例えば複数の合焦位置の重心位置を含む領域を注目領域に決定する手法が挙げられる。
The attention
ここで、被写界深度が浅いと被写体の焦点が合い難いので、被写界深度の浅い画像において最も合焦度合いの高い最合焦位置は、ユーザが意図した被写体である可能性が高い。一方、被写界深度が深いと多くの被写体に焦点が合うので、被写界深度の深い画像の最合焦位置は、ユーザが意図した唯一の被写体ではない場合がある。このため、詳細については「3.画像処理装置の動作」で説明するように、注目領域決定部220は、画像撮影時の被写界深度に基づいて注目領域を決定するための手法を選択する。
Here, when the depth of field is shallow, it is difficult to focus the subject. Therefore, the most focused position with the highest degree of focus in the image with the shallow depth of field is likely to be the subject intended by the user. On the other hand, since many subjects are focused when the depth of field is deep, the most in-focus position of an image with a deep depth of field may not be the only subject intended by the user. Therefore, as will be described in detail in “3. Operation of the image processing apparatus”, the attention
なお、図3〜図5などにおいては注目領域が画像の水平方向に沿う領域である例を説明したが、注目領域の形態はかかる例に限定されない。例えば、注目領域は、画像の垂直方向に沿う領域であってもよいし、円形領域であってもよいし、水平方向および垂直方向の一部を構成する矩形領域であってもよい。 3 to 5, etc., the example in which the attention area is an area along the horizontal direction of the image has been described, but the form of the attention area is not limited to such an example. For example, the attention area may be an area along the vertical direction of the image, a circular area, or a rectangular area that constitutes a part of the horizontal direction and the vertical direction.
ぼかし処理部230は、注目領域決定部220により決定された注目領域の周辺領域に対してぼかし処理を施す画像処理部である。例えば、ぼかし処理部230は、注目領域からの距離に応じて異なるローパスフィルタを用いることにより、注目領域から離れた領域にはより強いぼかし処理を施してもよい。
The blurring
<3.画像処理装置の動作>
以上、本実施形態による画像処理装置20の構成を説明した。続いて、本実施形態による画像処理装置20の動作例を説明する。
<3. Operation of image processing apparatus>
The configuration of the
(第1の動作例)
図9は、画像処理装置20の第1の動作例を示したフローチャートである。図9に示したように、まず、画像処理装置20の注目領域決定部220は、処理対象の画像および当該画像の撮影情報を取得する(S308)。
(First operation example)
FIG. 9 is a flowchart showing a first operation example of the
そして、注目領域決定部220は、撮影情報に含まれるフォーカス情報に基づき、画像中に複数の合焦位置が存在するか否かを判断する(S308)。ここで、画像中に複数の合焦位置が存在しない場合、注目領域決定部220は、画像中の最合焦位置を含む領域を注目領域に決定する(S316)。なお、画像中に複数の合焦位置が存在するか否かの判断は、フォーカス情報が無い場合であっても、画像を解析することにより行うことが可能である。同様に、最合焦位置および合焦位置を画像解析により検出することも可能である。
Then, the attention
一方、画像中に複数の合焦位置が存在する場合、注目領域決定部220は、撮影情報に含まれる焦点距離情報の示す焦点距離に基づいて注目領域の決定手法を選択する(S312)。
On the other hand, when there are a plurality of in-focus positions in the image, the attention
具体的には、焦点距離が長いほど被写界深度が浅く、焦点距離が短いほど被写界深度が深いので、注目領域決定部220は、焦点距離が閾値以上である場合には最合焦位置を含む領域を注目領域に決定する(S316)。
Specifically, since the depth of field is shallower as the focal length is longer, and the depth of field is deeper as the focal length is shorter, the attention
また、注目領域決定部220は、焦点距離が閾値未満である場合には、複数の合焦位置を考慮して注目領域を決定する(S320)。一例として、注目領域決定部220は、焦点距離が閾値未満である場合、画一的に、複数の合焦位置の例えば重心位置を含む領域を注目領域に決定してもよい。また、注目領域決定部220は、焦点距離が閾値未満である場合、図10を参照して説明するように、複数の合焦位置の分散を考慮して注目領域を決定してもよい。
In addition, when the focal length is less than the threshold, the attention
図10は、複数の合焦位置の分散を考慮した注目領域の決定手法を示したフローチャートである。図10に示したように、注目領域決定部220は、まず、複数の合焦位置の分散度を算出する(S322)。分散度の算出方法については後述する。
FIG. 10 is a flowchart showing a method of determining a region of interest in consideration of the dispersion of a plurality of in-focus positions. As shown in FIG. 10, the attention
そして、注目領域決定部220は、分散度が閾値以上である場合(S324)、最合焦位置を含む領域を注目領域に決定する(S326)。一方、注目領域決定部220は、分散度が閾値未満である場合(S324)、複数の合焦位置に基づいて例えば複数の合焦位置の重心位置を含む領域を注目領域に決定する(S328)。
Then, when the degree of dispersion is greater than or equal to the threshold (S324), the attention
これにより、例えば図6および図7に示した画像の焦点距離が閾値未満である場合、合焦位置の分散度が閾値未満である図6に示した画像については、複数の合焦位置の例えば重心位置を含む領域が注目領域に決定される。一方、合焦位置の分散度が閾値以上である図7に示した画像については、最合焦位置P28を含む領域が注目領域に決定される。 Accordingly, for example, when the focal length of the images shown in FIGS. 6 and 7 is less than the threshold value, the image shown in FIG. An area including the position of the center of gravity is determined as the attention area. On the other hand, for the image shown in FIG. 7 in which the dispersion degree of the focus position is equal to or greater than the threshold value, the area including the most in-focus position P28 is determined as the attention area.
上記のようにしてS316またはS320で注目領域が決定されると、ぼかし処理部230は、図9に示したように、注目領域の周辺領域に対してぼかし処理を施す(S330)。
When the attention area is determined in S316 or S320 as described above, the blurring
以上説明したように、画像処理装置20の第1の動作例によれば、画像撮影時の焦点距離に応じて注目領域を適切に決定することが可能となる。また、画像処理装置20の第1の動作例によれば、複数の合焦位置が存在する場合に複数の合焦位置の分散度を算出することにより、注目領域をより適切に決定することが可能である。
As described above, according to the first operation example of the
(補足)
ここで、図11および図12を参照し、注目領域決定部220がS322において合焦位置の分散度を算出するための方法を補足する。
(Supplement)
Here, with reference to FIG. 11 and FIG. 12, a method for the attention
−第1の算出方法
注目領域決定部220は、まず、下記数式(1)に従い、水平方向(X方向)で最も離れている合焦位置の距離ΔXを算出し、下記数式(2)に従い、垂直方向(Y方向)に最も離れている合焦位置の距離ΔYを算出する。
ΔX=Xmax−Xmin (数式1)
ΔY=Ymax−Ymin (数式2)
-First Calculation Method First, the attention
ΔX = Xmax−Xmin (Formula 1)
ΔY = Ymax−Ymin (Formula 2)
なお、図11に示したように、フォーカスポイントP10、P12、P27およびP30が合焦位置である場合、数式1で表現されるΔXは、フォーカスポイントP30とP27の水平方向の距離に該当する。また、下記数式2で表現されるΔYは、P10およびP12とP30との垂直方向の距離に該当する。 As shown in FIG. 11, when the focus points P10, P12, P27, and P30 are in-focus positions, ΔX expressed by Equation 1 corresponds to the horizontal distance between the focus points P30 and P27. Further, ΔY expressed by the following mathematical formula 2 corresponds to the vertical distance between P10 and P12 and P30.
そして、注目領域決定部220は、距離ΔXおよび距離ΔYを用いて、下記数式3に従って分散度を算出する。
分散度=ΔX・ΔY
(数式3)
Then, the attention
Dispersion = ΔX · ΔY
(Formula 3)
上記数式3により得られる分散度の大きさにより、画像における複数の合焦位置の散らばり具合を評価することができる。なお、上記数式3においては距離ΔXと距離ΔYを乗算する例を示しているが、分散度の算出するための演算はかかる例に限定されず、例えば、距離ΔXと距離ΔYを加算してもよい。かかる構成により、距離ΔXまたは距離ΔYが「0」であった場合に分散度が「0」として算出されてしまう場合を回避できる。 The degree of dispersion of a plurality of in-focus positions in an image can be evaluated based on the degree of dispersion obtained by Equation 3 above. In addition, although the above formula 3 shows an example of multiplying the distance ΔX and the distance ΔY, the calculation for calculating the degree of dispersion is not limited to such an example. For example, even if the distance ΔX and the distance ΔY are added, Good. With this configuration, it is possible to avoid a case where the degree of dispersion is calculated as “0” when the distance ΔX or the distance ΔY is “0”.
−第2の算出方法
また、上記の第1の算出方法では、水平方向上および垂直方向上での合焦位置の分散度を算出する方法を説明したが、注目領域決定部220は、水平方向上または垂直方向上のいずれかの合焦位置の分散度のみを算出してもよい。
-Second Calculation Method In the first calculation method, the method for calculating the degree of dispersion of the in-focus position in the horizontal direction and the vertical direction has been described. Only the degree of dispersion at the in-focus position in the upper or vertical direction may be calculated.
例えば、図3〜図5に示したように注目領域が水平方向に沿う領域である場合、同一の垂直方向位置で合焦位置が水平方向上に分散していても、最合焦位置を含む注目領域、および、複数の合焦位置の重心位置を含む注目領域は一致する。このため、注目領域が水平方向に沿う領域である場合、水平方向上での合焦位置の分散度を算出する意義は薄いと考えられる。 For example, as shown in FIGS. 3 to 5, when the attention area is an area along the horizontal direction, the focus position is included even if the focus positions are dispersed in the horizontal direction at the same vertical position. The attention area and the attention area including the centroid positions of the plurality of in-focus positions coincide with each other. For this reason, when the attention area is an area along the horizontal direction, it is considered that the significance of calculating the degree of dispersion of the in-focus position in the horizontal direction is small.
そこで、注目領域決定部220は、注目領域が沿う方向(例えば、水平方向)と交差する方向(例えば、垂直方向)での合焦位置の分散度のみを算出してもよい。かかる構成により、画像処理装置20の処理を簡略化することが可能である。
Therefore, the attention
−第3の算出方法
また、注目領域決定部220は、複数の合焦位置を含むエリアの面積を分散度として算出してもよい。例えば、図11に示したように、フォーカスポイントP10、P12、P27およびP30が合焦位置である場合、注目領域決定部220は、フォーカスポイントP10、P12、P27およびP30を含むエリアの面積を分散度として算出してもよい。
-3rd calculation method Moreover, the attention
(3−2.第2の動作例)
図13は、画像処理装置20の第2の動作例を示したフローチャートである。図13に示したように、まず、画像処理装置20の注目領域決定部220は、処理対象の画像および当該画像の撮影情報を取得する(S308)。
(3-2. Second operation example)
FIG. 13 is a flowchart illustrating a second operation example of the
そして、注目領域決定部220は、撮影情報に含まれるフォーカス情報に基づき、画像中に複数の合焦位置が存在するか否かを判断する(S308)。ここで、画像中に複数の合焦位置が存在しない場合、注目領域決定部220は、画像中の最合焦位置を含む領域を注目領域に決定する(S316)。
Then, the attention
一方、画像中に複数の合焦位置が存在する場合、注目領域決定部220は、撮影情報に含まれるフォーカス情報から得られる最合焦位置の被写体距離が閾値未満であるか否かに基づき、注目領域の決定手法を選択する(S334)。
On the other hand, when there are a plurality of in-focus positions in the image, the attention
具体的には、被写体距離が近いほど被写界深度が浅く、被写体距離が遠いほど被写界深度が深いので、注目領域決定部220は、最合焦位置の被写体距離が閾値未満である場合には最合焦位置を含む領域を注目領域に決定する(S316)。一方、注目領域決定部220は、最合焦位置の被写体距離が閾値以上である場合、複数の合焦位置を考慮して注目領域を決定する(S320)。例えば、注目領域決定部220は、第1の動作例で説明したように、複数の合焦位置の例えば重心位置を含む領域を注目領域に決定してもよいし、複数の合焦位置の分散を考慮して注目領域を決定してもよい。
Specifically, the closer the subject distance is, the shallower the depth of field is, and the farther the subject distance is, the deeper the depth of field is. Therefore, the attention
<4.ハードウェア構成>
以上説明した画像処理装置20による画像処理は、以下に図14を参照して説明する画像処理装置20が有するハードウェアと協働して実現される。
<4. Hardware configuration>
The image processing by the
図14は、画像処理装置20のハードウェア構成を示したブロック図である。画像処理装置20は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、画像処理装置20は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、出力装置210と、ストレージ装置(HDD)211と、ドライブ212と、通信装置215とを備える。
FIG. 14 is a block diagram illustrating a hardware configuration of the
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って画像処理装置20内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。
The
ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
The
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。画像処理装置20のユーザは、該入力装置208を操作することにより、画像処理装置20に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
出力装置210は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。出力装置210は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。
The
ストレージ装置211は、本実施形態にかかる画像処理装置20の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置211は、ハードディスクを駆動し、CPU201が実行するプログラムや各種データを格納する。
The
ドライブ212は、記憶媒体用リーダライタであり、画像処理装置20に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
The
通信装置215は、例えば、通信網12に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置215は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
The
<5.むすび>
以上説明したように、本実施形態の画像処理装置20によれば、撮影情報のうちの被写界深度に関する情報に基づき注目領域の決定することができるので、画像に適したミニチュア効果を得ることが可能である。また、本実施形態の画像処理装置20によれば、複数の合焦位置が存在する場合に複数の合焦位置の分散度を算出することにより、注目領域をより適切に決定することが可能となる。
<5. Conclusion>
As described above, according to the
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 In addition, although preferred embodiment of this indication was described in detail, referring an accompanying drawing, the technical scope of this indication is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
例えば、本明細書の画像処理装置20の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、画像処理装置20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
For example, each step in the processing of the
また、画像処理装置20に内蔵されるCPU201、ROM202およびRAM203などのハードウェアを、上述した画像処理装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
In addition, it is possible to create a computer program for causing hardware such as the
また、以下のような構成も本開示の技術的範囲に属する。
(1)
複数の手法のうちで、入力画像の撮影に際して得られた撮影情報に応じた手法に従って前記入力画像における注目領域を決定する注目領域決定部と、
前記注目領域に含まれない周辺領域に対してぼかし処理を施す画像処理部と、
を備える、画像処理装置。
(2)
前記注目領域決定部は、前記撮影情報に基づき、前記入力画像の撮影時の被写界深度に応じた手法に従って前記注目領域を決定する、前記(1)に記載の画像処理装置。
(3)
前記撮影情報は、前記入力画像中の各位置の合焦状態を示す合焦情報を含み、
前記注目領域決定部は、前記入力画像中に複数の合焦位置が存在しない場合、最合焦位置を含む領域を前記注目領域に決定し、前記入力画像中に複数の合焦位置が存在する場合、前記撮影情報に含まれる他の前記被写界深度に関する情報に応じた手法で前記注目領域に決定する、前記(2)に記載の画像処理装置。
(4)
前記撮影情報は焦点距離を示す焦点距離情報を含み、
前記注目領域決定部は、前記焦点距離が第1の閾値より高い場合には最合焦位置を含む領域を前記注目領域に決定し、前記焦点距離が前記第1の閾値以下の場合には複数の合焦位置から前記注目領域を決定する、前記(3)に記載の画像処理装置。
(5)
前記注目領域決定部は、前記焦点距離が前記第1の閾値以下の場合、前記複数の合焦位置の分散度を算出し、前記分散度が第2の閾値より高い場合には前記最合焦位置を含む領域を前記注目領域に決定し、前記分散度が前記第2の閾値以下の場合には前記複数の合焦位置から前記注目領域を決定する、前記(4)に記載の画像処理装置。
(6)
前記撮影情報は被写体距離を特定可能な情報を含み、
前記注目領域決定部は、前記被写体距離が前記第3の閾値以下の場合、最合焦位置を含む領域を前記注目領域に決定し、前記被写体距離が前記第3の閾値より高い場合には複数の合焦位置から前記注目領域を決定する、前記(3)に記載の画像処理装置。
(7)
前記注目領域決定部は、前記被写体距離が前記第3の閾値より高い場合、前記複数の合焦位置の分散度を算出し、前記分散度が第2の閾値より高い場合には前記最合焦位置を含む領域を前記注目領域に決定し、前記分散度が前記第2の閾値以下の場合には前記複数の合焦位置から前記注目領域を決定する、前記(6)に記載の画像処理装置。
(8)
前記注目領域は前記入力画像中の第1の方向に沿う領域であり、
前記注目領域決定部は、前記複数の合焦位置の、前記第1の方向と交差する第2の方向上での分散度を算出する、前記(5)または(7)に記載の画像処理装置。
(9)
複数の手法のうちで、入力画像の撮影に際して得られた撮影情報に応じた手法に従って前記入力画像における注目領域を決定することと、
前記注目領域に含まれない周辺領域に対してぼかし処理を施すことと、
を含む、画像処理方法。
(10)
コンピュータを、
複数の手法のうちで、入力画像の撮影に際して得られた撮影情報に応じた手法に従って前記入力画像における注目領域を決定する注目領域決定部と、
前記注目領域に含まれない周辺領域に対してぼかし処理を施す画像処理部と、
として機能させるための、プログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
Of a plurality of methods, a region of interest determination unit that determines a region of interest in the input image according to a method according to shooting information obtained at the time of shooting of the input image;
An image processing unit that performs a blurring process on a peripheral area not included in the attention area;
An image processing apparatus comprising:
(2)
The image processing device according to (1), wherein the attention area determination unit determines the attention area according to a method according to a depth of field at the time of shooting the input image based on the shooting information.
(3)
The shooting information includes focus information indicating a focus state of each position in the input image,
The attention area determination unit determines an area including the most in-focus position as the attention area when a plurality of focusing positions do not exist in the input image, and the plurality of focusing positions exist in the input image. In this case, the image processing device according to (2), wherein the region of interest is determined by a method according to information related to the other depth of field included in the shooting information.
(4)
The shooting information includes focal length information indicating a focal length,
The attention area determination unit determines an area including the most in-focus position as the attention area when the focal distance is higher than a first threshold, and a plurality of areas when the focal distance is equal to or less than the first threshold. The image processing apparatus according to (3), wherein the region of interest is determined from the in-focus position.
(5)
The attention area determination unit calculates a degree of dispersion of the plurality of in-focus positions when the focal length is less than or equal to the first threshold, and when the degree of dispersion is higher than a second threshold, The image processing apparatus according to (4), wherein an area including a position is determined as the attention area, and the attention area is determined from the plurality of in-focus positions when the degree of dispersion is equal to or less than the second threshold. .
(6)
The shooting information includes information that can specify the subject distance,
The attention area determination unit determines an area including the most in-focus position as the attention area when the subject distance is equal to or smaller than the third threshold, and a plurality of areas when the subject distance is higher than the third threshold. The image processing apparatus according to (3), wherein the region of interest is determined from the in-focus position.
(7)
The attention area determination unit calculates a degree of dispersion of the plurality of in-focus positions when the subject distance is higher than the third threshold, and when the degree of dispersion is higher than a second threshold, the focus is determined. The image processing apparatus according to (6), wherein an area including a position is determined as the attention area, and the attention area is determined from the plurality of focus positions when the degree of dispersion is equal to or less than the second threshold. .
(8)
The region of interest is a region along a first direction in the input image;
The image processing device according to (5) or (7), wherein the attention area determination unit calculates a degree of dispersion in a second direction intersecting the first direction at the plurality of focus positions. .
(9)
Determining a region of interest in the input image according to a method according to shooting information obtained when shooting the input image among a plurality of methods;
Blurring a peripheral area not included in the attention area;
Including an image processing method.
(10)
Computer
Of a plurality of methods, a region of interest determination unit that determines a region of interest in the input image according to a method according to shooting information obtained at the time of shooting of the input image;
An image processing unit that performs a blurring process on a peripheral area not included in the attention area;
Program to function as
10 撮影装置
20 画像処理装置
216 記憶部
220 注目領域決定部
230 ぼかし処理部
DESCRIPTION OF
Claims (10)
前記注目領域に含まれない周辺領域に対してぼかし処理を施す画像処理部と、
を備える、画像処理装置。 Of a plurality of methods, a region of interest determination unit that determines a region of interest in the input image according to a method according to shooting information obtained at the time of shooting of the input image;
An image processing unit that performs a blurring process on a peripheral area not included in the attention area;
An image processing apparatus comprising:
前記注目領域決定部は、前記入力画像中に複数の合焦位置が存在しない場合、最合焦位置を含む領域を前記注目領域に決定し、前記入力画像中に複数の合焦位置が存在する場合、前記撮影情報に含まれる他の前記被写界深度に関する情報に応じた手法で前記注目領域に決定する、請求項2に記載の画像処理装置。 The shooting information includes focus information indicating a focus state of each position in the input image,
The attention area determination unit determines an area including the most in-focus position as the attention area when a plurality of focusing positions do not exist in the input image, and the plurality of focusing positions exist in the input image. The image processing apparatus according to claim 2, wherein the region of interest is determined by a method according to information related to the other depth of field included in the shooting information.
前記注目領域決定部は、前記焦点距離が第1の閾値より高い場合には最合焦位置を含む領域を前記注目領域に決定し、前記焦点距離が前記第1の閾値以下の場合には複数の合焦位置から前記注目領域を決定する、請求項3に記載の画像処理装置。 The shooting information includes focal length information indicating a focal length,
The attention area determination unit determines an area including the most in-focus position as the attention area when the focal distance is higher than a first threshold, and a plurality of areas when the focal distance is equal to or less than the first threshold. The image processing apparatus according to claim 3, wherein the region of interest is determined from an in-focus position.
前記注目領域決定部は、前記被写体距離が前記第3の閾値以下の場合、最合焦位置を含む領域を前記注目領域に決定し、前記被写体距離が前記第3の閾値より高い場合には複数の合焦位置から前記注目領域を決定する、請求項3に記載の画像処理装置。 The shooting information includes information that can specify the subject distance,
The attention area determination unit determines an area including the most in-focus position as the attention area when the subject distance is equal to or smaller than the third threshold, and a plurality of areas when the subject distance is higher than the third threshold. The image processing apparatus according to claim 3, wherein the region of interest is determined from an in-focus position.
前記注目領域決定部は、前記複数の合焦位置の、前記第1の方向と交差する第2の方向上での分散度を算出する、請求項5に記載の画像処理装置。 The region of interest is a region along a first direction in the input image;
The image processing apparatus according to claim 5, wherein the attention area determination unit calculates a degree of dispersion of the plurality of in-focus positions in a second direction intersecting the first direction.
前記注目領域に含まれない周辺領域に対してぼかし処理を施すことと、
を含む、画像処理方法。 Determining a region of interest in the input image according to a method according to shooting information obtained when shooting the input image among a plurality of methods;
Blurring a peripheral area not included in the attention area;
Including an image processing method.
複数の手法のうちで、入力画像の撮影に際して得られた撮影情報に応じた手法に従って前記入力画像における注目領域を決定する注目領域決定部と、
前記注目領域に含まれない周辺領域に対してぼかし処理を施す画像処理部と、
として機能させるための、プログラム。 Computer
Of a plurality of methods, a region of interest determination unit that determines a region of interest in the input image according to a method according to shooting information obtained at the time of shooting of the input image;
An image processing unit that performs a blurring process on a peripheral area not included in the attention area;
Program to function as
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011201501A JP5857567B2 (en) | 2011-09-15 | 2011-09-15 | Image processing apparatus, image processing method, and program |
| US13/589,673 US8958655B2 (en) | 2011-09-15 | 2012-08-20 | Image processor, image processing method, and computer readable medium |
| EP12006258.3A EP2571251B1 (en) | 2011-09-15 | 2012-09-04 | Image processor, image processing method, and computer readable medium |
| CN201210328749.XA CN103002212B (en) | 2011-09-15 | 2012-09-07 | Image processor, image processing method and computer-readable medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011201501A JP5857567B2 (en) | 2011-09-15 | 2011-09-15 | Image processing apparatus, image processing method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2013062761A true JP2013062761A (en) | 2013-04-04 |
| JP5857567B2 JP5857567B2 (en) | 2016-02-10 |
Family
ID=47115120
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011201501A Active JP5857567B2 (en) | 2011-09-15 | 2011-09-15 | Image processing apparatus, image processing method, and program |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US8958655B2 (en) |
| EP (1) | EP2571251B1 (en) |
| JP (1) | JP5857567B2 (en) |
| CN (1) | CN103002212B (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024010719A (en) * | 2022-07-13 | 2024-01-25 | セイコーエプソン株式会社 | Projector control method, program, and projector |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3111093B2 (en) | 1991-09-17 | 2000-11-20 | 株式会社ブリヂストン | Waste treatment method |
| JP3222421B2 (en) | 1998-07-02 | 2001-10-29 | 戸田建設株式会社 | Impermeable method |
| JP6172935B2 (en) * | 2012-12-27 | 2017-08-02 | キヤノン株式会社 | Image processing apparatus, image processing method, and image processing program |
| CN103945210B (en) * | 2014-05-09 | 2015-08-05 | 长江水利委员会长江科学院 | A kind of multi-cam image pickup method realizing shallow Deep Canvas |
| JP5927265B2 (en) * | 2014-10-28 | 2016-06-01 | シャープ株式会社 | Image processing apparatus and program |
| US20170094019A1 (en) * | 2015-09-26 | 2017-03-30 | Microsoft Technology Licensing, Llc | Providing Access to Non-Obscured Content Items based on Triggering Events |
| CN105227838B (en) * | 2015-09-28 | 2018-07-06 | 广东欧珀移动通信有限公司 | A kind of image processing method and mobile terminal |
| KR102372711B1 (en) | 2015-10-13 | 2022-03-17 | 삼성전자주식회사 | Image photographing apparatus and control method thereof |
| WO2019150668A1 (en) | 2018-01-30 | 2019-08-08 | ソニー株式会社 | Image processing device, image processing method, and program |
| CN109919867A (en) * | 2019-02-21 | 2019-06-21 | 成都品果科技有限公司 | A kind of filter method and device |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006191467A (en) * | 2005-01-07 | 2006-07-20 | Nikon Corp | Imaging device |
| JP2007129310A (en) * | 2005-11-01 | 2007-05-24 | Nikon Corp | Imaging device |
| JP2007199261A (en) * | 2006-01-25 | 2007-08-09 | Nikon Corp | Focus detection apparatus, method and camera |
| JP2009055125A (en) * | 2007-08-23 | 2009-03-12 | Ricoh Co Ltd | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6940820B2 (en) * | 2001-01-19 | 2005-09-06 | General Instrument Corporation | Voice-aided diagnostic for voice over internet protocol (VOIP) based device |
| US6801642B2 (en) * | 2002-06-26 | 2004-10-05 | Motorola, Inc. | Method and apparatus for limiting storage or transmission of visual information |
| KR100977713B1 (en) * | 2003-03-15 | 2010-08-24 | 삼성전자주식회사 | Preprocessing apparatus and method for character recognition of image signal |
| CN101297545B (en) * | 2005-10-28 | 2012-05-02 | 株式会社尼康 | Photographic device, image processing device |
| US8407093B2 (en) * | 2005-12-28 | 2013-03-26 | Brian R. Cartmell | Advertising technique |
| JP4935302B2 (en) | 2006-11-02 | 2012-05-23 | 株式会社ニコン | Electronic camera and program |
| US7928983B2 (en) * | 2007-06-04 | 2011-04-19 | Daedal Doodle, LLC | Interactive labyrinth curve generation and applications thereof |
| JP2009027298A (en) * | 2007-07-18 | 2009-02-05 | Ricoh Co Ltd | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
| JP2009054130A (en) * | 2007-07-27 | 2009-03-12 | Ricoh Co Ltd | Image processing apparatus, image processing method, and digital still camera |
| JP2009110137A (en) * | 2007-10-29 | 2009-05-21 | Ricoh Co Ltd | Image processing apparatus, image processing method, and image processing program |
| JP4813446B2 (en) * | 2007-11-16 | 2011-11-09 | 富士フイルム株式会社 | IMAGING SYSTEM, IMAGING DEVICE EQUIPPED WITH THIS IMAGING SYSTEM, PORTABLE TERMINAL DEVICE, IN-VEHICLE DEVICE, MEDICAL DEVICE, AND METHOD FOR PRODUCING IMAGING SYSTEM |
| KR101510098B1 (en) * | 2007-12-21 | 2015-04-08 | 삼성전자주식회사 | Apparatus and method for blurring an image background in digital image processing device |
| JP5300133B2 (en) * | 2008-12-18 | 2013-09-25 | 株式会社ザクティ | Image display device and imaging device |
| TWI493500B (en) * | 2009-06-18 | 2015-07-21 | Mstar Semiconductor Inc | Image processing method and related apparatus for rendering two-dimensional image to show three-dimensional effect |
| JP5173954B2 (en) * | 2009-07-13 | 2013-04-03 | キヤノン株式会社 | Image processing apparatus and image processing method |
| JP5493789B2 (en) * | 2009-12-07 | 2014-05-14 | 株式会社リコー | Imaging apparatus and imaging method |
| US8655093B2 (en) * | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
-
2011
- 2011-09-15 JP JP2011201501A patent/JP5857567B2/en active Active
-
2012
- 2012-08-20 US US13/589,673 patent/US8958655B2/en active Active
- 2012-09-04 EP EP12006258.3A patent/EP2571251B1/en active Active
- 2012-09-07 CN CN201210328749.XA patent/CN103002212B/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006191467A (en) * | 2005-01-07 | 2006-07-20 | Nikon Corp | Imaging device |
| JP2007129310A (en) * | 2005-11-01 | 2007-05-24 | Nikon Corp | Imaging device |
| JP2007199261A (en) * | 2006-01-25 | 2007-08-09 | Nikon Corp | Focus detection apparatus, method and camera |
| JP2009055125A (en) * | 2007-08-23 | 2009-03-12 | Ricoh Co Ltd | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024010719A (en) * | 2022-07-13 | 2024-01-25 | セイコーエプソン株式会社 | Projector control method, program, and projector |
| JP7559808B2 (en) | 2022-07-13 | 2024-10-02 | セイコーエプソン株式会社 | Projector control method, program, and projector |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5857567B2 (en) | 2016-02-10 |
| EP2571251A2 (en) | 2013-03-20 |
| US20130071042A1 (en) | 2013-03-21 |
| EP2571251A3 (en) | 2017-01-04 |
| CN103002212B (en) | 2018-06-19 |
| EP2571251B1 (en) | 2021-12-22 |
| CN103002212A (en) | 2013-03-27 |
| US8958655B2 (en) | 2015-02-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5857567B2 (en) | Image processing apparatus, image processing method, and program | |
| US10540805B2 (en) | Control of display of composite image based on depth information | |
| CN106210539B (en) | A method and terminal for acquiring panoramic images | |
| JP6007469B2 (en) | Information processing apparatus, display control method, and program | |
| US8400532B2 (en) | Digital image capturing device providing photographing composition and method thereof | |
| CN103871051A (en) | Image processing method, device and electronic equipment | |
| JP2011028689A (en) | Moving image extraction device, program and moving image extraction method | |
| JP2015056143A (en) | Information processing apparatus and information processing method | |
| KR20120068078A (en) | Image photographing apparatus and method for connecting audio data to image data thereof | |
| TW201544996A (en) | Gaze tracking for one or more users | |
| JP2011119974A (en) | Panoramic image synthesizer, panoramic image synthesis method, and program | |
| CN104427237B (en) | A kind of display methods and image processing equipment focusing picture | |
| KR20140090078A (en) | Method for processing an image and an electronic device thereof | |
| CN108156378A (en) | Photographic method, mobile terminal and computer readable storage medium | |
| KR20130088564A (en) | Apparatus and method for controlling mobile terminal using user interaction | |
| JP6149862B2 (en) | Display control device, display control system, and display control method | |
| KR20090111913A (en) | Motion Detection Method and Device | |
| CN108259771A (en) | Image processing method, image processing apparatus, storage medium, and electronic device | |
| CN104038832A (en) | Video playing method and device | |
| CN108427938A (en) | Image processing method, image processing apparatus, storage medium, and electronic device | |
| CN106127720B (en) | A kind of method and apparatus shooting enlarged drawing | |
| US9047795B2 (en) | Methods and devices for providing a wallpaper viewfinder | |
| JP2012034069A (en) | Image processor and image processing program | |
| JP2010157854A (en) | Information processing apparatus, information processing method and program | |
| JP7589692B2 (en) | Imaging control device, imaging control method, program, imaging device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140728 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150420 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150428 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150616 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151117 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151130 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5857567 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |