JPH06348838A - Picture synthesizing method - Google Patents
Picture synthesizing methodInfo
- Publication number
- JPH06348838A JPH06348838A JP5160126A JP16012693A JPH06348838A JP H06348838 A JPH06348838 A JP H06348838A JP 5160126 A JP5160126 A JP 5160126A JP 16012693 A JP16012693 A JP 16012693A JP H06348838 A JPH06348838 A JP H06348838A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- intensity
- extracted
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
(57)【要約】
【目的】 合成画像中において、背景画像に組み込まれ
た抽出画像の膨らみを抑え、単純なアルゴリズムで確実
に境界部分のギザギザを目立たなくすること。
【構成】 抽出画像を背景画像に組み込んで合成する際
に、抽出画像の最外周部分に位置する画素G1、…につ
いてのエッジ強度E1、…と強度(例えば輝度)Kc1、
…とを求めるとともに、背景画像の前記画素G1、…に
対応した位置の画素の強度Kh1、…を求め、さらにエ
ッジ強度E1、…の最大値Emに対する比α1(=E1/
Em)、…を求め、K1=α1×Kc1+(1−α1)×K
h1、…の演算で求めた強度K1、…で、前記画素G1、
…の強度Kc1、…を置き換える。このため、抽出画像
の最外周部分のエッジ強度が大きい鮮明な部分はシャー
プになり、不鮮明な部分はぼかされる。また、前記画素
G1、…の強度は背景画像の強度を考慮して変化するの
で、背景画像との境界部分のつながりが自然になる。
(57) [Abstract] [Purpose] To suppress the bulge of the extracted image embedded in the background image in the composite image, and to make the jaggedness of the boundary part inconspicuous by a simple algorithm. [Structure] When the extracted image is incorporated into a background image and synthesized, edge strength E 1 , ... And intensity (for example, luminance) Kc 1 for pixels G 1 , ... Located on the outermost peripheral portion of the extracted image,
, And the intensity Kh 1 , ... Of the pixel at the position corresponding to the pixel G 1 , ... Of the background image, and further the ratio α 1 (= E 1 / E 1 / = E 1 / = to the maximum value Em of the edge intensities E 1 , ...
Em), ..., K 1 = α 1 × Kc 1 + (1-α 1 ) × K
h 1, strength K 1 determined by the ... operation, ... a, the pixel G 1,
Replace the intensity Kc 1 , ... Of. For this reason, a sharp portion having a high edge strength in the outermost peripheral portion of the extracted image becomes sharp, and an unclear portion is blurred. Further, since the intensities of the pixels G 1 , ... Change in consideration of the intensity of the background image, the connection with the boundary portion with the background image becomes natural.
Description
【0001】[0001]
【産業上の利用分野】本発明は、景観シミュレーション
やデザインシミュレーション等のイメージシミュレーシ
ョンシステム、電子カタログの展示システム等で用いら
れる画像合成方法に関するものであり、原画像から切り
出した抽出画像を背景画像の対応領域に組み込んで合成
する際に、抽出画像の輪郭部分のギザギザを目立たなく
するための処理(アンチエリアジング(anti−al
iasing)処理)を行なう技術に関するものであ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing method used in an image simulation system such as a landscape simulation and a design simulation, an electronic catalog exhibition system, and the like. When embedding in the corresponding area and synthesizing, processing for making the jaggedness of the contour portion of the extracted image inconspicuous (anti-aliasing (anti-al
easing)).
【0002】[0002]
【従来の技術】一般に、画像抽出によって原画像から切
り出した抽出画像を背景画像の対応領域に組み込んで合
成した合成画像においては、抽出画像と背景画像の境界
部分(特に斜線部分や辺縁部分)にギザギザが生じ(例
えば階段状のギザギザが生じ)、ちらつきが目立つなど
のエリアジング(aliasing)と呼ばれる現象が
生じ、見るものに違和感を生じさせるという問題があ
る。2. Description of the Related Art Generally, in a composite image obtained by incorporating an extracted image cut out from an original image by image extraction into a corresponding area of a background image and combining the extracted image and the background image, a boundary portion (particularly, a shaded portion or a peripheral portion) There is a problem in that a phenomenon called aliasing such as flicker is conspicuous, which causes a sense of discomfort in a viewer.
【0003】このような問題を解決するために、エリア
ジング現象を抑制するためのアンチエリアジング処理が
行なわれる。従来のアンチエリアジング処理方法には、
ギザギザのエッジ部分をぼかして目立たなくするため
に、ギザギザ部分を中間階調の輝度をもつ画素で埋めて
いく方法や、抽出画像に一定のローパスフィルターをか
けて周辺をぼかすという方法が行なわれていた。In order to solve such a problem, anti-aliasing processing for suppressing the aliasing phenomenon is performed. Conventional anti-aliasing processing methods include
In order to blur the jagged edges to make them inconspicuous, a method of filling the jagged parts with pixels having an intermediate gradation of brightness or a method of blurring the periphery by applying a certain low-pass filter to the extracted image is performed. It was
【0004】[0004]
【発明が解決しようとする課題】しかしながら、前者の
アンチエリアジング処理方法では、これを自動的に行な
おうとすると、図6に示すように、抽出画像30と背景
画像32を合成した合成画像34において、抽出画像3
0と背景画像32の境界部分における背景画像32側の
ギザギザ部分36を検出する。However, in the former anti-aliasing processing method, if this is automatically performed, as shown in FIG. 6, a combined image 34 obtained by combining the extracted image 30 and the background image 32 is obtained. In, extracted image 3
A jagged portion 36 on the side of the background image 32 at the boundary between 0 and the background image 32 is detected.
【0005】そして、この検出したギザギザ部分36の
周辺の画素の輝度データを用いて中間階調の輝度を計算
し、この計算した輝度でギザギザ部分36を埋めるよう
にしているため、アルゴリズムが複雑になり、場合によ
っては1回の処理では不十分な場合が生じることがある
という問題点があった。さらに、抽出画像30が膨らむ
のを避けることができないという問題点があった。Then, the brightness of the intermediate gradation is calculated using the brightness data of the pixels around the detected notched portion 36, and the notched portion 36 is filled with the calculated brightness, so that the algorithm is complicated. In some cases, there is a problem that one treatment may not be sufficient. Further, there is a problem that the extracted image 30 cannot be prevented from expanding.
【0006】また、後者のアンチエリアジング処理方法
では、抽出時にギザギザ部分の周辺をぼかすため、抽出
部分が膨らんで余分な背景領域まで切り出してしまうこ
とになるという問題点があった。さらに、一定のローパ
スフィルターでは場所によってぼかし方に過不足が生じ
るという問題点があった。Further, in the latter anti-aliasing processing method, since the periphery of the jagged portion is blurred at the time of extraction, there is a problem that the extracted portion swells and an extra background area is cut out. Furthermore, there is a problem in that a certain low-pass filter causes excess or deficiency in the blurring method depending on the location.
【0007】本発明は上述の問題点に鑑みなされたもの
で、抽出領域の膨らみを抑え、余分な背景領域を切りだ
すことがなく、より単純なアルゴリズムで確実に境界部
分のギザギザを目立たなくさせることのできる、画像合
成方法を提供することを目的とするものである。The present invention has been made in view of the above-mentioned problems, and suppresses the bulge of the extraction area, does not cut out an extra background area, and surely makes the jaggedness of the boundary portion inconspicuous by a simpler algorithm. It is an object of the present invention to provide an image synthesizing method capable of performing the above.
【0008】[0008]
【課題を解決するための手段】請求項1に記載の発明
は、画像抽出によって原画像から切り出した抽出画像を
背景画像の対応領域に組み込んで合成する方法におい
て、抽出画像を背景画像に組み込んで合成する際に、抽
出画像の最外周部分に位置する画素G1、G2、G3、…
についてのエッジ強度E1、E2、E3、…と強度Kc1、
Kc2、Kc3、…とを求めるとともに、背景画像の前記
画素G1、G2、G3、…に対応した位置の画素の強度K
h1、Kh2、Kh3、…を求め、さらにエッジ強度E1、
E2、E3、…の最大値Emに対する比α1(=E1/E
m)、α2(=E2/Em)、α3(=E3/Em)、…を
求め、K1=α1×Kc1+(1−α1)×Kh1、K2=α
2×Kc2+(1−α2)×Kh2、K3=α3×Kc3+
(1−α3)×Kh3、…の演算で求めた強度K1、K2、
K3、…で、前記画素G1、G2、G3、…の強度Kc1、
Kc2、Kc3、…を置き換えてなることを特徴とするも
のである。According to a first aspect of the present invention, in a method of incorporating an extracted image cut out from an original image by image extraction into a corresponding area of a background image and synthesizing the extracted image, the extracted image is incorporated into the background image. Pixels G 1 , G 2 , G 3 , ... Which are located at the outermost periphery of the extracted image when they are combined
Edge strengths E 1 , E 2 , E 3 , ... And strength Kc 1 ,
, Kc 2 , Kc 3 , ... And the intensity K of the pixel at the position corresponding to the pixels G 1 , G 2 , G 3 , ... Of the background image.
h 1 , Kh 2 , Kh 3 , ... Are obtained, and the edge strength E 1 ,
The ratio α 1 (= E 1 / E) of the maximum value Em of E 2 , E 3 , ...
m), α 2 (= E 2 / Em), α 3 (= E 3 / Em), ..., and K 1 = α 1 × Kc 1 + (1-α 1 ) × Kh 1 , K 2 = α
2 × Kc 2 + (1-α 2 ) × Kh 2 , K 3 = α 3 × Kc 3 +
The intensities K 1 , K 2 , obtained by the calculation of (1-α 3 ) × Kh 3 , ...
K 3, ... in the pixel G 1, G 2, G 3 , ... strength Kc 1 of
It is characterized in that Kc 2 , Kc 3 , ... Are replaced.
【0009】請求項2に記載の発明は、請求項1に記載
の発明において、輪郭線記憶部に記憶する輪郭線に関す
る情報を、画像抽出用輪郭線、その外側および内側に対
応する3種類の画素に相異なるラベル付け(例えば
「0」、「1」、「2」のラベル付け)をした情報とす
ることによって、画像抽出用輪郭線内に原画像の対応領
域を抽出する画像抽出操作を行ない、輪郭線記憶部の画
像抽出用輪郭線の内側の画素のうちの画像抽出用輪郭線
に隣接する最外周の画素のラベルを前記3種類のラベル
と異なるラベル(例えば「3」のラベル)に置き換える
ことによって、画像合成の際における画素強度の置き換
えを行なうようにしたことを特徴とするものである。According to a second aspect of the present invention, in the first aspect of the invention, the information regarding the contour line stored in the contour line storage unit is provided with three types of information corresponding to the image extraction contour line and the outside and inside thereof. An image extraction operation for extracting the corresponding region of the original image within the image extraction contour line is performed by using the information in which the pixels are labeled differently (for example, "0", "1", and "2" are labeled). Of the pixels inside the image extraction outline in the outline storage unit, the label of the outermost peripheral pixel adjacent to the image extraction outline is different from the three types of labels (for example, a label of “3”). By replacing the pixel intensities at the time of image composition.
【0010】[0010]
【作用】請求項1の発明による画像合成方法では、抽出
画像を背景画像の対応領域に組み込んで画像を合成する
際に、まず抽出画像の最外周部分に位置する画素G1、
G2、G3、…についてのエッジ強度E1、E2、E3、…
と強度(例えば輝度)Kc1、Kc2、Kc3、…とを求
めるとともに、背景画像の画素のうちの画素G1、G2、
G3、…に対応した位置の画素の強度Kh1、Kh2、K
h3、…を求める。In the image synthesizing method according to the first aspect of the present invention, when the extracted image is incorporated into the corresponding area of the background image to synthesize the image, first, the pixel G 1 located at the outermost peripheral portion of the extracted image,
G 2, G 3, the edge intensity for ... E 1, E 2, E 3, ...
And the intensities (for example, brightness) Kc 1 , Kc 2 , Kc 3 , ... And the pixels G 1 , G 2 among the pixels of the background image,
Intensities Kh 1 , Kh 2 , K of pixels at positions corresponding to G 3 , ...
h 3 , ...
【0011】ついで、エッジ強度E1、E2、E3、…の
最大値Emに対する比α1(=E1/Em)、α2(=E2
/Em)、α3(=E3/Em)、…を求め、K1=α1×
Kc1+(1−α1)×Kh1、K2=α2×Kc2+(1−
α2)×Kh2、K3=α3×Kc3+(1−α3)×K
h3、…の演算を行ない、この演算で求めた強度K1、K
2、K3、…で、画素G1、G2、G3、…の強度Kc1、K
c2、Kc3、…を置き換える。すなわち、合成画像中の
抽出画像の最外周部分の画素G1、G2、G3、…の強度
が、元の強度Kc1、Kc2、Kc3、…から、演算で求
めた強度K1、K2、K3、…に置き換えられる。Then, the ratio of the edge strengths E 1 , E 2 , E 3 , ... To the maximum value Em is α 1 (= E 1 / Em), α 2 (= E 2).
/ Em), α 3 (= E 3 / Em), ..., and K 1 = α 1 ×
Kc 1 + (1-α 1 ) × Kh 1 , K 2 = α 2 × Kc 2 + (1-
α 2 ) × Kh 2 , K 3 = α 3 × Kc 3 + (1-α 3 ) × K
The calculation of h 3 , ... Is performed, and the intensities K 1 , K obtained by this calculation are calculated.
2 , K 3 , ..., Intensities Kc 1 , K of the pixels G 1 , G 2 , G 3 ,.
Replace c 2 , Kc 3 , ... In other words, composite pixel G 1 at the outermost peripheral portion of the extracted image in the image, G 2, G 3, the strength of ... is the original intensity Kc 1, Kc 2, Kc 3 , ... from the intensity K 1 determined by the calculation , K 2 , K 3 , ...
【0012】したがって、抽出画像の最外周部分の画素
(例えばG1)の強度(例えばK1)は、エッジ強度の比
α(例えばα1=E1/Em)が大きい画素については抽
出画像の対応する画素(例えばG1)の強度(例えばK
c1)からの寄与が大きくなり、エッジ強度の比α(例
えばα1)が小さい画素については背景画像の対応する
画素の強度(例えばKh1)からの寄与が大きくなる。Therefore, the intensity (eg, K 1 ) of the pixel (eg, G 1 ) at the outermost periphery of the extracted image is larger than that of the pixel having a large edge intensity ratio α (eg, α 1 = E 1 / Em). The intensity (eg K) of the corresponding pixel (eg G 1 )
The contribution from c 1 ) becomes large, and the contribution from the intensity (eg, Kh 1 ) of the corresponding pixel in the background image becomes large for the pixel having a small edge intensity ratio α (eg, α 1 ).
【0013】このため、合成画像は、抽出画像の最外周
部分のうちのエッジ強度が大きい鮮明な部分はシャープ
になり、不鮮明な部分はぼかされる。また、抽出画像の
最外周部分の強度は背景画像の強度からの寄与成分を有
しているので、背景画像との境界部分のつながりが自然
になる。Therefore, in the composite image, a sharp portion having a large edge strength in the outermost peripheral portion of the extracted image is sharp, and an unclear portion is blurred. Further, since the intensity of the outermost peripheral portion of the extracted image has a contribution component from the intensity of the background image, the connection with the boundary portion with the background image becomes natural.
【0014】請求項2の発明による画像合成方法では、
前記請求項1の発明による作用の外につぎのような作用
を有する。すなわち、まず、輪郭線記憶部に記憶する輪
郭線に関する情報を、画像抽出用輪郭線、その外側およ
び内側に対応する3種類の画素に相異なるラベル付け
(例えば「1」、「0」、「2」のラベル付け)をした
情報とすることによって、画像抽出用輪郭線内に原画像
の対応領域を抽出する画像抽出操作を行なう。In the image synthesizing method according to the second aspect of the invention,
In addition to the action according to the invention of claim 1, the following action is provided. That is, first, the information about the contour line stored in the contour line storage unit is labeled differently on the three types of pixels corresponding to the image extraction contour line and its outside and inside (for example, “1”, “0”, “ The image extraction operation of extracting the corresponding region of the original image within the image extraction contour is performed by using the information labeled as “2”).
【0015】ついで、輪郭線記憶部の画像抽出用輪郭線
の内側の画素のうちの画像抽出用輪郭線に隣接する最外
周の画素のラベルを3種類のラベル(例えば「1」、
「0」、「2」のラベル)と異なるラベル(例えば
「3」のラベル)に置き換えることによって、画像合成
の際における画素の強度の置き換えを行なう。Next, among the pixels inside the contour line for image extraction in the contour storage unit, the outermost peripheral pixels adjacent to the contour line for image extraction are labeled with three types of labels (for example, "1",
By substituting a label (for example, a label of “3”) different from the “0” and “2” labels), the pixel intensities at the time of image combination are replaced.
【0016】[0016]
【実施例】以下、本発明による画像合成方法の一実施例
を図1から図5までを用いて説明する。図2は本発明方
法の一実施例を実施する装置の構成例で、この図におい
て、10はテレビカメラやイメージスキャナ等を主体と
してなる画像入力部で、この画像入力部10は、図3の
(a)に示した原画像11を取り込んで、対応した原画
像情報を出力するように構成されている。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an image synthesizing method according to the present invention will be described below with reference to FIGS. 2 shows an example of the configuration of an apparatus for carrying out one embodiment of the method of the present invention. In this figure, 10 is an image input section mainly composed of a television camera, an image scanner, etc., and this image input section 10 is shown in FIG. The original image 11 shown in (a) is taken in and the corresponding original image information is output.
【0017】14は画像処理部の一例としてのマイクロ
プロセッサ、16はRAM(例えばVRAM)、18は
画像表示部の一例としてのCRTディスプレイ、20は
ポインティングデバイスの一例としてのタブレットを表
し、前記RAM16は、原画像記憶部16a、輪郭線記
憶部16bおよび背景画像記憶部16cを具備してい
る。Reference numeral 14 is a microprocessor as an example of an image processing unit, 16 is a RAM (for example, VRAM), 18 is a CRT display as an example of an image display unit, 20 is a tablet as an example of a pointing device, and the RAM 16 is An original image storage unit 16a, a contour line storage unit 16b, and a background image storage unit 16c are provided.
【0018】22は前記マイクロプロセッサ14に結合
したROMで、このROM22内には、前記マイクロプ
ロセッサ14によって公知の細線化処理、画像抽出処理
および画像合成処理を行なわせるためのプログラムが格
納されている。前記ROM22内には、さらに、前記マ
イクロプロセッサ14によってつぎの(a)、(b)、
(c)、(d)、(e)に示すような処理を行なわせる
ためのプログラムが格納されている。Reference numeral 22 denotes a ROM coupled to the microprocessor 14, and a program for causing the microprocessor 14 to perform known thinning processing, image extraction processing and image synthesis processing is stored in the ROM 22. . In the ROM 22, the microprocessor 14 further includes the following (a), (b),
A program for performing the processes shown in (c), (d), and (e) is stored.
【0019】(a)抽出画像の最外周部分の画素G1、
G2、G3、…についての強度(例えば輝度、以下同様)
Kc1、Kc2、Kc3、…と、背景画像の前記画素G1、
G2、G3、…に対応した位置の画素の強度Kh1、K
h2、Kh3、…とを検出する画素強度検出機能。(A) Pixel G 1 in the outermost peripheral portion of the extracted image,
Intensity for G 2 , G 3 , ... (For example, brightness, and so on)
Kc 1 , Kc 2 , Kc 3 , ... And the pixel G 1 of the background image,
Intensities Kh 1 and K of pixels at positions corresponding to G 2 , G 3 , ...
A pixel intensity detection function for detecting h 2 , Kh 3 , ...
【0020】(b)抽出画像の最外周部分の画素G1、
G2、G3、…についてのエッジ強度E1、E2、E3、…
をエッジ検出オペレータなどを用いて算出するエッジ強
度演算機能。(B) The pixel G 1 of the outermost peripheral portion of the extracted image,
G 2, G 3, the edge intensity for ... E 1, E 2, E 3, ...
Edge strength calculation function to calculate using an edge detection operator.
【0021】(c)前記(b)で求めたエッジ強度
E1、E2、E3、…の最大値Em(EmはE1、E2、
E3、…のうちの最大のものを表す)に対する比α1(=
E1/Em)、α2(=E2/Em)、α3(=E3/E
m)、…を算出するエッジ強度比演算機能。(C) The maximum value Em of the edge strengths E 1 , E 2 , E 3 , ... Obtained in (b) above (Em is E 1 , E 2 ,
The ratio α 1 (= representing the maximum of E 3 , ...) (=
E 1 / Em), α 2 (= E 2 / Em), α 3 (= E 3 / E)
m), ... An edge strength ratio calculation function.
【0022】(d)前記(a)、(b)、(c)で求め
た値を用いた演算式、K1=α1×Kc1+(1−α1)×
Kh1、K2=α2×Kc2+(1−α2)×Kh2、K3=
α3×Kc3+(1−α3)×Kh3、…の演算を行なう演
算機能。(D) An arithmetic expression using the values obtained in (a), (b) and (c) above, K 1 = α 1 × Kc 1 + (1-α 1 ) ×
Kh 1 , K 2 = α 2 × Kc 2 + (1-α 2 ) × Kh 2 , K 3 =
A calculation function for performing calculation of α 3 × Kc 3 + (1-α 3 ) × Kh 3 , ....
【0023】(e)抽出画像の組み込みによる画像合成
の際に、前記(d)で求めた強度K1、K2、K3、…
で、画素G1、G2、G3、…の強度Kc1、Kc2、K
c3、…を置き換える画像強度置き換え機能。(E) When the images are combined by incorporating the extracted images, the intensities K 1 , K 2 , K 3 , ... Obtained in (d) above.
Then, the intensities Kc 1 , Kc 2 , K of the pixels G 1 , G 2 , G 3 ,.
Image intensity replacement function for replacing c 3 , ....
【0024】つぎに、図2の作用を図1、図3から図5
までを併用して説明する。 (イ)まず、従来例と同様にして、画像入力部10で取
り込んだ原画像11についての原画像情報がRAM16
内の原画像記憶部16aに書き込まれるとともに、CR
Tディスプレイ18によって図3の(a)に示すような
原画像11が表示される。Next, the operation of FIG. 2 will be described with reference to FIGS.
Will be explained together. (A) First, in the same manner as in the conventional example, the original image information about the original image 11 captured by the image input unit 10 is stored in the RAM 16.
Is written in the original image storage unit 16a in the
The T display 18 displays the original image 11 as shown in FIG.
【0025】(ロ)ついで、タブレット20からの入力
に基づいて、粗輪郭線に関する情報が輪郭線記憶部16
bに書き込まれるとともに、CRTディスプレイ18で
原画像12中に粗輪郭線が重畳表示される。(B) Next, based on the input from the tablet 20, the information about the rough contour line is stored in the contour line storage unit 16
In addition to being written in b, the rough contour line is superimposed and displayed in the original image 12 on the CRT display 18.
【0026】(ハ)ついで、マイクロプロセッサ14
は、ROM22に格納された細線化処理用プログラムに
基づく細線化機能によって、粗輪郭線を細線化して図3
の(b)に示すような画像抽出用輪郭線24に関する情
報を輪郭線記憶部16bに記憶するとともに、CRTデ
ィスプレイ18で表示し、ついで、図3の(b)に示す
ように、画像抽出用輪郭線24、その外側および内側の
それぞれに論理「1」、「0」および「2」のラベル付
けをする。(C) Next, the microprocessor 14
3 thins the rough contour line by the thinning function based on the thinning processing program stored in the ROM 22.
The information about the image extracting contour line 24 as shown in (b) of FIG. 3 is stored in the contour line storage unit 16b and displayed on the CRT display 18, and then, as shown in (b) of FIG. The contour 24 and its outside and inside, respectively, are labeled with logical "1", "0" and "2".
【0027】(ニ)ついで、マイクロプロセッサ14
は、ROM22に格納された画素抽出用プログラムに基
づく画素抽出機能によって、原画像記憶部16に記憶さ
れた原画像11のうちの前記(ハ)で論理「2」にラベ
ル付けした領域の画像12を抽出する。この抽出画像1
2は図3の(c)に示すようにCRTディスプレイ18
で表示される。(D) Next, the microprocessor 14
Is an image 12 of the area labeled with logic “2” in (c) of the original image 11 stored in the original image storage unit 16 by the pixel extraction function based on the pixel extraction program stored in the ROM 22. To extract. This extracted image 1
2 is a CRT display 18 as shown in FIG.
Is displayed.
【0028】(ホ)ついで、マイクロプロセッサ14
は、ROM22に格納された画素強度検出用プログラム
に基づく画素強度検出機能によって、前記(ニ)で抽出
した抽出画像12の最外周部分(すなわち画像抽出用輪
郭線24に隣接する部分)の画素G1、G2、G3、…の
強度(例えば輝度、以下同様)Kc1、Kc2、Kc3、
…と、図3の(d)に示すような背景画像26の前記画
素G1、G2、G3、…に対応した位置の画素の強度K
h1、Kh2、Kh3、…とを検出する。(E) Next, the microprocessor 14
Is a pixel G of the outermost peripheral portion (that is, a portion adjacent to the image extraction contour line 24) of the extracted image 12 extracted in (d) above by the pixel intensity detection function based on the pixel intensity detection program stored in the ROM 22. Intensity of 1 , G 2 , G 3 , ... (For example, brightness, the same applies hereinafter) Kc 1 , Kc 2 , Kc 3 ,
, And the intensity K of the pixel at the position corresponding to the pixels G 1 , G 2 , G 3 , ... Of the background image 26 as shown in FIG.
h 1, Kh 2, Kh 3 , to detect ... and.
【0029】(ヘ)ついで、マイクロプロセッサ14
は、ROM22に格納されたエッジ強度演算用プログラ
ムに基づくエッジ強度演算機能によって、画素G1、
G2、G3、…のエッジ強度E1、E2、E3、…をエッジ
検出オペレータを用いて計算する。このエッジ強度計算
は、RAM16内の輪郭線記憶部16bの情報を、図4
の(a)に示す画像抽出用にラベル付けした情報から、
図4の(b)に示す画像合成用にラベル付けした情報に
変化させて、重複した計算をしないようにする。(F) Next, the microprocessor 14
Is a pixel G 1 , by an edge strength calculation function based on an edge strength calculation program stored in the ROM 22.
Edge strengths E 1 , E 2 , E 3 , ... Of G 2 , G 3 , ... Are calculated using an edge detection operator. This edge strength calculation uses the information in the contour line storage unit 16b in the RAM 16 as shown in FIG.
From the information labeled for image extraction shown in (a) of
The information labeled for image composition shown in FIG. 4B is changed to prevent duplicate calculations.
【0030】すなわち、まず図4の(a)の画像抽出用
輪郭線24を構成する各画素(「1」にラベル付けした
画素)の近傍の「2」にラベル付けした画素g1、g2、
g3、…に注目し、この画素g1、g2、g3、…に対応し
た抽出画像12中の画素G1、G2、G3、…についてエ
ッジ強度計算が行なわれ、計算が終わった画素に対応し
た画素g1、g2、g3、…について順次ラベルを「2」
から「3」(図4の(a)に既に付けられている
「0」、「1」、「2」以外のラベルであればよい)に
変えていき、図4の(b)に示すようになる。That is, first, the pixels g 1 and g 2 labeled "2" in the vicinity of each pixel (pixel labeled "1") constituting the contour line 24 for image extraction of FIG. ,
g 3, attention ..., this pixel g 1, g 2, g 3 , pixels G 1 in the extracted image 12 corresponding to ..., G 2, G 3, ... edge intensity calculation is performed for, finished calculation Labels “1” are sequentially assigned to the pixels g 1 , g 2 , g 3 , ...
4 to (3) (labels other than “0”, “1”, and “2” already attached to (a) of FIG. 4) can be changed, and as shown in (b) of FIG. become.
【0031】また、上述のエッジ検出オペレータを用い
た計算は、注目する画素の近傍領域内の強度に重み付け
をして和や差などの計算をするもので、8近傍について
3×3のマトリックスの形が与えられ、そのマトリック
スを画像中の3×3の領域にそれぞれ掛け合わせ、足し
合わせることによって行なわれる。In addition, the above-described calculation using the edge detection operator is to calculate the sum or difference by weighting the intensities in the neighborhood area of the pixel of interest, and to calculate the sum or difference of the 8 neighborhoods. A shape is given, and this is done by multiplying each of the 3x3 regions in the image by the matrix and adding them together.
【0032】(ト)ついで、マイクロプロセッサ14
は、ROM22に格納されたエッジ強度比演算用プログ
ラムに基づくエッジ強度比演算機能によって、画素
G1、G2、G3、…のエッジ強度E1、E2、E3、…の最
大値Em(EmはE1、E2、E3、…のうちの最大のも
のを表す)に対する比α1(=E1/Em)、α2(=E2
/Em)、α3(=E3/Em)、…を算出する。(G) Next, the microprocessor 14
Is the maximum value Em of the edge intensities E 1 , E 2 , E 3 , ... Of the pixels G 1 , G 2 , G 3 , ... By the edge intensity ratio operation function based on the edge intensity ratio operation program stored in the ROM 22. (Em represents the maximum of E 1 , E 2 , E 3 , ...) And the ratio α 1 (= E 1 / Em), α 2 (= E 2
/ Em), α 3 (= E 3 / Em), ...
【0033】(チ)ついで、マイクロプロセッサ14
は、ROM22に格納された演算用プログラムに基づく
演算機能によって、前記(ホ)、(ヘ)、(ト)で求め
た値を用いた演算式、K1=α1×Kc1+(1−α1)×
Kh1、K2=α2×Kc2+(1−α2)×Kh2、K3=
α3×Kc3+(1−α3)×Kh3、…の演算を行なう。(H) Next, the microprocessor 14
Is an arithmetic expression using the values obtained in the above (e), (f), and (e) by the arithmetic function based on the arithmetic program stored in the ROM 22, K 1 = α 1 × Kc 1 + (1- α 1 ) ×
Kh 1 , K 2 = α 2 × Kc 2 + (1-α 2 ) × Kh 2 , K 3 =
The calculation of α 3 × Kc 3 + (1-α 3 ) × Kh 3 , ... Is performed.
【0034】(リ)ついで、マイクロプロセッサ14
は、ROM22に格納された画像合成用プログラムに基
づく画像合成機能によって、図3の(e)に示すよう
に、抽出画像12aを背景画像記憶部16cから読み出
した背景画像26の対応領域に組み込んで合成画像28
を形成し、CRTディスプレイ18で表示せしめる。(I) Next, the microprocessor 14
The image synthesizing function based on the image synthesizing program stored in the ROM 22 causes the extracted image 12a to be incorporated into the corresponding area of the background image 26 read from the background image storage unit 16c as shown in (e) of FIG. Composite image 28
Is formed and displayed on the CRT display 18.
【0035】(ヌ)ついで、マイクロプロセッサ14
は、ROM22に格納された画像強度置き換え用プログ
ラムに基づく画像強度置き換え機能によって、前記
(リ)の画像合成の際に、前記(チ)で求めた強度
K1、K2、K3、…で、画素G1、G2、G3、…の強度K
c1、Kc2、Kc3、…を置き換える。このため、抽出
画像12のうちの背景画像26に隣接する最外周部分の
画素G1、G2、G3、…からなる境界部分12aは、図
5に示すように強度が変更され、図6に示した従来例の
ように膨らむことがない。Next, the microprocessor 14
By the image intensity replacement function based on the image intensity replacement program stored in the ROM 22, the intensity K 1 , K 2 , K 3 , ... , The intensities K of the pixels G 1 , G 2 , G 3 , ...
Replace c 1 , Kc 2 , Kc 3 , ... Therefore, in the boundary portion 12a of the outermost peripheral pixels G 1 , G 2 , G 3 , ... Adjacent to the background image 26 of the extracted image 12, the strength is changed as shown in FIG. It does not swell unlike the conventional example shown in FIG.
【0036】前記実施例では、抽出画像の最外周部分の
画素G1、G2、G3、…のエッジ強度の計算が終わって
から、輪郭線記憶部のラベルの変更(図4では「2」か
ら「3」への変更)を行なうようにしたが、エッジ強度
の計算をラベルの変更と同時に行なうようにしてもよ
い。In the above embodiment, after the edge strength of the pixels G 1 , G 2 , G 3 , ... Of the outermost peripheral portion of the extracted image has been calculated, the label of the contour line storage section is changed (“2” in FIG. 4). Is changed from “.” To “3”), but the edge strength may be calculated at the same time as changing the label.
【0037】前記実施例では、画像表示部をCRTディ
スプレイで形成するようにしたが、本発明はこれに限る
ものでなく、画像表示部を液晶ディスプレイ、プラズマ
ディスプレイまたはエレクトロルミネッセントディスプ
レイ等で形成するようにしてもよい。In the above-mentioned embodiment, the image display section is formed by a CRT display, but the present invention is not limited to this, and the image display section is formed by a liquid crystal display, a plasma display, an electroluminescent display or the like. You may do it.
【0038】前記実施例では、ROMに細線化処理用、
画像抽出用、画像強度検出用、エッジ強度演算用、エッ
ジ強度比演算用、所定の演算式の演算用、画素合成用お
よび画素強度置き換え用のプログラムを格納し、これら
のプログラムを実行することによって対応した機能を達
成させるようにしたが、本発明はこれに限るものでな
く、ROM以外の記憶媒体(例えばハードディスク、フ
ロッピーディスクなど)に前記プログラムを格納し、こ
れらのプログラムの実行で対応した機能を達成させるよ
うにしてもよいし、または専用のプロセッサを用いて高
速処理するようにしてもよい。。In the above embodiment, the ROM is used for thinning processing,
By storing programs for image extraction, image intensity detection, edge intensity calculation, edge intensity ratio calculation, calculation of predetermined calculation formulas, pixel combination and pixel intensity replacement, and executing these programs Although the corresponding function is achieved, the present invention is not limited to this, and the program is stored in a storage medium other than the ROM (for example, a hard disk, a floppy disk, etc.), and the corresponding function is executed by executing these programs. May be achieved, or high-speed processing may be performed using a dedicated processor. .
【0039】[0039]
【発明の効果】請求項1の発明による画像合成方法は、
上記のように、画像合成の際に抽出画像の最外周部分
(背景画像との境界部分)の画素(例えばG1)の強度
を、元の強度(例えばKc1)から演算で求めた強度
(例えばK1)に置き換え、この置き換えた強度(例え
ばK1)を、そのエッジ強度E(例えばE1)の最大エッ
ジ強度Emに対する比率α(例えばα1)が大きいとき
は抽出画像の対応する画素(例えばG1)の強度(例え
ばKc1)からの寄与が大きくなり、比率α(例えば
α1)が小さいときは背景画像の対応する画素の強度
(例えばKh1)からの寄与が大きくなるように構成し
た。The image synthesizing method according to the first aspect of the invention is
As described above, when the images are combined, the intensity of the pixel (eg, G 1 ) at the outermost peripheral portion (boundary portion with the background image) of the extracted image is calculated from the original intensity (eg, Kc 1 ) ( for example replaced with K 1), the corresponding pixel of the replacement intensity (e.g. K 1) the ratio alpha (e.g. alpha 1) is large is extracted image to the maximum edge intensity Em of the edge intensities E (e.g. E 1) The contribution from the intensity (for example, G 1 ) of (for example, Kc 1 ) becomes large, and when the ratio α (for example, α 1 ) is small, the contribution from the intensity (for example, Kh 1 ) of the corresponding pixel of the background image becomes large. Configured to.
【0040】このため、合成画像において、抽出画像の
最外周部分のうちのエッジ強度が大きい鮮明な部分はシ
ャープになり、不鮮明な部分はぼかされる。また、抽出
画像の最外周部分の強度は背景画像の強度からの寄与分
を有しているので、背景画像との境界部分のつながりが
自然になる。したがって、抽出領域の膨らみを抑え、余
分な背景領域を切り出すことがなく、より単純なアルゴ
リズムで確実に境界部分のギザギザを目立たなくさせる
ことができる。For this reason, in the composite image, a sharp portion having a large edge strength in the outermost peripheral portion of the extracted image becomes sharp, and an unclear portion is blurred. Also, since the strength of the outermost peripheral portion of the extracted image has a contribution from the strength of the background image, the connection with the boundary portion with the background image becomes natural. Therefore, it is possible to suppress the bulge of the extraction region, cut out an extra background region, and reliably make the jaggedness of the boundary portion inconspicuous by a simpler algorithm.
【0041】請求項2の発明による画像合成方法は、前
記請求項1の発明による効果のほかにつぎのような効果
を有する。すなわち、輪郭線記憶部に記憶する輪郭線に
関する情報を、画像抽出操作時には画像抽出用輪郭線を
明確に識別するためにラベル付けをした情報とし、画像
の組み込み合成の際には強度の置き換えをする画素を明
確に識別するためにラベル付けをした情報としたので、
抽出画像の特定および抽出画像のうちの最外周部分の強
度を置き換える画素の特定を、簡単かつ確実に行なうこ
とができる。The image synthesizing method according to the invention of claim 2 has the following effect in addition to the effect according to the invention of claim 1. That is, the information about the contours stored in the contour storage unit is used as the information labeled for clearly identifying the image extraction contours during the image extraction operation, and the strength replacement is performed when the images are embedded and combined. Since the information is labeled to clearly identify the pixels to be
It is possible to easily and reliably specify the extracted image and the pixel that replaces the intensity of the outermost peripheral portion of the extracted image.
【図1】本発明による画像合成方法の一実施例を示すフ
ローチャートである。FIG. 1 is a flowchart showing an embodiment of an image synthesizing method according to the present invention.
【図2】図1の方法を実施する装置の概略構成図であ
る。FIG. 2 is a schematic configuration diagram of an apparatus for performing the method of FIG.
【図3】図2の作用を説明する説明図で、(a)は原画
像記憶部に記憶された原画像の説明図、(b)は輪郭記
憶部に記憶された画像抽出用輪郭線の説明図(画像抽出
用にラベル付けされている)、(c)は抽出画像の説明
図、(d)は背景画像の説明図、(e)は合成画像の説
明図である。3A and 3B are explanatory diagrams illustrating the operation of FIG. 2, in which FIG. 3A is an explanatory diagram of an original image stored in an original image storage unit, and FIG. 3B is an image extraction contour line stored in the contour storage unit. Explanatory drawing (labeled for image extraction), explanatory drawing of an extracted image, (d) explanatory drawing of a background image, (e) explanatory drawing of a synthetic image.
【図4】輪郭線記憶部のラベル付けを説明する説明図
で、(a)は図3の(b)の一部を拡大して表わした説
明図、(b)は(a)の抽出画像の画素に対応するラベ
ル「2」のうちの最外周部分の画素に対応するラベル
「2」を「3」に変更して画像抽出用にラベル付けした
状態を説明する説明図である。4A and 4B are explanatory views for explaining labeling of the contour line storage unit, FIG. 4A is an enlarged view of a part of FIG. 3B, and FIG. 4B is an extracted image of FIG. FIG. 5 is an explanatory diagram illustrating a state in which the label “2” corresponding to the pixel at the outermost peripheral portion of the label “2” corresponding to the pixel of is changed to “3” and labeling is performed for image extraction.
【図5】図3の(e)の合成画像の一部を示す拡大図で
ある。5 is an enlarged view showing a part of the combined image of FIG.
【図6】従来方法で合成した合成画像の部分拡大図であ
る。FIG. 6 is a partially enlarged view of a composite image composed by a conventional method.
11…原画像、 12、30…抽出画像、12a…抽出
画像12の最外周部分の画素からなる境界部分、14…
マイクロプロセッサ(画像処理部の一例)、16…RA
M、 16a…原画像記憶部、16b…輪郭線記憶部、
16c…背景画像記憶部、18…CRTディスプレイ
(画像表示部の一例)、20…タブレット(ポインティ
ングデバイスの一例)、22…ROM、 24…画像抽
出用輪郭線、26、32…背景画像、 28、34…合
成画像、36…ギザギザ部分、G1、G2、G3…抽出画
像12の最外周部分の画素、g1、g2、g3…G1、
G2、G3に対応した輪郭線記憶部内の画素領域。11 ... Original image, 12, 30 ... Extracted image, 12a ... Boundary portion consisting of pixels of outermost peripheral portion of the extracted image 12, 14 ...
Microprocessor (an example of image processing unit), 16 ... RA
M, 16a ... Original image storage unit, 16b ... Contour line storage unit,
16c ... Background image storage unit, 18 ... CRT display (an example of image display unit), 20 ... Tablet (an example of pointing device), 22 ... ROM, 24 ... Image extracting contour line, 26, 32 ... Background image, 28, 34 ... composite image, 36 ... jagged portions, the pixel of the outermost peripheral portion of the G 1, G 2, G 3 ... extracted image 12, g 1, g 2, g 3 ... G 1,
A pixel area in the contour storage unit corresponding to G 2 and G 3 .
Claims (2)
出画像を背景画像の対応領域に組み込んで合成する方法
において、前記抽出画像を前記背景画像に組み込んで合
成する際に、前記抽出画像の最外周部分に位置する画素
G1、G2、G3、…についてのエッジ強度E1、E2、
E3、…と強度Kc1、Kc2、Kc3、…とを求めるとと
もに、前記背景画像の前記画素G1、G2、G3、…に対
応した位置の画素の強度Kh1、Kh2、Kh3、…を求
め、さらに前記エッジ強度E1、E2、E3、…の最大値
Emに対する比α1(=E1/Em)、α2(=E2/E
m)、α3(=E3/Em)、…を求め、K1=α1×Kc
1+(1−α1)×Kh1、K2=α2×Kc2+(1−
α2)×Kh2、K3=α3×Kc3+(1−α3)×K
h3、…の演算で求めた強度K1、K2、K3、…で、前記
画素G1、G2、G3、…の強度Kc1、Kc2、Kc3、…
を置き換えてなることを特徴とする画像合成方法。1. A method of incorporating an extracted image cut out from an original image by image extraction into a corresponding region of a background image and synthesizing the extracted image, wherein when the extracted image is incorporated into the background image and synthesized, the outermost periphery of the extracted image is included. Edge intensities E 1 , E 2 , for pixels G 1 , G 2 , G 3 , ...
E 3, ... and strength Kc 1, Kc 2, Kc 3 , ... with seek and the background the image pixel G 1, G 2, G 3 , intensity Kh 1 position of the pixel corresponding to ..., Kh 2 , Kh 3 , ... And further, ratios α 1 (= E 1 / Em), α 2 (= E 2 / E) of the edge strengths E 1 , E 2 , E 3 , ... To the maximum value Em.
m), α 3 (= E 3 / Em), ..., and K 1 = α 1 × Kc
1 + (1-α 1) × Kh 1, K 2 = α 2 × Kc 2 + (1-
α 2 ) × Kh 2 , K 3 = α 3 × Kc 3 + (1-α 3 ) × K
h 3, intensity K 1 determined by the ... operation, K 2, K 3, ... in the pixel G 1, G 2, G 3 , ... strength Kc of 1, Kc 2, Kc 3, ...
An image synthesizing method characterized in that
報を、画像抽出用輪郭線、その外側および内側に対応す
る3種類の画素に相異なるラベル付けをした情報とする
ことによって、画像抽出用輪郭線内に原画像の対応領域
を抽出する画像抽出操作を行ない、前記輪郭線記憶部の
画像抽出用輪郭線の内側の画素のうちの前記画像抽出用
輪郭線に隣接する最外周の画素のラベルを前記3種類の
ラベルと異なるラベルに置き換えることによって、画像
合成の際における画素の強度の置き換えを行なうように
した請求項1記載の画像合成方法。2. Image extraction by using the information regarding the contours stored in the contour storage unit as the information regarding the contours for image extraction, and the three types of pixels corresponding to the outside and inside of the contours, respectively. An image extraction operation is performed to extract the corresponding region of the original image within the contour line for use, and among the pixels inside the contour line for image extraction in the contour storage unit, the outermost pixel adjacent to the contour line for image extraction. 2. The image synthesizing method according to claim 1, wherein the label is replaced with a label different from the three types of labels to replace the pixel intensities at the time of image synthesizing.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5160126A JPH06348838A (en) | 1993-06-04 | 1993-06-04 | Picture synthesizing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5160126A JPH06348838A (en) | 1993-06-04 | 1993-06-04 | Picture synthesizing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH06348838A true JPH06348838A (en) | 1994-12-22 |
Family
ID=15708436
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP5160126A Pending JPH06348838A (en) | 1993-06-04 | 1993-06-04 | Picture synthesizing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH06348838A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1331109C (en) * | 2001-12-13 | 2007-08-08 | 松下电器产业株式会社 | Display method and apparatus, filtering unit and processing method and image processing method |
| JP2009020517A (en) * | 2008-07-10 | 2009-01-29 | Sharp Corp | Display data creation device, display data creation method, display data creation program, and computer-readable recording medium on which display data creation program is recorded |
| CN108692815A (en) * | 2017-04-04 | 2018-10-23 | 手持产品公司 | Use the multispectral imaging of longitudinal chromatic aberration |
-
1993
- 1993-06-04 JP JP5160126A patent/JPH06348838A/en active Pending
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1331109C (en) * | 2001-12-13 | 2007-08-08 | 松下电器产业株式会社 | Display method and apparatus, filtering unit and processing method and image processing method |
| JP2009020517A (en) * | 2008-07-10 | 2009-01-29 | Sharp Corp | Display data creation device, display data creation method, display data creation program, and computer-readable recording medium on which display data creation program is recorded |
| CN108692815A (en) * | 2017-04-04 | 2018-10-23 | 手持产品公司 | Use the multispectral imaging of longitudinal chromatic aberration |
| CN108692815B (en) * | 2017-04-04 | 2021-08-31 | 手持产品公司 | Multispectral Imaging Using Longitudinal Chromatic Aberration |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7970206B2 (en) | Method and system for dynamic, luminance-based color contrasting in a region of interest in a graphic image | |
| JP5000526B2 (en) | Computer graphics processing | |
| US6043821A (en) | Method and apparatus for rendering pixel information from blended texture maps | |
| JP5302961B2 (en) | Control device for liquid crystal display device, liquid crystal display device, control method for liquid crystal display device, program, and recording medium therefor | |
| JP3189870B2 (en) | Image processing device | |
| US6768491B2 (en) | Barycentric centroid sampling method and apparatus | |
| JP2003271125A (en) | Device, method and program for image display | |
| JP3529759B2 (en) | Image processing program, computer-readable recording medium storing image processing program, program execution device, image processing device, and image processing method | |
| WO2007038141A2 (en) | Method and apparatus for superimposing characters on video | |
| US7825923B2 (en) | Full screen anti-aliasing with dynamic filters | |
| JP2008160345A (en) | Image processing apparatus, image processing method, and computer program | |
| CN109859258B (en) | Interface processing method and device and electronic equipment | |
| JP3770121B2 (en) | Image processing device | |
| JPH06348838A (en) | Picture synthesizing method | |
| US7280117B2 (en) | Graphical user interface for a keyer | |
| CN111882498A (en) | Image processing method, image processing device, electronic equipment and storage medium | |
| JPH07134769A (en) | Anti-aliasing processing method in image composition | |
| JP2000089747A (en) | Method and device for displaying image | |
| CN114066915A (en) | Edge processing method for overlaying aviation video images | |
| JP2003150955A (en) | Image processor, navigation device and program | |
| CN112949253B (en) | Material display method, device, electronic equipment and computer readable storage medium | |
| US6377279B1 (en) | Image generation apparatus and image generation method | |
| JP4248847B2 (en) | Game image processing program and game image processing apparatus | |
| US20250173846A1 (en) | Perceptual local contrast and detail enhancement | |
| CN114066743A (en) | A method for obtaining alpha value for overlaying aerial video images |