[go: up one dir, main page]

KR102540160B1 - Method and Device for automatation of 3D Acoustic Study - Google Patents

Method and Device for automatation of 3D Acoustic Study Download PDF

Info

Publication number
KR102540160B1
KR102540160B1 KR1020220090619A KR20220090619A KR102540160B1 KR 102540160 B1 KR102540160 B1 KR 102540160B1 KR 1020220090619 A KR1020220090619 A KR 1020220090619A KR 20220090619 A KR20220090619 A KR 20220090619A KR 102540160 B1 KR102540160 B1 KR 102540160B1
Authority
KR
South Korea
Prior art keywords
characteristic information
unit
characteristic
model
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020220090619A
Other languages
Korean (ko)
Inventor
이성재
박상민
Original Assignee
삼성엔지니어링 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성엔지니어링 주식회사 filed Critical 삼성엔지니어링 주식회사
Priority to KR1020220090619A priority Critical patent/KR102540160B1/en
Application granted granted Critical
Publication of KR102540160B1 publication Critical patent/KR102540160B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 바람직한 일 실시예로서 3차원음향스터디 자동출력장치는 적어도 하나의 3차원 모델 개체의 형상정보 및 특성정보를 추출하는 추출부; 추출된 형상정보 또는 특성정보를 기초로 기정의된 길이, 기설정된 영역 및 기설정된 기준 중 적어도 하나에 부합하지 않는 적어도 하나의 3차원 모델 개체를 제거하는 최적화부; 상기 특성정보를 이용하여 상기 3차원 모델 개체가 장애물인지를 분류하는 제 1 필터링부; 상기 특성정보를 이용하여 상기 3차원 모델 개체가 소음원인지 분류하는 제 2 필터링부; 소음원으로 분류된 3차원 모델 개체를 배치하는 배치부;및 배치된 3차원 모델 개체의 특성을 입력하는 특성입력부;를 포함하는 것을 특징으로 한다. As a preferred embodiment of the present invention, an automatic output device for a 3D acoustic study includes an extraction unit for extracting shape information and characteristic information of at least one 3D model object; an optimization unit that removes at least one 3D model object that does not meet at least one of a predetermined length, a predetermined area, and a predetermined criterion based on the extracted shape information or characteristic information; a first filtering unit that classifies whether the 3D model entity is an obstacle using the characteristic information; a second filtering unit for classifying whether the 3D model entity is a noise source using the characteristic information; It is characterized in that it includes; a placement unit for arranging the 3D model objects classified as noise sources; and a characteristic input unit for inputting characteristics of the arranged 3D model objects.

Description

3차원음향스터디 자동출력장치 및 방법{Method and Device for automatation of 3D Acoustic Study}3D acoustic study automatic output device and method {Method and Device for automatation of 3D Acoustic Study}

본 발명은 음향 스터디에 관한 것이다. 보다 상세히 3차원 음향스터디를 자동으로 수행하는 방법에 관한 것이다. The present invention relates to acoustic studies. In more detail, it relates to a method of automatically performing a three-dimensional acoustic study.

음향 스터디(Acoustic Study)는 대상 공간 혹은 영역 내의 소음 정도를 계산하여 예측하는 것으로, 단독 혹은 다수의 다양한 형태의 소음원에서 발생된 소음이 전달 및 합성되어 수음부에서 측정되는 음압 수준(Sound Pressure Level, dB)을 계산한다.Acoustic Study is to calculate and predict the level of noise in a target space or area. dB) is calculated.

3차원 음향스터디는 GIS 또는 구글 맵과의 정보 연계를 통해 지면 정보 및 건축물 정보까지 가져올 수 있으나, EPC 수준의 상세한 3D 모델링 입력이 어려운 문제점이 있다. 그에 따라 소형, 중형 크기의 장애물을 반영할 수 없고 대형 또는 초대형 장애물만을 반영하므로 실제 현장과 차이가 큰 문제점이 크며, 음향 스터디를 생성하기까지 소요되는 시간이 오래 걸리는 문제가 있었다. 3D acoustic study can bring ground information and even building information through information linkage with GIS or Google Maps, but there is a problem in that it is difficult to input detailed 3D modeling at the EPC level. Accordingly, since small and medium-sized obstacles cannot be reflected and only large or extra-large obstacles are reflected, there is a big problem in that there is a big difference from the actual site, and it takes a long time to create a sound study.

KRKR 10-2284926 10-2284926 B1B1

본 발명의 바람직한 일 실시예로서 3차원음향스터디 자동출력장치는 적어도 하나의 3차원 모델 개체의 형상정보 및 특성정보를 추출하는 추출부; 추출된 형상정보 또는 특성정보를 기초로 기정의된 길이, 기설정된 영역 및 기설정된 기준 중 적어도 하나에 부합하지 않는 적어도 하나의 3차원 모델 개체를 제거하는 최적화부; 상기 특성정보를 이용하여 상기 3차원 모델 개체가 장애물인지를 분류하는 제 1 필터링부; 상기 특성정보를 이용하여 상기 3차원 모델 개체가 소음원인지 분류하는 제 2 필터링부; 소음원으로 분류된 3차원 모델 개체를 배치하는 배치부;및 배치된 3차원 모델 개체의 특성을 입력하는 특성입력부;를 포함하는 것을 특징으로 한다. As a preferred embodiment of the present invention, an automatic output device for a 3D acoustic study includes an extraction unit for extracting shape information and characteristic information of at least one 3D model object; an optimization unit that removes at least one 3D model object that does not meet at least one of a predetermined length, a predetermined area, and a predetermined criterion based on the extracted shape information or characteristic information; a first filtering unit that classifies whether the 3D model entity is an obstacle using the characteristic information; a second filtering unit for classifying whether the 3D model entity is a noise source using the characteristic information; It is characterized in that it includes; a placement unit for arranging the 3D model objects classified as noise sources; and a characteristic input unit for inputting characteristics of the arranged 3D model objects.

본 발명의 바람직한 일 실시예로서, 3차원음향스터디 자동출력장치는 상기 소음원이 배치된 3차원음향스터디 문서를 출력하는 출력부;를 더 포함하는 것을 특징으로 한다. As a preferred embodiment of the present invention, the automatic 3D acoustic study output device further includes an output unit for outputting a 3D acoustic study document in which the noise source is disposed.

본 발명의 바람직한 일 실시예로서, 상기 최적화부는 상기 형상정보를 기초로 상기 기정의된 길이, 상기 기설정된 영역 중 적어도 하나에 부합하지 않는 적어도 하나의 3차원 모델 개체를 제거하는 것을 특징으로 한다As a preferred embodiment of the present invention, the optimization unit is characterized by removing at least one 3D model object that does not conform to at least one of the predetermined length and the predetermined area based on the shape information.

본 발명의 바람직한 일 실시예로서, 상기 제 1 필터링부는 상기 특성정보의 특성항목, 조건, 조건값 및 조건간의 관계를 기초로 정의된 조건문을 상기 기설정된 기준으로 이용하는 것을 특징으로 한다. As a preferred embodiment of the present invention, the first filtering unit is characterized in that it uses, as the predetermined criterion, a conditional sentence defined based on a relation between a characteristic item, a condition, a condition value, and conditions of the characteristic information.

본 발명의 바람직한 일 실시예로서, 상기 배치부는 상기 소음원으로 구분된 개체들의 좌표, 높이 및 방향 정보를 이용하여 자동으로 소음원을 생성하고 배치하는 것을 특징으로 한다. As a preferred embodiment of the present invention, the arranging unit is characterized in that the noise source is automatically generated and arranged using coordinates, height, and direction information of the objects classified as the noise source.

본 발명의 바람직한 일 실시예로서, 상기 특성입력부는 상기 소음원으로 구분된 개체들의 상기 특성정보를 이용하여 소음원 모델별 소음특성정보를 입력하는 것을 특징으로 한다. As a preferred embodiment of the present invention, the characteristic input unit is characterized in that it inputs noise characteristic information for each noise source model using the characteristic information of the entities classified as the noise sources.

본 발명의 바람직한 일 실시예에서는 3D 모델 파일을 입력하면 자동으로 3D 음향스터디 출력을 수행하는 방법을 제안한다. A preferred embodiment of the present invention proposes a method of automatically outputting a 3D sound study when a 3D model file is input.

본 발명의 바람직한 일 실시예로서, 3차원 음향스터디 자동출력장치 및 방법은 3차원 모델링 소프트웨어로부터 3차원 모델 개체의 형상정보 및 특성정보를 입력받아 자동으로 3차원 음향스터디 결과를 출력함으로써 음향스터디의 신뢰도를 향성시키고 제작 시간을 단축시키는 효과가 있다. As a preferred embodiment of the present invention, an apparatus and method for automatically outputting a 3D acoustic study receive shape information and characteristic information of a 3D model object from 3D modeling software and automatically output a 3D acoustic study result, It has the effect of improving reliability and shortening manufacturing time.

도 1 은 본 발명의 바람직한 일 실시예로서, 3차원음향스터디 자동출력장치의 내부 구성도를 도시한다.
도 2 는 본 발명의 바람직한 일 실시예로서, 3차원 모델 개체의 형상정보 및 특성정보의 일 예를 도시한다.
도 3 은 본 발명의 바람직한 일 실시예로서, 3차원음향스터디 자동출력장치에서 3차원 모델 개체의 형상정보 및 특성정보를 이용하는 일 예를 도시한다.
도 4 는 본 발명의 바람직한 일 실시예로서, 최적화부에서 이용하는 사용자입력인터페이스의 일 예를 도시한다.
도 5 내지 6은 본 발명의 바람직한 일 실시예로서, 최적화부에서 이용하는 사용자입력인터페이스의 또 다른 일 예를 도시한다.
도 7은 본 발명의 바람직한 일 실시예로서, 제 1 필터링부 및 제 1 특성입력부에서 이용하는 사용자입력인터페이스의 일 예를 도시한다.
도 8 내지 10은 본 발명의 바람직한 일 실시예로서, 제 2 특성입력부에서 이용하는 사용자입력인터페이스의 또 다른 일 예를 도시한다.
도 11 은 도 1 은 본 발명의 바람직한 일 실시예로서, 3차원음향스터디 자동출력장치에서 3차원음향스터디를 자동으로 생성하는 흐름도를 도시한다.
1 shows an internal configuration diagram of a three-dimensional acoustic study automatic output device as a preferred embodiment of the present invention.
2 shows an example of shape information and characteristic information of a 3D model object as a preferred embodiment of the present invention.
FIG. 3 shows an example of using shape information and characteristic information of a 3D model entity in a 3D acoustic study automatic output device as a preferred embodiment of the present invention.
4 shows an example of a user input interface used by an optimization unit as a preferred embodiment of the present invention.
5 and 6 show another example of a user input interface used by the optimization unit as a preferred embodiment of the present invention.
7 shows an example of a user input interface used in the first filtering unit and the first characteristic input unit as a preferred embodiment of the present invention.
8 to 10 show another example of a user input interface used in the second characteristic input unit as a preferred embodiment of the present invention.
FIG. 11 shows a flow chart for automatically generating a 3D acoustic study in a 3D acoustic study automatic output device according to a preferred embodiment of the present invention.

이하에서 도면을 참고하여 설명한다. Hereinafter, it will be described with reference to the drawings.

도 1 은 본 발명의 바람직한 일 실시예로서, 3차원음향스터디 자동출력장치의 내부 구성도를 도시한다. 도 3 은 본 발명의 바람직한 일 실시예로서, 3차원음향스터디 자동출력장치에서 3차원 모델 개체의 형상정보 및 특성정보를 이용하는 일 예를 도시한다.1 shows an internal configuration diagram of a three-dimensional acoustic study automatic output device as a preferred embodiment of the present invention. FIG. 3 shows an example of using shape information and characteristic information of a 3D model entity in a 3D acoustic study automatic output device as a preferred embodiment of the present invention.

본 발명의 바람직한 일 실시예로서, 3차원음향스터디 자동출력장치(100)는 3차원 모델의 형상 정보 및 특성정보를 활용하여 음향스터디 기술 또는 프로세서를 통해 단말기에서 구현가능한 음향스터디 소프트웨어에서 소음원을 자동으로 분류하고 배치하며, 특성을 입력할 수 있다. As a preferred embodiment of the present invention, the 3D acoustic study automatic output device 100 utilizes shape information and characteristic information of a 3D model to automatically detect noise sources in acoustic study software that can be implemented in a terminal through an acoustic study technology or processor. You can classify, arrange, and enter characteristics.

본 발명의 바람직한 일 실시예에서, 3차원음향스터디 자동출력장치(100)는 추출부(110), 최적화부(120), 제 1필터링부(130) 및 제 1 특성입력부(132)를 포함한다. 그리고, 처리부(162) 및 출력부(170)를 더 포함할 수 있다. 본 발명의 바람직한 일 실시예에서 제 1 필터링부(130) 또는 제 2 필터링부(140)는 필터링 기능과 특성을 입력하는 기능을 통합하여 수행하도록 구현되거나 또는 필터링 기능과 특성을 입력하는 기능을 분류하여 수행하도록 구현될 수 있다. 도 1에는 제 1 필터링부(130) 또는 제 2 필터링부(140)에서 필터링 기능을 수행하고, 제 1 특성입력부(132) 및 제 2 특성입력부(160)에서 특성을 입력하는 기능을 수행하는 일 예가 도시되어 있다.In a preferred embodiment of the present invention, the 3D acoustic study automatic output device 100 includes an extraction unit 110, an optimization unit 120, a first filtering unit 130 and a first characteristic input unit 132. . In addition, a processing unit 162 and an output unit 170 may be further included. In a preferred embodiment of the present invention, the first filtering unit 130 or the second filtering unit 140 is implemented to integrate a filtering function and a function of inputting characteristics, or to classify a filtering function and a function of inputting characteristics. It can be implemented to do so. 1, the first filtering unit 130 or the second filtering unit 140 performs a filtering function, and the first characteristic input unit 132 and the second characteristic input unit 160 perform a function of inputting characteristics. An example is shown.

본 발명의 또 다른 바람직한 일 실시예에서, 3차원음향스터디 자동출력장치(100)는 제2필터링부(140), 배치부(150) 및 제 2 특성입력부(160)를 더 포함한다. In another preferred embodiment of the present invention, the 3D acoustic study automatic output device 100 further includes a second filtering unit 140, a placement unit 150 and a second characteristic input unit 160.

본 발명의 또 다른 바람직한 일 실시예에서, 3차원음향스터디 자동출력장치(100)는 제 3 필터링부(142)를 더 포함한다. 도 3는 도 1에 개시한 실시예 중 일부가 도시되어 있으며, 도 1의 구성에 대응하는 구성요소들은 실질적으로 동일하거나 유사한 기능을 수행한다. In another preferred embodiment of the present invention, the 3D acoustic study automatic output device 100 further includes a third filtering unit 142. FIG. 3 shows some of the embodiments disclosed in FIG. 1, and components corresponding to the configuration of FIG. 1 perform substantially the same or similar functions.

추출부(110)는 적어도 하나의 3차원 모델 개체의 형상정보 및 특성정보를 추출한다. 추출부(110)는 3차원음향스터디 자동출력장치에서 실행가능한 음향스터디 소프트웨어나 음향스터디 프로그램으로부터 적어도 하나의 3차원 모델 개체를 입력받을 수 있다. 본 발명의 바람직한 일 실시예에서는 3차원 모델에서 각 개체는 형상정보와 특성정보를 구비하는 것을 가정한다. 도 2 는 본 발명의 바람직한 일 실시예로서, 3차원 모델 개체(200)의 형상정보(210) 및 특성정보(220)의 일 예를 도시한다.The extraction unit 110 extracts shape information and characteristic information of at least one 3D model object. The extraction unit 110 may receive at least one 3D model entity from sound study software or a sound study program executable in the 3D sound study automatic output device. In a preferred embodiment of the present invention, it is assumed that each entity in the 3D model has shape information and characteristic information. 2 shows an example of shape information 210 and characteristic information 220 of a 3D model object 200 as a preferred embodiment of the present invention.

형상정보는 형태를 구성하는 점, 선, 면 등의 기하학(Geometric) 정보 및 색상, 반사율, 투명도 등의 재질(Material & Texture) 정보를 포함한다. 특성정보는 3차원 모델링 소프트웨어 등에 의해 자동으로 입력된 개체의 위치, 방향, 레이어 등의 정보 또는 사용자에 의해 수동으로 입력된 개체의 명칭(Name), 태그번호, 소음원 모델, 소음원 출력 등의 정보를 포함한다. The shape information includes geometric information such as points, lines, and planes constituting the shape, and material and texture information such as color, reflectance, and transparency. Characteristic information includes information such as position, direction, and layer of an object automatically input by 3D modeling software, etc., or information such as object name, tag number, noise source model, noise source output, etc. manually input by a user. include

본 발명의 바람직한 일 실시예로서, 3차원음향스터디 자동출력장치(100)는 제 1필터링부(130)를 통해 3차원 모델 개체를 장애물 개체로 변환하고, 제 2 필터링부(140)를 통해 소음원 개체로 생성하거나 변환하고, 그리고 제 3 필터링부(142)를 통해 지면개체로 변환시킬 수 있다. As a preferred embodiment of the present invention, the 3D acoustic study automatic output device 100 converts a 3D model object into an obstacle object through the first filtering unit 130, and the noise source through the second filtering unit 140. It can be created or converted into an object, and converted into a ground object through the third filtering unit 142.

3차원음향스터디 자동출력장치(100)는 추출부(110)에서 추출한 적어도 하나의 3차원 모델 개체의 형상정보 및 특성정보를 기초로 제 1 필터링부(130), 제 2 필터링부(140) 내지 제 3 필터링부(142) 중 적어도 하나를 이용하여 3차원 모델 개체를 장애물, 소음원 또는 지면개체 중 적어도 하나로 변환하는 작업을 수행할 수 있다. 제어부(미 도시)를 통해 제 1 필터링부(130), 제 2 필터링부(140) 내지 제 3 필터링부(142)는 선택적 또는 병렬적으로 이용될 수 있다. 구현 예는 아래와 같다. 다만, 이는 3차원음향스터디 자동출력장치(100)에서 제 1 필터링부(130), 제 2 필터링부(140) 내지 제 3 필터링부(142)를 선택적 또는 병렬적 사용하는 예시일 뿐 이에 제한되는 것은 아님을 주의하여야 한다. The 3D acoustic study automatic output device 100 includes a first filtering unit 130, a second filtering unit 140 to a second filtering unit 130 based on the shape information and characteristic information of at least one 3D model object extracted by the extraction unit 110. Using at least one of the third filtering unit 142, a 3D model object may be converted into at least one of an obstacle, a noise source, and a ground object. Through a control unit (not shown), the first filtering unit 130, the second filtering unit 140 to the third filtering unit 142 may be used selectively or in parallel. An example implementation is shown below. However, this is only an example of selective or parallel use of the first filtering unit 130, the second filtering unit 140 to the third filtering unit 142 in the 3D acoustic study automatic output device 100 and is limited thereto. It should be noted that it is not

본 발명의 바람직한 일 실시예로서 3차원음향스터디 자동출력장치(100)는 추출부(110)에서 추출한 적어도 하나의 3차원 모델 개체의 형상정보 및 특성정보를 기초로 제 3 필터링부(142)를 통해 적어도 하나의 3차원 모델 개체를 지면개체로 변환하고, 이후 제 2 필터링부(140)를 통해 적어도 하나의 3차원 모델 개체를 소음원 개체로 변환하거나 생성하여 배치하고 특성을 입력한 후에, 최적화부(120)에서 최적화를 수행하고 제 1 필터링부(130)를 통해 적어도 하나의 3차원 모델 개체를 장애물 개체로 변환하고, 장애물 종류를 분류한 후 제 1 특성입력부(132)를 통해 특성을 입력할 수 있다. As a preferred embodiment of the present invention, the 3D acoustic study automatic output device 100 uses the third filtering unit 142 based on the shape information and characteristic information of at least one 3D model object extracted by the extraction unit 110. At least one 3D model object is converted into a ground object through the second filtering unit 140, and at least one 3D model object is converted or generated and placed into a noise source object through the second filtering unit 140. After inputting characteristics, the optimization unit Optimization is performed in 120, at least one 3D model object is converted into an obstacle object through the first filtering unit 130, the obstacle type is classified, and the characteristic is input through the first characteristic input unit 132. can

본 발명의 또 다른 바람직한 일 실시예로서 3차원음향스터디 자동출력장치(100)는 추출부(110)에서 추출한 적어도 하나의 3차원 모델 개체의 형상정보 및 특성정보를 기초로, 제 2 필터링부(140)를 통해 적어도 하나의 3차원 모델 개체를 소음원 개체로 변환하거나 생성하여 배치하고 특성을 입력한다. 그 후 제 3 필터링부(142)를 통해 적어도 하나의 3차원 모델 개체를 지면개체로 변환하고, 최적화부(120)에서 최적화를 수행하고 제 1 필터링부(130)를 통해 적어도 하나의 3차원 모델 개체를 장애물 개체로 변환하고, 장애물 종류를 분류하여 특성을 입력할 수 있다. As another preferred embodiment of the present invention, the 3D acoustic study automatic output device 100 is based on the shape information and characteristic information of at least one 3D model object extracted by the extraction unit 110, the second filtering unit ( 140) converts or creates at least one 3D model object into a noise source object, arranges it, and inputs characteristics. Thereafter, at least one 3D model object is converted into a ground object through the third filtering unit 142, optimization is performed in the optimization unit 120, and at least one 3D model object is converted through the first filtering unit 130. Objects can be converted into obstacle objects, and characteristics can be entered by classifying obstacle types.

본 발명의 바람직한 일 실시예로서, 3차원 모델 개체를 장애물 개체로 변환하는 일 예를 설명한다. 3차원 모델 개체를 장애물 개체로 변환하기 위해서는 최적화부(120)에서 추출부(110)에서 추출된 형상정보 또는 특성정보를 기초로 기정의된 길이, 기설정된 영역 및 기정의된 특성정보 기준 중 적어도 하나에 부합하지 않는 적어도 하나의 3차원 모델 개체를 제거하는 작업을 먼저 수행한다. As a preferred embodiment of the present invention, an example of converting a 3D model object into an obstacle object will be described. In order to transform a 3D model object into an obstacle object, the optimization unit 120 has at least one of a predetermined length, a predetermined area, and a predetermined characteristic information criterion based on the shape information or characteristic information extracted from the extraction unit 110. At least one 3D model object that does not match one is removed first.

최적화부(120)에서 기정의된 길이를 기초로 최적화를 수행하는 일 예는 다음과 같다. 최적화부(120)는 적어도 하나의 3차원 모델 개체 중 사용자가 정의한 크기보다 작은 개체를 삭제하여 최적화를 수행한다. 이에 대해서는 도 4 의 설명을 참고한다.An example of performing optimization based on a predefined length in the optimizer 120 is as follows. The optimizer 120 performs optimization by deleting an object smaller than a user-defined size among at least one 3D model object. For this, refer to the description of FIG. 4 .

본 발명의 바람직한 일 실시예로서, 3차원 모델 개체를 소음원 개체로 변환하거나 생성하는 일 예를 설명한다. 제 2 필터링부(140)는 3차원 모델 개체를 면이나 선 등의 소음원으로 변환한다. 그러나, 3차원 개체를 점소음원으로 변환할 경우에는 3차원 모델 개체가 면의 형태이므로 점소음원의 위치나 방향을 제대로 설정하기 어렵다. 이 경우,제 2 필터링부(140)는 배치부를 통해 3차원 모델 개체를 점소음원으로 신규로 생성하여 배치한다. As a preferred embodiment of the present invention, an example of converting or generating a 3D model object into a noise source object will be described. The second filtering unit 140 converts the 3D model object into a noise source such as a plane or a line. However, when converting a 3D object into a point noise source, it is difficult to correctly set the position or direction of the point noise source because the 3D model object is in the form of a plane. In this case, the second filtering unit 140 newly creates and arranges a 3D model object as a point noise source through the arranging unit.

본 발명의 바람직한 일 실시예로서, 3차원 모델 개체를 지면개체 개체로 변환하는 일 예를 설명한다. 제 3 필터링부(142)는 3차원 모델 개체의 특성정보를 이용하여 3차원 모델 개체가 지면 인지를 판단하여 지면 개체로 변환한다. 예를 들어, 'System Path' 특성정보가 'Road&Paving'이라는 조건값을 포함하면 해당 개체를 지면 개체로 구분할 수 있다.As a preferred embodiment of the present invention, an example of converting a 3D model object into a ground object object will be described. The third filtering unit 142 determines whether the 3D model object is ground using the characteristic information of the 3D model object and converts it into a ground object. For example, if the 'System Path' characteristic information includes a condition value of 'Road&Paving', the object can be classified as a ground object.

도 4 는 본 발명의 바람직한 일 실시예로서, 최적화부(120)에서 이용하는 사용자입력인터페이스의 일 예를 도시한다.4 shows an example of a user input interface used by the optimization unit 120 as a preferred embodiment of the present invention.

사용자는 사용자입력인터페이스를 통해 Horizontal(X-Y 축)길이 기준값(401)과 Vertical(Z축) 길이 기준값(403)을 입력할 수 있다. 그리고, 입력값의 단위(405)를 지정할 수 있다. 최적화부(120)는 입력받은 적어도 하나의 3차원 모델 개체 중 최적화부(120)에서 사용자가 기정의한 길이 이하의 3차원 모델 개체는 삭제한다. 도 4 를 참고하면, X축 끝점 길이와 Y축 끝점 길이가 모두 1.5m 보다 작고 Z축 끝점 길이가 0.15m 보다 작은 개체는 모두 삭제한다. A user may input a horizontal (X-Y axis) length reference value 401 and a vertical (Z-axis) length reference value 403 through a user input interface. And, the unit 405 of the input value can be designated. The optimizer 120 deletes a 3D model object having a length less than or equal to a predetermined length defined by the user in the optimizer 120 among at least one input 3D model object. Referring to FIG. 4 , all objects whose X-axis end point length and Y-axis end point length are less than 1.5 m and whose Z-axis end point length is less than 0.15 m are all deleted.

최적화부(120)에서 기설정된 영역를 기초로 최적화를 수행하는 일 예는 다음과 같다. 최적화부(120)는 적어도 하나의 3차원 모델 개체 중 사용자가 정의한 3차원 육면체 영역 내부에 어느 한 정점도 포함되지 않는 개체를 삭제하여 최적화를 수행한다. 사용자가 3차원 육면체 영역을 정의하는 일 예는 도 5 를 참고하여 설명한다. An example of performing optimization based on a predetermined area in the optimization unit 120 is as follows. The optimizer 120 performs optimization by deleting an object that does not include any vertex inside the 3D hexahedron region defined by the user among at least one 3D model object. An example in which a user defines a 3D hexahedral area will be described with reference to FIG. 5 .

도 5 는 본 발명의 바람직한 일 실시예로서, 최적화부(120)에서 이용하는 사용자입력인터페이스의 또 다른 일 예를 도시한다.5 shows another example of a user input interface used by the optimization unit 120 as a preferred embodiment of the present invention.

본 발명의 바람직한 일 실시예로서, 사용자가 현재스크린뷰(Current Screen View)(510) 버튼을 활성화하면, 적어도 하나의 3차원 모델 개체가 표시된 화면에 보이는 영역의 양 끝 좌표값이 자동으로 할당된다(530). 이 경우, X1, X2, Y1, Y2만이 자동으로 입력되고, Z1 및 Z2 값은 사용자로부터 입력을 받는다.As a preferred embodiment of the present invention, when the user activates the Current Screen View 510 button, coordinate values of both ends of a region visible on a screen displaying at least one 3D model object are automatically assigned. (530). In this case, only X1, X2, Y1, and Y2 are automatically input, and values of Z1 and Z2 are input by the user.

본 발명의 또 다른 바람직한 일 실시예로서, 사용자가 마우스입력(520) 버튼을 활성화하면 스크린화면에서 마우스를 클릭하는 지점의 좌표값이 자동으로 X1, Y1, Z1 혹은 X2, Y2, Z2 입력 칸(530)에 할당된다. 좌측 마우스입력 버튼을 누른 후 스크린 화면에서 영역의 한쪽 끝 점을 클릭함으로써 (X1,Y1,Z1) 좌표가 자동으로 X1, Y1, Z1 입력 칸에 할당된다. 또한, 우측 마우스 버튼을 누른 후 스크린 화면에서 영역의 반대쪽 끝 점을 클릭함으로써 (X2,Y2,Z2) 좌표가 자동으로 X2, Y2, Z2 입력칸에 할당된다. As another preferred embodiment of the present invention, when the user activates the mouse input 520 button, the coordinates of the point where the mouse is clicked on the screen are automatically entered in the X1, Y1, Z1 or X2, Y2, Z2 input fields ( 530) is assigned to. By pressing the left mouse input button and clicking one end point of the area on the screen, (X1, Y1, Z1) coordinates are automatically assigned to the X1, Y1, Z1 input cells. Also, by clicking the opposite end point of the area on the screen after pressing the right mouse button, (X2, Y2, Z2) coordinates are automatically assigned to the X2, Y2, Z2 input fields.

다만, 활성화 된 스크린 화면이 2D 뷰(Top View) 인 경우에는 높이에 해당하는 Z1, Z2 값을 제외한 수평 좌표 값 X1, X2, Y1, Y2 값만 자동으로 입력되고, 스크린 화면이 3D 뷰일 경우에는 수평 좌표 값 X1, X2, Y1, Y2 값과 수직 좌표 값 Z1, Z2 값이 모두 자동으로 입력된다. However, if the activated screen is a 2D view (Top View), only the horizontal coordinate values X1, X2, Y1, Y2 are automatically entered except for the Z1, Z2 values corresponding to the height. If the screen is a 3D view, the horizontal Coordinate values X1, X2, Y1, Y2 and vertical coordinate values Z1, Z2 are all entered automatically.

본 발명의 또 다른 바람직한 일 실시예로서, 사용자는 X1, X2, Y1, Y2, Z1, Z2에 해당하는 좌표 값 및 그 단위를 직접입력할 수 있다. As another preferred embodiment of the present invention, the user can directly input coordinate values and units corresponding to X1, X2, Y1, Y2, Z1, and Z2.

최적화부(120)에서 기설정된 특성정보 기준을 기초로 최적화를 수행하는 일 예는 다음과 같다. 최적화부(120)는 입력된 적어도 하나의 3차원 모델 개체의 특성정보값 중 사용자가 기정의된 특성정보에 부합하는 개체만을 선택적으로 삭제하여 최적화를 수행한다. 도 6을 참고하여 설명한다. An example of performing optimization based on a preset characteristic information criterion in the optimization unit 120 is as follows. The optimization unit 120 performs optimization by selectively deleting only objects that match the characteristic information predefined by the user among the input characteristic information values of at least one 3D model object. This will be described with reference to FIG. 6 .

도 6 는 본 발명의 바람직한 일 실시예로서, 최적화부(120)에서 이용하는 사용자입력인터페이스의 또 다른 일 예를 도시한다.6 shows another example of a user input interface used by the optimization unit 120 as a preferred embodiment of the present invention.

사용자는 사용자입력인터페이스를 이용하여 3차원 모델 특성 항목입력부(Propoerty, 620), 조건입력부(Condition, 630), 조건값입력부(Value, 640), 추가 설정입력부(Not, Match Case, Wild Card)(650)을 선택하고 입력하여 하나의 조건행을 생성할 수 있다. The user uses the user input interface to enter the 3D model characteristic item input unit (Property, 620), condition input unit (Condition, 630), condition value input unit (Value, 640), additional setting input unit (Not, Match Case, Wild Card) ( 650) can be selected and input to create one conditional row.

3차원 모델 특성 항목입력부(Propoerty, 620)은 Name, Tag Number, Layer, Material, Description, System Path, Folder Path, Location, Direction 등과 같은 특성항목을 선택하여 입력할 수 있도록 구현된다. The 3D model property item input unit (Property, 620) is implemented to select and input property items such as Name, Tag Number, Layer, Material, Description, System Path, Folder Path, Location, and Direction.

조건입력부(Condition, 630)는 특성 항목(Property)과 조건값(Value)의 조건 관계를 정의하는 항목으로, Equals, Contains, >, >=, <, <=, Defined, Undefined 등과 같은 조건항목을 선택하여 입력할 수 있도록 구현된다. 각 조건항목은 아래와 같이 작동한다.The condition input unit (Condition, 630) is an item that defines the conditional relationship between a property and a condition value, and includes condition items such as Equals, Contains, >, >=, <, <=, Defined, and Undefined. It is implemented so that it can be selected and entered. Each condition item works as follows.

Figure 112022076513594-pat00001
Equals : 선택된 특성 항목 값이 조건값과 일치
Figure 112022076513594-pat00001
Equals: The value of the selected property item matches the condition value

Figure 112022076513594-pat00002
Contains : 선택된 특성 항목 값이 조건값을 포함
Figure 112022076513594-pat00002
Contains: The value of the selected attribute item contains the condition value

Figure 112022076513594-pat00003
> : 선택된 특성 항목 값이 조건값보다 큼
Figure 112022076513594-pat00003
> : The value of the selected property item is greater than the condition value

Figure 112022076513594-pat00004
>= : 선택된 특성 항목 값이 조건값보다 크거나 같음
Figure 112022076513594-pat00004
>= : the value of the selected property item is greater than or equal to the condition value

Figure 112022076513594-pat00005
< : 선택된 특성 항목 값이 조건값보다 작음
Figure 112022076513594-pat00005
<: The value of the selected property item is less than the condition value

Figure 112022076513594-pat00006
<= : 선택된 특성 항목 값이 조건값보다 작거나 같음
Figure 112022076513594-pat00006
<= : The value of the selected property item is less than or equal to the condition value

Figure 112022076513594-pat00007
Defined : 선택된 특성 항목 값이 정의되어 있음(해당 항목 값이 존재함)
Figure 112022076513594-pat00007
Defined: The value of the selected property item is defined (the item value exists)

Figure 112022076513594-pat00008
Undefined : 선택된 특성 항목 값이 정의되어 있지 않음(해당 항목 값이 없음)
Figure 112022076513594-pat00008
Undefined : The value of the selected property item is not defined (there is no value for that item)

조건값입력부(Value, 640)는 사용자가 Not, Match Case, Wild Card 에 해당하는 체크 박스를 이용하여 해당 설정의 적용을 정의할 수 있다. 매칭케이스(Match Case)설정과 와일드 카드(Wild Card) 설정의 적용을 고려하여 대소문자를 구분하거나 와일드카드문자(*, ?)를 고려하여 입력할 수 있다. In the condition value input unit (Value, 640), the user can define the application of the corresponding setting by using check boxes corresponding to Not, Match Case, and Wild Card. Considering the application of Match Case setting and Wild Card setting, case sensitive or wild card characters (*, ?) can be considered for input.

Figure 112022076513594-pat00009
Not : 설정한 조건에 반대되는 조건을 정의함, Equals 조건을 선택하고 Not 설정 적용 시, 선택된 특성 항목 값이 조건값과 일치하지 않는 조건을 정의
Figure 112022076513594-pat00009
Not: Defines a condition opposite to the set condition. When selecting the Equals condition and applying the Not setting, defines a condition in which the selected property item value does not match the condition value

Figure 112022076513594-pat00010
Match Case : 조건 적용 시 대소문자 구분 여부를 정의
Figure 112022076513594-pat00010
Match Case: Defines case sensitivity when applying conditions

Figure 112022076513594-pat00011
Wild Card : Wild card 문자(*, ) 가 조건값에 포함될 경우 이를 Wild card 문자로 인식할 것인지, 단순 문자로 인식할 것인지 여부를 정의
Figure 112022076513594-pat00011
Wild Card: Defines whether wild card characters (*, ) are recognized as wild card characters or simple characters when they are included in the condition value.

또한, 생성된 조건행들을 논리연산자(New, And, Or)(610)를 이용하여 결합하여 하나 혹은 다수의 조건문을 정의할 수 있다. 논리연산자의 기능은 다음과 같다.In addition, one or more conditional statements may be defined by combining the generated conditional lines using logical operators (New, And, Or) 610. The functions of logical operators are as follows.

Figure 112022076513594-pat00012
NEW : 기존의 조건문과 결합되지 않는 신규 조건의 시작을 선언. NEW 연산자를 가진 조건부터 다음 NEW 연산자 조건이 나오기까지 나열된 조건들은 AND 혹은 OR 연산자를 통해 하나의 조건으로 결합됨
Figure 112022076513594-pat00012
NEW: Declare the start of a new condition that is not combined with an existing conditional statement. The conditions listed from the condition with the NEW operator to the next NEW operator condition are combined into one condition through the AND or OR operator.

Figure 112022076513594-pat00013
AND : 해당 조건행을 기존 조건행에 AND 연산으로 결합됨
Figure 112022076513594-pat00013
AND: The condition row is combined with the existing condition line by AND operation.

Figure 112022076513594-pat00014
OR : 해당 조건행을 기존 조건행에 OR 연산으로 결합됨
Figure 112022076513594-pat00014
OR: The condition row is combined with the existing condition row by OR operation.

제 1 필터링부(130)는 3차원 모델 개체의 특성정보를 이용하여 3차원 모델 개체가 장애물인지를 판단하여 장애물 개체로 변환하고, 장애물 종류를 분류한다. 그리고, 제 1 특성입력부(132)에서 분류된 장애물에 기정의된 장애물 특성을 입력한다. 도 3 및 7을 참고하여 설명한다. 도 3 은 본 발명의 바람직한 일 실시예로서, 3차원음향스터디 자동출력장치에서 3차원 모델 개체의 형상정보 및 특성정보를 이용하는 일 예를 도시한다.The first filtering unit 130 determines whether the 3D model object is an obstacle using the characteristic information of the 3D model object, converts it into an obstacle object, and classifies the type of the obstacle. In addition, predefined obstacle characteristics are input to the obstacles classified by the first characteristic input unit 132 . This will be described with reference to FIGS. 3 and 7 . FIG. 3 shows an example of using shape information and characteristic information of a 3D model entity in a 3D acoustic study automatic output device as a preferred embodiment of the present invention.

제 1 필터링부(130)는 3차원 모델 개체의 특성정보(304)를 이용하여 사용자에 의해 정의된 기준에 따라 3차원 모델 개체를 자동으로 특정 종류의 장애물로 분류할 수 있다. 그리고, 제 1 특성입력부(132)는 변환된 장애물 개체에 기정의된 장애물 종류에 해당하는 장애물 특성정보 값을 부여한다. The first filtering unit 130 may automatically classify the 3D model object as a specific type of obstacle according to the criteria defined by the user using the characteristic information 304 of the 3D model object. Then, the first characteristic input unit 132 assigns an obstacle characteristic information value corresponding to a predefined obstacle type to the converted obstacle entity.

도 7 을 참고하면, 사용자는 장애물 종류별 행을 생성하고, 명칭(710)을 입력한다. 그리고, 생성된 장애물 종류마다 장애물 특성정보(720)를 입력한다. 장애물 특성 정보의 예로는 Obstacle Type, Material, Attenuation Factor, Reflection Loss 등이 있다. 각 장애물 구분 행의 Condition 열(730)의 Setup 단추를 누르면 해당 장애물 구분 조건을 설정할 수 있는 신규창이 뜨며 조건 설정의 방법은 도 6의 일 실시예와 유사하게 구현될 수 있다. Referring to FIG. 7 , the user creates a row for each type of obstacle and inputs a name 710 . In addition, obstacle characteristic information 720 is input for each type of created obstacle. Examples of obstacle property information include Obstacle Type, Material, Attenuation Factor, and Reflection Loss. If you press the Setup button in the Condition column 730 of each obstacle classification row, a new window for setting the corresponding obstacle classification condition appears, and the condition setting method can be implemented similarly to the embodiment of FIG. 6 .

제 1 필터링부(130)는 도 6 내지 7과 같이 사용자에 의해 기정의된 장애물 분류 및 정의 정보를 이용하여, 3차원 모델 개체를 자동으로 특정 종류의 장애물로 분류할 수 있다.The first filtering unit 130 may automatically classify the 3D model object as a specific type of obstacle using obstacle classification and definition information previously defined by the user as shown in FIGS. 6 and 7 .

예를 들어, 'Layer' 특성 정보가 'Building'이라는 조건값을 포함하면서 동시에 'Material' 특성정보가 'Concrete'를 포함하면 해당 개체를 Building Type 2 장애물로 분류한다. For example, if 'Layer' property information includes the condition value 'Building' and 'Material' property information includes 'Concrete' at the same time, the object is classified as a Building Type 2 obstacle.

제 1 특성입력부(132)는 장애물 개체의 특성을 입력한다. 도 7을 참고하여 설명한다. 제 1 특성입력부(132)는 제 1 필터링부(130)에서 분류된 장애물 구분(종류)에 따라, 기 정의된 장애물 특성정보(720)를 입력한다. 장애물 특성정보의 예로는 Obstacle Type, Material, Attenuation Factor, Reflection Loss 등이 있다. 도 7 을 참고하면 각 장애물 구분(710)별로 입력되어야 하는 특성 정보(720)를 입력할 수 있다. Obstacle Type, Material 특성정보는 음향 스터디 소프트웨어 혹은 음향 스터디 프로그램의 해당 특성 항목에서 선택할 수 있는 값 중 선택할 수 있다. Attenuation Factor, Reflection Loss 등은 장애물 구분 별로 특성값을 직접 입력하여 정의한다. 예를 들어 제 1 필터링부(130)에서 분류된 장애물 개체가 'Building Type 2'에 해당한다면 제 1 특성입력부(132)는 해당 장애물 개체에 'Building Type 2' 에 해당하는 소음원 특성정보를 입력한다. 도 7을 참고하여 입력되는 특성 정보의 일 예는 Obstacle Type : Building with flat roof, Material : Concrete, Attenuation Factor : -2dB, Reflection Loss : 0.79 일 수 있다.The first characteristic input unit 132 inputs the characteristic of the obstacle entity. This will be described with reference to FIG. 7 . The first characteristic input unit 132 inputs predefined obstacle characteristic information 720 according to the obstacle classification (type) classified by the first filtering unit 130 . Examples of obstacle characteristic information include Obstacle Type, Material, Attenuation Factor, and Reflection Loss. Referring to FIG. 7 , characteristic information 720 to be input for each obstacle category 710 may be input. Obstacle Type and Material property information can be selected from values that can be selected from the corresponding property items of the sound study software or sound study program. Attenuation Factor, Reflection Loss, etc. are defined by directly inputting characteristic values for each obstacle category. For example, if the obstacle object classified by the first filtering unit 130 corresponds to 'Building Type 2', the first characteristic input unit 132 inputs noise source characteristic information corresponding to 'Building Type 2' to the corresponding obstacle object. . An example of input characteristic information with reference to FIG. 7 may be Obstacle Type: Building with flat roof, Material: Concrete, Attenuation Factor: -2dB, and Reflection Loss: 0.79.

제2 필터링부(140)는 3차원 모델 개체의 특성정보를 이용하여 3차원 모델 개체가 소음원인지 판단하고, 소음원으로 판단되면 종류를 구분한다. 제2필터링부(140)는 3차원 모델 특성정보값을 이용하여 사용자에 의해 기정의된 기준에 따라 해당하는 3차원 모델 개체를 소음원으로 판단하고, 소음원의 종류를 구분한다. The second filtering unit 140 determines whether the 3D model object is a noise source using the characteristic information of the 3D model object, and classifies the type if it is determined to be a noise source. The second filtering unit 140 determines a corresponding 3D model object as a noise source according to a criterion predefined by a user using the 3D model characteristic information value, and classifies the type of the noise source.

예를 들어, 제 2 필터링부(140)는 'Sound(dB), Day' 특성정보의 값이 존재하고, 'Model No.' 특성 정보의 값이 'DSP_15Ex' 와 일치한다면 해당 개체를 'Speaker1' 소음원으로 구분할 수 있다. For example, the second filtering unit 140 has a value of 'Sound (dB), Day' characteristic information, and 'Model No.' If the value of the characteristic information matches 'DSP_15Ex', the object can be identified as the 'Speaker1' noise source.

배치부(150)는 소음원으로 분류된 3차원 모델 개체를 음향 스터디 소프트웨어나 음향스터디 프로그램의 소음원 개체로 변환 혹은 신규 생성하여 배치한다. 배치부(150)는 음향 스터디 소프트웨어나 음향스터디 프로그램에 소음원으로 분류된 3차원 모델 개체를 배치한다. 이 경우, 배치부(150)는 소음원으로 분류된 3차원 모델 개체의 'Source Type' 특성값이 'Point Source' 가 아닌 경우(예를 들어, Line Source, Area Source 등)에는 해당 3차원 모델 개체를 동일한 위치에 복사 후 소음원 개체로 변환하여 배치하고, 'Source Type' 이 'Point Source'인 경우에는 3차원 모델 개체의 특성정보 중 'Location'(도 8, 820) 특성 정보에서 해당 3차원 모델 개체의 좌표 및 높이 정보를 이용하고, 'Direction'(도 8, 820) 특성정보에서 개체의 X축, Y 축 및 Z축 회전각 정보를 불러와 동일한 위치 및 방향에 소음원을 생성하고 배치한다. The arranging unit 150 converts or newly creates a 3D model object classified as a noise source into a noise source object of sound study software or sound study program and arranges it. The placement unit 150 places the 3D model object classified as a noise source in the sound study software or sound study program. In this case, if the 'Source Type' characteristic value of the 3D model object classified as a noise source is not 'Point Source' (eg, Line Source, Area Source, etc.), the arranging unit 150 determines the corresponding 3D model object After copying to the same location, it is converted into a noise source object and placed, and when the 'Source Type' is 'Point Source', the corresponding 3D model in the 'Location' (820, Fig. 8) characteristic information among the characteristic information of the 3D model object Using the coordinate and height information of the object, the object's X-axis, Y-axis, and Z-axis rotation angle information is called from the 'Direction' (Fig. 8, 820) characteristic information, and a noise source is created and placed in the same position and direction.

예를 들면, 배치부(150)는 음향스터디 소프트웨어나 음향스터디 프로그램상에 소음원 개체로 배치할 때 Source Type 특성값이 'Point Source' 소음원으로 분류된 개체의 경우에는 해당 3차원 모델 개체의 특성 정보 중 Location 및 Direction 특성 정보를 활용하여 (E:1,000,000 mm, N:1,000,000 mm, EL:3,000mm) 좌표 및 (X축 회전각: 90도, Y축 회전각: 0도, Z축 회전각:0도)방향을 입력하여 음향 스터디 소프트웨어 혹은 음향 스터디 프로그램의 소음원 개체를 자동으로 생성 및 배치한다.For example, when the arrangement unit 150 arranges a noise source object on sound study software or a sound study program, in the case of an object whose Source Type characteristic value is classified as a 'Point Source' noise source, the characteristic information of the corresponding 3D model object. (E:1,000,000 mm, N:1,000,000 mm, EL:3,000mm) coordinates and (X-axis rotation angle: 90 degrees, Y-axis rotation angle: 0 degrees, Z-axis rotation angle: 0 Fig.) By inputting the direction, the noise source object of the sound study software or sound study program is automatically created and arranged.

Source Type 특성값이 'Point Source' 가 아닌 소음원(예를 들어, Line Source, Area Source 등)으로 분류된 개체의 경우에는 해당 3차원 모델 개체를 동일한 위치에 복사한 후 음향 스터디 소프트웨어 혹은 음향 스터디 프로그램의 소음원 개체로 변환 및 배치한다.In the case of an object classified as a noise source (eg, Line Source, Area Source, etc.) whose Source Type characteristic value is not 'Point Source', copy the 3D model object to the same location and then use sound study software or sound study program is converted and placed into a noise source object of

제 2 특성입력부(160)는 소음원 개체의 특성을 입력한다. 도 8 내지 10을 참고하여 설명한다. 음향스터디를 수행하기 위해서는 배치된 소음원 각각에 입력되어야 하는 특성정보들이 존재한다. 제 2 특성입력부(160)는 배치부(150)에서 배치된 소음원 개체에, 제 2 필터링부(140)에서 분류된 소음원 구분(종류)에 따라, 기 정의된 소음원 특성정보(830)를 입력한다. 소음원 특성정보의 예로는 Source Type, Directivity, Emission Day, Emission Night, Events Per Hour, Duration 등이 있다. 도 8 내지 도 10을 참고하면 각 소음원 구분(810)별로 입력되어야 하는 특성 정보(830)를 입력할 수 있다. Source Type(910), Directivity(920) 특성정보는 음향 스터디 소프트웨어 혹은 음향 스터디 프로그램의 해당 특성 항목에서 선택할 수 있는 값 중 선택할 수 있다. Emission Day(1010), Emission Night(1020) 특성정보는 3차원 모델 특성 항목 중 소음원 출력 정보에 대응하는 항목을 선택하여 각 소음원 개체의 해당 특성값을 가져올 수 있다. Events Per Hour, Duration 등은 소음원 구분 별로 특성값을 직접 입력하여 정의한다.예를 들어 배치부(150)에서 배치된 소음원 개체가 제 2 필터링부(140)의 구분에 따라 'Speaker1'에 해당한다면 제 2 특성입력부(160)는 해당 소음원 개체에 'Speaker1' 에 해당하는 소음원 특성정보를 입력한다. 도 8 을 참고하여 입력되는 특성 정보의 일 예는 Source Type:Point Source, Directivity:DSP_15Ex, Emmission Day:124, Emmission Night:110, Events Per Hour:1, Duration(Min):60 일 수 있다. 여기에서 Emmission Day 및 Emmission Night 특성정보는 각각 3차원 모델 특성 정보의 'Sound(dB), Day'항목과 'Sound(dB), Night)'항목에 대응하도록 입력하였으므로, 해당 소음원의 3차원 모델 특성 항목 중 'Sound(dB), Day' 항목에 입력된 특성값과 'Sound(dB), Night' 항목에 입력된 특성값이 해당 소음원 개체의 Emmission Day와 Emmission Night 특성값으로 입력된다. 여기에서는 해당 3차원 모델 개체의 'Sound(dB), Day' 특성값을 124, 'Sound(dB), Night' 특성값을 110으로 예시하였다. The second characteristic input unit 160 inputs the characteristics of the individual noise source. This will be described with reference to FIGS. 8 to 10 . In order to perform the acoustic study, there is characteristic information that must be input to each of the arranged noise sources. The second characteristic input unit 160 inputs predetermined noise source characteristic information 830 to the noise source object arranged in the arrangement unit 150 according to the noise source classification (type) classified by the second filtering unit 140. . Examples of noise source characteristic information include Source Type, Directivity, Emission Day, Emission Night, Events Per Hour, and Duration. Referring to FIGS. 8 to 10 , characteristic information 830 to be input for each noise source classification 810 may be input. Source Type (910) and Directivity (920) characteristic information can be selected from values that can be selected from corresponding characteristic items of sound study software or sound study programs. For Emission Day (1010) and Emission Night (1020) characteristic information, corresponding characteristic values of each noise source object may be obtained by selecting an item corresponding to noise source output information among 3D model characteristic items. Events Per Hour, Duration, etc. are defined by directly inputting characteristic values for each noise source category. For example, if the noise source object arranged in the arrangement unit 150 corresponds to 'Speaker1' according to the classification of the second filtering unit 140, The second characteristic input unit 160 inputs noise source characteristic information corresponding to 'Speaker1' to the corresponding noise source entity. An example of input characteristic information with reference to FIG. 8 may be Source Type: Point Source, Directivity: DSP_15Ex, Emmission Day: 124, Emmission Night: 110, Events Per Hour: 1, and Duration (Min): 60. Here, the emission day and emission night characteristic information are entered to correspond to the 'Sound (dB), Day' and 'Sound (dB), Night) items of the 3D model characteristic information, respectively, so that the 3D model characteristics of the corresponding noise source Among the items, the characteristic values entered in the 'Sound (dB), Day' item and the 'Sound (dB), Night' item are input as the emission day and emission night characteristic values of the noise source object. Here, the 'Sound (dB), Day' characteristic value of the 3D model object is exemplified as 124 and the 'Sound (dB), Night' characteristic value as 110.

도 8 은 배치된 소음원 각각에 소음원 배치정보(820), 특성정보(830)를 사용자가 입력하거나 또는 음향스터디소프트웨어로부터 배치된 소음원에 대응하는 3차원 모델 개체의 특성 정보를 불러와 입력하는 일 예를 도시한다. Condition 열(840)의 Setup 단추를 누르면 해당 종류의 소음원 분류 기준 조건을 설정할 수 있는 신규 창이 뜨며 조건 설정의 방법은 도 6의 일 실시예와 유사하다. 8 is an example in which a user inputs noise source arrangement information 820 and characteristic information 830 for each of the arranged noise sources, or imports and inputs characteristic information of a 3D model object corresponding to the arranged noise source from acoustic study software. shows Pressing the Setup button in the Condition column 840 brings up a new window for setting the noise source classification criterion conditions of the corresponding type, and the condition setting method is similar to that of the embodiment of FIG. 6 .

사용자는 배치된 소음원 각각에 대해 명칭(810)을 구분하여 입력할 수 있다. 그리고, 배치된 소음원 각각의 위치정보와 방향정보(820)에 해당하는 3차원 모델 특성 항목을 선택할 수 있다. The user may classify and input the name 810 for each of the arranged noise sources. In addition, a 3D model characteristic item corresponding to the location information and direction information 820 of each of the arranged noise sources may be selected.

음향스터디를 수행하기 위해서는 배치된 소음원 각각에 입력되어야 하는 특성정보들이 존재한다. 도 9 내지 10을 참고하면 사용자는 각 소음원(910)별로 입력되어야 하는 특성정보(920,1010)을 선택하여 입력할 수 있다. 특성정보의 예로는 Source Type, Directivity, Emission Day, Emission Night, Events Per Hour, Duration 등이 있다. In order to perform the acoustic study, there is characteristic information that must be input to each of the arranged noise sources. Referring to FIGS. 9 to 10 , the user may select and input characteristic information 920 and 1010 to be input for each noise source 910 . Examples of characteristic information include Source Type, Directivity, Emission Day, Emission Night, Events Per Hour, and Duration.

출력부(170)는 소음원이 배치되고 소음원의 특성정보값이 입력된 3차원음향스터디 문서를 출력한다. 출력부(170)에서 최종 3차원음향스터디 결과를 출력하기 이전에 도 3의 처리부(362)를 통해 계산값들이 설정되고 처리될 수 있다.The output unit 170 outputs a three-dimensional acoustic study document in which noise sources are arranged and characteristic information values of the noise sources are input. Calculated values may be set and processed through the processing unit 362 of FIG. 3 before the output unit 170 outputs the final 3D acoustic study result.

도 11 은 본 발명의 바람직한 일 실시예로서, 3차원음향스터디 자동출력장치에서 3차원음향스터디를 자동으로 생성하는 흐름도를 도시한다. 11 is a flowchart for automatically generating a 3D acoustic study in a 3D acoustic study automatic output device according to a preferred embodiment of the present invention.

추출부는 적어도 하나의 3차원 모델 개체의 형상정보 및 특성정보를 추출한다(S1110). 제 3 필터링부는 특성정보를 이용하여 3차원 모델 개체가 지면 개체인지 분류한다(S1120). 제 2 필터링부는 특성정보를 이용하여 3차원 모델 개체가 소음원인지를 분류한다(S1130). 배치부는 소음원으로 분류된 3차원 모델 개체를 배치한다(S1140). 제 2 특성입력부는 배치된 소음원 개체의 특성을 입력한다(S1150). 제 1 필터링부는 특성정보를 이용하여 3차원 모델 개체가 장애물인지를 분류한다(S1160). 그리고 제 1 특성입력부는 분류된 장애물 개체의 특성을 입력한다(S1170). The extraction unit extracts shape information and characteristic information of at least one 3D model object (S1110). The third filtering unit classifies whether the 3D model object is a ground object using the characteristic information (S1120). The second filtering unit classifies whether the 3D model entity is a noise source using the characteristic information (S1130). The arranging unit arranges the 3D model objects classified as noise sources (S1140). The second characteristic input unit inputs the characteristics of the arranged noise source entity (S1150). The first filtering unit classifies whether the 3D model object is an obstacle using the characteristic information (S1160). And the first characteristic input unit inputs the characteristic of the classified obstacle entity (S1170).

본 발명의 실시예에 따른 방법의 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 정보가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다. The operation of the method according to the embodiment of the present invention can be implemented as a computer readable program or code on a computer readable recording medium. A computer-readable recording medium includes all types of recording devices in which information that can be read by a computer system is stored. In addition, computer-readable recording media may be distributed to computer systems connected through a network to store and execute computer-readable programs or codes in a distributed manner.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, and flash memory. The program command may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine code generated by a compiler.

이상 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below. You will understand that you can.

Claims (15)

적어도 하나의 3차원 모델 개체의 형상정보 및 특성정보를 추출하는 추출부;
추출된 형상정보 또는 특성정보를 기초로 기정의된 길이, 기정의된 영역 및 기정의된 특성정보 기준 중 적어도 하나에 부합하지 않는 적어도 하나의 3차원 모델 개체를 제거하는 최적화부;
상기 특성정보를 이용하여 상기 3차원 모델 개체가 장애물인지를 분류하여 장애물 개체로 변환하는 제 1 필터링부;
상기 추출부에서 추출된 상기 3차원 모델 개체의 특성정보를 이용하여 3차원 모델 개체를 소음원 개체로 변환하거나 생성하는 제 2 필터링부;
상기 소음원 개체들의 좌표, 높이 및 방향 정보를 이용하여 자동으로 배치하는 배치부;
분류된 장애물 종류에 따라 장애물 특성을 입력하는 제 1 특성입력부;및
상기 소음원 개체들의 특성을 입력하는 제 2 특성입력부;를 포함하는 것을 특징으로 하는 3차원음향스터디 자동출력장치.
an extraction unit for extracting shape information and characteristic information of at least one 3D model object;
an optimization unit that removes at least one 3D model entity that does not meet at least one of a predefined length, a predefined area, and a predefined characteristic information criterion based on the extracted shape information or characteristic information;
a first filtering unit for classifying whether the 3D model entity is an obstacle using the characteristic information and converting the 3D model entity into an obstacle entity;
a second filtering unit for converting or generating a 3D model entity into a noise source entity using the characteristic information of the 3D model entity extracted from the extraction unit;
a placement unit for automatically arranging the noise source objects using coordinate, height, and direction information;
A first characteristic input unit for inputting obstacle characteristics according to the classified obstacle types; And
A three-dimensional acoustic study automatic output device comprising a; second characteristic input unit for inputting the characteristics of the noise source entities.
삭제delete 제 1 항에 있어서,
상기 추출부에서 추출된 상기 3차원 모델 개체의 특성정보를 이용하여 3차원 모델 개체를 지면개체로 변환하는 제 3 필터링부;를 더 포함하는 것을 특징으로 하는 3차원음향스터디 자동출력장치.
According to claim 1,
The 3D acoustic study automatic output device further comprising a third filtering unit for converting the 3D model entity into a ground entity using the characteristic information of the 3D model entity extracted from the extraction unit.
제 1 항에 있어서, 상기 최적화부는
상기 형상정보를 기초로 상기 기정의된 길이, 상기 기정의된 영역 및 상기 기정의된 특성정보 중 적어도 하나에 부합하지 않는 적어도 하나의 3차원 모델 개체를 제거하는 것을 특징으로 하는 3차원음향스터디 자동출력장치.
The method of claim 1, wherein the optimization unit
3D acoustic study automatic, characterized in that for removing at least one 3D model object that does not conform to at least one of the predefined length, the predefined area and the predefined characteristic information based on the shape information output device.
제 1 항에 있어서, 상기 제 1 필터링부는
상기 특성정보의 특성항목, 조건, 조건값 및 조건간의 관계를 기초로 정의된 조건문을 상기 기정의된 특성정보 기준으로 이용하는 것을 특징으로 하는 3차원음향스터디 자동출력장치.
The method of claim 1, wherein the first filtering unit
A three-dimensional acoustic study automatic output device characterized in that a conditional sentence defined on the basis of a characteristic item of the characteristic information, a condition, a condition value, and a relationship between conditions is used as a criterion for the predefined characteristic information.
삭제delete 제 1 항에 있어서, 상기 특성정보는
3차원 모델링 소프트웨어를 통해 자동으로 입력된 3차원 모델 개체의 특성정보 또는 사용자가 입력한 3차원 모델 개체의 특성정보를 포함하는 것을 특징으로 하는 3차원음향스터디 자동출력장치.
The method of claim 1, wherein the characteristic information
A three-dimensional acoustic study automatic output device comprising characteristic information of a three-dimensional model object automatically input through a three-dimensional modeling software or characteristic information of a three-dimensional model object input by a user.
3차원음향스터디 자동출력장치에서 3차원음향스터디를 자동으로 수행하는 방법으로서,
추출부에서 적어도 하나의 3차원 모델 개체의 형상정보 및 특성정보를 추출하는 단계;
최적화부에서 추출된 형상정보 또는 특성정보를 기초로 기정의된 길이, 기정의된 영역 및 기정의된 특성정보 기준 중 적어도 하나에 부합하지 않는 적어도 하나의 3차원 모델 개체를 제거하는 단계; 및
제 1 필터링부에서 상기 특성정보를 이용하여 상기 3차원 모델 개체가 장애물인지를 분류하여 장애물 개체로 변환하고, 장애물 종류를 구분하여 제 1 특성입력부를 통해 장애물 특성을 입력하는 단계;
상기 추출부에서 추출된 상기 3차원 모델 개체의 특성정보를 이용하여 제 2 필터링부에서 3차원 모델 개체를 소음원 개체로 변환하거나 생성하여 자동으로 배치하고 제 2 특성입력부를 통해 특성을 입력하는 단계;를 포함하는 것을 특징으로 하는 방법.
As a method of automatically performing a three-dimensional acoustic study in a three-dimensional acoustic study automatic output device,
Extracting shape information and characteristic information of at least one 3D model object in an extractor;
removing at least one 3D model entity that does not meet at least one of a predefined length, a predefined area, and a predefined characteristic information criterion based on the shape information or characteristic information extracted by the optimization unit; and
Classifying whether or not the 3D model object is an obstacle by using the characteristic information in a first filtering unit and converting it into an obstacle entity, classifying the obstacle type and inputting the obstacle characteristic through a first characteristic input unit;
converting or generating a 3D model object into a noise source object in a second filtering unit using the characteristic information of the 3D model entity extracted by the extraction unit, automatically arranging it, and inputting the characteristic through a second characteristic input unit; A method comprising a.
제 8항에 있어서, 상기 최적화부는
상기 형상정보를 기초로 상기 기정의된 길이, 상기 기정의된 영역 중 적어도 하나에 부합하지 않는 적어도 하나의 3차원 모델 개체를 제거하는 것을 특징으로 하는 방법.
The method of claim 8, wherein the optimization unit
and removing at least one 3D model entity that does not conform to at least one of the predefined length and the predefined area based on the shape information.
제 8 항에 있어서, 상기 제 1 필터링부는
상기 특성정보의 특성항목, 조건, 조건값 및 조건간의 관계를 기초로 정의된 조건문을 상기 기정의된 특성정보 기준으로 이용하는 것을 특징으로 하는 방법.
The method of claim 8, wherein the first filtering unit
A method characterized in that a conditional sentence defined based on a relation between a characteristic item, a condition, a condition value, and conditions of the characteristic information is used as a criterion for the predefined characteristic information.
삭제delete 제 8 항에 있어서,
상기 추출부에서 추출된 상기 3차원 모델 개체의 특성정보를 이용하여 제 3 필터링부에서 3차원 모델 개체를 지면개체로 변환하는 단계;를 더 포함하는 것을 특징으로 하는 방법.
According to claim 8,
and converting the 3D model entity into a ground entity in a third filtering unit using the characteristic information of the 3D model entity extracted in the extraction unit.
제 8 항에 있어서, 상기 특성정보는
3차원 모델링 소프트웨어를 통해 자동으로 입력된 3차원 모델 개체의 특성정보 또는 사용자가 입력한 3차원 모델 개체의 특성정보를 포함하는 것을 특징으로 하는 방법.
The method of claim 8, wherein the characteristic information
A method characterized by including characteristic information of a 3D model entity automatically input through 3D modeling software or characteristic information of a 3D model entity input by a user.
제 8 항에 있어서, 상기 특성정보는
3차원 모델링 소프트웨어에 의해 자동으로 입력된 개체의 위치, 방향, 레이어 등의 정보 또는 사용자에 의해 수동으로 입력된 개체의 명칭(Name), 태그번호, 소음원 모델, 소음원 출력 등의 정보를 포함하는 것을 특징으로 하는 방법.
The method of claim 8, wherein the characteristic information
Including information such as the location, direction, layer, etc. of an object automatically input by 3D modeling software or information such as the object name (Name), tag number, noise source model, noise source output, etc. manually input by the user How to characterize.
제 8 항 내지 제 10항 및 제 12 항 내지 제 14 항 중 어느 한 항의 3차원음향스터디를 자동으로 수행하는 방법을 구현하는 프로그램을 저장한 컴퓨터 판독 가능한 기록매체.
A computer-readable recording medium storing a program implementing a method of automatically performing a 3-dimensional acoustic study according to any one of claims 8 to 10 and 12 to 14.
KR1020220090619A 2022-07-21 2022-07-21 Method and Device for automatation of 3D Acoustic Study Active KR102540160B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220090619A KR102540160B1 (en) 2022-07-21 2022-07-21 Method and Device for automatation of 3D Acoustic Study

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220090619A KR102540160B1 (en) 2022-07-21 2022-07-21 Method and Device for automatation of 3D Acoustic Study

Publications (1)

Publication Number Publication Date
KR102540160B1 true KR102540160B1 (en) 2023-06-07

Family

ID=86760734

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220090619A Active KR102540160B1 (en) 2022-07-21 2022-07-21 Method and Device for automatation of 3D Acoustic Study

Country Status (1)

Country Link
KR (1) KR102540160B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100440454B1 (en) * 1997-10-20 2004-07-14 노키아 오와이제이 A method and a system for processing a virtual acoustic environment
KR20150065221A (en) * 2013-12-04 2015-06-15 최성열 System and method for providing building information
JP2018120502A (en) * 2017-01-27 2018-08-02 株式会社竹中工務店 Acoustic design method and program
KR20200095778A (en) * 2019-02-01 2020-08-11 박상규 Space sound analyser based on material style method thereof
KR20210094899A (en) * 2020-01-22 2021-07-30 주식회사 케이티 Method for compensating noise and apparatus therefor
KR102284926B1 (en) 2019-12-18 2021-08-03 한국항공우주연구원 Noise source tracking system and noise source tracking method using relative position and time synchronization between personnel

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100440454B1 (en) * 1997-10-20 2004-07-14 노키아 오와이제이 A method and a system for processing a virtual acoustic environment
KR20150065221A (en) * 2013-12-04 2015-06-15 최성열 System and method for providing building information
JP2018120502A (en) * 2017-01-27 2018-08-02 株式会社竹中工務店 Acoustic design method and program
KR20200095778A (en) * 2019-02-01 2020-08-11 박상규 Space sound analyser based on material style method thereof
KR102284926B1 (en) 2019-12-18 2021-08-03 한국항공우주연구원 Noise source tracking system and noise source tracking method using relative position and time synchronization between personnel
KR20210094899A (en) * 2020-01-22 2021-07-30 주식회사 케이티 Method for compensating noise and apparatus therefor

Similar Documents

Publication Publication Date Title
CN112966139B (en) Data processing method, device, electronic equipment and computer storage medium
CN112184789B (en) Plant model generation method, device, computer equipment and storage medium
CN104346769B (en) The compression of three-dimensional modeling object
US11366836B2 (en) Automated geospatial data analysis
CN108399424B (en) Point cloud classification method, intelligent terminal and storage medium
CN110765523A (en) BIM technology-based rapid construction method for deep foundation pit support structure
CN110110114B (en) Visualization method, device and storage medium for multi-source earth observation image processing
CN111583268B (en) Point cloud virtual selection and cutting method, device and equipment
CN111460059A (en) Ambient air quality data visualization method, device, equipment and storage medium
CN112069580A (en) Digital delivery method, platform, system, equipment and medium for pumped storage power station
CN118736139B (en) Method for constructing three-dimensional model of building equipment and digital twin system
KR102558870B1 (en) Method and system for automatic generation of bim models through evaluation of similarity between 3d scan data and bim library objects
CN116524365A (en) Remote sensing intelligent interpretation method, system, equipment and medium for multi-source heterogeneous surface elements
KR102540160B1 (en) Method and Device for automatation of 3D Acoustic Study
CN112256573A (en) SIMSCRIPT-language-oriented simulation program visualization method
CN115423993A (en) Three-dimensional GIS-based layered household monomer method and system
CN117315375B (en) Virtual part classification method, device, electronic equipment and readable storage medium
CN116433838B (en) Three-dimensional tree symbol dynamic generation method, device, terminal and medium
CN120386871B (en) Semantic understanding-based subsection project cost matching mapping method and system
KR102575974B1 (en) Apparatus for visualizing data and method for using the same
CN107403467A (en) A kind of data modeling system and method
CN118132143B (en) Training method, mapping method and equipment for low-code component recognition model
CN120411973B (en) Automatic labeling method, device, equipment and storage medium for three-dimensional model
CN118052989B (en) A point cloud segmentation method based on multi-scale umbrella features
CN120012026B (en) Parallel fusion method, system, terminal and storage medium for multi-mode data of urban stock space

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20220721

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20220726

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20220721

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20221228

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20230524

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20230531

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20230601

End annual number: 3

Start annual number: 1

PG1601 Publication of registration