KR20210130048A - 분석 모델 학습 방법 및 장치 - Google Patents
분석 모델 학습 방법 및 장치 Download PDFInfo
- Publication number
- KR20210130048A KR20210130048A KR1020200048335A KR20200048335A KR20210130048A KR 20210130048 A KR20210130048 A KR 20210130048A KR 1020200048335 A KR1020200048335 A KR 1020200048335A KR 20200048335 A KR20200048335 A KR 20200048335A KR 20210130048 A KR20210130048 A KR 20210130048A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- analysis model
- learning
- original data
- cipher text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/008—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols involving homomorphic encryption
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/06—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols the encryption apparatus using shift registers or memories for block-wise or stream coding, e.g. DES systems or RC4; Hash functions; Pseudorandom sequence generators
- H04L9/0618—Block ciphers, i.e. encrypting groups of characters of a plain text message using fixed encryption transformation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
분석 모델 학습 방법 및 장치가 개시된다. 일 실시예에 따른 분석 모델 학습 방법은, 클라이언트 장치로부터, 원본 데이터에 대한 재현 데이터(synthetic data)를 수신하는 단계: 상기 재현 데이터를 이용하여 분석 모델 학습을 위한 하이퍼파라미터(Hyperparameter) 값을 결정하는 단계; 상기 클라이언트 장치로부터, 상기 원본 데이터에 대한 암호문을 수신하는 단계; 및 상기 결정된 하이퍼파라미터 값 및 상기 수신된 암호문을 이용하여 상기 분석 모델을 학습하는 단계를 포함한다.
Description
개시되는 실시예들은 기계 학습 기술과 관련된다.
기계 학습을 이용한 분석 모델 학습은 데이터 전처리 과정을 통해 정제된 데이터를 이용하여 각각의 하이퍼파라미터(Hyperparameter) 값에 따라 모델 학습을 진행한 후, 결과 모델을 평가하고 정확도가 낮은 경우 데이터 전처리 방식 또는 하이퍼파라미터 값을 변경하여 다시 학습을 반복하는 방식으로 수행된다. 따라서, 데이터 준비 방식 및 하이퍼파라미터 값에 따라 학습되는 모델의 정확도가 크게 좌우된다.
한편, 최근 동형 암호(Homomorphic Encryption) 기술을 이용하여 분석 모델 학습 과정을 암호화된 상태로 수행함으로써 학습을 위해 이용되는 데이터에 포함된 민감 정보의 노출을 방지하기 위한 시도가 계속되고 있다. 그러나, 동형 암호 기술을 이용하여 학습을 수행하는 경우, 동형 암호 기술을 이용하지 않은 경우에 비해 학습 수행 시간이 적게는 수 십 배에서 많게는 수 천 배까지 차이가 나므로 최적의 데이터 전처리 방식과 하이퍼파라미터 값을 찾기 위해 반복적으로 학습을 수행하기에는 많은 시간과 비용이 요구된다. 한편, 이러한 시간과 비용을 줄이기 위해, 제한된 데이터 전처리 방식과 하이퍼파라미터 값을 이용하여 학습을 수행할 수 있지만, 이 경우 학습된 모델의 정확도를 보장하기 어렵다.
개시되는 실시예들은 분석 모델 학습 방법 및 장치를 제공하기 위한 것이다.
일 실시예에 따른 분석 모델 학습 방법은, 클라이언트 장치로부터, 원본 데이터에 대한 재현 데이터(synthetic data)를 수신하는 단계: 상기 재현 데이터를 이용하여 분석 모델 학습을 위한 하이퍼파라미터(Hyperparameter) 값을 결정하는 단계; 상기 클라이언트 장치로부터, 상기 원본 데이터에 대한 암호문을 수신하는 단계; 및 상기 결정된 하이퍼파라미터 값 및 상기 수신된 암호문을 이용하여 상기 분석 모델을 학습하는 단계를 포함한다.
상기 재현 데이터를 이용하여 상기 분석 모델 학습을 위해 상기 원본 데이터에 적용될 데이터 전처리 방식을 결정하는 단계; 및 상기 결정된 데이터 전처리 방식을 상기 클라이언트 장치로 통지하는 단계를 더 포함하고, 상기 암호문을 수신하는 단계는, 상기 결정된 데이터 전처리 방식에 따라 원본 데이터를 전처리하여 생성된 데이터에 대한 암호문을 수신할 수 있다.
상기 재현 데이터는, 국소 차등 정보 보호(Local Differential Privacy)를 만족할 수 있다.
상기 암호문은, 동형 암호(Homomorphic Encryption) 알고리즘을 이용하여 암호화된 암호문일 수 있다.
상기 학습하는 단계는, 상기 수신된 암호문을 암호화된 상태로 이용하여 상기 분석 모델을 학습할 수 있다.
일 실시예에 따른 분석 모델 학습 장치는, 클라이언트 장치로부터, 원본 데이터에 대한 재현 데이터(synthetic data)를 수신하고, 상기 재현 데이터를 이용하여 분석 모델 학습을 위한 하이퍼파라미터(Hyperparameter) 값을 결정하는 결정부; 및 상기 클라이언트 장치로부터, 상기 원본 데이터에 대한 암호문을 수신하고, 상기 결정된 하이퍼파라미터 값 및 상기 수신된 암호문을 이용하여 상기 분석 모델을 학습하는 모델 학습부를 포함한다.
상기 결정부는, 상기 재현 데이터를 이용하여 상기 분석 모델 학습을 위해 상기 원본 데이터에 적용될 데이터 전처리 방식을 결정하고, 상기 결정된 데이터 전처리 방식을 상기 클라이언트 장치로 통지하며, 상기 모델 학습부는, 상기 결정된 데이터 전처리 방식에 따라 원본 데이터를 전처리하여 생성된 데이터에 대한 암호문을 수신할 수 있다.
상기 재현 데이터는, 국소 차등 정보 보호(Local Differential Privacy)를 만족할 수 있다.
상기 암호문은, 동형 암호(Homomorphic Encryption) 알고리즘을 이용하여 암호화된 암호문일 수 있다.
상기 모델 학습부는, 상기 수신된 암호문을 암호화된 상태로 이용하여 상기 분석 모델을 학습할 수 있다.
개시되는 실시예들에 따르면, 분석 모델 학습에 이용될 원본 데이터에 대한 재현 데이터를 이용하여 분석 모델 학습을 위한 하이퍼파라미터 값을 결정한 후, 원본 데이터에 대한 암호문을 이용하여 분석 모델을 학습함으로써 원본 데이터에 포함된 민감 정보의 노출을 방지함과 동시에 분석 모델 학습의 정확도 및 효율성을 향상시킬 수 있다.
도 1은 일 실시예에 따른 분석 시스템의 구성도
도 2는 일 실시예에 따른 분석 모델 학습 장치의 구성도
도 3은 일 실시예에 따른 분석 모델 학습 방법의 순서도
도 4는 다른 실시예에 따른 분석 모델 학습 방법의 순서도
도 5는 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
도 2는 일 실시예에 따른 분석 모델 학습 장치의 구성도
도 3은 일 실시예에 따른 분석 모델 학습 방법의 순서도
도 4는 다른 실시예에 따른 분석 모델 학습 방법의 순서도
도 5는 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 일 실시예에 따른 분석 시스템의 구성도이다.
도 1을 참조하면, 일 실시예에 따른 분석 서비스 시스템(100)은 분석 모델 학습 장치(110) 및 클라이언트 장치(120)를 포함한다.
분석 모델 학습 장치(110)는 기계 학습(machine learning)을 통해 분석 모델을 학습하고, 학습된 분석 모델을 이용한 데이터 분석 결과를 생성하여 제공하기 위한 장치이다.
일 실시예에 따르면, 분석 모델은 예를 들어, 입력된 데이터에 대해 예측 분석(predictive analysis), 통계 분석(statistical analysis), 분류(classification), 군집화(clustering) 등을 수행하도록 학습되는 모델일 수 있으나, 상술한 예 외에도 입력된 데이터에 기초하여 유의미한 새로운 정보를 생성, 검출 또는 추출하도록 학습되는 다양한 종류의 모델일 수 있다.
한편, 일 실시예에 따르면, 분석 모델은 인공 신경망(Artificial Neural Network) 기반의 모델일 수 있으나, 기계 학습을 통해 학습될 수 있는 모델이라면 반드시 특정한 종류 및 형태로 한정되는 것은 아니다.
클라이언트 장치(120)는 분석 모델 학습을 위한 학습 데이터로 이용될 원본 데이터를 소유하고 있는 장치이다. 이때, 클라이언트 장치(120)가 원본 데이터를 소유하고 있다는 것은 클라이언트 장치(120)가 내부에 구비된 저장 수단에 원본 데이터를 저장하고 있거나, 원본 데이터를 저장하고 있는 외부 장치에 접근하여 원본 데이터를 획득 가능함을 의미할 수 있다.
한편, 원본 데이터는 예를 들어, 유전자 데이터, 진료 기록 데이터, 금융 거래 정보 데이터(예를 들어, 계좌번호, 계좌 입출금 내역 등), 개인 정보 데이터(예를 들어, 이름, 주민등록번호 등) 등과 같이 법률 상 허가되지 않은 제3자에 대한 공개가 금지되거나 개인의 프라이버시 보호, 보안 상의 필요성 등에 따라 비공개가 요구되는 민감 정보를 포함하고 있는 데이터일 수 있다.
구체적인 예로, 분석 모델이 환자의 유전자 데이터 또는 진료 데이터에 기초하여 특정 질병의 발생 가능성을 예측하도록 학습되는 모델인 경우, 원본 데이터는 사전 수집된 환자의 유전자 데이터, 진료 기록 데이터 등일 수 있다. 그러나, 원본 데이터의 종류 및 형태는 반드시 상술한 예에 한정되는 것은 아니며, 분석 모델을 이용한 분석 목적, 분석 모델의 종류 등에 따라 상이할 수 있다.
한편, 도 1에 도시된 예에서는 클라이언트 장치(120)가 하나인 것으로 예시하고 있으나, 실시예에 따라 분석 서비스 시스템(100)에는 2 이상의 클라이언트 장치(120)가 포함될 수 있다.
도 2는 일 실시예에 따른 분석 모델 학습 장치의 구성도이다.
도 2를 참조하면, 일 실시예에 따른 분석 모델 학습 장치(110)는 결정부(111) 및 모델 학습부(112)를 포함한다.
일 실시예에서, 결정부(111) 및 모델 학습부(112)는 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.
결정부(111)는 클라이언트 장치(120)로부터 원본 데이터에 대한 재현 데이터(synthetic data)를 수신하고, 수신된 재현 데이터를 이용하여 분석 모델 학습을 위한 하이퍼파라미터(Hyperparameter) 값을 결정한다.
일 실시예에 따르면, 원본 데이터에 대한 재현 데이터는 원본 데이터와 동일 또는 유사한 통계적 특성을 가지며 국소 차등 정보 보호(Local Differential Privacy)를 만족하도록 생성된 데이터일 수 있다. 이때, 재현 데이터의 생성 방식은 반드시 특정한 방식으로 한정되는 것은 아니며 공지된 다양한 방식을 이용하여 생성될 수 있다.
한편, 하이퍼파라미터는 예를 들어, 학습률(learning rate), 배치 크기(batch size), 인공 신경망에 포함된 각 층의 뉴런 개수 등과 같이 분석 모델 학습을 위해 사전에 그 값이 결정되어야 하는 파라미터를 의미하며, 하이퍼파라미터의 종류는 분석 모델의 종류 및 형태에 따라 상이할 수 있다.
일 실시예에 따르면, 결정부(111)는 기 설정된 범위 내에서 하이퍼파라미터 값을 변경하면서 재현 데이터를 이용한 분석 모델 학습을 반복 수행하여 최적의 학습 결과를 도출할 수 있는 하이퍼파라미터 값을 결정할 수 있다. 그러나, 하이퍼파라미터 값을 결정하기 위한 방식은 반드시 특정한 방식으로 한정되는 것은 아니며, 공지된 다양한 하이퍼파라미터 최적화 기법이 이용될 수 있다.
한편, 일 실시예에 따르면, 결정부(111)는 원본 데이터에 대한 재현 데이터를 이용하여 원본 데이터에 적용될 데이터 전처리 방식을 결정하고, 결정된 데이터 전처리 방식을 클라이언트 장치(120)로 통지할 수 있다.
이때, 데이터 전처리는 원본 데이터를 분석 모델 학습에 적합한 형태로 가공하기 위한 일련의 과정을 의미하며, 예를 들어, 데이터 정제, 데이터 통합, 데이터 축소, 데이터 변환, 데이터 재정렬 중 적어도 하나를 포함할 수 있다.
구체적으로, 일 실시예에 따르면, 결정부(111)는 재현 데이터에 대한 데이터 전처리 방식을 변경하면서 전처리된 재현 데이터를 이용한 분석 모델 학습을 반복 수행하여, 미리 설정된 복수의 데이터 전처리 방식 중 최적의 학습 결과를 도출할 수 있는 데이터 전처리 방식을 원본 데이터에 적용될 데이터 전처리 방식으로 결정할 수 있다.
모델 학습부(112)는 클라이언트 장치(120)로부터 원본 데이터에 대한 암호문을 수신하고, 수신된 암호문과 결정부(111)에 의해 결정된 하이퍼파라미터 값을 이용하여 분석 모델을 학습한다.
일 실시예에 따르면, 클라이언트 장치(120)로부터 수신되는 암호문은 동형 암호(Homomorphic Encryption) 알고리즘을 이용하여 원본 데이터를 암호화한 암호문일 수 있으며, 모델 학습부(112)는 수신된 암호문을 암호화된 상태로 이용하여 분석 모델을 학습할 수 있다.
이때, 동형 암호 알고리즘은 평문 데이터에 대한 암호문을 암호화된 상태로 연산하여 평문 데이터에 대한 암호화된 연산 결과를 생성할 수 있도록 하는 암호 알고리즘을 의미한다.
한편, 원본 데이터에 대한 암호문 생성을 위해 이용되는 동형 암호 알고리즘은 반드시 특정한 알고리즘으로 한정되는 것은 아니며, 분석 모델 학습을 위해 원본 데이터에 대해 수행되어야 할 연산의 종류에 따라 공지된 다양한 동형 암호 알고리즘이 이용될 수 있다.
한편, 일 실시예에 따르면, 클라이언트 장치(120)로부터 수신되는 원본 데이터에 대한 암호문은 결정부(111)에 의해 결정된 데이터 전처리 방식에 따라 원본 데이터를 전처리하여 생성된 데이터에 대한 암호문일 수 있다.
구체적으로, 클라이언트 장치(120)는 결정부(111)로부터 원본 데이터에 대한 데이터 전처리 방식을 통지 받은 경우, 통지된 데이터 전처리 방식에 따라 원본 데이터를 전처리한 후, 전처리된 데이터를 암호화하여 모델 학습부(112)로 제공할 수 있다.
도 3은 일 실시예에 따른 분석 모델 학습 방법의 순서도이다.
도 3에 도시된 방법은 분석 모델 학습 장치(110)에 의해 수행될 수 있다.
도 3을 참조하면, 우선, 분석 모델 학습 장치(110)는 클라이언트 장치(120)로부터 원본 데이터에 대한 재현 데이터를 수신한다(310).
이때, 재현 데이터는 원본 데이터와 동일 또는 유사한 통계적 특성을 가지며 국소 차등 정보 보호를 만족하도록 생성된 데이터일 수 있다.
이후, 분석 모델 학습 장치(110)는 수신된 재현 데이터를 이용하여 분석 모델 학습을 위한 하이퍼파라미터 값을 결정한다(320).
이후, 분석 모델 학습 장치(110)는 클라이언트 장치(120)로부터 원본 데이터에 대한 암호문을 수신한다(330).
이때, 원본 데이터에 대한 암호문은 동형 암호 알고리즘을 이용하여 원본 데이터를 암호화한 암호문을 수 있다.
이후, 분석 모델 학습 장치(110)는 수신된 암호문 및 결정된 하이퍼파라미터 값을 이용하여 분석 모델을 학습한다(340).
이때, 분석 모델 학습 장치(110)는 수신된 암호문을 암호화된 상태로 이용하여 분석 모델을 학습할 수 있다.
한편, 도 3에 도시된 순서도에서 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 4는 다른 실시예에 따른 분석 모델 학습 방법의 순서도이다.
도 4에 도시된 방법은 분석 모델 학습 장치(110)에 의해 수행될 수 있다.
도 4를 참조하면, 분석 모델 학습 장치(110)는 클라이언트 장치(120)로부터 원본 데이터에 대한 재현 데이터를 수신한다(410).
이때, 재현 데이터는 원본 데이터와 동일 또는 유사한 통계적 특성을 가지며 국소 차등 정보 보호를 만족하도록 생성된 데이터일 수 있다.
이후, 분석 모델 학습 장치(110)는 수신된 재현 데이터를 이용하여 분석 모델 학습을 위한 하이퍼파라미터 값 및 원본 데이터에 대한 데이터 전처리 방식을 결정한다(420).
이후, 분석 모델 학습 장치(110)는 결정된 데이터 전처리 방식을 클라이언트 장치(120)로 통지한다(430).
이후, 분석 모델 학습 장치(110)는 클라이언트 장치(120)로부터 결정된 데이터 전처리 방식에 따라 원본 데이터를 전처리하여 생성된 데이터에 대한 암호문을 수신한다(440).
이때, 수신되는 암호문은 원본 데이터를 전처리하여 생성된 데이터를 동형 암호 알고리즘을 이용하여 암호화한 암호문을 수 잇다.
이후, 분석 모델 학습 장치(110)는 수신된 암호문 및 결정된 하이퍼파라미터 값을 이용하여 분석 모델을 학습한다(450).
이때, 분석 모델 학습 장치(110)는 수신된 암호문을 암호화된 상태로 이용하여 분석 모델을 학습할 수 있다
한편, 도 4에 도시된 순서도에서 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 5는 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다.
도 5에 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 않은 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 도 2에 도시된 분석 모델 학습 장치(110)에 포함된 하나 이상의 컴포넌트일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 전술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 분석 서비스 시스템
110: 분석 모델 학습 장치
120: 클라이언트 장치
111: 결정부
112: 모델 학습부
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 분석 서비스 시스템
110: 분석 모델 학습 장치
120: 클라이언트 장치
111: 결정부
112: 모델 학습부
Claims (10)
- 클라이언트 장치로부터, 원본 데이터에 대한 재현 데이터(synthetic data)를 수신하는 단계:
상기 재현 데이터를 이용하여 분석 모델 학습을 위한 하이퍼파라미터(Hyperparameter) 값을 결정하는 단계;
상기 클라이언트 장치로부터, 상기 원본 데이터에 대한 암호문을 수신하는 단계; 및
상기 결정된 하이퍼파라미터 값 및 상기 수신된 암호문을 이용하여 상기 분석 모델을 학습하는 단계를 포함하는 분석 모델 학습 방법.
- 청구항 1에 있어서,
상기 재현 데이터를 이용하여 상기 분석 모델 학습을 위해 상기 원본 데이터에 적용될 데이터 전처리 방식을 결정하는 단계; 및
상기 결정된 데이터 전처리 방식을 상기 클라이언트 장치로 통지하는 단계를 더 포함하고,
상기 암호문을 수신하는 단계는,
상기 결정된 데이터 전처리 방식에 따라 원본 데이터를 전처리하여 생성된 데이터에 대한 암호문을 수신하는 분석 모델 학습 방법.
- 청구항 1에 있어서,
상기 재현 데이터는, 국소 차등 정보 보호(Local Differential Privacy)를 만족하는 분석 모델 학습 방법.
- 청구항 1에 있어서,
상기 암호문은, 동형 암호(Homomorphic Encryption) 알고리즘을 이용하여 암호화된 암호문인 분석 모델 학습 방법.
- 청구항 4에 있어서,
상기 학습하는 단계는, 상기 수신된 암호문을 암호화된 상태로 이용하여 상기 분석 모델을 학습하는 분석 모델 학습 방법.
- 클라이언트 장치로부터, 원본 데이터에 대한 재현 데이터(synthetic data)를 수신하고, 상기 재현 데이터를 이용하여 분석 모델 학습을 위한 하이퍼파라미터(Hyperparameter) 값을 결정하는 결정부; 및
상기 클라이언트 장치로부터, 상기 원본 데이터에 대한 암호문을 수신하고, 상기 결정된 하이퍼파라미터 값 및 상기 수신된 암호문을 이용하여 상기 분석 모델을 학습하는 모델 학습부를 포함하는 분석 모델 학습 장치.
- 청구항 6에 있어서,
상기 결정부는, 상기 재현 데이터를 이용하여 상기 분석 모델 학습을 위해 상기 원본 데이터에 적용될 데이터 전처리 방식을 결정하고, 상기 결정된 데이터 전처리 방식을 상기 클라이언트 장치로 통지하며,
상기 모델 학습부는, 상기 결정된 데이터 전처리 방식에 따라 원본 데이터를 전처리하여 생성된 데이터에 대한 암호문을 수신하는 분석 모델 학습 장치.
- 청구항 6에 있어서,
상기 재현 데이터는, 국소 차등 정보 보호(Local Differential Privacy)를 만족하는 분석 모델 학습 장치.
- 청구항 6에 있어서,
상기 암호문은, 동형 암호(Homomorphic Encryption) 알고리즘을 이용하여 암호화된 암호문인 분석 모델 학습 장치.
- 청구항 9에 있어서,
상기 모델 학습부는, 상기 수신된 암호문을 암호화된 상태로 이용하여 상기 분석 모델을 학습하는 데이터 분석 장치.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200048335A KR20210130048A (ko) | 2020-04-21 | 2020-04-21 | 분석 모델 학습 방법 및 장치 |
| US17/081,519 US12008443B2 (en) | 2020-04-21 | 2020-10-27 | Method and apparatus with ciphertext training analysis model |
| EP20204925.0A EP3902194B1 (en) | 2020-04-21 | 2020-10-30 | Method and apparatus for training analysis model |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200048335A KR20210130048A (ko) | 2020-04-21 | 2020-04-21 | 분석 모델 학습 방법 및 장치 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20210130048A true KR20210130048A (ko) | 2021-10-29 |
Family
ID=73043054
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020200048335A Pending KR20210130048A (ko) | 2020-04-21 | 2020-04-21 | 분석 모델 학습 방법 및 장치 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US12008443B2 (ko) |
| EP (1) | EP3902194B1 (ko) |
| KR (1) | KR20210130048A (ko) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20250141850A1 (en) * | 2023-10-30 | 2025-05-01 | Mind Foundry Ltd | Private and secure data portal |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20190115323A (ko) | 2018-04-02 | 2019-10-11 | 서울과학기술대학교 산학협력단 | 비대화식 통신을 이용한 암호화 데이터의 기계학습 시스템 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19635758C1 (de) | 1996-09-03 | 1997-11-20 | Siemens Ag | Verfahren und Vorrichtung zur rechnergestützten Generierung mindestens eines künstlichen Trainingsdatenvektors für ein neuronales Netz |
| EP3203679A1 (en) | 2016-02-04 | 2017-08-09 | ABB Schweiz AG | Machine learning based on homomorphic encryption |
| US11087223B2 (en) | 2018-07-11 | 2021-08-10 | International Business Machines Corporation | Learning and inferring insights from encrypted data |
-
2020
- 2020-04-21 KR KR1020200048335A patent/KR20210130048A/ko active Pending
- 2020-10-27 US US17/081,519 patent/US12008443B2/en active Active
- 2020-10-30 EP EP20204925.0A patent/EP3902194B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20190115323A (ko) | 2018-04-02 | 2019-10-11 | 서울과학기술대학교 산학협력단 | 비대화식 통신을 이용한 암호화 데이터의 기계학습 시스템 |
Also Published As
| Publication number | Publication date |
|---|---|
| US12008443B2 (en) | 2024-06-11 |
| EP3902194A1 (en) | 2021-10-27 |
| US20210326752A1 (en) | 2021-10-21 |
| EP3902194B1 (en) | 2025-08-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12271768B2 (en) | Systems and methods for removing identifiable information | |
| US11443178B2 (en) | Deep neural network hardening framework | |
| CN113886885B (zh) | 数据脱敏方法、数据脱敏装置、设备及存储介质 | |
| US11847245B2 (en) | Privacy preserving data labeling | |
| US20180212752A1 (en) | End-To-End Secure Operations from a Natural Language Expression | |
| US20220222368A1 (en) | Data protection via attributes-based aggregation | |
| US12197623B2 (en) | Securing user-entered text in-transit | |
| US12061671B2 (en) | Data compression techniques for machine learning models | |
| US12248756B2 (en) | Creating predictor variables for prediction models from unstructured data using natural language processing | |
| US20250103746A1 (en) | System and method for providing a privacy-aware prompt engineering system | |
| US20240169256A1 (en) | Secure machine learning model training using encryption | |
| KR20220003380A (ko) | 데이터 익명화 장치 및 방법 | |
| WO2024213987A1 (en) | System and method to treat identified security risk to artificial intelligence platform | |
| Pruksachatkun et al. | Practicing trustworthy machine learning | |
| KR20210130048A (ko) | 분석 모델 학습 방법 및 장치 | |
| US20230342781A1 (en) | System and method for identity verification | |
| US12105776B2 (en) | Dynamic feature names | |
| Peluso et al. | A Federated Learning-Based Android Malware Detector Through Differential Privacy | |
| Abbasi | Privacy-Preserving speaker verification and speech recognition | |
| US11777959B2 (en) | Digital security violation system | |
| US20250307450A1 (en) | Encryption for secured documentation authorization and production | |
| US20250217509A1 (en) | Enhanced dynamic security with partial data access to preserve anonymity | |
| WO2025049120A1 (en) | Artificial intelligence techniques for identifying identity manipulation | |
| Khan et al. | Privacy Issues in Large Language Models: A Survey |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |