[go: up one dir, main page]

KR100190267B1 - Expert system tester - Google Patents

Expert system tester Download PDF

Info

Publication number
KR100190267B1
KR100190267B1 KR1019900018633A KR900018633A KR100190267B1 KR 100190267 B1 KR100190267 B1 KR 100190267B1 KR 1019900018633 A KR1019900018633 A KR 1019900018633A KR 900018633 A KR900018633 A KR 900018633A KR 100190267 B1 KR100190267 B1 KR 100190267B1
Authority
KR
South Korea
Prior art keywords
test
expert system
testing
exception
plan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1019900018633A
Other languages
Korean (ko)
Other versions
KR910010311A (en
Inventor
리 오스본 로버트
에릭 하퍼 카알
Original Assignee
드폴 루이스 에이
웨스팅하우스 일렉트릭 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 드폴 루이스 에이, 웨스팅하우스 일렉트릭 코포레이션 filed Critical 드폴 루이스 에이
Publication of KR910010311A publication Critical patent/KR910010311A/en
Application granted granted Critical
Publication of KR100190267B1 publication Critical patent/KR100190267B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/28Error detection; Error correction; Monitoring by checking the correct order of processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Test And Diagnosis Of Digital Computers (AREA)
  • Devices For Executing Special Programs (AREA)
  • Debugging And Monitoring (AREA)
  • Paper (AREA)
  • Feedback Control In General (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

본 발명은 전문가 시스템에서, 특수 데이타 테스트 세트를 사용하여 데이타 입력 형태의 모든 조합을 실행하는 능력을 갖는 테스트 시스템에 관한 것이다. 특수 데이타 테스트 세트는, 모든 가능한 센서값 및 센서값의 조합을 테스트하지 않고도 모든 진단 레벨이 테스트될수 있도록 운영 체제의 각 레벨에 대한 센서값의 세트를 포함한다. 테스트 세트는 다양한 차수의 테스트를 생성하도록 조합되어 테스트될 센서와 룰간의 복합적인 관계를 허용하게 할 수 있다.The present invention relates to a test system having the ability to perform all combinations of data entry forms using a special data test set in an expert system. The special data test set includes a set of sensor values for each level of the operating system so that all diagnostic levels can be tested without testing all possible sensor values and combinations of sensor values. Test sets can be combined to generate tests of various orders to allow complex relationships between the sensors to be tested and the rules.

Description

전문가 시스템 테스트용 테스트 시스템 및 전문가 시스템 테스트 방법Test Systems and Expert System Test Methods for Expert System Testing

제1도는 본 발명의 구성요소, 입력 및 출력을 도시하는 도면1 illustrates the components, inputs, and outputs of the present invention.

제2도는 본 발명에 따른 1차 테스트의 동작에 관한 흐름도2 is a flowchart of the operation of the first test according to the present invention.

제3도는 2차 테스트를 수행하도록 1차 테스트가 변경될 수 있는 방법을 도시하는 도면3 illustrates how a first test can be changed to perform a second test.

제4도는 본 발명이 바람직한 전문가 시스템과 함께 사용될 때의 데이타 흐름을 도시하는 도면4 shows the data flow when the present invention is used in conjunction with a preferred expert system.

제5도는 바람직한 전문가 시스템과 본 발명의 실행 시퀀스를 도시하는 도면5 shows a preferred expert system and the execution sequence of the present invention.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

10 : 회귀 테스터 12 : 전문가 시스템10: Regression Tester 12: Expert System

14 ; 룰베이스 16 : 추론 엔진14; Rulebase 16: Inference Engine

20 : 테스트 시스템20: test system

본 발명은 테스트되는 특정 룰베이스(rulebase)에 대해 어떤지식을 갖는 테스트 프로그램(test program)이 없이도 광범위한 전문가 시스템 룰에 기초하여 테스트할 수 있게 하는 전문가 시스템 테스터(expert system tester)에 관한 것으로, 특히, 변경이 이루어진 후 룰베이스의 변화를 분석하기 위한 테스트 방법으로서, 적은 비용으로 룰베이스의 질을 효과적으로 현저히 향상시킨 실용적인 회귀 테스트 방법(practical regression testing rmethod)에 관한 것이다.The present invention relates to an expert system tester, which enables testing based on a wide range of expert system rules without the need for a test program with some knowledge of the particular rulebase being tested. As a test method for analyzing the change of rulebase after the change is made, it is related to the practical regression testing rmethod which effectively improves the quality of rulebase at low cost.

전문가 시스템 룰베이스(expert system rulebase)는 보통 1000개를 초과하는 룰을 포함하고 있으며, 이러한 시스템에 있어서 센서 입력은 통상적으로 수백가지에 달한다. 센서가 두 입력값중 하나의 입력값을 제공하는 디지탈 센서((digital sensors)인 경우, 입력 값의 가능한 조합의 수는 방대하며, 따라서 모든 조합을 테스트한다는 것은 실제로 불가능하다. 무한수의 가능한 입력 값을 갖는 아날로그 센서의 경우, 테스트 문제는 더욱 복잡해진다. 대규모 룰베이스(large rulebase)를 위한 새로운 룰을 개발하는 통상적인 과정에서, 전문가에 의한 표준적인 디버그 형태 또는 생산 룰 테스트가 수행된다. 전문가는 새로운 룰(a new rule)을 작성할 때와 같은 상황에 있어서, 전문가가 새로운 룰에 의해 검사된 센서에 대해 예상되는 센서값의 범위를 초과하는 값을 갖는 시물레이트된 플렌트 데이타를 사용하여 시스템을 작동시키므로써, 새로운 룰이 예상대로 동작하는지, 즉, 기대되는 때에 예상된 진단을 생성하는지를 확인한다. 이러한 상황에서, 새로운 룰에 의해 사용된 센서 값 이외의 센서 값은 정상적인 값으로 유지된다. 결과적으로, 생산 형태의 테스트는 새로운 룰에 대한 다른 센서의 영항 또는 새로운 룰과 나머지 룰과의 상호 작용을 판단하지는 못한다. 제2 형태의 테스트는 전문가 시스템을 실제의 연속적인 플랜트 데이타와 온라인 접속하고, 진단을 전문가로 하여금 상세히 검사하게 하여 진단이 예상된 대로 이루어졌는지 여부를 판단하는 것이다. 따라서, 방대한 룰 베이스 및 입력 수를 갖는 시스템의 동작 성능을 검증하기 위해서는 보다 효과적인 기법과 툴(tool)이 요구됨이 분명하다.Expert system rulebases usually contain more than 1000 rules, and in these systems, sensor inputs typically in the hundreds. If the sensor is a digital sensor that provides one of the two inputs, the number of possible combinations of input values is huge, so it is practically impossible to test all combinations. In the case of analog sensors with values, the test problem becomes more complicated: in the normal process of developing new rules for large rulebases, standard debug form or production rule testing by experts is carried out. In situations such as when creating a new rule, the expert uses a simulated plant data with simulated plant data whose value exceeds the range of expected sensor values for the sensor inspected by the new rule. By activating, you ensure that the new rules work as expected, that is, generate expected diagnostics when expected. In one situation, the sensor values other than the sensor values used by the new rule remain normal, as a result, the test of the production type does not affect the influence of other sensors on the new rule or the interaction of the new rule with the rest of the rule. The second type of test involves connecting the expert system online with the actual continuous plant data and allowing the expert to examine the diagnosis in detail to determine whether the diagnosis was as expected. It is clear that more effective techniques and tools are required to verify the operating performance of a system with base and input numbers.

본 발명의 주요 목적은, 테스트 툴을 초기화하고, 작동 시키기 위하여 테스트된 룰베이스내의 어떠한 지식도 이용할 필요없이 테스트 시스템에 진단 룰베이스 검증을 제공하는데 있다.The main object of the present invention is to provide a diagnostic rulebase verification to a test system without having to use any knowledge in the tested rulebase to initialize and operate the test tool.

이러한 목적을 달성하기 위한, 본 발명의 전문가 시스템 테스트용 테스트 시스템은 정상 테스트 세트 및 특수 테스트 세트를 기억하는 테스트 기억 수단과, 정상 테스트 세트 및 특수 테스트 세트를 사용하여 전문가 시스템을 테스트하는 테스트 수단을 포함하되, 상기 테스트 수단은 특수 테스트 세트에 응답하는 전문가 시스템 출력을 예외 조건과 비교하여, 일치하는 경우 이를 보고하는 예의 수단을 포함하는 것을 특징으로 한다.In order to achieve this object, the test system for testing expert systems of the present invention includes test storage means for storing normal test sets and special test sets, and test means for testing expert systems using normal test sets and special test sets. Wherein said testing means comprises an example means for comparing an expert system output responsive to a special test set with an exception condition and reporting a match.

본 발명은 첨부 도면에 단지 실시예에 의해 도시된 바람직한 실시예에 관한 하기의 설명으로부터 더욱 분명해진다.The invention is further clarified from the following description of the preferred embodiment shown by the embodiments only in the accompanying drawings.

회귀 테스트는 변경이 이루어진 위의 룰베이스 변화를 분석하는 방법이다. 두 가지 종류의 변화, 즉,(1)의도되었던 변화와, (2) 룰베이스의 다른 관계없는 측면으로 회귀하는 의도되지 않은 변화가 있을 수 있다. 변화 및 에러 정정은 룰베이스의 본래의 코딩 체계에서 발생된 에러보다 더욱 많은 에러를 초래할 수도 있기 때문에 회귀 테스트는 중요하다.Regression testing is a way to analyze the above rulebase changes that have been made. There can be two kinds of changes: (1) an intended change, and (2) an unintended change back to another unrelated aspect of the rulebase. Regression testing is important because changes and error corrections may result in more errors than those occurring in the rulebase's original coding scheme.

완전 회귀 테스트는 데이타 입력의 모든 가능한 조합 및 진단시나리오를 통해 룰베이스를 철지히 실행시킨다. 실제적인 관점에서 볼때, 이러한 테스트는 완전한 테스트를 수행하는데 소요되는 시간으로 인해 불가능하다. 보다 현실적인 회귀 테스트는 데이타 입력 형태의 모든 조합을 실행하며, 고도의 진단을 실행하고자 하는 경우에는 각 형태(전체 테스트의 서브세트)를 나타내는 특수 테스트 케이스에 따른다.Full regression tests thoroughly run the rulebase through all possible combinations of data entry and diagnostic scenarios. In practical terms, such a test is not possible due to the time it takes to perform a complete test. More realistic regression tests perform all combinations of data entry types, and if you want to perform advanced diagnostics, follow a special test case that represents each type (a subset of the full test).

본 발명의 테스트 시스템 또는 회귀 분석기는 이러한 실질적인 데스트 요건을 역점을 두어 다룬다. 본 발명은 입력으로서 생산 품질 룰베이스, 센서 데이타 세트 및 테스트 플랜을 채택한다. 각각의 데이타 조합에 대하여, 정상 진단은 경보와 같은 비정상적인 상태를 나타내는 어떤 진단도 발생하지 않는 정상 데이타를 이용하여 실행된다. 이러한 정상 진단은 교란된 데이타로 반복하므로써 계속된다. 정상 및 교란된 테스트 사이클은 모든 조합이 테스트될 때까지 계속될 수 있다. 시스템은 테스트 로그 화일(test log file) 및 테스트 플랜에 의해 정의되어 있는, 가능한 부적당한 점들에 대한 별도의 예외 리스트를 작성한다. 분석기는 간단한 테스트를 수행하도록 상호작용적으로 실행되거나, 또는 배치 모드에서 밤새도록 광범위한 테스트를 실행하도록 할 수 있다. 룰 변경간에 이 로그 화일 및 예외 리스트를 비교함으로써 회귀가 발생되었는지를 판단할 수 있다.The test system or regression analyzer of the present invention addresses these practical test requirements. The present invention adopts production quality rule base, sensor data set and test plan as input. For each data combination, normal diagnostics are performed using normal data that does not occur any diagnostics indicating abnormal conditions such as alarms. This normal diagnosis is continued by repeating with disturbed data. Normal and disturbed test cycles can continue until all combinations have been tested. The system creates a separate list of exceptions for possible inconsistencies, as defined by the test log file and test plan. Analyzers can be run interactively to perform simple tests, or they can run extensive tests overnight in batch mode. You can determine if regression has occurred by comparing this log file and the exception list between rule changes.

제1도에 도시된 바와 같이, 본 발명의 회귀 테스터(regression tester)(10)는 생산 룰베이스(production rulebase)(14) 및 전분가 시스템 추론 엔진(expert system inference engine)(16)을 포함하는 전문가 시스템(expert system)(12)과 상호작용한다. 전문가 시스템 추론 엔진은, 웨스팅하우스사로부터 구입가능하며 미합중국 특허 제 4,644,479 호 및 제 4,649,515 호에 설명되어 있는 Processor Diagnostic System(PDS)인 것이 바람직하다. 바람직한 전문가 시스템의 동작 설명은 본 명세서에서 참고로 인용된 웨스팅하우스 일렉트릭 코오포레이숀사(1987)의 『Kemper and Harper, The PDS Manual, PDS Version 5.1, Diagnostics』에서 찾아볼 수 있다. 회귀 분석기는, 다음에 상세히 설명되는 테스트 플랜 언어를 이용하여 작성되며, 추론 엔진(18)에 인가되는 정상 세트 및 테스트 데이타 세트(normal and test data sets)(22)를 액세스하기 위해 테스트 시스템(20)에 의해 사용되는 테스트 플랜(18)을 포함한다. 추론 엔진은, 테스트 시스템에 의해 로그 화일(24)내에 기억되어 예외 보고(26)를 작성하도록 예측된 결과에 비교되는 출력을 발생하는 룰베이스(14)내의 생산 룰을 사용하여, 분석(진단)을 수행한다. 시스템은 또한 출력이 CRT 스크린(CRT screen)(28)상에 디스플레이되도록 한다. 본 발명은 VMS 운영 체제를 실행하는 디지탈 이큅먼트(Digital Equipment)사의 VAX 8000 계열의 컴퓨터상에서 구현되는 것이 바람직하다. 또한, 본 발명은 이후 기술되는 바와 같이 구조 설계법(structure design approach)에 적합한 C와 같은 언어로 구현되는 것이 바람직하다.As shown in FIG. 1, the regression tester 10 of the present invention includes a production rulebase 14 and an expert system inference engine 16. Interact with the expert system 12. The expert system inference engine is preferably a Processor Diagnostic System (PDS), available from Westinghouse and described in US Pat. Nos. 4,644,479 and 4,649,515. A description of the operation of the preferred expert system can be found in Westinghouse Electric Corporation, 1987, Kemper and Harper, The PDS Manual, PDS Version 5.1, Diagnostics. The regression analyzer is written using a test plan language, described in detail below, to test system 20 to access normal and test data sets 22 applied to inference engine 18. It includes the test plan 18 used by. The inference engine analyzes (diagnostics) using production rules in the rule base 14 that generate output that is stored in the log file 24 by the test system and compared to the results predicted to produce the exception report 26. Do this. The system also allows the output to be displayed on a CRT screen 28. The present invention is preferably implemented on a computer of the VAX 8000 series of Digital Equipment Co., which runs the VMS operating system. In addition, the present invention is preferably implemented in a language such as C suitable for a structure design approach, as described below.

이후 보다 상세히 설명되는 바와 같이, 본 발명은 1차 내지 6차의 특수 전문가 시스템 테스트를 수행할 수 있다. 물론, 당업자는 프로세서가 고속화됨에 따라 보다 고차의 테스트가 가능하다는 것을 인식할 것이다. 제2도는 1차 테스트동안 본 발명의 일반적 동작을 도시한다. 본 발명은 테스트 플렌(18)을 판독(42)함으로써 테스트를 시작(40)한다. 테스트 플렌(18)은 이후 보다 상세히 설명될 특수 테스트 플랜 언어를 사용하여 생성된다. 테스트 플랜 언어는 텍스트 화일(text file)내에 기억되어 테스트 시스템(20)내로 판독(42)되는 회귀 테스트 플랜(regression test plan)(18)을 생성한다. 그 다음, 생산 룰베이스(14)가 로드(44)되고 계속해서 테스트 데이타가 로드(46)된다.As will be described in more detail below, the present invention may perform a first to sixth special expert system test. Of course, those skilled in the art will recognize that higher order testing is possible as the processor speeds up. 2 illustrates the general operation of the present invention during the first test. The present invention starts the test 40 by reading 42 the test plan 18. The test plan 18 is generated using a special test plan language which will be described in more detail later. The test plan language generates a regression test plan 18 that is stored in a text file and read 42 into the test system 20. The production rule base 14 is then loaded 44 and the test data is subsequently loaded 46.

다음, 값을 변경되어야 할 센서로 포인터를 세트(48)시킴으로써 모든 센서는 정상값으로 세트되고 갱신(50)된다. 이러한 갱신 동작은 전문가 시스템의 추론 엔진(16)으로 하여금 새로운 센서 값이 이용가능함을 인식하게 한다. 이러한 방식으로, 단계(50)에서, 모든 룰이 수행개시를 위해 플래그된다.Next, by setting 48 the pointer to the sensor whose value is to be changed, all the sensors are set to normal values and updated 50. This update operation causes the inference engine 16 of the expert system to recognize that new sensor values are available. In this way, in step 50, all rules are flagged for execution.

그 다음, 전문가 시스템에서 새로운(갱신된) 센서 값을 갖는 룰이 수행개시되고, 더 이상의 변화(수행개시(firings))가 발생하지 않을 때까지 계속해서 수행개시된다. 이것이 테스트중 제 1 사이클이면(54), 정상 센서 데이타 전문가 시스템 진단의 결과는 베이스라인으로서 기억(56)된다. 다음으로, 센서중 하나가 테스트 값으로 세트되어 갱신(58)되며, 계속해서 지원된 룰, 즉, 새로운 센서 값을 이용하는 룰이 수행개시(60)된다. 이때, 전문가 시스템의 출력(바람직하게는 포지티브 신뢰도를 갖고 갱신된 오동작)이 로그 화일(log file)(24)에 기입된다(62). 다음으로, 이 출력은 테스트 플렌 예외에 비교(64)되며, 일치된다면, 예외 보고가 기입(66)된다. 그 다음, 포인터가 갱신(68)되며 마지막 센서에 도달하였는지를 판단하기 위해 테스트(70)된다. 마지막 센서에 도달하지 않은 것으로 판단되면, 사이클이 반복되고, 그렇지 않다면, 시스템은 정지된다. 제2도로 부터 알 수 있는 바와 같이, 시스템은 정상 테스트 데이타 및 특수 테스트 데이타를 주기적으로 인가하며 사이클과 사이클 사이에 특수 테스트 데이타를 (한변에 하나의 센서값이 변화) 반복적으로 인가한다.The rule with the new (updated) sensor value is then started in the expert system and continues to run until no further changes (firings) occur. If this is the first cycle during the test (54), the results of the normal sensor data expert system diagnostics are stored 56 as the baseline. Next, one of the sensors is set to a test value and updated 58, and then a supported rule, i.e., a rule using a new sensor value, is started (60). At this time, the output of the expert system (preferably malfunctions updated with positive reliability) is written to log file 24 (62). This output is then compared 64 to the test plan exception and, if there is a match, an exception report is written 66. The pointer is then updated 68 and tested 70 to determine whether the last sensor has been reached. If it is determined that the last sensor has not been reached, the cycle is repeated, otherwise the system is stopped. As can be seen from FIG. 2, the system periodically applies normal test data and special test data and repeatedly applies special test data (one sensor value changes on one side) between cycles.

제3도는 2차 테스트가 실행되고 있는 경우 본 발명의 일반적인 동작을 도시한다. 이것은 두개의 센서 값이 정상값에서 교란된 값으로 변경될 수 있도록 새로운 포인터(80)의 추가를 필요로 한다. 결과가 저장되기(56) 전에, 이것이 테스트의 제 1 사이클 인지를 판단하기 위하여, 양 포인터가 테스트되어야 한다(82). 룰이 수행개시 전에(60), 현재, 두개의 센서 값이 변화되고 있으므로, 두 센서값은 갱신(84)되어야 한다. 추가적인 포인터가 포함되었으므로, 시스템은 이 포인터를 갱신하여(86), 갱신된 포인터가 마지막 센서에 도달하였는지를 단단하기 위해 테스트하여야 한다. 추가적인 테스트 능력을 제공하기 위하여, 제2도와 제3도를 비교함으로써 알 수 있는 바와 같이, 본 발명은 단지 추가적인 센서 포인터, 적절한 센서 갱신 단계 및 포인터 증가 및 테스트 루우프를 제공하는 것이 필요하다. 부록 IV는 구조 설계법으로 6차 테스트 능력을 구힌하는 방법을 예시한다.3 shows the general operation of the present invention when a secondary test is being executed. This requires the addition of a new pointer 80 so that the two sensor values can be changed from a normal value to a disturbed value. Before the result is stored 56, both pointers must be tested 82 to determine if this is the first cycle of the test. Before the rule starts to run (60), two sensor values are currently changing, so both sensor values must be updated (84). Since an additional pointer is included, the system must update this pointer (86) to test to see if the updated pointer has reached the last sensor. In order to provide additional test capabilities, as can be seen by comparing FIGS. 2 and 3, the present invention only needs to provide additional sensor pointers, appropriate sensor update steps and pointer increments and test loops. Annex IV exemplifies how the sixth order test capability is rolled out by structural design.

본 발명의 회귀 분석기 또는 시스템(20)에 입력되는 센서 데이타 또는 데이타 세트(22)는 표준 PDS 형식인 것이 바람직하다. 일곱개의 데이타 세트, 또는 PDS 용어로 타임세트(timeset)가 6차 테스트 능력을 위해 요구된다. 이들 타임세트는 PDS를 이용하여 생성될 수 있다. 센서 값은 필요에 따라 논리적 또는 수치적인 값일 수 있다.The sensor data or data set 22 input to the regression analyzer or system 20 of the present invention is preferably in standard PDS format. Seven data sets, or timesets in PDS terminology, are required for sixth order test capability. These timesets can be generated using PDS. The sensor value may be a logical or numerical value as needed.

제 1 타임세트는 정상 지표값(readings) 세트이어야 한다. 이세트는 PDS 시스템에서 0과 -1 사이의 신뢰 계수(confidence factors)를 생성해야 한다. 이 데이타는 다른 모든 조건과 비교하기 위하여 벤치 마크(benchmark) 또는 베이스 라인으로서 사용된다.The first timeset should be a set of normal readings. This set should generate confidence factors between 0 and -1 in the PDS system. This data is used as a benchmark or baseline to compare with all other conditions.

다음 여섯개의 타임세트는 비정상적인 장비의 동작으로부터 발생된 데이타를 나타낸다. 일반적으로, 비정상적인 타임세트 또는 데이타 세트는 전문가 시스템의 상이한 조건 레벨의 양측 및 그 경계에서 취해진 값이어야 한다. 즉, 테스트 세트는 테스트 될 시스템의 각 진단레벨, 예를 들면, 발전소에서의 예측 레벨, 진단 레벨, 경고 레벨, 셧다운 레벨 및 센서 고장 레벨에 대한 테스트 값을 제공해야 한다. 발전소의 경우, 이들 값은 발전소의 경보 레벨로 부터 획득될 수 있다. 경제적인 데이타와 같은 다른 형태의 데이타 세트가 사용될 수 있지만, 본 명세서에서 사용된 예는 발전소에 대한 예일 것이다.The next six timesets represent data from abnormal equipment operation. In general, an abnormal timeset or dataset should be a value taken at both sides and at the boundary of different condition levels of the expert system. That is, the test set must provide test values for each diagnostic level of the system to be tested, eg, predictive level, diagnostic level, warning level, shutdown level, and sensor failure level at the power plant. In the case of a power plant, these values can be obtained from the alarm level of the power plant. Other types of data sets, such as economical data, may be used, but the examples used herein will be for power plants.

제 2 타임세트는 각 센서가 범위 미만이거나, 또는 낮은 값으로 고장났을 때 예상되는 지표값을 갖는다. 이들 지표값은 각각의 고장센서에 대하여 적어도 한번의 센서 진단을 발생하고, PDS 시스템내의 센서 룰에 대한 신뢰 계수는 포지티브이어야 하는 반면 다른 모든 것은 네가티브이다. 제 3 타임세트는 각각의 센서가 범위를 초과하거나, 또는 높은 값으로 고장이 났을 때 예상되는 지표값을 갖는다. 이들 지표값은 각각의 고장 센서에 대해 적어도 하나의 센서 진단을 발성하고, PDS 시스템내 하나의 신뢰 계수는 포지티브이고 다른 모든 것은 네가티브이다. 제 4 타임세트는 룰베이스 설계에서 예측값을 갖는 지표값을 정의하는데 사용된다. 즉, 예측 레벨 센서 값은 이러한 조건하에서 계속된 동작의 가능한 결과를 예측하는 룰을 수행개시시킨다. 이 카테고리는 진단 경보가 작동되기 전 레벨의 테스트 데이타를 제공한다. 제 5 라임세트는 진단 PDS 경보를 트리거하는 지표값을 갖는다. 이들 지표값은 적어도 하나의 오동작 진단에 있어서 낮은 레벨의 포지티브 신뢰 계수를 발생하여야 한다. 제 6 타임세트는 보호I PDS 경보를 트리거하는 지표값을 갖는다. 이들 지표값은 적어도 하나의 오동작 진단에 있어서 중간 레벨의 포지티브 신뢰 계수를 발생하여야 한다. 제 7 타임 세트는 보호II PDS 경보를 트리거하는 지표값을 갖는다. 이들 지표값은 적어도 하나의 오동작 진단에 있어서 높은 레벨의 포지티브 신뢰 계수를 발생하여야 한다.The second timeset has an indicator value expected when each sensor is below range or fails to a lower value. These indicator values generate at least one sensor diagnostic for each fault sensor, and the confidence coefficient for the sensor rule in the PDS system must be positive while all others are negative. The third timeset has an indicator value expected when each sensor is out of range or has failed to a high value. These indicator values give at least one sensor diagnostic for each fault sensor, one confidence coefficient in the PDS system is positive and all others are negative. The fourth timeset is used to define an indicator value having a predicted value in the rulebase design. In other words, the predictive level sensor value initiates the rule for predicting possible outcomes of continued operation under these conditions. This category provides a level of test data before a diagnostic alarm is triggered. The fifth lime set has an indicator value that triggers a diagnostic PDS alert. These indicator values should generate a low level of positive confidence coefficient in at least one malfunction diagnosis. The sixth timeset has an indicator value that triggers a Protection I PDS alert. These indicator values should generate intermediate levels of positive confidence coefficients in at least one malfunction diagnosis. The seventh time set has an indicator value that triggers a ProtectionII PDS alert. These indicator values should generate a high level of positive confidence coefficient in at least one malfunction diagnosis.

본 발명에서 회귀 테스트 플랜(18)은 텍스트 화일에 정의되어 테스트 시스템(20)내로 판독된다. 이 플랜은 각 사이클마다 변화되는 1 내지 6까지의 센서값의 조합으로 룰베이스를 실행하는 테스트로 이루어진다. 전술한 바와 같이, 예를 들면, 1차 테스트 사이클은 룰베이스를 통해 정상 지표값을 실행하고, 계속해서, 하나의 센서값이 트립 지표값으로 변경된 동일한 세트의 정상 지표값을 사용하여 실행한다. 전체적인 1차 테스트는 모든 센서에 대하여 정상/교란된 실행을 반복한다. 플랜 정의는 각각의 테스트에 대한 예외 보고 규정(exception report specification)도 포함할 수 있다. 예외는 어떤 조건의 예를 기록하는 요건이다. 예를 들면, 상기한 1차 테스트에 포함하기에 유용한 예외는, 테스트 사이클중 하나의 사이클로 부터 0.5 보다 큰 신뢰 계수를 초래하는 어떠한 오동작도 존재하지 않았음을 보고하는 것이다.In the present invention, the regression test plan 18 is defined in a text file and read into the test system 20. The plan consists of a test that runs the rulebase with a combination of sensor values from 1 to 6 that change with each cycle. As described above, for example, the primary test cycle executes the normal index value through the rulebase, and then executes using the same set of normal index values in which one sensor value is changed to the trip index value. The overall primary test repeats normal / disturbed execution for all sensors. The plan definition may also include an exception report specification for each test. An exception is a requirement to record an example of a condition. For example, a useful exception to include in the primary test described above is to report that there was no malfunction resulting from a confidence factor greater than 0.5 from one of the test cycles.

예외는 예의 보고의 존재에 의해 회귀 테스트 실패를 신호하기 위한 방식으로 설계되어야 한다.The exception should be designed in such a way as to signal a regression test failure due to the presence of an example report.

테스트 플랜 화일의 제 1 라인은 룰베이스 화일이 상주하는 곳의 디렉토리 명세를 포함하는 것이 바람직하다. 각각의 후속하는 라인은 테스트 정의(test definition) 또는 예외 정의(exception definition)를 포함하는 것이 바람직하다. 테스트 정의에 후속하는 예외는 그 테스트에만 적용된다.The first line of the test plan file preferably contains a directory specification where the rulebase file resides. Each subsequent line preferably includes a test definition or an exception definition. Exceptions following the test definition apply only to that test.

단일 회귀 테스트는 괄호로 둘러쌓인 센서 카테고리의 세트에 의해 지정되는 것이 바람직하다. 예를 들면, 트립 데이타의 1차 테스트에 다음과 같어 주어지는 경고 및 트립 데이타의 2차 테스트가 후속한다.The single regression test is preferably specified by a set of sensor categories enclosed in parentheses. For example, the first test of the trip data is followed by the second test of the warning and trip data given as follows.

(Trip)(Trip)

(Warn Trip)Warn Trip

이러한 테스트 시퀀스를 갖는 플랜은 모든 센서 트립값에 대하여 룰베이스가 실행되도록 하는 1차 테스트를 지정하고, 로그 화일은 모든 갱신된 오동작 및 절차 결과를 기록할 것이다. 이러한 기록은 모든 트립값에 대하여 룰베이스를 실행함으로써 수행된 2차 테스트에 후속되며, 각각의 센서는 다음에는 경고 값으로 세트된다. 예외가 정의되지 않았기 때문에, 예의 보고(26)내에는 아무런 엔트리도 만들어지지 않는다.The plan with this test sequence specifies the primary test that will cause the rulebase to run for all sensor trip values, and the log file will record all updated malfunctions and procedure results. This recording is followed by a secondary test performed by running the rulebase for all trip values, each sensor being then set to a warning value. Since no exception is defined, no entry is made in the example report 26.

예외는 3개의 기본적인 필터를 제공하는 3개의 카테고리, 즉 1. 갱신 예외 : 2. 레벨 예외 : 3. 변경 예외로 나뉘어진다. 갱신 예외는 진단 사이클(diagnosis cycle)에 의해 적절한 오동작 및 절차가 갱신되었는지의 여부를 알기 위해 테스트한다. 예를 들면, 어떤 갱신된 오동작을 보고하기 위한 예의는The exception is divided into three categories that provide three basic filters: 1. Update exception: 2. Level exception: 3. Change exception. Update exceptions are tested to see if appropriate malfunctions and procedures have been updated by the diagnostic cycle. For example, a courtesy to report any updated malfunction

Exception : Malf updated.Exception: Malf updated.

이다. 레벨 예외는 결과적인 오동작 또는 절차 파라미터를 고정된 값과 비교한다. 예를 들면, 오동작 신뢰 계수가 0.5 보다 클 때를 보고하기 위한 예외는to be. Level exceptions compare the resulting malfunction or procedural parameters with a fixed value. For example, an exception to report when the malfunction confidence factor is greater than 0.5

Exception : Malf CF 0.5.Exception: Malf CF 0.5.

이다. 변경 예외는 진단 퍼센트 변화를 상수와 비교한다. 퍼센트 변화는 통상적인 식'(신규값-구값)/구값'을 이용하여 계산된다. 구값은 제2도의 단계(56)에서 저장된 정상 진단의 오동작 또는 절차 파라미터이다. 신규값은 사이클의 제 2 진단(단계 58 및 60)으로 부터 얻어진 오동작 또는 절차 파라미터이다. 그 결과 포지티브 변경은 영(0)으로부터 멀어지고, 네가티브 변경은 영(0)에 가까워진다. 예를 들면, 절차신뢰 계수의 적어도 +10% 변경을 보고하기 위한 예외는to be. The change exception compares the diagnostic percent change with a constant. Percent change is calculated using the conventional formula (new-old value) / old value. The old value is a malfunction or procedural parameter of the normal diagnosis stored in step 56 of FIG. The new value is a malfunction or procedural parameter obtained from the second diagnosis of the cycle (steps 58 and 60). As a result, the positive change is far from zero, and the negative change is close to zero. For example, an exception to report a change of at least + 10% in the procedural confidence coefficient is

Exception : % Proc 10.0Exception:% Proc 10.0

이다.to be.

세가지의 기본적인 필터상에 세가지의 변형을 제공하는 세가지의 예외 클래스, 즉, 1. 단순. 예외 : 2. 세트 예외 : 3. 충족 예외가 있다. 단순 예외는 앞서 도시된 카테고리 예와 유사한 것으로, 이 경우 예외는 파라미터, 연산자 및 상수로 구성된다. 단순 예외가 참(true)을 테스트할 때마다, 테스트 정의, 고란된 센서, 에외를 트리거한 오동작 또는 절차 및 파라미터 값은 보고서에 기록된다(단계 66). 세트 예외는 앞에 수식자(qualifier)인 ALL, SOME 또는 NO 가 붙어있는 단순 예외이다. 이 경우에, 보고서는 예외 파라미터로 이루어진 세트가 예외 정의와 일치할 경우 발생된다. 이 예외가 전체 테스트 동안 참을 테스트 하면, 테스트 정의 및 교란된 센서는 예외 보고서에 기록된다(66).Three exception classes that provide three variants on three basic filters: 1. Simple. Exceptions: 2. Set exceptions: 3. There are met exceptions. Simple exceptions are similar to the category example shown above, in which case the exception consists of parameters, operators, and constants. Each time a simple exception tests true, the test definition, disturbed sensor, malfunction or triggered exception or procedure and parameter values are recorded in the report (step 66). Set exceptions are simple exceptions prefixed with the qualifier ALL, SOME, or NO. In this case, a report is generated if the set of exception parameters matches the exception definition. If this exception tests true during the entire test, the test definition and disturbed sensor are recorded in the exception report (66).

SOME 세트 수식자를 갖는 세트내 요소의 수가 또한 예외 보고서에 기록된다(66). 예를 들면, 회귀 테스트시에 몇몇 오동작 신뢰 계수가 영(0) 보다 큰 경우 이를 보고하기 위한 예의는, Exception : Some Malf CF>0.0이다. 총족 예외는 앞에 수직자 LTN(보다 적은) 또는 GTN(보다 큰)이 붙은 단순 예외이다. 이 경우에, 보고는 예외 일치의 수가 회귀 테스트의 차수보다 적은(보다 큰)경우에 발생된다. 이 예외가 전체 테스트동안 참을 테스트한다면, 테스트 정의, 교란된 센서 및 일치의 수가 기록된다(66). 예를 들면, 트립 회귀 테스트시에 1보다 적은 오동작으 심각도가 3.0보다 큰 것을 보고하기 위한 예외는The number of elements in the set with the SOME set modifiers is also recorded in the exception report (66). For example, an example to report when some malfunction confidence coefficients are greater than zero in a regression test is Exception: Some Malf CF> 0.0. The chum exception is a simple exception preceded by the vertical LTN (less) or GTN (greater). In this case, reporting occurs if the number of exception matches is less than (greater than) the order of the regression test. If this exception tests true during the entire test, the test definition, the number of disturbed sensors and the match are recorded (66). For example, an exception to report a malfunction of less than 1 and a severity greater than 3.0 in a trip regression test

(Trip)(Trip)

Exception : LTN Malf severity>3.0Exception: LTN Malf severity> 3.0

이다.to be.

각 예외는Each exception

Exception : 수식자 파라미터 연산자 상수Exception: modifier parameter operator constant

의 형식을 갖는다. 파라미터는 어떤 진단의 결과가 검사되어야 할 것인지를 지징한다. 파라미터는Has the form The parameter indicates which diagnostic result should be examined. The parameter is

대상(object) 속성 (attribute)Object attribute

으로 정의된다. 유효한 대상은 오동작 또는 절차이다. 파라미터의 대상 부분을 생략하면, 오동작 및 절차가 모두 체크되어야 함을 표시한다. 바람직한 전문가 시스템이 사용될 때, 갱신 예외를 제외한 모든 카테고리에 의해 사용되는 속성은 신뢰 계수(CF), 심각도(SEV), 중요도(IMP) 또는 우선순위(PR)이다.Is defined. Valid subjects are malfunctions or procedures. Omitting the target part of the parameter indicates that both malfunction and procedure should be checked. When the preferred expert system is used, the attributes used by all categories except update exceptions are confidence factor (CF), severity (SEV), importance (IMP) or priority (PR).

예외에서 사용되는 연산자는The operator used in the exception is

Updated, !Updated, ==, !=, >, >=, <, <=Updated,! Updated, ==,! =, >, > =, <, <=

이다. 앞의 두 연산자는 단지 갱신 예외와 함께 사용되며, 갱신된 값에 의해 지원된 어떤 룰이 수행개시된 경우를 표시한다. 나머지 연산자는 파라미터와 부동 소수점 수 사이의 비교를 정의하며 제 3 및 제 4 연산자는 등가 및 비등가를 비교한다.to be. The first two operators are used only with update exceptions and indicate when any rule supported by the updated value has been triggered. The remainder operator defines the comparison between the parameter and the floating point number, and the third and fourth operators compare equivalent and inequality.

테스트 플랜의 요건은 부록 I에 정의된 바와 같이 테스트 플랜 언어로 구현될 수 있다. 이 언어 정의는 당 분야에서 통상의 지식을 가진 자에 의해 이용되어, 테스트 플랜 텍스트 화일(test plan textfile)을 채택하여 플랜의 적절한 내부적인 표현을 출력하는, 구입가능한 YACC 및 LEX 유닉스 제 3 세대 언어 개발 툴에 의해 발생된 파서(parser)를 생성할 수 있다. 테스트 플랜의 예는The test plan requirements may be implemented in test plan language as defined in Appendix I. These language definitions are available to those of ordinary skill in the art, and are available in YACC and LEX Unix third generation languages, which adopt a test plan textfile to output the appropriate internal representation of the plan. It is possible to generate parsers generated by development tools. An example of a test plan is

룰베이 디렉토리 : PS : [harper. pds. code. regress. vb1]Rulebay Directory: PS: [harper. pds. code. regress. vb1]

TEST 1. (Normal)TEST 1. (Normal)

Exception 1 : ! UpdatedException 1:! Updated

TEST 2. (Trip)TEST 2. (Trip)

Exception 1 : CF>0.800000Exception 1: CF > 0.800000

Exception 2 : LTN CF>0.800000Exception 2: LTN CF > 0.800000

와 같이 예시된다.As illustrated.

본 발명의 회귀 분석기에 의해 두 결과 화일이 생성되는 것이 바람직하다. 분석기가 배치 모드에서 실행되는 경우, 세션(session)으로 부터의 출력 화일이 또한 존재한다. 출력 화일은 테스트의 진행을 나타낸다. 로그 화일(24)은, 모든 센서, 그 센서의 설명 및 테스트 데이타와, 모든 오동작 및 절차, 그들의 설명 및 테스트 플랜과 개개의 테스트 결과를 리스트하기 때문에 통상적으로 아주 길다. 예외 결과 또는 보고 화일(20)은 보다 관리하기가 쉬우며, 테스트로 부터 모든 예외 보고를 리스트한다.It is preferable that two resultant files are generated by the regression analyzer of the present invention. When the analyzer is run in batch mode, there is also an output file from the session. The output file indicates the progress of the test. The log file 24 is typically very long because it lists all sensors, their descriptions and test data, and all malfunctions and procedures, their descriptions and test plans and the individual test results. The exception result or report file 20 is easier to manage and lists all exception reports from the test.

본 발명으로 부터의 스크린 출력(28)은 PDS의 실행중에 발생된 정보 및 에러 메시지를 나타내는 것이 바람직하다. 각각의 테스트는 실행되는 진단 사이클과 함께 식별되어 타임스탬프(thnestamp)된다.Screen output 28 from the present invention preferably represents information and error messages generated during the execution of the PDS. Each test is identified and timestamped with the diagnostic cycle executed.

이 출력은 PDS의 진단 버전에 의해 생성된 화일과 유사하다. 스크린 출력의 예는 부록 II에서 발견할 수 있다.This output is similar to the file generated by the diagnostic version of the PDS. Examples of screen output can be found in Appendix II.

로그 화일(24)은 전체 테스트의 기록(record)이다. 이 기록은 통상의 소스 코드 라이브러리(source code library)로 기록되어, 후에 완전한 테스트 결과를 새로운 룰베이스 변경시의 실행의 완전한 테스트결과와 비교하여 회귀 비교(regression comparison)를 수행하기 위해 사용될 수 있다. 완전한 로그 화일간의 통상적인 차이 비교는 테스트가 실행된 시점간에 어떻게 변경되었는지를 정확히 표시한다. 이러한 방식으로, 룰베이스 변경간에 회귀 분석이 수행될 수 있다. 또한, 로그화일은 룰베이스로의 입출력을 명확히 정의하므로, 나중에, 예를 들면, 신경 회로망 전문가 시스템 구현과 같은 다른 형태의 전문가 시스템에 대한 트레이닝 예로서 이용될 수 있다. 부록 II에 예시되어 있는 바와같이 로그 화일은 3개의 섹션으로 이루어지는 것이 바람직하다. 제 1섹션은 테스트 파라미터로서, 센서 및 센서 데이타, 오동작 및 절차, 그리고 그들의 모든 설명을 상세히 설명하고 있다. 제 2 섹션은 테스트 플랜의 리스트이다. 제 3 섹션은 테스트 케이스를 포함한다. 각각의 케이스에 대하여 갱신되었던 오동작 및 절차는 그들의 신뢰 계수, 심각도, 중요도 및 우선순위와 함께 알파벳 순서로 리스트된다.Log file 24 is a record of the entire test. This record is written to a conventional source code library, which can then be used to perform a regression comparison by comparing the complete test result with the complete test result of execution at the new rulebase change. A typical difference comparison between full log days shows exactly how changes have been made between the points at which the tests were run. In this way, regression analysis can be performed between rulebase changes. In addition, the log file clearly defines the input and output to the rulebase, so that it can be used later as a training example for other types of expert systems, such as, for example, neural network expert system implementations. As illustrated in Appendix II, it is preferable that the log file consists of three sections. The first section details the sensors and sensor data, malfunctions and procedures, and all their descriptions as test parameters. The second section is a list of test plans. The third section contains test cases. The malfunctions and procedures that were updated for each case are listed in alphabetical order along with their confidence coefficients, severity, importance and priority.

예의 화일(26)은 테스트 플랜에 정의 되어 있는 예외와 일치하는 각각의 사례에 관한 보고이다. 예외 화일은 본질적으로 필터처리된 로그 화일로서, 이 경우의 필터 특성은 사용자에 의해 지정된 예외에 의해 정의된다. 부록 II에 예시된 바와 같이, 각각의 보고는The example file 26 is a report on each case that matches the exceptions defined in the test plan. An exception file is essentially a filtered log file, in which case the filter characteristics are defined by the exception specified by the user. As illustrated in Appendix II, each report is

(<타임세트>/<센서>...) <대상><메시지>(<Time set> / <sensor> ...) <object> <message>

의 형식을 취한다. 전술한 바와같이, 타임세트는 센서 데이타 카테고리, 예를 들면, 트립 또는 경고이다. 센서는 이 진단 사이클 동안 정상값 이외의 값이 할당된 센서의 명칭이다. 대상은 오동작 또는 절차 명칭이다. 메시지는 예의 보고의 형태를 식별하는 텍스트이다.Takes the form of. As mentioned above, the timeset is a sensor data category, for example a trip or warning. Sensor is the name of the sensor that has been assigned a value other than normal during this diagnostic cycle. Subject is a malfunction or procedure name. The message is text that identifies the form of the example report.

본 발명은 하기 문헌에 기술되는 바와 같이 구조 설계법을 사용하여 구현되는 것이 바람직하다. 즉, 『Structured Design : Fundamentals of a Discipline of Computer Program Design, Yourdon and Constantine, Yourdan Press, 1979』 : 『Structural Analysis And System Specification, De Marco, Yourdan Press, 1979』 : 『Software Engineering : A Practitioner's Approach, Pressman, McGraw Hill Book Company, 1982년』: 『Tutorial on Software Design Techiques, Freemen and Wasserman, 4th Ed, IEEE Computer Society Press, 1983』를 참조. 보다 상세히 말해서, 본 발명은 'Structured Analysis And System Specification, De Marco, Yourdon Press, 1979' 에 기술된 방법론을 구현한 CASE Analyst/RT Users Manual for VAX station/VMS Hosts VO. 0 4. 1, Mentor Graphics, 1988와 같은 시스템 개발 툴을 이용하여 구현되는 것이 바람직하다. 이러한 방법 또는 툴은, 설계자로 하여금 표준형 C루틴 및 주문형 C루틴에 의해 신속하고 효과적으로 구현될 수 있는 제어 및 데이타 흐름도를 생성하고 유지할 수 있게 한다.The present invention is preferably implemented using a structural design method as described in the following document. `` Structured Design: Fundamentals of a Discipline of Computer Program Design, Yourdon and Constantine, Yourdan Press, 1979 '': `` Structural Analysis And System Specification, De Marco, Yourdan Press, 1979 '': 『Software Engineering: A Practitioner's Approach, Pressman , McGraw Hill Book Company, 1982: Tutorial on Software Design Techiques, Freemen and Wasserman, 4th Ed, IEEE Computer Society Press, 1983. More specifically, the present invention provides a CASE Analyst / RT Users Manual for VAX station / VMS Hosts VO. Which implements the methodology described in 'Structured Analysis And System Specification, De Marco, Yourdon Press, 1979'. It is preferably implemented using system development tools such as Mentor Graphics, 1988. This method or tool allows designers to create and maintain control and data flow diagrams that can be implemented quickly and effectively by standard and custom C routines.

제4도 및 제5도는 전술한 툴을 사용하는 이러한 방법론으로 데이타 흐름 및 제어 흐름도를 사용하여 본 발명을 예시한다. 본 발명이 이러한 방법론을 사용해 구현될 때 사용된 데이타 정의가 부록 Ⅲ에 첨부된다. 당업자는 도면과, 앞서 설명된 정보 및 부록으로부터 본 발명을 구현할 수 있을 것이다. 제4도는 제1도에 관하여 전술한 정보와 함께 테스트 시스템(20)에 대한 입출력 데이타 흐름을 도시한다. 제4도는 생산 호나경(100), 즉 플랜트 정보(유니트 정보)가 시스템내에 포함되어야 함을 도시한다.4 and 5 illustrate the present invention using data flow and control flow diagrams in this methodology using the tools described above. The data definitions used when the present invention is implemented using this methodology are appended to Appendix III. Those skilled in the art will be able to implement the invention from the drawings and the information and appendices described above. 4 shows the input and output data flow for the test system 20 together with the information described above with respect to FIG. 4 shows that the production whiskers 100, i.e. plant information (unit information), should be included in the system.

제4도 및 제5도에 도시된 바와 같이, 본 발명에 있어서의 최초의 단계는 사용자에 의해 테스트 플랜 언어로 테스트 입력을 판독하고(200), 이 테스트 플랜 입력을 해석(parse)하여 내부 테스트 플랜 표시(18)를 생성한다. 그 다음 단계는 모든 전역 변수를 초기화(202)하는 것이다. 이 단계는 PDS 전문가 시스템 추론 엔진(16)의 부분으로서, 참, 거짓 및 기타 컨텍스트를 생성하고 초기화하며, 센서 시간 단계를 관리하는 PDS 변수를 생성하고 초기화한다. 다음으로, 시스템이 회복(204)되며, 이 역시 PDS 추론 엔진(16)의 일부이다. 이 루틴은 텍스트 화일 지식 베이스 정의를 체택하여 그에 대응하는 체계를 메모리(14)내로 로드한다. 그 다음 단계 역시 PDS 추론 엔진의 일부로서 유니트 정보 텍스트 화일을 판독(206)한다. 이 화일은, 지식 베이스를 특정주문자 응용과 연관시키는 PDS 생산 환경(100)의 일부이며, 부작용(side effect)으로서, 본 발명은 모든 출력 화일 헤더에 유니트 명칭을 사용한다. 다음으로, 시스템은 센서 값을 판독하며(208), 이 단계도 역시 PDS 추론 엔진(16)의 일부이다. 이 단계는 표준 포맷으로 센서 데이타 텍스트 화일을 판독하며, 센서값과 타임 스탬프를 내부 판독 리스트내로 로드한다. 그 다음에, PDS 추론 엔진(16)은 히스토리를 복원(218)한다. 이 단계를 실행하기 위하여, 추론 엔진은 히스토리 텍스트 화일을 판독하여 텍스트 히스토리 리스트 및 이벤트 레코드를 대응하는 체계로 로드한다. 히스토리 텍스트 화일은 PDS 생산 환경(100)의 일부로서, 추론 엔진이 재시동하는, 시간을 기초로 한 모든 분석 결과를 유지한다. 다음에, 테스트 시스템(20)에 의해 데이타 타임세트의 초기화가 수행된다(212). 이 단계는 단지, 각각 센서의 정상값, 고장을 초래하는 낮은 값, 고장을 초래하는 높은 값, 예측값, 진단값, 경고값 및 트립값을 갖는 7열의 타임세트 어레이를 채우기 위해 센서 판독 단계(208)에서 생성된 판독 리스트를 사용한다. 텍스트 리스트 보다는 어레이를 사용하는 것이 테스트 시스템의 속도를 향상시킨다. 역시 본 발명의 일부인 다음 단계는 회귀 로그를 생성하는 것이다(214). 이 단계는 로그 화일에, 이 테스트 플랜에 대한 일시 및 주문자 애플리케이션, 모든 센서 및 그들의 7개의 데이타 값 설명 각각의 및 모든 가능한 오동작의 설명을 기입함으로써 분석의 완전한 명세를 요약하여 기록한다.As shown in Figures 4 and 5, the first step in the present invention is to read the test inputs in the test plan language by the user (200), and to parse these test plan inputs for internal testing. Create a plan representation 18. The next step is to initialize 202 all global variables. This step is part of the PDS expert system inference engine 16, which creates and initializes true, false, and other contexts, and creates and initializes PDS variables that manage sensor time steps. Next, the system is recovered 204, which is also part of the PDS inference engine 16. This routine takes a text file knowledge base definition and loads the corresponding scheme into memory 14. The next step is also to read 206 the unit information text file as part of the PDS inference engine. This file is part of the PDS production environment 100 associating the knowledge base with a particular orderer application, and as a side effect, the present invention uses unit names in all output file headers. Next, the system reads the sensor value (208), which is also part of the PDS inference engine 16. This step reads the sensor data text file in a standard format and loads the sensor values and time stamps into the internal reading list. PDS inference engine 16 then recovers 218 the history. To perform this step, the inference engine reads the history text file and loads the text history list and the event record into the corresponding scheme. The historical text file is part of the PDS production environment 100 and maintains all of the time-based analysis results that the inference engine restarts. Next, initialization of the data timeset is performed by the test system 20 (212). This step merely reads the sensor reading step 208 to fill a seven-column timeset array with the sensor's normal value, the low value causing the failure, the high value causing the failure, the predicted value, the diagnostic value, the warning value, and the trip value. Use the reading list created in Using arrays rather than text lists speeds up the test system. The next step, which is also part of the present invention, is to generate a regression log (214). This step summarizes and records the complete specification of the analysis in a log file by writing the date and time ordering application for this test plan, all the sensors and their seven data value descriptions, and a description of each and all possible malfunctions.

이 단계(214)는 이 테스트 플랜에 대한 일시 및 주문자 애플리케이션을 화일(26)에 기입함으로써 예외 보고 및 로그 화일을 오픈하고 초기화 한다. 다음 단계(216)도 역시 테스트 시스템(20)의 일부로서, 테스트 플랜 판독 단계(200)에서 판독된 테스트 플랜을 로그 화일에 기입한다.This step 214 opens and initializes the exception report and log files by filling in the file 26 the date and time and orderer application for this test plan. The next step 216 is also part of the test system 20, which writes the test plan read in the test plan reading step 200 to a log file.

이 단계는 테스트 플랜의 사본(copy)을 로그 화일에 첨부한다. 최종 단계(218)는 PDS 추론 엔진(16)을 반복적으로 호출하여 테스트 플랜에 의해 지정된 진단을 실행하는 실행 단계이다. 이 단계에 대한 상세한 알고리즘은 부록 IV에 설명되어 있다.This step attaches a copy of the test plan to a log file. The final step 218 is an execution step of repeatedly calling the PDS inference engine 16 to execute the diagnosis specified by the test plan. A detailed algorithm for this step is described in Appendix IV.

전술한 바와 같이, 본 발명은 개발 과정동안 및 상업적으로 사용하는 과정동안의 변경 및 갱신이 이루어진 후에도 진단 룰베이스를 검증하는 효율적이고 표준적인 테스트 툴을 제공한다. 본 발명은 프로그램가능한 예외를 가능하게 하고, 신경 회로망을 포함하는 모든 형태의 전문가 시스템을 트레이닝하고, 테스트하기 위해 사용될 수 있는 로그 화일과 함께 이들 예의를 기술하는 언어를 제공하며, 자신만의 언어를 갖는 프로그램가능한 테스트 의제(programable test agenda)를 제공한다.As mentioned above, the present invention provides an efficient and standard test tool for verifying a diagnostic rulebase even after changes and updates are made during development and commercial use. The present invention provides a language for describing these amenities along with log files that can be used to enable programmable exceptions, to train and test all types of expert systems, including neural networks. Provide a programmable test agenda.

본 발명의 많은 특징 및 장점은 이상의 상세한 설명으로 부터 명백하며, 따라서, 첨부된 청구범위에 의해 본 발명의 참 정신과 범주에 속하는 본 발명의 모든 특징을 포함하고자 한다. 또한, 당업자라면 각종 변명 및 변경이 쉽게 이루어질 것이므로, 본 발명은 여기서 예시되고 설명된 구성 및 동작에만 국한되지 않으며, 따라서 모든 적합한 변형 및 동등물이 본 발명의 범주로 분류되거나 또는 그 범주에 속할수도 있다. 예를 들면, 몇몇 전문가 시스템은 비수행개시 룰의 기능을 가지며 PDS는 그러한 시스템중의 하나이다. 시스템을 효과적으로 베이스라인으로 리세트하기 위하여, 단계(50 및 52)에서 모든 룰을 정상값으로 수행개시시키지 않고 작동중의 모든 룰을 수행정지시킬 수도 있다.Many features and advantages of the invention are apparent from the foregoing detailed description, and therefore are intended to include all features of the invention that fall within the true spirit and scope of the invention by the appended claims. In addition, since various excuses and modifications will be readily made by those skilled in the art, the present invention is not limited to the configurations and operations illustrated and described herein, so that all suitable modifications and equivalents may be classified or fall within the scope of the present invention. have. For example, some expert systems have the function of non-enforcement rules and PDS is one such system. In order to effectively reset the system to baseline, it may be possible to disable all rules in operation without starting all rules to normal values in steps 50 and 52.

Claims (7)

전문가 시스템(an expert system)을 테스트하는 테스트 시스템(a test system)에 있어서, 정상 테스트 세트(a normal test set) 및 특수 테스트 세트(a speciallzec test set)를 기억하는 테스트 기억 수단(test storage means)(22)과, 상기 정상 테스트 세트와 상기 특수 테스트 세트를 사용하여 상기 전문가 시스템을 테스트하는 테스트 수단(testing means)(20)을 포함하되, 상기 테스트 수단은 상기 특수 테스트 세트에 응답하는 전문가 시스템 출력을 예의 조건과 비교하여 일치하였을 때를 보고하는 예외 수단(exception means)(64)을 포함하는 진문가 시스템 테스트용 테스르 시스템A test system for testing an expert system, comprising: test storage means for storing a normal test set and a speciallzec test set (22) and testing means (20) for testing the expert system using the normal test set and the special test set, the test means outputting an expert system in response to the special test set. Test system for questionnaire system testing, including exception means 64 for comparing the result to the example conditions and reporting when they match. 제1항에 있어서, 상기테스트수단(20)은, 테스트 파라미터 (a test parameters ), 테스트 플랜(a test plan) 및 테스트 케이스(a test case)를 포함하는 로그 황리(24)을 생성하며, 테스트 차수(a test order), 테스트 형태(a test type) 및 예외(exceptions)를 명명하는 테스트 플랜(a test plan)(18)에 응답하여 테스트를 실행하며, 테스트 플랜 입력 구문을 상기 테스트 플랜(18)으로 변환하기 위하여 테스트 언어 수단(a test language means)(부록Ⅰ)이 제공되는 전문가 시스템 테스트용 테스트 시스템.The method of claim 1, wherein the test means 20 generates a logarithmic logic 24 that includes a test parameters, a test plan, and a test case. The test is run in response to a test plan 18 naming a test order, a test type, and exceptions, and the test plan input syntax is entered into the test plan 18. A test system for testing expert systems provided with a test language means (Appendix I) for conversion to. 제1항에 있어서, 상기 테스트 수단(20)은 주기적으로 상기 정상 테스트 세트, 즉, 정상 테스트 세트값을 상기 전문가 시스템에 인가하며, n이 징수인 때 n차 테스트를 수행하는 전문가 시스템 테스트용 테스트 시스템.The test for expert system testing according to claim 1, wherein the test means (20) periodically applies the normal test set, i.e., the normal test set value, to the expert system, and performs the nth test when n is a toll. system. 제1항, 제2항 또는 제3항에 있어서, 룰의 변경 전후의 테스트 결과를 기억하는 결과 기억 수단(results storame means)(24) 과, 상기 룰의 변화 전후의 결과를 비교하여 차(differences)를 표시하는 비교 수단(comparison means)(20)을 더 포함하는 전문가 시스템 테스트용 테스트 시스템.4. The difference according to claim 1, 2 or 3, wherein the result storage means 24 for storing the test results before and after the change of the rule is compared with the results before and after the change of the rule. A test system for expert system testing, further comprising a comparison means (20) indicating. 발전소(a power plant)용 전문가 시스템을 테스트하는 테스트 시스템에 있어서, 정상 센서 값 세트(a normal sensor value set) 및, 센서 고장값, 예측값 및 진단값을 구비한 특수 센서값 세트를 포함하는 테스트 세트의 어레이를 기억하는 테스트 기억 수단(test storage means)(22)과, 상기 정상 센서값 및 상기 특수 센서 값을 주기적으로 사용하여 상기 전문가 시스템을 테스트하는 한편 상기 특수 값을 반복적으로 인가하는 테스트 수단(20)을 포함하며, 상기 테스트 수단은, 테스트 플랜 언어(a test plan language)로 테스트 입력(a test input)을 판독하여, 상기 테스트 입력을 테스트될 테스트으 차수 및 예외를 지정하는 테스트 플랜으로 변환하는 판독수단(reading means)(200)과, 전문가 시스템 출력을 상기 예외와 비교하여 일치하였을 때를 보고하는 예외 수단(exception means)(64)과, 테스트도나 센서, 센서 데이타, 표시된 오동작, 오동작 설명, 테스트 플랜 및 특수 센서값 세트를 포함하는 테스트 케이스를 로그하는 로그수단(logging means)(24)과, 변경 전후의 로그를, 테스트용 테스트 플랜 언어를 포함하는 전문가 시스템에 비교하는 비교수단(comparison means)을 포함하되, 상기 전문가 시스템은, 사용자로 하여금 테스트의 순차, 사용될 테스트 세트, 사용될 전문가 시스템 룰 및 테스트 예외를 포함하는 테스트 플랜을 정의하는 것을 가능하게 하는 언어 정의(a language definition)와, 사용자 입력을 상기 테스트 시스템에 의해 이용가능한 상기 테스트 플랜으로 변환하는 루틴(200)을 포함하는 전문가 시스템 테스트용 테스트 시스템.A test system for testing an expert system for a power plant, comprising: a test set comprising a normal sensor value set and a special set of sensor values with sensor fault, predicted, and diagnostic values Test storage means (22) for storing an array of and test means for periodically testing the expert system using the normal and special sensor values and repeatedly applying the special values ( 20) wherein the test means reads a test input in a test plan language and converts the test input into a test plan specifying the order and exception of the test to be tested. Reading means (200), exception means (64) for reporting when the expert system output is matched against said exception, and Logging means 24 for logging test cases including strands, sensors, sensor data, displayed malfunctions, malfunction descriptions, test plans, and special sensor value sets, and logs before and after changes to test plan language for testing. Comparing means for comparing to an expert system comprising: wherein the expert system allows the user to define a test plan that includes a sequence of tests, a test set to be used, expert system rules to be used, and test exceptions. A test system for expert system testing, comprising a language definition for enabling and a routine (200) for converting user input into the test plan available by the test system. 전문가 시스템을 테스트하는 방법에 있어서, (a) 정상 테스트 세트를 상기 전문가 시스템에 인가하는 단계로서, 모든 입력값이 정상 값으로 설정되는 상기 단계와, (b) 특수 테스트 세트를 상기 전문가 시스템에 인가하는 단계로서, 상기 입력 값중 하나는 테스트 값으로 설정되고 상기 전문가 시스템의 룰이 수행개시되는 상기 단계와, (C) 상기 단계(b)동안 발생된 예외를 기록하는 단계로서, 상기 전문가 시스템의 출력은 상기 예외와 비교되어 일치했을 때 예외가 발생되는 상기 단계와, 상기 테스트 값으로 세트하기 위해 상기 단계(b)에서 상기 입력값중 상이한 하나의 입력값을 반복적으로 선택하면서 상기 단계(a -c)가 반복되는 단계를 포함하는 전문가 시스템 테스트 방법.A method of testing an expert system, the method comprising: (a) applying a normal test set to the expert system, wherein all input values are set to normal values; and (b) applying a special test set to the expert system. Wherein the one of the input values is set to a test value and the rules of the expert system are started to be executed, and (C) recording an exception generated during step (b), wherein the output of the expert system is output. Is compared with the exception and the step is generated when an exception is generated, and the step (a-c) is repeatedly selected while selecting a different one of the input values in step (b) to set the test value. Expert system testing method comprising the steps of repeating). 제6항에있어서, 테스트 요건이 판독되고, 사용자에 의한 입력이 판독되며 테스트 플랜이 생성되는 단계를 더 포함하며, 상기 단계(b)에서 한쌍의 입력 값은 한쌍의 테스트 값으로 세트되며, 상기 단계(a-c)는 상기 전문가 시스템에서 룰베이스 변경시에 수행되며, 테스트 출력은 상기 룰베이스 변경의 전후에 비교되는 전문가 시스템 테스트 방법.7. The method of claim 6, further comprising the step of reading a test requirement, reading an input by a user, and generating a test plan, wherein in step (b) the pair of input values is set to a pair of test values; Step (ac) is performed at rule base change in the expert system, and test output is compared before and after the rule base change.
KR1019900018633A 1989-11-17 1990-11-16 Expert system tester Expired - Fee Related KR100190267B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US43795189A 1989-11-17 1989-11-17
US437951 1989-11-17

Publications (2)

Publication Number Publication Date
KR910010311A KR910010311A (en) 1991-06-29
KR100190267B1 true KR100190267B1 (en) 1999-06-01

Family

ID=23738604

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019900018633A Expired - Fee Related KR100190267B1 (en) 1989-11-17 1990-11-16 Expert system tester

Country Status (6)

Country Link
JP (1) JPH03172940A (en)
KR (1) KR100190267B1 (en)
CN (1) CN1051800A (en)
CA (1) CA2029495A1 (en)
ES (1) ES2024939A6 (en)
IT (1) IT1243879B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0566105A2 (en) * 1992-04-16 1993-10-20 Hughes Aircraft Company Knowledge acquisition system and method
US9652509B2 (en) * 2012-04-30 2017-05-16 Hewlett Packard Enterprise Development Lp Prioritization of continuous deployment pipeline tests
CN113377746B (en) * 2021-07-02 2023-08-18 贵州电网有限责任公司 Test report database construction and intelligent diagnosis analysis system

Also Published As

Publication number Publication date
IT9021931A1 (en) 1992-04-30
CA2029495A1 (en) 1991-05-18
CN1051800A (en) 1991-05-29
ES2024939A6 (en) 1992-03-01
IT1243879B (en) 1994-06-28
IT9021931A0 (en) 1990-10-30
JPH03172940A (en) 1991-07-26
KR910010311A (en) 1991-06-29

Similar Documents

Publication Publication Date Title
US5164912A (en) Expert system tester
US4766595A (en) Fault diagnostic system incorporating behavior models
EP1295205B1 (en) Embedded diagnostic system and method
EP0389595B1 (en) Expert system for diagnosing faults
US5161158A (en) Failure analysis system
US6219626B1 (en) Automated diagnostic system
US7698104B2 (en) Diagnostic system and article
Rushby Quality measures and assurance for ai (artificial intelligence) software
KR950012221B1 (en) Troubleshooting system and repair method
Bao et al. An Integrated Framework for Risk Assessment of High Safety Significant Safety-related Digital Instrumentation and Control Systems in Nuclear Power Plants: Methodology and Demonstration
Mathur et al. Modeling and real-time diagnostics in TEAMS-RT
KR100190267B1 (en) Expert system tester
Delic et al. Formalising a software safety case via belief networks
Strigini et al. Formalising engineering judgement on software dependability via belief networks
Chen et al. Application of Orthogonal Defect Classification for Software Reliability Analysis
Li et al. A requirements inspection method based on scenarios generated by model mutation and the experimental validation
Bodsberg Comparative study of quantitative models for hardware, software and human reliability assessment
EP0491037B1 (en) Machine failure isolation using qualitative physics
Wang et al. A flexible automatic test system for rotating-turbine machinery
Reibling et al. Diagnostic reasoning technology for the on-board maintenance system
Martin et al. A best-estimate paradigm for diagnosis of multiple failure transients in nuclear power plants using artificial intelligence
US20040122623A1 (en) Method and device for computer-aided analysis of a technical system
Pang et al. A simulation-based expert system for process diagnosis
Ricks et al. Traditional versus rule-based programming techniques: Application to the control of optional flight information
Kang et al. Performance Evaluation Involving Multiple Parameters in Built-In-Test Systems

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

A201 Request for examination
P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20020120

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20020120

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000