[go: up one dir, main page]

WO2018173121A1 - サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム - Google Patents

サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム Download PDF

Info

Publication number
WO2018173121A1
WO2018173121A1 PCT/JP2017/011216 JP2017011216W WO2018173121A1 WO 2018173121 A1 WO2018173121 A1 WO 2018173121A1 JP 2017011216 W JP2017011216 W JP 2017011216W WO 2018173121 A1 WO2018173121 A1 WO 2018173121A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
learned
shared
additional
learning
Prior art date
Application number
PCT/JP2017/011216
Other languages
English (en)
French (fr)
Inventor
圭悟 河合
将平 比戸
展行 久保田
田中 大輔
Original Assignee
株式会社Preferred Networks
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Preferred Networks filed Critical 株式会社Preferred Networks
Priority to CN201780088565.1A priority Critical patent/CN110431569A/zh
Priority to PCT/JP2017/011216 priority patent/WO2018173121A1/ja
Priority to JP2019506582A priority patent/JP6720402B2/ja
Priority to EP17901932.8A priority patent/EP3605405A4/en
Publication of WO2018173121A1 publication Critical patent/WO2018173121A1/ja
Priority to US16/578,035 priority patent/US11375019B2/en
Priority to US17/752,786 priority patent/US20220286512A1/en
Priority to US18/532,102 priority patent/US20240129368A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/08Protocols specially adapted for terminal emulation, e.g. Telnet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/303Terminal profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/34Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • H04W88/06Terminal devices adapted for operation in multiple networks or having at least two operational modes, e.g. multi-mode terminals
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Definitions

  • the present invention relates to a technique for introducing and optimizing a learned model at low cost for an industrial apparatus that performs processing such as determination and classification using a learned model by deep learning or the like. .
  • a work target has been identified and an abnormality detection process has been performed using a learned model generated by deep learning or the like.
  • work accuracy and abnormality detection accuracy are improved by performing learning specialized for the work environment and work conditions of each device.
  • Patent Document 1 Examples of devices using such learned models include Patent Document 1 and Patent Document 2.
  • the evolution type automatic image classification apparatus described in Patent Document 1 is an apparatus that classifies images by a learning device from various feature amounts, and the metal surface quality evaluation apparatus described in Patent Document 2 images a metal surface. It is a device for performing metal surface quality evaluation with a learning device based on images.
  • Patent Literature 1 and Patent Literature 2 In the case of performing determination / classification using a learning device learned by machine learning or the like including Patent Literature 1 and Patent Literature 2, the configuration of the learning device specialized for the working environment / working condition of the device is used. It is necessary to learn after setting. It takes a considerable amount of cost to make such a setting and learn from zero so that highly accurate determination and classification can be performed. And even if you get a learned model at such a cost, you can't use the same learned model on devices with different working environments, working conditions, etc. There was a problem that there was.
  • a method of preparing a general-purpose learning model that can cope with various work environments and work conditions can be considered.
  • the general-purpose learning model can be applied to various situations because it can cope with various work environments and conditions, but it is general-purpose, so it is specialized in each environment and condition.
  • the accuracy was lower than that of the model.
  • the complexity of the model increases, and the amount of information necessary to realize it increases, resulting in an increase in calculation cost and memory cost.
  • the present invention has been made in view of the above problems, a server device capable of selecting and supplying an optimal learned model for various devices having different environments and conditions, a learned model providing program, a learned It is an object to provide a model providing method and a learned model providing system.
  • a server device is a server device capable of communicating via a communication network with at least one device having a learning device that performs processing using a learned model, and is suitable for various device environments and conditions.
  • a storage unit that stores a plurality of shared models that have been previously learned
  • a device data acquisition unit that acquires device data including environment and condition information from the device
  • a target shared model selection unit that selects an appropriate shared model
  • a transmission unit that transmits the selected shared model to the device.
  • the server device stores and manages an additional learning processing unit that performs additional learning on a shared model using sample data for additional learning of the shared model, and an additional learned model.
  • An additional learned model management unit, and the transmission unit transmits the additional learned model to the device when additional learning is performed on the shared model.
  • the target shared model selection unit may perform additional learning based on another device in which the content of the device data acquired in the device data acquisition unit is stored by the additional learned model management unit.
  • the additional learning model is selected in preference to the shared model, and the transmission unit transmits the selected additional learning model to the device. It is characterized by that.
  • the server device further includes an additional learned model management unit that receives an additional learned model transmitted from a device having a function of performing additional learning processing on the shared model and stores the additional learned model in a storage unit. It is characterized by that.
  • the target shared model selection unit calculates a score that evaluates the degree of suitability of each shared model for the device based on device data obtained from the device, and shares according to the score. It is characterized by selecting a model.
  • the target shared model selection unit may select an optimal shared model using machine learning based on device data, and may select a shared model based on a learned model that has been learned in advance. It is characterized by that.
  • a learned model providing program executes a learned model selection process in a server device capable of communicating via a communication network with at least one device including a learning device that performs processing using the learned model.
  • a storage function for storing a plurality of shared models learned in advance in accordance with the environment and conditions of various devices in the server device, in order to realize a learned model providing program for realizing each function for A device data acquisition function for acquiring device data including environment and condition information from the device, a target shared model selection function for selecting an optimal sharing model for the device based on the acquired device data, and the selected sharing A transmission function for transmitting a model to the device is realized.
  • a learned model providing method provides a learned model for executing a process of selecting and providing an optimum learned model for a device including a learning device that performs processing using the learned model.
  • a learned model providing system includes at least one device including a learning device that performs processing using the learned model, and at least one server device capable of communicating with the device via a communication network.
  • the server apparatus and / or device includes a storage unit that stores at least one shared model that has been learned in advance according to the environment and conditions of various devices.
  • Device data acquisition unit that acquires device data including environment and condition information from devices that require learned models, and target sharing that searches and selects the optimal sharing model for the device based on the acquired device data
  • a model selection unit provided in the server device, and the selected shared model is the data that requires the learned model. Characterized in that it comprises a transmission unit to be transmitted to the chair to the server apparatus and / or device.
  • the target shared model selection unit is a score obtained by evaluating the fitness of each shared model with respect to the device based on device data obtained from a device that requires the learned model. Is calculated, and the shared model is selected according to the score.
  • the device has a function of performing additional learning processing on the shared model, and the server device receives the additional learned model transmitted from the device.
  • An additional learned model management unit that receives and stores in a storage unit is provided, and the target shared model selection unit of the server device performs selection by including an additional learned model in addition to the shared model. It is characterized by that.
  • the device has a function of performing additional learning processing on the shared model, a storage unit that stores the additional learned model, and an additional learned model And an additional learned model information transmission unit that transmits information necessary for selection to the server device.
  • the target shared model selection unit of the server device is stored in the storage unit of the device in addition to the shared model.
  • the additional learning completed model is also included in the selection and is selected.
  • a device is selected by selecting an optimum shared model in a server device in which a plurality of shared models learned in advance according to the environment and conditions of various devices are classified according to the environment and conditions and stored.
  • an additional learned model specialized for the device environment / conditions can be obtained, so that it is possible to additionally perform highly accurate inference processing in the device.
  • this additional learning process by performing additional learning based on an appropriate shared model according to the environment and conditions of the device, many effects of an action called transfer learning can be obtained. Transfer learning is expected to efficiently learn in an environment where additional learning is desired by using the weight of the shared model created in another environment between environments where the device environment and conditions are not exactly the same. It is.
  • by storing and managing additional learned models in the server device it is possible to immediately provide additional learned models when requested by other devices in the same environment and conditions. Become.
  • a learned model providing system including at least one device and at least one server device, it is optimal from a shared model stored in a storage unit of a plurality of server devices and / or devices. Since it is possible to select a shared model and provide it to the device, it is possible to select an optimal shared model from a larger selection of data.
  • FIG. 5 is a flowchart showing a flow until an inference process is performed in the device 20.
  • FIG. 1 is a block diagram showing the configuration of a server device 10 according to the present invention.
  • the server apparatus 10 is connected to a plurality of devices 201, 202,...
  • the server device 10 and the devices 201 to 20n may be devices designed as dedicated machines, but are assumed to be realizable by a general computer.
  • the server device 10 and the devices 201 to 20n include a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a memory that a general computer would normally have. It is assumed that a storage such as a hard disk drive is provided as appropriate (not shown). Further, it goes without saying that various processes are executed by a program in order to cause these general computers to function as the server device 10 of this example.
  • the server device 10 includes at least a device data acquisition unit 11, a target shared model selection unit 12, an additional learning processing unit 13, an additional learned model management unit 14, and a storage unit 15.
  • the device data acquisition unit 11 has a function of acquiring device data including device environment and condition information generated in any of the devices 201 to 20n.
  • device data refers to data necessary for defining attributes such as device environment, conditions, data units, sample data with label information necessary for additional learning, sensors in actual devices It includes various data that can be acquired by the device, such as data and network log data. At least device data including data necessary for selecting a shared model is required.
  • factory robot position data actuator torque, acceleration sensor data, image data with or without depth acquired by in-vehicle cameras or laser radar, displacement sensor data, various process automation process data, Sensor data such as various data in infrastructure, agriculture, biohealthcare, network log data, photo data of products including normal and abnormal products, audio data, machine type, work type, sensor type, Various data, such as geographic information, can be used as device data.
  • the device environment and conditions are required for the device, for example, when the device is a work machine that performs picking and there are several types of workpiece shapes to be picked.
  • the environment, conditions, etc. to be used differ individually.
  • the functions required of the learning device differ depending on the device, such as whether the product is a device that determines whether the product is abnormal or normal, or a device that classifies the product into a plurality of items. Therefore, it is necessary to acquire information such as individual environments and conditions that differ for each device as device data.
  • the information such as the environment and conditions may be input on the device side according to the format, or the information such as the environment and conditions may be defined by determining in the server device 10 from various data. . In that case, a method of specifying the definition of information such as environment and condition by machine learning using the acquired data may be used.
  • the target shared model selection unit 12 has a function of selecting a shared model optimal for the device based on the device data acquired by the device data acquisition unit 11.
  • the shared model refers to a model that has been learned in advance according to the environment and conditions of various devices, and a plurality of shared models are stored in advance in the storage unit 15 to be described later.
  • the level of learning to be performed in advance may be set to any level, but at least learning must be performed to the extent that it contributes to cost reduction more efficiently than learning from zero on the device. Is preferred.
  • the selection in the target shared model selection unit 12 is performed based on the acquired device data, but which of the acquired device data is used for selecting the shared model can be determined as appropriate.
  • the method for selecting a shared model may be automatically selected based on the matching degree of each item of device data, or a plurality of shared models having a high matching degree may be presented to the user and selected by the user. May be.
  • the degree of matching of items is determined based on the number of matching items, for example, by determining whether each item of device data matches or not. If a shared model that matches the definition of the device environment, conditions, etc. cannot be found, a new model having a neural network structure suitable for the definition may be generated.
  • the method for selecting a target shared model may be a method in which a shared model is selected based on a preset rule, or a shared model obtained by learning a learning model for selecting an optimal shared model
  • a method of selecting a shared model by a learned model for selection (a learned model that is different from the shared model and the additional learned model and that learns the selection action of the shared model) may be used.
  • a score evaluated for each shared model is calculated based on the environment and conditions obtained from the device, and selection is performed according to the score. You may make it perform.
  • the score which is an evaluation of the goodness of the shared model, is based on the location data of the factory robot, in addition to device data on the environment and conditions that are the basis of the machine type, workpiece type, sensor type, geographical information, etc. Actuator torque, acceleration sensor data, image data with or without depth acquired by in-vehicle cameras and laser radars, displacement sensor data, various process automation process data, various data in infrastructure, agriculture, biohealthcare, etc.
  • Evaluation is performed in consideration of more detailed device data such as sensor data, network log data, product photo data including normal and abnormal products, and audio data. How to evaluate and score each of these items is set in advance, and a total score is calculated by summing the scores for each item for each shared model.
  • the shared model with the highest score may be automatically selected, or a plurality of shared models with the highest score may be presented to the user and selected by the user.
  • a method may be used in which a learning model for selecting an optimal shared model is calculated by calculating a score, which is an evaluation of fitness, and a shared model is selected by a learned model. In this case, since the learning model learns how to score each device data, it is possible to select an optimal shared model.
  • the additional learning processing unit 13 has a function of performing additional learning on the shared model selected by the target shared model selecting unit 12.
  • the shared model is a situation where learning is not performed in the environment and conditions specific to the device even though learning is performed in advance, so in order to perform high-precision judgment, classification, etc. It is preferable to fine-tune by performing learning. Therefore, the device data acquisition unit 11 acquires sample data to be used as input data in additional learning, and performs additional learning of the shared model using the acquired sample data.
  • additional learning is not limited to re-learning the weights for all layers of the neural network, but can be frozen for a part of the learning and re-learning other layers, or additional layers can be added. To include.
  • the server device 10 is required to have a configuration for functioning as a learning device.
  • the additional learned model management unit 14 stores the additional learned model generated in the additional learning processing unit 13 in the storage unit 15 described later, and transmits the additional learned model to the target device.
  • It has a function to manage after setting definition information such as its environment and conditions so that the additionally learned model can be used by other devices with matching conditions.
  • definition information such as environment and conditions for additional learned models
  • the target shared model selection unit 12 can select other shared devices when selecting a shared model suitable for the device.
  • the additionally learned model generated based on the selection can also be a candidate for an option.
  • the storage unit 15 has a function of storing a plurality of shared models learned in advance according to various device environments and conditions. Further, an additional learned model learned by applying sample data for learning a device-specific environment and conditions to the shared model is also stored in the storage unit 15. Note that the storage unit 15 is not necessarily in the server apparatus 10 and may be a system provided on the device side. In that case, information on where the target shared model is stored in the server apparatus 10 is held, and transferred from the storage location to the device as necessary.
  • FIG. 2 is a flowchart showing the flow of the learning process of the additional learning.
  • device data is collected in order to select a shared model suitable for the device (S11).
  • device data transmitted from the device 20 is received by the device data acquisition unit 11 to collect device data.
  • attributes of the device data are defined (S12).
  • the attribute of device data is information such as device environment and conditions necessary for selecting a shared model, and defines this.
  • the shared model is searched based on the attribute of the defined device data (S13). As a search target at this time, an additionally learned model generated by performing additional learning with another device may be included.
  • additional learning is performed by the learning device on the shared model or the new learning model (S16). Additional learning is performed using sample data for performing additional learning collected from the device 20. After completion of the additional learning, the generated additional learned model is stored in the storage unit 15 (S17). The server device 10 transmits the generated additional learned model to the device 20.
  • step (S16) and step (S17) may be omitted, and the selected sharing model may be transmitted to the device 20 as it is.
  • FIG. 3 is a flowchart showing a flow until an inference process is performed in the device 20.
  • the device 20 that wishes to perform inference processing first collects device data (S21). Based on the collected device data, attributes of the device data are defined (S22). The device data attribute definition may be performed on the server device 10 side. Then, device data is transmitted to the server device 10 in order to search for an optimal sharing model using the device data (S23). In the server apparatus 10 that has received the device data, an optimal sharing model is selected, and additional learning is performed as necessary.
  • the shared model or the additionally learned model selected by the server device 10 is downloaded and stored in the learning device (S24).
  • the inference processing is performed in the learning device using the device data, and an inference result as output data is obtained (S25). .
  • the output data is completely different depending on the inference process to be performed.
  • the determination of the correctness of the scheduled action the determination of the degree of abnormality of the part, the determination of the system abnormality, the inspection result of the non-defective product or the defective product,
  • the name (classification process) of the object shown in the video the race of the person shown in the video, the characteristics such as gender, the photo, sound, text, etc. processed based on specific rules are output as output data.
  • step (S24) in FIG. If the device 20 has a function for performing additional learning processing on the side, additional learning may be performed on the shared model after step (S24) in FIG. If the additional learning is performed on the device 20 side, the additional learned model is uploaded to the server device 10, and the additional learned model that has been subjected to additional learning on the device 20 side is also used by another device. It can be used.
  • the shared model selected by the device 201 transmitting device data to the server apparatus 10 is “model A”, and the device It is assumed that the additional learned model obtained by performing additional learning based on the sample data included in the device data 201 is “model A ′”.
  • the shared model selected by the device 202 transmitting device data to the server apparatus 10 is “model B”, and is obtained by performing additional learning based on the sample data included in the device data of the device 202. It is assumed that the additional learned model is “model B ′”.
  • the devices 201 and 202 can acquire the learned models that are optimal and additionally learned by simply transmitting the device data including information on the environment, conditions, and the like of the devices to the server apparatus 10, respectively.
  • 202 has a merit that the introduction cost can be greatly reduced as compared with the case where a learned model is generated independently.
  • the device 20n transmits device data to the server device 10 and requests a sharing model
  • the environment, conditions, and the like defined from the device data of the device 20n are the same as those of the device 201.
  • the server device 10 determines that the same learned model can be applied, the additional learning is not performed based on the “model A”, but the “model A ′” that is the additional learned model is transmitted to the device 20n.
  • the inference process can be performed as it is by the device 20n.
  • an additional learned model that is generated based on other devices in the same environment and conditions, it can be used directly. Can be shortened.
  • an optimal neural network size can be applied as compared with the case of using a general-purpose learning model, it is possible to reduce the calculation cost and memory cost for additional learning.
  • the server device 10 of the present invention the product to be handled can be changed. It is only necessary to search and download the optimal shared model again at the timing. That is, there is an advantage that it is easy to introduce an optimal sharing model when the processing content in the same device 20 is changed. And if an additional learned model is generated by another device with the same processing content, there is an advantage that an additional learned model that can perform an inference process with high accuracy that takes time for the additional learning process can be immediately introduced. . As described above, the fact that a large number of devices 201 to 20n access the server apparatus 10 and the data of the additionally learned model is accumulated is also an advantage of the server apparatus 10 of the present invention.
  • the shared model and the additionally learned model are described separately. However, both are the learned models, only that the degree of learning is different. . That is, when viewed from other devices, if the shared model and the additionally learned model can be appropriately selected according to the degree of learning, they are always stored separately as in the storage unit 15 of FIG. There is no need. If information for searching an optimal model at the time of searching is added to a shared model or additional learned model, it can be said that the same learned model can be handled. In this case, it can be said that the server apparatus 10 of the present invention functions without the additional learned model management unit 14.
  • the additional learning processing unit 13 is provided in the server device 10.
  • the present invention is not limited to this, and the additional learning processing function corresponding to the additional learning processing unit 13 is provided for each device 20. It may be provided on the side.
  • the configuration may be such that the additional learned model generated on the device 20 side is transmitted to the server device 10, but the entire additional learned model is not transmitted to the server device 10, and the additional learned model is not transmitted.
  • the configuration may be such that only information necessary for selection is transmitted to the server device 10. Only when the other device 20 needs the same additional learned model, it can be configured to transmit directly to the server device 10 or the required device 20. As a result, the data area required for the server device 10 can be reduced.
  • the configuration in which one server apparatus 10 and a plurality of devices 201 to 20n are connected via the communication network 30 has been described as an example.
  • the shared model including the additional learned model
  • the shared model may be retrieved from another server apparatus 10 and provided to the device.
  • a learned model providing system composed of a plurality of server devices and a plurality of devices in this way, the shared model stored in any of the plurality of server devices 10 can be provided to the device 20, It becomes possible to select an optimal sharing model from a larger selection of data.
  • target data for additional learning in the additional learning processing unit 13 is learned using device data acquired only by the device. Data acquired by other devices under conditions may be used, or updated using a learned model generated by other devices under the same environment and conditions. Further, a mixed learned model may be generated by mixing additional learned models generated in a plurality of devices of the same environment / condition. For mixing learning models, various known methods can be applied.
  • the present invention is a technique applicable to any field that requires an inference process using a learned model, and can be operated as a database of learned models.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Computer And Data Communications (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

学習済モデルを用いて処理を行う学習器を具備した少なくとも1以上のデバイスと通信ネットワークを介して通信可能なサーバ装置であって、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを複数記憶させた記憶部と、前記デバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得部と、取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを選択する対象共有モデル選択部と、選択した共有モデルを当該デバイスに対して送信する送信部とを具備してなる。

Description

サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
 本発明は、深層学習等による学習済みモデルを用いて判定・分類等の処理を行う産業上の装置に対して、低コストで学習済みモデルの導入及び最適化を行うための技術に関するものである。
 従来、工作機械等のデバイスや完成品の異常検出装置等において、深層学習等によって生成された学習済みモデルを用いて作業対象の特定や異常検出処理等が行われてきた。これらのデバイスにおいては、それぞれのデバイスの作業環境・作業条件等に特化した学習を行うことで作業精度、異常検出精度の向上を図っている。
 このような学習済モデルを用いたデバイスとしては、例えば、特許文献1及び特許文献2が挙げられる。特許文献1に記載の進化型画像自動分類装置は、様々な特徴量から学習器によって画像を分類する装置であり、特許文献2に記載の金属の表面品質評価装置は、金属の表面を撮影した画像に基づいて学習器で金属の表面品質評価を行うための装置である。
特開2007-213480号公報 特開2011-191252号公報
 特許文献1及び特許文献2を含め、機械学習等によって学習させた学習器を利用して判定・分類等を行う場合には、デバイスの作業環境・作業条件等に特化した学習器の構成を設定した上で学習を行う必要がある。そのような設定を行ってゼロから学習させて精度の高い判定・分類を行えるようになるまでには相当のコストを要する。そして、そのようにしてコストをかけて学習済モデルを得たとしても、作業環境・作業条件等が異なるデバイスにおいては同じ学習済モデルを使用することはできないので、また一から学習を行わせる必要があるという問題があった。
 これを解決するために、様々な作業環境・作業条件等に対応可能な汎用的な学習モデルを用意するという方法が考えられる。しかし、汎用的な学習モデルは様々な作業環境・作業条件等に対応できるため様々な状況に適用できるメリットがあるが、汎用であるがため、どのような各環境・条件においてはそれに特化したモデルと比べると精度が低くなるという問題があった。また、モデルの複雑性が増し、それを実現するために必要な情報量が大きくなってしまい、演算コストの増加、メモリコストの増加が生じてしまうという問題があった。さらには、各デバイス個体特有の特性をもつ場合、その個体差をも吸収するような汎用性を担保しなければいけないという問題もあった。
 本発明は、上記問題点に鑑みなされたものであり、環境・条件等の異なる様々なデバイスに対して最適な学習済モデルを選択して供給可能なサーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システムを提供することを目的とする。
 本発明に係るサーバ装置は、学習済モデルを用いて処理を行う学習器を具備した少なくとも1以上のデバイスと通信ネットワークを介して通信可能なサーバ装置であって、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを複数記憶させた記憶部と、前記デバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得部と、取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを選択する対象共有モデル選択部と、選択した共有モデルを当該デバイスに対して送信する送信部とを具備してなることを特徴とする。
 また、本発明に係るサーバ装置は、共有モデルの追加学習を行うためのサンプルデータを利用して共有モデルに対して追加学習を行う追加学習処理部と、追加学習済モデルを記憶して管理する追加学習済モデル管理部とを具備し、前記送信部は、共有モデルに対して追加学習を行った際には当該デバイスに対して追加学習済モデルを送信するようにしたことを特徴とする。
 また、本発明に係るサーバ装置は、前記対象共有モデル選択部は、デバイスデータ取得部において取得したデバイスデータの内容が、前記追加学習済モデル管理部によって記憶された他のデバイスに基づく追加学習済モデルを適用可能なものである場合には、共有モデルよりも当該追加学習済モデルを優先して選択するようにし、前記送信部は、選択された追加学習済モデルを当該デバイスに送信するようにしたことを特徴とする。
 また、本発明に係るサーバ装置は、共有モデルに対して追加学習処理を行う機能を有したデバイスから送信された追加学習済モデルを受信して記憶部に記憶させる追加学習済モデル管理部を備えたことを特徴とする。
 また、本発明に係るサーバ装置は、前記対象共有モデル選択部は、前記デバイスから得たデバイスデータに基づいて各共有モデルの当該デバイスに対する適合度を評価したスコアをそれぞれ算出し、そのスコアに従って共有モデルの選択を行うようにしたことを特徴とする。
 また、本発明に係るサーバ装置は、前記対象共有モデル選択部は、デバイスデータに基づいて機械学習を使って最適な共有モデルを選択すること予め学習した学習済モデルによって共有モデルを選択するようにしたことを特徴とする。
 本発明に係る学習済モデル提供プログラムは、学習済モデルを用いて処理を行う学習器を具備した少なくとも1以上のデバイスと通信ネットワークを介して通信可能なサーバ装置に学習済モデルの選択処理を実行させるための各機能を実現させるための学習済モデル提供プログラムであって、前記サーバ装置に、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを記憶手段によって複数記憶させる記憶機能と、前記デバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得機能と、取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを選択する対象共有モデル選択機能と、選択した共有モデルを当該デバイスに対して送信する送信機能とを実現させることを特徴とする。
 本発明に係る学習済モデル提供方法は、学習済モデルを用いて処理を行う学習器を具備したデバイスに対して最適な学習済モデルを選択して提供する処理を実行するための学習済モデル提供方法であって、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを記憶手段によって複数記憶させる記憶処理と、前記デバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得処理と、取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを選択する対象共有モデル選択処理と、選択した共有モデルを当該デバイスに対して送信する送信処理とを含むことを特徴とする。
 本発明に係る学習済モデル提供システムは、学習済モデルを用いて処理を行う学習器を具備した少なくとも1以上のデバイスと、前記デバイスと通信ネットワークを介して通信可能な少なくとも1以上のサーバ装置とを具備してなる学習済モデル提供システムであって、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを少なくとも1以上記憶させた記憶部を前記サーバ装置及び/又はデバイスに備え、学習済モデルを必要とするデバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得部と、取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを検索して選択する対象共有モデル選択部とを前記サーバ装置に備え、選択された共有モデルを学習済モデルを必要とする前記デバイスに対して送信する送信部をサーバ装置及び/又はデバイスに備えていることを特徴とする。
 また、本発明に係る学習済モデル提供システムは、前記対象共有モデル選択部は、学習済モデルを必要とするデバイスから得たデバイスデータに基づいて各共有モデルの当該デバイスに対する適合度を評価したスコアをそれぞれ算出し、そのスコアに従って共有モデルの選択を行うようにしたことを特徴とする。
 また、本発明に係る学習済モデル提供システムは、前記デバイスは、共有モデルに対して追加学習処理を行う機能を有しており、前記サーバ装置は、前記デバイスから送信された追加学習済モデルを受信して記憶部に記憶させる追加学習済モデル管理部を備えており、前記サーバ装置の対象共有モデル選択部は、共有モデルに加えて追加学習済モデルも選択肢に含めて選択を行うようにしたことを特徴とする。
 また、本発明に係る学習済モデル提供システムは、前記デバイスは、共有モデルに対して追加学習処理を行う機能を有し、また、追加学習済モデルを記憶させる記憶部と、追加学習済モデルの選択に必要な情報を前記サーバ装置に送信する追加学習済モデル情報送信部とを備えており、前記サーバ装置の対象共有モデル選択部は、前記共有モデルに加えて前記デバイスの記憶部に記憶された追加学習済モデルも選択肢に含めて選択を行うようにしたことを特徴とする。
 本発明によれば、様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルをその環境や条件に応じて分類されて複数記憶させたサーバ装置において最適な共有モデルを選択してデバイスに送信することで、上述したようなこれまでの汎用的な学習モデルを使った場合に対して、状況に合わせた高精度な判別/分類を実現しつつ、かつ学習モデルで表現する複雑性が減少するために演算およびメモリのコストは下げられるメリットがある。またデバイスで独自に学習済モデルを生成する場合に比較して導入コストを大幅に低減できるというメリットがある。また、追加学習処理機能を持たせることで、デバイスの環境・条件により特化した追加学習済モデルを得られるため、デバイスにおいて精度の高い推論処理を追加的に実施することが可能となる。この追加学習処理において、デバイスの環境・条件に応じて適切な共有モデルをベースに追加学習を行うことによって、転移学習と呼ばれる作用の効果を多く得ることができる。転移学習は、デバイスの環境・条件が全く同一ではない環境間において、他環境で作成した共有モデルの重みをうまく使うことによって、追加学習させたい環境で、効率よく学習を行うことを期待するものである。
また、追加学習済モデルをサーバ装置においても記憶させて管理するようにすることで、同一環境・条件の他のデバイスから要求があった時に、追加学習済モデルを即座に提供することが可能となる。これは、汎用的な学習モデルを利用する場合に比較して、追加学習のための演算コスト及びメモリコストを縮小することが可能となる。さらに、少なくとも1以上のデバイスと少なくとも1以上のサーバ装置とを具備してなる学習済モデル提供システムを構成することで、複数のサーバ装置及び/又はデバイスの記憶部に記憶された共有モデルから最適な共有モデルを選択してデバイスに提供することが可能となるため、より膨大なデータの選択肢の中から最適な共有モデルを選択可能となる。
本発明に係るサーバ装置10の構成を表したブロック図である。 追加学習の学習処理の流れを示したフローチャート図である。 デバイス20において推論処理を行うまでの流れを示したフローチャート図である。
[第1の実施の形態]
 以下、図面を参照しながら、第1の実施の形態に係るサーバ装置の例について説明する。図1は、本発明に係るサーバ装置10の構成を表したブロック図である。サーバ装置10は、複数のデバイス201、202、・・・、20nと通信ネットワーク30を介して通信可能に接続されている。なお、サーバ装置10及びデバイス201~20nは、専用マシンとして設計した装置であってもよいが、一般的なコンピュータによって実現可能なものであるものとする。この場合に、サーバ装置10及びデバイス201~20nは、一般的なコンピュータが通常備えているであろうCPU(Central Processing Unit:中央演算処理装置)、GPU(Graphics Processing Unit:画像処理装置)、メモリ、ハードディスクドライブ等のストレージなどを適宜備えているものとする(図示省略)。また、これらの一般的なコンピュータを本例のサーバ装置10として機能させるためにプログラムよって各種処理が実行されることは言うまでもない。
 サーバ装置10は、デバイスデータ取得部11と、対象共有モデル選択部12と、追加学習処理部13と、追加学習済モデル管理部14と、記憶部15とを少なくとも備えている。
 デバイスデータ取得部11は、デバイス201~20nの何れかにおいて生成されたデバイスの環境、条件の情報を含むデバイスデータを取得する機能を有する。ここで、デバイスデータとは、デバイスの環境、条件、データの単位等の属性を定義するために必要なデータ、追加で学習を行うために必要なラベル情報付のサンプルデータ、実際のデバイスにおけるセンサデータ、ネットワークのログデータなどデバイスで取得可能な様々なデータを含むものである。少なくとも、共有モデルを選択するために必要なデータを含んだデバイスデータである必要がある。具体的には、工場のロボットの位置データやアクチュエータトルク量、加速度センサデータ、車載カメラやレーザーレーダーなどで取得されるデプスを含むもしくは含まない画像データ、変位センサデータ、プロセスオートメーションの各種プロセスデータ、インフラや農業、バイオヘルスケアなどにおける各種データなどのセンサデータ、ネットワークのログデータや、正常品や異常品を含む製品の写真データや、音声データ、機械の種類、ワークの種類、センサの種類、地理的情報など、様々なデータがデバイスデータとして使用され得る。
 また、デバイスの環境、条件は、例えば、デバイスがピッキングを行う作業機械である場合であってピッキングの対象となるワーク形状の種類がいくつかに分かれているといった場合などのように、デバイスに要求される環境、条件等は個別に異なる。また、製品を異常品と正常品を判定する装置なのか、製品を複数項目に分類するための装置なのかなど、学習器に求められる機能もデバイスごとに異なる。そのため、デバイスごとに異なる個別の環境、条件等の情報をデバイスデータとして取得する必要がある。この環境、条件等の情報は、フォーマットに従ってデバイス側で入力されるものであってもよいし、様々なデータからサーバ装置10において判別して環境、条件等の情報を定義するようにしてもよい。その際には、取得したデータを用いて機械学習によって環境、条件等の情報の定義を特定する手法であってもよい。
 対象共有モデル選択部12は、デバイスデータ取得部11において取得したデバイスデータに基づいて、当該デバイスに最適な共有モデルを選択する機能を有する。ここで、共有モデルとは、様々なデバイスの環境、条件に合わせて予め学習を行ったモデルのことをいい、後述する記憶部15に複数の共有モデルを予め記憶させておく。予め行う学習の程度としてはどのような水準に設定してもよいが、少なくとも、デバイスでゼロから学習を行うよりも効率が良くコストダウンに寄与する程度に学習が行われているものであることが好ましい。この対象共有モデル選択部12における選択は、取得したデバイスデータに基づいて行うが、取得したデバイスデータのうち何れを共有モデルの選択のために利用するかは適宜決定可能なものである。また共有モデルの選択の方法は、デバイスデータの各項目の一致度から自動的に選択してもよいし、一致度の高い共有モデルを複数個複数個ユーザに提示してユーザに選択させるようにしてもよい。項目の一致度は、例えば、デバイスデータの各項目が一致するか否かを項目ごとに判定して、項目の一致数によって判定する。なお、デバイスの環境、条件等の定義にマッチした共有モデルが見つからない場合には、その定義に適したニューラルネットワークの構造からなる新規のモデルを生成するようにしてもよい。なお、対象となる共有モデルの選択方法は、予め設定した規則に基づいて共有モデルが選択される方法であってもよいし、最適な共有モデルを選択するための学習モデルを学習させた共有モデル選択についての学習済モデル(共有モデル及び追加学習済モデルとは異なる学習済モデルであり、共有モデルの選択行為を学習したもの)によって共有モデルを選択する方法であってもよい。
 また、対象共有モデル選択部12において最適な共有モデルを選択する手法として、前記デバイスから得た環境、条件をもとに各共有モデルに対して評価したスコアをそれぞれ算出し、そのスコアに従って選択を行うようにしてもよい。共有モデルの適合度の評価であるスコアは、機械の種類、ワークの種類、センサの種類、地理的情報などのベースとなる環境・条件についてのデバイスデータに加えて、工場のロボットの位置データやアクチュエータトルク量、加速度センサデータ、車載カメラやレーザーレーダーなどで取得されるデプスを含むもしくは含まない画像データ、変位センサデータ、プロセスオートメーションの各種プロセスデータ、インフラや農業、バイオヘルスケアなどにおける各種データなどのセンサデータ、ネットワークのログデータや、正常品や異常品を含む製品の写真データや、音声データなどのより詳細なデバイスデータを加味して評価を行う。これらの各項目をどのように評価してスコア化するかを予め設定しておき、共有モデルごとに項目毎の点数を合計した合計スコアを算出する。実際の共有モデルの選択は、最もスコアの高い共有モデルを自動的に選択するようにしてもよいし、スコアの高い共有モデルを複数個ユーザに提示してユーザに選択させるようにしてもよい。なお、適合度の評価であるスコアを算出して最適な共有モデルを選択するための学習モデルを学習させて学習済モデルによって共有モデルを選択する方法であってもよい。この場合、各デバイスデータをどのようにスコア化するかについても学習モデルが学習していくため、最適な共有モデルの選択が可能となる。
 追加学習処理部13は、対象共有モデル選択部12において選択された共有モデルに対して追加学習を行う機能を有する。共有モデルは、予め学習が行われているとはいえ、そのデバイスに特化した環境、条件での学習は行っていない状況であるため、高精度の判定、分類等を行うためには、追加の学習を行って微調整することが好ましい。そこで、デバイスデータ取得部11において、追加学習において入力データとして用いるためのサンプルデータを併せて取得し、取得したサンプルデータを用いて共有モデルの追加学習を行う。ここで追加学習においては、ニューラルネットワークの全層を対象にして重みを再学習することに限らず、一部をフリーズさせておいてそれ以外の層だけを学習しなおすことや、層をさらに追加することも含まれる。これにより、そのデバイスに特化した環境、条件での学習内容が追加されて、より最適なモデルとして微調整された追加学習済モデルを生成することができる。追加学習処理部13として機能するためには、学習器として機能するための構成がサーバ装置10に求められる。
 追加学習済モデル管理部14は、追加学習処理部13において生成された追加学習済モデルを後述する記憶部15に対して記憶させるとともに、対象となるデバイスに対して追加学習済モデルを送信する機能を有する。また、追加学習済モデルを条件の一致する他のデバイスで利用可能なように、その環境、条件等の定義情報を設定した上で管理する機能を有する。このように、追加学習済モデルに対しても環境、条件等の定義情報を定めておくことにより、対象共有モデル選択部12において、デバイスに適した共有モデルを選択する際に、他のデバイスに基づいて生成された追加学習済モデルについても選択肢の候補とすることが可能となる。
 記憶部15は、様々なデバイスの環境、条件に合わせて予め学習を行った複数の共有モデルを記憶させる機能を有する。また、共有モデルに対してデバイスに特化した環境、条件を学習させるためのサンプルデータを適用して学習させた追加学習済モデルについても、この記憶部15に記憶させる。なお、記憶部15は、必ずしもサーバ装置10にある必要はなく、デバイス側に具備されているようなシステムでもよい。その場合には、サーバ装置10において対象となる共有モデルが何れに格納されているかの情報を保持し、必要に応じて格納場所からデバイスに転送する。
 次に、サーバ装置10において共有モデルを選択し、追加学習を行うまでの処理の流れについて説明を行う。図2に示すのは、追加学習の学習処理の流れを示したフローチャート図である。この図2において、先ず、デバイスに適した共有モデルを選択するために、デバイスデータを収集する(S11)。具体的には、デバイス20から送信されるデバイスデータをデバイスデータ取得部11において受信してデバイスデータを収集する。収集したデバイスデータに基づいて、デバイスデータの属性を定義する(S12)。デバイスデータの属性とは、共有モデルを選択するために必要なデバイスの環境、条件等の情報であり、これを定義する。そして、定義したデバイスデータの属性に基づいて、共有モデルを検索する(S13)。このときの検索対象として、他のデバイスで追加学習を行って生成された追加学習済モデルも含めるようにしてもよい。検索の結果、該当する共有モデルが存在するか否かを判定する(S14)。該当する共有モデルが存在した場合には、当該共有モデルを選択して次のステップ(S16)に進み、該当する共有モデルが存在しなかった場合には、デバイス20の条件に一致したニューラルネットワークの構成からなる学習モデルを新規に生成して(S15)、次のステップ(S16)に進む。
 共有モデルを選択、若しくは、新規に学習モデルを生成した後に、その共有モデル若しくは新規学習モデルに対して、学習器によって追加の学習を実施する(S16)。追加の学習は、デバイス20から収集した追加学習を行うためのサンプルデータを利用して行う。追加学習の完了後、生成した追加学習済モデルを記憶部15に記憶させる(S17)。サーバ装置10は、この生成した追加学習済モデルをデバイス20に送信する。
 なお、デバイス20側において追加学習処理を行う機能を備えている場合や、選択された共有モデルが追加学習の必要のない状態でデバイス20の条件にマッチしている場合には、この図2のステップ(S16)とステップ(S17)は省略して、選択された共有モデルをそのままデバイス20に送信することもあり得る。
 次に、デバイス20において共有モデルをダウンロードして、推論処理を行うまでの流れについて説明を行う。図3に示すのは、デバイス20において推論処理を行うまでの流れを示したフローチャート図である。この図3において、推論処理を行いたいデバイス20は、先ず、デバイスデータの収集を行う(S21)。収集したデバイスデータに基づいて、デバイスデータの属性を定義する(S22)。なお、このデバイスデータの属性の定義は、サーバ装置10側において行ってもよい。そして、デバイスデータを用いて最適な共有モデルを検索するために、サーバ装置10に対してデバイスデータを送信する(S23)。デバイスデータを受信したサーバ装置10では、最適な共有モデルの選択が行われ、必要に応じて追加学習が行われる。そして、デバイス20において、サーバ装置10で選択された共有モデル若しくは追加学習済モデルを学習器にダウンロードして記憶させる(S24)。最後に、デバイス20では、共有モデル若しくは追加学習済モデルを学習器に記憶させた状態において、デバイスデータを利用して学習器において推論処理を行って、出力データとしての推論結果を得る(S25)。
 出力データは、行う推論処理によって全く異なるものであるが、例えば、予定している行動の正しさの判定、部品の異常度の判定、システム異常度の判定、良品か不良品かの検査結果、映像に映ったオブジェクトの名前(分類処理)、映像に映った人物の人種、性別などの特徴、特定のルールに基づいて加工された写真、音声、文章などが出力データとして出力される。
 なお、デバイス20に側において追加学習処理を行う機能を備えている場合には、図3のステップ(S24)の後で、共有モデルに対して追加学習を行うようにしてもよい。デバイス20側で追加学習を行った場合には、その追加学習済モデルをサーバ装置10にアップロードする構成とすれば、デバイス20側で追加学習を行った追加学習済モデルについても、他のデバイスで利用することが可能となる。
 図1の状態を例に本発明の具体的な運用例を説明すると、例えば、デバイス201がサーバ装置10に対してデバイスデータを送信して選択された共有モデルが「モデルA」であり、デバイス201のデバイスデータに含まれるサンプルデータに基づいて追加学習を行って得られた追加学習済モデルが「モデルA’」であったとする。また、デバイス202がサーバ装置10に対してデバイスデータを送信して選択された共有モデルが「モデルB」であり、デバイス202のデバイスデータに含まれるサンプルデータに基づいて追加学習を行って得られた追加学習済モデルが「モデルB’」であったとする。このように、デバイス201、202はそれぞれ、自身のデバイスの環境、条件等の情報を含むデバイスデータをサーバ装置10に送信するだけで最適かつ追加学習済みの学習済モデルを取得できるので、デバイス201、202において独自に学習済モデルを生成する場合に比較して導入コストを大幅に低減できるというメリットがある。
 また、図1において、デバイス20nがサーバ装置10に対してデバイスデータを送信して共有モデルを要求したときに、デバイス20nのデバイスデータから定義される環境、条件等がデバイス201と同一であり、同じ学習済モデルを適用できるとサーバ装置10が判断した場合には、「モデルA」に基づいて追加学習を行うのではなく、追加学習済モデルである「モデルA’」をデバイス20nに送信すれば、デバイス20nでそのまま推論処理が可能となる。このように、同一環境、条件の他のデバイスに基づいて生成された追加学習済モデルが存在する場合には直接それを利用することが可能となるため、より一層導入コストを抑え、かつ、導入までの時間短縮が可能となる。また、汎用的な学習モデルを利用する場合に比較して、最適なニューラルネットワークのサイズを適用できるため、追加学習のための演算コスト及びメモリコストを縮小することが可能となる。
 また、同一工場内において扱う製品が変更されるような状況において、従来は製品が変わる度にゼロから学習を行う必要があったが、本発明のサーバ装置10によれば、扱う製品の変更のタイミングで最適な共有モデルを再度検索してダウンロードすればよいことになる。すなわち、同一のデバイス20における処理内容が変更されるような場合に最適な共有モデルの導入が容易であるというメリットがある。そして、同じ処理内容の他のデバイスによって追加学習済モデルが生成されていれば、追加学習処理の手間をかけることなる精度の高い推論処理を行える追加学習済モデルを即座に導入できるというメリットがある。このように、多数のデバイス201~20nがサーバ装置10にアクセスして追加学習済モデルのデータが蓄積されていくという点も、本発明のサーバ装置10のメリットである。
 前記第1の実施の形態においては、共有モデルと追加学習済モデルとを分けて説明を行っていたが、学習の程度が異なるというだけで、どちらも学習済モデルであることには変わりがない。すなわち、他のデバイスから見たときに、学習の程度に応じて共有モデルと追加学習済モデルを適宜選択可能であれば、必ずしも、図1の記憶部15のように、区別して記憶させておく必要はない。共有モデルや追加学習済モデルに対して検索時に最適なモデルを検索するための情報が付されていれば、同じ学習済モデルとして扱ってしまって差し支えないといえる。この場合には、追加学習済モデル管理部14がなくとも本発明のサーバ装置10が機能するといえる。
 前記第1の実施の形態においては、サーバ装置10に追加学習処理部13を設けていたが、これに限定されるものではなく、追加学習処理部13に相当する追加学習処理機能を各デバイス20側に設けるものであってもよい。この場合に、デバイス20側で生成した追加学習済モデルをサーバ装置10に送信する構成であってもよいが、追加学習済モデル全体はサーバ装置10には送信せずに、追加学習済モデルの選択に必要な情報のみをサーバ装置10に送信する構成であってもよい。他のデバイス20が同じ追加学習済モデルを必要としたときにだけ、サーバ装置10若しくは必要とするデバイス20に直接送信する構成とすることができる。これにより、サーバ装置10に必要なデータ領域を縮小することが可能となる。
 前記第1の実施の形態においては、図1に示すように、1つのサーバ装置10と複数のデバイス201~20nが通信ネットワーク30を介して接続される構成を例に説明を行ったが、これに限定されるものではなく、例えば、複数のサーバ装置10が格納された共有モデル(追加学習済モデルも含む)を相互に認識した状態で通信ネットワーク30を介して通信可能に構成することで、他のサーバ装置10から共有モデルを検索してデバイスに対して提供可能としてもよい。このように複数のサーバ装置と複数のデバイスからなる学習済モデル提供システムを構成することで、複数のサーバ装置10の何れかに記憶された共有モデルをデバイス20に対して提供可能となるため、より膨大なデータの選択肢の中から最適な共有モデルを選択可能となる。
 前記第1の実施の形態においては、追加学習処理部13における追加学習の対象データは、そのデバイスでのみ取得したデバイスデータを使って学習していたが、これにとどまる必要はなく、同一環境・条件の他のデバイスで取得したデータを使用したり、同一環境・条件の他のデバイスで生成した学習済モデルを使用して更新したりしてもよい。また、同一環境・条件の複数のデバイスにおいてそれぞれ生成された追加学習済モデルを混合して混合学習済モデルを生成するようにしてもよい。学習モデルの混合については、既知の様々な手法が適用可能である。
 本発明は、学習済モデルを用いた推論処理を必要とする分野であればどのような分野であっても適用可能な技術であり、学習済モデルのデータベースとして運用することが可能である。
 10      サーバ装置
 11      デバイスデータ取得部
 12      対象共有モデル選択部
 13      追加学習処理部
 14      追加学習済モデル管理部
 15      記憶部
 20、201~20n    デバイス
 30      通信ネットワーク

Claims (12)

  1.  学習済モデルを用いて処理を行う学習器を具備した少なくとも1以上のデバイスと通信ネットワークを介して通信可能なサーバ装置であって、
     様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを複数記憶させた記憶部と、
     前記デバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得部と、
     取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを選択する対象共有モデル選択部と、
     選択した共有モデルを当該デバイスに対して送信する送信部と
     を具備してなるサーバ装置。
  2.  共有モデルの追加学習を行うためのサンプルデータを利用して共有モデルに対して追加学習を行う追加学習処理部と、
     追加学習済モデルを記憶して管理する追加学習済モデル管理部とを具備し、
     前記送信部は、共有モデルに対して追加学習を行った際には当該デバイスに対して追加学習済モデルを送信するようにした
     請求項1記載のサーバ装置。
  3.  前記対象共有モデル選択部は、デバイスデータ取得部において取得したデバイスデータの内容が、前記追加学習済モデル管理部によって記憶された他のデバイスに基づく追加学習済モデルを適用可能なものである場合には、共有モデルよりも当該追加学習済モデルを優先して選択するようにし、
     前記送信部は、選択された追加学習済モデルを当該デバイスに送信するようにした
     請求項2記載のサーバ装置。
  4.  共有モデルに対して追加学習処理を行う機能を有したデバイスから送信された追加学習済モデルを受信して記憶部に記憶させる追加学習済モデル管理部を備えた
     請求項1から請求項3の何れかに記載のサーバ装置。
  5.  前記対象共有モデル選択部は、前記デバイスから得たデバイスデータに基づいて各共有モデルの当該デバイスに対する適合度を評価したスコアをそれぞれ算出し、そのスコアに従って共有モデルの選択を行うようにした
     請求項1から請求項4の何れかに記載のサーバ装置。
  6.  前記対象共有モデル選択部は、デバイスデータに基づいて機械学習を使って最適な共有モデルを選択すること予め学習した学習済モデルによって共有モデルを選択するようにした
     請求項1から請求項5の何れかに記載のサーバ装置。
  7.  学習済モデルを用いて処理を行う学習器を具備した少なくとも1以上のデバイスと通信ネットワークを介して通信可能なサーバ装置に学習済モデルの選択処理を実行させるための各機能を実現させるための学習済モデル提供プログラムであって、
     前記サーバ装置に、
     様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを記憶手段によって複数記憶させる記憶機能と、
     前記デバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得機能と、
     取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを選択する対象共有モデル選択機能と、
     選択した共有モデルを当該デバイスに対して送信する送信機能と
     を実現させるための学習済モデル提供プログラム。
  8.  学習済モデルを用いて処理を行う学習器を具備したデバイスに対して最適な学習済モデルを選択して提供する処理を実行するための学習済モデル提供方法であって、
     様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを記憶手段によって複数記憶させる記憶処理と、
     前記デバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得処理と、
     取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを選択する対象共有モデル選択処理と、
     選択した共有モデルを当該デバイスに対して送信する送信処理と
     を含む学習済モデル提供方法。
  9.  学習済モデルを用いて処理を行う学習器を具備した少なくとも1以上のデバイスと、前記デバイスと通信ネットワークを介して通信可能な少なくとも1以上のサーバ装置とを具備してなる学習済モデル提供システムであって、
     様々なデバイスの環境、条件に合わせて予め学習を行った共有モデルを少なくとも1以上記憶させた記憶部を前記サーバ装置及び/又はデバイスに備え、
     学習済モデルを必要とするデバイスから環境、条件の情報を含むデバイスデータを取得するデバイスデータ取得部と、取得したデバイスデータに基づいて当該デバイスに最適な共有モデルを検索して選択する対象共有モデル選択部とを前記サーバ装置に備え、
     選択された共有モデルを学習済モデルを必要とする前記デバイスに対して送信する送信部をサーバ装置及び/又はデバイスに備えている
     学習済モデル提供システム。
  10.  前記対象共有モデル選択部は、学習済モデルを必要とするデバイスから得たデバイスデータに基づいて各共有モデルの当該デバイスに対する適合度を評価したスコアをそれぞれ算出し、そのスコアに従って共有モデルの選択を行うようにした
     請求項9に記載の学習済モデル提供システム。
  11.  前記デバイスは、共有モデルに対して追加学習処理を行う機能を有しており、
     前記サーバ装置は、前記デバイスから送信された追加学習済モデルを受信して記憶部に記憶させる追加学習済モデル管理部を備えており、
     前記サーバ装置の対象共有モデル選択部は、共有モデルに加えて追加学習済モデルも選択肢に含めて選択を行うようにした
     請求項9又は10の何れかに記載の学習済モデル提供システム。
  12.  前記デバイスは、共有モデルに対して追加学習処理を行う機能を有し、また、追加学習済モデルを記憶させる記憶部と、追加学習済モデルの選択に必要な情報を前記サーバ装置に送信する追加学習済モデル情報送信部とを備えており、
     前記サーバ装置の対象共有モデル選択部は、前記共有モデルに加えて前記デバイスの記憶部に記憶された追加学習済モデルも選択肢に含めて選択を行うようにした
     請求項9又は10の何れかに記載の学習済モデル提供システム。
     
PCT/JP2017/011216 2017-03-21 2017-03-21 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム WO2018173121A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201780088565.1A CN110431569A (zh) 2017-03-21 2017-03-21 服务器装置、已学习模型提供程序、已学习模型提供方法以及已学习模型提供系统
PCT/JP2017/011216 WO2018173121A1 (ja) 2017-03-21 2017-03-21 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
JP2019506582A JP6720402B2 (ja) 2017-03-21 2017-03-21 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
EP17901932.8A EP3605405A4 (en) 2017-03-21 2017-03-21 SERVER DEVICE, TRAINED MODEL DELIVERY PROGRAM, TRAINED MODEL DELIVERY PROCESS, AND DRIVEN MODEL DELIVERY SYSTEM
US16/578,035 US11375019B2 (en) 2017-03-21 2019-09-20 Server device, learned model providing program, learned model providing method, and learned model providing system
US17/752,786 US20220286512A1 (en) 2017-03-21 2022-05-24 Server device, learned model providing program, learned model providing method, and learned model providing system
US18/532,102 US20240129368A1 (en) 2017-03-21 2023-12-07 Server device, learned model providing program, learned model providing method, and learned model providing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/011216 WO2018173121A1 (ja) 2017-03-21 2017-03-21 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/578,035 Continuation-In-Part US11375019B2 (en) 2017-03-21 2019-09-20 Server device, learned model providing program, learned model providing method, and learned model providing system

Publications (1)

Publication Number Publication Date
WO2018173121A1 true WO2018173121A1 (ja) 2018-09-27

Family

ID=63585078

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/011216 WO2018173121A1 (ja) 2017-03-21 2017-03-21 サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム

Country Status (5)

Country Link
US (3) US11375019B2 (ja)
EP (1) EP3605405A4 (ja)
JP (1) JP6720402B2 (ja)
CN (1) CN110431569A (ja)
WO (1) WO2018173121A1 (ja)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200076893A1 (en) * 2018-08-31 2020-03-05 Industrial Technology Research Institute Storage device and storage method
JP2020067762A (ja) * 2018-10-23 2020-04-30 トヨタ自動車株式会社 制御支援装置、機器制御装置、制御支援方法、制御支援プログラム、コンピュータを機能させるための学習済みモデル、および学習済みモデルの生成方法
WO2020090251A1 (ja) * 2018-10-30 2020-05-07 日本電気株式会社 物体認識装置、物体認識方法および物体認識プログラム
WO2020105161A1 (ja) * 2018-11-22 2020-05-28 株式会社ウフル エッジデバイス機械学習モデル切替システム、エッジデバイス機械学習モデル切替方法、プログラム、及びエッジデバイス
JP2020101899A (ja) * 2018-12-20 2020-07-02 積水化学工業株式会社 コンピュータプログラム、学習モデル、推定装置、収容器及びサーバ装置
WO2020148959A1 (ja) * 2019-01-15 2020-07-23 ソニー株式会社 サーバおよび学習システム
WO2020153038A1 (ja) * 2019-01-22 2020-07-30 ソニー株式会社 情報処理装置、および情報処理方法
JP2020119015A (ja) * 2019-01-18 2020-08-06 キヤノン株式会社 システム、方法、及びプログラム
JP2020154785A (ja) * 2019-03-20 2020-09-24 富士通株式会社 予測方法、予測プログラムおよびモデル学習方法
WO2020217762A1 (ja) * 2019-04-25 2020-10-29 ソニー株式会社 通信装置、通信方法、及び通信プログラム
JP2020201116A (ja) * 2019-06-10 2020-12-17 大阪瓦斯株式会社 ガス検知装置
WO2021006404A1 (ko) * 2019-07-11 2021-01-14 엘지전자 주식회사 인공지능 서버
JP2021018825A (ja) * 2020-08-07 2021-02-15 株式会社安川電機 拡張モジュール、産業用機器、及び産業用機器のパラメータ又は前記産業用機器により制御される機器の内部状態の推定方法。
JP2021022231A (ja) * 2019-07-29 2021-02-18 株式会社日立製作所 管理装置、管理方法、および管理プログラム
WO2021038759A1 (ja) * 2019-08-28 2021-03-04 富士通株式会社 モデル選択方法、モデル選択プログラムおよび情報処理装置
JP2021043772A (ja) * 2019-09-12 2021-03-18 株式会社東芝 提供装置、提供方法及びプログラム
JP2021071243A (ja) * 2019-10-31 2021-05-06 株式会社富士通ゼネラル 空気調和システム及び空気調和機
JP2021071932A (ja) * 2019-10-31 2021-05-06 横河電機株式会社 装置、方法およびプログラム
WO2021095693A1 (ja) * 2019-11-14 2021-05-20 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US11080610B2 (en) * 2017-09-29 2021-08-03 Fanuc Corporation Numerical control system that detects an abnormality in an operation state
JP2021125884A (ja) * 2020-01-31 2021-08-30 パナソニックIpマネジメント株式会社 電気装置、機器管理システム、機器管理方法及びプログラム
JPWO2021199227A1 (ja) * 2020-03-31 2021-10-07
JP2021193280A (ja) * 2020-06-08 2021-12-23 トヨタ自動車株式会社 車両、及びサーバ
JPWO2021260910A1 (ja) * 2020-06-26 2021-12-30
WO2022009543A1 (ja) 2020-07-10 2022-01-13 パナソニックIpマネジメント株式会社 情報処理方法、および情報処理システム
CN114063597A (zh) * 2020-08-07 2022-02-18 丰田自动车株式会社 服务器、车辆的控制装置以及车辆的机器学习系统
JPWO2022038674A1 (ja) * 2020-08-18 2022-02-24
JP2022033153A (ja) * 2019-02-01 2022-02-28 株式会社コンピュータマインド 情報処理装置
CN114144796A (zh) * 2019-07-22 2022-03-04 株式会社安川电机 扩展模块、工业设备和估计方法
JP2022043134A (ja) * 2020-04-27 2022-03-15 株式会社リョーワ 良否判定システム、良否判定方法、サーバ及びプログラム
WO2022080000A1 (ja) * 2020-10-13 2022-04-21 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに学習システム
JP2022148878A (ja) * 2021-03-24 2022-10-06 株式会社Novera プログラム、情報処理装置、及び方法
JPWO2023276097A1 (ja) * 2021-07-01 2023-01-05
JP2023524134A (ja) * 2020-05-08 2023-06-08 ゼイリエント 分散型データ分析のためのシステムおよび方法
KR20230101855A (ko) 2020-11-10 2023-07-06 도쿄엘렉트론가부시키가이샤 모델 관리 시스템, 모델 관리 방법 및 모델 관리 프로그램
US11754985B2 (en) 2020-04-20 2023-09-12 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method and computer program product
JP7398587B1 (ja) 2022-06-30 2023-12-14 菱洋エレクトロ株式会社 機械学習を利用したシステム、端末、サーバ、方法、及び、プログラム
US11914688B2 (en) 2019-12-09 2024-02-27 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device for identifying transition suitability of a neural network model included in an external device
KR20240049620A (ko) 2021-08-31 2024-04-16 도쿄엘렉트론가부시키가이샤 정보 처리 방법, 정보 처리 장치, 및 기판 처리 시스템
KR20240058131A (ko) 2021-08-31 2024-05-03 도쿄엘렉트론가부시키가이샤 정보 처리 방법, 정보 처리 장치, 및 정보 처리 시스템
US12388294B2 (en) 2020-01-31 2025-08-12 Panasonic Intellectual Property Management Co., Ltd. Appliance management method, program, power distribution equipment, and appliance management system
US12444181B2 (en) 2019-10-31 2025-10-14 Samsung Electronics Co., Ltd. Electronic apparatus for applying personalized artificial intelligence model to another model

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173121A1 (ja) * 2017-03-21 2018-09-27 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
JP6886869B2 (ja) * 2017-06-09 2021-06-16 川崎重工業株式会社 動作予測システム及び動作予測方法
JP6698604B2 (ja) * 2017-09-29 2020-05-27 ファナック株式会社 数値制御システム、及び工具状態検知方法
JP7176573B2 (ja) * 2018-11-13 2022-11-22 日本電気株式会社 危険シーン予測装置、危険シーン予測方法および危険シーン予測プログラム
JP7117237B2 (ja) * 2018-12-27 2022-08-12 川崎重工業株式会社 ロボット制御装置、ロボットシステム及びロボット制御方法
JP7323177B2 (ja) * 2019-12-17 2023-08-08 株式会社 システムスクエア 検査システム、検査装置、学習装置及びプログラム
KR20210086008A (ko) * 2019-12-31 2021-07-08 삼성전자주식회사 컨텐츠 추천 모델을 개인화하는 방법 및 장치
DE112020006752T5 (de) * 2020-02-17 2022-12-29 Mitsubishi Electric Corporation Modellerzeugungsvorrichtung, fahrzeugseitige Vorrichtung und Modellerzeugungsverfahren
JP7496726B2 (ja) * 2020-07-31 2024-06-07 日立グローバルライフソリューションズ株式会社 不良原因推定装置及び方法
JP7093031B2 (ja) * 2020-09-23 2022-06-29 ダイキン工業株式会社 情報処理装置、情報処理方法、及びプログラム
KR102470637B1 (ko) * 2020-11-26 2022-11-25 (주)심플랫폼 클라우드 기반 디바이스 인공지능 설정 시스템 및 방법
CN114764640A (zh) * 2020-12-31 2022-07-19 新智数字科技有限公司 用于泛能站和化工站中相似设备的预测维护方法和装置
CN115965965A (zh) * 2021-10-08 2023-04-14 株式会社岛津制作所 细胞图像分析用学习模型的转移系统及转移方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213480A (ja) 2006-02-13 2007-08-23 Yokohama National Univ 進化型画像自動分類装置、フィルタ構造生成方法、及びプログラム
JP2011191252A (ja) 2010-03-16 2011-09-29 Nippon Steel Engineering Co Ltd 金属の表面品質評価方法および金属の表面品質評価装置
US20120284213A1 (en) * 2011-05-04 2012-11-08 Google Inc. Predictive Analytical Modeling Data Selection
JP2015038709A (ja) * 2013-08-19 2015-02-26 日本電信電話株式会社 モデルパラメータ推定方法、装置、及びプログラム

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042115A (ja) * 2000-07-26 2002-02-08 Fujitsu Ltd 疲労緩和システム、疲労緩和方法及び記録媒体
US6961938B1 (en) * 2001-03-03 2005-11-01 Brocade Communications Systems, Inc. Management of multiple network devices using unsigned Java applets
JP2002268684A (ja) 2001-03-14 2002-09-20 Ricoh Co Ltd 音声認識用音響モデル配信方法
US7020642B2 (en) * 2002-01-18 2006-03-28 Pavilion Technologies, Inc. System and method for pre-processing input data to a support vector machine
US7383161B2 (en) * 2005-04-13 2008-06-03 Microsoft Corporation Systems and methods for device simulation
US20070180069A1 (en) * 2006-01-31 2007-08-02 Staples The Office Superstore, Llc Management of component configurations in a computer system
US20070180070A1 (en) * 2006-01-31 2007-08-02 Staples The Office Superstore, Llc Managing component configurations in a computer system
WO2008059624A1 (en) * 2006-11-13 2008-05-22 Fujitsu Limited Two-class classifying/predicting model making method, classifying/predicting model making program, and two-class classifying/predicting model making device
US7930163B2 (en) * 2008-04-30 2011-04-19 Netapp, Inc. Modeling a storage environment at various times
US8868400B2 (en) * 2008-04-30 2014-10-21 Netapp, Inc. Modeling storage environments
US11562323B2 (en) * 2009-10-01 2023-01-24 DecisionQ Corporation Application of bayesian networks to patient screening and treatment
JP5185358B2 (ja) * 2010-12-13 2013-04-17 株式会社東芝 行動履歴検索装置
JP2012199338A (ja) * 2011-03-18 2012-10-18 Fujitsu Ltd 故障診断支援方法、プログラム及び装置
US8620837B2 (en) * 2011-07-11 2013-12-31 Accenture Global Services Limited Determination of a basis for a new domain model based on a plurality of learned models
US10417575B2 (en) * 2012-12-14 2019-09-17 Microsoft Technology Licensing, Llc Resource allocation for machine learning
US20140074761A1 (en) * 2012-05-30 2014-03-13 Qualcomm Incorporated Dynamical event neuron and synapse models for learning spiking neural networks
CN102932412B (zh) * 2012-09-26 2016-02-03 华为终端有限公司 文件传输方法及系统、主控设备
US9466026B2 (en) * 2012-12-21 2016-10-11 Model N, Inc. Rule assignments and templating
US8924193B2 (en) * 2013-03-14 2014-12-30 The Mathworks, Inc. Generating variants from file differences
EP2997353B1 (en) * 2013-05-15 2022-10-12 The Administrators of The Tulane Educational Fund Microscopy of a tissue sample using structured illumination
JP6214922B2 (ja) 2013-05-20 2017-10-18 日本電信電話株式会社 情報処理装置、情報処理システム、情報処理方法、および学習プログラム
JP5408380B1 (ja) 2013-06-17 2014-02-05 富士ゼロックス株式会社 情報処理プログラム及び情報処理装置
US9414219B2 (en) * 2013-06-19 2016-08-09 Facebook, Inc. Detecting carriers for mobile devices
US9466266B2 (en) * 2013-08-28 2016-10-11 Qualcomm Incorporated Dynamic display markers
JP2015136762A (ja) * 2014-01-23 2015-07-30 セイコーエプソン株式会社 処理装置、ロボット、ロボットシステム及び処理方法
US9886669B2 (en) * 2014-02-26 2018-02-06 Microsoft Technology Licensing, Llc Interactive visualization of machine-learning performance
US10176428B2 (en) * 2014-03-13 2019-01-08 Qualcomm Incorporated Behavioral analysis for securing peripheral devices
US20150324690A1 (en) * 2014-05-08 2015-11-12 Microsoft Corporation Deep Learning Training System
US9465715B2 (en) * 2014-06-12 2016-10-11 Oracle International Corporation Optimizing the number of shared processes executing in a computer system
US9426034B2 (en) * 2014-06-16 2016-08-23 International Business Machines Corporation Usage policy for resource management
US10380527B2 (en) * 2014-06-25 2019-08-13 Valuemomentum, Inc. Method and system for efficient and comprehensive product configuration and searching
US10317892B2 (en) * 2014-10-15 2019-06-11 Brigham Young University System and method for concurrent multi-user computer-aided manufacturing
US9665831B2 (en) * 2014-10-24 2017-05-30 International Business Machines Corporation Interactive learning
KR102264050B1 (ko) * 2014-11-28 2021-06-11 삼성전자주식회사 전자 장치들 간에 기능을 공유하는 방법 및 장치
JP6452419B2 (ja) * 2014-12-05 2019-01-16 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US10311372B1 (en) * 2014-12-19 2019-06-04 Amazon Technologies, Inc. Machine learning based content delivery
US10387794B2 (en) 2015-01-22 2019-08-20 Preferred Networks, Inc. Machine learning with model filtering and model mixing for edge devices in a heterogeneous environment
US9990587B2 (en) 2015-01-22 2018-06-05 Preferred Networks, Inc. Machine learning heterogeneous edge device, method, and system
JP6580334B2 (ja) * 2015-02-06 2019-09-25 株式会社Jsol 情報処理装置、プログラム及び情報処理方法
JP2016173623A (ja) * 2015-03-16 2016-09-29 エヌ・ティ・ティ・コミュニケーションズ株式会社 コンテンツ提供装置、コンテンツ提供方法及びコンテンツ提供プログラム
JP2016173782A (ja) * 2015-03-18 2016-09-29 エヌ・ティ・ティ・コミュニケーションズ株式会社 故障予測システム、故障予測方法、故障予測装置、学習装置、故障予測プログラム及び学習プログラム
US9898337B2 (en) * 2015-03-27 2018-02-20 International Business Machines Corporation Dynamic workload deployment for data integration services
EP3079116A1 (en) * 2015-04-10 2016-10-12 Tata Consultancy Services Limited System and method for generating recommendations
JP5816771B1 (ja) 2015-06-08 2015-11-18 株式会社Preferred Networks 学習装置ユニット
US10420515B2 (en) * 2015-06-15 2019-09-24 Vital Labs, Inc. Method and system for acquiring data for assessment of cardiovascular disease
US10460251B2 (en) 2015-06-19 2019-10-29 Preferred Networks Inc. Cross-domain time series data conversion apparatus, methods, and systems
JP6148316B2 (ja) * 2015-07-31 2017-06-14 ファナック株式会社 故障条件を学習する機械学習方法及び機械学習装置、並びに該機械学習装置を備えた故障予知装置及び故障予知システム
US10129314B2 (en) * 2015-08-18 2018-11-13 Pandora Media, Inc. Media feature determination for internet-based media streaming
US10229357B2 (en) * 2015-09-11 2019-03-12 Facebook, Inc. High-capacity machine learning system
KR102292990B1 (ko) * 2015-11-20 2021-08-26 삼성전자 주식회사 상태 관련 정보 공유 방법 및 장치
JP6740247B2 (ja) * 2015-12-01 2020-08-12 株式会社Preferred Networks 異常検出システム、異常検出方法、異常検出プログラム及び学習済モデル生成方法
US10354200B2 (en) * 2015-12-14 2019-07-16 Here Global B.V. Method, apparatus and computer program product for collaborative mobility mapping
JP6074524B1 (ja) * 2016-02-05 2017-02-01 ヤフー株式会社 学習装置、学習方法及び学習プログラム
CN105912500B (zh) * 2016-03-30 2017-11-14 百度在线网络技术(北京)有限公司 机器学习模型生成方法和装置
US20200383582A1 (en) * 2016-05-11 2020-12-10 Tyto Care Ltd. Remote medical examination system and method
US11636348B1 (en) * 2016-05-30 2023-04-25 Apple Inc. Adaptive training of neural network models at model deployment destinations
US11210583B2 (en) * 2016-07-20 2021-12-28 Apple Inc. Using proxies to enable on-device machine learning
JP6840953B2 (ja) * 2016-08-09 2021-03-10 株式会社リコー 診断装置、学習装置および診断システム
KR102557956B1 (ko) * 2016-08-19 2023-07-21 모비디어스 리미티드 딥 러닝 모델들의 분산 훈련을 위한 시스템들 및 방법들
US11494845B1 (en) * 2016-08-31 2022-11-08 Nationwide Mutual Insurance Company System and method for employing a predictive model
CN110234400B (zh) * 2016-09-06 2021-09-07 医科达有限公司 用于生成合成医学图像的神经网络
US10489719B2 (en) * 2016-09-09 2019-11-26 Facebook, Inc. Shared per content provider prediction models
US11196800B2 (en) * 2016-09-26 2021-12-07 Google Llc Systems and methods for communication efficient distributed mean estimation
US10769549B2 (en) * 2016-11-21 2020-09-08 Google Llc Management and evaluation of machine-learned models based on locally logged data
JP6224811B1 (ja) * 2016-12-07 2017-11-01 たけおかラボ株式会社 ルールセットを選択可能な推論エンジンを有するプログラム、装置及び方法
US11315045B2 (en) * 2016-12-29 2022-04-26 Intel Corporation Entropy-based weighting in random forest models
US11295738B2 (en) * 2016-12-30 2022-04-05 Google, Llc Modulation of packetized audio signals
JP7149459B2 (ja) * 2017-02-03 2022-10-07 パナソニックIpマネジメント株式会社 学習済みモデル提供方法および学習済みモデル提供装置
EP3579153A4 (en) * 2017-02-03 2020-04-15 Panasonic Intellectual Property Management Co., Ltd. LEARNED MODEL PROVIDING METHOD AND LEARNED MODEL PROVIDING DEVICE
JP2018156573A (ja) * 2017-03-21 2018-10-04 東芝メモリ株式会社 メモリ装置および情報処理システム
WO2018173121A1 (ja) * 2017-03-21 2018-09-27 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
KR102651253B1 (ko) * 2017-03-31 2024-03-27 삼성전자주식회사 사용자 감정 판단을 위한 전자 장치 및 이의 제어 방법
US10547846B2 (en) * 2017-04-17 2020-01-28 Intel Corporation Encoding 3D rendered images by tagging objects
WO2018218149A1 (en) * 2017-05-26 2018-11-29 Google Llc Data fusion system
US20180365065A1 (en) * 2017-07-31 2018-12-20 Seematics Systems Ltd System and method for estimating required processing resources for machine learning tasks
JP6541737B2 (ja) * 2017-09-20 2019-07-10 ヤフー株式会社 選択装置、選択方法、選択プログラム、モデルおよび学習データ
GB2567147A (en) * 2017-09-28 2019-04-10 Int Consolidated Airlines Group Machine learning query handling system
US10935982B2 (en) * 2017-10-04 2021-03-02 Huawei Technologies Co., Ltd. Method of selection of an action for an object using a neural network
JP6431231B1 (ja) * 2017-12-24 2018-11-28 オリンパス株式会社 撮像システム、学習装置、および撮像装置
US10728091B2 (en) * 2018-04-04 2020-07-28 EMC IP Holding Company LLC Topology-aware provisioning of hardware accelerator resources in a distributed environment
US11373115B2 (en) * 2018-04-09 2022-06-28 Here Global B.V. Asynchronous parameter aggregation for machine learning
US10698766B2 (en) * 2018-04-18 2020-06-30 EMC IP Holding Company LLC Optimization of checkpoint operations for deep learning computing
JP6802213B2 (ja) * 2018-04-26 2020-12-16 ファナック株式会社 工具選定装置及び機械学習装置
KR20190126662A (ko) * 2018-05-02 2019-11-12 삼성전자주식회사 특정 공간에 위치한 전자 장치를 구분하기 위한 서버 및 그의 제어 방법
US11363087B2 (en) * 2018-05-24 2022-06-14 Disney Enterprises, Inc. Leveraging microservices to orchestrate media workflows in the cloud
US10564881B2 (en) * 2018-05-31 2020-02-18 International Business Machines Corporation Data management in a multitier storage system
US20190294999A1 (en) * 2018-06-16 2019-09-26 Moshe Guttmann Selecting hyper parameters for machine learning algorithms based on past training results
US11593634B2 (en) * 2018-06-19 2023-02-28 Adobe Inc. Asynchronously training machine learning models across client devices for adaptive intelligence
US10810069B2 (en) * 2018-07-17 2020-10-20 Accenture Global Solutions Limited Data processing for component failure determination
US10943681B2 (en) * 2018-11-21 2021-03-09 Enlitic, Inc. Global multi-label generating system
US20200167658A1 (en) * 2018-11-24 2020-05-28 Jessica Du System of Portable Real Time Neurofeedback Training
US12008439B2 (en) * 2018-11-30 2024-06-11 Jpmorgan Chase Bank, N.A. Methods for sharing machine learning based web service models
US10776164B2 (en) * 2018-11-30 2020-09-15 EMC IP Holding Company LLC Dynamic composition of data pipeline in accelerator-as-a-service computing environment
US11665184B2 (en) * 2019-01-17 2023-05-30 International Business Machines Corporation Detecting and mitigating risk in a transport network
US11109083B2 (en) * 2019-01-25 2021-08-31 Adobe Inc. Utilizing a deep generative model with task embedding for personalized targeting of digital content through multiple channels across client devices
KR102305850B1 (ko) * 2019-08-30 2021-09-28 엘지전자 주식회사 차량 내에서 인공 지능 기반의 음성 분리 방법 및 장치
US12045290B2 (en) * 2020-02-27 2024-07-23 International Business Machines Corporation Recommending template of business analytics applications based on user's dataset
JP7487502B2 (ja) * 2020-03-13 2024-05-21 オムロン株式会社 学習用データ生成装置、学習装置、制御装置、学習用データ生成方法、学習方法、制御方法、学習用データ生成プログラム、学習プログラム、及び制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213480A (ja) 2006-02-13 2007-08-23 Yokohama National Univ 進化型画像自動分類装置、フィルタ構造生成方法、及びプログラム
JP2011191252A (ja) 2010-03-16 2011-09-29 Nippon Steel Engineering Co Ltd 金属の表面品質評価方法および金属の表面品質評価装置
US20120284213A1 (en) * 2011-05-04 2012-11-08 Google Inc. Predictive Analytical Modeling Data Selection
JP2015038709A (ja) * 2013-08-19 2015-02-26 日本電信電話株式会社 モデルパラメータ推定方法、装置、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SATOSHI HARASHIMA: "Chumoku no Deep Learning ga Tameseru Cloud API & Tokei Library", INTERFACE, vol. 42, no. 7, 1 July 2016 (2016-07-01), pages 70 - 76, XP009516290, ISSN: 0387-9569 *
See also references of EP3605405A4

Cited By (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11080610B2 (en) * 2017-09-29 2021-08-03 Fanuc Corporation Numerical control system that detects an abnormality in an operation state
US20200076893A1 (en) * 2018-08-31 2020-03-05 Industrial Technology Research Institute Storage device and storage method
JP2020067762A (ja) * 2018-10-23 2020-04-30 トヨタ自動車株式会社 制御支援装置、機器制御装置、制御支援方法、制御支援プログラム、コンピュータを機能させるための学習済みモデル、および学習済みモデルの生成方法
WO2020090251A1 (ja) * 2018-10-30 2020-05-07 日本電気株式会社 物体認識装置、物体認識方法および物体認識プログラム
US11586856B2 (en) 2018-10-30 2023-02-21 Nec Corporation Object recognition device, object recognition method, and object recognition program
JP6759488B1 (ja) * 2018-11-22 2020-09-23 株式会社ウフル エッジデバイス機械学習モデル切替システム、エッジデバイス機械学習モデル切替方法、プログラム、及びエッジデバイス
WO2020105161A1 (ja) * 2018-11-22 2020-05-28 株式会社ウフル エッジデバイス機械学習モデル切替システム、エッジデバイス機械学習モデル切替方法、プログラム、及びエッジデバイス
JP2020101899A (ja) * 2018-12-20 2020-07-02 積水化学工業株式会社 コンピュータプログラム、学習モデル、推定装置、収容器及びサーバ装置
JPWO2020148959A1 (ja) * 2019-01-15 2021-12-02 ソニーグループ株式会社 サーバおよび学習システム
JP7409326B2 (ja) 2019-01-15 2024-01-09 ソニーグループ株式会社 サーバおよび学習システム
WO2020148959A1 (ja) * 2019-01-15 2020-07-23 ソニー株式会社 サーバおよび学習システム
JP2020119015A (ja) * 2019-01-18 2020-08-06 キヤノン株式会社 システム、方法、及びプログラム
JP7337504B2 (ja) 2019-01-18 2023-09-04 キヤノン株式会社 システム、方法、及びプログラム
WO2020153038A1 (ja) * 2019-01-22 2020-07-30 ソニー株式会社 情報処理装置、および情報処理方法
JP7363823B2 (ja) 2019-01-22 2023-10-18 ソニーグループ株式会社 情報処理装置、および情報処理方法
JPWO2020153038A1 (ja) * 2019-01-22 2021-12-02 ソニーグループ株式会社 情報処理装置、および情報処理方法
US12138794B2 (en) 2019-01-22 2024-11-12 Sony Group Corporation Information processing apparatus and information processing method
JP2022033153A (ja) * 2019-02-01 2022-02-28 株式会社コンピュータマインド 情報処理装置
JP2020154785A (ja) * 2019-03-20 2020-09-24 富士通株式会社 予測方法、予測プログラムおよびモデル学習方法
JP7279445B2 (ja) 2019-03-20 2023-05-23 富士通株式会社 予測方法、予測プログラムおよび情報処理装置
WO2020217762A1 (ja) * 2019-04-25 2020-10-29 ソニー株式会社 通信装置、通信方法、及び通信プログラム
JP7213760B2 (ja) 2019-06-10 2023-01-27 大阪瓦斯株式会社 ガス検知装置
JP2020201116A (ja) * 2019-06-10 2020-12-17 大阪瓦斯株式会社 ガス検知装置
WO2021006404A1 (ko) * 2019-07-11 2021-01-14 엘지전자 주식회사 인공지능 서버
US11605379B2 (en) 2019-07-11 2023-03-14 Lg Electronics Inc. Artificial intelligence server
CN114144796A (zh) * 2019-07-22 2022-03-04 株式会社安川电机 扩展模块、工业设备和估计方法
JP7231511B2 (ja) 2019-07-29 2023-03-01 株式会社日立製作所 管理装置、管理方法、および管理プログラム
JP2021022231A (ja) * 2019-07-29 2021-02-18 株式会社日立製作所 管理装置、管理方法、および管理プログラム
WO2021038759A1 (ja) * 2019-08-28 2021-03-04 富士通株式会社 モデル選択方法、モデル選択プログラムおよび情報処理装置
JP2021043772A (ja) * 2019-09-12 2021-03-18 株式会社東芝 提供装置、提供方法及びプログラム
JP7051772B2 (ja) 2019-09-12 2022-04-11 株式会社東芝 提供装置、提供方法及びプログラム
US11436490B2 (en) 2019-09-12 2022-09-06 Kabushiki Kaisha Toshiba Providing apparatus, providing method, and computer program product
US12444181B2 (en) 2019-10-31 2025-10-14 Samsung Electronics Co., Ltd. Electronic apparatus for applying personalized artificial intelligence model to another model
JP7392394B2 (ja) 2019-10-31 2023-12-06 株式会社富士通ゼネラル 空気調和システム及び空気調和機
JP2021071932A (ja) * 2019-10-31 2021-05-06 横河電機株式会社 装置、方法およびプログラム
US12117784B2 (en) 2019-10-31 2024-10-15 Yokogawa Electric Corporation Apparatus, method and storage medium
JP7181849B2 (ja) 2019-10-31 2022-12-01 横河電機株式会社 装置、方法およびプログラム
JP2021071243A (ja) * 2019-10-31 2021-05-06 株式会社富士通ゼネラル 空気調和システム及び空気調和機
WO2021095693A1 (ja) * 2019-11-14 2021-05-20 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2021081793A (ja) * 2019-11-14 2021-05-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
EP4060607A4 (en) * 2019-11-14 2023-08-23 Canon Kabushiki Kaisha INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
CN114730394A (zh) * 2019-11-14 2022-07-08 佳能株式会社 信息处理装置、信息处理方法和程序
JP7493323B2 (ja) 2019-11-14 2024-05-31 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
US11914688B2 (en) 2019-12-09 2024-02-27 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device for identifying transition suitability of a neural network model included in an external device
US12321427B2 (en) 2019-12-09 2025-06-03 Samsung Electronics Co., Ltd. Electronic device and controlling method for installing neural network models suitable for hardware of the electronic device
JP2021125884A (ja) * 2020-01-31 2021-08-30 パナソニックIpマネジメント株式会社 電気装置、機器管理システム、機器管理方法及びプログラム
JP7535755B2 (ja) 2020-01-31 2024-08-19 パナソニックIpマネジメント株式会社 電気装置、機器管理システム、機器管理方法及びプログラム
US12388294B2 (en) 2020-01-31 2025-08-12 Panasonic Intellectual Property Management Co., Ltd. Appliance management method, program, power distribution equipment, and appliance management system
JPWO2021199227A1 (ja) * 2020-03-31 2021-10-07
JP7354421B2 (ja) 2020-03-31 2023-10-02 株式会社日立ハイテク エラー要因の推定装置及び推定方法
WO2021199227A1 (ja) * 2020-03-31 2021-10-07 株式会社日立ハイテク エラー要因の推定装置及び推定方法
US11754985B2 (en) 2020-04-20 2023-09-12 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method and computer program product
JP2022043134A (ja) * 2020-04-27 2022-03-15 株式会社リョーワ 良否判定システム、良否判定方法、サーバ及びプログラム
JP2023524134A (ja) * 2020-05-08 2023-06-08 ゼイリエント 分散型データ分析のためのシステムおよび方法
JP2023176023A (ja) * 2020-05-08 2023-12-12 ゼイリエント 分散型データ分析のためのシステムおよび方法
JP7701379B2 (ja) 2020-05-08 2025-07-01 ゼイリエント 分散型データ分析のためのシステムおよび方法
JP2021193280A (ja) * 2020-06-08 2021-12-23 トヨタ自動車株式会社 車両、及びサーバ
WO2021260910A1 (ja) * 2020-06-26 2021-12-30 三菱電機株式会社 Ai統合システム、ai統合装置及びai統合プログラム
JPWO2021260910A1 (ja) * 2020-06-26 2021-12-30
JP7414995B2 (ja) 2020-06-26 2024-01-16 三菱電機株式会社 Ai統合システム、ai統合装置及びai統合プログラム
WO2022009543A1 (ja) 2020-07-10 2022-01-13 パナソニックIpマネジメント株式会社 情報処理方法、および情報処理システム
CN114063597A (zh) * 2020-08-07 2022-02-18 丰田自动车株式会社 服务器、车辆的控制装置以及车辆的机器学习系统
CN114063597B (zh) * 2020-08-07 2024-05-24 丰田自动车株式会社 服务器、车辆的控制装置以及车辆的机器学习系统
JP2021018825A (ja) * 2020-08-07 2021-02-15 株式会社安川電機 拡張モジュール、産業用機器、及び産業用機器のパラメータ又は前記産業用機器により制御される機器の内部状態の推定方法。
JP7074166B2 (ja) 2020-08-07 2022-05-24 トヨタ自動車株式会社 サーバ、車両の制御装置、および車両の機械学習システム
JP7226411B2 (ja) 2020-08-07 2023-02-21 株式会社安川電機 拡張モジュール、産業用機器、及び産業用機器のパラメータ又は前記産業用機器により制御される機器の内部状態の推定方法
JP2022030663A (ja) * 2020-08-07 2022-02-18 トヨタ自動車株式会社 サーバ、車両の制御装置、および車両の機械学習システム
WO2022038674A1 (ja) * 2020-08-18 2022-02-24 日本電信電話株式会社 デバイス制御装置、デバイス制御プログラム、環境分類装置、および、アクチュエータ制御装置
JP7396502B2 (ja) 2020-08-18 2023-12-12 日本電信電話株式会社 デバイス制御装置、デバイス制御プログラム、環境分類装置、および、アクチュエータ制御装置
JPWO2022038674A1 (ja) * 2020-08-18 2022-02-24
WO2022080000A1 (ja) * 2020-10-13 2022-04-21 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに学習システム
KR20230101855A (ko) 2020-11-10 2023-07-06 도쿄엘렉트론가부시키가이샤 모델 관리 시스템, 모델 관리 방법 및 모델 관리 프로그램
JP2022148878A (ja) * 2021-03-24 2022-10-06 株式会社Novera プログラム、情報処理装置、及び方法
JPWO2023276097A1 (ja) * 2021-07-01 2023-01-05
WO2023276097A1 (ja) * 2021-07-01 2023-01-05 三菱電機株式会社 転移学習装置および転移学習方法
DE112021007624T5 (de) 2021-07-01 2024-02-29 Mitsubishi Electric Corporation Transfer-lernvorrichtung und transfer-lernverfahren
DE112021007624B4 (de) 2021-07-01 2025-03-27 Mitsubishi Electric Corporation Transfer-lernvorrichtung und transfer-lernverfahren
KR20240005975A (ko) 2021-07-01 2024-01-12 미쓰비시덴키 가부시키가이샤 전이 학습 장치 및 전이 학습 방법
JP7325697B2 (ja) 2021-07-01 2023-08-14 三菱電機株式会社 転移学習装置および転移学習方法
KR20240058131A (ko) 2021-08-31 2024-05-03 도쿄엘렉트론가부시키가이샤 정보 처리 방법, 정보 처리 장치, 및 정보 처리 시스템
KR20240049620A (ko) 2021-08-31 2024-04-16 도쿄엘렉트론가부시키가이샤 정보 처리 방법, 정보 처리 장치, 및 기판 처리 시스템
JP2024006959A (ja) * 2022-06-30 2024-01-17 菱洋エレクトロ株式会社 機械学習を利用したシステム、端末、サーバ、方法、及び、プログラム
JP7398587B1 (ja) 2022-06-30 2023-12-14 菱洋エレクトロ株式会社 機械学習を利用したシステム、端末、サーバ、方法、及び、プログラム

Also Published As

Publication number Publication date
US11375019B2 (en) 2022-06-28
JPWO2018173121A1 (ja) 2019-12-12
JP6720402B2 (ja) 2020-07-08
US20240129368A1 (en) 2024-04-18
US20220286512A1 (en) 2022-09-08
EP3605405A4 (en) 2020-12-02
EP3605405A1 (en) 2020-02-05
US20200014761A1 (en) 2020-01-09
CN110431569A (zh) 2019-11-08

Similar Documents

Publication Publication Date Title
WO2018173121A1 (ja) サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
JP6986597B2 (ja) サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
CN113826051B (zh) 生成实体系统零件之间的交互的数字孪生
US11475289B2 (en) Learning device unit
US20250110497A1 (en) Integrated platform and common software structural architecture for autonomous agricultural vehicle and machinery operation
US11580453B2 (en) Adaptive co-distillation model
US20220019866A1 (en) Controlling robots using entropy constraints
US20210166181A1 (en) Equipment management method, device, system and storage medium
US20060075066A1 (en) Directory structure in distributed data driven architecture environment
Jegorowa et al. Deep learning methods for drill wear classification based on images of holes drilled in melamine faced chipboard
US20230324891A1 (en) Method and system for autonomous production device modeling for job planning in a production environment
WO2018154360A1 (ja) 学習データを生成するための処理方法、システム、プログラムおよび記憶媒体、並びに学習データを生成する方法およびシステム
JP7280935B2 (ja) サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
US20230075551A1 (en) Data transmission using data prioritization
US20220066425A1 (en) Method and system for controlling a process in a process plant
US20230135737A1 (en) Model adjustment method, model adjustment system and non- transitory computer readable medium
CN113383328A (zh) 一种用于高效处理汇集数据的云平台和方法
Vidal-Soroa et al. An approach to 3d object detection in real-time for cognitive robotics experiments
JP7005463B2 (ja) 学習装置、学習方法及びプログラム
CN118194908A (zh) 通信需求较低的用于神经网络的联邦训练
JP2023165932A (ja) データ処理システム、データ処理方法、処理装置、およびプログラム
US20190370722A1 (en) System and methods for operator profiling for improving operator proficiency and safety
JP6707215B1 (ja) エンジニアリングツール、学習装置、およびデータ収集システム
EP3958506A1 (en) Method, device, and system for configuring parameters, computer device, medium, and product
CN113747400A (zh) 车对车通讯传输优化方法、装置、设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17901932

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019506582

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017901932

Country of ref document: EP

Effective date: 20191021