[go: up one dir, main page]

JP2024052421A - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP2024052421A
JP2024052421A JP2022159123A JP2022159123A JP2024052421A JP 2024052421 A JP2024052421 A JP 2024052421A JP 2022159123 A JP2022159123 A JP 2022159123A JP 2022159123 A JP2022159123 A JP 2022159123A JP 2024052421 A JP2024052421 A JP 2024052421A
Authority
JP
Japan
Prior art keywords
information
image
evaluator
user
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022159123A
Other languages
Japanese (ja)
Other versions
JP7391165B1 (en
Inventor
良太郎 清水
Ryotaro Shimizu
侑輝 斎藤
Yuki Saito
拓磨 中村
Takuma Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zozo Inc
Original Assignee
Zozo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zozo Inc filed Critical Zozo Inc
Priority to JP2022159123A priority Critical patent/JP7391165B1/en
Application granted granted Critical
Publication of JP7391165B1 publication Critical patent/JP7391165B1/en
Publication of JP2024052421A publication Critical patent/JP2024052421A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To grasp whether clothes suit a wearer.SOLUTION: An information processing device includes a reception unit and a generation unit. The reception unit receives an evaluation for an image of a wearer wearing clothes and indicating whether the clothes suit the wearer from a plurality of evaluators. The generation unit generates a distributed representation space on which the image and evaluator information (for example, attribute information of the evaluator and an answer for a prescribed questionnaire, etc.) have been projected on the basis of the evaluation received by the reception unit.SELECTED DRAWING: Figure 5

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

従来、入力された情報の分散表現を生成し、生成した分散表現同士の比較結果に基づいて、情報の関係性を判定する技術が知られている。このような技術の一例として、商品が備える特徴を表わす商品情報と、単語間の関係性を表す単語情報と、ユーザの嗜好に応じて行動の対象になった商品を表わす学習データとに基づいて、マップ空間上の位置を表わす隠れ特徴ベクトルを、ユーザおよび商品のそれぞれについて推定する技術が提供されている。 Conventionally, there is known a technique for generating distributed representations of input information and determining the relationship between information based on the results of comparing the generated distributed representations. One example of such a technique is a technique for estimating hidden feature vectors representing positions in map space for each user and product, based on product information representing the characteristics of the product, word information representing the relationships between words, and learning data representing products that have been the subject of actions based on the user's preferences.

国際公開第2021/044460号International Publication No. 2021/044460

しかしながら、上述した技術では、被服が着用者に似合っているかを把握することができるとは限らない。 However, the above-mentioned technology does not necessarily allow for a determination of whether clothing suits the wearer.

例えば、上述した技術では、ユーザの隠れ特徴ベクトルと商品の隠れ特徴ベクトルとの距離が、当該商品に対するユーザの嗜好を反映した距離となるように隠れ特徴ベクトルを推定しているに過ぎず、被服が着用者に似合っているかを把握することができるとは限らない。 For example, the above-mentioned technology merely estimates the hidden feature vector so that the distance between the user's hidden feature vector and the product's hidden feature vector reflects the user's preferences for that product, and does not necessarily make it possible to determine whether the clothing suits the wearer.

本願は、上記に鑑みてなされたものであって、被服が着用者に似合っているかを把握することを目的とする。 This application was made in light of the above, and aims to determine whether clothing suits the wearer.

本願に係る情報処理装置は、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける受付部と、前記受付部により受け付けられた評価に基づいて、前記画像と、前記評価者を示す評価者情報とを投影した分散表現空間を生成する生成部とを有することを特徴とする。 The information processing device according to the present application is characterized by having a reception unit that receives evaluations from a plurality of evaluators of an image of a wearer wearing clothing, the evaluations indicating whether the clothing suits the wearer, and a generation unit that generates a distributed representation space into which the image and evaluator information indicating the evaluators are projected based on the evaluations received by the reception unit.

実施形態の一態様によれば、被服が着用者に似合っているかを把握することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to determine whether the clothing suits the wearer.

図1は、実施形態に係る情報処理システム1の構成例を示す図である。FIG. 1 is a diagram showing an example of the configuration of an information processing system 1 according to an embodiment. 図2は、実施形態に係る情報処理の一例を示す図(1)である。FIG. 2 is a diagram (1) showing an example of information processing according to the embodiment. 図3は、実施形態に係る分散表現空間の一例を示す図である。FIG. 3 is a diagram illustrating an example of a distributed representation space according to the embodiment. 図4は、実施形態に係る情報処理の一例を示す図(2)である。FIG. 4 is a diagram (2) showing an example of information processing according to the embodiment. 図5は、実施形態に係る情報処理装置10の構成例を示す図である。FIG. 5 is a diagram illustrating an example of the configuration of the information processing device 10 according to the embodiment. 図6は、実施形態に係る評価者情報データベース31の一例を示す図である。FIG. 6 is a diagram showing an example of the evaluator information database 31 according to the embodiment. 図7は、実施形態に係る利用者情報データベース32の一例を示す図である。FIG. 7 is a diagram showing an example of the user information database 32 according to the embodiment. 図8は、利用者端末100の画面の一例を示す図(1)である。FIG. 8 is a diagram (1) showing an example of a screen of the user terminal 100. 図9は、利用者端末100の画面の一例を示す図(2)である。FIG. 9 is a diagram (2) showing an example of a screen of the user terminal 100. 図10は、実施形態に係る情報処理の手順の一例を示すフローチャート(1)である。FIG. 10 is a flowchart (1) showing an example of a procedure of information processing according to the embodiment. 図11は、実施形態に係る情報処理の手順の一例を示すフローチャート(2)である。FIG. 11 is a flowchart (2) showing an example of the procedure of information processing according to the embodiment. 図12は、実施形態に係る情報処理の手順の一例を示すフローチャート(3)である。FIG. 12 is a flowchart (3) showing an example of the procedure of information processing according to the embodiment. 図13は、情報処理装置10の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 13 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device 10.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, the information processing device, information processing method, and information processing program according to the present application will be described in detail with reference to the drawings. Note that the information processing device, information processing method, and information processing program according to the present application are not limited to these embodiments. In addition, the same parts in the following embodiments will be denoted by the same reference numerals, and duplicated descriptions will be omitted.

(実施形態)
〔1.情報処理システムの構成〕
まず、実施形態に係る情報処理システム1について説明する。図1は、実施形態に係る情報処理システム1の構成例を示す図である。図1に示すように、情報処理システム1は、情報処理装置10と、利用者端末100と、評価者端末200とが含まれる。情報処理装置10と、利用者端末100と、評価者端末200とは所定の通信網(ネットワークN)を介して、有線または無線により通信可能に接続される。なお、図1に示した情報処理システム1には、複数台の情報処理装置10、複数台の利用者端末100及び複数台の評価者端末200が含まれてもよい。
(Embodiment)
1. Configuration of the information processing system
First, an information processing system 1 according to an embodiment will be described. Fig. 1 is a diagram showing an example of the configuration of the information processing system 1 according to an embodiment. As shown in Fig. 1, the information processing system 1 includes an information processing device 10, a user terminal 100, and an evaluator terminal 200. The information processing device 10, the user terminal 100, and the evaluator terminal 200 are connected to each other via a predetermined communication network (network N) so as to be able to communicate with each other by wire or wirelessly. Note that the information processing system 1 shown in Fig. 1 may include a plurality of information processing devices 10, a plurality of user terminals 100, and a plurality of evaluator terminals 200.

情報処理装置10は、複数の被服(ファッションアイテムともいい、履物(シューズともいう)や帽子(キャップやハットなど)、装身具(アクセサリともいう)なども含む)の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者(アノテーター)から受け付け、受け付けられた評価に基づいて、当該画像と、前記評価者を示す評価者情報とを投影した分散表現空間を生成し、生成した分散表現空間を用いた情報処理を実現する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。 The information processing device 10 is an information processing device that evaluates an image of a wearer wearing a combination of multiple clothes (also called fashion items, including footwear (also called shoes), headwear (such as caps and hats), and ornaments (also called accessories)), receives evaluations from multiple evaluators (annotators) indicating whether the combination suits the wearer, generates a distributed representation space into which the image and evaluator information indicating the evaluators are projected based on the received evaluations, and realizes information processing using the generated distributed representation space, and is realized, for example, by a server device, a cloud system, etc.

また、例えば、情報処理装置10は、被服を提供(検索、販売等)する電子商取引サービスを提供する。また、情報処理装置10は、被服のコーディネートを示すコンテンツ(画像、動画、記事等)の投稿を利用者から受け付け、他の利用者に提供(検索、配信等)するコーディネートサービスを提供する。 For example, the information processing device 10 provides an electronic commerce service that provides (searches, sells, etc.) clothing. The information processing device 10 also provides a coordination service that accepts submissions of content (images, videos, articles, etc.) showing clothing coordination from users and provides (searches, distributes, etc.) to other users.

なお、情報処理装置10は、サービスに係るウェブサイトを提供するウェブサーバとしての機能を有していてもよい。また、情報処理装置10は、利用者端末100にインストールされた各種サービスに関するアプリケーションに表示する情報を、情報処理装置10に配信する装置であってもよい。また、情報処理装置10は、アプリケーションのデータそのものを配信する装置であってもよい。 The information processing device 10 may have a function as a web server that provides a website related to the service. The information processing device 10 may also be a device that distributes information to be displayed in applications related to various services installed in the user terminal 100 to the information processing device 10. The information processing device 10 may also be a device that distributes the application data itself.

また、情報処理装置10は、利用者端末100に制御情報を配信する配信装置として機能してもよい。ここで、制御情報は、例えば、JavaScript(登録商標)等のスクリプト言語やCSS(Cascading Style Sheets)等のスタイルシート言語により記述される。なお、情報処理装置10から配信されるアプリケーションそのものを制御情報とみなしてもよい。 The information processing device 10 may also function as a distribution device that distributes control information to the user terminal 100. Here, the control information is described, for example, in a script language such as JavaScript (registered trademark) or a style sheet language such as CSS (Cascading Style Sheets). Note that the application itself distributed from the information processing device 10 may be regarded as control information.

利用者端末100は、利用者によって利用される情報処理装置である。利用者端末100は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。また、利用者端末100は、情報処理装置10や、所定のサービスを提供するサーバ装置などによって配信される情報を、ウェブブラウザやアプリケーションにより表示する。なお、図2に示す例では、利用者端末100がスマートフォンである場合を示す。 The user terminal 100 is an information processing device used by a user. The user terminal 100 is realized, for example, by a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. The user terminal 100 also displays information distributed by the information processing device 10 or a server device that provides a specified service, using a web browser or an application. Note that the example shown in FIG. 2 shows a case where the user terminal 100 is a smartphone.

評価者端末200は、複数の被服の組み合わせを着用した着用者の画像に対する評価を行う評価者によって利用される情報処理装置である。評価者端末200は、例えば、スマートフォンや、タブレット型端末や、ノート型PCや、デスクトップPCや、携帯電話機や、PDA等により実現される。また、評価者端末200は、情報処理装置10や、所定のサービスを提供するサーバ装置などによって配信される情報を、ウェブブラウザやアプリケーションにより表示する。なお、図2に示す例では、評価者端末200がスマートフォンである場合を示す。 The evaluator terminal 200 is an information processing device used by an evaluator who evaluates images of a wearer wearing a combination of multiple clothes. The evaluator terminal 200 is realized, for example, by a smartphone, a tablet terminal, a notebook PC, a desktop PC, a mobile phone, a PDA, or the like. The evaluator terminal 200 also displays information distributed by the information processing device 10 or a server device that provides a specified service, using a web browser or an application. Note that the example shown in FIG. 2 shows a case where the evaluator terminal 200 is a smartphone.

〔2.情報処理の一例〕
次に、図2~4を用いて、本実施形態に係る情報処理装置等により実現される情報処理の一例について説明する。
2. An example of information processing
Next, an example of information processing implemented by the information processing device according to the present embodiment will be described with reference to FIGS.

〔2-1.第1の情報処理について〕
以下、図2を用いて、本実施形態に係る情報処理装置等により実現される第1の情報処理について説明する。図2は、実施形態に係る情報処理の一例を示す図(1)である。なお、以下の説明では、利用者端末100が、利用者ID「UID#1」により識別される利用者(利用者U1)により利用されるものとする。また、以下の説明では、利用者端末100を利用者U1と同一視する場合がある。すなわち、以下では、利用者U1を利用者端末100と読み替えることもできる。
[2-1. Regarding the first information processing]
The first information processing realized by the information processing device etc. according to this embodiment will be described below with reference to FIG. 2. FIG. 2 is a diagram (1) showing an example of information processing according to this embodiment. In the following description, it is assumed that the user terminal 100 is used by a user (user U1) identified by a user ID "UID#1". In addition, in the following description, the user terminal 100 may be regarded as the same as user U1. In other words, in the following, user U1 may also be read as user terminal 100.

また、以下の説明では、評価者端末200を利用する評価者に応じて、評価者端末200-1~200-N(Nは任意の自然数)として説明する。例えば、評価者端末200-1は、評価者ID「AID#1」により識別される評価者(評価者A1)により使用される評価者端末200である。また、以下では、評価者端末200-1~200-Nについて、特に区別なく説明する場合には、評価者端末200と記載する。また、以下の説明では、評価者端末200を評価者と同一視する場合がある。すなわち、以下では、評価者を評価者端末200と読み替えることもできる。 In the following description, the evaluator terminals 200 are referred to as evaluator terminals 200-1 to 200-N (N is any natural number) depending on the evaluator using the evaluator terminal 200. For example, the evaluator terminal 200-1 is the evaluator terminal 200 used by the evaluator (evaluator A1) identified by the evaluator ID "AID#1". In the following description, the evaluator terminals 200-1 to 200-N are referred to as evaluator terminals 200 when there is no particular distinction between them. In the following description, the evaluator terminal 200 may be regarded as the same as the evaluator. That is, in the following description, the evaluator may be read as the evaluator terminal 200.

まず、情報処理装置10は、複数の被服の組み合わせ(コーディネート)を着用した着用者の画像に対する評価者の評価を、評価者端末200から受け付ける(ステップSa1)。例えば、情報処理装置10は、着用者のコーディネートが、着用者に似合っているか否かを示す評価を受け付ける。具体的な例を挙げると、情報処理装置10は、画像P1及びP2の組を評価者に提示し、2つの画像を比較して、いずれの画像のコーディネートが着用者に似合っており、いずれの画像のコーディネートが着用者に似合わないかを示す評価を受け付ける。 First, the information processing device 10 receives from the evaluator terminal 200 an evaluator's evaluation of an image of a wearer wearing a combination (outfit) of multiple clothes (step Sa1). For example, the information processing device 10 receives an evaluation indicating whether the wearer's outfit suits the wearer. As a specific example, the information processing device 10 presents a pair of images P1 and P2 to the evaluator, compares the two images, and receives an evaluation indicating which of the images suits the wearer and which of the images does not suit the wearer.

より具体的な例を挙げると、情報処理装置10は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているという評価、並びに、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合わないという評価(すなわち、画像P1に対する「似合う」という評価と、画像P2に対する「似合わない」という評価)を、評価者A1から受け付ける。なお、どちらの例においても似合っている場合に、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているという評価と、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合っているという評価とを比較したうえで、どちらの評価が相対的に高いか・低いかを判断してもよいし、反対にどちらの例においても似合わなかった場合に、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合わないという評価と、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合わないという評価とを比較したうえで、どちらの評価が相対的に高いか・低いかを判断してもよいものとする。以降の例では相対的に似合うと判断された場合を含めて単に似合うと表記し、同様に相対的に似合わないと判断された場合を含めて単に似合わないと表記する。また、情報処理装置10は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合わないという評価、並びに、画像P2が示すコーディネート#2が、画像P2が示す着用者#2に似合っているという評価(すなわち、画像P1に対する「似合わない」という評価と、画像P2に対する「似合う」という評価)を、評価者A2から受け付ける。同様に、情報処理装置10は、他の評価者からも、画像P1及びP2の組に関する評価を受け付ける。また、情報処理装置10は、画像P3及びP4の組、画像P5及びP6の組、画像P1及びP3の組、画像P2及びP4の組、・・・といった他の組に関する評価を評価者から受け付ける。 To give a more specific example, the information processing device 10 receives from evaluator A1 an evaluation that outfit #1 shown in image P1 suits wearer #1 shown in image P1, and an evaluation that outfit #2 shown in image P2 does not suit wearer #2 shown in image P2 (i.e., an evaluation that "suits" image P1 and an evaluation that "does not suit" image P2). In addition, when both examples are good, the evaluation that the coordination #1 shown in the image P1 suits the wearer #1 shown in the image P1 and the evaluation that the coordination #2 shown in the image P2 suits the wearer #2 shown in the image P2 may be compared to determine which evaluation is relatively higher or lower, or conversely, when neither example is good, the evaluation that the coordination #1 shown in the image P1 does not suit the wearer #1 shown in the image P1 and the evaluation that the coordination #2 shown in the image P2 does not suit the wearer #2 shown in the image P2 may be compared to determine which evaluation is relatively higher or lower. In the following examples, the case where it is judged to be good relatively will be simply referred to as good, and the case where it is judged to be bad relatively will be simply referred to as bad. The information processing device 10 also receives from evaluator A2 an evaluation that outfit #1 shown in image P1 does not suit wearer #1 shown in image P1, and an evaluation that outfit #2 shown in image P2 suits wearer #2 shown in image P2 (i.e., an evaluation that "does not suit" image P1 and an evaluation that "suits" image P2). Similarly, the information processing device 10 also receives evaluations of the pair of images P1 and P2 from other evaluators. The information processing device 10 also receives evaluations of other pairs, such as the pair of images P3 and P4, the pair of images P5 and P6, the pair of images P1 and P3, the pair of images P2 and P4, and so on, from evaluators.

続いて、情報処理装置10は、画像に対する評価者の評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する(ステップSa2)。例えば、情報処理装置10は、VSE(Visual-Semantic Embedding)の技術を用いて、分散表現空間を生成する。具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1を投影した分散表現空間F1を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2を投影した分散表現空間F1を生成する。 Then, the information processing device 10 generates a distributed representation space in which the image and the evaluator information indicating the evaluator are projected based on the evaluator's evaluation of the image (step Sa2). For example, the information processing device 10 generates the distributed representation space using a technique of VSE (Visual-Semantic Embedding). As a specific example, the information processing device 10 generates a distributed representation space F1 in which the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". In addition, the information processing device 10 generates a distributed representation space F1 in which the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than to the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

なお、情報処理装置10は、画像に関する各種の情報や、評価者に関する各種の情報を示す評価者情報を投影した分散表現空間を生成してもよい。ここで、図3を用いて、情報処理装置10が生成する分散表現空間の例について説明する。図3は、実施形態に係る分散表現空間の一例を示す図である。 The information processing device 10 may generate a distributed representation space in which various information related to the image and evaluator information indicating various information related to the evaluator are projected. Here, an example of a distributed representation space generated by the information processing device 10 will be described with reference to FIG. 3. FIG. 3 is a diagram showing an example of a distributed representation space according to an embodiment.

例えば、画像が示すコーディネートに含まれる被服(アイテム)は、評価者が似合うと感じるか否かに寄与していることが推定される。したがって、情報処理装置10は、画像が示すコーディネートに含まれる被服の画像をさらに投影した分散表現空間F2を生成する。具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服I1の画像を投影した分散表現空間F2を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服I2の画像を投影した分散表現空間F2を生成する。 For example, it is estimated that the clothes (items) included in the outfit shown in the image contribute to whether the evaluator feels that the outfit suits the user. Therefore, the information processing device 10 generates a distributed representation space F2 onto which an image of the clothes included in the outfit shown in the image is further projected. As a specific example, the information processing device 10 generates a distributed representation space F2 onto which an image of the clothes I1 included in the outfit shown in the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". The information processing device 10 also generates a distributed representation space F2 onto which an image of the clothes I2 included in the outfit shown in the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than to the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

また、例えば、情報処理装置10は、画像が示すコーディネートに紐付けられた情報をさらに投影した分散表現空間F3を生成する。具体的な例を挙げると、情報処理装置10は、コーディネートの用途や、着用するシチュエーションなどを示すカテゴリをさらに投影した分散表現空間F3を生成する。より具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートのカテゴリT1(カジュアル)を投影した分散表現空間F3を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2のカテゴリT2(デート)を投影した分散表現空間F3を生成する。なお、情報処理装置10は、画像が示すコーディネートに含まれる被服の画像をさらに投影した散表現空間を生成する場合、当該被服に紐付けられた情報をさらに投影した分散表現空間を生成してもよい。 For example, the information processing device 10 generates a distributed representation space F3 in which information linked to the coordination shown by the image is further projected. As a specific example, the information processing device 10 generates a distributed representation space F3 in which a category indicating the purpose of the coordination, the situation in which it is worn, and the like is further projected. As a more specific example, the information processing device 10 generates a distributed representation space F3 in which the category T1 (casual) of the coordination shown by the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". In addition, the information processing device 10 generates a distributed representation space F3 in which the category T2 (date) of the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable". When the information processing device 10 generates a distributed representation space onto which an image of clothing included in the coordinated outfit shown in the image is further projected, the information processing device 10 may generate a distributed representation space onto which information associated with the clothing is further projected.

また、例えば、情報処理装置10は、評価者の属性情報を示す評価者情報を投影した分散表現空間F4を生成する。ここで、評価者A1の属性情報が「20代後半、東京在住」であり、評価者A2の属性情報が「20代前半、大阪在住」であるものとする。このような場合、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2の属性情報よりも、画像P1を「似合う」と評価した評価者A1の属性情報(例えば、属性情報B1(20代後半、東京在住)、属性情報B2(20代後半)及び属性情報B3(東京在住))の近くに、画像P1を投影した分散表現空間F4を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1の属性情報よりも、画像P2を「似合う」と評価した評価者A2の属性情報(例えば、属性情報B4(20代前半、大阪在住)、属性情報B5(大阪在住)及び属性情報B6(20代前半))の近くに、画像P2を投影した分散表現空間F4を生成する。 Also, for example, the information processing device 10 generates a distributed representation space F4 onto which evaluator information indicating the attribute information of the evaluators is projected. Here, it is assumed that the attribute information of evaluator A1 is "late 20s, living in Tokyo" and the attribute information of evaluator A2 is "early 20s, living in Osaka." In such a case, the information processing device 10 generates a distributed representation space F4 onto which image P1 is projected closer to the attribute information of evaluator A1 who evaluated image P1 as "suitable" (for example, attribute information B1 (late 20s, living in Tokyo), attribute information B2 (late 20s), and attribute information B3 (living in Tokyo)) who evaluated image P1 as "not suitable" than to the attribute information of evaluator A2 who evaluated image P1 as "not suitable." Furthermore, the information processing device 10 generates a distributed representation space F4 in which image P2 is projected closer to the attribute information of evaluator A2, who evaluated image P2 as "suitable" (e.g., attribute information B4 (early 20s, living in Osaka), attribute information B5 (living in Osaka), and attribute information B6 (early 20s)), who evaluated image P2 as "not suitable" than to the attribute information of evaluator A1, who evaluated image P2 as "not suitable."

また、例えば、情報処理装置10は、「ファッションに自信がある?」や、「好きな街は?」といったアンケートに対する評価者の回答を示す評価者情報を投影した分散表現空間F5を生成する。ここで、上記のアンケートに対し、評価者A1が「ファッションに自信がない」、「渋谷が好き」と回答し、評価者A2が「ファッションに自信がある」、「原宿が好き」と回答したものとする。このような場合、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2の回答よりも、画像P1を「似合う」と評価した評価者A1の回答(例えば、回答C1(ファッションに自信がない、渋谷が好き)、回答C2(ファッションに自信がない)及び回答C3(渋谷が好き))の近くに、画像P1を投影した分散表現空間F5を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1の回答よりも、画像P2を「似合う」と評価した評価者A2の回答(例えば、回答C4(ファッションに自信がある、原宿が好き)、回答C5(ファッションに自信がある)及び回答C6(原宿が好き))の近くに、画像P2を投影した分散表現空間F5を生成する。 For example, the information processing device 10 generates a distributed representation space F5 in which evaluator information indicating the evaluator's responses to questionnaires such as "Are you confident in your fashion sense?" and "What is your favorite city?" is projected. Here, it is assumed that evaluator A1 responds to the above questionnaires with "I'm not confident in my fashion sense" and "I like Shibuya," and evaluator A2 responds with "I'm confident in my fashion sense" and "I like Harajuku." In such a case, the information processing device 10 generates a distributed representation space F5 in which image P1 is projected closer to the response of evaluator A1 who evaluated image P1 as "suitable" (for example, response C1 (not confident in my fashion sense, likes Shibuya), response C2 (not confident in my fashion sense), and response C3 (likes Shibuya)) than the response of evaluator A2 who evaluated image P1 as "not suitable." Furthermore, the information processing device 10 generates a distributed representation space F5 in which image P2 is projected closer to the answers of evaluator A2 who evaluated image P2 as "suitable" (e.g., answers C4 (confident in fashion, likes Harajuku), C5 (confident in fashion), and C6 (likes Harajuku)) than to the answers of evaluator A1 who evaluated image P2 as "not suitable."

なお、情報処理装置10が生成する分散表現空間は、上記の例に限定されない。例えば、情報処理装置10は、画像、コーディネートに含まれる被服の画像、コーディネートのカテゴリ、評価者の属性情報、並びに、アンケートに対する評価者の回答を投影した分散表現空間を生成してもよい。 The distributed representation space generated by the information processing device 10 is not limited to the above example. For example, the information processing device 10 may generate a distributed representation space projecting an image, an image of clothing included in the coordination, a coordination category, attribute information of the evaluator, and the evaluator's response to the questionnaire.

また、情報処理装置10が生成する分散表現空間に含まれる情報は、上記のような例に限定されず、任意の情報が投影されてもよい。例えば、情報処理装置10は、被服の提供元(例えば、ブランドや、被服を販売するショップなど)を示す情報を投影した分散表現空間を生成してもよい。具体的な例を挙げると、情報処理装置10は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。また、情報処理装置10は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。また、例えば、情報処理装置10は、着用者の身体的な情報(例えば、骨格や体格に関する特徴量)を投影した分散表現空間を生成してもよく、身体的な特徴量を抽出する際に非特許文献1(ViBE: Dressing for Diverse Body Shapes.Wei-Lin Hsiao,Kristen Grauman,Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 11059-11069.)の方法を用いてもよい。 In addition, the information included in the distributed representation space generated by the information processing device 10 is not limited to the above example, and any information may be projected. For example, the information processing device 10 may generate a distributed representation space in which information indicating the source of the clothes (for example, a brand, a shop selling the clothes, etc.) is projected. As a specific example, the information processing device 10 generates a distributed representation space in which information indicating the source of the clothes included in the coordination shown by the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". In addition, the information processing device 10 generates a distributed representation space in which information indicating the source of the clothes included in the coordination shown by the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable". In addition, for example, the information processing device 10 may generate a distributed representation space in which the wearer's physical information (for example, features related to the skeleton and physique) is projected, and when extracting the physical features, the method of non-patent document 1 (ViBE: Dressing for Diverse Body Shapes. Wei-Lin Hsiao, Kristen Grauman, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 11059-11069.) may be used.

また、例えば、情報処理装置10は、評価者の各種の属性情報(例えば、職業や、身長、体重、居住地、パーソナルカラー、収入、家賃)、評価者のアンケートの項目(例えば、お気に入りの提供元や、ファッションにかける金額、ファッションの参考に見ている媒体(よく読む雑誌、よく利用するWEBサービス等)、夢中になっていること(趣味等)、将来の夢、ファッションの参考にしている人(芸能人、インフルエンサー等)、なりたいイメージ、取り入れたいアイテム、好きな(憧れな)人のSNSに関する情報、体型の悩み、ファッションの悩みなど)に対する回答、画像が示すコーディネートに紐付けられた情報(例えば、アイテムタイプ、提供元、利用シーン、色、季節、着用の目的、売り文句、素材、サイズ、価格帯など)を示す情報などを投影した分散表現空間を生成してもよい。 In addition, for example, the information processing device 10 may generate a distributed representation space projecting information indicating various attribute information of the evaluator (e.g., occupation, height, weight, place of residence, personal color, income, rent), answers to questionnaire items of the evaluator (e.g., favorite providers, amount spent on fashion, media used for fashion inspiration (magazines often read, frequently used web services, etc.), obsessions (hobbies, etc.), dreams for the future, people used as inspiration for fashion (celebrities, influencers, etc.), desired image, items to incorporate, information on SNS of people you like (admire), body image concerns, fashion concerns, etc.), and information linked to the coordination shown in the image (e.g., item type, provider, usage scene, color, season, purpose of wearing, selling point, material, size, price range, etc.).

図2に戻り説明を続ける。続いて、情報処理装置10は、電子商取引サービスや、コーディネートサービスを介した、利用者端末100からのコーディネートの提供要求に応じて、生成した分散表現空間と、利用者U1に関する情報とに基づき、利用者U1に似合うコーディネート(言い換えると、利用者が高く評価すると推定されるコーディネートや、利用者も似合うと評価すると推定されるコーディネート)を推定する(ステップSa3)。ここで、利用者U1の属性情報が、「20代後半」であるものとする。このような場合、情報処理装置10は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定する。 Returning to FIG. 2 for further explanation, the information processing device 10 then responds to a request for coordination from the user terminal 100 via an e-commerce service or a coordination service by estimating a coordination that would suit the user U1 (in other words, a coordination that is estimated to be highly rated by the user or that the user is also estimated to evaluate as looking good) based on the generated distributed representation space and information about the user U1 (step Sa3). Here, it is assumed that the attribute information of user U1 is "late 20s." In such a case, the information processing device 10 estimates that the coordination shown by the image projected within a specified range from the attribute information B2 in the distributed representation space F4 is a coordination that would suit the user U1.

なお、情報処理装置10は、分散表現空間に投影された情報と、利用者U1に関する情報とに基づいて、利用者U1に関する情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、利用者U1に似合うコーディネートを推定してもよい。例えば、利用者U1の属性情報が、「20代後半、大阪在住」である場合、情報処理装置10は、分散表現空間F4において、属性情報B2及びB5の中間の位置が、分散表現空間F4において利用者U1に関する情報を投影した場合の位置であると推定し、当該位置から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定してもよい。 In addition, the information processing device 10 may estimate a position when the information about user U1 is projected into the distributed representation space based on the information projected into the distributed representation space and the information about user U1, and may estimate an outfit that suits user U1 based on the estimated position. For example, if the attribute information of user U1 is "late 20s, living in Osaka", the information processing device 10 may estimate that the midpoint between attribute information B2 and B5 in the distributed representation space F4 is the position when the information about user U1 is projected in the distributed representation space F4, and may estimate that the outfit shown by the image projected within a specified range from that position is the outfit that suits user U1.

ここで、図2の例において、情報処理装置10が、画像P1が示すコーディネート#1、画像P3が示すコーディネート#3、並びに、画像P4が示すコーディネート#4を、利用者U1に似合うコーディネートであると推定したものとする。このような場合、情報処理装置10は、コーディネート#1、#3及び#4に関する情報を利用者端末100に提供する(ステップSa4)。例えば、情報処理装置10は、分散表現空間F4において属性情報B2からより近い画像が示すコーディネートに関する情報ほど、利用者U1に似合う度合いが高いと推定し、優先度を高くして提供する。具体的な例を挙げると、情報処理装置10は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、電子商取引サービスにおいて提供する。また、情報処理装置10は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、コーディネートサービスにおいて提供する。このとき、情報処理装置10は、優先度が高い情報ほど、目立つ位置や、ランキングの上位として表示されるように提供してもよい。 2, it is assumed that the information processing device 10 estimates that the coordination #1 shown in the image P1, the coordination #3 shown in the image P3, and the coordination #4 shown in the image P4 are coordinations that suit the user U1. In such a case, the information processing device 10 provides information on the coordination #1, #3, and #4 to the user terminal 100 (step Sa4). For example, the information processing device 10 estimates that the closer the information on the coordination shown in the image is to the attribute information B2 in the distributed representation space F4, the higher the degree of suitability for the user U1, and provides it with a higher priority. As a specific example, the information processing device 10 provides information on the coordination #1, #3, and #4 and information on the clothes included in the coordination #1, #3, and #4 in the electronic commerce service. The information processing device 10 also provides information on the coordination #1, #3, and #4 and information on the clothes included in the coordination #1, #3, and #4 in the coordination service. At this time, the information processing device 10 may provide information with a higher priority so that it is displayed in a prominent position or at the top of the ranking.

なお、情報処理装置10は、コーディネート#1、#3及び#4のうち、利用者U1に関する情報(属性情報、身体的な情報(身長、体重、体型、骨格、髪型、髪の色、肌の色、瞳の色等)等)や、コーディネートに関連する情報(例えば、現在の季節や、現在の流行)などに対応するコーディネートの情報を提供してもよい。例えば、利用者U1が男性である場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、男性向けのコーディネートの情報を提供する。例えば、利用者U1が男性である場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、着用者が男性であるコーディネートや、コーディネートに含まれる被服が男性向けであるコーディネートの情報を提供してもよい。例えば、現在の季節が秋である場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、秋や冬向けのコーディネートの情報を提供する。 The information processing device 10 may provide information on coordination among the coordinations #1, #3, and #4 that corresponds to information on the user U1 (attribute information, physical information (height, weight, body type, bone structure, hairstyle, hair color, skin color, eye color, etc.)) and information related to the coordination (for example, the current season or current fashion). For example, if the user U1 is male, the information processing device 10 may provide information on coordination for men among the coordinations #1, #3, and #4. For example, if the user U1 is male, the information processing device 10 may provide information on coordination for men among the coordinations #1, #3, and #4 that are worn by men or that include clothing for men. For example, if the current season is autumn, the information processing device 10 provides information on coordination for autumn or winter among the coordinations #1, #3, and #4.

また、情報処理装置10は、利用者U1が指定した条件に応じたコーディネートの情報を提供してもよい。例えば、利用者U1がカテゴリ「カジュアル」を条件として指定した場合、情報処理装置10は、コーディネート#1、#3及び#4のうち、分散表現空間(例えば、分散表現空間F3)においてカテゴリT1からより近い位置に投影された画像が示すコーディネートの優先度を高くして提供する。 In addition, the information processing device 10 may provide information on coordination according to conditions specified by the user U1. For example, if the user U1 specifies the category "casual" as a condition, the information processing device 10 provides, among the coordinations #1, #3, and #4, a coordination indicated by an image projected at a position closer to the category T1 in the distributed representation space (for example, the distributed representation space F3) with a higher priority.

また、情報処理装置10は、利用者U1の被服に関する嗜好を学習したモデルを用いて、コーディネートの情報を提供してもよい。例えば、情報処理装置10は、被服に関する情報(例えば、画像)を入力した場合に、利用者U1がその被服を嗜好する度合いが高いほど高いスコアを出力するようモデルを学習しておく。そして、情報処理装置10は、そのモデルにコーディネート#1、#3及び#4に関する情報を入力し、出力されたスコアが高い順にコーディネート#1、#3及び#4の情報を利用者U1に提供する。 In addition, the information processing device 10 may provide coordination information using a model that has learned the clothing preferences of the user U1. For example, the information processing device 10 trains a model so that when information about clothing (e.g., an image) is input, the higher the degree to which the user U1 likes that clothing, the higher the score that is output. The information processing device 10 then inputs information about coordination #1, #3, and #4 into the model, and provides the information about coordination #1, #3, and #4 to the user U1 in descending order of the output scores.

続いて、情報処理装置10は、提供した情報に対して利用者U1が肯定的であったか否かを示すフィードバックを利用者端末100から取得する(ステップSa5)。例えば、情報処理装置10は、電子商取引サービスにおいて、利用者U1がコーディネート#1、#3及び#4に含まれる被服を購入したか否かや、レンタルの申込みを行ったか否かを示す情報(フィードバック)を取得する。また、情報処理装置10は、コーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4に対するお気に入り登録を行ったか否かを示す情報(フィードバック)か否かを示す情報を取得する。なお、提供した情報に対して利用者U1が肯定的であったか否かを示す情報は、電子商取引サービスやコーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4を閲覧したか否かや、電子商取引サービスやコーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4に含まれる被服を閲覧したか否かなどでもよく、上記の例に限定されない。 Next, the information processing device 10 obtains feedback from the user terminal 100 indicating whether the user U1 was positive about the provided information (step Sa5). For example, the information processing device 10 obtains information (feedback) indicating whether the user U1 purchased clothes included in the outfits #1, #3, and #4 in the e-commerce service, or whether he/she applied to rent them. The information processing device 10 also obtains information (feedback) indicating whether the user U1 registered outfits #1, #3, and #4 as favorites in the coordination service. The information indicating whether the user U1 was positive about the provided information is not limited to the above examples and may be whether the user U1 viewed outfits #1, #3, and #4 in the e-commerce service or coordination service, or whether the user U1 viewed clothes included in the outfits #1, #3, and #4 in the e-commerce service or coordination service.

続いて、情報処理装置10は、利用者U1からのフィードバックに基づいて、分散表現空間を更新する(ステップSa6)。例えば、利用者U1がコーディネート#1に対して肯定的である場合(例えば、電子商取引サービスにおいてコーディネート#1に含まれる被服を購入した場合や、コーディネートサービスにおいてコーディネート#1に対するお気に入り登録を行った場合)、情報処理装置10は、分散表現空間F4において、属性情報B2と画像P1とを所定の距離近づけるように更新する。一方、利用者U1がコーディネート#3に対して否定的である場合(例えば、電子商取引サービスや、コーディネートサービスにおいて提示したコーディネート#3の情報を閲覧しなかった場合)、情報処理装置10は、分散表現空間F4において、属性情報B2と画像P3とを所定の距離遠ざけるように更新する。なお、利用者U1からのフィードバックは、コーディネートを示す画像に対する似合うか否かの評価とも捉えられるので、画像に対する評価(フィードバック)を行った評価者(利用者U1)を示す評価者情報をさらに分散表現空間に投影してもよい。 Next, the information processing device 10 updates the distributed representation space based on the feedback from the user U1 (step Sa6). For example, if the user U1 is positive about the coordination #1 (for example, if the user U1 purchases the clothes included in the coordination #1 in the e-commerce service or registers the coordination #1 as a favorite in the coordination service), the information processing device 10 updates the attribute information B2 and the image P1 in the distributed representation space F4 to be closer to each other by a predetermined distance. On the other hand, if the user U1 is negative about the coordination #3 (for example, if the user U1 does not view the information on the coordination #3 presented in the e-commerce service or the coordination service), the information processing device 10 updates the attribute information B2 and the image P3 in the distributed representation space F4 to be farther apart by a predetermined distance. Note that the feedback from the user U1 can also be regarded as an evaluation of whether the image showing the coordination looks good, so evaluator information indicating the evaluator (user U1) who evaluated (gave feedback) on the image may be further projected into the distributed representation space.

以上のように、実施形態に係る情報処理装置10は、コーディネートを示す画像に対する似合うか否かの評価と、画像に対する評価を行った評価者を示す評価者情報とを投影した分散表現空間を生成する。 As described above, the information processing device 10 according to the embodiment generates a distributed representation space in which evaluations of whether an image showing an outfit looks good or not and evaluator information indicating the evaluator who evaluated the image are projected.

ここで、従来、コーディネートが着用者に「似合う」か否かは人それぞれの主観によって大きく異なり、定量化が困難であった。そこで、実施形態に係る情報処理装置10によれば、コーディネートを示す画像と、評価者の個性との近さを測れる空間を構成することにより、「似合う」を定量化することができるため、各評価者の主観から被服が着用者に似合っているかを把握することができる。 Here, in the past, whether or not an outfit "looks good" on a wearer varied greatly depending on each person's subjective opinion, making it difficult to quantify. Therefore, with the information processing device 10 according to the embodiment, by constructing a space that can measure the closeness between an image showing an outfit and the evaluator's personality, it is possible to quantify "looking good," and therefore it is possible to grasp whether the clothes look good on the wearer from the subjective opinion of each evaluator.

また、実施形態に係る情報処理装置10は、生成した分散表現空間を用いて、利用者と類似する評価者の評価に基づき、利用者に似合うと推定されるコーディネートに関する情報を提供する。これにより、実施形態に係る情報処理装置10は、所定の対象(利用者自身等)に似合う被服を利用者が把握することができるという効果を奏する。 In addition, the information processing device 10 according to the embodiment uses the generated distributed representation space to provide information about outfits that are estimated to suit the user based on evaluations by evaluators similar to the user. This allows the information processing device 10 according to the embodiment to have the effect of allowing the user to understand what clothes suit a specific target (such as the user himself/herself).

〔2-2.第2の情報処理について〕
次に、図4を用いて、本実施形態に係る情報処理装置等により実現される第2の情報処理について説明する。図4は、実施形態に係る情報処理の一例を示す図(2)である。
[2-2. Regarding the second information processing]
Next, a second information processing executed by the information processing device according to the embodiment will be described with reference to Fig. 4. Fig. 4 is a diagram (2) showing an example of the information processing according to the embodiment.

まず、情報処理装置10は、複数の被服の組み合わせ(コーディネート)を着用した着用者の画像に対する評価を、評価者端末200から受け付ける(ステップSb1)。例えば、情報処理装置10は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているっているか否かを示す評価を受け付ける。 First, the information processing device 10 receives an evaluation of an image of a wearer wearing a combination (coordination) of multiple clothes from the evaluator terminal 200 (step Sb1). For example, the information processing device 10 receives an evaluation indicating whether or not the outfit #1 shown in the image P1 suits the wearer #1 shown in the image P1.

続いて、情報処理装置10は、画像に対する評価者の評価に基づいて、評価者や画像などの分散表現を生成するための畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))を生成する(ステップSb2)。例えば、情報処理装置10は、画像と、画像に対する評価者の評価と、評価者に関する評価者情報とを含む学習用データを用いてCNNを生成する。具体的な例を挙げると、情報処理装置10は、ある画像を入力した際に、その画像に対して「似合う」と評価した評価者の分散表現と類似する分散表現を出力し、その画像に対して「似合わない」と評価した評価者の分散表現と類似しない分散表現を出力するように、CNNの接続係数を修正する。 Next, the information processing device 10 generates a convolutional neural network (CNN) for generating distributed representations of evaluators, images, etc., based on the evaluators' ratings of the images (step Sb2). For example, the information processing device 10 generates a CNN using learning data including images, the evaluators' ratings of the images, and evaluator information related to the evaluators. As a specific example, when an image is input, the information processing device 10 corrects the connection coefficients of the CNN so that it outputs a distributed representation similar to the distributed representation of the evaluator who evaluated the image as "suitable" and outputs a distributed representation not similar to the distributed representation of the evaluator who evaluated the image as "not suitable."

ここで、情報処理装置10が、各評価者による評価に基づいて、CNNの学習を繰り返し行った場合、CNNは、各評価者がどの範囲に基づいて、似合うもしくは似合わないの評価を行ったかを推定し、推定結果に応じた各評価者および画像の分散表現を生成するようになる。例えば、CNNは、画像から分散表現を生成する場合、画像を複数の領域に分割し、分割した領域ごとの特徴を示すベクトル(以下、「領域ベクトル」と記載する場合がある。)を生成する。そして、CNNは、複数の領域ベクトルを統合することで、画像全体の特徴を示す分散表現を生成する。なお、CNNは、様々な大きさの領域や特徴について、同様の処理を繰り返し実行し、最終的な分散表現を生成する。また、画像全体を一つの領域とみなしてもよい。また、複数の領域ではなく、単一の領域に基づいて分散表現を生成してもよい。すなわち、必要であれば、画像上の部分的な領域に基づいて分散表現を生成するのではなく、画像全体を考慮した単一の特徴ベクトルを算出してもよい。また、領域の定義は使用するアプリケーションに基づいて任意に定めてもよい。例えば、Fully CNNを用いて特徴抽出することで得られる特徴ベクトルは、各次元が一つの画像上の領域に対応するものとして考えられるが、当該領域に対応する画像空間上のコンテンツに基づいてその領域ベクトルを使用するか否かを決めてもよい。具体的には、人体検出器などによって画像上の人物が存在する複数の領域を特定し、これらの領域ベクトルのAverage Poolingを算出することによって領域ベクトルの統合を行ってもよい。また、その他の例としても、画像上の意味的領域分割を行うことによって領域を特定してもよい。具体的には、例えば、画像上に撮像された人物が存在する画素において、どの部分がトップスまたはボトムスを含むかを特定することで、複数の意味的領域を得ることができる。これらの領域に対応する領域ベクトルを算出し、複数の領域ベクトルを固有の順番で結合(Concatenate処理)することで、対象の被写体の姿勢変動に比較的頑強な画像全体の特徴を示す分散表現を算出してもよい。この際、存在しない意味的領域がある場合(例えば被写体の足が撮像されていない場合にシューズの領域が存在しないなど)、当該の領域ベクトルを任意の特徴ベクトルで代用してもよく、例えば学習データ全体におけるシューズの領域ベクトルの平均ベクトルを用いてもよいし、0で埋めた特徴ベクトルを用いても良い。 Here, when the information processing device 10 repeatedly performs CNN learning based on the evaluations by each evaluator, the CNN estimates the range based on which each evaluator evaluated whether the image looked good or not, and generates a distributed representation of each evaluator and image according to the estimation result. For example, when generating a distributed representation from an image, the CNN divides the image into multiple regions and generates a vector (hereinafter, sometimes referred to as a "region vector") indicating the characteristics of each divided region. Then, the CNN generates a distributed representation indicating the characteristics of the entire image by integrating multiple region vectors. Note that the CNN repeatedly performs the same process for regions and features of various sizes to generate the final distributed representation. The entire image may be regarded as one region. Also, a distributed representation may be generated based on a single region instead of multiple regions. In other words, if necessary, a single feature vector considering the entire image may be calculated instead of generating a distributed representation based on a partial region on the image. Also, the definition of the region may be arbitrarily determined based on the application to be used. For example, a feature vector obtained by extracting features using a Fully CNN is considered to correspond to a region on one image in each dimension, and whether or not to use the region vector may be determined based on the content on the image space corresponding to the region. Specifically, a human body detector or the like may be used to identify multiple regions in which people exist on the image, and the region vectors may be integrated by calculating an average pooling of these region vectors. As another example, a region may be identified by performing semantic region division on the image. Specifically, for example, a plurality of semantic regions may be obtained by identifying which part includes the top or bottom in a pixel in which a person is captured on the image. A distributed representation indicating the characteristics of the entire image that are relatively robust to posture changes of the target subject may be calculated by calculating region vectors corresponding to these regions and concatenating (concatenating) the multiple region vectors in a unique order. In this case, if there is a semantic region that does not exist (for example, if the subject's feet are not captured in an image, the shoe region does not exist), the region vector in question may be substituted with any feature vector. For example, the average vector of the shoe region vectors in the entire training data may be used, or a feature vector filled with zeros may be used.

このようなCNNの学習を行う場合、情報処理装置10は、各評価者の位置を固定し、各画像について、似合うと評価した評価者の分散表現(例えば、属性情報等を示す評価者情報に基づく分散表現)と類似する分散表現を出力し、似合わないと評価した評価者の評価者情報の分散表現と類似しない分散表現を出力するように、CNNの学習を行う。このような学習を行った場合、CNNは、似合うと評価した評価者の評価者情報の分散表現と比較的類似する領域ベクトルを生成し、似合わないと評価した評価者の評価者情報の分散表現と比較的類似しない領域ベクトルを生成するように、接続係数等の調整が行われることとなる。このような学習処理を繰り返し行った場合、CNNは、ある領域について、その領域について似合うと評価した可能性が高い各評価者の分散表現と類似し、似合わないと評価した可能性が高い各評価者の分散表現と類似しない領域ベクトルを生成するようになる。 When such CNN training is performed, the information processing device 10 fixes the position of each evaluator, and trains the CNN so that for each image, it outputs a distributed representation similar to the distributed representation of the evaluator who evaluated the image as suitable (for example, a distributed representation based on evaluator information indicating attribute information, etc.) and outputs a distributed representation not similar to the distributed representation of the evaluator information of the evaluator who evaluated the image as unsuitable. When such training is performed, the connection coefficients, etc. are adjusted so that the CNN generates a region vector relatively similar to the distributed representation of the evaluator information of the evaluator who evaluated the image as suitable, and generates a region vector relatively not similar to the distributed representation of the evaluator information of the evaluator who evaluated the image as unsuitable. When such a training process is repeated, the CNN generates a region vector for a certain region that is similar to the distributed representation of each evaluator who is likely to have evaluated the region as suitable, and is not similar to the distributed representation of each evaluator who is likely to have evaluated the region as unsuitable.

そこで、情報処理装置10は、このような学習済みのCNNが生成した領域ベクトルを用いて、各評価者が似合うと判断した領域を推定し、推定した領域を示す情報、例えば、ヒートマップ等を提供する。 Therefore, the information processing device 10 uses the region vectors generated by such a trained CNN to estimate the regions that each evaluator judged to look good, and provides information indicating the estimated regions, such as a heat map.

例えば、情報処理装置10は、電子商取引サービスや、コーディネートサービスにおいて、コーディネートを示す画像を利用者U1に提供する際、生成したCNNと、利用者U1に関する情報とに基づき、当該画像の各領域が示す被服のそれぞれが利用者U1に似合う度合いを判定する(ステップSb3)。ここで、図4の例において、画像P1を利用者U1に提供するものとする。このような場合、情報処理装置10は、分散表現が、利用者U1の分散表現(例えば、属性情報等に基づく分散表現)と類似する評価者を特定する。そして、情報処理装置10は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、利用者U1に似合う度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、利用者U1に似合う度合いが低いと判定する。 For example, when the information processing device 10 provides an image showing a coordination to the user U1 in an electronic commerce service or a coordination service, the information processing device 10 determines the degree to which each of the clothes shown in each region of the image suits the user U1 based on the generated CNN and information about the user U1 (step Sb3). Here, in the example of FIG. 4, the image P1 is provided to the user U1. In such a case, the information processing device 10 identifies an evaluator whose distributed representation is similar to the distributed representation of the user U1 (for example, a distributed representation based on attribute information, etc.). Then, the information processing device 10 determines that the clothes shown in the region of the image P1 whose region vector is more similar to the distributed representation of the identified evaluator are more suitable for the user U1, and that the clothes shown in the region whose vector is less similar to the distributed representation of the evaluator are less suitable for the user U1.

なお、情報処理装置10が上述の処理に用いるために生成するものは、CNNに限定されず、分散表現(埋め込み表現)を獲得可能であれば任意のものが生成されてよい。 Note that what the information processing device 10 generates for use in the above-mentioned processing is not limited to CNN, and anything that can acquire distributed representations (embedded representations) may be generated.

続いて、情報処理装置10は、画像P1をステップSb3において判定した度合いに応じた態様で利用者端末100に出力する(ステップSb4)。例えば、情報処理装置10は、画像P1の各領域が示す被服が利用者U1に似合う度合いをヒートマップで示す画像を出力する。具体的な例を挙げると、ステップSb3において特定した評価者の分散表現と、画像P1のボトムスを示す領域の領域ベクトルが類似し、画像P1のトップスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、ボトムスを示す領域を濃い赤色で表示し、トップスを示す領域を濃い青色で表示する画像P1-1を出力する。また、ステップSb3において特定した評価者の分散表現と、画像P1のトップスを示す領域の領域ベクトルが類似し、画像P1のボトムスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、トップスを示す領域を濃い赤色で表示し、ボトムスを示す領域を濃い青色で表示する画像P1-2を出力する。 Then, the information processing device 10 outputs the image P1 to the user terminal 100 in a mode according to the degree determined in step Sb3 (step Sb4). For example, the information processing device 10 outputs an image showing the degree to which the clothes indicated by each region of the image P1 suit the user U1 in a heat map. As a specific example, if the region vector of the region indicating the bottoms of the image P1 is similar to the distributed representation of the evaluator identified in step Sb3, but the region vector of the region indicating the tops of the image P1 is not similar, the information processing device 10 outputs an image P1-1 in which the region indicating the bottoms of the image P1 is displayed in dark red and the region indicating the tops is displayed in dark blue. Also, if the region vector of the region indicating the tops of the image P1 is similar to the distributed representation of the evaluator identified in step Sb3, but the region vector of the region indicating the bottoms of the image P1 is not similar, the information processing device 10 outputs an image P1-2 in which the region indicating the tops of the image P1 is displayed in dark red and the region indicating the bottoms is displayed in dark blue.

なお、情報処理装置10は、画像を出力する際に、各領域の被服が利用者U1に似合う度合いに応じた情報とともに画像を出力してもよい。例えば、画像P1-1を出力する場合、情報処理装置10は、赤色で表示した領域に含まれる被服の購入を提案する情報や、青色で表示した領域に含まれる被服の着用を避けることを提案する旨の情報、赤色で表示した領域に含まれる被服を活かした他のコーディネートに関する情報などとともに、画像P1-1を出力する。 When outputting an image, the information processing device 10 may output the image together with information according to the degree to which the clothes in each area suit the user U1. For example, when outputting image P1-1, the information processing device 10 outputs image P1-1 together with information suggesting the purchase of the clothes included in the area displayed in red, information suggesting the avoidance of wearing the clothes included in the area displayed in blue, information regarding other coordinations that utilize the clothes included in the area displayed in red, etc.

以上のように、実施形態に係る情報処理装置10は、コーディネートのうち、評価者が似合うと評価した被服や、似合わないと評価した被服を示す領域を可視化することができるため、複数の被服の組み合わせのうち、いずれの被服が着用者に似合っているかを把握することができる。また、実施形態に係る情報処理装置10は、利用者が、自身と類似する属性を有する評価者が、コーディネートのうちいずれの被服を似合うと評価するかを把握することができるため、着用する被服の指針を利用者が得ることができる。 As described above, the information processing device 10 according to the embodiment can visualize areas showing clothes that the evaluator has evaluated as looking good and clothes that the evaluator has evaluated as not looking good in an outfit, so that it is possible to grasp which clothes out of multiple clothing combinations look good on the wearer. Furthermore, the information processing device 10 according to the embodiment allows the user to grasp which clothes out of an outfit an evaluator with similar attributes to the user has evaluated as looking good, so that the user can obtain guidelines for clothes to wear.

〔3.その他の処理例〕
なお、上述した処理は一例に過ぎず、情報処理装置10は、様々な情報を用いて様々な処理を行ってもよい。この点について、以下例示を列挙する。
[3. Other processing examples]
The above-described process is merely an example, and the information processing device 10 may perform various processes using various information. In this regard, examples are given below.

〔3-1.利用者に関する情報に基づくコーディネートの推定について〕
図2の例において、情報処理装置10は、分散表現空間と、利用者U1が選択したカテゴリとに基づいて、利用者U1に似合うコーディネートを推定してもよい。例えば、利用者端末100からのコーディネートの提供要求とともに、利用者U1がカテゴリ「カジュアル」を選択したことを示す情報を受け付けた場合、情報処理装置10は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートであって、分散表現空間F3において、カテゴリT1から所定の範囲内に投影された画像が示すコーディネートを、カテゴリ「カジュアル」において利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。
[3-1. Predicting outfits based on user information]
In the example of Fig. 2, the information processing device 10 may estimate an outfit that suits the user U1 based on the distributed representation space and the category selected by the user U1. For example, when receiving information indicating that the user U1 selected the category "casual" together with a request for providing an outfit from the user terminal 100, the information processing device 10 estimates that the outfit shown by the image projected within a predetermined range from the attribute information B2 in the distributed representation space F4 and the outfit shown by the image projected within a predetermined range from the category T1 in the distributed representation space F3 is an outfit that suits the user U1 in the category "casual", and provides information on the outfit that corresponds to information on the user U1 and information related to the outfit to the user terminal 100.

また、情報処理装置10は、分散表現空間と、アンケートに対する利用者U1の回答とに基づいて、利用者U1に似合うコーディネートを推定してもよい。例えば、「ファッションに自信がある?」といったアンケートに対し、利用者U1が「ファッションに自信がない」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate an outfit that would suit user U1 based on the distributed representation space and user U1's responses to a questionnaire. For example, if user U1 responds "I'm not confident in my fashion sense" to a questionnaire such as "Are you confident in your fashion sense?", the information processing device 10 estimates that the outfit shown by the image projected within a predetermined range from answer C2 in the distributed representation space F5 is an outfit that would suit user U1, and provides information about the outfit that corresponds to information about user U1 and information related to the outfit to the user terminal 100.

なお、情報処理装置10は、利用者U1に関する情報に基づいて、コーディネートの提案を行ってもよい。例えば、「ファッションに自信がある?」といったアンケートに対し、利用者U1が「ファッションに自信がない」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C2及び5間の所定の位置(例えば、中間の位置)から所定の範囲内に投影された画像が示すコーディネートを、「ファッションに自信を持つために挑戦してみませんか?」といったコメントと共に提案する。すなわち、情報処理装置10は、利用者U1の将来に関する情報に基づいて、コーディネートの提案を行ってもよい。 The information processing device 10 may also suggest outfits based on information about the user U1. For example, if the user U1 answers "I'm not confident in my fashion sense" to a questionnaire such as "Are you confident in your fashion sense?", the information processing device 10 will suggest an outfit shown in an image projected within a specified range from a specified position (e.g., an intermediate position) between answers C2 and 5 in the distributed representation space F5, together with a comment such as "Why not try this to gain confidence in your fashion sense?" In other words, the information processing device 10 may suggest outfits based on information about the future of the user U1.

〔3-2.対象者に関する情報に基づくコーディネートの推定について〕
図2の例において、情報処理装置10は、分散表現空間と、利用者U1と所定の関係性を有する対象者(例えば、利用者U1が会う相手)に関する情報とに基づいて、対象者が利用者U1に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間と、対象者の属性とに基づいて、対象者が利用者U1に似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、対象者の属性情報が、「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。
[3-2. Estimating outfit coordination based on information about the subject]
In the example of FIG. 2, the information processing device 10 may estimate an outfit that the target person evaluates as looking good on the user U1 based on the distributed representation space and information about a target person having a predetermined relationship with the user U1 (for example, a person that the user U1 meets). For example, the information processing device 10 may estimate an outfit that the target person evaluates as looking good on the user U1 based on the distributed representation space and the attributes of the target person. To give a specific example, when the attribute information of the target person is "early 20s", the information processing device 10 estimates that the outfit shown by the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is the outfit that the target person evaluates as looking good on, and provides information about the outfit that corresponds to information about the user U1 and information related to the outfit to the user terminal 100.

また、例えば、情報処理装置10は、分散表現空間と、アンケートに対する対象者の回答とに基づいて、対象者が似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 For example, the information processing device 10 may estimate an outfit that the subject evaluates as looking good on the subject based on the distributed representation space and the subject's responses to a questionnaire. As a specific example, if the subject responds "I'm confident in my fashion sense" to a questionnaire such as "Are you confident in your fashion sense?", the information processing device 10 estimates that the outfit shown by the image projected within a predetermined range from the answer C5 in the distributed representation space F5 is the outfit that the subject evaluates as looking good on the subject, and provides the user terminal 100 with information about the outfit that corresponds to information about the user U1 and information related to the outfit.

また、情報処理装置10は、分散表現空間に投影された情報と、対象者に関する情報とに基づいて、対象者に関する情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、対象者が利用者に似合うと評価するコーディネートを推定してもよい。例えば、対象者の属性情報が、「20代前半、東京在住」である場合、情報処理装置10は、分散表現空間F4において、属性情報B3及びB6の中間の位置が、分散表現空間F4において対象者に関する情報を投影した場合の位置であると推定する。そして、情報処理装置10は、推定した位置から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate a position when the information about the target person is projected into the distributed representation space based on the information projected into the distributed representation space and the information about the target person, and estimate an outfit that the target person evaluates as looking good on the user based on the estimated position. For example, if the attribute information of the target person is "Early 20s, living in Tokyo", the information processing device 10 estimates that the midpoint between attribute information B3 and B6 in the distributed representation space F4 is the position when the information about the target person is projected in the distributed representation space F4. The information processing device 10 then estimates that the outfit shown in the image projected within a predetermined range from the estimated position is the outfit that the target evaluates as looking good on the user, and provides information about the outfit that corresponds to the information about the user and information related to the outfit to the user terminal 100.

これにより、例えば、対象者が利用者に似合うと評価するコーディネートを推定することができるため、これから会う人の好印象を持ってもらうために何を着ればいいかを利用者が把握することができる。 This allows, for example, the system to estimate what outfits the subject will evaluate as suiting the user, allowing the user to know what to wear to make a good impression on people they will meet.

なお、対象者が利用者U1に似合うと評価するコーディネートに関する情報を提供した場合、情報処理装置10は、当該コーディネートに対する対象者からのフィードバックを取得してもよい。例えば、情報処理装置10は、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。そして、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的である場合、情報処理装置10、分散表現空間において、対象者に対応する情報(例えば、属性情報や、アンケートに対する回答など)と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が否定的である場合、情報処理装置10は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。なお、対象者からのフィードバックは、コーディネートを示す画像に対する似合うか否かの評価とも捉えられるので、画像に対する評価(フィードバック)を行った評価者(対象者)を示す評価者情報をさらに分散表現空間に投影してもよい。 In addition, when the subject provides information on a coordination that the user U1 evaluates as suiting the user U1, the information processing device 10 may obtain feedback from the subject on the coordination. For example, the information processing device 10 obtains information (feedback) indicating whether the subject was positive or not toward the user U1 wearing the coordination indicated by the provided information from the user terminal 100 or a terminal device used by the subject. Then, when the subject is positive toward the user U1 wearing the coordination indicated by the provided information, the information processing device 10 updates the information corresponding to the subject (for example, attribute information, answers to a questionnaire, etc.) and the image showing the coordination in the distributed representation space so as to bring them closer by a predetermined distance. On the other hand, when the subject is negative toward the user U1 wearing the coordination indicated by the provided information, the information processing device 10 updates the information corresponding to the subject and the image showing the coordination in the distributed representation space so as to move them apart by a predetermined distance. In addition, since the feedback from the subject can also be regarded as an evaluation of whether the image showing the coordination looks good or not, evaluator information indicating the evaluator (subject) who performed the evaluation (feedback) on the image may be further projected into the distributed representation space.

また、情報処理装置10は、分散表現空間と、利用者に関する情報と、利用者と所定の関係性を有する対象者に関する情報とに基づいて、利用者が自身に似合うと評価し、かつ、対象者が利用者に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間において、利用者に関する情報から所定の範囲に投影され、かつ、対象者に関する情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、情報処理装置10は、分散表現空間において、アンケートに対する利用者の回答を示す情報から所定の範囲に投影され、かつ、アンケートに対する対象者の回答を示す情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate an outfit that the user evaluates as looking good on the user and that the target evaluates as looking good on the user, based on the distributed representation space, information about the user, and information about a target person having a predetermined relationship with the user. For example, the information processing device 10 estimates that an outfit shown in an image projected into a predetermined range from information about the user and from information about the target person in the distributed representation space is an outfit that both the user and the target evaluate as looking good, and provides information about the outfit corresponding to information about the user and information related to the outfit, etc., among the outfits. The information processing device 10 also estimates that an outfit shown in an image projected into a predetermined range from information indicating the user's response to a questionnaire and from information indicating the target person's response to the questionnaire in the distributed representation space is an outfit that both the user and the target evaluate as looking good, and provides information about the outfit corresponding to information about the user and information related to the outfit, etc., among the outfits.

また、情報処理装置10は、分散表現空間に投影された情報と、利用者に関する情報と、対象者に関する情報とに基づいて、利用者と対象者の両者に基づく情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、利用者が自身に似合うと評価し、かつ、対象者が利用者に似合うと評価するコーディネートを推定してもよい。例えば、利用者の属性情報が「20代後半」であり、対象者の属性情報が「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B2及びB5の中間の位置が、分散表現空間F4において利用者と対象者の両者に対応する情報を投影した場合の位置であると推定し、当該位置から所定の範囲内に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定する。そして、情報処理装置10は、推定したコーディネートのうち、利用者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate a position when information based on both the user and the target is projected into the distributed representation space based on the information projected into the distributed representation space, the information about the user, and the information about the target, and estimate an outfit that the user evaluates as looking good on the user and that the target evaluates as looking good on the user based on the estimated position. For example, if the user's attribute information is "late 20s" and the target's attribute information is "early 20s", the information processing device 10 estimates that the midpoint between attribute information B2 and B5 in the distributed representation space F4 is the position when information corresponding to both the user and the target is projected in the distributed representation space F4, and estimates that the outfit shown by the image projected within a predetermined range from that position is the outfit that both the user and the target evaluate as looking good. The information processing device 10 then provides the user terminal 100 with information about the outfit that corresponds to the information about the user and the information related to the outfit, among the estimated outfits.

〔3-3.対象者に似合うコーディネートの推定について〕
図2の例において、情報処理装置10は、分散表現空間と、利用者U1と所定の関係性を有する対象者(例えば、利用者U1がプレゼントを贈る相手)に関する情報とに基づいて、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間と、対象者の属性とに基づいて、対象者が自身に似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、対象者の属性情報が、「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報(属性情報、身体的な情報(身長、体重、体型、骨格、髪型、髪の色、肌の色、瞳の色等)等)や、コーディネートに関連する情報などに対応するコーディネート(例えば、対象者が女性である場合には、女性向けのコーディネート)に関する情報を利用者端末100に提供する。
[3-3. Estimating the best outfit for the subject]
In the example of FIG. 2, the information processing device 10 may estimate an outfit that the target person evaluates as looking good on the user U1 based on the distributed representation space and information about a target person having a predetermined relationship with the user U1 (for example, a person to whom the user U1 gives a present). For example, the information processing device 10 may estimate an outfit that the target person evaluates as looking good on the target person based on the distributed representation space and the attributes of the target person. To give a specific example, when the attribute information of the target person is "early 20s", the information processing device 10 estimates that the outfit shown by the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is an outfit that the target person evaluates as looking good on, and provides the user terminal 100 with information about the outfit (attribute information, physical information (height, weight, body type, bone structure, hairstyle, hair color, skin color, eye color, etc.)) and information related to the outfit (for example, if the target person is a woman, an outfit for women) corresponding to the outfit.

また、例えば、情報処理装置10は、分散表現空間と、アンケートに対する対象者の回答とに基づいて、対象者が自身に似合うと評価するコーディネートを推定してもよい。具体的な例を挙げると、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、情報処理装置10は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 For example, the information processing device 10 may estimate an outfit that the subject evaluates as looking good on the subject based on the distributed representation space and the subject's responses to a questionnaire. As a specific example, if the subject responds "I'm confident in my fashion sense" to a questionnaire such as "Are you confident in your fashion sense?", the information processing device 10 estimates that the outfit shown in the image projected within a predetermined range from the answer C5 in the distributed representation space F5 is the outfit that the subject evaluates as looking good on the subject, and provides information about the outfit that corresponds to information about the subject and information related to the outfit to the user terminal 100.

また、情報処理装置10は、分散表現空間に投影された情報と、対象者に関する情報とに基づいて、対象者に関する情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、対象者の属性情報が、「20代前半、東京在住」である場合、情報処理装置10は、分散表現空間F4において、属性情報B3及びB6の中間の位置が、分散表現空間F4において対象者に関する情報を投影した場合の位置であると推定する。そして、情報処理装置10は、推定した位置から所定の範囲内に投影された画像が示すコーディネートを、対象者が自身に似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate a position when the information about the subject is projected into the distributed representation space based on the information projected into the distributed representation space and the information about the subject, and estimate an outfit that the subject evaluates as looking good on the subject based on the estimated position. For example, if the attribute information of the subject is "early 20s, living in Tokyo", the information processing device 10 estimates that the midpoint between attribute information B3 and B6 in the distributed representation space F4 is the position when the information about the subject is projected in the distributed representation space F4. The information processing device 10 then estimates that the outfit shown in the image projected within a predetermined range from the estimated position is the outfit that the subject evaluates as looking good on the subject, and provides information about the outfit that corresponds to the information about the subject and information related to the outfit to the user terminal 100.

なお、対象者が自身に似合うと評価するコーディネートに関する情報を提供した場合、情報処理装置10は、当該コーディネートに対する対象者からのフィードバックを取得してもよい。例えば、情報処理装置10は、提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際に、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。そして、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が肯定的である場合、情報処理装置10は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が否定的である場合、情報処理装置10は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。なお、対象者からのフィードバックは、コーディネートを示す画像に対する似合うか否かの評価とも捉えられるので、画像に対する評価(フィードバック)を行った評価者(対象者)を示す評価者情報をさらに分散表現空間に投影してもよい。 In addition, when the subject provides information on a coordination that the subject evaluates as suiting the subject, the information processing device 10 may obtain feedback from the subject on the coordination. For example, the information processing device 10 obtains information (feedback) indicating whether the subject was positive or not when the user U1 presented the subject with clothes included in the coordination indicated by the provided information from the user terminal 100 or a terminal device used by the subject. Then, when the user U1 presented the subject with clothes included in the coordination indicated by the information provided to the user U1, if the subject was positive, the information processing device 10 updates the information corresponding to the subject and the image showing the coordination in the distributed representation space so as to bring them closer by a predetermined distance. On the other hand, when the user U1 presented the subject with clothes included in the coordination indicated by the information provided to the user U1, if the subject was negative, the information processing device 10 updates the information corresponding to the subject and the image showing the coordination in the distributed representation space so as to move them apart by a predetermined distance. In addition, since feedback from the subject can be interpreted as an evaluation of whether or not an image showing an outfit looks good, evaluator information indicating the evaluator (subject) who evaluated (gave feedback to) the image may be further projected into the distributed representation space.

また、情報処理装置10は、分散表現空間と、利用者に関する情報と、利用者と所定の関係性を有する対象者に関する情報とに基づいて、利用者が対象者に似合うと評価し、かつ、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間において、利用者に関する情報から所定の範囲に投影され、かつ、対象者に関する情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、情報処理装置10は、分散表現空間において、アンケートに対する利用者の回答を示す情報から所定の範囲に投影され、かつ、アンケートに対する対象者の回答を示す情報から所定の範囲に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate, based on the distributed representation space, information about the user, and information about a subject having a predetermined relationship with the user, an outfit that the user evaluates as looking good on the subject and that the subject evaluates as looking good on the subject. For example, the information processing device 10 estimates that an outfit shown in an image projected from information about the user and from information about the subject in the distributed representation space to a predetermined range is an outfit that both the user and the subject evaluate as looking good, and provides the user terminal 100 with information about the outfit that corresponds to information about the subject and information related to the outfit, among the outfits. The information processing device 10 also estimates that an outfit shown in an image projected from information indicating the user's response to a questionnaire to a predetermined range and from information indicating the subject's response to the questionnaire to a predetermined range is an outfit that both the user and the subject evaluate as looking good, and provides the user terminal 100 with information about the outfit that corresponds to information about the subject and information related to the outfit, among the outfits.

また、情報処理装置10は、分散表現空間に投影された情報と、利用者に関する情報と、対象者に関する情報とに基づいて、利用者と対象者の両者に基づく情報を分散表現空間に投影した場合の位置を推定し、推定した位置に基づき、利用者が対象者に似合うと評価し、かつ、対象者が自身に似合うと評価するコーディネートを推定してもよい。例えば、利用者の属性情報が「20代後半」であり、対象者の属性情報が「20代前半」である場合、情報処理装置10は、分散表現空間F4において、属性情報B2及びB5の中間の位置が、分散表現空間F4において利用者と対象者の両者に対応する情報を投影した場合の位置であると推定し、当該位置から所定の範囲内に投影された画像が示すコーディネートを、利用者と対象者の両者が似合うと評価するコーディネートであると推定する。そして、情報処理装置10は、推定したコーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The information processing device 10 may also estimate the position of information based on both the user and the target person projected into the distributed representation space based on the information projected into the distributed representation space, the information about the user, and the information about the target person, and estimate an outfit that the user evaluates as looking good on the target person and that the target person evaluates as looking good on himself/herself based on the estimated position. For example, if the user's attribute information is "late 20s" and the target person's attribute information is "early 20s", the information processing device 10 estimates that the midpoint between attribute information B2 and B5 in the distributed representation space F4 is the position of information corresponding to both the user and the target person projected in the distributed representation space F4, and estimates that the outfit shown by the image projected within a predetermined range from that position is the outfit that both the user and the target person evaluate as looking good on them. Then, the information processing device 10 provides the user terminal 100 with information about the outfit that corresponds to the information about the target person and information related to the outfit, among the estimated outfits.

〔3-4.着用者及び利用者の画像に基づくコーディネートの推定について〕
図2の例において、情報処理装置10は、着用者の顔を示す画像を投影した分散表現空間と、所定の対象(利用者、対象者など)の顔の画像とに基づいて、当該対象に似合うコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、顔の特徴量が、利用者U1の顔の特徴量と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。
3-4. Estimating outfit coordination based on images of the wearer and user
In the example of Fig. 2, the information processing device 10 may estimate an outfit that suits a specific target (user, target person, etc.) based on the distributed representation space onto which an image showing the wearer's face is projected and an image of the face of the target. For example, the information processing device 10 estimates that, among the outfits #1, #3, and #4 estimated based on the distributed representation space F4 and the attribute information of user U1, an outfit worn by a wearer whose facial features are similar to those of user U1 is an outfit that suits the user.

また、情報処理装置10は、着用者の体型を示す画像を投影した分散表現空間と、所定の対象の体型を示す画像とに基づいて、当該対象に似合うコーディネートを推定してもよい。例えば、情報処理装置10は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、体型(例えば、細め、太め)が利用者U1の体型と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。 In addition, the information processing device 10 may estimate an outfit that suits a specific target based on a distributed representation space onto which an image showing the wearer's body type is projected and an image showing the body type of the target. For example, the information processing device 10 estimates that, among the outfits #1, #3, and #4 estimated based on the distributed representation space F4 and the attribute information of user U1, an outfit worn by a wearer whose body type (e.g., thin, chubby) is similar to that of user U1 is an outfit that suits the user.

〔3-5.対象者に関する情報に基づく態様での画像の出力について〕
図4の例において、情報処理装置10は、CNNと、利用者U1と所定の関係性を有する対象者(例えば、利用者U1が会う相手)に関する情報とに基づく態様で、コーディネートを示す画像を出力してもよい。例えば、画像P1を利用者U1に提供する場合、情報処理装置10は、対象者の分散表現(例えば、属性情報等に基づく分散表現)と類似する評価者を特定する。そして、情報処理装置10は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが低いと判定し、判定した度合いに応じた態様で画像P1を出力する。
[3-5. Output of images based on information about the subject]
In the example of FIG. 4, the information processing device 10 may output an image showing a coordination in a manner based on the CNN and information on a subject having a predetermined relationship with the user U1 (e.g., a person the user U1 meets). For example, when providing the image P1 to the user U1, the information processing device 10 identifies an evaluator who is similar to the distributed representation of the subject (e.g., a distributed representation based on attribute information, etc.). Then, the information processing device 10 determines that the subject evaluates the clothes as being suitable for the user U1 to a higher degree as indicated by the region in which the region vector is more similar to the distributed representation of the identified evaluator, and determines that the subject evaluates the clothes as being suitable for the user U1 to a lower degree as indicated by the region in which the region vector is less similar to the distributed representation of the evaluator, and outputs the image P1 in a manner according to the degree determined.

なお、情報処理装置10は、画像P1を出力する際に、各領域の被服を、対象者が利用者U1に似合うと評価する度合いに応じた情報とともに画像P1を出力してもよい。例えば、対象者が利用者U1に似合うと評価する度合いが高い領域が示す被服の購入を提案する情報や、当該度合いが低い領域に含まれる被服の着用を避けることを提案する旨の情報、当該度合いが高い領域に含まれる被服を活かした他のコーディネートに関する情報などとともに、画像P1-1を出力する。 When outputting image P1, information processing device 10 may output image P1 together with information according to the degree to which the subject evaluates that the clothes in each region suit user U1. For example, image P1-1 may be output together with information suggesting the purchase of clothes indicated in regions that the subject evaluates highly as suiting user U1, information suggesting the avoidance of wearing clothes included in regions with a low degree of suitability, and information regarding other coordinations that utilize clothes included in regions with a high degree of suitability.

〔4.情報処理装置の構成〕
次に、図5を用いて、情報処理装置10の構成について説明する。図5は、実施形態に係る情報処理装置10の構成例を示す図である。図5に示すように、情報処理装置10は、通信部20と、記憶部30と、制御部40とを有する。
4. Configuration of information processing device
Next, the configuration of the information processing device 10 will be described with reference to Fig. 5. Fig. 5 is a diagram showing an example of the configuration of the information processing device 10 according to an embodiment. As shown in Fig. 5, the information processing device 10 has a communication unit 20, a storage unit 30, and a control unit 40.

(通信部20について)
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、利用者端末100、評価者端末200等との間で情報の送受信を行う。
(Regarding communication unit 20)
The communication unit 20 is realized by, for example, a network interface card (NIC) etc. The communication unit 20 is connected to the network N by wire or wirelessly, and transmits and receives information between the user terminal 100, the evaluator terminal 200, etc.

(記憶部30について)
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部30は、評価者情報データベース31と、利用者情報データベース32とを有する。
(Regarding the storage unit 30)
The storage unit 30 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 3, the storage unit 30 has an evaluator information database 31 and a user information database 32.

(評価者情報データベース31について)
評価者情報データベース31は、評価者に関する各種の情報を記憶する。ここで、図6を用いて、評価者情報データベース31が記憶する情報の一例を説明する。図6は、実施形態に係る評価者情報データベース31の一例を示す図である。図6の例において、評価者情報データベース31は、「評価者ID」、「属性情報」、「アンケート情報」、「評価情報」といった項目を有する。
(Regarding the evaluator information database 31)
The evaluator information database 31 stores various types of information related to evaluators. An example of information stored in the evaluator information database 31 will now be described with reference to Fig. 6. Fig. 6 is a diagram showing an example of the evaluator information database 31 according to an embodiment. In the example of Fig. 6, the evaluator information database 31 has items such as "evaluator ID", "attribute information", "questionnaire information", and "evaluation information".

「評価者ID」は、評価者を識別するための識別情報を示す。「属性情報」は、評価者の属性情報を示す。「アンケート情報」は、所定のアンケートに対する評価者の回答を示す。「評価情報」は、評価者による評価に関する情報を示し、「対象ID」、「画像情報」、「被服情報」、「着用者情報」、「評価」といった項目を有する。 "Evaluator ID" indicates identification information for identifying the evaluator. "Attribute information" indicates attribute information of the evaluator. "Survey information" indicates the evaluator's response to a specified questionnaire. "Evaluation information" indicates information regarding the evaluation by the evaluator, and has items such as "Subject ID," "Image information," "Clothing information," "Wearer information," and "Evaluation."

「対象ID」は、評価の対象(画像)を識別するための識別情報を示す。「画像情報」は、評価の対象である画像を示す。「被服情報」は、画像が示すコーディネートに含まれる被服に関する情報を示し、例えば、被服を識別するための識別情報等が格納される。「着用者情報」は、画像が示す着用者に関する情報を示し、例えば、着用者を識別するための識別情報や、着用者の属性情報や身体的な情報などといった情報が格納される。「評価」は、画像に対する評価者の評価を示す。 "Subject ID" indicates identification information for identifying the subject (image) of evaluation. "Image information" indicates the image that is the subject of evaluation. "Clothing information" indicates information about the clothes included in the outfit shown in the image, and for example, identification information for identifying the clothes is stored. "Wearer information" indicates information about the wearer shown in the image, and for example, identification information for identifying the wearer, attribute information and physical information of the wearer are stored. "Evaluation" indicates the evaluator's evaluation of the image.

すなわち、図6では、評価者ID「AID#1」により識別される評価者の属性情報が「属性情報#1」、アンケート情報が「アンケート情報#1」、対象ID「DID#1」により識別される評価の対象の画像情報が「画像情報#1」、被服情報が「被服情報#1」、着用者情報が「着用者情報#1」、評価が「評価#1」である例を示す。 In other words, Figure 6 shows an example in which the attribute information of the evaluator identified by the evaluator ID "AID#1" is "attribute information #1", the questionnaire information is "questionnaire information #1", the image information of the subject of evaluation identified by the subject ID "DID#1" is "image information #1", the clothing information is "clothing information #1", the wearer information is "wearer information #1", and the evaluation is "evaluation #1".

(利用者情報データベース32について)
利用者情報データベース32は、利用者に関する各種の情報を記憶する。ここで、図7を用いて、利用者情報データベース32が記憶する情報の一例を説明する。図7は、実施形態に係る利用者情報データベース32の一例を示す図である。図7の例において、利用者情報データベース32は、「利用者ID」、「属性情報」、「アンケート情報」、「利用者画像」、「フィードバック情報」といった項目を有する。
(Regarding the user information database 32)
The user information database 32 stores various types of information related to users. An example of information stored in the user information database 32 will now be described with reference to Fig. 7. Fig. 7 is a diagram showing an example of the user information database 32 according to an embodiment. In the example of Fig. 7, the user information database 32 has items such as "user ID", "attribute information", "survey information", "user image", and "feedback information".

「利用者ID」は、利用者を識別するための識別情報を示す。「属性情報」は、利用者の属性情報を示す。「アンケート情報」は、所定のアンケートに対する利用者の回答を示す。「利用者画像」は、利用者の顔や体型を示す画像を示す。「フィードバック情報」は、利用者に提供した情報に対する利用者からのフィードバックに関する情報を示す。 "User ID" indicates identification information for identifying a user. "Attribute information" indicates the user's attribute information. "Survey information" indicates the user's response to a specific survey. "User image" indicates an image showing the user's face and body type. "Feedback information" indicates information regarding feedback from the user regarding information provided to the user.

すなわち、図5では、利用者ID「UID#1」により識別される利用者の属性情報が「属性情報#11」、アンケート情報が「アンケート情報#11」、利用者画像が「利用者画像#1」、フィードバック情報が「フィードバック情報#1」である例を示す。 In other words, Figure 5 shows an example in which the attribute information of a user identified by user ID "UID#1" is "attribute information #11", the survey information is "survey information #11", the user image is "user image #1", and the feedback information is "feedback information #1".

(制御部40について)
制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部40は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。実施形態に係る制御部40は、図6に示すように、受付部41と、生成部42と、推定部43と、提供部44と、判定部45と、出力部46と、取得部47と、更新部48とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
(Regarding the control unit 40)
The control unit 40 is a controller, and is realized, for example, by a CPU (Central Processing Unit) or an MPU (Micro Processing Unit) executing various programs stored in a storage device inside the information processing device 10 using a RAM as a working area. The control unit 40 is also a controller, and is realized, for example, by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). As shown in FIG. 6, the control unit 40 according to the embodiment has a reception unit 41, a generation unit 42, an estimation unit 43, a provision unit 44, a determination unit 45, an output unit 46, an acquisition unit 47, and an update unit 48, and realizes or executes the functions and actions of information processing described below.

(受付部41について)
受付部41は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける。例えば、図2の例において、受付部41は、画像P1及びP2の組を評価者に提示し、2つの画像を比較して、いずれの画像のコーディネートが着用者に似合っており、いずれの画像のコーディネートが着用者に似合わないかを示す評価を受け付け、評価者情報データベース31に格納する。
(Regarding the reception unit 41)
The receiving unit 41 receives evaluations from a plurality of evaluators regarding an image of a wearer wearing a combination of a plurality of clothes, indicating whether the combination suits the wearer. For example, in the example of Fig. 2, the receiving unit 41 presents a pair of images P1 and P2 to the evaluators, compares the two images, and receives evaluations indicating which of the images suits the wearer and which of the images does not suit the wearer, and stores the evaluations in the evaluator information database 31.

また、受付部41は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付けてもよい。例えば、図4の例において、受付部41は、画像P1が示すコーディネート#1が、画像P1が示す着用者#1に似合っているっているか否かを示す評価を受け付ける。 The reception unit 41 may also receive evaluations from multiple evaluators of an image of a wearer wearing a combination of multiple clothes, indicating whether the combination suits the wearer. For example, in the example of FIG. 4, the reception unit 41 receives evaluations indicating whether outfit #1 shown in image P1 suits wearer #1 shown in image P1.

(生成部42について)
生成部42は、受付部41により受け付けられた評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する。例えば、図2の例において、生成部42は、評価者情報データベース31を参照し、VSEの技術を用いて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する。
(Regarding the generation unit 42)
The generating unit 42 generates a distributed representation space onto which the image and the evaluator information indicating the evaluator are projected, based on the evaluation received by the receiving unit 41. For example, in the example of Fig. 2, the generating unit 42 refers to the evaluator information database 31 and uses the VSE technology to generate a distributed representation space onto which the image and the evaluator information indicating the evaluator are projected.

また、生成部42は、評価者が、組み合わせが着用者に似合っていると高く評価するほど、分散表現空間において画像と、評価者情報とをより近い位置に投影し、評価者が、組み合わせが着用者に似合っていないと低く評価するほど、分散表現空間において画像と、評価者情報とをより遠い位置に投影してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1を投影した分散表現空間F1を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2を投影した分散表現空間F1を生成する。 The generation unit 42 may project the image and the evaluator information closer to the distributed representation space as the evaluator evaluates the combination as being suitable for the wearer, and may project the image and the evaluator information farther away in the distributed representation space as the evaluator evaluates the combination as being unsuitable for the wearer. For example, in the example of FIG. 2, the generation unit 42 generates a distributed representation space F1 in which the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". The generation unit 42 also generates a distributed representation space F1 in which the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

また、生成部42は、評価に基づいて、さらに組み合わせに含まれる被服を示す情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服I1の画像を投影した分散表現空間F2を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服I2の画像を投影した分散表現空間F2を生成する。 The generating unit 42 may also generate a distributed representation space in which information indicating the clothes included in the combination is further projected based on the evaluation. For example, in the example of FIG. 2, the generating unit 42 generates a distributed representation space F2 in which an image of the clothes I1 included in the coordination shown by the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". The generating unit 42 also generates a distributed representation space F2 in which an image of the clothes I2 included in the coordination shown by the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than to the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

また、生成部42は、評価に基づいて、さらに組み合わせが属するカテゴリを示す情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートのカテゴリT1(カジュアル)を投影した分散表現空間F3を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2のカテゴリT2(デート)を投影した分散表現空間F3を生成する。 The generating unit 42 may also generate a distributed representation space in which information indicating a category to which the combination belongs is further projected based on the evaluation. For example, in the example of FIG. 2, the generating unit 42 generates a distributed representation space F3 in which the category T1 (casual) of the coordination indicated by the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". The generating unit 42 also generates a distributed representation space F3 in which the category T2 (date) of the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than to the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

また、生成部42は、評価に基づいて、さらに組み合わせに含まれる被服を提供する提供元を示す情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2を示す評価者情報D2よりも、画像P1を「似合う」と評価した評価者A1を示す評価者情報D1の近くに、画像P1が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1を示す評価者情報D1よりも、画像P2を「似合う」と評価した評価者A2を示す評価者情報D2の近くに、画像P2が示すコーディネートに含まれる被服の提供元を示す情報を投影した分散表現空間を生成する。 The generating unit 42 may also generate a distributed representation space in which information indicating the source of the clothes included in the combination is projected based on the evaluation. For example, in the example of FIG. 2, the generating unit 42 generates a distributed representation space in which information indicating the source of the clothes included in the coordination shown by the image P1 is projected closer to the evaluator information D1 indicating the evaluator A1 who evaluated the image P1 as "suitable" than to the evaluator information D2 indicating the evaluator A2 who evaluated the image P1 as "unsuitable". The generating unit 42 also generates a distributed representation space in which information indicating the source of the clothes included in the coordination shown by the image P2 is projected closer to the evaluator information D2 indicating the evaluator A2 who evaluated the image P2 as "suitable" than to the evaluator information D1 indicating the evaluator A1 who evaluated the image P2 as "unsuitable".

また、生成部42は、評価者の属性を示す評価者情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2の属性情報よりも、画像P1を「似合う」と評価した評価者A1の属性情報の近くに、画像P1を投影した分散表現空間F4を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1の属性情報よりも、画像P2を「似合う」と評価した評価者A2の属性情報の近くに、画像P2を投影した分散表現空間F4を生成する。 The generating unit 42 may also generate a distributed representation space in which evaluator information indicating the attributes of the evaluators is projected. For example, in the example of FIG. 2, the generating unit 42 generates a distributed representation space F4 in which the image P1 is projected closer to the attribute information of the evaluator A1 who evaluated the image P1 as "suitable" than to the attribute information of the evaluator A2 who evaluated the image P1 as "unsuitable". The generating unit 42 also generates a distributed representation space F4 in which the image P2 is projected closer to the attribute information of the evaluator A2 who evaluated the image P2 as "suitable" than to the attribute information of the evaluator A1 who evaluated the image P2 as "unsuitable".

また、生成部42は、所定のアンケートに対する評価者の回答を示す評価者情報を投影した分散表現空間を生成してもよい。例えば、図2の例において、生成部42は、画像P1を「似合わない」と評価した評価者A2の回答よりも、画像P1を「似合う」と評価した評価者A1の回答の近くに、画像P1を投影した分散表現空間F5を生成する。また、生成部42は、画像P2を「似合わない」と評価した評価者A1の回答よりも、画像P2を「似合う」と評価した評価者A2の回答の近くに、画像P2を投影した分散表現空間F5を生成する。 The generating unit 42 may also generate a distributed representation space in which evaluator information indicating the evaluator's responses to a predetermined questionnaire is projected. For example, in the example of FIG. 2, the generating unit 42 generates a distributed representation space F5 in which the image P1 is projected closer to the response of the evaluator A1 who evaluated the image P1 as "suitable" than to the response of the evaluator A2 who evaluated the image P1 as "not suitable". The generating unit 42 also generates a distributed representation space F5 in which the image P2 is projected closer to the response of the evaluator A2 who evaluated the image P2 as "suitable" than to the response of the evaluator A1 who evaluated the image P2 as "not suitable".

また、生成部42は、受付部41により受け付けられた評価に基づいて、畳み込みニューラルネットワークを生成してもよい。例えば、図4の例において、生成部42は、画像と、画像に対する評価者の評価と、評価者に関する評価者情報とを含む学習用データを用いてCNNを生成する。 The generating unit 42 may also generate a convolutional neural network based on the evaluations received by the receiving unit 41. For example, in the example of FIG. 4, the generating unit 42 generates a CNN using learning data including images, evaluators' evaluations of the images, and evaluator information related to the evaluators.

(推定部43について)
推定部43は、分散表現空間と、利用者に関する情報とに基づいて、当該利用者に似合う複数の被服の組み合わせを推定する。例えば、図2の例において、推定部43は、電子商取引サービスや、コーディネートサービスを介した、利用者端末100からのコーディネートの提供要求に応じて、利用者情報データベース32を参照し、生成された分散表現空間と、利用者U1に関する情報とに基づき、利用者U1に似合うコーディネートを推定する。
(Regarding the estimation unit 43)
The estimation unit 43 estimates a combination of multiple clothes that suits the user based on the distributed representation space and information about the user. For example, in the example of Fig. 2, the estimation unit 43 refers to the user information database 32 in response to a request for coordination from the user terminal 100 via an electronic commerce service or a coordination service, and estimates a coordination that suits the user U1 based on the generated distributed representation space and information about the user U1.

また、推定部43は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う複数の被服の組み合わせを推定してもよい。例えば、図2の例において、推定部43は、電子商取引サービスや、コーディネートサービスを介した、利用者端末100からのコーディネートの提供要求に応じて、生成された分散表現空間に基づき、利用者U1に似合うコーディネートを推定する。 The estimation unit 43 may also estimate a combination of multiple clothes that suits a specific target based on a distributed representation space in which an image of a wearer wearing a combination of multiple clothes is projected and evaluator information indicating the evaluators is projected, the image being generated based on evaluations of the image of a wearer wearing a combination of multiple clothes, the evaluations being based on evaluations from multiple evaluators indicating whether the combination suits the wearer. For example, in the example of FIG. 2, the estimation unit 43 estimates a coordination that suits user U1 based on the generated distributed representation space in response to a request for coordination from user terminal 100 via an e-commerce service or a coordination service.

また、推定部43は、分散表現空間と、利用者に関する情報とに基づいて、利用者に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、生成された分散表現空間と、利用者U1に関する情報とに基づき、利用者U1に似合うコーディネートを推定する。 The estimation unit 43 may also estimate a combination that suits a user based on the distributed representation space and information about the user. For example, in the example of FIG. 2, the estimation unit 43 estimates an outfit that suits user U1 based on the generated distributed representation space and information about user U1.

また、推定部43は、利用者の属性、利用者が選択した被服のカテゴリ、所定のアンケートに対する利用者の回答のうち少なくともいずれかに基づいて、利用者に似合う組み合わせを推定してもよい。例えば、図2の例において、利用者U1の属性情報が、「20代後半」である場合、推定部43は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、利用者U1がカテゴリ「カジュアル」を選択したことを示す情報を受け付けた場合、推定部43は、分散表現空間F4において、属性情報B2から所定の範囲内に投影された画像が示すコーディネートであって、分散表現空間F3において、カテゴリT1から所定の範囲内に投影された画像が示すコーディネートを、カテゴリ「カジュアル」において利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1の属性情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、「ファッションに自信がある?」といったアンケートに対し、利用者U1が「ファッションに自信がない」と回答した場合、推定部43は、分散表現空間F5において、回答C2から所定の範囲内に投影された画像が示すコーディネートを、利用者U1に似合うコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The estimation unit 43 may also estimate a combination that suits the user based on at least one of the user's attributes, the category of clothing selected by the user, and the user's response to a predetermined questionnaire. For example, in the example of FIG. 2, when the attribute information of user U1 is "late 20s", the estimation unit 43 estimates that the coordination shown by the image projected within a predetermined range from the attribute information B2 in the distributed representation space F4 is a coordination that suits the user U1, and provides the user terminal 100 with information on the coordination corresponding to the information on the user U1 and information related to the coordination among the coordination. Furthermore, when information indicating that user U1 has selected the category "casual" is received, the estimation unit 43 estimates that the coordination shown by the image projected within a predetermined range from the attribute information B2 in the distributed representation space F4 and the image projected within a predetermined range from the category T1 in the distributed representation space F3 is a coordination that suits the user U1 in the category "casual", and provides the user terminal 100 with information on the coordination corresponding to the attribute information of user U1 and information related to the coordination among the coordination. Furthermore, if user U1 responds "I'm not confident in my fashion sense" to a questionnaire such as "Are you confident in your fashion sense?", the estimation unit 43 estimates that the coordination shown in the image projected within a predetermined range from the answer C2 in the distributed representation space F5 is a coordination that suits user U1, and provides information about the coordination that corresponds to information about user U1 and information related to the coordination to the user terminal 100.

また、推定部43は、分散表現空間と、対象者に関する情報とに基づいて、当該対象者が利用者に似合うと評価する組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間と、利用者U1と所定の関係性を有する対象者に関する情報とに基づいて、対象者が利用者U1に似合うと評価するコーディネートを推定する。 The estimation unit 43 may also estimate a combination that the subject evaluates as suiting the user based on the distributed representation space and information about the subject. For example, in the example of FIG. 2, the estimation unit 43 estimates an outfit that the subject evaluates as suiting user U1 based on the distributed representation space and information about a subject who has a predetermined relationship with user U1.

また、推定部43は、対象者の属性、所定のアンケートに対する対象者の回答のうち少なくともいずれかに基づいて、対象者が利用者に似合うと評価する組み合わせを推定してもよい。例えば、図2の例において、対象者の属性情報が、「20代前半」である場合、推定部43は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、推定部43は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The estimation unit 43 may estimate a combination that the subject evaluates as looking good on the user based on at least one of the subject's attributes and the subject's response to a predetermined questionnaire. For example, in the example of FIG. 2, when the subject's attribute information is "early 20s", the estimation unit 43 estimates that the coordination shown in the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is the coordination that the subject evaluates as looking good on the user, and provides the user terminal 100 with information on the coordination corresponding to the information on the user U1 and information related to the coordination among the coordination. In addition, when the subject responds to a questionnaire such as "Are you confident in your fashion sense?" with "I am confident in my fashion sense", the estimation unit 43 estimates that the coordination shown in the image projected within a predetermined range from the response C5 in the distributed representation space F5 is the coordination that the subject evaluates as looking good on the user, and provides the user terminal 100 with information on the coordination corresponding to the information on the user U1 and information related to the coordination among the coordination.

また、推定部43は、分散表現空間と、対象者に関する情報とに基づいて、当該対象者に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間と、利用者U1と所定の関係性を有する対象者に関する情報とに基づいて、対象者が自身に似合うと評価するコーディネートを推定する。 The estimation unit 43 may also estimate a combination that suits the subject based on the distributed representation space and information about the subject. For example, in the example of FIG. 2, the estimation unit 43 estimates an outfit that the subject evaluates as suiting the subject based on the distributed representation space and information about the subject who has a predetermined relationship with user U1.

また、推定部43は、対象者の属性、所定のアンケートに対する対象者の回答のうち少なくともいずれかに基づいて、対象者に似合う組み合わせを推定してもよい。例えば、図2の例において、対象者の属性情報が、「20代前半」である場合、推定部43は、分散表現空間F4において、属性情報B6から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。また、「ファッションに自信がある?」といったアンケートに対し、対象者が「ファッションに自信がある」と回答した場合、推定部43は、分散表現空間F5において、回答C5から所定の範囲内に投影された画像が示すコーディネートを、対象者が似合うと評価するコーディネートであると推定し、当該コーディネートのうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートに関する情報を利用者端末100に提供する。 The estimation unit 43 may estimate a combination that suits the subject based on at least one of the subject's attributes and the subject's response to a predetermined questionnaire. For example, in the example of FIG. 2, if the subject's attribute information is "early 20s", the estimation unit 43 estimates that the coordination shown in the image projected within a predetermined range from the attribute information B6 in the distributed representation space F4 is a coordination that the subject evaluates as looking good on the subject, and provides the user terminal 100 with information on the coordination corresponding to the information on the subject and information related to the coordination. In addition, if the subject responds to a questionnaire such as "Are you confident in your fashion sense?" with "I am confident in my fashion sense", the estimation unit 43 estimates that the coordination shown in the image projected within a predetermined range from the response C5 in the distributed representation space F5 is a coordination that the subject evaluates as looking good on the subject, and provides the user terminal 100 with information on the coordination corresponding to the information on the subject and information related to the coordination.

また、推定部43は、着用者の顔を示す画像を投影した分散表現空間と、所定の対象の顔を示す画像とに基づいて、所定の対象に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、顔の特徴量が、利用者U1の顔の特徴量と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。 The estimation unit 43 may also estimate a combination that suits a specific target based on the distributed representation space onto which an image showing the wearer's face is projected and an image showing the face of the specific target. For example, in the example of FIG. 2, the estimation unit 43 estimates that, of the coordinations #1, #3, and #4 estimated based on the distributed representation space F4 and the attribute information of user U1, the coordination worn by a wearer whose facial features are similar to the facial features of user U1 is the coordination that suits the user.

また、推定部43は、着用者の体型を示す画像を投影した分散表現空間と、所定の対象の体型を示す画像とに基づいて、所定の対象に似合う組み合わせを推定してもよい。例えば、図2の例において、推定部43は、分散表現空間F4と、利用者U1の属性情報とに基づいて推定したコーディネート#1、#3及び#4のうち、体型が利用者U1の体型と類似する着用者が着用するコーディネートを、利用者に似合うコーディネートであると推定する。 The estimation unit 43 may also estimate a combination that suits a specific target based on a distributed representation space onto which an image showing the wearer's body type is projected and an image showing the body type of the specific target. For example, in the example of FIG. 2, the estimation unit 43 estimates that of the coordinations #1, #3, and #4 estimated based on the distributed representation space F4 and the attribute information of user U1, the coordination worn by a wearer whose body type is similar to that of user U1 is the coordination that suits the user.

また、推定部43は、組み合わせが所定の対象に似合う度合いをさらに推定してもよい。例えば、図4の例において、推定部43は、分散表現空間F4において属性情報B2からより近い画像が示すコーディネートに関する情報ほど、利用者U1に似合う度合いが高いと推定する。 The estimation unit 43 may further estimate the degree to which the combination suits a specific target. For example, in the example of FIG. 4, the estimation unit 43 estimates that the closer the information on the coordination indicated by the image in the distributed representation space F4 is to the attribute information B2, the more the combination suits the user U1.

(提供部44について)
提供部44は、推定部43により推定された組み合わせに関する組み合わせ情報を利用者に提供する。例えば、図2の例において、提供部44は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、電子商取引サービスにおいて提供する。また、提供部44は、コーディネート#1、#3及び#4の情報を、コーディネートサービスにおいて提供する。
(Regarding the providing unit 44)
The providing unit 44 provides the user with combination information regarding the combination estimated by the estimating unit 43. For example, in the example of Fig. 2, the providing unit 44 provides information on coordination #1, #3, and #4 and information on the clothes included in coordination #1, #3, and #4 in the electronic commerce service. The providing unit 44 also provides information on coordination #1, #3, and #4 in the coordination service.

また、提供部44は、推定部43により推定された組み合わせに関する情報を利用者に提供してもよい。例えば、図2の例において、提供部44は、コーディネート#1、#3及び#4の情報や、コーディネート#1、#3及び#4に含まれる被服に関する情報を、電子商取引サービスにおいて提供する。また、提供部44は、コーディネート#1、#3及び#4の情報を、コーディネートサービスにおいて提供する。 The providing unit 44 may also provide information on the combinations estimated by the estimating unit 43 to the user. For example, in the example of FIG. 2, the providing unit 44 provides information on outfits #1, #3, and #4, and information on the clothes included in outfits #1, #3, and #4, in the e-commerce service. The providing unit 44 also provides information on outfits #1, #3, and #4 in the coordination service.

また、提供部44は、組み合わせを度合いに応じた態様で提供してもよい。例えば、図2の例において、提供部44は、分散表現空間F4において属性情報B2からより近い画像が示すコーディネートに関する情報ほど、利用者U1に似合う度合いが高いと推定し、優先度を高くして提供する。 The providing unit 44 may also provide combinations in a manner that corresponds to the degree of suitability. For example, in the example of FIG. 2, the providing unit 44 estimates that the closer the information on the coordination shown by an image in the distributed representation space F4 is to the attribute information B2, the more suitable the information is for the user U1, and provides the information with a higher priority.

ここで、図8及び9を用いて、被服の組み合わせに関する情報を利用者端末100に提供する際の態様について説明する。まず、図8を用いて、電子商取引サービスにおいて被服の組み合わせに関する情報を提供する態様について説明する。図8は、利用者端末100の画面の一例を示す図(1)である。 Now, using Figures 8 and 9, we will explain how information on clothing combinations is provided to the user terminal 100. First, using Figure 8, we will explain how information on clothing combinations is provided in an electronic commerce service. Figure 8 is a diagram (1) showing an example of a screen of the user terminal 100.

図8に示すように、提供部44は、電子商取引サービスにおいて利用者U1が入力した検索クエリ「Tシャツ」若しくは「カットソー」に対応する検索結果を示す画面SC1を提供する。例えば、提供部44は、Tシャツ若しくはカットソーが含まれるコーディネートを示す画像を、画像が示すコーディネートが利用者U1に似合う度合いが高い順に示す画面SC1(言い換えると、プルダウンを示す領域AR1において、利用者U1に似合う順に表示することが指定された画面SC1)を提供する。また、提供部44は、領域AR1のプルダウンに表示される情報(すなわち、検索結果の絞り込みの条件)として、「対象者があなた(利用者U1)に似合うと評価する順」や、「対象者が自身に似合うと評価する順」などといった情報を指定可能に表示する。 As shown in FIG. 8, the providing unit 44 provides a screen SC1 showing search results corresponding to the search query "T-shirt" or "cut and sew" entered by the user U1 in the electronic commerce service. For example, the providing unit 44 provides a screen SC1 showing images of outfits including T-shirts or cut and sews in order of how well the outfits shown in the images look on the user U1 (in other words, a screen SC1 in which the order of how well the items look on the user U1 is specified in the area AR1 showing the pull-down menu). The providing unit 44 also displays information such as "the order in which the subject evaluates that the items look good on you (user U1)" or "the order in which the subject evaluates that the items look good on themselves" in a manner that allows the user to specify information to be displayed in the pull-down menu of area AR1 (i.e., the conditions for narrowing down the search results).

例えば、「対象者があなたに似合うと評価する順」が領域AR1において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順(言い換えると、対象者が利用者U1に似合うと評価する度合いが高い順)に表示する画面SC1を提供する。なお、このような場合、情報処理装置10は、電子商取引サービスにおいて対象者を識別するための情報(言い換えると、対象者に関する情報と紐付けられた対象者ID)や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC1を提供する。 For example, when "in order of how the subject evaluates that it suits you" is specified in area AR1, the providing unit 44 provides a screen SC1 that displays images projected within a predetermined range from information about the subject in the distributed representation space, showing coordinations corresponding to information about the user U1 and information related to the coordination, in the order of how close the images are to the subject (in other words, in order of how highly the subject evaluates that it suits user U1). In this case, the information processing device 10 may receive information for identifying the subject in the electronic commerce service (in other words, a subject ID linked to information about the subject) and information about the subject from user U1. The providing unit 44 then provides the screen SC1 based on the information received from user U1.

また、「対象者が自身に似合うと評価する順」が領域AR1において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順(言い換えると、対象者が利用者U1に似合うと評価する度合いが高い順)に表示する画面SC1を提供する。なお、このような場合、情報処理装置10は、電子商取引サービスにおいて対象者を識別するための情報や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC1を提供する。 Furthermore, when "the order in which the subject evaluates that it suits him/her" is specified in area AR1, the providing unit 44 provides a screen SC1 that displays images showing coordinations corresponding to information about the subject and information related to the coordination, etc., among images projected within a predetermined range from information about the subject in the distributed representation space, in the order in which they are projected closer to the position in the information about the subject (in other words, in order of the degree to which the subject evaluates that it suits user U1). Note that in such a case, the information processing device 10 may receive information for identifying the subject in the electronic commerce service and information about the subject from user U1. The providing unit 44 then provides the screen SC1 based on the information received from user U1.

次に、図9を用いて、コーディネートサービスにおいて被服の組み合わせに関する情報を提供する態様について説明する。図9は、利用者端末100の画面の一例を示す図(2)である。 Next, a mode of providing information on clothing combinations in a coordinated service will be described with reference to FIG. 9. FIG. 9 is a diagram (2) showing an example of a screen of the user terminal 100.

図9に示すように、提供部44は、コーディネートサービスにおいて利用者U1が入力した検索クエリに対応する検索結果を示す画面SC2を提供する。例えば、提供部44は、利用者U1が入力した検索クエリに対応するコーディネートを示す画像を、画像が示すコーディネートが利用者U1に似合う度合いが高い順に示す画面SC2(言い換えると、プルダウンを示す領域AR2において、利用者U1に似合う順に表示することが指定された画面SC2)を提供する。また、提供部44は、領域AR2のプルダウンに表示される情報として、「対象者があなた(利用者U1)に似合うと評価する順」や、「対象者が自身に似合うと評価する順」などといった情報を指定可能に表示する。 As shown in FIG. 9, the providing unit 44 provides a screen SC2 showing search results corresponding to a search query entered by the user U1 in the coordination service. For example, the providing unit 44 provides a screen SC2 showing images of coordinations corresponding to the search query entered by the user U1 in order of how well the coordinations shown in the images suit the user U1 (in other words, a screen SC2 in which the order of how well the coordinations suit the user U1 is specified in the area AR2 showing the pull-down menu). The providing unit 44 also displays information such as "the order in which the subject evaluates that the coordinations suit you (user U1)" or "the order in which the subject evaluates that the coordinations suit themselves" in a manner that allows the user to specify the information to be displayed in the pull-down menu of the area AR2.

例えば、「対象者があなたに似合うと評価する順」が領域AR2において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、利用者U1に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順に表示する画面SC2を提供する。なお、このような場合、情報処理装置10は、コーディネートサービスにおいて対象者を識別するための情報や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC2を提供する。 For example, if "in order of how the target person evaluates that it suits you" is specified in area AR2, the providing unit 44 provides a screen SC2 that displays, among images projected within a predetermined range from information about the target person in the distributed representation space, images showing coordination corresponding to information about the user U1 and information related to the coordination, in the order in which they are projected closer to the position from the information about the target person. Note that in such a case, the information processing device 10 may receive information for identifying the target person in the coordination service and information about the target person from the user U1. The providing unit 44 then provides the screen SC2 based on the information received from the user U1.

また、「対象者が自身に似合うと評価する順」が領域AR2において指定された場合、提供部44は、分散表現空間において、対象者に関する情報から所定の範囲内に投影された画像のうち、対象者に関する情報や、コーディネートに関連する情報などに対応するコーディネートを示す画像を、対象者に関する情報からより近い位置に投影された順に表示する画面SC2を提供する。なお、このような場合、情報処理装置10は、コーディネートサービスにおいて対象者を識別するための情報や、対象者に関する情報を利用者U1から受け付けてもよい。そして、提供部44は、利用者U1から受け付けられた情報に基づいて、画面SC2を提供する。 Furthermore, when "the order in which the subject evaluates that it suits the subject" is specified in area AR2, the providing unit 44 provides a screen SC2 that displays, among images projected within a predetermined range from information about the subject in the distributed representation space, images showing coordination corresponding to information about the subject or information related to the coordination, in the order in which they are projected closer to the position from the information about the subject. Note that in such a case, the information processing device 10 may receive information for identifying the subject in the coordination service and information about the subject from user U1. Then, the providing unit 44 provides the screen SC2 based on the information received from user U1.

なお、図8及び9において、提供部44は、CNNが生成した領域ベクトルを用いて、各画像が示すコーディネートのうち、各評価者が似合うと判断した領域(言い換えると、コーディネートのうちポイントとなる被服)を推定し、推定した領域をヒートマップで示す画像を提供してもよい。 In addition, in Figures 8 and 9, the providing unit 44 may use the area vectors generated by the CNN to estimate the areas of the outfits shown in each image that each evaluator judges to look good (in other words, the key clothing in the outfits), and provide an image showing the estimated areas in a heat map.

なお、上記の例においては、特定の検索クエリに基づいて似合うと評価する順で商品などの情報を表示する例を示したが、本発明の範囲はその場合に限られない。例えば、提供部44は、商品カテゴリに関する検索クエリが存在しない場合であっても、任意の商品カテゴリを含む商品群に対して当該の利用者に対する似合う度合いの評価を行い、推薦結果として利用者に提供しても良い。 In the above example, information on products and the like is displayed in order of suitability based on a specific search query, but the scope of the present invention is not limited to this case. For example, even if there is no search query related to a product category, the providing unit 44 may evaluate the degree to which a group of products including an arbitrary product category suits the user, and provide the result as a recommendation to the user.

また、検索クエリ以外であっても、似合う度合いの評価結果に対して様々なフィルタや他の評価結果を組み合わせて利用者に表示することが可能である。例えば、推薦システムにおいて、利用者に対して推薦するに値するアイテムの候補およびそれらに対する推薦度合いの評価結果をあらかじめ特定しておくとする。そして、これらの推薦候補のアイテムに対して似合う度合いの評価を行い、推薦度合いおよび似合う度合いに応じて順序付けたアイテムを利用者に対して表示することができる。このようにして、似合う度合いを他の要素と複合的に組み合わせた結果を用いて利用者にアイテム(商品)やコーディネートの情報を提供することが可能である。 In addition, even if it is not a search query, it is possible to combine the suitability evaluation results with various filters and other evaluation results and display them to the user. For example, in a recommendation system, candidate items worthy of recommendation to the user and the evaluation results of their recommendation degree are specified in advance. The suitability of these recommended candidate items can then be evaluated, and items ranked according to the recommendation degree and suitability degree can be displayed to the user. In this way, it is possible to provide the user with information on items (products) and outfits using the results of a complex combination of suitability degree with other elements.

(判定部45について)
判定部45は、分散表現における複数の領域と、利用者に関する情報とに基づいて、領域に含まれる被服のそれぞれが当該利用者に似合う度合いを判定する。例えば、図4の例において、判定部45は、分散表現が、利用者U1の分散表現と類似する評価者を特定する。そして、判定部45は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、利用者U1に似合う度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、利用者U1に似合う度合いが低いと判定する。
(Regarding the determination unit 45)
The determination unit 45 determines the degree to which each of the clothes included in the region suits the user based on the multiple regions in the distributed representation and the information on the user. For example, in the example of Fig. 4, the determination unit 45 identifies an evaluator whose distributed representation is similar to the distributed representation of the user U1. The determination unit 45 then determines that the clothes indicated by the region whose region vector is more similar to the distributed representation of the identified evaluator are more suitable for the user U1, and determines that the clothes indicated by the region whose region vector is less similar to the distributed representation of the evaluator are less suitable for the user U1.

また、判定部45は、分散表現における複数の領域と、対象者に関する情報とに基づいて、領域に含まれる被服のそれぞれを当該対象者が利用者に似合うと評価する度合いを判定してもよい。例えば、図4の例において、判定部45は、対象者の分散表現と類似する評価者を特定する。そして、判定部45は、画像P1の各領域のうち、領域ベクトルが、特定した評価者の分散表現と類似する度合いが高い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが低いと判定する。 The determination unit 45 may also determine the degree to which the subject evaluates each of the clothes included in the region as looking good on the user based on multiple regions in the distributed representation and information about the subject. For example, in the example of FIG. 4, the determination unit 45 identifies an evaluator who is similar to the distributed representation of the subject. Then, the determination unit 45 determines that the subject evaluates the clothes as looking good on the user U1 to a higher degree for an area of the image P1 whose area vector is more similar to the distributed representation of the identified evaluator, and determines that the subject evaluates the clothes as looking good on the user U1 to a lower degree for an area whose area vector is less similar to the distributed representation of the evaluator.

(出力部46について)
出力部46は、生成部42により生成された畳み込みニューラルネットワークが画像の領域ごとに生成する分散表現に基づく態様で画像を出力する。例えば、図4の例において、出力部46は、CNNが生成した領域ベクトルを用いて、各評価者が似合うと判断した領域を推定し、推定した領域を示すヒートマップを出力する。
(Regarding the output unit 46)
The output unit 46 outputs the image in a form based on the distributed representation generated for each region of the image by the convolutional neural network generated by the generation unit 42. For example, in the example of Fig. 4, the output unit 46 estimates the regions that each evaluator judged to look good using the region vectors generated by the CNN, and outputs a heat map showing the estimated regions.

また、出力部46は、分散表現における複数の領域と、評価者を示す評価者情報とに基づく態様で画像を出力してもよい。例えば、図4の例において、出力部46は、各画像について、似合うと評価した評価者の分散表現と類似する分散表現を出力し、似合わないと評価した評価者の評価者情報の分散表現と類似しない分散表現を出力するように学習が行われたCNNが生成する領域ベクトルを用いて、各評価者が似合うと判断した領域を推定し、推定した領域を示すヒートマップを出力する。 The output unit 46 may also output images in a manner based on multiple regions in the distributed representation and evaluator information indicating the evaluator. For example, in the example of FIG. 4, the output unit 46 estimates the regions that each evaluator judged to look good using region vectors generated by a CNN that has been trained to output distributed representations similar to the distributed representations of the evaluators who evaluated each image as looking good, and distributed representations that are not similar to the distributed representations of the evaluator information of the evaluators who evaluated each image as not looking good, and outputs a heat map indicating the estimated regions.

また、出力部46は、分散表現が評価者情報の分散表現と類似する領域ほど強調の度合いを高くし、評価者情報の分散表現と類似しない領域ほど強調の度合いを低くした画像を出力してもよい。例えば、図4の例において、出力部46は、分散表現が評価者情報の分散表現と類似する領域ほど赤色の度合いを高くし、評価者情報の分散表現と類似しない領域ほど青色の度合いを高くしたヒートマップを出力する。 The output unit 46 may also output an image in which the degree of emphasis is increased in areas where the distributed representation is more similar to the distributed representation of the evaluator information, and the degree of emphasis is decreased in areas where the distributed representation is less similar to the distributed representation of the evaluator information. For example, in the example of FIG. 4, the output unit 46 outputs a heat map in which the degree of red is increased in areas where the distributed representation is more similar to the distributed representation of the evaluator information, and the degree of blue is increased in areas where the distributed representation is less similar to the distributed representation of the evaluator information.

また、出力部46は、判定部45により判定された利用者に似合う度合いに応じた態様で領域を表示する画像を利用者に出力してもよい。例えば、図4の例において、出力部46は、ステップSb3において特定した評価者の分散表現と、画像P1のボトムスを示す領域の領域ベクトルが類似し、画像P1のトップスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、ボトムスを示す領域を濃い赤色で表示し、トップスを示す領域を濃い青色で表示する画像P1-1を出力する。また、出力部46は、ステップSb3において特定した評価者の分散表現と、画像P1のトップスを示す領域の領域ベクトルが類似し、画像P1のボトムスを示す領域の領域ベクトルが類似しない場合、情報処理装置10は、画像P1のうち、トップスを示す領域を濃い赤色で表示し、ボトムスを示す領域を濃い青色で表示する画像P1-2を出力する。 The output unit 46 may also output to the user an image that displays the area in a manner according to the degree to which the user is judged to suit the user by the judgment unit 45. For example, in the example of FIG. 4, if the area vector of the area showing the bottoms of the image P1 is similar to the distributed representation of the evaluator identified in step Sb3, but the area vector of the area showing the tops of the image P1 is not similar, the information processing device 10 outputs an image P1-1 in which the area showing the bottoms of the image P1 is displayed in dark red and the area showing the tops of the image P1 is displayed in dark blue. If the area vector of the area showing the tops of the image P1 is similar to the distributed representation of the evaluator identified in step Sb3, but the area vector of the area showing the bottoms of the image P1 is not similar, the information processing device 10 outputs an image P1-2 in which the area showing the tops of the image P1 is displayed in dark red and the area showing the bottoms of the image P1 is displayed in dark blue.

また、出力部46は、判定部45により判定された対象者が利用者に似合うと評価する度合いに応じた態様で領域を表示する画像を利用者に出力してもよい。例えば、図4の例において、出力部46は、画像P1の各領域のうち、領域ベクトルが、対象者の分散表現と類似する評価者の分散表現と類似する度合いが高い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが高いと判定し、当該評価者の分散表現と類似する度合いが低い領域が示す被服ほど、対象者が利用者U1に似合うと評価する度合いが低いと判定し、判定した度合いに応じた態様で画像P1を出力する。 The output unit 46 may also output to the user an image that displays the region in a manner according to the degree to which the subject, as determined by the determination unit 45, evaluates that the subject evaluates that the user U1 looks good on the clothing indicated by a region in which the region vector is more similar to the distributed representation of the evaluator who is similar to the distributed representation of the subject, and determines that the subject evaluates that the subject evaluates that the user U1 looks good on the clothing indicated by a region in which the region vector is less similar to the distributed representation of the evaluator, and outputs the image P1 in a manner according to the degree of the evaluation.

(取得部47について)
取得部47は、提供部44により提供された組み合わせ情報に対する、利用者、若しくは、利用者と所定の関係を有する他の利用者からのフィードバックを取得する。例えば、図2の例において、取得部47は、電子商取引サービスにおいて、利用者U1がコーディネート#1、#3及び#4に含まれる被服を購入したか否かや、レンタルの申込みを行ったか否かを示す情報(フィードバック)を取得し、利用者情報データベース32に格納する。また、取得部47は、コーディネートサービスにおいて、利用者U1がコーディネート#1、#3及び#4に対するお気に入り登録を行ったか否かを示す情報(フィードバック)を取得する。また、取得部47は、提供された情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。また、取得部47は、提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際に、対象者が肯定的であったか否かを示す情報(フィードバック)を、利用者端末100や、対象者が利用する端末装置などから取得する。
(Regarding the Acquisition Unit 47)
The acquisition unit 47 acquires feedback from the user or other users having a predetermined relationship with the user with respect to the combination information provided by the provision unit 44. For example, in the example of FIG. 2, the acquisition unit 47 acquires information (feedback) indicating whether the user U1 has purchased clothes included in the coordination #1, #3, and #4 in the electronic commerce service or whether he/she has applied for rental, and stores the information in the user information database 32. The acquisition unit 47 also acquires information (feedback) indicating whether the user U1 has registered the coordination #1, #3, and #4 as favorites in the coordination service. The acquisition unit 47 also acquires information (feedback) indicating whether the target person was positive about the user U1 wearing the coordination indicated by the provided information from the user terminal 100, a terminal device used by the target person, or the like. The acquisition unit 47 also acquires information (feedback) indicating whether the target person was positive about the user U1 who wore the coordination indicated by the provided information when the user U1 gave the target person the clothing included in the coordination indicated by the provided information as a present, from the user terminal 100, a terminal device used by the target person, or the like.

(更新部48について)
更新部48は、取得部47により取得されたフィードバックに基づいて、分散表現空間を更新する。利用者U1がコーディネート#1に対して肯定的である場合、更新部48は、分散表現空間F4において、属性情報B2と画像P1とを所定の距離近づけるように更新する。一方、利用者U1がコーディネート#3に対して否定的である場合、更新部48は、分散表現空間F4において、属性情報B2と画像P3とを所定の距離遠ざけるように更新する。
(Regarding the update unit 48)
The update unit 48 updates the distributed representation space based on the feedback acquired by the acquisition unit 47. When the user U1 is positive about the coordination #1, the update unit 48 updates the attribute information B2 and the image P1 in the distributed representation space F4 so as to bring them closer to each other by a predetermined distance. On the other hand, when the user U1 is negative about the coordination #3, the update unit 48 updates the attribute information B2 and the image P3 in the distributed representation space F4 so as to move them apart by a predetermined distance.

また、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が肯定的である場合、更新部48は、分散表現空間において、対象者に対応する情報(例えば、属性情報や、アンケートに対する回答など)と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、提供した情報が示すコーディネートを着用した利用者U1に対し、対象者が否定的である場合、更新部48は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。 In addition, if the target person has a positive opinion of user U1 wearing the outfit indicated by the provided information, the update unit 48 updates the information corresponding to the target person (e.g., attribute information, responses to a questionnaire, etc.) and the image showing the outfit in the distributed representation space so as to bring them closer together by a predetermined distance. On the other hand, if the target person has a negative opinion of user U1 wearing the outfit indicated by the provided information, the update unit 48 updates the information corresponding to the target person and the image showing the outfit in the distributed representation space so as to move them apart by a predetermined distance.

また、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が肯定的である場合、更新部48は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像とを所定の距離近づけるように更新する。一方、利用者U1に提供した情報が示すコーディネートに含まれる被服を利用者U1が対象者にプレゼントした際、対象者が否定的である場合、更新部48は、分散表現空間において、対象者に対応する情報と当該コーディネートを示す画像を所定の距離遠ざけるように更新する。 In addition, when user U1 presents to a target person clothing included in the coordination indicated by the information provided to user U1, if the target person is positive, the update unit 48 updates the information corresponding to the target person and the image showing the coordination in the distributed representation space to bring them closer together by a predetermined distance. On the other hand, when user U1 presents to a target person clothing included in the coordination indicated by the information provided to user U1, if the target person is negative, the update unit 48 updates the information corresponding to the target person and the image showing the coordination in the distributed representation space to move them apart by a predetermined distance.

〔5.情報処理のフロー〕
図10を用いて、実施形態に係る情報処理装置10の情報処理の手順(1)について説明する。図10は、実施形態に係る情報処理の手順の一例を示すフローチャート(1)である。
5. Information Processing Flow
The information processing procedure (1) of the information processing device 10 according to the embodiment will be described with reference to Fig. 10. Fig. 10 is a flowchart (1) showing an example of the information processing procedure according to the embodiment.

図10に示すように、情報処理装置10は、複数の被服の組み合わせを着用した着用者の画像に対する評価を受け付けたか否かを判定する(ステップS101)。評価を受け付けていない場合(ステップS101;No)、情報処理装置10は、評価を受け付けるまで待機する。 As shown in FIG. 10, the information processing device 10 determines whether or not an evaluation has been received for an image of a wearer wearing a combination of multiple clothes (step S101). If an evaluation has not been received (step S101; No), the information processing device 10 waits until an evaluation is received.

一方、評価を受け付けた場合(ステップS101;Yes)、情報処理装置10は、評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成し(ステップS102)、処理を終了する。 On the other hand, if an evaluation has been received (step S101; Yes), the information processing device 10 generates a distributed representation space into which the image and evaluator information indicating the evaluator are projected based on the evaluation (step S102), and ends the process.

次に、図11を用いて、実施形態に係る情報処理装置10の情報処理の手順(2)について説明する。図11は、実施形態に係る情報処理の手順の一例を示すフローチャート(2)である。 Next, the information processing procedure (2) of the information processing device 10 according to the embodiment will be described with reference to FIG. 11. FIG. 11 is a flowchart (2) showing an example of the information processing procedure according to the embodiment.

図11に示すように、情報処理装置10は、複数の被服の組み合わせを着用した着用者の画像に対する評価を受け付けたか否かを判定する(ステップS201)。評価を受け付けていない場合(ステップS201;No)、情報処理装置10は、評価を受け付けるまで待機する。 As shown in FIG. 11, the information processing device 10 determines whether or not an evaluation has been received for an image of a wearer wearing a combination of multiple clothes (step S201). If an evaluation has not been received (step S201; No), the information processing device 10 waits until an evaluation is received.

一方、評価を受け付けた場合(ステップS201;Yes)、情報処理装置10は、評価に基づいて、畳み込みニューラルネットワークを生成する(ステップS202)。続いて、情報処理装置10は、畳み込みニューラルネットワークが画像の領域ごとに生成する分散表現に基づく態様で画像を出力し(ステップS203)、処理を終了する。 On the other hand, if an evaluation has been received (step S201; Yes), the information processing device 10 generates a convolutional neural network based on the evaluation (step S202). Next, the information processing device 10 outputs the image in a manner based on the distributed representation generated by the convolutional neural network for each region of the image (step S203), and ends the process.

次に、図12を用いて、実施形態に係る情報処理装置10の情報処理の手順(3)について説明する。図12は、実施形態に係る情報処理の手順の一例を示すフローチャート(3)である。 Next, the information processing procedure (3) of the information processing device 10 according to the embodiment will be described with reference to FIG. 12. FIG. 12 is a flowchart (3) showing an example of the information processing procedure according to the embodiment.

図12に示すように、情報処理装置10は、被服の組み合わせの提供要求を受け付けたか否かを判定する(ステップS301)。提供要求を受け付けていない場合(ステップS301;No)、情報処理装置10は、提供要求を受け付けるまで待機する。 As shown in FIG. 12, the information processing device 10 determines whether or not a request to provide a clothing combination has been received (step S301). If a request to provide a clothing combination has not been received (step S301; No), the information processing device 10 waits until a request to provide a clothing combination is received.

一方、提供要求を受け付けた場合(ステップS301;Yes)、情報処理装置10は、評価者からの評価に基づいて生成される、複数の被服の組み合わせを着用した着用者の画像と、評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う複数の被服の組み合わせを推定する(ステップ3202)。続いて、情報処理装置10は、推定された組み合わせに関する情報を利用者に提供し(ステップS303)、処理を終了する。 On the other hand, if a request for provision is received (step S301; Yes), the information processing device 10 estimates a combination of multiple clothes that suits a specific target based on a distributed representation space into which an image of a wearer wearing a combination of multiple clothes, generated based on the evaluations from the evaluators, and evaluator information indicating the evaluators are projected (step 3202). Next, the information processing device 10 provides information on the estimated combination to the user (step S303), and ends the process.

〔6.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
6. Modifications
The above-described embodiment is merely an example, and various modifications and applications are possible.

〔6-1.評価者に対する情報の提供について〕
上述の実施形態において、情報処理装置10は、評価者による画像に対する評価に基づいて、コーディネートに関する情報を提供してもよい。例えば、情報処理装置10は、評価者が似合うと評価した画像に対応するコーディネートに関する情報を、電子商取引サービスや、コーディネートサービスにおいて提供する。
[6-1. Provision of information to evaluators]
In the above-described embodiment, the information processing device 10 may provide information on coordination based on the evaluation of the image by the evaluator. For example, the information processing device 10 provides information on coordination corresponding to the image evaluated as looking good by the evaluator in an electronic commerce service or a coordination service.

〔6-2.対象者について〕
上述の実施形態において、対象者が、利用者が会う相手や、プレゼントを贈る相手である例を示したが、対象者はこのような例に限定されない。例えば、対象者は、ショップの店員やコーディネーターである利用者が接客する相手であってもよい。このような場合、情報処理装置10は、分散表現空間と、利用者が接客する対象者に関する情報とに基づいて、対象者が自身に似合うと評価するコーディネート(言い換えると、対象者が気に入るコーディネート)を推定し、推定したコーディネートに関する情報を利用者に出力する。また、情報処理装置10は、CNNと、利用者が接客する対象者に関する情報とに基づく態様で、コーディネートを示す画像(例えば、コーディネートのうちいずれの被服を対象者が気に入るかを示す画像)を出力する。
[6-2. About the target people]
In the above embodiment, the target person is a person whom the user meets or a person to whom a gift is given, but the target person is not limited to such examples. For example, the target person may be a person served by the user who is a shop clerk or a coordinator. In such a case, the information processing device 10 estimates an outfit that the target person evaluates as suiting the target person (in other words, an outfit that the target person likes) based on the distributed representation space and information about the target person served by the user, and outputs information about the estimated outfit to the user. In addition, the information processing device 10 outputs an image showing the outfit (for example, an image showing which clothes of the outfit the target person likes) in a manner based on the CNN and information about the target person served by the user.

なお、情報処理装置10は、ショップの店員やコーディネーターである利用者と、顧客である対象者とのマッチングを行ってもよい。例えば、情報処理装置10は、各利用者に関する情報と、各対象者に関する情報とに基づき、各利用者及び各対象者を分散表現空間に投影した場合の位置を推定し、投影した位置から所定の範囲内に所在する利用者及び対象者に関する情報を、利用者及び対象者のそれぞれに提供する。 The information processing device 10 may also match users who are shop clerks or coordinators with target individuals who are customers. For example, the information processing device 10 estimates the position of each user and each target individual when projected into a distributed representation space based on information about each user and information about each target individual, and provides each user and target individual with information about the users and targets who are located within a specified range from the projected position.

〔6-3.被服のデザインに関する情報の提供について〕
上述の実施形態において、情報処理装置10は、製造元がデザインした被服のデータに対する評価者の評価を受け付け、当該評価に基づく情報を製造元に提供してもよい。例えば、情報処理装置10は、製造元がデザインした被服を着用した着用者を示すデータ(例えば、CADデータ)と、当該データに対する評価者の評価と、評価者に関する評価者情報とを含む学習用データを用いてCNNを生成する。具体的な例を挙げると、情報処理装置10は、データが示す被服のある領域について、その領域について似合うと評価した可能性が高い各評価者の分散表現と類似し、似合わないと評価した可能性が高い各評価者の分散表現と類似しない領域ベクトル(データが示す被服を複数の領域に分割し、分割した領域ごとの特徴を示すベクトル)を生成するよう学習したCNNを生成する。そして、情報処理装置10は、このような学習済みのCNNが生成した領域ベクトルを用いて、各評価者が似合うと判断した領域(言い換えると、襟や裾などといった被服の部位)を推定し、推定した領域を示すヒートマップを出力する。
[6-3. Providing information on clothing designs]
In the above embodiment, the information processing device 10 may receive the evaluator's evaluation of the data of the clothing designed by the manufacturer, and provide the manufacturer with information based on the evaluation. For example, the information processing device 10 generates a CNN using learning data including data (e.g., CAD data) showing a wearer wearing the clothing designed by the manufacturer, the evaluator's evaluation of the data, and evaluator information on the evaluator. As a specific example, the information processing device 10 generates a CNN that has been trained to generate region vectors (the clothing shown in the data is divided into a plurality of regions, and a vector showing the characteristics of each divided region) that are similar to the distributed representations of the evaluators who are likely to have evaluated the region as looking good and dissimilar to the distributed representations of the evaluators who are likely to have evaluated the region as not looking good, for a certain region of the clothing shown in the data. Then, the information processing device 10 uses the region vectors generated by such a trained CNN to estimate the regions that each evaluator judged to look good (in other words, parts of the clothing such as the collar and hem), and outputs a heat map showing the estimated regions.

より具体的な例を挙げると、情報処理装置10は、CNNと、所定の利用者(例えば、被服の購買層)に関する情報とに基づき、当該データの各領域が示す被服の部位のそれぞれについて、利用者が似合うと評価する度合いを判定し、判定した度合いをヒートマップで示すデータを製造元に出力する。 To give a more specific example, the information processing device 10 uses CNN and information about a specific user (e.g., a clothing purchasing demographic) to determine the degree to which the user evaluates that each part of the clothing indicated by each area of the data looks good on the user, and outputs data showing the determined degrees in the form of a heat map to the manufacturer.

これにより、情報処理装置10は、デザイン中の被服のどの部位が、利用者に似合うと評価されるかを把握し、どの部位が似合わないと評価されるかを把握することを可能とするため、被服のデザインにおける利便性を向上させることができる。 This allows the information processing device 10 to determine which parts of the clothing being designed are evaluated as looking good on the user, and which parts are evaluated as not looking good on the user, thereby improving convenience in designing clothing.

〔6-4.処理態様について〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
6-4. Processing Mode
Among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, and conversely, all or part of the processes described as being performed manually can be performed automatically by a known method. In addition, the information including the processing procedures, specific names, various data and parameters shown in the above text and drawings can be changed arbitrarily unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 In addition, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.

また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-mentioned embodiments can be combined as appropriate to the extent that they do not cause any contradictions in the processing content.

〔6-5.評価の対象について〕
上述の実施形態において、情報処理装置10が、被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成する例を示したが、評価の対象は被服の組み合わせに限定されず、任意のものであってもよい。例えば、情報処理装置10は、複数の家具の組み合わせを示す画像に対する評価であって、当該組み合わせが似合っているか否かを示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成してもよい。具体的な例を挙げると、情報処理装置10は、評価者から受け付けられた評価に基づいて、家具の組み合わせを示す画像や、画像が示す家具に関する情報(例えば、家具タイプ、ブランド、ショップ名、製造地、利用シーン、色、カテゴリ(カジュアル等)、売り文句、素材、サイズ、価格帯など)、評価者に関する情報などを投影した分散表現空間を生成し、利用者が似合うと評価する家具の組み合わせに関する情報を利用者に提供する。また、情報処理装置10は、評価者から受け付けられた評価に基づいてCNNを生成し、CNNが家具の組み合わせを示す画像の領域ごとに生成する分散表現に基づく態様で、家具の組み合わせを示す画像を出力する。
[6-5. About the subject of evaluation]
In the above embodiment, the information processing device 10 receives evaluations from multiple evaluators on an image of a wearer wearing a combination of clothes, indicating whether the combination suits the wearer, and generates a distributed representation space and a CNN based on the received evaluations. However, the subject of the evaluation is not limited to a combination of clothes, and may be any. For example, the information processing device 10 may receive evaluations from multiple evaluators on an image showing a combination of multiple pieces of furniture, indicating whether the combination suits the wearer, and generate a distributed representation space and a CNN based on the received evaluations. To give a specific example, the information processing device 10 generates a distributed representation space in which an image showing a combination of furniture, information about the furniture shown in the image (for example, furniture type, brand, shop name, manufacturing location, usage scene, color, category (casual, etc.), selling point, material, size, price range, etc.), information about the evaluator, etc. are projected based on the evaluations received from the evaluators, and provides the user with information about the combination of furniture that the user evaluates as looking good. In addition, the information processing device 10 generates a CNN based on the evaluations received from the evaluators, and outputs an image showing the furniture combination in a manner based on the distributed representation that the CNN generates for each region of the image showing the furniture combination.

また、例えば、情報処理装置10は、複数の料理の組み合わせ(例えば、献立)を示す画像に対する評価であって、当該組み合わせが適切か否か(例えば、見た目や、味の組み合わせが適切か否か)を示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成してもよい。具体的な例を挙げると、情報処理装置10は、評価者から受け付けられた評価に基づいて、料理の組み合わせを示す画像や、画像が示す料理に関する情報(例えば、料理名や、食材、料理のジャンル、旬の季節、味の特徴、価格帯など)、評価者に関する情報などを投影した分散表現空間を生成し、利用者が適切と評価する料理の組み合わせに関する情報を利用者に提供する。また、情報処理装置10は、評価者から受け付けられた評価に基づいてCNNを生成し、CNNが料理の組み合わせを示す画像の領域ごとに生成する分散表現に基づく態様で、料理の組み合わせを示す画像を出力する。 For example, the information processing device 10 may receive evaluations from multiple evaluators on an image showing a combination of multiple dishes (e.g., a menu), indicating whether the combination is appropriate (e.g., whether the combination of appearance and taste is appropriate), and generate a distributed representation space and a CNN based on the received evaluations. As a specific example, the information processing device 10 generates a distributed representation space that projects an image showing the combination of dishes, information about the dishes shown in the image (e.g., the name of the dish, ingredients, genre of the dish, season, taste characteristics, price range, etc.), information about the evaluator, etc., based on the evaluations received from the evaluators, and provides the user with information about the combination of dishes that the user evaluates as appropriate. The information processing device 10 also generates a CNN based on the evaluations received from the evaluators, and outputs an image showing the combination of dishes in a manner based on the distributed representations generated by the CNN for each region of the image showing the combination of dishes.

また、例えば、情報処理装置10は、複数の花の組み合わせ(例えば、花束)を示す画像に対する評価であって、当該組み合わせが適切か否かを示す評価を複数の評価者から受け付け、受け付けた評価に基づいて、分散表現空間やCNNを生成してもよい。具体的な例を挙げると、情報処理装置10は、評価者から受け付けられた評価に基づいて、花の組み合わせを示す画像や、画像が示す花に関する情報(例えば、利用シーン、個々の花の名前、色、季節、目的、カテゴリ(カジュアル等)、売り文句、産地、価格帯など)、評価者に関する情報などを投影した分散表現空間を生成し、利用者が適切と評価する花の組み合わせに関する情報を利用者に提供する。また、情報処理装置10は、評価者から受け付けられた評価に基づいてCNNを生成し、CNNが花の組み合わせを示す画像の領域ごとに生成する分散表現に基づく態様で、花の組み合わせを示す画像を出力する。 For example, the information processing device 10 may receive evaluations from multiple evaluators on an image showing a combination of multiple flowers (e.g., a bouquet), indicating whether the combination is appropriate or not, and generate a distributed representation space or a CNN based on the received evaluations. As a specific example, the information processing device 10 generates a distributed representation space in which an image showing a combination of flowers, information about the flowers shown in the image (e.g., usage scene, name, color, season, purpose, category (casual, etc.), selling point, place of origin, price range, etc.), and information about the evaluator are projected based on the evaluations received from the evaluators, and provides the user with information about the combination of flowers that the user evaluates as appropriate. The information processing device 10 also generates a CNN based on the evaluations received from the evaluators, and outputs an image showing the combination of flowers in a manner based on the distributed representations generated by the CNN for each region of the image showing the combination of flowers.

〔6-6.画像について〕
上述の実施形態において、情報処理装置10が、複数の被服の組み合わせを着用した着用者の画像に対する処理について記載したが、実施形態はこれに限定されるものではなく、1つの被服を着用した着用者の画像に対して同様の処理を行ってもよい。
[6-6. About Images]
In the above-described embodiment, the information processing device 10 has been described as processing an image of a wearer wearing a combination of multiple pieces of clothing, but the embodiment is not limited to this, and similar processing may be performed on an image of a wearer wearing a single piece of clothing.

〔7.効果〕
上述してきたように、実施形態に係る情報処理装置10は、受付部41と、生成部42と、推定部43と、提供部44と、判定部45と、出力部46と、取得部47と、更新部48とを有する。情報処理装置10は、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける受付部41と、受付部41により受け付けられた評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する生成部42とを有することを特徴とする。また、情報処理装置10は、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける受付部41と、受付部41により受け付けられた評価に基づいて、畳み込みニューラルネットワークを生成する生成部42と、生成部42により生成された畳み込みニューラルネットワークが画像の領域ごとに生成する分散表現に基づく態様で画像を出力する出力部46とを有することを特徴とする。また、情報処理装置10は、被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う被服を推定する推定部43と、推定部43により推定された被服に関する情報を利用者に提供する提供部44とを有することを特徴とする。
7. Effects
As described above, the information processing device 10 according to the embodiment includes a receiving unit 41, a generating unit 42, an estimating unit 43, a providing unit 44, a determining unit 45, an output unit 46, an acquiring unit 47, and an updating unit 48. The information processing device 10 is characterized by having a receiving unit 41 that receives evaluations from a plurality of evaluators on an image of a wearer wearing clothes, the evaluations indicating whether the clothes suit the wearer, and a generating unit 42 that generates a distributed representation space in which an image and evaluator information indicating the evaluators are projected based on the evaluations received by the receiving unit 41. The information processing device 10 is also characterized by having a receiving unit 41 that receives evaluations from a plurality of evaluators on an image of a wearer wearing clothes, the evaluations indicating whether the clothes suit the wearer, the generating unit 42 that generates a convolutional neural network based on the evaluations received by the receiving unit 41, and an output unit 46 that outputs an image in a manner based on the distributed representation generated by the convolutional neural network generated by the generating unit 42 for each region of the image. The information processing device 10 is also characterized by having an estimation unit 43 that estimates clothing that suits a specified target based on a distributed representation space into which an image of a wearer wearing clothing is projected and evaluator information indicating the evaluators, the evaluation being generated based on evaluations of the image of the wearer wearing the clothing from a plurality of evaluators indicating whether the clothing suits the wearer, and a provision unit 44 that provides a user with information regarding the clothing estimated by the estimation unit 43.

また、受付部41は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける。また、受付部41は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける。生成部42は、受付部41により受け付けられた評価に基づいて、画像と、評価者を示す評価者情報とを投影した分散表現空間を生成する。また、生成部42は、評価者が、組み合わせが着用者に似合っていると高く評価するほど、分散表現空間において画像と、評価者情報とをより近い位置に投影し、評価者が、組み合わせが着用者に似合っていないと低く評価するほど、分散表現空間において画像と、評価者情報とをより遠い位置に投影また、生成部42は、受付部41により受け付けられた評価に基づいて、畳み込みニューラルネットワークを生成する。推定部43は、分散表現空間と、利用者に関する情報とに基づいて、当該利用者に似合う複数の被服の組み合わせを推定する。また、推定部43は、複数の被服の組み合わせを着用した着用者の画像に対する評価であって、当該組み合わせが当該着用者に似合っているか否かを示す複数の評価者からの評価に基づいて生成される、当該画像と、当該評価者を示す評価者情報とを投影した分散表現空間に基づいて、所定の対象に似合う複数の被服の組み合わせを推定する。また、推定部43は、組み合わせが所定の対象に似合う度合いをさらに推定する。提供部44は、推定部43により推定された組み合わせに関する組み合わせ情報を利用者に提供する。また、提供部44は、推定部43により推定された組み合わせに関する情報を利用者に提供する。また、提供部44は、組み合わせを度合いに応じた態様で提供する。判定部45は、分散表現における複数の領域と、利用者に関する情報とに基づいて、領域に含まれる被服のそれぞれが当該利用者に似合う度合いを判定する。また、判定部45は、分散表現における複数の領域と、対象者に関する情報とに基づいて、領域に含まれる被服のそれぞれを当該対象者が利用者に似合うと評価する度合いを判定する。出力部46は、生成部42により生成された畳み込みニューラルネットワークが画像の領域ごとに生成する分散表現に基づく態様で画像を出力する。また、出力部46は、分散表現における複数の領域と、評価者を示す評価者情報とに基づく態様で画像を出力する。また、出力部46は、分散表現が評価者情報の分散表現と類似する領域ほど強調の度合いを高くし、評価者情報の分散表現と類似しない領域ほど強調の度合いを低くした画像を出力する。また、出力部46は、判定部45により判定された利用者に似合う度合いに応じた態様で領域を表示する画像を利用者に出力する。また、出力部46は、判定部45により判定された対象者が利用者に似合うと評価する度合いに応じた態様で領域を表示する画像を利用者に出力する。取得部47は、提供部44により提供された組み合わせ情報に対する、利用者、若しくは、利用者と所定の関係を有する他の利用者からのフィードバックを取得する。更新部48は、取得部47により取得されたフィードバックに基づいて、分散表現空間を更新する。利用者U1がコーディネート#1に対して肯定的である場合、更新部48は、分散表現空間F4において、属性情報B2と画像P1とを所定の距離近づけるように更新する。 The reception unit 41 also receives evaluations from a plurality of evaluators on an image of a wearer wearing a combination of a plurality of clothes, indicating whether the combination suits the wearer. The reception unit 41 also receives evaluations from a plurality of evaluators on an image of a wearer wearing a combination of a plurality of clothes, indicating whether the combination suits the wearer. The generation unit 42 generates a distributed representation space in which the image and evaluator information indicating the evaluator are projected based on the evaluations received by the reception unit 41. The generation unit 42 also projects the image and the evaluator information closer in the distributed representation space as the evaluator evaluates the combination as being suitable for the wearer, and projects the image and the evaluator information farther in the distributed representation space as the evaluator evaluates the combination as being unsuitable for the wearer. The generation unit 42 also generates a convolutional neural network based on the evaluations received by the reception unit 41. The estimation unit 43 estimates a combination of a plurality of clothes that suits the user based on the distributed representation space and information about the user. The estimation unit 43 estimates a combination of a plurality of clothes that suits a predetermined target based on a distributed representation space in which the image of a wearer wearing a combination of a plurality of clothes is projected and evaluator information indicating the evaluators is generated based on evaluations from a plurality of evaluators indicating whether the combination suits the wearer. The estimation unit 43 further estimates the degree to which the combination suits the predetermined target. The provision unit 44 provides the user with combination information regarding the combination estimated by the estimation unit 43. The provision unit 44 also provides the user with information regarding the combination estimated by the estimation unit 43. The provision unit 44 also provides the combination in a manner according to the degree. The determination unit 45 determines the degree to which each of the clothes included in the region suits the user based on the plurality of regions in the distributed representation and information about the user. The determination unit 45 also determines the degree to which the subject evaluates each of the clothes included in the region as suiting the user based on the plurality of regions in the distributed representation and information about the subject. The output unit 46 outputs an image in a manner based on the distributed representation generated by the convolutional neural network generated by the generation unit 42 for each region of the image. The output unit 46 also outputs an image in a manner based on a plurality of regions in the distributed representation and evaluator information indicating the evaluator. The output unit 46 also outputs an image in which the degree of emphasis is increased for a region in which the distributed representation is more similar to the distributed representation in the evaluator information, and the degree of emphasis is decreased for a region in which the distributed representation is less similar to the distributed representation in the evaluator information. The output unit 46 also outputs to the user an image displaying a region in a manner according to the degree to which the subject judged by the judgment unit 45 evaluates that the image is suitable for the user. The acquisition unit 47 acquires feedback from the user or other users having a predetermined relationship with the user on the combination information provided by the provision unit 44. The update unit 48 updates the distributed representation space based on the feedback acquired by the acquisition unit 47. If user U1 is positive about coordinate #1, the update unit 48 updates the attribute information B2 and image P1 in the distributed representation space F4 to bring them closer together by a predetermined distance.

これにより、実施形態に係る情報処理装置10は、コーディネートを示す画像と、評価者の個性との近さを測れる空間を構成することにより、「似合う」を定量化することができるため、各評価者の主観から被服が着用者に似合っているかを把握することができる。また、実施形態に係る情報処理装置10は、生成した分散表現空間を用いて、利用者と類似する評価者の評価に基づき、利用者に似合うと推定されるコーディネートに関する情報を提供することができるため、所定の対象に似合う被服を利用者が把握することができるという効果を奏する。また、実施形態に係る情報処理装置10は、コーディネートのうち、評価者が似合うと評価した被服や、似合わないと評価した被服を示す領域を可視化することができるため、複数の被服の組み合わせのうち、いずれの被服が着用者に似合っているかを把握することができる。 In this way, the information processing device 10 according to the embodiment can quantify "suitability" by constructing a space that can measure the closeness between an image showing a coordination and the individuality of the evaluator, and therefore it is possible to grasp whether the clothes suit the wearer from the subjective opinion of each evaluator. Furthermore, the information processing device 10 according to the embodiment can provide information on coordination that is estimated to suit the user based on the evaluations of evaluators similar to the user using the generated distributed representation space, thereby achieving the effect that the user can grasp the clothes that suit a specific target. Furthermore, the information processing device 10 according to the embodiment can visualize areas showing the clothes that the evaluator evaluated as suiting and the clothes that the evaluator evaluated as not suiting among the coordination, and therefore it is possible to grasp which of multiple clothing combinations suits the wearer.

また、実施形態に係る情報処理装置10において、例えば、生成部42は、評価に基づいて、さらに組み合わせに含まれる被服を示す情報を投影した分散表現空間を生成する。また、生成部42は、評価に基づいて、さらに組み合わせが属するカテゴリを示す情報を投影した分散表現空間を生成する。また、生成部42は、評価に基づいて、さらに組み合わせに含まれる被服を提供する提供元を示す情報を投影した分散表現空間を生成する。また、生成部42は、評価者の属性を示す評価者情報を投影した分散表現空間を生成する。また、生成部42は、所定のアンケートに対する評価者の回答を示す評価者情報を投影した分散表現空間を生成する。 In the information processing device 10 according to the embodiment, for example, the generation unit 42 generates a distributed representation space onto which information indicating the clothes included in the combination is further projected based on the evaluation. The generation unit 42 also generates a distributed representation space onto which information indicating the category to which the combination belongs is further projected based on the evaluation. The generation unit 42 also generates a distributed representation space onto which information indicating the provider of the clothes included in the combination is further projected based on the evaluation. The generation unit 42 also generates a distributed representation space onto which evaluator information indicating the attributes of the evaluator is projected. The generation unit 42 also generates a distributed representation space onto which evaluator information indicating the evaluator's response to a specified questionnaire is projected.

これにより、実施形態に係る情報処理装置10は、コーディネートを示す画像と、評価者の個性との近さを測れる空間を構成することにより、「似合う」を定量化することができるため、各評価者の主観から被服が着用者に似合っているかを把握することができる。 In this way, the information processing device 10 according to the embodiment can quantify "suitability" by constructing a space that can measure the closeness between an image showing a coordination and the evaluator's personality, and therefore can grasp whether the clothing suits the wearer from the subjective opinion of each evaluator.

また、実施形態に係る情報処理装置10において、例えば、推定部43は、分散表現空間と、利用者に関する情報とに基づいて、利用者に似合う組み合わせを推定する。また、推定部43は、利用者の属性、利用者が選択した被服のカテゴリ、所定のアンケートに対する利用者の回答のうち少なくともいずれかに基づいて、利用者に似合う組み合わせを推定する。 In addition, in the information processing device 10 according to the embodiment, for example, the estimation unit 43 estimates a combination that suits the user based on the distributed representation space and information about the user. The estimation unit 43 also estimates a combination that suits the user based on at least one of the attributes of the user, the clothing category selected by the user, and the user's response to a predetermined questionnaire.

これにより、実施形態に係る情報処理装置10は、生成した分散表現空間を用いて、利用者と類似する評価者の評価に基づき、利用者に似合うと推定されるコーディネートに関する情報を提供することができるため、自身に似合う被服を利用者が把握することができるという効果を奏する。 As a result, the information processing device 10 according to the embodiment can use the generated distributed representation space to provide information about outfits that are estimated to suit the user based on the evaluations of evaluators similar to the user, thereby enabling the user to understand what clothes suit them.

また、実施形態に係る情報処理装置10において、例えば、推定部43は、分散表現空間と、対象者に関する情報とに基づいて、当該対象者が利用者に似合うと評価する組み合わせを推定する。また、推定部43は、対象者の属性、所定のアンケートに対する対象者の回答のうち少なくともいずれかに基づいて、対象者が利用者に似合うと評価する組み合わせを推定する。 In addition, in the information processing device 10 according to the embodiment, for example, the estimation unit 43 estimates a combination that the subject evaluates as suiting the user based on the distributed representation space and information about the subject. Also, the estimation unit 43 estimates a combination that the subject evaluates as suiting the user based on at least one of the subject's attributes and the subject's responses to a specified questionnaire.

これにより、実施形態に係る情報処理装置10は、利用者に似合うと対象者が評価すると推定されるコーディネートに関する情報を提供することができるため、対象者に気に入られる被服を利用者が把握することができるという効果を奏する。 As a result, the information processing device 10 according to the embodiment can provide information about outfits that are estimated to suit the user and that the subject will evaluate, thereby enabling the user to understand what clothes the subject will like.

また、実施形態に係る情報処理装置10において、例えば、推定部43は、分散表現空間と、対象者に関する情報とに基づいて、当該対象者に似合う組み合わせを推定する。また、推定部43は、対象者の属性、所定のアンケートに対する対象者の回答のうち少なくともいずれかに基づいて、対象者に似合う組み合わせを推定する。 In addition, in the information processing device 10 according to the embodiment, for example, the estimation unit 43 estimates a combination that suits the subject based on the distributed representation space and information about the subject. In addition, the estimation unit 43 estimates a combination that suits the subject based on at least one of the subject's attributes and the subject's responses to a predetermined questionnaire.

これにより、実施形態に係る情報処理装置10は、対象者が自身に似合うと評価すると推定されるコーディネートに関する情報を提供することができるため、対象者に気に入られる被服を利用者が把握することができるという効果を奏する。 As a result, the information processing device 10 according to the embodiment can provide information about outfits that the subject is estimated to evaluate as suiting the subject, thereby enabling the user to understand the clothes that the subject likes.

また、実施形態に係る情報処理装置10において、例えば、推定部43は、着用者の顔を示す画像を投影した分散表現空間と、所定の対象の顔を示す画像とに基づいて、所定の対象に似合う組み合わせを推定する。また、推定部43は、着用者の体型を示す画像を投影した分散表現空間と、所定の対象の体型を示す画像とに基づいて、所定の対象に似合う組み合わせを推定する。 In addition, in the information processing device 10 according to the embodiment, for example, the estimation unit 43 estimates a combination that suits a specific target based on a distributed representation space onto which an image showing the wearer's face is projected and an image showing the face of the specific target. In addition, the estimation unit 43 estimates a combination that suits a specific target based on a distributed representation space onto which an image showing the wearer's body type is projected and an image showing the body type of the specific target.

これにより、実施形態に係る情報処理装置10は、所定の対象の顔や体型に応じたコーディネートに関する情報を提供することができるため、所定の対象に似合う被服を利用者が精度よく把握することができるという効果を奏する。 As a result, the information processing device 10 according to the embodiment can provide information on outfits that match the face and body type of a specific target, thereby enabling the user to accurately grasp what clothes suit a specific target.

〔8.ハードウェア構成〕
また、上述してきた各実施形態に係る情報処理装置10は、例えば、図13に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置10を例に挙げて説明する。図13は、情報処理装置10の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、ROM1200、RAM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
8. Hardware Configuration
Moreover, the information processing device 10 according to each embodiment described above is realized, for example, by a computer 1000 having a configuration as shown in Fig. 13. The information processing device 10 will be described below as an example. Fig. 13 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device 10. The computer 1000 has a CPU 1100, a ROM 1200, a RAM 1300, a HDD 1400, a communication interface (I/F) 1500, an input/output interface (I/F) 1600, and a media interface (I/F) 1700.

CPU1100は、ROM1200又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1200は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on a program stored in the ROM 1200 or the HDD 1400, and controls each component. The ROM 1200 stores a boot program executed by the CPU 1100 when the computer 1000 is started, and programs that depend on the hardware of the computer 1000, etc.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。 HDD 1400 stores programs executed by CPU 1100 and data used by such programs. Communication interface 1500 receives data from other devices via communication network 500 (corresponding to network N in the embodiment) and sends it to CPU 1100, and also transmits data generated by CPU 1100 to other devices via communication network 500.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。 The CPU 1100 controls output devices such as a display and a printer, and input devices such as a keyboard and a mouse, via the input/output interface 1600. The CPU 1100 acquires data from the input devices via the input/output interface 1600. The CPU 1100 also outputs data generated via the input/output interface 1600 to the output devices.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1300を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1300上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1300. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1300 via the media interface 1700 and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable Disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.

例えば、コンピュータ1000が情報処理装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1300上にロードされたプログラムを実行することにより、制御部40の機能を実現する。また、HDD1400には、情報処理装置10の記憶装置内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing device 10, the CPU 1100 of the computer 1000 executes a program loaded onto the RAM 1300 to realize the functions of the control unit 40. In addition, the HDD 1400 stores each piece of data in the storage device of the information processing device 10. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be obtained from another device via a specified communication network.

〔9.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
[9. Other]
Although some of the embodiments of the present application have been described in detail above with reference to the drawings, these are merely examples, and the present invention can be embodied in other forms that incorporate various modifications and improvements based on the knowledge of those skilled in the art, including the forms described in the Disclosure of the Invention section.

また、上述した情報処理装置10は、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。 In addition, the configuration of the information processing device 10 described above can be flexibly changed, for example, by calling an external platform, etc., using an API (Application Programming Interface) or network computing, depending on the function.

また、特許請求の範囲に記載した「部」は、「手段」や「回路」などに読み替えることができる。例えば、受付部は、受付手段や受付回路に読み替えることができる。 In addition, the word "unit" in the claims can be read as "means" or "circuit." For example, the reception unit can be read as reception means or reception circuit.

10 情報処理装置
20 通信部
30 記憶部
31 評価者情報データベース
32 利用者情報データベース
40 制御部
41 受付部
42 生成部
43 推定部
44 提供部
45 判定部
46 出力部
47 取得部
48 更新部
100 利用者端末
200 評価者端末
REFERENCE SIGNS LIST 10 Information processing device 20 Communication unit 30 Storage unit 31 Evaluator information database 32 User information database 40 Control unit 41 Reception unit 42 Generation unit 43 Estimation unit 44 Provision unit 45 Determination unit 46 Output unit 47 Acquisition unit 48 Update unit 100 User terminal 200 Evaluator terminal

Claims (10)

被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける受付部と、
前記受付部により受け付けられた評価に基づいて、前記画像と、前記評価者を示す評価者情報とを投影した分散表現空間を生成する生成部と
を有することを特徴とする情報処理装置。
a receiving unit that receives evaluations from a plurality of evaluators on an image of a wearer wearing the clothing, the evaluations indicating whether the clothing suits the wearer; and
a generation unit that generates a distributed representation space into which the image and evaluator information indicating the evaluator are projected based on the evaluation received by the reception unit.
前記生成部は、
前記評価者が、前記被服が前記着用者に似合っていると高く評価するほど、前記分散表現空間において前記画像と、前記評価者情報とをより近い位置に投影し、前記評価者が、前記被服が前記着用者に似合っていないと低く評価するほど、前記分散表現空間において前記画像と、前記評価者情報とをより遠い位置に投影する
ことを特徴とする請求項1に記載の情報処理装置。
The generation unit is
The information processing device of claim 1, characterized in that the higher the evaluator's rating of the clothing as suiting the wearer, the closer the image and the evaluator information are projected to a position in the distributed representation space, and the lower the evaluator's rating of the clothing as not suiting the wearer, the farther the image and the evaluator information are projected to a position in the distributed representation space.
前記生成部は、
前記評価に基づいて、さらに前記被服を示す情報を投影した前記分散表現空間を生成する
ことを特徴とする請求項1に記載の情報処理装置。
The generation unit is
The information processing apparatus according to claim 1 , further comprising: generating the distributed representation space in which information indicating the clothing is projected based on the evaluation.
前記生成部は、
前記評価に基づいて、さらに前記被服が属するカテゴリを示す情報を投影した前記分散表現空間を生成する
ことを特徴とする請求項1に記載の情報処理装置。
The generation unit is
The information processing apparatus according to claim 1 , further comprising: generating the distributed representation space by projecting information indicating a category to which the clothing belongs based on the evaluation.
前記生成部は、
前記評価に基づいて、さらに前記被服に含まれる被服を提供する提供元を示す情報を投影した前記分散表現空間を生成する
ことを特徴とする請求項1に記載の情報処理装置。
The generation unit is
The information processing apparatus according to claim 1 , further comprising: generating the distributed representation space in which information indicating a source of the clothing included in the clothing is projected based on the evaluation.
前記生成部は、
前記評価者の属性を示す前記評価者情報を投影した前記分散表現空間を生成する
ことを特徴とする請求項1に記載の情報処理装置。
The generation unit is
The information processing apparatus according to claim 1 , further comprising: generating the distributed representation space by projecting the evaluator information indicating an attribute of the evaluator.
前記生成部は、
所定のアンケートに対する前記評価者の回答を示す前記評価者情報を投影した前記分散表現空間を生成する
ことを特徴とする請求項1に記載の情報処理装置。
The generation unit is
The information processing apparatus according to claim 1 , further comprising: generating the distributed representation space onto which the evaluator information indicating the evaluator's response to a predetermined questionnaire is projected.
前記分散表現空間と、利用者に関する情報とに基づいて、当該利用者に似合う被服を推定する推定部と、
前記推定部により推定された被服に関する情報を前記利用者に提供する提供部と、
前記提供部により提供された情報に対する、前記利用者、若しくは、前記利用者と所定の関係を有する他の利用者からのフィードバックを取得する取得部と、
前記取得部により取得されたフィードバックに基づいて、前記分散表現空間を更新する更新部と
をさらに有することを特徴とする請求項7に記載の情報処理装置。
an estimation unit that estimates clothes that suit a user based on the distributed representation space and information about the user;
a provision unit that provides information about the clothing estimated by the estimation unit to the user;
an acquisition unit that acquires feedback from the user or other users having a predetermined relationship with the user with respect to the information provided by the provision unit;
The information processing apparatus according to claim 7 , further comprising: an updating unit that updates the distributed representation space based on the feedback acquired by the acquiring unit.
コンピュータが実行する情報処理方法であって、
被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける受付工程と、
前記受付工程により受け付けられた評価に基づいて、前記画像と、前記評価者を示す評価者情報とを投影した分散表現空間を生成する生成工程と
を含むことを特徴とする情報処理方法。
1. A computer-implemented information processing method, comprising:
a receiving step of receiving, from a plurality of evaluators, evaluations of an image of a wearer wearing the clothing, the evaluations indicating whether the clothing suits the wearer;
a generating step of generating a distributed representation space into which the image and evaluator information indicating the evaluator are projected based on the evaluations received in the receiving step.
被服を着用した着用者の画像に対する評価であって、当該被服が当該着用者に似合っているか否かを示す評価を複数の評価者から受け付ける受付手順と、
前記受付手順により受け付けられた評価に基づいて、前記画像と、前記評価者を示す評価者情報とを投影した分散表現空間を生成する生成手順と
をコンピュータに実行させることを特徴とする情報処理プログラム。
a receiving step of receiving evaluations from a plurality of evaluators on an image of a wearer wearing the clothing, the evaluations indicating whether the clothing suits the wearer;
a generation step of generating a distributed representation space into which the image and evaluator information indicating the evaluator are projected based on the evaluations received in the reception step.
JP2022159123A 2022-09-30 2022-09-30 Information processing device, information processing method, and information processing program Active JP7391165B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022159123A JP7391165B1 (en) 2022-09-30 2022-09-30 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022159123A JP7391165B1 (en) 2022-09-30 2022-09-30 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP7391165B1 JP7391165B1 (en) 2023-12-04
JP2024052421A true JP2024052421A (en) 2024-04-11

Family

ID=89023142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022159123A Active JP7391165B1 (en) 2022-09-30 2022-09-30 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7391165B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7715903B1 (en) * 2024-10-01 2025-07-30 株式会社Zozo Information processing device, information processing method, and information processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502713A (en) * 2012-11-12 2016-01-28 シンガポール・ユニバーシティ・オブ・テクノロジー・アンド・デザインSingapore University of Technologyand Design Clothing matching system and method
JP2020181278A (en) * 2019-04-24 2020-11-05 株式会社Zozoテクノロジーズ Fashion recommendation server, fashion recommendation system, fashion recommendation method and fashion recommendation program
US20210232633A1 (en) * 2018-09-25 2021-07-29 A9.Com, Inc. Indexing and presenting content using latent interests
JP2022087689A (en) * 2020-12-01 2022-06-13 公紀 岩中 Coordination evaluation server device, control method of coordination evaluation server device, and programs and recording media used for it.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502713A (en) * 2012-11-12 2016-01-28 シンガポール・ユニバーシティ・オブ・テクノロジー・アンド・デザインSingapore University of Technologyand Design Clothing matching system and method
US20210232633A1 (en) * 2018-09-25 2021-07-29 A9.Com, Inc. Indexing and presenting content using latent interests
JP2020181278A (en) * 2019-04-24 2020-11-05 株式会社Zozoテクノロジーズ Fashion recommendation server, fashion recommendation system, fashion recommendation method and fashion recommendation program
JP2022087689A (en) * 2020-12-01 2022-06-13 公紀 岩中 Coordination evaluation server device, control method of coordination evaluation server device, and programs and recording media used for it.

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
武井 万恵 他: "他者の意見を反映した洋服コーディネート推薦システム", 第71回(平成21年)全国大会講演論文集(4), JPN6023044539, 10 March 2009 (2009-03-10), pages 503 - 504, ISSN: 0005186845 *
池田 雅隆 他: "ニューラルネットワークを用いた衣服のコーディネート提案方式の検討", 第84回(2022年)全国大会講演論文集(4), JPN6023044541, 17 February 2022 (2022-02-17), pages 35 - 36, ISSN: 0005186846 *
田村 悠 他: "ファッションECサイトにおけるアンケートを用いたブランド推薦システム", 経営の科学 オペレーションズ・リサーチ, vol. 第63巻、 第2号, JPN6023044542, 1 February 2018 (2018-02-01), pages 91 - 98, ISSN: 0005186847 *
知見 優一 他: "コーディネート検索におけるユーザ評価の提示によるファッションへの意識変化手法とその評価", 第13回データ工学と情報マネジメントに関するフォーラム (第19回日本データベース学会年次大会) [, JPN6023044537, 1 March 2021 (2021-03-01), pages 1 - 8, ISSN: 0005186844 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7715903B1 (en) * 2024-10-01 2025-07-30 株式会社Zozo Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
JP7391165B1 (en) 2023-12-04

Similar Documents

Publication Publication Date Title
US20180308151A1 (en) Enhancing revenue of a retailer by making a recommendation to a customer
CN110826528B (en) Fashion preference analysis
Han et al. Color trend analysis using machine learning with fashion collection images
US20140032359A1 (en) System and method for providing intelligent recommendations
Sohn et al. An exploratory study of fit and size issues with mass customized men's jackets using 3D body scan and virtual try-on technology
KR102506356B1 (en) Apparatus and method for recommending of fashion coordination
McKinney et al. Exploring criteria consumers use in evaluating their online formal wear rental experience: A content analysis of online reviews
JP2023095908A (en) Information processing system, information processing method, and program
JP2018018136A (en) Electronic commerce system
KR102550214B1 (en) Artificial intelligence-based styling recommendation system for body parts and situations
US20160267576A1 (en) System and Method for Controlling and Sharing Online Images of Merchandise
JP7391165B1 (en) Information processing device, information processing method, and information processing program
US10296926B2 (en) Secondary market integration within existing data framework
WO2017216773A1 (en) Systems and methods for improved apparel fit and apparel distribution
JP7459206B1 (en) Information processing device, information processing method, and information processing program
JP7553662B1 (en) Information processing device, information processing method, and information processing program
JP7391166B1 (en) Information processing device, information processing method, and information processing program
Abbas et al. Kernel Fashion Context Recommender System (KFCR): A Kernel Mapping Fashion Recommender System Algorithm Using Contextual Information
Vaidyanathan Augmented reality in retail-A case study: technology implications to utilitarian, aesthetic and enjoyment values
KR20230080616A (en) Method to order smart custom clothing
JP7241842B1 (en) Information processing device, information processing method, and information processing program
KR102480884B1 (en) Online dress room platform system
JP7742784B2 (en) Information providing device, information providing method, and information providing program
JP7625052B1 (en) Information processing device, information processing method, and information processing program
JP7625053B1 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231121

R150 Certificate of patent or registration of utility model

Ref document number: 7391165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150