[go: up one dir, main page]

JP2010122758A - ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム - Google Patents

ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム Download PDF

Info

Publication number
JP2010122758A
JP2010122758A JP2008293720A JP2008293720A JP2010122758A JP 2010122758 A JP2010122758 A JP 2010122758A JP 2008293720 A JP2008293720 A JP 2008293720A JP 2008293720 A JP2008293720 A JP 2008293720A JP 2010122758 A JP2010122758 A JP 2010122758A
Authority
JP
Japan
Prior art keywords
job
size
unit
node
computing devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008293720A
Other languages
English (en)
Other versions
JP5343523B2 (ja
Inventor
Naoki Hayashi
直希 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008293720A priority Critical patent/JP5343523B2/ja
Priority to US12/616,862 priority patent/US8812639B2/en
Publication of JP2010122758A publication Critical patent/JP2010122758A/ja
Application granted granted Critical
Publication of JP5343523B2 publication Critical patent/JP5343523B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5017Task decomposition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multi Processors (AREA)

Abstract

【課題】複数の計算ノードを持つ計算システムにおいて資源無駄、すなわち計算処理に使わないノードや同期待ちによる遅延のないジョブ分配を実現するジョブ管理装置、ジョブ管理方法およびジョブ管理プログラムを提供すること。
【解決手段】ノード11〜14の処理能力に関する各種情報を処理能力測定部21が測定し、ノード処理能力判定部22がノード11〜14の処理能力を判定する。ジョブサイズ決定部23は、ノード11〜14の各々の処理能力に応じて割り当てるジョブのサイズを決定する。ジョブ分割部24は、ジョブサイズ決定部23の決定に従ってジョブ全体を分割し、ジョブ分配部25に分配させる。
【選択図】 図1

Description

本発明は、複数の計算装置にジョブを分配するジョブ管理装置、ジョブ管理方法およびジョブ管理プログラムに関する。
従来、複数の処理装置で負荷を分散して処理する技術が知られている。たとえば、複数の計算装置を接続して構成する計算システムでは、各計算装置に対してジョブを分配して処理させることで各計算装置を計算ノードとして使用する。
通常、複数ノードを有する計算システムでは、IO(Input/Output)のあるIO付計算ノードとIOの無い単純計算ノードとを持つものが多い。単純計算ノードとは、CPU(Central Processing Unit)とメモリとを持ち、計算処理を行なうことを目的にした計算ノードである。これに対し、IO付計算ノードとは、CPUとメモリに加え、HDDなどの記憶装置やネットワークに対する入出力機構を搭載した計算ノードである。このIO付計算ノードはIO処理に処理能力を費やすので、ジョブを処理する純粋な計算処理能力はIOの無い単純計算ノードに比して低くなる。
また、計算ノードが搭載するCPUの種類や数、動作周波数が異なる場合にも、計算ノード間で計算能力に差が生じることとなる。
特表2001−503170号公報 特開2000−151873号公報 特開2005−182641号公報
ところで、IO付計算ノードと単純計算ノードの様にジョブに対する処理能力の異なる計算ノードに対してジョブを均等に分配すると、IO付計算ノードを含む全計算ノードにジョブを分配するので計算資源の無駄がないというメリットがある。しかし、同一量のジョブの処理に要する時間は、IO付計算ノードの方が単純計算ノードと比較して長くなる。そのため、単純計算ノードにおいて次処理までの待ち時間が発生し、ジョブ全体の完了時間が大きく伸びるデメリットがある。
一方、IO付計算ノードにジョブの割り付けを行なわず、単純計算ノードのみにジョブの割り付けを行なうこととすると、IO付計算ノードの処理完了を単純計算ノードが待つことがないため、同期が遅れることによる処理遅延は発生しないというメリットがある。しかし、IO付計算ノードの計算処理能力を活用しないのでハード資源の無駄となってしまう。
すなわち、従来の技術では、全ての計算ノードを使用すると同期待ちによる処理遅延が発生し、同期待ちを回避すると空き計算ノードが発生するため、ハードウェア資源を有効に利用することができないという問題点があった。
そのため、全計算ノードを使用し、かつ、同期処理待ちを発生させることなく効率的にジョブを処理する技術の実現が重要な課題となっていた。
本発明は、上述した従来技術にかかる問題点を解消し、課題を解決するためになされたものであり、複数の計算ノードを持つ計算システムにおいて資源無駄、すなわち計算処理に使わないノードや同期待ちによる遅延のないジョブ分配を実現するジョブ管理装置、ジョブ管理方法およびジョブ管理プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、開示の装置、方法およびプログラムは、処理すべきジョブを複数の計算装置に分配する際に、複数の計算装置の特性情報および/または負荷情報を取得し、取得した情報に基づいて複数の計算装置に割り当てるジョブサイズを異ならせてジョブ全体を分割して分配する。
また、開示の装置、方法およびプログラムは、処理すべきジョブを複数の計算装置に分配する際に、複数の計算装置の特性情報および/または負荷情報を取得し、取得した情報に基づいて、複数の計算装置を分類し、分類ごとに独立した複数のジョブスケジューラでジョブの管理を行なう。
開示の装置、方法、プログラムによれば、複数の計算ノードを持つ計算システムにおいて資源無駄、すなわち計算処理に使わないノードや同期待ちによる遅延のないジョブ分配を実現するジョブ管理装置、ジョブ管理方法およびジョブ管理プログラムを提供することができるという効果を奏する。
以下に、本実施例にかかるジョブ管理装置、ジョブ管理方法およびジョブ管理プログラムについて、図面を参照して詳細に説明する。
図1は、本実施例にかかるジョブ管理方法の概念について説明する概念図である。図1に示したように、本ジョブ管理方法では、ノード11〜14の処理能力に関するノード特性やノード負荷などの各種情報を処理能力測定部21が測定し、ノード処理能力判定部22がノード11〜14の処理能力を判定する。ジョブサイズ決定部23は、ノード11〜14の各々の処理能力に応じて、各ノードに割り当てるジョブのサイズを決定する。ジョブ分割部24は、ジョブサイズ決定部23の決定に従ってジョブ全体を分割し、ジョブ分配部25に分割したジョブを分配させる。
すなわち、本ジョブ管理方法では、計算ノードの特性や負荷状態に合わせて適切なサイズのジョブを各計算ノードに分配する。
図1に示した例では、計算ノード12の処理能力が他の計算ノード11、13、14よりも低いものとする。具体的には、図1の例では、処理能力の低い計算ノード12には、ジョブ全体からサイズの小さいジョブを分配し処理させる。そして、処理能力の高い計算ノード11,13,14には、サイズの大きなジョブを分配し処理させる。このジョブの分割では、たとえばジョブ全体を1000行とした場合、350行,100行,300行,250行のように分割して、それぞれ計算ノード11、12、13、14に分配する。
このように計算ノードの処理能力に合わせたサイズのジョブを各計算ノードに分配することで、処理能力の異なる計算ノードが略同一のタイミングで処理を終了するので、同期処理待ちの発生を回避することができる。
図2は、本実施例にかかるジョブ処理システムの概要構成を示す概要構成図である。図2に示したジョブ処理システムでは、複数の計算ノードを有する計算システム1にサーバ2を接続し、サーバ2はネットワークを介してクライアント3に接続している。
計算システム1が有するノード11〜14は、各々計算部11a〜14aを有する。この計算部は、具体的にはCPUとメモリによって実現される機能部であり、自ノードに分配されたジョブを処理する。
さらに、ノード12は、計算部12aに加えてIO処理部12bを有する。IO処理部12bは、サーバ2とのジョブの受け渡しなどを行なうインターフェースである。すなわち、計算システム2は、ノードをIO付計算ノードとしてサーバとのデータの受け渡しや、他のノードに対するジョブの分配を集約し、他のノード11,13,14を単純計算ノードとしてジョブの処理を行なわせる。
IO処理部12bも計算部と同様にCPUとメモリによって実現される機能部であるので、各ノードのCPUとメモリの性能が同一である場合、ノード12の計算部12aは、他の単純計算ノードの計算部11a,13a,14aに比して処理能力が低くなる。
サーバ2は、その内部にジョブ管理部20とクライアント応答部26を有する。クライアント応答部26は、クライアント3からの要求をジョブとしてジョブ管理部20に渡し、ジョブの処理結果をジョブ管理部20から受け取ってクライアントに返す。
ジョブ管理部20は、本実施例におけるジョブ管理装置であり、その内部に処理能力測定部21、ノード処理能力判定部22、ジョブサイズ決定部23、ジョブ分割部24、ジョブ分配部25を有する。
処理能力測定部21は、ノード11〜14の特性情報や負荷情報をパフォーマンスアナライザなどから取得する情報取得部として機能する。ノード処理能力判定部22は、処理能力測定部21が取得した情報に基づいて、各ノードの処理能力を判定する。そして、ジョブサイズ決定部23は、ノード処理能力判定部22による判定結果に基づいて、各ノードに割り当てるジョブサイズを決定する。
ジョブ分割部24は、クライアント応答部26から渡されたジョブ全体を、ジョブサイズ決定部23が決定した割り当てに基づいて分割する。ジョブ分配部25は、ジョブ分割部24によって分割されたジョブと分配すべきノードを対応付けて計算システムに送る。
計算システム1では、IO付計算ノードであるノード12が、分割され、分配先が指定されたジョブ郡をサーバ2から受け取り、各ノードに分配する。
ここで、図3〜図8を参照し、ジョブ管理部20によるジョブ分配方法と、本実施例によらないジョブ分配方法を比較して説明する。
図3は、全ノードに均等なサイズのジョブを割り振る手法について説明する説明図であり、図4は全ノードに均等なサイズのジョブを割り振る手法における同期タイミングについて説明する説明図である。
図3の例では、全ノードの処理能力は同じであるが、IO付計算ノードであるノード12は、カーネル処理のほかにIO処理を実行し、残りの処理能力でジョブを処理する。一方、単純計算ノードであるノード11,13,14は、カーネル処理の残りは全てジョブの処理にあてることができる。この処理内容の違いにより、図3に示したようにジョブ全体を均等に4つに分割してノード11〜14に分配すると、単純計算ノードであるノード11、13、14では処理能力に余力が残ることとなる。
従って、各ノードで処理を実行すると、図4に示したように、処理能力に余力のあるノード11,13,14は、IO付計算ノードであるノード12よりも早く処理を終了する。しかし、ノード12が分配されたジョブを完了するまではノード間の同期が取れないため、処理の早いノード11,13,14はノード12の処理が完了するまでの期間が待ち時間となり、ノード11,13,14はその処理能力を十分に活用できない。
図5は、単純計算ノードのみにジョブを割り振る手法について説明する説明図であり、図6は単純計算ノードのみにジョブを割り振る場合の同期タイミングについて説明する説明図である。
図5の例では、全ノードの処理能力は同じであるが、IO付計算ノードであるノード12は、カーネル処理のほかにIO処理を実行し、残りの処理能力でジョブを処理する。一方、単純計算ノードであるノード11,13,14は、カーネル処理の残りは全てジョブの処理にあてることができる。そこで、図5に示したようにジョブ全体を均等に3つに分割してノード11、13、14の3つのノードに分配する。そのため、単純計算ノード11、13、14の処理能力には余力が残らないが、IO付計算ノード12には余力が残ることとなる。
従って、各ノードで処理を実行すると、図6に示したように、処理能力の揃ったノード11,13,14で同じサイズのジョブの処理を実行することになるため同期タイミングが揃い、待ち時間は発生しない。そのため、単純計算ノード11、13、14はその処理能力を十分に発揮できるが、IO付計算ノード12には余力があるにも関わらずジョブ処理に使用されないことになる。
これらの技術に対し、ジョブ管理部20によるジョブ分配方法では、図7に示したように、ノードの処理能力の余力に合わせて割り当てるジョブのサイズを異ならせる。したがって、IO付計算ノードであるノード12には単純計算ノードであるノード11、13、14に比して小さいサイズのジョブが分配され、いずれのノードにも余力は残らない。
従って、各ノードで処理を実行すると、図8に示したように、処理能力の異なったノードであっても処理能力に合わせたサイズのジョブの処理を実行するので、ノード間の同期タイミングが揃い、待ち時間は発生しない。そのため、全てのノードの処理能力を有効利用し、ジョブ全体を従来の手法に比して高速に処理することができる。
さて、ノードのジョブに対する処理能力は、IO付計算ノードであるか否かのみならず、他の要因によっても変化する。特にIO付計算ノードでは、IO処理の処理負荷の変動などで、ジョブの処理に回せる処理能力が変動する。また、単純計算ノードの全てが同じ構成と性能を有しているとは限らない。
そこで、ジョブ管理部20では、処理能力測定部21にノードごとの特性情報や負荷情報を取得させ、ノード個別にジョブサイズを設定する。図9は、ノードに配布するジョブサイズを決定する材料となる条件の一例を示している。具体的には、処理能力測定部21は、図9に示したように、計算ノードの種類、CPU使用率、ステージング処理の有無、IO使用率、メモリスワップ発生率、運用履歴、ジョブスクリプトをノード毎に取得する。ノード処理能力判定部22は、処理能力測定部21が取得した情報を総合して各ノードの処理能力を判定する。
具体的には、ノード処理能力判定部22は、計算ノードの種類に示された、そのノードがIO付計算ノードか単純計算ノードかといった事項や、ノードに搭載されたCPUの種類、数、動作周波数、メモリ構成などを考慮し、ノードの処理能力を判定する。ノード処理能力判定部22はこのような判定結果に基づいて、たとえばIO付計算ノードに割り当てるジョブサイズを小さく、単純計算ノードに割り当てるジョブサイズを大きくする。
また、ノード処理能力判定部22は、計算ノードのCPU使用率を考慮し、CPU使用率の高いノードに割り当てるジョブサイズを小さくし、CPU使用率の低いノードに割り当てるジョブサイズを大きくする。
さらに、ノード処理能力判定部22は、IO付計算ノードにおけるデータの入出力処理の有無、すなわちステージング処理の有無を考慮し、ステージング中の計算ノードについてはジョブを分配しない。
また、ノード処理能力判定部22は、IO付計算ノードにおけるIO機器のハンドリング処理の発生率を考慮し、IO処理率が高い計算ノードに割り当てるジョブサイズを小さくし、IO処理率の低い計算ノードに割り当てるジョブサイズを大きくする。
さらに、ノード処理能力判定部22は、作業用のメモリ容量が不足した場合にHDD(Hard Disk Drive)などの他の記憶装置を仮想的なメモリとして使用するメモリスワップの発生率を考慮し、メモリスワップの発生率が高い計算ノードに割り当てるジョブサイズを小さくし、メモリスワップの発生率の低い計算ノードに割り当てるジョブサイズを大きくする。
また、ノード処理能力判定部22は、各ノードから取得した負荷状態の履歴をプロファイル情報として保持し、負荷状態の推移を分析することでノードの負荷の変化を予測してジョブサイズを決定する。たとえば、周期的に高負荷状態が発生する場合や、時刻に応じて負荷状態が変化する場合などには、周期や時刻からノードの負荷を予測してジョブサイズを決定する。他にも、現状のアルゴリズムのIO処理およびノードの処理動作のプロファイル情報から、移動平均的に処理の概要をとって計算ノードの処理能力を予測してもよい。具体的には、1分間隔で過去20分程度までの処理情報の重み付き移動平均をとって近いものほど重みを大きくし、各ノードの負荷を予測する。
さらに、ノード処理能力判定部22は、ジョブの運用予定を示すジョブスクリプトを参照してノードの負荷の推移を予測してジョブサイズを決定する。
図10は、ジョブスクリプトについて説明する説明図である。図10の例では、3つのスクリプトC1〜C3が示されている。それぞれのスクリプトには、処理の手順、すなわち処理対象のデータを取り出すステージイン、実際の計算、計算結果を書き出すステージアウト、が記述されている。
ノード処理能力判定部22は、このスクリプトを分析することで、ステージインやステージアウトなどのIO処理の計画を自動的に見つけ出し、IO処理の処理サイズとハード性能からIO処理の込み具合を判断して分配するジョブサイズを決めることができる。
図11は、スクリプトの分析処理の処理動作について説明するフローチャートである。図11に示したように、ノード処理能力判定部22は、まずスクリプト群を読み込み(S101)、スクリプト群の最初のスクリプトについて、現在の処理部分を判定する(S102)。そして、判定の結果、現在の処理部分にステージングがある場合(S103,Yes)には、ジョブサイズ縮小処理(S104)を実行する。
S104におけるジョブサイズ縮小処理の実行後、もしくは現在の処理部分にステージングがない場合(S103,No)、ノード処理能力判定部22は、全てのスクリプトについて判定が終了したか否かを確認する(S105)。
そして、まだ判定していないスクリプトが残っている場合(S105,No)、ノード処理能力判定部22は次のスクリプトの現在の処理部分を判定し(S106)、ステップS103に移行する。一方、ノード処理能力判定部22は、全てのスクリプトについて判定が終了した場合(S105,Yes)に、ジョブサイズを決定して(S107)、処理を終了する。
図12は、図11に示したジョブサイズ縮小処理について説明するフローチャートである。ジョブサイズ縮小処理では、ノード処理能力判定部22は、まず、ステージングで転送するデータのサイズを転送サイズとして読み込み(S201)、転送サイズを転送性能で除して転送時間を算出する(S202)。
算出した転送時間が同期間隔以上である場合(S203,Yes)、そのノードは転送処理のみで処理能力を使いきり、つぎの同期タイミングまでにジョブを処理する余力はないので、そのノードの余力をゼロとして処理を終了する(S205)。
一方、算出した転送時間が同期間隔未満である場合(S203,No)、同期間隔時間と転送時間の差分を同期間隔時間で除してノードの余力を算出し(S204)、余力に応じてジョブサイズの縮小率を決定して(S206)、処理を終了する。
つぎに、ジョブサイズ決定部23によるジョブサイズの決定について説明する。IO付計算ノードか単純計算ノードかでノードに配布するジョブサイズを決定する場合、単純計算ノードのジョブサイズ係数を1、IO付計算ノードのジョブサイズ係数を1より小さい値αとし、ジョブ全体のサイズをNとして、
N=(基準ジョブサイズ×単純計算ノード数+α×基準ジョブサイズ×IO付計算ノード数)
を満足するように基準ジョブサイズを求めればよい。
また、各ノードに対してジョブサイズを最適化するならば、ノード数をm、各ノードのジョブサイズ係数をα1・・・αmとし、
N=α1×基準ジョブサイズ
+α2×基準ジョブサイズ
・・・・
+αm×基準ジョブサイズ
を満足するように基準ジョブサイズを求めればよい。
ジョブサイズ係数αn(nは1からmまでの整数)の算出には、たとえば、
αn=(1−CPU使用率)×(1−IO使用率)×(ステージング判定値)×(スワップ判定値)×(ジョブスクリプトによる縮小率)×・・・
などのように、各ジョブサイズ決定要因を積算することで求めることができる。ジョブサイズ決定要因としては、図9を参照して説明した各要因を用いればよい。この式において、0≦CPU使用率≦1,0≦IO使用率≦1とする。ステージング判定値は、そのノードにステージングが発生している場合に0、発生していない場合に1を取る。すなわち、ステージングが発生しているノードについては、他の要因の値に関わらず、ジョブサイズ「0」が割り当てられることとなる。
スワップ判定値もステージング判定値と同様に、スワップが発生している場合に0、発生していない場合に1を取る。なお、ここではスワップの有無で0と1のいずれかの値を与えるジョブサイズ係数算出式を例に説明を行なったが、図9に示したようにスワップに関して発生確率が得られているならば、(1−スワップ発生率)としてジョブサイズの算出に使用することもできる。
また、上述のαn算出に用いる項は必ずしも全てを使用する必要は無く、いずれか一つ、もしくは任意に選択した数項目を組み合わせて使用してもよい。たとえは、CPUのみを使用する場合、
αn=(1−CPU使用率)
を用いてジョブサイズ係数を求める。また、IO使用率とCPU使用率を使用する場合には、
αn=(1−CPU使用率)×(1−IO使用率)
を用いてジョブサイズ係数を求める。なお、ここでは各ノードに対してジョブサイズを変化させる場合のジョブサイズ係数α1〜αmの算出について説明したが、単純計算ノードのジョブサイズ係数を1、IO付計算ノードのジョブサイズ係数αとする場合のジョブサイズ係数αも同様の算出式で求めることができる。
このように、ジョブサイズ決定部23は、ノード処理能力判定部22から出力されるノードのジョブ処理能力の差をジョブサイズ係数として用い、ジョブ全体をどのように分割すべきかを算出することができる。また、ステージング中のIO付計算ノードのように余力の無いノードに対してはジョブサイズ係数を0とし、ジョブを割り当てないようにする。
ここまでの説明では、ノード単位でジョブの分配を行なう場合について説明を行なったが、ジョブの分配はCPU単位で行なうこともできる。図13はCPU単位でジョブの分配を行なう場合のジョブ分配方法について説明する説明図である。
図13に示した例では、ノード41は単純計算ノードであり、4つのCPU41a,41b,41c,41dを有する。ノード42はIO付計算ノードであり、4つのCPU42a,42b,42c,42dを有する。そして、ノード42はCPU42bを入出力専用に使用する。ノード43は単純計算ノードであり、2つのCPU43a,43bを有する。また、ノード44は、単純計算ノードであり、4つのCPU44a,44b,44c,44dを有する。
処理能力測定部51は、各ノードから少なくとも各ノードが搭載するCPUの数と各CPUの用途を取得する。そして、CPU処理能力判定部52は、各CPUの処理能力を判定する。ジョブサイズ決定部53は、CPU処理能力判定部52による判定結果を用いて、各CPUに割り当てるべきジョブのサイズを決定し、この決定に従ってジョブ分割部54はジョブを分割する。従って、ジョブ分配部55は各CPUに対してジョブを分配することとなる。
この時、CPUのうち、IO処理専用に用いられるCPU42bに対してはジョブの分配を行なわないようにすれば、各ノードに対して適切な量のジョブを分配することができる。
特に、CPUの性能など他の条件が同一であると推定できる場合には、CPUの数と用途のみに基づいてジョブをCPUに対して均等に分割して分配することで、簡易にジョブの管理を行なうことができる。
たとえば、図13の構成において、CPU42b以外のCPUに対して同一サイズのジョブを分割すれば、結果としてノード41〜44に対して4:3:2:4の割合でジョブを分配することとなる。
さらに、CPUの性能が個々によって異なる場合は、個々のCPU特性、たとえば周波数に基づいて与えるジョブサイズを変えることができる。具体的には、処理性能の高いCPUには大きなジョブサイズを与え、処理性能の低いCPUには小さなジョブサイズを与える。
たとえば、図13の構成において、CPU41b,41c,44aの処理能力が他のCPUの2倍であるならば、CPU41b,41c,44aに与えるジョブサイズを他のCPUに与えるジョブサイズの2倍にする。結果としてノード41〜44に対して6:3:2:5の割合でジョブを分配することとなる。
つぎに、IO付計算ノードのジョブ管理と単純計算ノードのジョブ管理とを独立して行なう構成例について図14を参照して説明する。
図14に示したジョブ管理方法では、図1と同様に、ノード11〜14に関する情報を処理能力測定部21が取得し、ノード処理能力判定部22が各ノードの処理能力を判定する。そして、事前分配部61は、ジョブをIO付計算ノードに分配するジョブと、単純計算ノードに分配するジョブとに分け、IO付計算ノードに分配するジョブをIOノードスケジューラ62に渡し、単純計算ノードに分配するジョブを計算ノードスケジューラ63に渡す。
IOノードスケジューラ62と計算ノードスケジューラ63は、それぞれがジョブサイズ決定部62a,63a、ジョブ分割部62b,63b、ジョブ分配部62c,63cを有し、各々がジョブを独立に管理する。
従って、IOノードスケジューラ62は、IO付計算ノードであるノード12のジョブを管理し、計算ノードスケジューラ63は、単純計算ノードであるノード11,13,14に対するジョブの分配と管理を行なうこととなる。
図14の例ではIOノードスケジューラ62と計算ノードスケジューラ63とが各々ジョブを独立に管理しているので、図15に示したように、ノード12の同期ポイントとノード11,13,14の同期ポイントが異なってもよい。このため、全てのノードがジョブの処理を実行し、かつ同期待ちの発生を回避することができる。
ここまでの説明では、ジョブ管理部をサーバに持たせる場合を例に説明を行なったが、ジョブ管理部の設置場所は適宜変更することが可能である。
図16は、ジョブ管理部を計算システム側に持たせた場合の構成例である。図16に示した構成では、サーバ2a内部のクライアント応答部26aは、直接計算システム1aのノード12に接続している。
そして、ジョブ管理部20aは、計算システム16内部でジョブが送受信される経路とは独立に設けられる。ジョブ管理部20aは、ノード11〜14から直接、各種情報を取得するとともに、サーバ2aからジョブを受信するIO付計算ノードであるノード12からジョブの全体サイズを取得する。その後、ジョブ管理部20aは、各ノードに分配するジョブのサイズを算出してノード12に送り、ノード12にジョブの分配を行なわせる。
図17は、ジョブ管理部を計算システム側に持たせた他の構成例である。図17に示した構成では、サーバ2bは、計算システム1b内部に設けたジョブ管理部20bと接続している。
そして、ジョブ管理部20bは、計算システム16内部でノード11〜14から各種情報を取得して、各ノードに分配するジョブサイズの決定、ジョブの分割、ジョブの分配を実行する。計算システム1bでは、ノード12はサーバ2bとは接続しておらず、ノード12のIO処理は、ノード12に接続されたHDD71に対する入出力に使用される。
以上説明してきたように、本実施例にかかるジョブ管理では、IO付計算ノードと単純計算ノードのように、ジョブ処理能力の異なるノードに対して異なるサイズのジョブを割り当てる。そのため、全計算ノード資源を無駄なく有効に使うことができ、また、ジョブサイズを計算ノードやCPUコアに対して適切な大きさにすることで、同期待ちの待ち時間を削減するので、処理のスループットを向上させることができる。
特に、スーパーコンピュータのような大型で多ノード構成の計算機の処理スループット向上に有用である。また、ジョブの具体例としては、LU分解問題のアルゴリズムの処理に好適である。LU分割問題は、行列計算処理を並列に実施することで計算時間の短縮を図るものであり、本効果が顕著な分野の一例である。
なお、本実施例はあくまで一例であり、その構成および動作は適宜変形して実施可能であることはいうまでも無い。特に、本実施例におけるジョブ管理部の各構成要素をソフトウェアによって実現したならば、ジョブ管理プログラムとして実施することができ、任意のコンピュータ装置をジョブ管理装置として動作させることができる。
以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)処理すべきジョブを複数の計算装置に分配するジョブ管理装置であって、
前記複数の計算装置の特性情報および/または負荷情報を取得する情報取得部と、
前記情報取得部が取得した情報に基づいて、前記複数の計算装置に割り当てるジョブサイズを決定するジョブサイズ決定部と、
前記処理すべきジョブを前記ジョブサイズ決定部が決定したジョブサイズに基づいて分割するジョブ分割部と、
前記複数の計算装置に対し、前記ジョブ分割部によって分割されたジョブを分配するジョブ分配部と
を備えたことを特徴とするジョブ管理装置。
(付記2)前記複数の計算装置は、入出力処理を担当する計算装置と入出力処理を担当しない計算装置とを含み、前記ジョブサイズ決定部は、前記入出力処理を担当する計算装置に対して割り当てるジョブサイズを前記入出力処理を担当しない計算装置に対して割り当てるジョブサイズに比して小さくすることを特徴とする付記1に記載のジョブ管理装置。
(付記3)前記複数の計算装置は、一の計算システムを構成し、前記入出力処理担当する計算装置は、前記計算システムにおいて外部装置に対する入出力および/またはシステム内部の記憶装置に対する入出力を担当することを特徴とする付記2に記載のジョブ管理装置。
(付記4)前記情報取得部は、各計算装置におけるCPU(Central Processing Unit)使用率、ステージング処理の有無、入出力処理発生率、メモリスワップ発生率のうち少なくともいずれかを動的に取得し、前記ジョブサイズ決定部は、前記情報取得部の取得した情報を用いて複数の計算装置に分配するジョブサイズを動的に変更することを特徴とする付記1〜3のいずれか一つに記載のジョブ管理装置。
(付記5)前記情報取得部は、前記ジョブの運用予定を示すジョブスクリプトを参照して前記計算装置の負荷の推移を予測し、前記ジョブサイズ決定部は、前記負荷の推移の予測に基づいて前記複数の計算装置に分配するジョブサイズを決定することを特徴とする付記1〜4のいずれか一つに記載のジョブ管理装置。
(付記6)前記情報取得部は、取得した負荷の推移の履歴を保持し、前記ジョブサイズ決定部は、前記負荷の推移の履歴から前記複数の計算装置に分配するジョブサイズを決定することを特徴とする付記1〜5のいずれか一つに記載のジョブ管理装置。
(付記7)前記情報取得部は、前記複数の計算装置が有するCPUごとに情報を取得し、前記ジョブサイズ決定部は前記CPUに対して割り当てるジョブサイズを決定し、前記ジョブ分割部は前記CPUに対するジョブサイズに基づいて前記ジョブを分割し、前記ジョブ分割部は、前記CPUに対してジョブの分配を行なうことを特徴とする付記1〜6のいずれか一つに記載のジョブ管理装置。
(付記8)前記ジョブサイズ決定部は、入出力処理を担当するCPUに対してジョブの割り当てを行なわないことを特徴とする付記7に記載のジョブ管理装置。
(付記9)前記ジョブサイズ決定部は、前記複数の計算装置の処理における同期タイミングが略同一となるように前記複数の計算装置に分配するジョブサイズを決定することを特徴とする付記1〜8のいずれか一つに記載のジョブ管理装置。
(付記10)処理すべきジョブを複数の計算装置に分配するジョブ管理装置であって、
前記複数の計算装置の特性情報および/または負荷情報を取得する情報取得部と、
前記情報取得部が取得した情報に基づいて、前記複数の計算装置を分類し、各分類に対して前記ジョブを分配する第一の分配手段と、
前記分類ごとに独立にジョブを管理する複数のジョブスケジューラと、
前記分類の各々について当該分類に分配されたジョブを当該分類に属する計算装置に対して分配する第二の分配手段と
を備えたことを特徴とするジョブ管理装置。
(付記11)処理すべきジョブを複数の計算装置に分配するジョブ管理方法であって、
前記複数の計算装置の特性情報および/または負荷情報を取得する情報取得ステップと、
前記情報取得ステップにおいて取得した情報に基づいて、前記複数の計算装置に割り当てるジョブサイズを決定するジョブサイズ決定ステップと、
前記処理すべきジョブを前記ジョブサイズ決定ステップが決定したジョブサイズに基づいて分割するジョブ分割ステップと、
前記複数の計算装置に対し、前記ジョブ分割ステップによって分割されたジョブを分配するジョブ分配ステップと
を含んだことを特徴とするジョブ管理方法。
(付記12)処理すべきジョブを複数の計算装置に分配するジョブ管理方法をコンピュータに実行させるジョブ管理プログラムであって、
前記複数の計算装置の特性情報および/または負荷情報を取得する情報取得手順と、
前記情報取得手順において取得した情報に基づいて、前記複数の計算装置に割り当てるジョブサイズを決定するジョブサイズ決定手順と、
前記処理すべきジョブを前記ジョブサイズ決定手順が決定したジョブサイズに基づいて分割するジョブ分割手順と、
前記複数の計算装置に対し、前記ジョブ分割手順によって分割されたジョブを分配するジョブ分配手順と
をコンピュータに実行させることを特徴とするジョブ管理プログラム。
(付記13)処理すべきジョブを複数の計算装置に分配するジョブ管理方法であって、
前記複数の計算装置の特性情報および/または負荷情報を取得する情報取得ステップと、
前記情報取得ステップが取得した情報に基づいて、前記複数の計算装置を分類し、各分類に対して前記ジョブを分配する第一の分配ステップと、
前記分類ごとに独立にジョブを管理する複数のジョブスケジュールステップと、
前記分類の各々について当該分類に分配されたジョブを当該分類に属する計算装置に対して分配する第二の分配ステップと
を含んだことを特徴とするジョブ管理方法。
(付記14)処理すべきジョブを複数の計算装置に分配するジョブ管理方法をコンピュータに実行させるジョブ管理プログラムであって、
前記複数の計算装置の特性情報および/または負荷情報を取得する情報取得手順と、
前記情報取得手順が取得した情報に基づいて、前記複数の計算装置を分類し、各分類に対して前記ジョブを分配する第一の分配手順と、
前記分類ごとに独立にジョブを管理する複数のジョブスケジュール手順と、
前記分類の各々について当該分類に分配されたジョブを当該分類に属する計算装置に対して分配する第二の分配手順と
をコンピュータに実行させることを特徴とするジョブ管理プログラム。
図1は、本実施例にかかるジョブ管理方法の概念について説明する概念図である。 図2は、本実施例にかかるジョブ処理システムの概要構成を示す概要構成図である。 図3は、全ノードに均等なサイズのジョブを割り振る手法について説明する説明図である。 図4は、全ノードに均等なサイズのジョブを割り振る場合の同期タイミングについて説明する説明図である。 図5は、単純計算ノードのみにジョブを割り振る手法について説明する説明図である。 図6は、単純計算ノードのみにジョブを割り振る場合の同期タイミングについて説明する説明図である。 図7は、本実施例にかかるジョブ分割について説明する説明図である。 図8は、本実施例にかかるジョブ分割における同期タイミングについて説明する説明図である。 図9は、ノードの処理能力を決定する要因について説明する説明図である。 図10は、ジョブスクリプトについて説明する説明図である。 図11は、スクリプトの分析処理の処理動作について説明するフローチャートである。 図12は、ジョブサイズ縮小処理について説明するフローチャートである。 図13は、CPU単位でジョブの分配を行なう場合のジョブ分配方法について説明する説明図である。 図14は、複数のジョブスケジューラを設ける構成例について説明する説明図である。 図15は、複数のジョブスケジューラを設けた場合の同期タイミングについて説明する説明図である。 図16は、ジョブ管理部を計算システム側に持たせた場合の構成例を示す図である。(その1) 図17は、ジョブ管理部を計算システム側に持たせた場合の構成例を示す図である。(その2)
符号の説明
1,1a,1b 計算システム
2,2a,2b サーバ
3 クライアント
11〜14,41〜44 ノード
11a〜14a 計算部
12b IO処理部
20,20a,20b ジョブ管理部
21,51 処理能力測定部
22 ノード処理能力判定部
23,53,62a,63a ジョブサイズ決定部
24,54,62b,63b ジョブ分割部
25,55,62c,63c ジョブ分配部
26,26a クライアント応答部
52 CPU処理能力判定部
61 事前分配部
62 IOノードスケジューラ
63 計算ノードスケジューラ

Claims (10)

  1. 処理すべきジョブを複数の計算装置に分配するジョブ管理装置であって、
    前記複数の計算装置の特性情報および/または負荷情報を取得する情報取得部と、
    前記情報取得部が取得した情報に基づいて、前記複数の計算装置に割り当てるジョブサイズを決定するジョブサイズ決定部と、
    前記処理すべきジョブを前記ジョブサイズ決定部が決定したジョブサイズに基づいて分割するジョブ分割部と、
    前記複数の計算装置に対し、前記ジョブ分割部によって分割されたジョブを分配するジョブ分配部と
    を備えたことを特徴とするジョブ管理装置。
  2. 前記複数の計算装置は、入出力処理を担当する計算装置と入出力処理を担当しない計算装置とを含み、前記ジョブサイズ決定部は、前記入出力処理を担当する計算装置に対して割り当てるジョブサイズを前記入出力処理を担当しない計算装置に対して割り当てるジョブサイズに比して小さくすることを特徴とする請求項1に記載のジョブ管理装置。
  3. 前記情報取得部は、各計算装置におけるCPU(Central Processing Unit)使用率、ステージング処理の有無、入出力処理発生率、メモリスワップ発生率のうち少なくともいずれかを動的に取得し、前記ジョブサイズ決定部は、前記情報取得部の取得した情報を用いて複数の計算装置に分配するジョブサイズを動的に変更することを特徴とする請求項1または2に記載のジョブ管理装置。
  4. 前記情報取得部は、前記ジョブの運用予定を示すジョブスクリプトを参照して前記計算装置の負荷の推移を予測し、前記ジョブサイズ決定部は、前記負荷の推移の予測に基づいて前記複数の計算装置に分配するジョブサイズを決定することを特徴とする請求項1〜3のいずれか一つに記載のジョブ管理装置。
  5. 前記情報取得部は、取得した負荷の推移の履歴を保持し、前記ジョブサイズ決定部は、前記負荷の推移の履歴から前記複数の計算装置に分配するジョブサイズを決定することを特徴とする請求項1〜4のいずれか一つに記載のジョブ管理装置。
  6. 前記情報取得部は、前記複数の計算装置が有するCPUごとに情報を取得し、前記ジョブサイズ決定部は前記CPUに対して割り当てるジョブサイズを決定し、前記ジョブ分割部は前記CPUに対するジョブサイズに基づいて前記ジョブを分割し、前記ジョブ分割部は、前記CPUに対してジョブの分配を行なうことを特徴とする請求項1〜5のいずれか一つに記載のジョブ管理装置。
  7. 前記ジョブサイズ決定部は、前記複数の計算装置の処理における同期タイミングが略同一となるように前記複数の計算装置に分配するジョブサイズを決定することを特徴とする請求項1〜6のいずれか一つに記載のジョブ管理装置。
  8. 処理すべきジョブを複数の計算装置に分配するジョブ管理装置であって、
    前記複数の計算装置の特性情報および/または負荷情報を取得する情報取得部と、
    前記情報取得部が取得した情報に基づいて、前記複数の計算装置を分類し、各分類に対して前記ジョブを分配する第一の分配手段と、
    前記分類ごとに独立にジョブを管理する複数のジョブスケジューラと、
    前記分類の各々について当該分類に分配されたジョブを当該分類に属する計算装置に対して分配する第二の分配手段と
    を備えたことを特徴とするジョブ管理装置。
  9. 処理すべきジョブを複数の計算装置に分配するジョブ管理方法であって、
    前記複数の計算装置の特性情報および/または負荷情報を取得する情報取得ステップと、
    前記情報取得ステップにおいて取得した情報に基づいて、前記複数の計算装置に割り当てるジョブサイズを決定するジョブサイズ決定ステップと、
    前記処理すべきジョブを前記ジョブサイズ決定ステップが決定したジョブサイズに基づいて分割するジョブ分割ステップと、
    前記複数の計算装置に対し、前記ジョブ分割ステップによって分割されたジョブを分配するジョブ分配ステップと
    を含んだことを特徴とするジョブ管理方法。
  10. 処理すべきジョブを複数の計算装置に分配するジョブ管理方法をコンピュータに実行させるジョブ管理プログラムであって、
    前記複数の計算装置の特性情報および/または負荷情報を取得する情報取得手順と、
    前記情報取得手順において取得した情報に基づいて、前記複数の計算装置に割り当てるジョブサイズを決定するジョブサイズ決定手順と、
    前記処理すべきジョブを前記ジョブサイズ決定手順が決定したジョブサイズに基づいて分割するジョブ分割手順と、
    前記複数の計算装置に対し、前記ジョブ分割手順によって分割されたジョブを分配するジョブ分配手順と
    をコンピュータに実行させることを特徴とするジョブ管理プログラム。
JP2008293720A 2008-11-17 2008-11-17 ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム Active JP5343523B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008293720A JP5343523B2 (ja) 2008-11-17 2008-11-17 ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム
US12/616,862 US8812639B2 (en) 2008-11-17 2009-11-12 Job managing device, job managing method and job managing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008293720A JP5343523B2 (ja) 2008-11-17 2008-11-17 ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム

Publications (2)

Publication Number Publication Date
JP2010122758A true JP2010122758A (ja) 2010-06-03
JP5343523B2 JP5343523B2 (ja) 2013-11-13

Family

ID=42172985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008293720A Active JP5343523B2 (ja) 2008-11-17 2008-11-17 ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム

Country Status (2)

Country Link
US (1) US8812639B2 (ja)
JP (1) JP5343523B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014092873A (ja) * 2012-11-01 2014-05-19 Nec Corp ハイブリッド並列処理システム、ハイブリッド並列処理方法およびコンピュータプログラム
JP2016532183A (ja) * 2013-10-03 2016-10-13 華為技術有限公司Huawei Technologies Co.,Ltd. ソフトウェアプログラムの計算ブロックをマルチプロセッサシステムのコアに割り当てるための方法及びシステム
JP2017021426A (ja) * 2015-07-07 2017-01-26 株式会社デンソー 電子制御装置
JPWO2014132608A1 (ja) * 2013-02-26 2017-02-02 日本電気株式会社 並列処理装置、並列処理方法、および並列処理プログラム記憶媒体
KR101754998B1 (ko) * 2011-01-27 2017-07-06 삼성전자주식회사 멀티 코어 시스템 및 멀티 코어 시스템에서의 데이터 병렬 처리 방법
JP2017151635A (ja) * 2016-02-23 2017-08-31 富士通株式会社 並列計算機、並列lu分解方法及び並列lu分解プログラム
JP2018128811A (ja) * 2017-02-08 2018-08-16 日本電気株式会社 情報処理装置、情報処理方法、プログラム
WO2018158819A1 (ja) * 2017-02-28 2018-09-07 株式会社日立製作所 分散データベースシステム及び分散データベースシステムのリソース管理方法
JP2020046996A (ja) * 2018-09-19 2020-03-26 富士通株式会社 最適化問題演算プログラム、最適化問題演算方法および最適化問題演算装置
US11409836B2 (en) 2018-09-19 2022-08-09 Fujitsu Limited Optimization problem arithmetic method and optimization problem arithmetic apparatus

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102118261B (zh) * 2009-12-30 2014-11-26 上海中兴软件有限责任公司 一种数据采集的方法、数据采集装置及网管设备
US8935318B1 (en) 2011-03-28 2015-01-13 Google Inc. Opportunistic job processing in a distributed computer environment
KR101694307B1 (ko) * 2012-02-29 2017-01-09 한국전자통신연구원 디스크 캐쉬 효과를 극대화하는 워크플로우 작업 스케줄링 장치 및 방법
US9373074B2 (en) * 2012-10-09 2016-06-21 Qualcomm Incorporated Method and apparatus for time management and scheduling for sychronous processing on a cluster of processing nodes
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11237719B2 (en) * 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US10423214B2 (en) * 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
EP2755135B1 (en) * 2013-01-14 2016-07-13 Fujitsu Limited Computing device, method, and program for energy-efficient distribution of computational load
US20140298343A1 (en) * 2013-03-26 2014-10-02 Xerox Corporation Method and system for scheduling allocation of tasks
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US9690626B2 (en) 2014-06-27 2017-06-27 Vmware, Inc. Processing workloads in single-threaded environments
CN109426553A (zh) * 2017-08-21 2019-03-05 上海寒武纪信息科技有限公司 任务切分装置及方法、任务处理装置及方法、多核处理器
CN109309726A (zh) * 2018-10-25 2019-02-05 平安科技(深圳)有限公司 基于海量数据的文件生成方法及系统
CN111182026B (zh) * 2019-11-27 2023-05-12 广西金慕联行数字科技有限公司 一种智能云盒子
CN115202854A (zh) * 2021-04-08 2022-10-18 富泰华工业(深圳)有限公司 数据控制方法、数据处理方法及相关设备
CN119988037B (zh) * 2025-04-14 2025-06-20 成都秦川物联网科技股份有限公司 基于工业物联网数据中心的计算调度系统、方法及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844678A (ja) * 1994-07-29 1996-02-16 Canon Inc 画像処理装置及びシステム
JPH09282288A (ja) * 1996-04-09 1997-10-31 Fujitsu Ltd 複数計算機運用システム
JPH1040360A (ja) * 1996-07-26 1998-02-13 Fuji Xerox Co Ltd 命令解析装置
JPH10334057A (ja) * 1997-06-04 1998-12-18 Nippon Telegr & Teleph Corp <Ntt> 分散システム環境におけるバッチジョブの動的負荷分散処理方法およびそのシステム
JP2002049603A (ja) * 2000-08-03 2002-02-15 Toshiba Corp 動的負荷分散方法及び動的負荷分散装置
JP2004094473A (ja) * 2002-08-30 2004-03-25 Hitachi Ltd コントローラ及びその制御方法
JP2006178663A (ja) * 2004-12-21 2006-07-06 Canon Inc 情報処理装置、情報処理方法、検証装置、検証方法
JP2007257163A (ja) * 2006-03-22 2007-10-04 Hitachi Ltd 分散型プログラム実行環境における稼動品質管理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889989A (en) 1996-09-16 1999-03-30 The Research Foundation Of State University Of New York Load sharing controller for optimizing monetary cost
JP2000151873A (ja) 1998-11-12 2000-05-30 Canon Inc 情報処理システム及び情報処理方法
US6539445B1 (en) * 2000-01-10 2003-03-25 Imagex.Com, Inc. Method for load balancing in an application server system
US6640239B1 (en) * 1999-11-10 2003-10-28 Garuda Network Corporation Apparatus and method for intelligent scalable switching network
US7454500B1 (en) * 2000-09-26 2008-11-18 Foundry Networks, Inc. Global server load balancing
JP2005182641A (ja) 2003-12-22 2005-07-07 Hitachi Information Systems Ltd 動的負荷分散システム及び動的負荷分散方法
JP4708906B2 (ja) * 2004-08-31 2011-06-22 キヤノン株式会社 情報処理装置及びその制御方法、制御プログラム
US20090064166A1 (en) * 2007-08-28 2009-03-05 Arimilli Lakshminarayana B System and Method for Hardware Based Dynamic Load Balancing of Message Passing Interface Tasks

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844678A (ja) * 1994-07-29 1996-02-16 Canon Inc 画像処理装置及びシステム
JPH09282288A (ja) * 1996-04-09 1997-10-31 Fujitsu Ltd 複数計算機運用システム
JPH1040360A (ja) * 1996-07-26 1998-02-13 Fuji Xerox Co Ltd 命令解析装置
JPH10334057A (ja) * 1997-06-04 1998-12-18 Nippon Telegr & Teleph Corp <Ntt> 分散システム環境におけるバッチジョブの動的負荷分散処理方法およびそのシステム
JP2002049603A (ja) * 2000-08-03 2002-02-15 Toshiba Corp 動的負荷分散方法及び動的負荷分散装置
JP2004094473A (ja) * 2002-08-30 2004-03-25 Hitachi Ltd コントローラ及びその制御方法
JP2006178663A (ja) * 2004-12-21 2006-07-06 Canon Inc 情報処理装置、情報処理方法、検証装置、検証方法
JP2007257163A (ja) * 2006-03-22 2007-10-04 Hitachi Ltd 分散型プログラム実行環境における稼動品質管理方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101754998B1 (ko) * 2011-01-27 2017-07-06 삼성전자주식회사 멀티 코어 시스템 및 멀티 코어 시스템에서의 데이터 병렬 처리 방법
JP2014092873A (ja) * 2012-11-01 2014-05-19 Nec Corp ハイブリッド並列処理システム、ハイブリッド並列処理方法およびコンピュータプログラム
US10025603B2 (en) 2013-02-26 2018-07-17 Nec Corporation Parallel processing device, parallel processing method, and parallel processing program storage medium
JPWO2014132608A1 (ja) * 2013-02-26 2017-02-02 日本電気株式会社 並列処理装置、並列処理方法、および並列処理プログラム記憶媒体
KR101770234B1 (ko) 2013-10-03 2017-09-05 후아웨이 테크놀러지 컴퍼니 리미티드 소프트웨어 프로그램의 연산 블록을 멀티-프로세서 시스템의 코어에 할당하는 방법 및 시스템
JP2016532183A (ja) * 2013-10-03 2016-10-13 華為技術有限公司Huawei Technologies Co.,Ltd. ソフトウェアプログラムの計算ブロックをマルチプロセッサシステムのコアに割り当てるための方法及びシステム
US10162679B2 (en) 2013-10-03 2018-12-25 Huawei Technologies Co., Ltd. Method and system for assigning a computational block of a software program to cores of a multi-processor system
JP2017021426A (ja) * 2015-07-07 2017-01-26 株式会社デンソー 電子制御装置
JP2017151635A (ja) * 2016-02-23 2017-08-31 富士通株式会社 並列計算機、並列lu分解方法及び並列lu分解プログラム
JP2018128811A (ja) * 2017-02-08 2018-08-16 日本電気株式会社 情報処理装置、情報処理方法、プログラム
WO2018158819A1 (ja) * 2017-02-28 2018-09-07 株式会社日立製作所 分散データベースシステム及び分散データベースシステムのリソース管理方法
JPWO2018158819A1 (ja) * 2017-02-28 2019-06-27 株式会社日立製作所 分散データベースシステム及び分散データベースシステムのリソース管理方法
JP2020046996A (ja) * 2018-09-19 2020-03-26 富士通株式会社 最適化問題演算プログラム、最適化問題演算方法および最適化問題演算装置
US11409836B2 (en) 2018-09-19 2022-08-09 Fujitsu Limited Optimization problem arithmetic method and optimization problem arithmetic apparatus
JP7196489B2 (ja) 2018-09-19 2022-12-27 富士通株式会社 最適化問題演算プログラム、最適化問題演算方法および最適化問題演算装置

Also Published As

Publication number Publication date
JP5343523B2 (ja) 2013-11-13
US20100125847A1 (en) 2010-05-20
US8812639B2 (en) 2014-08-19

Similar Documents

Publication Publication Date Title
JP5343523B2 (ja) ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム
CN114138486B (zh) 面向云边异构环境的容器化微服务编排方法、系统及介质
US20210191781A1 (en) Concurrent program execution optimization
JP6241300B2 (ja) ジョブスケジューリング装置、ジョブスケジューリング方法、およびジョブスケジューリングプログラム
US8261281B2 (en) Optimizing allocation of resources on partitions of a data processing system
KR101656706B1 (ko) 고성능 컴퓨팅 환경에서의 작업 분배 시스템 및 방법
CN107193652B (zh) 容器云环境中流数据处理系统的弹性资源调度方法及系统
KR101640848B1 (ko) 멀티코어 시스템 상에서 단위 작업을 할당하는 방법 및 그 장치
JP5121936B2 (ja) リソース割り当て装置及びリソース割り当てプログラム及び記録媒体及びリソース割り当て方法
JP4185103B2 (ja) 実行可能プログラムをスケジューリングするためのシステム及び方法
CN105980988A (zh) Smp环境中在数据库工作代理间动态分配资源和任务的方法和系统
KR101553650B1 (ko) 멀티코어 시스템에서의 로드 밸런싱 장치 및 방법
CN115168058B (zh) 线程负载均衡方法、装置、设备及存储介质
JP6519111B2 (ja) データ処理制御方法、データ処理制御プログラムおよびデータ処理制御装置
CN119166304B (zh) 一种面向异构计算平台的任务调度方法
CN110275765A (zh) 基于分支dag依赖的数据并行作业调度方法
WO2014046885A2 (en) Concurrency identification for processing of multistage workflows
CN106775949A (zh) 一种感知复合应用特征与网络带宽的虚拟机在线迁移优化方法
Xu et al. Prophet: Scheduling executors with time-varying resource demands on data-parallel computation frameworks
CN102184124B (zh) 任务调度方法及系统
CN114860417B (zh) 多核神经网络处理器及用于该处理器多任务分配调度方法
Ajmera et al. Dynamic virtual machine scheduling using residual optimum power-efficiency in the cloud data center
Perwej The ambient scrutinize of scheduling algorithms in big data territory
CN114579284B (zh) 任务调度方法及装置
JP2012038275A (ja) 取引計算シミュレーションシステム、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130607

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130729

R150 Certificate of patent or registration of utility model

Ref document number: 5343523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150