JPH11312058A - Storage subsystem - Google Patents
Storage subsystemInfo
- Publication number
- JPH11312058A JPH11312058A JP10118127A JP11812798A JPH11312058A JP H11312058 A JPH11312058 A JP H11312058A JP 10118127 A JP10118127 A JP 10118127A JP 11812798 A JP11812798 A JP 11812798A JP H11312058 A JPH11312058 A JP H11312058A
- Authority
- JP
- Japan
- Prior art keywords
- controller
- processing
- storage subsystem
- logical volume
- charge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Techniques For Improving Reliability Of Storages (AREA)
- Hardware Redundancy (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
(57)【要約】
【課題】複数ホスト複数パス構成での冗長構成の制御装
置との接続は、論理ボリュームを共有するしないによら
ず、各部分の障害時、処理の続行は可能であるが、正常
時のオーバヘッドの増加により、シングル構成時との性
能差が問題となっている。
【解決手段】デュアルコントローラ構成、複数ポート構
成のディスクアレイ装置で複数ホストに冗長構成として
接続された時、論理ボリュームの割当てをコントローラ
間で分割してコントローラ毎に論理ボリュームを分担す
る。ホスト、バス、コントローラ、キャッシュ障害時で
も、ホスト接続環境により障害時の切替え手段を複数の
提供し、場合によっては切替えないようにする。そし
て、冗長構成においても、正常時もシングル構成と変わ
らない低オーバヘッドと、各種障害時の切替え処理にお
ける性能劣化を防ぐことを実現する。
(57) [Problem] To connect with a redundantly configured control device in a multi-host multi-path configuration, regardless of whether a logical volume is shared or not, it is possible to continue processing when a failure occurs in each part. Due to an increase in overhead in a normal state, a difference in performance from that in a single configuration has become a problem. When a disk array device having a dual controller configuration and a plurality of ports is connected to a plurality of hosts in a redundant configuration, the assignment of logical volumes is divided among the controllers, and the logical volumes are shared by the controllers. Even in the event of a host, bus, controller, or cache failure, a plurality of switching means at the time of failure are provided depending on the host connection environment, and in some cases, switching is not performed. In addition, even in the redundant configuration, it is possible to realize low overhead which is not different from the single configuration even in the normal state, and to prevent performance degradation in switching processing at the time of various failures.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、複数台のホスト又
は複数のポートを持つ単一のホストと接続する制御装置
を備えた記憶サブシステムにおいて、特に詳細には、記
憶サブシステムとしての障害時の信頼性と可用性の向上
技術及び障害時の交代系への処理の切替え性能の向上方
式技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a storage subsystem provided with a control device connected to a plurality of hosts or a single host having a plurality of ports. And technology for improving the performance of switching processing to an alternate system in the event of a failure.
【0002】[0002]
【従来の技術】コントローラ及びディスク等の記憶装置
に冗長性を持たせたものとして、従来、特開平4−21
5142に記載された記憶サブシステムがある。この記
憶サブシステムは、2重の系で構成され、一方の系が現
用系として稼働し、他方の系が待機系として稼働してい
る。そして、現用系のディスク装置の記憶情報を両系か
らアクセス可能な共用ディスク装置を介して予備系のデ
ィスク装置に複写すること、あるいは、現用系コントロ
ーラ障害時は、予備系のコントローラによって、現用系
のディスク装置の記憶情報を抽出可能とすることで、コ
ントローラ及びディスク装置障害時のデータ保全性の向
上を計っていた。2. Description of the Related Art Japanese Patent Laid-Open Publication No. Hei 4-21 discloses a storage device such as a controller and a disk having redundancy.
There is a storage subsystem described in US Pat. This storage subsystem is constituted by a double system, one of which operates as an active system and the other of which operates as a standby system. Then, the storage information of the active disk device is copied to the standby disk device via the shared disk device accessible from both systems, or in the event of a failure of the active controller, the standby controller causes the active controller to copy the storage information to the standby disk device. By extracting the storage information of the disk device, the data integrity in the event of a controller and disk device failure has been improved.
【0003】又、従来複数のコントローラで、且つ複数
ポート構成で記憶媒体を共有する制御装置は基幹系オー
プン市場で見られるように、任意の論理ボリュームは複
数のパスからアクセスが可能であり、又、全論理ボリュ
ームがどのコントローラからも均一にアクセス可能な構
成であった。[0003] Conventionally, a control device that shares a storage medium with a plurality of controllers and a plurality of ports has a configuration in which an arbitrary logical volume can be accessed from a plurality of paths, as seen in a backbone open market. In this configuration, all logical volumes can be uniformly accessed from any controller.
【0004】[0004]
【発明が解決しようとする課題】コンピュータシステム
の大規模化、データ処理の高速化、データの大容量化に
伴い、記憶制御装置に対する高性能、高信頼性、可用性
の向上が強く望まれている。With the increase in the scale of computer systems, the speed of data processing, and the increase in data capacity, there is a strong demand for higher performance, higher reliability, and higher availability for storage controllers. .
【0005】従来技術では、制御装置側の2重系、ま
た、キャッシュの2重化等により、制御装置内に閉じた
信頼性、可用性の向上のみが行われていた。コンピュー
タシステム全体を考えると、制御装置の2重化ととも
に、ホスト、および制御装置に対するアクセスバスの2
重化が必須であり、これを実現するためには複数コント
ローラ構成、複数ポート構成が必須となる。[0005] In the prior art, only the improvement of reliability and availability closed in the control device has been performed by the dual system on the control device side and the duplication of the cache. Considering the entire computer system, the duplex of the control device and the access bus for the host and the control device are reduced.
Redundancy is essential, and in order to achieve this, a multiple controller configuration and a multiple port configuration are required.
【0006】しかし、このような構成において従来の基
幹系オープン市場のような、全論理ボリュームがどのコ
ントローラからも均一にアクセス可能な構成を実現する
ためには、複数のコントローラ間でホストのデータを一
時格納するキャッシュの管理情報を共有することが必須
である。キャッシュの管理情報を共有するには、排他制
御を行う為に専用のロック制御、排他情報の管理等をプ
ロセッサで行う必要が有るため、1つのコントローラ構
成での性能にくらべ、複数コントローラ構成での性能劣
化の割合が大きい。よって信頼性、可用性を向上させる
ためにその代替として性能を犠牲にするしかなかった。However, in such a configuration, in order to realize a configuration in which all logical volumes can be uniformly accessed from any controller, as in the conventional open system market, host data is transferred between a plurality of controllers. It is essential to share the cache management information that is temporarily stored. In order to share the cache management information, it is necessary for the processor to perform exclusive lock control and exclusive information management to perform exclusive control. The rate of performance degradation is large. Therefore, the only alternative was to sacrifice performance to improve reliability and availability.
【0007】システムとして冗長構成をとりながら、冗
長構成でないシングル構成時に比べ、性能を維持するた
めには、どのコントローラからも、全ての論理ボリュー
ムのアクセスが可能でありながら、コントローラ間での
ロック制御、排他制御等が不必要であることが必要であ
る。よって、通常のアクセス形態としては、コントロー
ラ単位に論理ボリュームの担当を固定化させる方式が考
えられるが、単に固定的な制御では、ホスト、ホスト−
制御装置間バス、制御装置の障害時、当該担当論理ボリ
ュームへの処理の代替えが不可能となり、冗長構成であ
るとは言えない。よって、通常時(正常時)は、各々担
当業務を低オーバヘッドで実現し、障害時は、肩代わり
ができることが必要である。[0007] In order to maintain the performance as compared with a single configuration without a redundant configuration while taking a redundant configuration as a system, lock control between controllers can be performed while all logical volumes can be accessed from any controller. , Exclusive control and the like are unnecessary. Therefore, as a normal access mode, a method of fixing the assignment of a logical volume to each controller can be considered.
In the event of a failure between the control device bus and the control device, it is not possible to substitute the processing for the assigned logical volume, and it cannot be said that the configuration is redundant. Therefore, it is necessary that each assigned task is realized with low overhead during normal times (normal times), and it is necessary to be able to take over the job when a failure occurs.
【0008】しかし、各コントローラへの接続形態とし
て、1つのポートで、例えば、デイジーチェーン接続に
より複数のホストより接続されている。または、コント
ローラが複数のポート構成で、各々のポートから異なる
ホストにて接続されている。さらに、各ホストが、他コ
ントローラ側にも交代パスとして接続しているような構
成の時、1つのホスト側の障害、又はバス障害により、
他系コントローラに論理ボリュームを切り替えようとし
た時、コントローラの担当の切替えとして、他系コント
ローラの担当論理ボリューム全てを、一括して切り替え
てしまう方法では、それ以外のホストが通常処理のまま
のアクセスを行うことができなくなる。よって、複数の
ホストと接続する場合には、各々のホスト、バス障害に
あった切替え手段が必要となる。However, as a connection form to each controller, a single port is connected by a plurality of hosts, for example, by daisy chain connection. Alternatively, the controller has a plurality of ports, and each port is connected to a different host. Furthermore, when each host is connected to another controller as an alternate path, a failure on one host or a bus failure may cause a failure.
If you try to switch the logical volume to another controller and switch all of the logical volumes in charge of the other controller at once as a switch of the charge of the controller, the other hosts will access as normal processing. Can not be performed. Therefore, when connecting to a plurality of hosts, switching means suitable for each host and bus failure is required.
【0009】又、近年フォールトトレラントの強いニー
ズにより、ホスト側にも、フォールトトレラント機能で
あるパス切替え機能がサポートされつつある。代表例と
しては、HPのAlternate Linkや、Sa
fe Path(パス切替えソフト)等があげられる。
この本機能では、ホスト側が交代パス接続しており、任
意パスでの障害を認識すると、自動的に他系のパスへ処
理を移し(論理ボリュームを移す)処理を再開する。障
害の認識は、タイムアウト等によるものが多く、他系に
処理を移した後の最初のI/Oで一定時間以上処理が遅
延すると、さらに障害と認識される危険性が高い。よっ
て、コントローラの担当の切替え処理には、I/Oを受
領して認識するわけだが、その後の切替え処理時間は、
障害認識されない短い時間で行うことが必須条件とな
る。In recent years, a path switching function, which is a fault tolerant function, is being supported on the host side due to a strong need for fault tolerant. Representative examples include Alternate Link of HP and Sa
fe Path (path switching software).
In this function, the host side is connected to an alternate path, and when recognizing a failure in an arbitrary path, the processing is automatically transferred to another system path (the logical volume is transferred) and the processing is restarted. The recognition of a failure is often due to a timeout or the like, and if the processing is delayed for a certain period of time in the first I / O after the processing is transferred to another system, there is a high risk of being recognized as a failure. Therefore, in the switching process in charge of the controller, the I / O is received and recognized, but the subsequent switching process time is as follows:
It is an essential condition that it is performed in a short time in which no obstacle is recognized.
【0010】[0010]
【課題を解決するための手段】前述の課題を解決する為
に、各々のコントローラが、複数のバス接続ポートとデ
ータを一時的に格納するキャッシュ機構を備え、ホスト
からのデータを記憶する記憶媒体を共有する複数のコン
トローラで構成された制御装置で、論理ボリューム(L
UN)の担当の指定、及び非担当側コントローラへのI
/O受領時の論理ボリュームの担当の切替え方法の指
定、及び論理ボリュームに対するキャッシュの割当て方
法の指定、及びキャッシュへの1重書き/2重書きの指
定をする手段と、担当以外の論理ボリュームへの要求
時、切り替える制御、及び他系コントローラへ通信する
制御を司るプロセッサと、キャッシュへ2重書き/1重
書きの切替えをデータ転送を制御する手段と、キャッシ
ュメモリをコントローラ、さらには、LUN単位に分割
して使用する手段と、LUN毎の負荷情報、及びLUN
の担当により、最適な切替え方法を判断するプロセッサ
より実現される。In order to solve the above-mentioned problems, each controller has a plurality of bus connection ports and a cache mechanism for temporarily storing data, and a storage medium for storing data from a host. Is a control device composed of a plurality of controllers sharing a logical volume (L
UN) Assignment of charge and I to the non-charge controller
Means for specifying the method of switching the charge of the logical volume upon receipt of / O, specifying the method of allocating the cache to the logical volume, and specifying the single / double write to the cache; Processor, which controls switching and communication to another system controller at the time of request, means for controlling data transfer for switching between double writing / single writing to a cache, a cache memory as a controller, and a LUN unit Means to be divided and used, load information for each LUN, and LUN
Is realized by a processor that determines an optimal switching method.
【0011】[0011]
【発明の実施の形態】以下、本発明の1実施例を図面を
用いて説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings.
【0012】図1は、本実施例に関するディスクアレイ
装置を含むシステム全体の1構成例である。図1におい
て、10、20、30、40はホストコンピュータ、5
000はディスクアレイ装置であり、各々のホストよ
り、SCSIバス等で接続されている。1000、20
00はデュアル構成をとるコントローラ部、4000は
ホストからのデータを格納するディスク装置群、300
0はLUNの指定等を行う操作パネルである。ディスク
装置群4000は、アレイ構成であることが多い。FIG. 1 shows an example of the overall configuration of a system including a disk array device according to the present embodiment. 1, 10, 20, 30, and 40 are host computers, 5
Reference numeral 000 denotes a disk array device, which is connected to each host by a SCSI bus or the like. 1000, 20
00 is a controller unit having a dual configuration, 4000 is a disk device group for storing data from the host, 300
Reference numeral 0 denotes an operation panel for specifying a LUN and the like. The disk device group 4000 often has an array configuration.
【0013】各コントローラは、バスプロトコル制御を
行う4つのポート1010、1020、1030、10
40、2010、2020、2030、2040を備
え、ホスト側の各ポートに接続される。又、転送制御部
1100、2100は、キャッシュメモリ1300、2
300とホスト間のデータ転送制御を司り、又1重書き
/2重書きの制御も行う。又、ディスクアレイ制御部1
200、2200はコントローラA、コントローラB全
体を制御している。Each controller has four ports 1010, 1020, 1030, 10
40, 2010, 2020, 2030, and 2040, and are connected to each port on the host side. Further, the transfer control units 1100 and 2100
It also controls data transfer between the host 300 and the host, and also controls single / double writing. Disk array control unit 1
Reference numerals 200 and 2200 control the controller A and the controller B as a whole.
【0014】図2にキャッシュメモリの構成を示す。キ
ャッシュメモリ1300、2300は、管理情報140
0,2400、コントローラA用エリア1500、25
00、コントローラB用エリア1600、2600から
なる。各々1400と2400、1500と2500、
1600と2600は2重書きされる。キャッシュメモ
リ1300、2300の管理情報1400、2400
は、2重書きにより同一構成であるため、コントローラ
A側のキャッシュメモリ1400を例にとり管理情報の
構成を説明する。管理情報1400は、コントローラ間
の通信情報1410と、コントローラ毎のLUN情報1
420、キャッシュ内データを管理するデータ管理情報
1430からなる。データ管理情報1430は、コント
ローラ毎に2分割されている。FIG. 2 shows the configuration of the cache memory. The cache memories 1300 and 2300 store the management information 140
0,2400, Controller A area 1500,25
00, areas 1600 and 2600 for the controller B. 1400 and 2400, 1500 and 2500, respectively
1600 and 2600 are duplicated. Management information 1400, 2400 of cache memory 1300, 2300
Have the same configuration due to double writing, the configuration of the management information will be described using the cache memory 1400 on the controller A side as an example. The management information 1400 includes communication information 1410 between controllers and LUN information 1 for each controller.
420, data management information 1430 for managing data in the cache. The data management information 1430 is divided into two for each controller.
【0015】キャッシュメモリ1300、2300は信
頼性の為、不揮発性であることが望ましい。ホストが、
既に冗長構成をとっていて、例えば、ディスクアレイ装
置5000を2つ用意し、1方を現行機、他方を予備機
として使用しているような場合、敢えてディスクアレイ
側での冗長度を要求する必要がない場合、操作パネル3
000によるユーザからの指示により、キャッシュを1
重書きとして使用する場合は、コントローラA用として
1500と1600を、コントローラB用として250
0、2600を使用することもできる。この場合、2重
書き時と比べ、キャッシュメモリの使用効率は、2倍と
なる。この1重書き、2重書きの制御はディスクアレイ
制御部1200、2200が、転送制御部1100、2
100の転送モードを設定することにより実現される。
本キャッシュメモリ1300、2300は、RDキャッ
シュ、及びWRキャッシュとして用いられ高いパフォー
マンスを提供することが可能である。WRキャッシュ機
能を使用するには、キャッシュメモリ障害、及びコント
ローラ障害時のデータ保証に為、前記記述のように2重
書きすることが必須となっている。The cache memories 1300 and 2300 are preferably nonvolatile for reliability. If the host
If a redundant configuration is already used, for example, two disk array devices 5000 are prepared and one is used as a current device and the other is used as a spare device, the redundancy on the disk array side is intentionally requested. Operation panel 3
000 by the user's instruction with 000
When used as overwriting, 1500 and 1600 for controller A and 250 for controller B
0, 2600 can also be used. In this case, the use efficiency of the cache memory is doubled compared to the double writing. The single-write and double-write controls are performed by the disk array control units 1200 and 2200 by the transfer control units 1100 and 2100.
This is realized by setting 100 transfer modes.
The cache memories 1300 and 2300 are used as RD caches and WR caches, and can provide high performance. In order to use the WR cache function, double writing as described above is indispensable for guaranteeing data at the time of cache memory failure and controller failure.
【0016】ホストは、各々2つのポートを持ち、各々
別のコントローラへ接続される。図1では、ホスト10
のポートA:11がSCSIバス100Aを介して、コ
ントローラA:1000内ポートA:100Aへ、ポー
トB:12−100B−ポートA:2010、以下同様
に、別コントローラに接続されている。本接続は、ホス
ト側の障害、バス障害時、他系に切り替えられる冗長度
を持つ構成の代表例である。The hosts each have two ports and are each connected to a different controller. In FIG. 1, the host 10
Are connected to another controller via the SCSI bus 100A, to the port A: 100A in the controller A: 1000, to the port B: 12-100B-port A: 2010, and so on. This connection is a typical example of a configuration having a redundancy that can be switched to another system in the event of a failure on the host side or a bus failure.
【0017】しかし、本ディスクアレイ装置5000の
複数ポートに、全て別々のホストに接続されてもよい。
この場合ホスト側の冗長度はない。又、ホストが、図1
のような2パス構成である時、交代系のパスを同一コン
トローラ内の別ポートに接続してもよい。本構成をとる
場合、コントローラ側の障害時、交代パスがなくアクセ
スが不能となるが、ホスト側、バス障害時には、同一コ
ントローラへの切替えが可能であり、後記述する切替え
処理、及び通信による依頼処理どちらも必要でないた
め、切替えによる性能劣化がないのが特徴である。However, all the ports of the disk array device 5000 may be connected to different hosts.
In this case, there is no redundancy on the host side. Also, if the host
In such a two-path configuration, the alternate path may be connected to another port in the same controller. In the case of this configuration, in the event of a failure on the controller side, there is no alternate path and access is not possible, but on the host side, in the event of a bus failure, switching to the same controller is possible, switching processing described later, and request by communication Since neither process is required, the feature is that there is no performance degradation due to switching.
【0018】以下、図1の構成における論理ボリューム
の割当てについて説明する。論理ボリュームの割当て
は、コントローラ間で排他的に行われる。例えば、コン
トローラA1000にはLUN0、1、2、3を、コン
トローラB2000にはLUN4、5、6、7を担当に
設定する。担当論理ボリュームは、操作パネル3000
で予め設定してもよいし、ディスクアレイ装置の立ち上
げ後、受領したコマンドのLUN番号を担当としてもよ
い。このように、担当LUNを分割し、且つコントロー
ラ単位に使用するキャッシュメモリを分割することによ
り、マルチコントローラ混成特有の排他制御等が不必要
となり、高いパフォーマンスを提供することが可能とな
る。Hereinafter, the assignment of logical volumes in the configuration of FIG. 1 will be described. Assignment of a logical volume is performed exclusively between controllers. For example, LUNs 0, 1, 2, and 3 are assigned to the controller A1000, and LUNs 4, 5, 6, and 7 are assigned to the controller B2000. The assigned logical volume is the operation panel 3000
May be set in advance, or the LUN number of the received command may be assigned after the startup of the disk array device. As described above, by dividing the assigned LUN and the cache memory used for each controller, exclusive control or the like peculiar to multi-controller hybrid becomes unnecessary, and high performance can be provided.
【0019】コントローラ内の複数のLUNは、複数の
ホスト間で共有してもよいし、ホスト毎に独立にアクセ
スしてもよい。この時、コントローラ内のキャッシュメ
モリの割当てをコントローラ内で一元的に管理するか、
各LUN毎に分割して使用するかをユーザが指定するこ
とができる。各ホストに独立にLUNを設定した場合、
ホスト側のアクセスパターン、ホスト間の能力差等によ
り、任意のホスト配下のLUNのみがキャッシュメモリ
を占有してしまうと、他ホストからの別LUNに対する
パフォーマンスが低下する。本現象を回避するために、
予めキャッシュメモリをLUN毎に分割することが可能
である。本指定も操作パネル3000により設定するこ
とができる。又、LUN毎のアクセスの頻度が時間的に
変化するような場合、例えば、日中の業務にはLUN
0,1を夜間ではLUNの2,3をメインにアクセスす
るような場合には、LUN単位の割当てを負荷状態によ
り、ダイナミックに変更することも可能である。LUN
単位の割当てを静的に配置するか動的に割り当てるかの
指定も操作パネルにて設定することができる。本発明に
より、マルチホスト接続環境での複数論理ボリュームへ
のパフォーマンスがホストからのいかなるアクセスパタ
ーンにおいてもホストへの均等なサービスを提供するこ
とができる。A plurality of LUNs in the controller may be shared between a plurality of hosts, or may be independently accessed for each host. At this time, whether the cache memory allocation in the controller is centrally managed in the controller,
The user can specify whether to divide and use each LUN. When LUN is set independently for each host,
If only a LUN under an arbitrary host occupies the cache memory due to an access pattern on the host side, a difference in capability between the hosts, and the like, the performance of another LUN from another host decreases. To avoid this phenomenon,
The cache memory can be divided in advance for each LUN. This designation can also be set by the operation panel 3000. If the frequency of access for each LUN changes over time, for example, the
In the case of accessing the main LUNs 2 and 3 during the night of 0 and 1, it is possible to dynamically change the allocation in LUN units according to the load state. LUN
The designation of whether the unit assignment is statically arranged or dynamically assigned can also be set on the operation panel. According to the present invention, performance to a plurality of logical volumes in a multi-host connection environment can provide an equal service to the host in any access pattern from the host.
【0020】次に、LUN毎の割当て方法と、負荷状態
にあわせての割当て方法の変更方法を図5を使用し説明
する。キャッシュメモリの使用/未使用を管理する最小
管理単位をセグメントと称す。データ管理情報はLUN
毎に使用可能なセグメント数1431と、現在使用中の
セグメント数1432、未使用のセグメントの数143
3、各々のセグメント毎のキャッシュの実態ADRや、
ホストからのデータADRを管理するセグメント管理情
報1434からなる。セグメント管理情報は、セグメン
トの数と等しい数の情報を持つ。例えば、コントローラ
A用のキャッシュメモリ1500の大きさが、1,00
0個のセグメント分だとする。今、コントローラAに
は、4つのLUNが割り当てられ各々250個セグメン
トに分割指定されたとする。よって、 LUN毎の使用
可能セグメント数1431には250が設定される。ホ
ストからI/Oを受領しキャッシュを使用する時、使用
中セグメント数1432にくわえ、未使用セグメント数
1433から引き、セグメント管理情報1434を設定
する。ただし、キャッシュをRDキャッシュをして使用
する場合は未使用のままで管理し、WRキャッシュとし
て使用する場合のみ使用中として管理する。Next, an assignment method for each LUN and a method of changing the assignment method according to the load state will be described with reference to FIG. The minimum management unit for managing the use / non-use of the cache memory is called a segment. Data management information is LUN
The number of available segments 1431, the number of currently used segments 1432, the number of unused segments 143
3. The actual ADR of the cache for each segment,
It consists of segment management information 1434 for managing data ADR from the host. The segment management information has information equal in number to the number of segments. For example, if the size of the cache memory 1500 for the controller A is
Assume that it is for 0 segments. Now, it is assumed that four LUNs are assigned to the controller A and each of them is designated to be divided into 250 segments. Therefore, 250 is set as the number 1431 of usable segments for each LUN. When the I / O is received from the host and the cache is used, the segment management information 1434 is set by subtracting the number of used segments 1432 and the number of unused segments 1433. However, when the cache is used as an RD cache, it is managed as unused, and when used as a WR cache, it is managed as being used.
【0021】また、一定期間で受領したLUN毎のI/
O数をカウントしておく。本情報はディスクアレイ制御
部に持ってもよいし、キャッシュメモリの管理情報内に
持ってもよい。本情報を元にLUN毎の負荷を判定し、
各LUN毎の平均I/O数より少ないLUNから多いL
UNへ空きセグメントを移行させる。つまり、使用可能
セグメント数1431の変更と、未使用セグメント数1
433の変更、及びセグメント管理情報の所在を移行す
ることにより実現される。本変更処理は、一定期間毎に
行ってもよいし、ホストからのI/Oの負荷の低い時に
行ってもよい。本制御により、LUN毎の負荷によりダ
イナミックにキャッシュの割当てが可能となる。In addition, I / O for each LUN received in a certain period
Count the number of O. This information may be held in the disk array control unit or in the management information of the cache memory. Determine the load for each LUN based on this information,
L from LUN less than average I / O number for each LUN
The empty segment is transferred to UN. That is, the number of usable segments 1431 is changed, and the number of unused segments is 1
433, and by shifting the location of the segment management information. This change processing may be performed at regular intervals or when the I / O load from the host is low. With this control, a cache can be dynamically allocated according to the load of each LUN.
【0022】次に障害時の切替え処理について説明す
る。図3にLUNの割当ての1例を示す。本割当て例は
コントローラ毎にLUNが分割されているだけでなく、
ホスト毎、ポート毎にLUNが独立に設定されている。
この構成で、ホスト10のSCSIバス100Aが障害
となった時、ホスト側LUN0へのアクセスをは交代パ
ス100Bより行う。この時、コントローラBはLUN
0はコントローラ毎のLUN情報1420と比較し、非
担当であることを認識する。この時、コントローラA担
当分のLUNをすべて一括してコントローラBに切り替
えた場合、残りのホスト20,30,40がポートA側
からLUN1、2、3をアクセスする場合の処理もコン
トローラB側の担当に切り替わることになる。したがっ
て、ホスト20、30、40からのLUN1、2、3に
対するアクセスをコントローラAが受領した場合、非担
当LUNに対するアクセスと判断され、もともとこれら
のLUNの担当であったコントローラA側にLUNの処
理担当を切り替える処理が発生する。このように、コン
トローラ配下のLUNを一括して切り替える方式では、
このようにマルチホスト接続環境では、任意ホスト系障
害時、切り替え処理が頻発し、性能が大幅にダウンする
といった問題がある。Next, switching processing at the time of a failure will be described. FIG. 3 shows an example of LUN assignment. In this assignment example, not only is the LUN divided for each controller,
LUNs are set independently for each host and each port.
With this configuration, when the SCSI bus 100A of the host 10 fails, access to the host-side LUN 0 is performed from the alternate path 100B. At this time, the controller B
“0” is compared with the LUN information 1420 for each controller to recognize that it is not in charge. At this time, when all LUNs for the controller A are switched to the controller B at once, the processing when the remaining hosts 20, 30, and 40 access the LUNs 1, 2, and 3 from the port A side is also performed on the controller B side. You will be switched to the person in charge. Therefore, when the controller A receives the access to the LUNs 1, 2, and 3 from the hosts 20, 30, and 40, it is determined that the access is to the non-assigned LUN, and the controller A, which was originally in charge of these LUNs, processes the LUN. The process of switching the charge occurs. As described above, in the method of switching LUNs under the controller at once,
As described above, in a multi-host connection environment, there is a problem that, when an arbitrary host system fails, switching processing frequently occurs, and performance is greatly reduced.
【0023】本発明では、前記の問題を解決するため、
LUN単位の切替えを実現することが可能である。LU
N単位の切替えを行うと、上記障害時、コントローラB
がLUN0のI/Oを受領した時、切替え対象LUNを
当該LUN0のみとすることで、他ホストからのコント
ローラAへのアクセス時も切り替え処理が発生せず、性
能維持が可能である。In the present invention, in order to solve the above problem,
It is possible to realize switching in LUN units. LU
When switching is performed in N units, the controller B
When receiving the I / O of LUN0, by setting only the target LUN to be the LUN0, the switching process does not occur even when accessing the controller A from another host, and the performance can be maintained.
【0024】一方、前記の構成で、コントローラAが障
害となった場合は、全てのホストがポートBにアクセス
権を切り替えてくる為、LUNごとの切り替えより一括
切替えの方が、LUNの処理担当を切り替える回数が減
少し、LUN処理担当切り替え処理によるの性能劣化を
防ぐことができる。On the other hand, in the above configuration, if the controller A fails, all the hosts switch the access right to the port B. Therefore, the batch switching is more in charge of the processing of the LUN than the switching for each LUN. Is reduced, and performance degradation due to LUN processing charge switching processing can be prevented.
【0025】また、図4にしめすような、LUNの割当
て方であった場合、つまり、コントローラ内の各ポート
間、つまり、各ホスト間でLUNをシェアして使用する
場合、コントローラ側障害時は上記一括切替えにて処理
続行が可能であるが、ホスト側障害又は、SCSIバス
障害時は上記2つの切替え処理でも、切り替え動作が頻
繁に発生してしまい、パフォーマンスが大幅にダウンし
てしまう。例えば、ホスト10のSCSIバス100A
が障害となった場合、ホスト10は、コントローラA側
での処理を交代パス100Bを使用しコントローラBに
発行してくる。つまり、LUN0、1、2、3に対する
要求をコントローラBに発行する。In the case where the LUN is allocated as shown in FIG. 4, that is, when the LUN is shared between the ports in the controller, that is, used between the hosts, when the controller side fails, Although the processing can be continued by the batch switching, the switching operation occurs frequently even in the case of the host side failure or the SCSI bus failure even in the above two switching processings, and the performance is greatly reduced. For example, the SCSI bus 100A of the host 10
If a failure occurs, the host 10 issues the processing on the controller A side to the controller B using the alternate path 100B. That is, a request for LUNs 0, 1, 2, and 3 is issued to the controller B.
【0026】コントローラBは、非担当LUNのI/O
を受領したことを契機に切り替え処理を行う。一括切替
えの場合、コントローラB側に全てのLUNの担当が移
行する。その後、他ホスト20、30、40からLUN
0,1,2,3に対する処理要求がコントローラAを介
してあったとき、再び、一括切替えが発生する。すなわ
ち、ホスト10からのI/O及びホスト20、30、4
0からのI/Oの度に一括切替えが起こる。LUN単位
切り替えでも、まったく同様な切り替えの繰り返しが起
こる。The controller B is responsible for the I / O of the non-assigned LUN.
The switching process is performed in response to receipt of the request. In the case of batch switching, all LUNs are transferred to the controller B side. After that, LUNs are sent from other hosts 20, 30, and 40.
When a processing request for 0, 1, 2, 3 is made via the controller A, batch switching occurs again. That is, the I / O from the host 10 and the hosts 20, 30, 4
Batch switching occurs at every I / O from zero. Even in LUN unit switching, exactly the same switching is repeated.
【0027】前記の問題を解決する為、本発明は非担当
LUNに対するI/Oを受領した時、切り替えない方式
も提案している。本方式は、コントローラ間通信情報1
410を使用し、相手コントローラに相手コントローラ
エリアのキャッシュの確保とディスク装置4000との
読み出し、書き込みを要求する。相手コントローラは、
要求処理が終了すると、コントローラ間通信情報141
0にその旨を報告する。そして自コントローラは、対ホ
ストとの転送のみを実行する。本発明により、コントロ
ーラ内のLUNを複数ホスト間で共有する構成で、ホス
ト側やバス障害時の交代パスからの処理の続行を頻繁な
切替え動作なしに、実行することが可能である。In order to solve the above problem, the present invention also proposes a method of not switching when an I / O to a non-assigned LUN is received. This method uses the communication information between controllers 1
Using 410, a request is made to the partner controller to secure a cache in the partner controller area and to read from and write to the disk device 4000. The partner controller is
When the request processing is completed, the inter-controller communication information 141
Report this to 0. Then, the own controller executes only the transfer with the host. According to the present invention, in a configuration in which a LUN in a controller is shared between a plurality of hosts, it is possible to continue processing from an alternate path in the case of a host or a bus failure without frequent switching operations.
【0028】本発明では、一括切り替え処理方式、LU
N毎の切替え処理方式、切替えなしに相手コントローラ
への依頼処理方式の3つのモードから、ユーザが自らの
システム構成のアクセス環境を考慮して最適な方式を選
択することができる。この選択は、操作パネル3000
を介して行う。さらに、ユーザがLUN毎の切り替え処
理方式を選択した場合でも、コントローラに障害が発生
した場合は、一括切り替え方式によりLUN処理担当を
切り替えるようにしてもよい。In the present invention, the batch switching processing method, LU
The user can select an optimal method from among three modes of a switching processing method for each N and a request processing method to the partner controller without switching in consideration of the access environment of the own system configuration. This selection is made using the operation panel 3000.
Done through. Furthermore, even when the user selects the switching processing method for each LUN, if a failure occurs in the controller, the LUN processing charge may be switched by the batch switching method.
【0029】又、本発明では、ディスクアレイ装置50
00側でI/Oパターンより自動選択する自動モードも
設定することができる。自動モード時の選択方法を以下
に説明する。In the present invention, the disk array device 50
An automatic mode for automatically selecting an I / O pattern from the 00 side can also be set. The selection method in the automatic mode will be described below.
【0030】LUNの割当て時、コントローラ毎にLU
Nを割り当てた場合、つまり、各ポート毎に設定しなか
った場合は、コントローラ内のLUNを各ポート(ホス
ト)間でシェアするか独立なのかの判断ができない。よ
って、一定期間の各ポートからのアクセスLUNの種類
をカウントし、一定期間後シェアであるか、独立である
かを判断する。独立であれば、LUN単位の切替えを選
択するし、シェアであれば、依頼方式を選択する。尚、
アクセスパターンが、時間と共に変わる可能性が有る
為、さらに一定期間後に上記処理を行う。When assigning LUNs, LUs are assigned to each controller.
If N is assigned, that is, if it is not set for each port, it is impossible to determine whether the LUN in the controller is shared between the ports (hosts) or independent. Therefore, the type of the access LUN from each port for a certain period is counted, and it is determined whether it is a share after a certain period or independent. If independent, switch in LUN units is selected; if shared, request method is selected. still,
Since the access pattern may change with time, the above processing is performed after a certain period.
【0031】一括切替えは、シングルポートでのデュア
ル構成で、交代パス構成のシングルホスト構成時等に有
効である。又、図1の様な複数ホスト構成で、LUNを
シェアしてアクセスしている時にも、ホスト間で切り替
えたことを通知する。任意ホストの切替え処理に伴い、
他ホストも一括して交代パスに切り替える様な制御が可
能なホスト環境においては有効である。The batch switching is a dual configuration with a single port, and is effective when a single host configuration with an alternate path configuration is used. Also, in the multiple-host configuration as shown in FIG. 1, even when accessing by sharing the LUN, it is notified that the host has been switched. With the switching process of the arbitrary host,
This is effective in a host environment in which other hosts can be controlled to switch to an alternate path at once.
【0032】又、本発明の記憶サブシステムでは、コン
トローラの各ポート毎に処理を担当するLUNを割り当
てるとき、1つのコントローラ内の複数のポートであれ
ば同一のLUNの処理を担当するように割り当てること
ができる。この場合も、コントローラ内の複数のポート
に対するLUNの割り当て方法に基づいて、コントロー
ラがホストコンピュータから処理を担当していないLU
Nに対する処理要求を受け取ったときに、全LUNの切
替え方式か、LUN毎の切替え方式か、依頼方式かを自
動的に選択するようにできる。In the storage subsystem of the present invention, when assigning a LUN for processing to each port of a controller, a plurality of ports in one controller are assigned to handle processing of the same LUN. be able to. Also in this case, based on the method of allocating LUNs to a plurality of ports in the controller, the LUs that the controller is not responsible for processing from the host computer
When a processing request for N is received, a switching method for all LUNs, a switching method for each LUN, or a request method can be automatically selected.
【0033】次に、一括切り替え処理の処理手順につい
て説明する。コントローラBが、非担当LUNを受領し
たとする。この時、コントローラ間通信情報1410に
て、その旨をコントローラAに伝える。コントローラA
は当該情報により、一括切替えを認識し、現在行ってい
る処理を中断する。中断したら、その旨をコントローラ
Bに、コントローラ間通信情報1410を使用し伝え
る。コントローラBは、コントローラAからの報告を受
けると、コントローラ毎のLUN情報1420の変更を
行い、コントローラA配下の全LUNの担当をコントロ
ーラBに設定する。又、データ管理情報1430のコン
トローラA用の管理情報も、全てコントローラB側で管
理することになる。この様に、一括切替えの場合は、管
理情報の更新のみで切り替えることが可能であり、高速
な切替え手段を提供することができる。Next, the processing procedure of the batch switching processing will be described. It is assumed that the controller B receives the non-assigned LUN. At this time, the fact is notified to the controller A in the inter-controller communication information 1410. Controller A
Recognizes the batch switching based on the information, and interrupts the current process. If interrupted, the fact is notified to the controller B using the inter-controller communication information 1410. Upon receiving the report from the controller A, the controller B changes the LUN information 1420 for each controller, and sets the controller B in charge of all LUNs under the controller A. Further, all the management information for the controller A in the data management information 1430 is also managed on the controller B side. As described above, in the case of batch switching, switching can be performed only by updating management information, and high-speed switching means can be provided.
【0034】次にLUN毎の切替え方法について説明す
る。コントローラB側が、非担当LUNを受領し、コン
トローラAから切り替える場合を説明する。コントロー
ラBが非担当LUNを受領したとする。この時、コント
ローラ間通信情報1410にて、その旨をコントローラ
Aに伝える。コントローラAは、当該情報により、LU
N単位切替えを認識し、現在行っている処理を中断す
る。中断することにより、コントローラAが、現在キャ
ッシュメモリをアクセスしていないことを保証する。中
断したら、その旨をコントローラBに、コントローラ間
通信情報1410を使用し伝える。コントローラBは、
コントローラAからの報告を受けるとコントローラA
用、B用のデータ管理情報1430を一旦コントローラ
Bが管理する。コントローラBは、切り替え対象LUN
の使用中セグメント数1432と、当該セグメントの管
理情報1434を参照し、使用中の数だけ、コントロー
ラB側のデータ管理情報内の各LUN毎の未使用セグメ
ント数と、当該セグメント管理情報より、コントローラ
Aの使用中であるセグメント内データをコントローラB
側の空きセグメントへコピーする。本コピー処理自体
は、コントローラB内の転送制御部2100により実現
することができる。Next, a switching method for each LUN will be described. The case where the controller B receives the non-assigned LUN and switches from the controller A will be described. It is assumed that the controller B has received the non-assigned LUN. At this time, the fact is notified to the controller A in the inter-controller communication information 1410. Based on the information, the controller A
Recognizing the switching of N units, the current processing is interrupted. The suspension guarantees that the controller A is not currently accessing the cache memory. If interrupted, the fact is notified to the controller B using the inter-controller communication information 1410. Controller B is
Controller A receives a report from Controller A
The controller B temporarily manages the data management information 1430 for the application and B. Controller B is the switching target LUN
The number of in-use segments 1432 and the management information 1434 of the segment are referred to, and the number of unused segments for each LUN in the data management information on the controller B side, and the controller The data in the segment in use of A is transferred to the controller B
To the free segment on the side. This copy processing itself can be realized by the transfer control unit 2100 in the controller B.
【0035】データ自体のコピーと共に、コントローラ
A側の切替え対象LUNのLUN毎のデータ管理情報を
削除し、元々、当該LUNに使用可能セグメント数とし
て割り当てられていたセグメントを他のLUNに分配す
る。分配されたセグメントは、未使用セグメント数とし
て登録される。又、反対にコントローラB側のデータ管
理情報は、切り替え対象LUN情報を追加する。当該L
UNに、コピーした数分使用中セグメントとして登録
し、使用可能セグメント数は、他LUN内の使用可能セ
グメント数から一部ずつ移行させ、空きセグメントとし
て登録する。他LUNの使用可能セグメント数も一部ず
つ減少させ、また、コピーする為に割り当てた数の空き
セグメントも空きセグメント数から減少させる。本一連
の処理が完了したところで、コントローラBは、コント
ローラAに処理の再開をコントローラ間通信情報141
0を使用し伝える。Along with copying the data itself, the data management information for each LUN of the LUN to be switched on the controller A side is deleted, and the segments originally allocated as the number of usable segments to the LUN are distributed to other LUNs. The distributed segments are registered as the number of unused segments. Conversely, in the data management information on the controller B side, LUN information to be switched is added. The L
The number of used segments is registered in the UN as the number of segments being used, and the number of available segments is partially shifted from the number of available segments in other LUNs and registered as empty segments. The number of available segments of other LUNs is also reduced partly, and the number of free segments allocated for copying is also reduced from the number of free segments. When this series of processing is completed, the controller B instructs the controller A to resume the processing and communicates with the inter-controller communication information 141.
Use 0 to convey.
【0036】また、本制御を実現するために、キャッシ
ュ内で使用中セグメントの数、つまり、WRキャッシュ
機能により、ディスク装置4000に未反映のWRデー
タの数を管理し、一定量以上に達した場合は、ディスク
装置への書き込み処理を最優先に行うことにより、一定
量以上に増加しないよう管理する。本制御は、ディスク
アレイ制御部1200、2200がLUN毎の使用中セ
グメント数を一定周期で参照し、一定量以上に達したと
判断すると、前記書き込み処理を優先的に処理すること
により実現される。本制御により、常に一定量以上の空
きセグメントが、キャッシュ内に存在することにより、
LUN単位のコピー方式での切り替えが可能となる。本
切替え処理は、キャッシュ間でWRデータのコピー処理
が必要となるのでキャッシュ搭載容量、また、その時の
WRデータ量により、処理時間が増加する。しかし乍
ら、近年、データバスの能力は非常に高くなっており、
キャッシュ間のコピー処理も数100MB/Sの能力を
持つものが一般的であるため、本切り替え処理時間も数
秒程度で完了するため、ホストとの整合性上問題はな
い。Further, in order to realize this control, the number of segments in use in the cache, that is, the number of WR data not reflected in the disk unit 4000 is managed by the WR cache function, and reaches a certain amount or more. In such a case, by giving the highest priority to the writing process to the disk device, management is performed so as not to increase beyond a certain amount. This control is realized by the disk array control units 1200 and 2200 referencing the number of in-use segments for each LUN at a fixed cycle and, when determining that the number has reached a certain amount or more, giving priority to the write processing. . With this control, there is always a certain amount or more of free segments in the cache,
Switching by the copy method in LUN units becomes possible. This switching process requires a process of copying WR data between caches, so that the processing time increases depending on the cache mounting capacity and the amount of WR data at that time. However, in recent years, the capacity of the data bus has become very high,
Since the copying process between caches is generally one having a capacity of several hundred MB / S, the switching process time is completed in about several seconds, so there is no problem in consistency with the host.
【0037】[0037]
【発明の効果】本発明によれば、コントローラ当たりホ
ストとのバスプロトコル制御を行う複数のポートを持
ち、コントローラ及びキャッシュを2重化した記憶サブ
システムにおいて、複数ホスト間との接続において、コ
ントローラ毎に独立に論理ボリュームの割当てを行うこ
とにより、いかなる接続形態においても、通常時、複数
コントローラ制御による排他制御等が必要なくなり、シ
ングル構成と比べ、高いパフォーマンスが提供できる。
又、ホスト側障害、接続バス障害、コントローラ側ポー
ト障害時、ホストが、交代パスを同一コントローラ内の
別パスに接続している場合には、切替え処理が必要な
く、性能劣化のない交代処理が可能となる。又、別コン
トローラに交代パスを接続している場合には、コントロ
ーラ側障害時にも冗長度があるため、全ての障害におい
て、切り替え処理が可能となる。又、ホストからのLU
Nへのアクセス形態により、切替え時間の少ない最適な
切替え手段を提供することができる。According to the present invention, in a storage subsystem having a plurality of ports for performing bus protocol control with a host per controller and having a dual controller and cache, in a connection between a plurality of hosts, a controller is provided for each controller. By independently assigning logical volumes to each other, in any connection form, exclusive control or the like by control of a plurality of controllers is not required, and higher performance can be provided as compared with a single configuration.
Also, in the event of a host-side failure, connection bus failure, or controller-side port failure, if the host connects an alternate path to another path in the same controller, switching processing is not required, and alternate processing without performance degradation is performed. It becomes possible. Further, when an alternate path is connected to another controller, there is redundancy even in the event of a controller failure, so that switching processing is possible in all failures. LU from host
Depending on the form of access to N, it is possible to provide an optimal switching means with a short switching time.
【図1】本発明の実施例である制御装置の構成図であるFIG. 1 is a configuration diagram of a control device according to an embodiment of the present invention.
【図2】本発明の実施例であるコントローラのキャッシ
ュ内のデータの構成図である。FIG. 2 is a configuration diagram of data in a cache of a controller according to an embodiment of the present invention.
【図3】本発明の実施例である複数ホスト間との論理ボ
リュームの割当て方の一例であり、ホスト毎、ポートご
とに独立した論理ボリュームを割り当てている例であ
る。FIG. 3 is an example of a method of allocating a logical volume among a plurality of hosts according to an embodiment of the present invention, in which an independent logical volume is allocated to each host and each port.
【図4】本発明の実施例である複数ホスト間との論理ボ
リュームの割当て方の一例であり、ホスト間で論理ボリ
ュームを共有している一例である。FIG. 4 is an example of a method of allocating a logical volume among a plurality of hosts according to an embodiment of the present invention, and is an example of sharing a logical volume between hosts.
【図5】本発明の実施例によるキャッシュメモリ内の管
理情報の構成図である。FIG. 5 is a configuration diagram of management information in a cache memory according to an embodiment of the present invention.
10、20、30、40:ホストコンピュータ 11、21、31、41:ポートA 12、22、32、42:ポートB 100A〜400A:SCSIバスA 100B〜400B:SCSIバスB 1010〜1040、2010〜2040:ポートA〜
D 1100、2100:転送制御部 1200、2200:ディスクアレイ制御部 1300、2300:キャッシュメモリ 1000、2000:コントローラ 3000:操作パネル 4000:ディスク装置群 5000:ディスクアレイ装置10, 20, 30, 40: Host computer 11, 21, 31, 41: Port A 12, 22, 32, 42: Port B 100A to 400A: SCSI bus A 100B to 400B: SCSI bus B 1010 to 1040, 201010 2040: Port A ~
D 1100, 2100: Transfer control unit 1200, 2200: Disk array control unit 1300, 2300: Cache memory 1000, 2000: Controller 3000: Operation panel 4000: Disk device group 5000: Disk array device
───────────────────────────────────────────────────── フロントページの続き (72)発明者 小林 正明 神奈川県小田原市国府津2880番地 株式会 社日立製作所ストレージシステム事業部内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Masaaki Kobayashi 2880 Kozu, Odawara-shi, Kanagawa Prefecture Storage Systems Division, Hitachi, Ltd.
Claims (13)
れる記憶装置群と、 ホストコンピュータに接続され、前記ホストコンピュー
タと記憶装置との間を転送されるデータを一時的に保存
するキャッシュメモリを有するコントローラを複数有
し、前記複数のコントローラが前記記憶装置群を制御す
る記憶サブシステムにおいて、 前記コントローラは、処理を担当する前記論理ボリュー
ムを割り当てられ、前記キャッシュメモリに複数の前記
コントローラのための記憶領域を有することを特徴とす
る記憶サブシステム。1. A storage device group having a storage area divided into a plurality of logical volumes, and a cache memory connected to a host computer and temporarily storing data transferred between the host computer and the storage device. A storage subsystem having a plurality of controllers having the plurality of controllers, wherein the plurality of controllers control the storage device group, wherein the controller is assigned the logical volume in charge of processing, and the cache memory A storage subsystem having a storage area.
て、 前記コントローラは、複数の前記コントローラのための
前記キャッシュメモリの記憶領域を、該コントローラが
処理を担当する論理ボリュームのための領域に分割する
ことを特徴とする記憶サブシステム。2. The storage subsystem according to claim 1, wherein said controller divides a storage area of said cache memory for a plurality of said controllers into an area for a logical volume for which said controller is in charge of processing. A storage subsystem characterized by:
て、 前記コントローラが前記ホストコンピュータから処理担
当外の論理ボリュームに対する処理要求を受領した時
は、該コントローラは、該論理ボリュームの処理を担当
していたコントローラの全ての論理ボリュームの処理を
担当すること特徴とする記憶サブシステム。3. The storage subsystem according to claim 1, wherein when the controller receives a processing request from the host computer for a logical volume that is not in charge of processing, the controller is in charge of processing of the logical volume. A storage subsystem, which is in charge of processing of all logical volumes of the controller.
ムにおいて、 前記コントローラが前記ホストコンピュータから処理担
当外の論理ボリュームに対する処理要求を受領した時
は、該コントローラは、該論理ボリュームの処理を担当
すること特徴とする記憶サブシステム。4. The storage subsystem according to claim 1, wherein when the controller receives a processing request from the host computer for a logical volume not in charge of processing, the controller is in charge of processing of the logical volume. A storage subsystem characterized by:
て、 コントローラは、ホストコンピュータから処理担当外の
論理ボリュームに対する処理要求を受領した時は、該論
理ボリュームの処理担当コントローラに処理要求内容を
通信し、通信を受領したコントローラが該論理ボリュー
ムに対する処理を行い、処理結果を要求元コントローラ
に通信することを特徴とする記憶サブシステム。5. The storage subsystem according to claim 1, wherein when the controller receives a processing request for a logical volume not in charge of processing from the host computer, the controller communicates the contents of the processing request to the controller in charge of processing of the logical volume. A storage subsystem, wherein the controller that has received the communication performs processing on the logical volume, and communicates the processing result to the requesting controller.
て、 コントローラがホストコンピュータから処理担当外の論
理ボリュームに対する処理要求を受領した時の処理方法
を選択するための入力手段を有することを特徴とする記
憶サブシステム。6. The storage subsystem according to claim 1, further comprising an input means for selecting a processing method when the controller receives a processing request for a logical volume not in charge of processing from the host computer. Storage subsystem.
て、 コントローラ当たりのキャッシュメモリ領域の容量及
び、前記論理ボリュームのための領域の容量を指定する
ための入力手段を有することを特徴とした制御装置を備
えた記憶サブシステム。7. The control system according to claim 2, further comprising input means for designating a capacity of a cache memory area per controller and a capacity of an area for said logical volume. Storage subsystem with
て、 複数の前記コントローラのキャッシュメモリのそれぞれ
に前記複数の論理ボリュームのデータを格納することを
特徴とする記憶サブシステム。8. The storage subsystem according to claim 1, wherein data of said plurality of logical volumes is stored in each of cache memories of said plurality of controllers.
て、 複数の前記コントローラのキャッシュメモリのそれぞれ
に前記複数の論理ボリュームのデータを格納するか、前
記コントローラのそれぞれが処理を担当する論理ボリュ
ームのデータのみを格納するかを選択する入力手段を有
することを特徴とする記憶サブシステム。9. The storage subsystem according to claim 1, wherein the data of the plurality of logical volumes is stored in each of the cache memories of the plurality of controllers, or the data of the logical volume for which each of the controllers is in charge of processing. A storage subsystem having input means for selecting whether to store only the storage subsystem.
て、 前記コントローラに障害が発生したときには、該障害コ
ントローラで担当していた論理ボリュームの処理を正常
に動作しているコントローラの担当に切り替えることを
特徴とする記憶サブシステム。10. The storage subsystem according to claim 1, wherein when a failure occurs in said controller, switching of processing of a logical volume assigned to said failed controller to assignment of a normally operating controller is performed. Characterized storage subsystem.
て、 コントローラがホストコンピュータから処理を担当して
いない論理ボリュームに対する処理要求を受領したとき
は、キャッシュメモリ上の管理情報のみの変更で担当の
切替えを行うことを特徴とする制御装置を備えた記憶サ
ブシステム。11. The storage subsystem according to claim 3, wherein, when the controller receives a processing request from the host computer for a logical volume that is not in charge of processing, the controller switches the charge by changing only the management information in the cache memory. A storage subsystem comprising a control device for performing the following.
て、 コントローラがホストコンピュータから処理を担当して
いない論理ボリュームに対する処理要求を受領したとき
は、キャッシュメモリ上の切替え対象論理ボリュームの
うち前記記憶装置群の記憶領域に格納されていないデー
タを切替え先のコントローラ内のキャッシュメモリ上に
コピーして該論理ボリュームの処理を担当するコントロ
ーラを切替えることを特徴とする記憶サブシステム。12. The storage subsystem according to claim 4, wherein when the controller receives a processing request from the host computer for the logical volume not in charge of the processing, the storage device among the logical volumes to be switched on the cache memory. A storage subsystem for copying data not stored in a storage area of a group to a cache memory in a controller at a switching destination and switching a controller in charge of processing of the logical volume.
て、 前記コントローラは、前記キャッシュメモリの論理ボリ
ュームのための記憶領域を、該論理ボリュームの負荷に
応じて変更することを特徴とした記憶サブシステム。13. The storage subsystem according to claim 2, wherein said controller changes a storage area for a logical volume of said cache memory in accordance with a load of said logical volume. .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11812798A JP4272275B2 (en) | 1998-04-28 | 1998-04-28 | Storage subsystem |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11812798A JP4272275B2 (en) | 1998-04-28 | 1998-04-28 | Storage subsystem |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JPH11312058A true JPH11312058A (en) | 1999-11-09 |
| JPH11312058A5 JPH11312058A5 (en) | 2005-09-29 |
| JP4272275B2 JP4272275B2 (en) | 2009-06-03 |
Family
ID=14728717
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP11812798A Expired - Fee Related JP4272275B2 (en) | 1998-04-28 | 1998-04-28 | Storage subsystem |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4272275B2 (en) |
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001167040A (en) * | 1999-12-14 | 2001-06-22 | Hitachi Ltd | Storage subsystem and storage controller |
| JP2006227688A (en) * | 2005-02-15 | 2006-08-31 | Hitachi Ltd | Storage system |
| JP2007179200A (en) * | 2005-12-27 | 2007-07-12 | Fujitsu Ltd | Computer system and storage virtualization apparatus |
| JP2007280089A (en) * | 2006-04-07 | 2007-10-25 | Hitachi Ltd | Capacity expansion volume migration method |
| US7318119B2 (en) | 2004-10-29 | 2008-01-08 | International Business Machines Corporation | System and method for fault tolerant controller for network RAID |
| US7409508B2 (en) | 2001-11-28 | 2008-08-05 | Hitachi, Ltd. | Disk array system capable of taking over volumes between controllers |
| US7437424B2 (en) | 2001-03-28 | 2008-10-14 | Hitachi, Ltd. | Storage system |
| JP2008299434A (en) * | 2007-05-29 | 2008-12-11 | Hitachi Ltd | Storage control device and control method thereof |
| US7603485B2 (en) | 2006-11-28 | 2009-10-13 | Hitachi, Ltd. | Storage subsystem and remote copy system using said subsystem |
| US7849260B2 (en) | 2006-11-28 | 2010-12-07 | Hitachi, Ltd. | Storage controller and control method thereof |
| JP2012533100A (en) * | 2009-10-27 | 2012-12-20 | 株式会社日立製作所 | Storage control device and storage control method for dynamically allocating part of pool area as data storage area |
| US8364890B2 (en) | 2007-02-07 | 2013-01-29 | Fujitsu Limited | RAID control apparatus and control method therefor |
| JP2014186599A (en) * | 2013-03-25 | 2014-10-02 | Nec Corp | Storage device |
| JP2014191358A (en) * | 2013-03-26 | 2014-10-06 | Nec Corp | Storage device, method and program |
| JP2014230174A (en) * | 2013-05-23 | 2014-12-08 | 富士通株式会社 | Integrated circuit, control apparatus, control method and control program |
| WO2015008337A1 (en) * | 2013-07-16 | 2015-01-22 | 富士通株式会社 | Information processing device, port control program, and port control method |
| WO2015056301A1 (en) * | 2013-10-15 | 2015-04-23 | 株式会社日立製作所 | Storage system and cache control device |
| US9634822B2 (en) | 2014-02-28 | 2017-04-25 | Fujitsu Limited | Information processing device and method for determining path range |
-
1998
- 1998-04-28 JP JP11812798A patent/JP4272275B2/en not_active Expired - Fee Related
Cited By (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8015325B2 (en) | 1999-12-14 | 2011-09-06 | Hitachi, Ltd. | Storage subsystem and storage controller having memory which stores management information indicating corresponding relations between processors and identifies of logical units |
| US7461245B2 (en) | 1999-12-14 | 2008-12-02 | Hitachi, Ltd. | Storage subsystem and storage controller |
| JP2001167040A (en) * | 1999-12-14 | 2001-06-22 | Hitachi Ltd | Storage subsystem and storage controller |
| US7437424B2 (en) | 2001-03-28 | 2008-10-14 | Hitachi, Ltd. | Storage system |
| US7409508B2 (en) | 2001-11-28 | 2008-08-05 | Hitachi, Ltd. | Disk array system capable of taking over volumes between controllers |
| US7318119B2 (en) | 2004-10-29 | 2008-01-08 | International Business Machines Corporation | System and method for fault tolerant controller for network RAID |
| JP2006227688A (en) * | 2005-02-15 | 2006-08-31 | Hitachi Ltd | Storage system |
| US8832380B2 (en) | 2005-02-15 | 2014-09-09 | Hitachi, Ltd. | Storage system having cache partition size set based on drive type |
| US8612716B2 (en) | 2005-02-15 | 2013-12-17 | Hitachi, Ltd. | Storage system having partition size set in accordance with drive type |
| JP2007179200A (en) * | 2005-12-27 | 2007-07-12 | Fujitsu Ltd | Computer system and storage virtualization apparatus |
| JP2007280089A (en) * | 2006-04-07 | 2007-10-25 | Hitachi Ltd | Capacity expansion volume migration method |
| US8108562B2 (en) | 2006-11-28 | 2012-01-31 | Hitachi, Ltd. | Storage subsystem and remote copy system using said subsystem |
| US7849260B2 (en) | 2006-11-28 | 2010-12-07 | Hitachi, Ltd. | Storage controller and control method thereof |
| US7603485B2 (en) | 2006-11-28 | 2009-10-13 | Hitachi, Ltd. | Storage subsystem and remote copy system using said subsystem |
| US8364890B2 (en) | 2007-02-07 | 2013-01-29 | Fujitsu Limited | RAID control apparatus and control method therefor |
| US7865676B2 (en) | 2007-05-29 | 2011-01-04 | Hitachi, Ltd. | Load equalizing storage controller and control method for the same |
| EP2015168A2 (en) | 2007-05-29 | 2009-01-14 | Hitachi, Ltd. | Storage controller and control method for the same |
| US8706986B2 (en) | 2007-05-29 | 2014-04-22 | Hitachi, Ltd. | Load equalizing storage controller and control method for the same |
| JP2008299434A (en) * | 2007-05-29 | 2008-12-11 | Hitachi Ltd | Storage control device and control method thereof |
| JP2012533100A (en) * | 2009-10-27 | 2012-12-20 | 株式会社日立製作所 | Storage control device and storage control method for dynamically allocating part of pool area as data storage area |
| JP2014186599A (en) * | 2013-03-25 | 2014-10-02 | Nec Corp | Storage device |
| JP2014191358A (en) * | 2013-03-26 | 2014-10-06 | Nec Corp | Storage device, method and program |
| JP2014230174A (en) * | 2013-05-23 | 2014-12-08 | 富士通株式会社 | Integrated circuit, control apparatus, control method and control program |
| WO2015008337A1 (en) * | 2013-07-16 | 2015-01-22 | 富士通株式会社 | Information processing device, port control program, and port control method |
| JPWO2015008337A1 (en) * | 2013-07-16 | 2017-03-02 | 富士通株式会社 | Information processing apparatus, port control program, and port control method |
| US9921924B2 (en) | 2013-07-16 | 2018-03-20 | Fujitsu Limited | Information processing device, port control method, and computer-readable recording medium |
| WO2015056301A1 (en) * | 2013-10-15 | 2015-04-23 | 株式会社日立製作所 | Storage system and cache control device |
| JPWO2015056301A1 (en) * | 2013-10-15 | 2017-03-09 | 株式会社日立製作所 | Storage system and cache control method |
| US9798661B2 (en) | 2013-10-15 | 2017-10-24 | Hitachi, Ltd. | Storage system and cache control method |
| US9634822B2 (en) | 2014-02-28 | 2017-04-25 | Fujitsu Limited | Information processing device and method for determining path range |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4272275B2 (en) | 2009-06-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4272275B2 (en) | Storage subsystem | |
| US6009481A (en) | Mass storage system using internal system-level mirroring | |
| JP4109416B2 (en) | Dynamic mirror service policy | |
| US7904646B2 (en) | Storage subsystem that connects fibre channel and supports online backup | |
| US5640530A (en) | Use of configuration registers to control access to multiple caches and nonvolatile stores | |
| US7337351B2 (en) | Disk mirror architecture for database appliance with locally balanced regeneration | |
| US7949828B2 (en) | Data storage control on storage devices | |
| US6915382B2 (en) | Apparatus and method for reallocating logical to physical disk devices using a storage controller, with access frequency and sequential access ratio calculations and display | |
| JP3753766B2 (en) | Method for securing storage space of hierarchical data storage system | |
| EP0689125B1 (en) | Method of utilizing storage disks of differing capacity in a single storage volume in a hierarchic disk array | |
| US6272571B1 (en) | System for improving the performance of a disk storage device by reconfiguring a logical volume of data in response to the type of operations being performed | |
| US8412892B2 (en) | Storage system and ownership control method for storage system | |
| EP1026575A2 (en) | Disk array system and method of changing its configuration | |
| EP1818797A2 (en) | Storage system and storage control method | |
| JPH09146842A (en) | Storage subsystem | |
| US20050034013A1 (en) | Method and apparatus for the takeover of primary volume in multiple volume mirroring | |
| US20030185064A1 (en) | Clustering storage system | |
| US8489918B2 (en) | Storage system and ownership control method for storage system | |
| JP2010049502A (en) | Storage subsystem and storage system having the same | |
| US5958078A (en) | Storage unit and storage unit subsystem | |
| JPH08221326A (en) | Storage controller and control method thereof | |
| JP2008112399A (en) | Storage virtualization switch and computer system | |
| US11789613B2 (en) | Storage system and data processing method | |
| JP2007115019A (en) | Computer system for distributing storage access load and control method thereof | |
| JP2004164047A (en) | Storage system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050418 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050418 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050418 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071212 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071214 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080206 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081009 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081204 |
|
| TRDD | Decision of grant or rejection written | ||
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090220 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090224 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090227 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130306 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130306 Year of fee payment: 4 |
|
| LAPS | Cancellation because of no payment of annual fees |