JP2000132914A - Data processor and data recorder - Google Patents
Data processor and data recorderInfo
- Publication number
- JP2000132914A JP2000132914A JP10308900A JP30890098A JP2000132914A JP 2000132914 A JP2000132914 A JP 2000132914A JP 10308900 A JP10308900 A JP 10308900A JP 30890098 A JP30890098 A JP 30890098A JP 2000132914 A JP2000132914 A JP 2000132914A
- Authority
- JP
- Japan
- Prior art keywords
- data
- processing unit
- unit
- video
- recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、例えば記録媒体
に圧縮された画像データを記録し、記録媒体から画像デ
ータを再生するのに適用されるデータ処理装置およびデ
ータ記録装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing apparatus and a data recording apparatus which are used for, for example, recording compressed image data on a recording medium and reproducing the image data from the recording medium.
【0002】[0002]
【従来の技術】ディジタルVCR(VIdeo Cassette Reco
rder) に代表されるように、ディジタル画像信号を記録
媒体に記録し、また、記録媒体から再生するようなデー
タ記録再生装置が知られている。ディジタル画像記録機
器における記録処理部は、入力処理部とメイン処理部と
出力処理部とに大きく分けることができる。入力処理部
は、ビデオおよびオーディオのディジタルデータを所定
長のパケットに格納する。メイン処理部は、パケット単
位にデータの内容を示す情報、エラー訂正符号の符号化
を行う。メイン処理部は、比較的大容量のメモリをアク
セスする動作を伴う。出力処理部は、パケット化された
データ、エラー訂正符号のパリティ等に対して、同期パ
ターン、IDを付加してシンクブロックを構成し、シン
クブロックをデータの種別に応じてグループ化し、その
単位でシリアルデータに変換する。出力処理部に対し
て、記録媒体としてのテープに記録するための回転ヘッ
ドが接続される。2. Description of the Related Art Digital VCR (VIdeo Cassette Reco)
A data recording / reproducing apparatus which records a digital image signal on a recording medium and reproduces the digital image signal from the recording medium, as typified by rder), is known. A recording processing unit in a digital image recording device can be roughly divided into an input processing unit, a main processing unit, and an output processing unit. The input processing unit stores video and audio digital data in packets of a predetermined length. The main processing unit encodes information indicating data contents and an error correction code in packet units. The main processing unit involves an operation of accessing a relatively large-capacity memory. The output processing unit configures a sync block by adding a synchronization pattern and an ID to the packetized data, the parity of the error correction code, and the like, groups the sync blocks according to the type of data, and Convert to serial data. A rotary head for recording on a tape as a recording medium is connected to the output processing unit.
【0003】図14は、ディジタルVCRの記録側の構
成の一例を示す。ビデオ入力処理部には、パッキングお
よびシャフリング部107が含まれる。入力ビデオデー
タは、例えばMPEG2(Moving Picture Experts Grou
p Phase 2)の符号化で発生したエレメンタリストリーム
である。従って、ビデオデータの文言を使用するが、ビ
デオデータは、ベースバンド信号ではなく、符号化ビデ
オデータ、より具体的には可変長符号化されたDCT係
数データを意味する。また、エレメンタリストリーム
は、1GOP(Group Of Picture)が1枚のフレーム内符
号化で生成されたI(Intra-coded picture) ピクチャか
らなるものである。Iピクチャは、符号化されるときそ
の画像1枚の中だけで閉じた情報を使用するものであ
る。従って、復号時には、Iピクチャ自身の情報のみで
復号できる。エレメンタリストリームは、マクロブロッ
ク毎に発生データ量が相違する可変長データである。パ
ッキングおよびシャフリング部107は、可変長の入力
データを所定長の長さに区切るパッキング処理と、シャ
フリング処理とを行う。シャフリング処理は、1フレー
ム内のマクロブロックの記録位置を、テープ上で分散さ
せるものである。FIG. 14 shows an example of the configuration on the recording side of a digital VCR. The video input processing unit includes a packing and shuffling unit 107. The input video data is, for example, MPEG2 (Moving Picture Experts Group
p This is an elementary stream generated in the encoding of Phase 2). Therefore, although the wording of the video data is used, the video data is not a baseband signal, but means coded video data, more specifically, variable-length coded DCT coefficient data. The elementary stream is composed of an I (Intra-coded picture) picture generated by encoding one GOP (Group Of Picture) in one frame. An I picture uses information that is closed only in one image when it is encoded. Therefore, at the time of decoding, decoding can be performed using only the information of the I picture itself. The elementary stream is variable-length data in which the amount of generated data differs for each macroblock. The packing and shuffling unit 107 performs a packing process for dividing variable-length input data into a predetermined length and a shuffling process. The shuffling process disperses the recording positions of the macroblocks in one frame on a tape.
【0004】ビデオデータに対するシャフリングは、こ
のシャフリング処理の他に複数のECC(Error Correct
ig Code)ブロックにわたってシンクブロック単位で順番
を入れ替えるシャフリングもなされる。後者のシャフリ
ングは、一つのECCブロック内にエラーが集中するの
を防止することによって、エラー訂正能力の実質的な向
上を図るものであり、インターリーブと称されることも
ある。[0004] In addition to the shuffling process, shuffling of video data includes a plurality of ECCs (Error Correction).
ig Code) blocks are shuffled to change the order in sync block units. The latter shuffling is intended to substantially improve the error correction capability by preventing errors from concentrating in one ECC block, and is sometimes referred to as interleaving.
【0005】入力オーディオデータがオーディオ入力処
理部の遅延部113に供給され、遅延部113の出力が
AUX付加部114に供給される。遅延部113は、ビ
デオデータとの時間合わせのために設けられている。A
UXは、補助的データであり、オーディオデータのサン
プリング周波数等のオーディオデータに関連する情報を
有するデータである。オーディオAUXは、オーディオ
データと同等に扱われる。[0005] Input audio data is supplied to a delay section 113 of an audio input processing section, and an output of the delay section 113 is supplied to an AUX adding section 114. The delay unit 113 is provided for time alignment with video data. A
UX is auxiliary data and is data having information related to audio data such as the sampling frequency of audio data. Audio AUX is treated the same as audio data.
【0006】入力されるビデオデータや、オーディオデ
ータには、その性質から伝送上必要となる転送レートが
ある。例えばMPEGで符号化したビデオデータをリア
ルタイムで伝送する時には、27MHzのクロック周波数
が転送レートとなる。上述した入力処理部は、転送レー
トと同じ動作クロックで動作させている。すなわち、ビ
デオ入力処理部が入力ビデオデータと同期するクロック
ckvで動作し、オーディオ入力処理部が入力オーディ
オデータと同期するクロックckaで動作する。[0006] Input video data and audio data have transfer rates required for transmission due to their properties. For example, when transmitting video data encoded by MPEG in real time, a clock frequency of 27 MHz is the transfer rate. The above-described input processing unit operates at the same operation clock as the transfer rate. That is, the video input processing unit operates with the clock ckv synchronized with the input video data, and the audio input processing unit operates with the clock cka synchronized with the input audio data.
【0007】メイン処理部は、ビデオデータに対して外
符号の符号化を行う外符号エンコーダ109と、外符号
エンコーダ109の出力が供給されるシャフリング部1
10と、オーディオデータに対して外符号の符号化を行
う外符号エンコーダ116と、外符号エンコーダ116
の出力が供給されるシャフリング部117と、メインメ
モリ(SDRAM(Synchronous Dynamic Random Access
Memory))160とによって構成される。メイン処理部
は、メインメモリ160に対するアクセス動作を伴う。
メイン処理部は、ビデオ入力処理部の動作クロックck
vまたはそれに関連するクロック(例えば2倍の周波数
のクロック)で動作される。The main processing unit includes an outer code encoder 109 for encoding an outer code for video data, and a shuffling unit 1 to which an output of the outer code encoder 109 is supplied.
10, an outer code encoder 116 for encoding an outer code for audio data, and an outer code encoder 116
And a main memory (SDRAM (Synchronous Dynamic Random Access).
Memory)) 160. The main processing unit involves an access operation to the main memory 160.
The main processing unit operates the clock ck of the video input processing unit.
v or a clock related thereto (for example, a clock having a double frequency).
【0008】ビデオデータおよびオーディオデータに対
するエラー訂正符号としては、積符号が使用される。積
符号は、ビデオデータまたはオーディオデータの2次元
配列の縦方向に外符号の符号化を行い、その横方向に内
符号の符号化を行い、データシンボルを2重に符号化す
るものである。ビデオデータは、シャフリング部110
によってシンクブロック単位の並び替え処理を受け、特
定のECCブロックにエラーが集中することが防止され
る。オーディオデータは、シャフリング117において
シャフリング処理を受ける。オーディオシャフリングと
して、シンクブロック単位のシャフリングと、チャンネ
ル単位のシャフリングとがなされる。SDRAM160
から出力処理部に対して、外符号化がなされ、シャフリ
ングされたビデオデータおよびオーディオデータが出力
される。A product code is used as an error correction code for video data and audio data. The product code encodes an outer code in a vertical direction of a two-dimensional array of video data or audio data, encodes an inner code in a horizontal direction thereof, and encodes data symbols doubly. The video data is stored in the shuffling unit 110
Accordingly, the rearrangement processing is performed in units of sync blocks, and errors are prevented from being concentrated on a specific ECC block. The audio data undergoes shuffling processing in shuffling 117. As audio shuffling, shuffling in sync block units and shuffling in channel units are performed. SDRAM 160
To the output processing unit, the video data and the audio data subjected to the outer coding and shuffled are output.
【0009】出力処理部は、メイン処理部の出力データ
を受け取る部分にバッファとしてのFIFO(First-In
First-Out)161を有する。FIFO161に対してI
D付加部118が接続され、ID付加部118にて、シ
ンクブロック番号を示す情報等を有するIDが付加され
る。ID付加部118の出力が内符号エンコーダ119
に供給され、内符号の符号化がなされる。さらに、内符
号エンコーダ119の出力が同期付加部120に供給さ
れ、シンクブロック毎の同期信号が付加される。The output processing unit includes a FIFO (First-In) as a buffer in a portion for receiving output data of the main processing unit.
First-Out) 161. I to FIFO 161
The D adding unit 118 is connected, and the ID adding unit 118 adds an ID having information indicating a sync block number or the like. The output of the ID addition unit 118 is the inner code encoder 119
, And the inner code is encoded. Further, the output of the inner code encoder 119 is supplied to the synchronization adding section 120, and a synchronization signal for each sync block is added.
【0010】出力処理部からの出力データが記録アンプ
121を介して記録用の回転ヘッドに供給され、磁気テ
ープ上に記録される。出力処理部は、回転ヘッド等の記
録する回路におけるデータレート(RFヘッドレート)
と同期したクロックckrfで動作する。The output data from the output processing section is supplied to a recording rotary head via a recording amplifier 121 and is recorded on a magnetic tape. The output processing unit is a data rate (RF head rate) in a recording circuit such as a rotary head.
It operates with the clock ckrf synchronized with the clock.
【0011】[0011]
【発明が解決しようとする課題】上述したように、従来
のディジタルVCRでは、メイン処理部は、入力処理部
の動作クロックと同一クロック、あるいはそれに関連す
るクロックで動作するようにされていた。その結果、メ
イン信号処理部の処理時間が入力データの転送レートの
制約を受ける。入力ビデオ、オーディオデータのデータ
レートが変わった時には、改めてメイン処理部のICを
設計する必要が生じる。特に、ディジタル放送の発達を
始めとする環境下では、ビデオ、オーディオのフォーマ
ット(フィールド周波数、ライン数、インターレス/プ
ログレッシブ、画面サイズ、アスペクト比等)として多
くの種類のものが存在する。従って、ビデオ、オーディ
オの複数のフォーマットにメイン処理部が対応すること
が望まれ、従来のように、メイン処理部の動作クロック
が入力ビデオ、オーディオデータのレートに依存するこ
とは、複数のフォーマットに対応する柔軟性を損なう問
題がある。As described above, in the conventional digital VCR, the main processing unit operates at the same clock as the operation clock of the input processing unit or a clock related thereto. As a result, the processing time of the main signal processing unit is restricted by the transfer rate of the input data. When the data rates of the input video and audio data change, it becomes necessary to design the IC of the main processing unit again. In particular, in an environment including the development of digital broadcasting, there are many types of video and audio formats (field frequency, number of lines, interlace / progressive, screen size, aspect ratio, etc.). Therefore, it is desirable that the main processing unit supports a plurality of formats of video and audio, and the fact that the operating clock of the main processing unit depends on the rates of the input video and audio data as in the related art is difficult for a plurality of formats. There is a problem that impairs the corresponding flexibility.
【0012】従って、この発明の目的は、入力データの
レートに依存しないクロックでメイン処理部が動作する
ことができるデータ処理装置およびデータ記録装置を提
供することにある。Accordingly, an object of the present invention is to provide a data processing device and a data recording device in which a main processing unit can operate with a clock independent of the rate of input data.
【0013】[0013]
【課題を解決するための手段】請求項1の発明は、ビデ
オデータを伝送する信号形態へ変換するデータ処理装置
において、ビデオデータを所定長のデータ領域にパッキ
ングする入力処理部と、入力処理部からのデータに対し
てエラー訂正符号の符号化を行うメイン処理部と、メイ
ン処理部からのデータに同期パターンおよびIDを付加
することによってシンクブロックを構成する出力処理部
とからなり、入力処理部がビデオデータに同期した第1
のクロックによって動作し、メイン処理部が第1のクロ
ックと独立した周波数の第2のクロックによって動作す
ることを特徴とするデータ処理装置である。According to a first aspect of the present invention, there is provided a data processing apparatus for converting video data into a signal form for transmitting video data, an input processing unit for packing video data into a data area of a predetermined length, and an input processing unit. A main processing unit for encoding an error correction code with respect to data from the input unit; and an output processing unit for forming a sync block by adding a synchronization pattern and an ID to the data from the main processing unit. Is synchronized with video data
And a main processing unit that operates with a second clock having a frequency independent of the first clock.
【0014】請求項2の発明は、ビデオデータを記録媒
体に記録するデータ記録装置において、ビデオデータを
所定長のデータ領域にパッキングする入力処理部と、入
力処理部からのデータに対してエラー訂正符号の符号化
を行うメイン処理部と、メイン処理部からのデータに同
期パターンおよびIDを付加することによってシンクブ
ロックを構成する出力処理部と、出力処理部の出力を記
録媒体に記録する記録部とからなり、入力処理部がビデ
オデータに同期した第1のクロックによって動作し、メ
イン処理部が第1のクロックと独立した周波数の第2の
クロックによって動作することを特徴とするデータ記録
装置である。According to a second aspect of the present invention, there is provided a data recording apparatus for recording video data on a recording medium, an input processing unit for packing the video data into a data area of a predetermined length, and an error correction for the data from the input processing unit. A main processing unit that encodes a code, an output processing unit that forms a sync block by adding a synchronization pattern and an ID to data from the main processing unit, and a recording unit that records an output of the output processing unit on a recording medium Wherein the input processing unit is operated by a first clock synchronized with the video data, and the main processing unit is operated by a second clock having a frequency independent of the first clock. is there.
【0015】好ましくは、ビデオデータは、MPEGの
ように、DCTおよび可変長符号化の処理を受けたデー
タである。また、ビデオデータと共にオーディオデータ
を処理される。入力処理部がビデオデータと同期した動
作クロックで動作するのに対して、入力処理部の動作ク
ロックとは独立した動作クロックによってメイン処理部
が動作できる。従って、フレーム周波数の違う複数のビ
デオデータに対してメイン処理部を別々に設計すること
を不要とでき、また、メイン処理部の処理により生じる
遅延時間を調整したり、さらに、メイン処理部において
処理が集中することによって、電源の負荷が瞬間的に重
くなることを防止することができる。[0015] Preferably, the video data is data that has been subjected to DCT and variable-length coding, such as MPEG. Also, audio data is processed together with video data. While the input processing unit operates with an operation clock synchronized with the video data, the main processing unit can operate with an operation clock independent of the operation clock of the input processing unit. Therefore, it is not necessary to separately design a main processing unit for a plurality of video data having different frame frequencies, and it is also possible to adjust a delay time caused by the processing of the main processing unit, and further to process the main processing unit. Concentration can prevent the load on the power supply from becoming momentarily heavy.
【0016】[0016]
【発明の実施の形態】以下、この発明をディジタルVC
Rに対して適用した一実施形態について説明する。この
一実施形態は、放送局の環境で使用して好適なもので、
互いに異なる複数のフォーマットのビデオ信号の記録・
再生を可能とするものである。例えば、NTSC方式に
基づいたインターレス走査で有効ライン数が480本の
信号(480i信号)およびPAL方式に基づいたイン
ターレス走査で有効ライン数が576本の信号(576
i信号)の両者を殆どハードウエアを変更せずに記録・
再生することが可能とされる。さらに、インターレス走
査でライン数が1080本の信号(1080i信号)、
プログレッシブ走査(ノンインターレス)でライン数が
それぞれ480本、720本、1080本の信号(48
0p信号、720p信号、1080p信号)などの記録
・再生も行うようにできる。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to digital VC.
An embodiment applied to R will be described. This embodiment is suitable for use in a broadcast station environment,
Recording and recording of video signals of multiple different formats
It enables playback. For example, a signal (480i signal) having 480 effective lines in the interlaced scanning based on the NTSC system and a signal (576 signals) having 576 effective lines in the interlaced scanning based on the PAL system.
i) are recorded with almost no hardware changes.
It is possible to reproduce. Furthermore, a signal having 1080 lines (1080i signal) in interlaced scanning,
In progressive scanning (non-interlace), the number of lines is 480, 720, and 1080, respectively.
Recording / reproduction such as 0p signal, 720p signal, and 1080p signal) can also be performed.
【0017】また、この一実施形態では、ビデオ信号お
よびオーディオ信号は、MPEG2方式に基づき圧縮符
号化される。周知のように、MPEG2は、動き補償予
測符号化と、DCTによる圧縮符号化とを組み合わせた
ものである。MPEG2のデータ構造は、階層構造をな
しており、下位から、ブロック層、マクロブロック層、
スライス層、ピクチャ層、GOP層およびシーケンス層
となっている。In this embodiment, the video signal and the audio signal are compression-coded based on the MPEG2 system. As is well known, MPEG2 is a combination of motion compensated prediction coding and compression coding by DCT. The data structure of MPEG2 has a hierarchical structure, and includes a block layer, a macroblock layer,
A slice layer, a picture layer, a GOP layer, and a sequence layer are provided.
【0018】ブロック層は、DCTを行う単位であるD
CTブロックからなる。マクロブロック層は、複数のD
CTブロックで構成される。スライス層は、ヘッダ部
と、行間をまたがらない任意個のマクロブロックより構
成される。ピクチャ層は、ヘッダ部と、複数のスライス
とから構成される。ピクチャは、1画面に対応する。G
OP(Group Of Picture)層は、ヘッダ部と、フレーム内
符号化に基づくピクチャであるIピクチャと、予測符号
化に基づくピクチャであるPおよびBピクチャとから構
成される。The block layer is a unit for performing DCT, D
It consists of a CT block. The macroblock layer includes a plurality of D
It is composed of CT blocks. The slice layer is composed of a header section and any number of macroblocks that do not extend between rows. The picture layer includes a header section and a plurality of slices. A picture corresponds to one screen. G
The OP (Group Of Picture) layer includes a header portion, an I picture that is a picture based on intra-frame coding, and P and B pictures that are pictures based on predictive coding.
【0019】Iピクチャ(Intra-coded picture:イント
ラ符号化画像) は、符号化されるときその画像1枚の中
だけで閉じた情報を使用するものである。従って、復号
時には、Iピクチャ自身の情報のみで復号できる。Pピ
クチャ(Predictive-coded picture :順方向予測符号化
画像)は、予測画像(差分をとる基準となる画像)とし
て、時間的に前の既に復号されたIピクチャまたはPピ
クチャを使用するものである。動き補償された予測画像
との差を符号化するか、差分を取らずに符号化するか、
効率の良い方をマクロブロック単位で選択する。Bピク
チャ(Bidirectionally predictive-coded picture :両
方向予測符号化画像)は、予測画像(差分をとる基準と
なる画像)として、時間的に前の既に復号されたIピク
チャまたはPピクチャ、時間的に後ろの既に復号された
IピクチャまたはPピクチャ、並びにこの両方から作ら
れた補間画像の3種類を使用する。この3種類のそれぞ
れの動き補償後の差分の符号化と、イントラ符号化の中
で、最も効率の良いものをマクロブロック単位で選択す
る。An I-picture (Intra-coded picture) uses information that is closed only in one picture when it is coded. Therefore, at the time of decoding, decoding can be performed using only the information of the I picture itself. A P-picture (Predictive-coded picture: a forward predictive coded picture) uses a previously decoded I-picture or P-picture which is temporally previous as a predicted picture (a reference picture for taking a difference). . Whether to encode the difference from the motion-compensated predicted image, to encode without taking the difference,
The more efficient one is selected for each macroblock. A B picture (Bidirectionally predictive-coded picture) is a temporally previous I-picture or P-picture which is temporally preceding, and a temporally backward I-picture, We use three types of I-pictures or P-pictures already decoded, as well as interpolated pictures made from both. Among the three types of difference coding after motion compensation and intra coding, the most efficient one is selected for each macroblock.
【0020】従って、マクロブロックタイプとしては、
フレーム内符号化(Intra) マクロブロックと、過去から
未来を予測する順方向(Foward)フレーム間予測マクロブ
ロックと、未来から過去を予測する逆方向(Backward)フ
レーム間予測マクロブロックと、前後両方向から予測す
る両方向マクロブロックとがある。Iピクチャ内の全て
のマクロブロックは、フレーム内符号化マクロブロック
である。また、Pピクチャ内には、フレーム内符号化マ
クロブロックと順方向フレーム間予測マクロブロックと
が含まれる。Bピクチャ内には、上述した4種類の全て
のタイプのマクロブロックが含まれる。Therefore, as the macroblock type,
Intra-frame coding (Intra) macroblock, forward (Fward) inter-frame prediction macroblock that predicts the future from the past, and backward (Backward) interframe prediction macroblock that predicts the past from the future, There is a bidirectional macroblock to be predicted. All macroblocks in an I picture are intra-coded macroblocks. The P picture includes an intra-frame coded macro block and a forward inter-frame predicted macro block. The B picture includes all four types of macroblocks described above.
【0021】GOPには、最低1枚のIピクチャが含ま
れ、PおよびBピクチャは、存在しなくても許容され
る。最上層のシーケンス層は、ヘッダ部と複数のGOP
とから構成される。A GOP contains at least one I picture, and P and B pictures are allowed even if they do not exist. The top sequence layer is composed of a header section and multiple GOPs.
It is composed of
【0022】MPEGのフォーマットにおいては、スラ
イスが1つの可変長符号系列である。可変長符号系列と
は、可変長符号を復号化しなければデータの境界を検出
できない系列である。In the MPEG format, a slice is one variable-length code sequence. A variable-length code sequence is a sequence in which a data boundary cannot be detected unless a variable-length code is decoded.
【0023】また、シーケンス層、GOP層、ピクチャ
層、スライス層およびマクロブロック層の先頭には、そ
れぞれ、バイト単位に整列された所定のビットパターン
を有する識別コード(スタートコードと称される)が配
される。なお、上述した各層のヘッダ部は、ヘッダ、拡
張データまたはユーザデータをまとめて記述したもので
ある。シーケンス層のヘッダには、画像(ピクチャ)の
サイズ(縦横の画素数)等が記述される。GOP層のヘ
ッダには、タイムコードおよびGOPを構成するピクチ
ャ数等が記述される。At the head of each of the sequence layer, GOP layer, picture layer, slice layer and macroblock layer, an identification code (referred to as a start code) having a predetermined bit pattern arranged in byte units is provided. Be placed. Note that the header section of each layer described above collectively describes a header, extension data, or user data. In the header of the sequence layer, the size of the image (picture) (the number of vertical and horizontal pixels) and the like are described. The time code, the number of pictures constituting the GOP, and the like are described in the header of the GOP layer.
【0024】スライス層に含まれるマクロブロックは、
複数のDCTブロックの集合であり、DCTブロックの
符号化系列は、量子化されたDCT係数の系列を0係数
の連続回数(ラン)とその直後の非0系列(レベル)を
1つの単位として可変長符号化したものである。マクロ
ブロックならびにマクロブロック内のDCTブロックに
は、バイト単位に整列した識別コードは付加されない。
すなわち、これらは、1つの可変長符号系列ではない。The macro blocks included in the slice layer are:
It is a set of a plurality of DCT blocks, and the encoded sequence of the DCT block is a variable of a sequence of quantized DCT coefficients, with the number of consecutive 0 coefficients (run) and a non-zero sequence (level) immediately after it as one unit. It is a long code. The macroblock and the DCT block in the macroblock are not added with the identification codes arranged in byte units.
That is, they are not one variable-length code sequence.
【0025】マクロブロックは、画面(ピクチャ)を1
6画素×16ラインの格子状に分割したものである。ス
ライスは、例えばこのマクロブロックを水平方向に連結
してなる。連続するスライスの前のスライスの最後のマ
クロブロックと、次のスライスの先頭のマクロブロック
とは連続しており、スライス間でのマクロブロックのオ
ーバーラップを形成することは、許されていない。ま
た、画面のサイズが決まると、1画面当たりのマクロブ
ロック数は、一意に決まる。A macroblock is a screen (picture) of 1
It is divided into a grid of 6 pixels × 16 lines. A slice is formed by connecting these macroblocks in the horizontal direction, for example. The last macroblock of the previous slice of a continuous slice and the first macroblock of the next slice are continuous, and it is not allowed to form a macroblock overlap between slices. When the size of the screen is determined, the number of macroblocks per screen is uniquely determined.
【0026】一方、復号および符号化による信号の劣化
を避けるためには、符号化データ上で編集することが望
ましい。このとき、PピクチャおよびBピクチャは、そ
の復号に、時間的に前のピクチャあるいは前後のピクチ
ャを必要とする。そのため、編集単位を1フレーム単位
とすることができない。この点を考慮して、この一実施
形態では、1つのGOPが1枚のIピクチャからなるよ
うにしている。On the other hand, in order to avoid signal degradation due to decoding and encoding, it is desirable to edit the encoded data. At this time, the P picture and the B picture require a temporally preceding picture or a preceding and succeeding picture for decoding. Therefore, the editing unit cannot be set to one frame unit. In consideration of this point, in this embodiment, one GOP is made up of one I picture.
【0027】また、例えば1フレーム分の記録データが
記録される記録領域が所定のものとされる。MPEG2
では、可変長符号化を用いているので、1フレーム期間
に発生するデータを所定の記録領域に記録できるよう
に、1フレーム分の発生データ量が制御される。さら
に、この一実施形態では、磁気テープへの記録に適する
ように、1スライスを1マクロブロックから構成すると
共に、1マクロブロックを、所定長の固定枠に当てはめ
る。For example, a recording area in which recording data for one frame is recorded is a predetermined area. MPEG2
Since the variable length coding is used, the amount of generated data for one frame is controlled so that data generated during one frame period can be recorded in a predetermined recording area. Further, in this embodiment, one slice is composed of one macroblock so as to be suitable for recording on a magnetic tape, and one macroblock is applied to a fixed frame having a predetermined length.
【0028】図1は、この一実施形態による記録再生装
置の記録側の構成の一例を示す。記録時には、所定のイ
ンターフェース例えばSDI(Serial Data Interface)
の受信部を介してディジタルビデオ信号が端子101か
ら入力される。SDIは、(4:2:2)コンポーネン
トビデオ信号とディジタルオーディオ信号と付加的デー
タとを伝送するために、SMPTEによって規定された
インターフェイスである。入力ビデオ信号は、ビデオエ
ンコーダ102においてDCT(Discrete Cosine Trans
form) の処理を受け、係数データに変換され、係数デー
タが可変長符号化される。ビデオエンコーダ102から
の可変長符号化(VLC)データは、MPEG2に準拠
したエレメンタリストリームである。この出力は、セレ
クタ103の一方の入力端に供給される。FIG. 1 shows an example of the configuration of the recording side of the recording / reproducing apparatus according to this embodiment. At the time of recording, a predetermined interface, for example, SDI (Serial Data Interface)
The digital video signal is input from the terminal 101 via the receiving unit of the above. SDI is an interface defined by SMPTE for transmitting (4: 2: 2) component video signals, digital audio signals, and additional data. An input video signal is converted by a video encoder 102 into a DCT (Discrete Cosine Transform).
form), is converted into coefficient data, and the coefficient data is subjected to variable length coding. The variable length coded (VLC) data from the video encoder 102 is an elementary stream compliant with MPEG2. This output is supplied to one input terminal of the selector 103.
【0029】一方、入力端子104を通じて、ANSI
/SMPTE 305Mによって規定されたインターフ
ェイスである、SDTI(Serial Data Transport Inter
face) のフォーマットのデータが入力される。この信号
は、SDTI受信部105で同期検出される。そして、
バッファに一旦溜め込まれ、エレメンタリストリームが
抜き出される。抜き出されたエレメンタリストリーム
は、セレクタ103の他方の入力端に供給される。On the other hand, through the input terminal 104, the ANSI
SDTI (Serial Data Transport Inter), which is an interface defined by / SMPTE 305M
face) format data is input. This signal is synchronously detected by SDTI receiving section 105. And
Once stored in the buffer, the elementary stream is extracted. The extracted elementary stream is supplied to the other input terminal of the selector 103.
【0030】セレクタ103で選択され出力されたエレ
メンタリストリームは、ストリームコンバータ106に
供給される。ストリームコンバータ106では、MPE
G2の規定に基づきDCTブロック毎に並べられていた
DCT係数を、1マクロブロックを構成する複数のDC
Tブロックを通して、周波数成分毎にまとめ、まとめた
周波数成分を並べ替える。並べ替えられた変換エレメン
タリストリームは、パッキングおよびシャフリング部1
07に供給される。The elementary stream selected and output by the selector 103 is supplied to a stream converter 106. In the stream converter 106, the MPE
The DCT coefficients arranged for each DCT block based on the G2 rule are replaced with a plurality of DCTs constituting one macroblock.
Through the T block, frequency components are grouped, and the grouped frequency components are rearranged. The rearranged converted elementary stream is stored in the packing and shuffling unit 1.
07.
【0031】エレメンタリストリームのビデオデータ
は、可変長符号化されているため、各マクロブロックの
データの長さが不揃いである。パッキングおよびシャフ
リング部107では、マクロブロックが固定枠に詰め込
まれる。このとき、固定枠からはみ出た部分は、固定枠
のサイズに対して余った部分に順に詰め込まれる。ま
た、タイムコード等のシステムデータが入力端子108
からパッキングおよびシャフリング部107に供給さ
れ、ピクチャデータと同様にシステムデータが記録処理
を受ける。また、走査順に発生する1フレームのマクロ
ブロックを並び替え、テープ上のマクロブロックの記録
位置を分散させるシャフリングが行われる。シャフリン
グによって、変速再生時に断片的にデータが再生される
時でも、画像の更新率を向上させることができる。Since the video data of the elementary stream is variable-length coded, the data length of each macroblock is not uniform. In the packing and shuffling unit 107, macro blocks are packed in a fixed frame. At this time, the portion that protrudes from the fixed frame is sequentially packed into a surplus portion with respect to the size of the fixed frame. Also, system data such as time code is input to the input terminal 108.
Is supplied to the packing and shuffling unit 107, and the system data is subjected to a recording process similarly to the picture data. Also, shuffling is performed in which the macroblocks of one frame generated in the scanning order are rearranged and the recording positions of the macroblocks on the tape are dispersed. Shuffling can improve the image update rate even when data is reproduced in pieces during variable speed reproduction.
【0032】パッキングおよびシャフリング部107か
らのビデオデータおよびシステムデータ(以下、特に必
要な場合を除き、システムデータを含む場合も単にビデ
オデータと言う。)が外符号エンコーダ109に供給さ
れる。ビデオデータおよびオーディオデータに対するエ
ラー訂正符号としては、積符号が使用される。積符号
は、ビデオデータまたはオーディオデータの2次元配列
の縦方向に外符号の符号化を行い、その横方向に内符号
の符号化を行い、データシンボルを2重に符号化するも
のである。外符号および内符号としては、リードソロモ
ンコード(Reed-Solomon code) を使用できる。The video data and system data from the packing and shuffling unit 107 (hereinafter, also referred to as video data even when system data is included unless otherwise required) are supplied to the outer code encoder 109. A product code is used as an error correction code for video data and audio data. The product code encodes an outer code in a vertical direction of a two-dimensional array of video data or audio data, encodes an inner code in a horizontal direction thereof, and encodes data symbols doubly. As the outer code and the inner code, a Reed-Solomon code can be used.
【0033】外符号エンコーダ109の出力がシャフリ
ング部110に供給され、複数のECC(Error Correct
ig Code)ブロックにわたってシンクブロック単位で順番
を入れ替える、シャフリングがなされる。シンクブロッ
ク単位のシャフリングによって特定のECCブロックに
エラーが集中することが防止される。シャフリング部1
10でなされるシャフリングをインターリーブと称する
こともある。シャフリング部110の出力が混合部11
1に供給され、オーディオデータと混合される。なお、
混合部111は、後述のように、メインメモリにより構
成される。The output of the outer code encoder 109 is supplied to the shuffling unit 110 and a plurality of ECCs (Error Correction
ig Code) blocks are shuffled to change the order in sync block units. The shuffling in sync block units prevents errors from concentrating on a specific ECC block. Shuffling part 1
Shuffling performed at 10 may be referred to as interleaving. The output of the shuffling unit 110 is
1 and mixed with audio data. In addition,
The mixing unit 111 includes a main memory, as described later.
【0034】112で示す入力端子からオーディオデー
タが供給される。この一実施形態では、非圧縮のディジ
タルオーディオ信号が扱われる。ディジタルオーディオ
信号は、入力側のSDI受信部(図示しない)またはS
DTI受信部105で分離されたもの、またはオーディ
オインターフェースを介して入力されたものである。入
力ディジタルオーディオ信号が遅延部113を介してA
UX付加部114に供給される。遅延部113は、オー
ディオ信号とビデオ信号と時間合わせ用のものである。
入力端子115から供給されるオーディオAUXは、補
助的データであり、オーディオデータのサンプリング周
波数等のオーディオデータに関連する情報を有するデー
タである。オーディオAUXは、AUX付加部114に
てオーディオデータに付加され、オーディオデータと同
等に扱われる。Audio data is supplied from an input terminal 112. In this embodiment, an uncompressed digital audio signal is handled. The digital audio signal is supplied to an input SDI receiver (not shown)
These are separated by the DTI receiving unit 105 or input through an audio interface. The input digital audio signal is supplied to A
It is supplied to the UX adding unit 114. The delay unit 113 is for time alignment of the audio signal and the video signal.
The audio AUX supplied from the input terminal 115 is auxiliary data, and is data having information related to audio data such as the sampling frequency of audio data. The audio AUX is added to the audio data by the AUX adding unit 114, and is treated the same as the audio data.
【0035】AUX付加部114からのオーディオデー
タおよびAUX(以下、特に必要な場合を除き、AUX
を含む場合も単にオーディオデータと言う。)が外符号
エンコーダ116に供給される。外符号エンコーダ11
6は、オーディオデータに対して外符号の符号化を行
う。外符号エンコーダ116の出力がシャフリング部1
17に供給され、シャフリング処理を受ける。オーディ
オシャフリングとして、シンクブロック単位のシャフリ
ングと、チャンネル単位のシャフリングとがなされる。The audio data and AUX from the AUX adding unit 114 (hereinafter, AUX unless otherwise necessary)
Is also simply referred to as audio data. ) Is supplied to the outer code encoder 116. Outer code encoder 11
No. 6 encodes an outer code for audio data. The output of the outer code encoder 116 is the shuffling unit 1
17 and undergoes a shuffling process. As audio shuffling, shuffling in sync block units and shuffling in channel units are performed.
【0036】シャフリング部117の出力が混合部11
1に供給され、ビデオデータとオーディオデータが1チ
ャンネルのデータとされる。混合部111の出力がID
付加部118が供給され、ID付加部118にて、シン
クブロック番号を示す情報等を有するIDが付加され
る。ID付加部118の出力が内符号エンコーダ119
に供給され、内符号の符号化がなされる。さらに、内符
号エンコーダ119の出力が同期付加部120に供給さ
れ、シンクブロック毎の同期信号が付加される。同期信
号が付加されることによってシンクブロックが連続する
記録データが構成される。この記録データが記録アンプ
121を介して回転ヘッド122に供給され、磁気テー
プ123上に記録される。回転ヘッド122は、実際に
は、隣接するトラックを形成するヘッドのアジマスが互
いに異なる複数の磁気ヘッドが回転ドラムに取り付けら
れたものである。The output of the shuffling unit 117 is
1 and the video data and the audio data are converted into data of one channel. The output of the mixing unit 111 is ID
The adding unit 118 is supplied, and the ID adding unit 118 adds an ID including information indicating a sync block number. The output of the ID addition unit 118 is the inner code encoder 119
, And the inner code is encoded. Further, the output of the inner code encoder 119 is supplied to the synchronization adding section 120, and a synchronization signal for each sync block is added. By adding the synchronization signal, recording data in which the sync blocks are continuous is configured. This recording data is supplied to the rotary head 122 via the recording amplifier 121, and is recorded on the magnetic tape 123. In practice, the rotary head 122 is configured such that a plurality of magnetic heads having different azimuths of heads forming adjacent tracks are attached to the rotary drum.
【0037】記録データに対して必要に応じてスクラン
ブル処理を行っても良い。また、記録時にディジタル変
調を行っても良く、さらに、パーシャル・レスポンスク
ラス4とビタビ符号を使用しても良い。The recording data may be scrambled as required. Further, digital modulation may be performed at the time of recording, and a partial response class 4 and Viterbi code may be used.
【0038】図2は、この発明の一実施形態の再生側の
構成の一例を示す。磁気テープ123から回転ヘッド1
22で再生された再生信号が再生アンプ131を介して
同期検出部132に供給される。再生信号に対して、等
化や波形整形などがなされる。また、ディジタル変調の
復調、ビタビ復号等が必要に応じてなされる。同期検出
部132は、シンクブロックの先頭に付加されている同
期信号を検出する。同期検出によって、シンクブロック
が切り出される。FIG. 2 shows an example of the configuration on the reproducing side according to an embodiment of the present invention. Rotating head 1 from magnetic tape 123
The reproduction signal reproduced at 22 is supplied to the synchronization detection unit 132 via the reproduction amplifier 131. Equalization and waveform shaping are performed on the reproduced signal. Further, demodulation of digital modulation, Viterbi decoding, and the like are performed as necessary. The synchronization detection unit 132 detects a synchronization signal added to the head of the sync block. The sync block is cut out by the synchronization detection.
【0039】同期検出ブロック132の出力が内符号エ
ンコーダ133に供給され、内符号のエラー訂正がなさ
れる。内符号エンコーダ133の出力がID補間部13
4に供給され、内符号によりエラーとされたシンクブロ
ックのID例えばシンクブロック番号が補間される。I
D補間部134の出力が分離部135に供給され、ビデ
オデータとオーディオデータとが分離される。上述した
ように、ビデオデータは、MPEGのイントラ符号化で
発生したDCT係数データおよびシステムデータを意味
し、オーディオデータは、PCM(Pulse Code Modulati
on) データおよびAUXを意味する。The output of the synchronization detection block 132 is supplied to the inner code encoder 133, where the error of the inner code is corrected. The output of the inner code encoder 133 is the ID interpolation unit 13
The ID of the sync block, which has been supplied to the block No. 4 and made an error by the inner code, for example, a sync block number is interpolated. I
The output of the D interpolation unit 134 is supplied to a separation unit 135, where the video data and the audio data are separated. As described above, video data means DCT coefficient data and system data generated by MPEG intra coding, and audio data is PCM (Pulse Code Modulati
on) means data and AUX.
【0040】分離部135からのビデオデータがデシャ
フリング部136において、シャフリングと逆の処理が
なされる。デシャフリング部136は、記録側のシャフ
リング部110でなされたシンクブロック単位のシャフ
リングを元に戻す処理を行う。デシャフリング部136
の出力が外符号デコーダ137に供給され、外符号によ
るエラー訂正がなされる。訂正できないエラーが発生し
た場合には、エラーの有無を示すエラーフラグがエラー
有りを示すものとされる。The video data from the separation unit 135 is subjected to the reverse processing of the shuffling in the deshuffling unit 136. The deshuffling unit 136 performs a process of restoring the shuffling in sync block units performed by the shuffling unit 110 on the recording side. Deshuffling part 136
Is supplied to the outer code decoder 137, and error correction by the outer code is performed. When an error that cannot be corrected occurs, an error flag indicating the presence or absence of the error is set to indicate the presence of the error.
【0041】外符号デコーダ137の出力がデシャフリ
ングおよびデパッキング部138に供給される。デシャ
フリングおよびデパッキング部138は、記録側のパッ
キングおよびシャフリング部107でなされたマクロブ
ロック単位のシャフリングを元に戻す処理を行う。ま
た、デシャフリングおよびデパッキング部138では、
記録時に施されたパッキングを分解する。すなわち、マ
クロブロック単位にデータの長さを戻して、元の可変長
符号を復元する。さらに、デシャフリングおよびデパッ
キング部138において、システムデータが分離され、
出力端子139に取り出される。The output of the outer code decoder 137 is supplied to a deshuffling and depacking unit 138. The deshuffling and depacking unit 138 performs processing for restoring shuffling in macroblock units performed by the packing and shuffling unit 107 on the recording side. In the deshuffling and depacking unit 138,
Disassemble the packing applied during recording. That is, the length of the data is returned in units of macroblocks, and the original variable length code is restored. Further, in the deshuffling and depacking unit 138, the system data is separated,
It is taken out to the output terminal 139.
【0042】デシャフリングおよびデパッキング部13
8の出力が補間部140に供給され、エラーフラグが立
っている(すなわち、エラーのある)データが修整され
る。すなわち、変換前に、マクロブロックデータの途中
にエラーがあるとされた場合には、エラー箇所以降の周
波数成分のDCT係数が復元できない。そこで、例えば
エラー箇所のデータをブロック終端符号(EOB)に置
き替え、それ以降の周波数成分のDCT係数をゼロとす
る。同様に、高速再生時にも、シンクブロック長に対応
する長さまでのDCT係数のみを復元し、それ以降の係
数は、ゼロデータに置き替えられる。さらに、補間部1
40では、ビデオデータの先頭に付加されているヘッダ
がエラーの場合に、ヘッダ(シーケンスヘッダ、GOP
ヘッダ、ピクチャヘッダ、ユーザデータ等)を回復する
処理もなされる。Deshuffling and depacking unit 13
The output of No. 8 is supplied to the interpolation unit 140, and the data for which the error flag is set (that is, there is an error) is corrected. That is, if it is determined that there is an error in the macroblock data before the conversion, the DCT coefficients of the frequency components after the error location cannot be restored. Therefore, for example, the data at the error location is replaced with a block end code (EOB), and the DCT coefficients of the subsequent frequency components are set to zero. Similarly, at the time of high-speed reproduction, only DCT coefficients up to the length corresponding to the sync block length are restored, and the coefficients thereafter are replaced with zero data. Further, the interpolation unit 1
In 40, when the header added to the head of the video data is an error, the header (sequence header, GOP
Header, picture header, user data, etc.) are also recovered.
【0043】DCTブロックに跨がって、DCT係数が
DC成分および低域成分から高域成分へと並べられてい
るため、このように、ある箇所以降からDCT係数を無
視しても、マクロブロックを構成するDCTブロックの
それぞれに対して、満遍なくDCならびに低域成分から
のDCT係数を行き渡らせることができる。Since the DCT coefficients are arranged from the DC component and the low-frequency component to the high-frequency component over the DCT block, even if the DCT coefficients are ignored from a certain point onward, the macro block , DCT coefficients from DC and low-frequency components can be distributed evenly to each of the DCT blocks constituting.
【0044】補間部140の出力がストリームコンバー
タ141に供給される。ストリームコンバータ141で
は、記録側のストリームコンバータ106と逆の処理が
なされる。すなわち、DCTブロックに跨がって周波数
成分毎に並べられていたDCT係数を、DCTブロック
毎に並び替える。これにより、再生信号がMPEG2に
準拠したエレメンタリストリームに変換される。The output of the interpolation section 140 is supplied to the stream converter 141. In the stream converter 141, the reverse process to that of the stream converter 106 on the recording side is performed. That is, the DCT coefficients arranged for each frequency component across the DCT blocks are rearranged for each DCT block. Thereby, the reproduced signal is converted into an elementary stream conforming to MPEG2.
【0045】また、ストリームコンバータ141の入出
力は、記録側と同様に、マクロブロックの最大長に応じ
て、十分な転送レート(バンド幅)を確保しておく。マ
クロブロックの長さを制限しない場合には、画素レート
の3倍のバンド幅を確保するのが好ましい。As with the recording side, a sufficient transfer rate (bandwidth) is secured for the input and output of the stream converter 141 in accordance with the maximum length of the macroblock. When the length of the macroblock is not limited, it is preferable to secure a bandwidth three times the pixel rate.
【0046】ストリームコンバータ141の出力がビデ
オデコーダ142に供給される。ビデオデコーダ142
は、エレメンタリストリームを復号し、ビデオデータを
出力する。すなわち、ビデオデコーダ142は、逆量子
化処理と、逆DCT処理とがなされる。復号ビデオデー
タが出力端子143に取り出される。外部とのインター
フェースには、例えばSDIが使用される。また、スト
リームコンバータ141からのエレメンタリストリーム
がSDTI送信部144に供給される。SDTI送信部
144には、経路の図示を省略しているが、システムデ
ータ、再生オーディオデータ、AUXも供給され、SD
TIフォーマットのデータ構造を有するストリームへ変
換される。SDTI送信部144からのストリームが出
力端子145を通じて外部に出力される。The output of the stream converter 141 is supplied to the video decoder 142. Video decoder 142
Decodes the elementary stream and outputs video data. That is, the video decoder 142 performs an inverse quantization process and an inverse DCT process. The decoded video data is taken out to the output terminal 143. For the interface with the outside, for example, SDI is used. In addition, the elementary stream from the stream converter 141 is supplied to the SDTI transmitting unit 144. Although illustration of the path is omitted, the SDTI transmission unit 144 is also supplied with system data, reproduced audio data, and AUX, and
It is converted into a stream having a data structure of the TI format. The stream from the SDTI transmission unit 144 is output to the outside through the output terminal 145.
【0047】分離部135で分離されたオーディオデー
タがデシャフリング部151に供給される。デシャフリ
ング部151は、記録側のシャフリング部117でなさ
れたシャフリングと逆の処理を行う。デシャフリング部
117の出力が外符号デコーダ152に供給され、外符
号によるエラー訂正がなされる。外符号デコーダ152
からは、エラー訂正されたオーディオデータが出力され
る。訂正できないエラーがあるデータに関しては、エラ
ーフラグがセットされる。The audio data separated by the separation unit 135 is supplied to the deshuffling unit 151. The deshuffling unit 151 performs a process opposite to the shuffling performed by the shuffling unit 117 on the recording side. The output of the deshuffling unit 117 is supplied to the outer code decoder 152, and error correction by the outer code is performed. Outer code decoder 152
Output the error-corrected audio data. An error flag is set for data having an uncorrectable error.
【0048】外符号デコーダ152の出力がAUX分離
部153に供給され、オーディオAUXが分離される。
分離されたオーディオAUXが出力端子154に取り出
される。また、オーディオデータが補間部155に供給
される。補間部155では、エラーの有るサンプルが補
間される。補間方法としては、時間的に前後の正しいデ
ータの平均値で補間する平均値補間、前の正しいサンプ
ルの値をホールドする前値ホールド等を使用できる。補
間部155の出力が出力部156に供給される。出力部
156は、エラーであり、補間できないオーディオ信号
の出力を禁止するミュート処理、並びにビデオ信号との
時間合わせのための遅延量調整処理がなされる。出力部
156から出力端子157に再生オーディオ信号が取り
出される。The output of the outer code decoder 152 is supplied to an AUX separation section 153, where the audio AUX is separated.
The separated audio AUX is taken out to the output terminal 154. The audio data is supplied to the interpolation unit 155. The interpolating unit 155 interpolates a sample having an error. As the interpolation method, it is possible to use an average value interpolation for interpolating with the average value of correct data before and after in time, a previous value hold for holding a previous correct sample value, and the like. The output of the interpolation unit 155 is supplied to the output unit 156. The output unit 156 performs a mute process for inhibiting the output of an audio signal that is in error and cannot be interpolated, and performs a delay amount adjustment process for time alignment with a video signal. The reproduced audio signal is extracted from the output unit 156 to the output terminal 157.
【0049】なお、図1および図2では省略されている
が、入力データと同期したタイミング信号を発生するタ
イミング発生部、記録再生装置の全体の動作を制御する
システムコントローラ(マイクロコンピュータ)等が備
えられている。Although not shown in FIGS. 1 and 2, a timing generator for generating a timing signal synchronized with input data, a system controller (microcomputer) for controlling the overall operation of the recording / reproducing apparatus, and the like are provided. Have been.
【0050】この一実施形態では、磁気テープへの信号
の記録は、回転する回転ヘッド上に設けられた磁気ヘッ
ドにより、斜めのトラックを形成する、ヘリカルスキャ
ン方式によって行われる。磁気ヘッドは、回転ドラム上
の、互いに対向する位置に、それぞれ複数個が設けられ
る。すなわち、磁気テープが回転ヘッドに180°程度
の巻き付け角で以て巻き付けられている場合、回転ヘッ
ドの180°の回転により、同時に複数本のトラックを
形成することができる。また、磁気ヘッドは、互いにア
ジマスの異なる2個で一組とされる。複数個の磁気ヘッ
ドは、隣接するトラックのアジマスが互いに異なるよう
に配置される。In this embodiment, recording of a signal on a magnetic tape is performed by a helical scan method in which an oblique track is formed by a magnetic head provided on a rotating rotary head. A plurality of magnetic heads are provided on the rotating drum at positions facing each other. That is, when the magnetic tape is wound around the rotary head at a winding angle of about 180 °, a plurality of tracks can be simultaneously formed by rotating the rotary head by 180 °. The magnetic heads are formed as a set of two magnetic heads having different azimuths. The plurality of magnetic heads are arranged such that azimuths of adjacent tracks are different from each other.
【0051】図3は、上述した回転ヘッドにより磁気テ
ープ上に形成されるトラックフォーマットの一例を示
す。これは、1フレーム当たりのビデオおよびオーディ
オデータが8トラックで記録される例である。例えばフ
レーム周波数が29.97Hz、レートが50Mbp
s、有効ライン数が480本で有効水平画素数が720
画素のインターレス信号(480i信号)およびオーデ
ィオ信号が記録される。また、フレーム周波数が25H
z、レートが50Mbps、有効ライン数が576本で
有効水平画素数が720画素のインターレス信号(57
6i信号)およびオーディオ信号も、図3と同一のテー
プフォーマットによって記録できる。FIG. 3 shows an example of a track format formed on a magnetic tape by the rotary head described above. This is an example in which video and audio data per frame are recorded on eight tracks. For example, the frame frequency is 29.97 Hz, and the rate is 50 Mbp
s, the number of effective lines is 480, and the number of effective horizontal pixels is 720
A pixel interlace signal (480i signal) and an audio signal are recorded. When the frame frequency is 25H
z, the rate is 50 Mbps, the number of effective lines is 576, and the number of effective horizontal pixels is 720.
6i signal) and audio signal can also be recorded in the same tape format as in FIG.
【0052】互いに異なるアジマスの2トラックによっ
て1セグメントが構成される。すなわち、8トラック
は、4セグメントからなる。セグメントを構成する1組
のトラックに対して、アジマスと対応するトラック番号
One segment is constituted by two tracks having different azimuths. That is, eight tracks are composed of four segments. Track number corresponding to azimuth for a set of tracks constituting a segment
〔0〕とトラック番号〔1〕が付される。図3に示され
る例では、前半の8トラックと、後半の8トラックとの
間で、トラック番号が入れ替えられると共に、フレーム
毎に互いに異なるトラックシーケンスが付される。これ
により、アジマスが異なる1組の磁気ヘッドのうち一方
が、例えば目詰まりなどにより読み取り不能状態に陥っ
ても、前フレームのデータを利用してエラーの影響を小
とできる。[0] and a track number [1] are assigned. In the example shown in FIG. 3, track numbers are exchanged between the first eight tracks and the second eight tracks, and different track sequences are assigned to each frame. Thus, even if one of the set of magnetic heads having different azimuths becomes unreadable due to clogging or the like, the influence of an error can be reduced by using the data of the previous frame.
【0053】トラックのそれぞれにおいて、両端側にビ
デオデータが記録されるビデオセクタが配され、ビデオ
セクタに挟まれて、オーディオデータが記録されるオー
ディオセクタが配される。なお、この図3および後述す
る図4は、テープ上のオーディオセクタの配置を示すも
のである。In each of the tracks, a video sector in which video data is recorded is arranged on both ends, and an audio sector in which audio data is recorded is arranged between the video sectors. 3 and FIG. 4, which will be described later, show the arrangement of audio sectors on the tape.
【0054】図3のトラックフォーマットでは、8チャ
ンネルのオーディオデータを扱うことができるようにさ
れている。A1〜A8は、それぞれオーディオデータの
1〜8chのセクタを示す。オーディオデータは、セグ
メント単位で配列を変えられて記録される。オーディオ
データは、1フィールド期間で発生するオーディオサン
プル(例えばフィールド周波数が29.97Hzで、サン
プリング周波数が48kHzの場合には、800サンプル
または801サンプル)が偶数番目のサンプルと奇数番
目のサンプルとにわけられ、各サンプル群とAUXによ
って積符号の1ECCブロックが構成される。In the track format shown in FIG. 3, eight channels of audio data can be handled. A1 to A8 indicate sectors of channels 1 to 8 of the audio data, respectively. The audio data is recorded with its arrangement changed in segment units. For audio data, audio samples generated in one field period (for example, when the field frequency is 29.97 Hz and the sampling frequency is 48 kHz, 800 or 801 samples) are divided into even-numbered samples and odd-numbered samples. Each sample group and AUX form one ECC block of a product code.
【0055】図3では、1フィールド分のデータが4ト
ラックに記録されるので、オーディオデータの1チャン
ネル当たりの2個のECCブロックが4トラックに記録
される。2個のECCブロックのデータ(外符号パリテ
ィを含む)が4個のセクタに分割され、図3に示すよう
に、4トラックに分散されて記録される。2個のECC
ブロックに含まれる複数のシンクブロックがシャフリン
グされる。例えばA1の参照番号が付された4セクタに
よって、チャンネル1の2ECCブロックが構成され
る。In FIG. 3, since data for one field is recorded on four tracks, two ECC blocks per channel of audio data are recorded on four tracks. The data of two ECC blocks (including the outer code parity) is divided into four sectors, and as shown in FIG. 3, the data is dispersedly recorded on four tracks. Two ECCs
A plurality of sync blocks included in the block are shuffled. For example, two ECC blocks of channel 1 are constituted by four sectors to which reference numbers A1 are assigned.
【0056】また、ビデオデータは、この例では、1ト
ラックに対して4ECCブロック分のデータがシャフリ
ング(インターリーブ)され、Upper Sideお
よびLower Sideで各セクタに分割され記録さ
れる。Lower Sideのビデオセクタには、所定
位置にシステム領域が設けられる。In this example, video data of 4 ECC blocks is shuffled (interleaved) with respect to one track, divided into upper sectors and lower sides, and recorded. In the lower sector video sector, a system area is provided at a predetermined position.
【0057】なお、図3において、SAT1(Tr)お
よびSAT2(Tm)は、サーボロック用の信号が記録
されるエリアである。また、各記録エリアの間には、所
定の大きさのギャップ(Vg1,Sg1,Ag,Sg
2,Sg3およびVg2)が設けられる。In FIG. 3, SAT1 (Tr) and SAT2 (Tm) are areas where servo lock signals are recorded. In addition, a gap of a predetermined size (Vg1, Sg1, Ag, Sg) is provided between the recording areas.
2, Sg3 and Vg2).
【0058】図3は、1フレーム当たりのデータを8ト
ラックで記録する例であるが、記録再生するデータのフ
ォーマットによっては、1フレーム当たりのデータを4
トラック、6トラックなどでの記録することができる。
図4Aは、1フレームが6トラックのフォーマットであ
る。この例では、トラックシーケンスがFIG. 3 shows an example in which data per frame is recorded on eight tracks, but depending on the format of the data to be recorded / reproduced, data per frame is recorded in four tracks.
Recording can be performed on tracks, six tracks, and the like.
FIG. 4A shows a format in which one frame has six tracks. In this example, the track sequence is
〔0〕のみとさ
れる。Only [0] is set.
【0059】図4Bに示すように、テープ上に記録され
るデータは、シンクブロックと称される等間隔に区切ら
れた複数のブロックからなる。図4Cは、シンクブロッ
クの構成を概略的に示す。詳細は後述するが、シンクブ
ロックは、同期検出するためのSYNCパターン、シン
クブロックのそれぞれを識別するためのID、後続する
データの内容を示すDID、データパケットおよびエラ
ー訂正用の内符号パリティから構成される。データは、
シンクブロック単位でパケットとして扱われる。すなわ
ち、記録あるいは再生されるデータ単位の最小のものが
1シンクブロックである。シンクブロックが多数並べら
れて(図4B)、例えばビデオセクタが形成される(図
4A)。As shown in FIG. 4B, data recorded on the tape is composed of a plurality of equally-spaced blocks called sync blocks. FIG. 4C schematically shows a configuration of the sync block. As will be described later in detail, the sync block is composed of a SYNC pattern for detecting synchronization, an ID for identifying each sync block, a DID indicating the content of subsequent data, a data packet, and an inner code parity for error correction. Is done. Data is,
It is treated as a packet in sync block units. That is, the smallest data unit to be recorded or reproduced is one sync block. A number of sync blocks are arranged (FIG. 4B) to form, for example, a video sector (FIG. 4A).
【0060】図5は、記録/再生の最小単位である、ビ
デオデータのシンクブロックのデータ構成をより具体的
に示す。この一実施形態においては、記録するビデオデ
ータのフォーマットに適応して1シンクブロックに対し
て1個乃至は2個のマクロブロックのデータ(VLCデ
ータ)が格納されると共に、1シンクブロックのサイズ
が扱うビデオ信号のフォーマットに応じて長さが変更さ
れる。図5Aに示されるように、1シンクブロックは、
先頭から、2バイトのSYNCパターン、2バイトのI
D、1バイトのDID、例えば112バイト〜206バ
イトの間で可変に規定されるデータ領域および12バイ
トのパリティ(内符号パリティ)からなる。なお、デー
タ領域は、ペイロードとも称される。FIG. 5 more specifically shows the data structure of a sync block of video data, which is the minimum unit of recording / reproduction. In this embodiment, one or two macroblocks of data (VLC data) are stored for one sync block according to the format of video data to be recorded, and the size of one sync block is reduced. The length is changed according to the format of the video signal to be handled. As shown in FIG. 5A, one sync block is
From the beginning, a 2-byte SYNC pattern, a 2-byte I
D, a 1-byte DID, for example, a data area variably defined between 112 bytes and 206 bytes, and a 12-byte parity (inner code parity). Note that the data area is also called a payload.
【0061】先頭の2バイトのSYNCパターンは、同
期検出用であり、所定のビットパターンを有する。固有
のパターンに対して一致するSYNCパターンを検出す
ることで、同期検出が行われる。The first two bytes of the SYNC pattern are used for synchronization detection and have a predetermined bit pattern. Synchronization detection is performed by detecting a SYNC pattern that matches the unique pattern.
【0062】図6Aは、ID0およびID1のビットア
サインの一例を示す。IDは、シンクブロックが固有に
持っている重要な情報を持っており、各2バイト(ID
0およびID1)が割り当てられている。ID0は、1
トラック中のシンクブロックのそれぞれを識別するため
の識別情報(SYNC ID)が格納される。SYNC
IDは、例えば各セクタ内のシンクブロックに対して
付された通し番号である。SYNC IDは、8ビット
で表現される。ビデオのシンクブロックとオーディオの
シンクブロックとでそれぞれ別個にSYNC IDが付
される。FIG. 6A shows an example of the bit assignment of ID0 and ID1. The ID has important information inherent to the sync block, and each ID has 2 bytes (ID
0 and ID1). ID0 is 1
The identification information (SYNC ID) for identifying each of the sync blocks in the track is stored. SYNC
The ID is, for example, a serial number assigned to a sync block in each sector. The SYNC ID is represented by 8 bits. SYNC IDs are separately assigned to video sync blocks and audio sync blocks.
【0063】ID1は、シンクブロックのトラックに関
する情報が格納される。MSB側をビット7、LSB側
をビット0とした場合、このシンクブロックに関して、
ビット7でトラックの上側(Upper)か下側(Lo
wer)かが示され、ビット5〜ビット2で、トラック
のセグメントが示される。また、ビット1は、トラック
のアジマスに対応するトラック番号が示され、ビット0
は、このシンクブロックがビデオデータおよびオーディ
オデータを区別するビットである。ID1 stores information on the track of the sync block. When the MSB side is bit 7 and the LSB side is bit 0, with respect to this sync block,
Bit 7 indicates whether the track is above (upper) or below (Lo)
wer), and bits 5 to 2 indicate the segment of the track. Bit 1 indicates the track number corresponding to the azimuth of the track.
Are bits for distinguishing video data and audio data by this sync block.
【0064】図6Bは、ビデオの場合のDIDのビット
アサインの一例を示す。DIDは、ペイロードに関する
情報が格納される。上述したID1のビット0の値に基
づき、ビデオおよびオーディオで、DIDの内容が異な
る。ビット7〜ビット4は、未定義(Reserve
d)とされている。ビット3および2は、ペイロードの
モードであり、例えばペイロードのタイプが示される。
ビット3および2は、補助的なものである。ビット1で
ペイロードに1個あるいは2個のマクロブロックが格納
されることが示される。ビット0でペイロードに格納さ
れるビデオデータが外符号パリティであるかどうかが示
される。FIG. 6B shows an example of bit assignment of DID in the case of video. The DID stores information related to the payload. The content of DID differs between video and audio based on the value of bit 0 of ID1 described above. Bits 7 to 4 are undefined (Reserve
d). Bits 3 and 2 are the mode of the payload, for example, indicating the type of the payload.
Bits 3 and 2 are auxiliary. Bit 1 indicates that one or two macroblocks are stored in the payload. Bit 0 indicates whether the video data stored in the payload is an outer code parity.
【0065】図6Cは、オーディオの場合のDIDのビ
ットアサインの一例を示す。ビット7〜ビット4は、R
eservedとされている。ビット3でペイロードに
格納されているデータがオーディオデータであるか、一
般的なデータであるかどうかが示される。ペイロードに
対して、圧縮符号化されたオーディオデータが格納され
ている場合には、ビット3がデータを示す値とされる。
ビット2〜ビット0は、NTSC方式における、5フィ
ールドシーケンスの情報が格納される。すなわち、NT
SC方式においては、ビデオ信号の1フィールドに対し
てオーディオ信号は、サンプリング周波数が48kHz
の場合、800サンプルおよび801サンプルの何れか
であり、このシーケンスが5フィールド毎に揃う。ビッ
ト2〜ビット0によって、シーケンスの何処に位置する
かが示される。FIG. 6C shows an example of bit assignment of DID in the case of audio. Bits 7-4 are R
Eserved. Bit 3 indicates whether the data stored in the payload is audio data or general data. If compression-encoded audio data is stored in the payload, bit 3 is a value indicating the data.
Bit 2 to bit 0 store information of a 5-field sequence in the NTSC system. That is, NT
In the SC system, the sampling frequency of an audio signal for one field of a video signal is 48 kHz.
Is either 800 samples or 801 samples, and this sequence is aligned every five fields. Bit 2 to bit 0 indicate where in the sequence it is located.
【0066】図5に戻って説明すると、図5B〜図5E
は、上述のペイロードの例を示す。図5Bおよび図5C
は、ペイロードに対して、1および2マクロブロックの
ビデオデータ(可変長符号化データ)が格納される場合
の例をそれぞれ示す。図5Bに示される、1マクロブロ
ックが格納される例では、先頭の3バイトに、後続する
マクロブロックの長さを示す長さ情報LTが配される。
なお、長さ情報LTには、自分自身の長さを含んでも良
いし、含まなくても良い。また、図5Cに示される、2
マクロブロックが格納される例では、先頭に第1のマク
ロブロックの長さ情報LTが配され、続けて第1のマク
ロブロックが配される。そして、第1のマクロブロック
に続けて第2のマクロブロックの長さを示す長さ情報L
Tが配され、続けて第2のマクロブロックが配される。
長さ情報LTは、デパッキングのために必要な情報であ
る。Referring back to FIG. 5, FIGS. 5B to 5E
Shows an example of the above-mentioned payload. 5B and 5C
Shows an example in which video data (variable-length coded data) of 1 and 2 macroblocks is stored for the payload, respectively. In the example shown in FIG. 5B in which one macroblock is stored, length information LT indicating the length of the following macroblock is arranged in the first three bytes.
The length information LT may or may not include its own length. 5C shown in FIG.
In an example in which a macroblock is stored, the length information LT of the first macroblock is arranged at the head, and the first macroblock is arranged subsequently. Then, length information L indicating the length of the second macroblock following the first macroblock
T is arranged, followed by a second macroblock.
The length information LT is information necessary for depacking.
【0067】図5Dは、ペイロードに対して、ビデオA
UX(補助的)データが格納される場合の例を示す。先
頭の長さ情報LTには、ビデオAUXデータの長さが記
される。この長さ情報LTに続けて、5バイトのシステ
ム情報、12バイトのPICT情報、および92バイト
のユーザ情報が格納される。ペイロードの長さに対して
余った部分は、Reservedとされる。FIG. 5D shows video A for the payload.
An example in which UX (auxiliary) data is stored will be described. The head length information LT describes the length of the video AUX data. Subsequent to the length information LT, 5-byte system information, 12-byte PICT information, and 92-byte user information are stored. The remaining portion of the payload length is reserved.
【0068】図5Eは、ペイロードに対してオーディオ
データが格納される場合の例を示す。オーディオデータ
は、ペイロードの全長にわたって詰め込むことができ
る。オーディオ信号は、圧縮処理などが施されない、例
えばPCM形式で扱われる。これに限らず、所定の方式
で圧縮符号化されたオーディオデータを扱うようにもで
きる。FIG. 5E shows an example in which audio data is stored in the payload. Audio data can be packed over the entire length of the payload. The audio signal is not subjected to compression processing or the like, and is handled in, for example, a PCM format. The present invention is not limited to this, and audio data compressed and encoded by a predetermined method can be handled.
【0069】この一実施形態においては、各シンクブロ
ックのデータの格納領域であるペイロードの長さは、ビ
デオシンクブロックとオーディオシンクブロックとでそ
れぞれ最適に設定されているため、互いに等しい長さで
はない。また、ビデオデータを記録するシンクブロック
の長さと、オーディオデータを記録するシンクブロック
の長さとを、信号フォーマットに応じてそれぞれ最適な
長さに設定される。これにより、複数の異なる信号フォ
ーマットを統一的に扱うことができる。In this embodiment, the length of the payload, which is the storage area for the data of each sync block, is set optimally for the video sync block and the audio sync block, and is not equal to each other. . In addition, the length of a sync block for recording video data and the length of a sync block for recording audio data are set to optimal lengths according to the signal format. Thereby, a plurality of different signal formats can be handled uniformly.
【0070】図7Aは、MPEGエンコーダのDCT回
路から出力されるビデオデータ中のDCT係数の順序を
示す。DCTブロックにおいて左上のDC成分から開始
して、水平ならびに垂直空間周波数が高くなる方向に、
DCT係数がジグザグスキャンで出力される。その結
果、図7Bに一例が示されるように、全部で64個(8
画素×8ライン)のDCT係数が周波数成分順に並べら
れて得られる。FIG. 7A shows the order of DCT coefficients in video data output from the DCT circuit of the MPEG encoder. Starting from the DC component at the upper left in the DCT block, in the direction where the horizontal and vertical spatial frequencies increase,
DCT coefficients are output by zigzag scan. As a result, as shown in an example in FIG. 7B, a total of 64 (8
DCT coefficients of (pixel × 8 lines) are obtained by being arranged in the order of frequency components.
【0071】このDCT係数がMPEGエンコーダのV
LC部によって可変長符号化される。すなわち、最初の
係数は、DC成分として固定的であり、次の成分(AC
成分)からは、ゼロのランとそれに続くレベルに対応し
てコードが割り当てられる。従って、AC成分の係数デ
ータに対する可変長符号化出力は、周波数成分の低い
(低次の)係数から高い(高次の)係数へと、AC1 ,
AC2 ,AC3 ,・・・と並べられたものである。可変
長符号化されたDCT係数をエレメンタリストリームが
含んでいる。The DCT coefficient is equal to the V of the MPEG encoder.
Variable length coding is performed by the LC unit. That is, the first coefficient is fixed as a DC component, and the next component (AC
From the component), codes are assigned corresponding to the run of zero and the subsequent level. Therefore, the variable-length coded output for the coefficient data of the AC component is converted from the low (low-order) coefficient of the frequency component to the high (high-order) coefficient of AC 1 ,
AC 2 , AC 3 ,... The elementary stream includes DCT coefficients subjected to variable length coding.
【0072】ストリームコンバータ106では、供給さ
れた信号のDCT係数の並べ替えが行われる。すなわ
ち、それぞれのマクロブロック内で、ジグザグスキャン
によってDCTブロック毎に周波数成分順に並べられた
DCT係数がマクロブロックを構成する各DCTブロッ
クにわたって周波数成分順に並べ替えられる。The stream converter 106 rearranges the DCT coefficients of the supplied signal. That is, in each macroblock, DCT coefficients arranged in order of frequency components for each DCT block by zigzag scan are rearranged in order of frequency components over each DCT block constituting the macroblock.
【0073】図8は、このストリームコンバータ106
におけるDCT係数の並べ替えを概略的に示す。(4:
2:2)コンポーネント信号の場合に、1マクロブロッ
クは、輝度信号Yによる4個のDCTブロック(Y1 ,
Y2 ,Y3 およびY4 )と、色度信号Cb,Crのそれ
ぞれによる2個ずつのDCTブロック(Cb1 ,C
b2 ,Cr1 およびCr2 )からなる。FIG. 8 shows this stream converter 106.
2 schematically shows the rearrangement of the DCT coefficients in. (4:
2: 2) In the case of a component signal, one macroblock is composed of four DCT blocks (Y 1 ,
Y 2, and Y 3 and Y 4), chroma signal Cb, DCT blocks (Cb 1 of every two according to each of Cr, C
b 2 , Cr 1 and Cr 2 ).
【0074】上述したように、ビデオエンコーダ102
では、MPEG2の規定に従いジグザグスキャンが行わ
れ、図8Aに示されるように、各DCTブロック毎に、
DCT係数がDC成分および低域成分から高域成分に、
周波数成分の順に並べられる。一つのDCTブロックの
スキャンが終了したら、次のDCTブロックのスキャン
が行われ、同様に、DCT係数が並べられる。As described above, the video encoder 102
Then, a zigzag scan is performed in accordance with the rules of MPEG2, and as shown in FIG. 8A, for each DCT block,
DCT coefficient is changed from DC component and low frequency component to high frequency component,
The frequency components are arranged in order. When scanning of one DCT block is completed, scanning of the next DCT block is performed, and similarly, DCT coefficients are arranged.
【0075】すなわち、マクロブロック内で、DCTブ
ロックY1 ,Y2 ,Y3 およびY4、DCTブロックC
b1 ,Cb2 ,Cr1 およびCr2 のそれぞれについ
て、DCT係数がDC成分および低域成分から高域成分
へと周波数順に並べられる。そして、連続したランとそ
れに続くレベルとからなる組に、〔DC,AC1 ,AC
2 ,AC3 ,・・・〕と、それぞれ符号が割り当てられ
るように、可変長符号化されている。That is, in the macro block, DCT blocks Y 1 , Y 2 , Y 3 and Y 4 , DCT block C 4
For each of b 1 , Cb 2 , Cr 1 and Cr 2 , the DCT coefficients are arranged in order of frequency from the DC component and the low-frequency component to the high-frequency component. Then, [DC, AC 1 , AC
2, AC 3, and..], So that codes are assigned, it is variable length coded.
【0076】ストリームコンバータ106では、可変長
符号化され並べられたDCT係数を、一旦可変長符号を
解読して各係数の区切りを検出し、マクロブロックを構
成する各DCTブロックに跨がって周波数成分毎にまと
める。この様子を、図8Bに示す。最初にマクロブロッ
ク内の8個のDCTブロックのDC成分をまとめ、次に
8個のDCTブロックの最も周波数成分が低いAC係数
成分をまとめ、以下、順に同一次数のAC係数をまとめ
るように、8個のDCTブロックに跨がって係数データ
を並び替える。In the stream converter 106, the variable-length coded and arranged DCT coefficients are once decoded into variable-length codes to detect the breaks of each coefficient, and the frequency is spread over each DCT block constituting a macroblock. Summarize by component. This is shown in FIG. 8B. First, the DC components of the eight DCT blocks in the macroblock are summarized, the AC coefficient components of the eight DCT blocks having the lowest frequency components are summarized, and the AC coefficients of the same order are grouped in order. The coefficient data is rearranged across the DCT blocks.
【0077】並び替えられた係数データは、DC
(Y1 ),DC(Y2 ),DC(Y3 ),DC
(Y4 ),DC(Cb1 ),DC(Cb2 ),DC(C
r1 ),DC(Cr2 ),AC1 (Y1 ),AC1 (Y
2 ),AC1 (Y3 ),AC1 (Y4 ),AC1 (Cb
1 ),AC1 (Cb2 ),AC1 (Cr1 ),AC
1 (Cr2 ),・・・である。ここで、DC、AC1 、
AC2 、・・・は、図7を参照して説明したように、ラ
ンとそれに続くレベルとからなる組に対して割り当てら
れた可変長符号の各符号である。The rearranged coefficient data is DC
(Y 1 ), DC (Y 2 ), DC (Y 3 ), DC
(Y 4 ), DC (Cb 1 ), DC (Cb 2 ), DC (C
r 1 ), DC (Cr 2 ), AC 1 (Y 1 ), AC 1 (Y
2 ), AC 1 (Y 3 ), AC 1 (Y 4 ), AC 1 (Cb
1 ), AC 1 (Cb 2 ), AC 1 (Cr 1 ), AC
1 (Cr 2 ),. Where DC, AC 1 ,
AC 2 ,... Are, as described with reference to FIG. 7, each of the variable-length codes assigned to the set consisting of the run and the subsequent level.
【0078】ストリームコンバータ106で係数データ
の順序が並べ替えられた変換エレメンタリストリーム
は、パッキングおよびシャフリング部107に供給され
る。マクロブロックのデータの長さは、変換エレメンタ
リストリームと変換前のエレメンタリストリームとで同
一である。また、ビデオエンコーダ102において、ビ
ットレート制御によりGOP(1フレーム)単位に固定
長化されていても、マクロブロック単位では、長さが変
動している。パッキングおよびシャフリング部107で
は、マクロブロックのデータを固定枠に当てはめる。The converted elementary stream in which the order of the coefficient data has been rearranged by the stream converter 106 is supplied to the packing and shuffling unit 107. The data length of the macroblock is the same for the converted elementary stream and the elementary stream before conversion. In the video encoder 102, even if the length is fixed in GOP (one frame) units by bit rate control, the length varies in macroblock units. The packing and shuffling unit 107 applies the data of the macroblock to the fixed frame.
【0079】図9は、パッキングおよびシャフリング部
107でのマクロブロックのパッキング処理を概略的に
示す。マクロブロックは、所定のデータ長を持つ固定枠
に当てはめられ、パッキングされる。このとき用いられ
る固定枠のデータ長を、記録および再生の際のデータの
最小単位であるシンクブロック長と一致させている。こ
れは、シャフリングおよびエラー訂正符号化の処理を簡
単に行うためである。図9では、簡単のため、1フレー
ムに8マクロブロックが含まれるものと仮定する。FIG. 9 schematically shows a packing process of a macroblock in the packing and shuffling unit 107. The macro block is applied to a fixed frame having a predetermined data length and is packed. The data length of the fixed frame used at this time is matched with the sync block length, which is the minimum unit of data during recording and reproduction. This is to simplify the processing of shuffling and error correction coding. In FIG. 9, for simplicity, it is assumed that one frame includes eight macroblocks.
【0080】可変長符号化によって、図9Aに一例が示
されるように、8マクロブロックの長さは、互いに異な
る。この例では、固定枠である1シンクブロックの長さ
と比較して、マクロブロック#1のデータ,#3のデー
タおよび#6のデータがそれぞれ長く、マクロブロック
#2のデータ,#5のデータ,#7のデータおよび#8
のデータがそれぞれ短い。また、マクロブロック#4の
データは、1シンクブロックと略等しい長さである。As shown in an example in FIG. 9A, the lengths of eight macroblocks are different from each other due to the variable length coding. In this example, as compared with the length of one sync block, which is a fixed frame, the data of macro block # 1, the data of # 3 and the data of # 6 are each longer, and the data of macro block # 2, the data of # 5, # 7 data and # 8
The data of each is short. The data of the macro block # 4 has a length substantially equal to one sync block.
【0081】パッキング処理によって、マクロブロック
が1シンクブロック長の固定長枠に詰め込まれる。過不
足無くデータを詰め込むことができるのは、1フレーム
期間で発生するデータ量が固定量に制御されているから
である。図9Bに一例が示されるように、1シンクブロ
ックと比較して長いマクロブロックは、シンクブロック
長に対応する位置で分割される。分割されたマクロブロ
ックのうち、シンクブロック長からはみ出た部分(オー
バーフロー部分)は、先頭から順に空いている領域に、
すなわち、長さがシンクブロック長に満たないマクロブ
ロックの後ろに、詰め込まれる。By the packing process, macro blocks are packed into a fixed-length frame having a length of one sync block. Data can be packed without excess or shortage because the amount of data generated in one frame period is controlled to a fixed amount. As shown in an example in FIG. 9B, a macroblock longer than one sync block is divided at a position corresponding to the sync block length. Of the divided macroblocks, the part (overflow part) that protrudes from the sync block length is placed in an area that is vacant in order from the top,
That is, it is packed after a macroblock whose length is less than the sync block length.
【0082】図9Bの例では、マクロブロック#1の、
シンクブロック長からはみ出た部分が、先ず、マクロブ
ロック#2の後ろに詰め込まれ、そこがシンクブロック
の長さに達すると、マクロブロック#5の後ろに詰め込
まれる。次に、マクロブロック#3の、シンクブロック
長からはみ出た部分がマクロブロック#7の後ろに詰め
込まれる。さらに、マクロブロック#6のシンクブロッ
ク長からはみ出た部分がマクロブロック#7の後ろに詰
め込まれ、さらにはみ出た部分がマクロブロック#8の
後ろに詰め込まれる。こうして、各マクロブロックがシ
ンクブロック長の固定枠に対してパッキングされる。In the example of FIG. 9B, the macro block # 1
The portion that exceeds the sync block length is first packed after the macro block # 2, and when it reaches the length of the sync block, it is packed after the macro block # 5. Next, the portion of the macro block # 3 that is outside the sync block length is packed behind the macro block # 7. Further, the part of the macro block # 6 that protrudes from the sync block length is packed after the macro block # 7, and the part that protrudes further is packed after the macro block # 8. Thus, each macroblock is packed in a fixed frame of the sync block length.
【0083】各マクロブロックの長さは、ストリームコ
ンバータ106において予め調べておくことができる。
これにより、このパッキング部107では、VLCデー
タをデコードして内容を検査すること無く、マクロブロ
ックのデータの最後尾を知ることができる。The length of each macroblock can be checked in advance by the stream converter 106.
As a result, the packing unit 107 can know the end of the data of the macro block without decoding the VLC data and checking the contents.
【0084】図10は、一実施形態で使用されるエラー
訂正符号の一例を示し、図10Aは、ビデオデータに対
するエラー訂正符号の1ECCブロックを示し、図10
Bは、オーディオデータに対するエラー訂正符号の1E
CCブロックを示す。図10Aにおいて、VLCデータ
がパッキングおよびシャフリング部107からのデータ
である。VLCデータの各行に対して、SYNCパター
ン、ID、DIDが付加され、さらに、内符号のパリテ
ィが付加されることによって、1SYNCブロックが形
成される。FIG. 10 shows an example of an error correction code used in one embodiment. FIG. 10A shows one ECC block of an error correction code for video data.
B is 1E of an error correction code for audio data.
Indicates a CC block. In FIG. 10A, VLC data is data from the packing and shuffling unit 107. A SYNC pattern, ID, and DID are added to each row of the VLC data, and a parity of an inner code is added to form one SYNC block.
【0085】すなわち、VLCデータの配列の垂直方向
に整列する所定数のシンボル(バイト)から10バイト
の外符号のパリティが生成され、その水平方向に整列す
る、ID、DIDおよびVLCデータ(または外符号の
パリティ)の所定数のシンボル(バイト)から内符号の
パリティが生成される。図10Aの例では、10個の外
符号パリティのシンボルと、12個の内符号のパリティ
のシンボルとが付加される。具体的なエラー訂正符号と
しては、リードソロモン符号が使用される。また、図1
0Aにおいて、1SYNCブロック内のVLCデータの
長さが異なるのは、59.94Hz、25Hz、23.97
6Hzのように、ビデオデータのフレーム周波数が異なる
のと対応するためである。That is, a 10-byte parity of the outer code is generated from a predetermined number of symbols (bytes) aligned in the vertical direction of the array of VLC data, and the ID, DID, and VLC data (or outer) are aligned in the horizontal direction. Parity of the inner code is generated from a predetermined number of symbols (bytes) of the code parity. In the example of FIG. 10A, 10 outer code parity symbols and 12 inner code parity symbols are added. As a specific error correction code, a Reed-Solomon code is used. FIG.
At 0A, the difference between the lengths of VLC data in one SYNC block is 59.94 Hz, 25 Hz, and 23.97.
This is because the frame frequency of video data is different, such as 6 Hz.
【0086】図10Bに示すように、オーディオデータ
に対する積符号もビデオデータに対するものと同様に、
10シンボルの外符号のパリティおよび12シンボルの
内符号のパリティを生成するものである。オーディオデ
ータの場合は、サンプリング周波数が例えば48kHzと
され、1サンプルが24ビットに量子化される。1サン
プルを他のビット数例えば16ビットに変換しても良
い。上述したフレーム周波数の相違に応じて、1SYN
Cブロック内のオーディオデータの量が相違している。
前述したように、1フィールド分のオーディオデータ/
1チャンネルによって2ECCブロックが構成される。
1ECCブロックには、偶数番目および奇数番目の一方
のオーディオサンプルとオーディオAUXとがデータと
して含まれる。As shown in FIG. 10B, the product code for audio data is the same as that for video data.
The parity of the 10-symbol outer code and the parity of the 12-symbol inner code are generated. In the case of audio data, the sampling frequency is, for example, 48 kHz, and one sample is quantized to 24 bits. One sample may be converted to another number of bits, for example, 16 bits. According to the difference in the frame frequency described above, 1SYN
The amount of audio data in the C block is different.
As described above, one field of audio data /
One channel forms two ECC blocks.
One ECC block includes one of even-numbered and odd-numbered audio samples and audio AUX as data.
【0087】図11は、上述したこの一実施形態の記録
側の構成をクロック信号に注目して表すものである。ビ
デオ入力処理部には、可変長データをシンクブロックの
データ領域に詰め込むパッキングと、マクロブロックの
画面上の位置とテープ上の記録位置とを相関のないもの
とするシャフリングとを行う、パッキングおよびシャフ
リング部107が含まれる。オーディオデータ入力処理
部には、遅延部113とAUX付加部114とが含まれ
る。遅延部113は、ビデオデータとの時間合わせのた
めに設けられている。AUXは、補助的データであり、
オーディオデータのサンプリング周波数等のオーディオ
データに関連する情報を有するデータである。オーディ
オAUXは、オーディオデータと同等に扱われる。FIG. 11 shows the configuration on the recording side of this embodiment described above, focusing on the clock signal. The video input processing unit performs packing, which packs variable-length data into the data area of the sync block, and shuffling, which makes the position of the macroblock on the screen and the recording position on the tape uncorrelated. A shuffling unit 107 is included. The audio data input processing unit includes a delay unit 113 and an AUX adding unit 114. The delay unit 113 is provided for time alignment with video data. AUX is auxiliary data,
This is data having information related to audio data such as the sampling frequency of audio data. Audio AUX is treated the same as audio data.
【0088】前述したように、従来では、ビデオ入力処
理部の動作クロックckvまたはそれに関連するクロッ
ク(例えば2倍の周波数のクロック)でメイン処理部を
動作させるのが普通であった。この一実施形態では、ク
ロックckvとは独立したクロックckmによってメイ
ン処理部が動作する構成とされている。動作クロックc
kmは、ビデオ入力処理部のクロックckvおよびオー
ディオ入力処理部のクロックckmと異なる周波数であ
る。この一実施形態では、クロックの周波数関係は、c
kvの周波数<ckmの周波数に選ばれる。また、メイ
ン処理部の動作クロックckmを記録データのフォーマ
ットに対応して変更することが可能とされている。例え
ば記録データのデータ量が多いフォーマットの場合に
は、クロックckmの周波数が高いものとされる。さら
に、動作クロックの周波数が異なる処理部の間で、デー
タの伝送をするためのインターフェースとして、FIF
O162および163が設けられている。FIFOは、
例えばRAMで構成されており、入力データレートから
出力データレートへのレート変換を行う。As described above, conventionally, the main processing unit is usually operated with the operation clock ckv of the video input processing unit or a clock related thereto (for example, a clock having a double frequency). In this embodiment, the main processing unit operates by a clock ckm independent of the clock ckv. Operation clock c
km is a frequency different from the clock ckv of the video input processing unit and the clock ckm of the audio input processing unit. In this embodiment, the clock frequency relationship is c
The frequency of kv is selected as the frequency of ckm. Further, the operation clock ckm of the main processing unit can be changed according to the format of the recording data. For example, in the case of a format in which the amount of recording data is large, the frequency of the clock ckm is set to be high. Further, as an interface for transmitting data between the processing units having different operation clock frequencies, the
O162 and 163 are provided. FIFO is
For example, it is constituted by a RAM, and performs rate conversion from an input data rate to an output data rate.
【0089】また、メイン処理部の構成は、図14に示
す構成と異なる。これは、パッキング、外符号エンコー
ド、シャフリングの処理が異なるからである。図14の
処理について説明すると、まず、固定枠に収まる長さ
(固定枠長)のデータパケットとこれをはみ出すオーバ
ーフロー部分とに分け、固定枠長のデータパケットをメ
インメモリ(SDRAM)に書込み、オーバーフロー部
分を専用のメモリに書込む。そして、メインメモリに書
込まれているデータパケットのうちで、固定枠より短い
データパケットの後ろの空いている領域にオーバーフロ
ー部分を順に書込む。この処理が1フレーム分なされ
る。The configuration of the main processing section is different from the configuration shown in FIG. This is because packing, outer code encoding, and shuffling processing are different. The process of FIG. 14 will be described. First, a data packet having a length (fixed frame length) that fits in a fixed frame and an overflow portion that protrudes from the data packet are divided, and the data packet having the fixed frame length is written into a main memory (SDRAM). Write the part to dedicated memory. Then, of the data packets written in the main memory, the overflow portion is sequentially written in an empty area after the data packet shorter than the fixed frame. This process is performed for one frame.
【0090】次に、メインメモリから外符号の符号系列
のデータを読出し、外符号の符号化を行う。生成した外
符号のパリティを再びメインメモリに書込む。このメイ
ンメモリへの書込みアドレスを制御することによって、
シンクブロック単位のシャフリングがなされる。1トラ
ック分、または1フィールドあるいは1フレームを構成
する複数トラック分の外符号の符号化が終了すると、メ
インメモリからデータおよび外符号のパリティを読出し
て、内符号エンコーダに供給するようになされる。この
ように、図14に示す構成では、パッキングと外符号の
符号化とを独立して行なわれていた。Next, the data of the code series of the outer code is read from the main memory, and the outer code is encoded. The parity of the generated outer code is written into the main memory again. By controlling the write address to this main memory,
Shuffling is performed in sync block units. When the encoding of the outer code for one track or for a plurality of tracks constituting one field or one frame is completed, the data and the parity of the outer code are read from the main memory and supplied to the inner code encoder. As described above, in the configuration shown in FIG. 14, the packing and the encoding of the outer code are performed independently.
【0091】一方、この一実施形態では、各マクロブロ
ックの長さ情報LTを参照することによって、固定枠長
データとオーバーフロー部分とをメインメモリ(SDR
AM)160の別々の領域に分けて記憶する。固定枠長
データを記憶する領域は、メインメモリ160のパッキ
ング処理用領域である。固定枠長より短いデータ長の場
合には、メインメモリ160の対応する固定枠に空き領
域を生じる。この書込み時のアドレスを制御すること
で、シャフリングを行う。On the other hand, in this embodiment, the fixed frame length data and the overflow portion are stored in the main memory (SDR) by referring to the length information LT of each macroblock.
AM) 160 and stored separately. The area for storing the fixed frame length data is a packing processing area of the main memory 160. If the data length is shorter than the fixed frame length, an empty area is created in the corresponding fixed frame of the main memory 160. Shuffling is performed by controlling the address at the time of writing.
【0092】次に、メインメモリ160から外符号エン
コーダ109に用意されている1ECCブロック分のメ
モリに対して固定枠長のデータを読み込み、若し、固定
枠長のデータに空き領域が有れば、そこにオーバーフロ
ー部分を読み込んで固定枠長にデータが詰まるようにす
る。そして、1ECCブロック分のデータを読み込む
と、読み込み処理を一時中断し、外符号エンコーダ10
9によって外符号のパリティを生成する。外符号パリテ
ィは、外符号エンコーダ109のメモリに格納する。外
符号エンコーダ109の処理が1ECCブロック分終了
すると、外符号エンコーダ109からデータおよび外符
号パリティを内符号を行う順序に並び替えて、メインメ
モリ160のパッキング処理用領域と別の内符号処理用
領域に書き戻す。この外符号の符号化が終了したデータ
をメインメモリ160へ書き戻す時のアドレスを制御す
ることによって、シンクブロック単位のシャフリング
(シャフリング部110)を行うことができる。Next, data of a fixed frame length is read from the main memory 160 into a memory for one ECC block prepared in the outer code encoder 109, and if there is an empty area in the data of the fixed frame length, Then, the overflow part is read there and the data is packed into the fixed frame length. When the data for one ECC block is read, the reading process is temporarily suspended, and the outer code encoder 10
9, the parity of the outer code is generated. The outer code parity is stored in the memory of the outer code encoder 109. When the processing of the outer code encoder 109 is completed for one ECC block, the data and the outer code parity are rearranged from the outer code encoder 109 in the order of performing the inner code, and the packing processing area of the main memory 160 and another inner code processing area. Write back to The shuffling (shuffling unit 110) in sync block units can be performed by controlling the address at which the data in which the encoding of the outer code has been completed is written back to the main memory 160.
【0093】このような固定枠長とオーバーフロー部分
とを分けてメインメモリ160の第1の領域へのデータ
の書込み(第1のパッキング処理)、外符号エンコーダ
109へのメモリにオーバーフロー部分をパッキングし
て読み込む処理(第2のパッキング処理)、外符号パリ
ティの生成、データおよび外符号パリティをメインメモ
リ160の第2の領域に書き戻す処理が1ECCブロッ
ク単位でなされる。外符号エンコーダ109がECCブ
ロックのサイズのメモリを備えることによって、メイン
メモリ160へのアクセスの頻度を図14に示す構成と
比較して少なくすることができる。The fixed frame length and the overflow portion are separated so that data is written to the first area of the main memory 160 (first packing process), and the overflow portion is packed in the memory for the outer code encoder 109. The process of reading the data (the second packing process), the process of generating the outer code parity, and the process of writing back the data and the outer code parity to the second area of the main memory 160 are performed in units of one ECC block. Since the outer code encoder 109 includes the memory having the size of the ECC block, the frequency of access to the main memory 160 can be reduced as compared with the configuration shown in FIG.
【0094】そして、1ピクチャに含まれる所定数のE
CCブロック(例えば32個のECCブロック)の処理
が終了すると、1ピクチャのパッキング、外符号の符号
化が終了する。そして、メインメモリ160の内符号処
理用領域から読出したデータ、外符号のパリティがFI
FO161を介して出力処理部に供給され、ID付加部
118でIDが付加され、次に、内符号エンコーダ11
9で内符号のパリティが付加される。A predetermined number of Es included in one picture
When the processing of the CC block (for example, 32 ECC blocks) is completed, the packing of one picture and the encoding of the outer code are completed. The data read from the inner code processing area of the main memory 160 and the parity of the outer code are FI
It is supplied to the output processing unit via the FO 161, the ID is added by the ID adding unit 118,
At 9, the parity of the inner code is added.
【0095】なお、ECCブロック内にヌルシンクと称
する有効なデータが配されないシンクブロックを導入
し、記録ビデオ信号のフォーマットの違いに対してEC
Cブロックの構成の柔軟性を持たせるようにしても良
い。ヌルシンクは、パッキングおよびシャフリングブロ
ック107において生成され、メインメモリ160に書
込まれる。従って、ヌルシンクがデータ記録領域を持つ
ことになるので、これをオーバーフロー部分の記録用シ
ンクとして使用することができる。It is to be noted that a sync block called null sync, in which valid data is not arranged, is introduced into the ECC block, and the ECC block is provided with an ECC block for the difference in recording video signal format.
The flexibility of the configuration of the C block may be provided. The null sync is generated in the packing and shuffling block 107 and written to the main memory 160. Therefore, since the null sync has a data recording area, it can be used as a recording sync for the overflow portion.
【0096】オーディオデータの場合では、1フィール
ドのオーディオデータの偶数番目のサンプルと奇数番目
のサンプルとがそれぞれ別のECCブロックを構成す
る。ECCの外符号の系列は、入力順序のオーディオサ
ンプルで構成されるので、外符号系列のオーディオサン
プルが入力される毎に外符号エンコーダ116が外符号
パリティを生成する。外符号エンコーダ116の出力を
メインメモリに書込む時のアドレス制御によって、シャ
フリング部117がシャフリング(チャンネル単位およ
びシンクブロック単位)を行う。In the case of audio data, even-numbered samples and odd-numbered samples of one-field audio data form different ECC blocks. Since the ECC outer code sequence is composed of audio samples in the input order, the outer code encoder 116 generates an outer code parity each time an outer code sequence audio sample is input. The shuffling unit 117 performs shuffling (channel units and sync block units) by address control when writing the output of the outer code encoder 116 to the main memory.
【0097】図12は、この発明の一実施形態のより具
体的な構成を示す。図12において、164がメインメ
モリ160のインターフェースである。インターフェー
ス164によって、メインメモリ160の書込み/読出
し動作が制御される。また、パッキング部107a、ビ
デオシャフリング部107b、パッキング部107cに
よって、パッキングおよびシャフリング部107が構成
される。FIG. 12 shows a more specific configuration of one embodiment of the present invention. In FIG. 12, reference numeral 164 denotes an interface of the main memory 160. The interface 164 controls a write / read operation of the main memory 160. The packing and shuffling unit 107 is constituted by the packing unit 107a, the video shuffling unit 107b, and the packing unit 107c.
【0098】すなわち、パッキング部107aが固定枠
長とオーバーフロー部分とを分けてメインメモリ160
の第1の領域へのデータの書込み(第1のパッキング処
理)を受け持つ。ビデオシャフリング部107bがこの
書込みアドレスを制御することによってシャフリングを
行う。パッキング部107cが外符号エンコーダ109
へのメモリにオーバーフロー部分をパッキングして読み
込む処理(第2のパッキング処理)を行う。ビデオシャ
フリング部110は、データおよび外符号パリティをメ
インメモリ160の第2の領域に書き戻す処理を行い、
この書き戻す処理のアドレスを制御することによってシ
ャフリングを行う。That is, the packing unit 107a separates the fixed frame length and the overflow portion from each other and separates them from the main memory 160.
In the first area (first packing process). The video shuffling unit 107b performs shuffling by controlling the write address. Packing unit 107c is outer code encoder 109
(The second packing process) of packing and reading the overflow portion into the memory to the memory. The video shuffling unit 110 performs a process of writing the data and the outer code parity back to the second area of the main memory 160,
Shuffling is performed by controlling the address of the rewriting process.
【0099】また、図12に示すように、インターフェ
ース164を介してメインメモリ160から読出したデ
ータがID付加部118、内符号エンコーダ119、同
期付加部120で処理され、並列直列変換部124によ
って、同期付加部120の出力データがビットシリアル
データに変換される。出力されるシリアルデータがパー
シャル・レスポンスクラス4のプリコーダ125により
処理される。この出力が必要に応じてディジタル変調さ
れ、記録アンプ121を介して回転ヘッドに供給され
る。As shown in FIG. 12, the data read from the main memory 160 via the interface 164 is processed by the ID addition section 118, the inner code encoder 119, and the synchronization addition section 120. The output data of the synchronization adding section 120 is converted into bit serial data. The output serial data is processed by the partial response class 4 precoder 125. This output is digitally modulated as necessary, and supplied to the rotary head via the recording amplifier 121.
【0100】さらに、126で示すCPUインターフェ
ースが設けられ、システムコントローラとして機能する
CPU127からのデータを受け取ることが可能とされ
ている。このデータとしては、シャフリングテーブルデ
ータ、記録ビデオ信号のフォーマットに関連するパラメ
ータ等である。シャフリングテーブルデータによって、
ビデオ用シャフリングテーブル128vおよびオーディ
オ用シャフリングテーブル128aが構成される。シャ
フリングテーブル128vは、ビデオシャフリング部1
07bおよび110のシャフリングのためのアドレス変
換を行う。シャフリングテーブル128aは、オーディ
オシャフリング117のためのアドレス変換を行う。Further, a CPU interface denoted by 126 is provided, and can receive data from the CPU 127 functioning as a system controller. This data includes shuffling table data, parameters related to the format of the recording video signal, and the like. By shuffling table data,
A video shuffling table 128v and an audio shuffling table 128a are configured. The shuffling table 128v is used for the video shuffling unit 1
Address conversion for shuffling of 07b and 110 is performed. The shuffling table 128a performs an address conversion for the audio shuffling 117.
【0101】上述したように、この発明の一実施形態で
は、メイン処理部の動作クロックckmを入力処理部の
動作クロックckvより高い周波数に選定している。図
13は、クロックckvおよびckrfが一定であっ
て、メイン処理部の動作クロックckmを変更した時の
処理の概略を示す。図13Aは、入力ビデオデータと同
期するビデオフレームを示す。入力ビデオフレームと同
期して図13Bに示すように、入力処理部が動作する。
P1、P2、・・・が入力処理部が各フレームのデータ
を処理する期間を表す。As described above, in one embodiment of the present invention, the operation clock ckm of the main processing unit is selected to be higher in frequency than the operation clock ckv of the input processing unit. FIG. 13 shows an outline of processing when the clock ckv and ckrf are constant and the operation clock ckm of the main processing unit is changed. FIG. 13A shows a video frame synchronized with the input video data. The input processing unit operates as shown in FIG. 13B in synchronization with the input video frame.
P1, P2,... Represent periods during which the input processing unit processes data of each frame.
【0102】メイン処理部は、図13Cにおいて、P1
1、P12、・・・で示すように各フレームのデータを
それぞれ処理する。そして、図13Dにおいて、P2
1、P22、・・・で示すように、出力処理部が処理を
行う。メイン処理部の動作クロックckmをより高くす
ると、図13Eにおいて、P31、P32、・・・で示
すように、メイン処理部の処理にかかる時間が短くな
り、P41、P42、・・・で示すように、出力処理部
が処理を開始するタイミングが早くなる。従って、入力
処理部がデータ処理を開始してから出力処理部が処理を
開始する遅延時間をTd1、Td2で示すように、動作
クロックckmの周波数によって調整することが可能と
なる。言い換えれば、記録するビデオデータのフォーマ
ットが異なるために、メイン処理部が処理すべき1フレ
ーム(1ピクチャ)分のデータ量が相違する場合でも、
クロックckmの周波数を調整して遅延時間を一定とす
ることができる。In FIG. 13C, the main processing unit sets P1
The data of each frame is processed as indicated by 1, P12,.... Then, in FIG. 13D, P2
As shown by 1, P22,..., The output processing unit performs processing. When the operation clock ckm of the main processing unit is further increased, as shown by P31, P32,... In FIG. 13E, the time required for the processing of the main processing unit becomes shorter, and as shown by P41, P42,. In addition, the timing at which the output processing unit starts processing is advanced. Therefore, the delay time from when the input processing unit starts data processing to when the output processing unit starts processing can be adjusted by the frequency of the operation clock ckm as indicated by Td1 and Td2. In other words, even if the data amount of one frame (one picture) to be processed by the main processing unit is different because the format of the video data to be recorded is different,
The delay time can be made constant by adjusting the frequency of the clock ckm.
【0103】入力処理部およびメイン処理部の動作クロ
ックが共に入力ビデオデータのレートによって決まる周
波数のクロックで動作する時には、図13Gにおいて、
P51、P52、・・・で示すメイン処理部の処理、並
びに図13Hにおいて、P61、P62、・・・で示す
出力処理部の処理のタイミングから分かるように、遅延
時間Td3が固定されてしまう。When the operation clocks of the input processing section and the main processing section both operate with a clock having a frequency determined by the rate of the input video data, in FIG.
13H, the delay time Td3 is fixed, as can be seen from the timing of the processing of the main processing unit indicated by P51, P52,... And the processing of the output processing unit indicated by P61, P62,.
【0104】なお、この発明では、メイン処理部の処理
を並列化するなどして、メイン処理部の動作クロックc
kmを入力処理部の動作クロックckvの周波数よりも
低くしても良い。メイン処理部の処理が極めて多く、メ
モリや外部素子に対するアクセスが非常に多い場合であ
っ、メイン処理部の処理が短時間に集中しているときに
は、その瞬間だけ回路負荷が重くなることがある。記録
信号処理部を集積回路化する時に、特定の回路部分の負
荷が重くなると、その集積度によっては、集積回路の電
源に影響を及ぼし、ひいては記録信号処理部を利用する
装置に対して電源を揺さぶることになりかねない。その
場合に、上述したように、メイン処理部の動作クロック
ckmの周波数を入力処理部の動作クロックckvのも
のより低くすれば、処理を分散でき、それによって瞬間
的に負荷が重くなることを防止することが可能となる。In the present invention, the operation clock c of the main processing unit is set by parallelizing the processing of the main processing unit.
km may be lower than the frequency of the operation clock ckv of the input processing unit. In the case where the processing of the main processing unit is extremely large and the access to the memory and the external elements is extremely large, and when the processing of the main processing unit is concentrated in a short time, the circuit load may become heavy only at that moment. When the recording signal processing unit is integrated into a circuit, if the load on a specific circuit part becomes heavy, it may affect the power supply of the integrated circuit depending on the degree of integration, and thus the power supply to the device using the recording signal processing unit. It could be shaken. In this case, as described above, if the frequency of the operation clock ckm of the main processing unit is lower than that of the operation clock ckv of the input processing unit, the processing can be dispersed, thereby preventing an instantaneous increase in load. It is possible to do.
【0105】なお、この発明は、テープ以外の記録媒体
例えばディスク状記録媒体に対してデータを記録する場
合にも適用することができる。The present invention can be applied to a case where data is recorded on a recording medium other than a tape, for example, a disc-shaped recording medium.
【0106】[0106]
【発明の効果】この発明では、入力処理部がビデオデー
タと同期した動作クロックで動作するのに対して、入力
処理部の動作クロックとは独立した動作クロックによっ
てメイン処理部が動作できる。従って、フレーム周波数
の違う複数のビデオデータに対してメイン処理部を別々
に設計することを不要とでき、また、メイン処理部の処
理により生じる遅延時間を調整したり、さらに、メイン
処理部において処理が集中することによって、電源の負
荷が瞬間的に重くなることを防止することができる。According to the present invention, while the input processing section operates with the operation clock synchronized with the video data, the main processing section can operate with the operation clock independent of the operation clock of the input processing section. Therefore, it is not necessary to separately design a main processing unit for a plurality of video data having different frame frequencies, and it is also possible to adjust a delay time caused by the processing of the main processing unit, and further to process the main processing unit. Concentration can prevent the load on the power supply from becoming momentarily heavy.
【図1】この発明の一実施形態の記録側の構成を示すブ
ロック図である。FIG. 1 is a block diagram showing a configuration on a recording side according to an embodiment of the present invention.
【図2】この発明の一実施形態の再生側の構成を示すブ
ロック図である。FIG. 2 is a block diagram showing a configuration of a reproducing side according to an embodiment of the present invention.
【図3】トラックフォーマットの一例を示す略線図であ
る。FIG. 3 is a schematic diagram illustrating an example of a track format.
【図4】トラックフォーマットの他の例を示す略線図で
ある。FIG. 4 is a schematic diagram illustrating another example of a track format.
【図5】シンクブロックの構成の複数の例を示す略線図
である。FIG. 5 is a schematic diagram illustrating a plurality of examples of a configuration of a sync block.
【図6】シンクブロックに付加されるIDおよびDID
の内容を示す略線図である。FIG. 6 shows an ID and a DID added to a sync block.
FIG.
【図7】ビデオエンコーダの出力の方法と可変長符号化
を説明するための略線図である。FIG. 7 is a schematic diagram for explaining an output method of a video encoder and variable-length encoding.
【図8】ビデオエンコーダの出力の順序の並び替えを説
明するための略線図である。FIG. 8 is a schematic diagram for explaining rearrangement of an output order of a video encoder.
【図9】順序の並び替えられたデータをシンクブロック
にパッキングする処理を説明するための略線図である。FIG. 9 is a schematic diagram for explaining a process of packing data rearranged in order into a sync block.
【図10】ビデオデータおよびオーディオデータに対す
るエラー訂正符号を説明するための略線図である。FIG. 10 is a schematic diagram for explaining an error correction code for video data and audio data.
【図11】この発明の一実施形態をクロック系統に基づ
いて示すブロック図である。FIG. 11 is a block diagram showing an embodiment of the present invention based on a clock system.
【図12】記録信号処理部のより具体的なブロック図で
ある。FIG. 12 is a more specific block diagram of a recording signal processing unit.
【図13】記録信号処理部の処理の流れを概念的に示す
タイミングチャートである。FIG. 13 is a timing chart conceptually showing a processing flow of a recording signal processing unit.
【図14】この発明の説明の参考に使用した記録信号処
理部の一例のブロック図である。FIG. 14 is a block diagram of an example of a recording signal processing unit used for reference of the description of the present invention.
107・・・パッキングおよびシャフリング部、10
9、116・・・外符号エンコーダ、110、117・
・・シャフリング部、118・・・ID付加部、120
・・・同期付加部、160・・・メインメモリ107 ... packing and shuffling part, 10
9, 116 ... outer code encoder, 110, 117
..Shuffling section, 118... ID adding section, 120
... Synchronization addition unit, 160 ... Main memory
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G11B 20/18 572 G11B 20/18 572B 572G // H04N 5/92 H04N 5/92 H Fターム(参考) 5C053 FA03 FA22 GA01 GA11 GB07 GB10 GB11 GB15 GB18 GB22 GB26 GB32 GB38 JA05 JA12 JA21 KA01 KA18 LA15 5D044 AB05 AB07 BC01 CC01 DE14 DE32 DE37 DE68 EF03 FG21 GL28 GM17 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G11B 20/18 572 G11B 20/18 572B 572G // H04N 5/92 H04N 5/92 HF term (Reference) 5C053 FA03 FA22 GA01 GA11 GB07 GB10 GB11 GB15 GB18 GB22 GB26 GB32 GB38 JA05 JA12 JA21 KA01 KA18 LA15 5D044 AB05 AB07 BC01 CC01 DE14 DE32 DE37 DE68 EF03 FG21 GL28 GM17
Claims (5)
するデータ処理装置において、 ビデオデータを所定長のデータ領域にパッキングする入
力処理部と、 上記入力処理部からのデータに対してエラー訂正符号の
符号化を行うメイン処理部と、 上記メイン処理部からのデータに同期パターンおよびI
Dを付加することによってシンクブロックを構成する出
力処理部とからなり、 上記入力処理部が上記ビデオデータに同期した第1のク
ロックによって動作し、上記メイン処理部が上記第1の
クロックと独立した周波数の第2のクロックによって動
作することを特徴とするデータ処理装置。1. A data processing device for converting video data into a signal form for transmission, comprising: an input processing unit for packing video data into a data area of a predetermined length; A main processing unit for encoding, and a synchronization pattern and I
D, an output processing unit constituting a sync block by adding D, wherein the input processing unit operates by a first clock synchronized with the video data, and the main processing unit is independent of the first clock. A data processing device operated by a second clock having a frequency.
タ記録装置において、 ビデオデータを所定長のデータ領域にパッキングする入
力処理部と、 上記入力処理部からのデータに対してエラー訂正符号の
符号化を行うメイン処理部と、 上記メイン処理部からのデータに同期パターンおよびI
Dを付加することによってシンクブロックを構成する出
力処理部と、 上記出力処理部の出力を記録媒体に記録する記録部とか
らなり、 上記入力処理部が上記ビデオデータに同期した第1のク
ロックによって動作し、上記メイン処理部が上記第1の
クロックと独立した周波数の第2のクロックによって動
作することを特徴とするデータ記録装置。2. A data recording apparatus for recording video data on a recording medium, comprising: an input processing unit for packing the video data into a data area of a predetermined length; And a synchronization pattern and I in the data from the main processing unit.
An output processing unit that forms a sync block by adding D, and a recording unit that records the output of the output processing unit on a recording medium, wherein the input processing unit uses a first clock synchronized with the video data A data recording device that operates, wherein the main processing unit operates with a second clock having a frequency independent of the first clock.
を可変長符号化したデータあることを特徴とするデータ
伝送装置。3. The data transmission device according to claim 1, wherein the video data is data obtained by performing variable length coding on coefficient data generated by DCT.
し、上記オーディオデータ処理部は、上記ビデオデータ
との時間合わせ用の遅延部を有することを特徴とする装
置。4. The input processing unit according to claim 1, wherein the input processing unit further includes an audio data processing unit, and the audio data processing unit includes a delay unit for adjusting time with the video data. And equipment.
外符号の符号化を上記メイン処理部において行い、上記
積符号の内符号の符号化を上記出力処理部において行う
ことを特徴とする装置。5. The product code according to claim 1, wherein the error correction code is a product code, and the outer code of the product code is encoded in the main processing unit, and the inner code of the product code is encoded. In the output processing unit.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10308900A JP2000132914A (en) | 1998-10-29 | 1998-10-29 | Data processor and data recorder |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10308900A JP2000132914A (en) | 1998-10-29 | 1998-10-29 | Data processor and data recorder |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000132914A true JP2000132914A (en) | 2000-05-12 |
Family
ID=17986629
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10308900A Pending JP2000132914A (en) | 1998-10-29 | 1998-10-29 | Data processor and data recorder |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000132914A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002157842A (en) * | 2000-11-21 | 2002-05-31 | Fujitsu Ltd | Data playback device |
| JP3475931B2 (en) | 2001-02-07 | 2003-12-10 | 日本電気株式会社 | Receiver |
| WO2011158474A1 (en) * | 2010-06-16 | 2011-12-22 | パナソニック株式会社 | Digital-data recording-and-reproducing device |
| JP2012080467A (en) * | 2010-10-05 | 2012-04-19 | Toshiba Corp | Video data processing device and video data processing method |
-
1998
- 1998-10-29 JP JP10308900A patent/JP2000132914A/en active Pending
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002157842A (en) * | 2000-11-21 | 2002-05-31 | Fujitsu Ltd | Data playback device |
| JP3475931B2 (en) | 2001-02-07 | 2003-12-10 | 日本電気株式会社 | Receiver |
| WO2011158474A1 (en) * | 2010-06-16 | 2011-12-22 | パナソニック株式会社 | Digital-data recording-and-reproducing device |
| CN102934168A (en) * | 2010-06-16 | 2013-02-13 | 松下电器产业株式会社 | Digital-data recording-and-reproducing device |
| JP5700853B2 (en) * | 2010-06-16 | 2015-04-15 | パナソニック株式会社 | Digital data recording / reproducing device |
| JP2012080467A (en) * | 2010-10-05 | 2012-04-19 | Toshiba Corp | Video data processing device and video data processing method |
| US8731368B2 (en) | 2010-10-05 | 2014-05-20 | Kabushiki Kaisha Toshiba | Video data processing apparatus and video data processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR100654072B1 (en) | Data recording apparatus, data recording method, data recording and reproducing apparatus, data recording and reproducing method, data reproducing apparatus, data reproducing method, data record medium, digital data reproducing apparatus, digital data reproducing method, synchronization detecting apparatus, and synchronization detecting method | |
| US6028726A (en) | Digital data recording/reproducing apparatus and method with means for adding arrival time to a data packet | |
| JP4010066B2 (en) | Image data recording apparatus and recording method, and image data recording / reproducing apparatus and recording / reproducing method | |
| KR100668993B1 (en) | Signal processing apparatus and method, recording apparatus, reproducing apparatus, recording and reproducing apparatus, and stream processing apparatus and method | |
| JP4182641B2 (en) | Data processing apparatus and method, and recording apparatus and method | |
| JP4610680B2 (en) | Signal processing apparatus and method, recording apparatus, reproducing apparatus, recording / reproducing apparatus, and video signal recording / reproducing apparatus | |
| KR100642532B1 (en) | Data processing apparatus and data recording apparatus | |
| KR100739262B1 (en) | Recording apparatus and recording method, reproducing apparatus and reproducing method | |
| JP3932721B2 (en) | Data recording apparatus, data recording / reproducing apparatus, data recording method, and data recording / reproducing method | |
| JP2000132914A (en) | Data processor and data recorder | |
| KR100681992B1 (en) | Recording device and method | |
| JP2000149455A (en) | Data recorder and recording method, data recording and reproducing device and recording and reproducing method, and data recording medium | |
| JP3978903B2 (en) | Data recording apparatus, data recording method, data processing apparatus, and data processing method | |
| JP4010067B2 (en) | Synchronization detecting device and method, and reproducing device | |
| JP2001169243A (en) | Recorder and recording method, and reproducing device and reproducing method | |
| JP2000315386A (en) | Addressing method of memory and data processor | |
| JP2000134110A (en) | Data transmitter and transmission method | |
| JP2000312341A (en) | Data transmitter, method therefor, recorder and recording and reproducing device | |
| JP3956510B2 (en) | Synchronization detecting device and method, and reproducing device | |
| JP2000149441A (en) | Data processing device, data processing method, and data reproducing device | |
| JP2000293435A (en) | Device and method for reproducing data | |
| JP2000152174A (en) | Image data processor its method and image data recorder | |
| JP2000149426A (en) | Memory accessing device and method therefor, and data processor | |
| JP2000149456A (en) | Data processor and processing method, and data recorder and recording method | |
| JP2000152177A (en) | Data processor and its method, and data reproducing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050620 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070703 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071030 |