[go: up one dir, main page]

JP2002311952A - Device, method, and program for editing music data - Google Patents

Device, method, and program for editing music data

Info

Publication number
JP2002311952A
JP2002311952A JP2001114175A JP2001114175A JP2002311952A JP 2002311952 A JP2002311952 A JP 2002311952A JP 2001114175 A JP2001114175 A JP 2001114175A JP 2001114175 A JP2001114175 A JP 2001114175A JP 2002311952 A JP2002311952 A JP 2002311952A
Authority
JP
Japan
Prior art keywords
data
music data
note
sound
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001114175A
Other languages
Japanese (ja)
Other versions
JP3680756B2 (en
Inventor
Akira Yamauchi
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001114175A priority Critical patent/JP3680756B2/en
Publication of JP2002311952A publication Critical patent/JP2002311952A/en
Application granted granted Critical
Publication of JP3680756B2 publication Critical patent/JP3680756B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a music data editing device which can automatically impart musical expressions to music data. SOLUTION: This music data editing device has a music data input means which inputs the music data, a chord detecting means which detects chord data composed of pieces of note data sounded almost at the same time among pieces of music data, a sounding order determining means which determines the sounding order of the pieces of note data, and a sounding timing editing means which edits the sounding timing of the pieces of note data according to the determined sounding order.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、楽曲データ編集装
置に関し、より詳しくは、楽曲データに音楽的表情を付
与することが出来る楽曲データ編集装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a music data editing apparatus, and more particularly, to a music data editing apparatus capable of giving a musical expression to music data.

【0002】[0002]

【従来の技術】自動演奏装置等で、音符の情報のみのM
IDIデータ等の楽曲データを演奏すると機械的で無表
情な演奏になってしまう。これを、より自然な演奏にす
る為には、様々な音楽的表現や、楽器らしさを制御デー
タとして楽曲データに付け加えてやる必要がある。
2. Description of the Related Art In an automatic performance device or the like, M of only note information is used.
Performing music data such as IDI data results in a mechanical and expressionless performance. In order to make this a more natural performance, it is necessary to add various musical expressions and musical instruments to the music data as control data.

【0003】そのような音楽的表情の1つとして、ギタ
ー等の撥弦楽器の演奏テクニックであるストローク奏法
というものがある。ギターのストローク奏法では、楽譜
上において同時発音の和音として表記されるものでも、
複数の弦を完全に同時にではなくある程度の時間差を持
った順番ではじく為、各音(各弦)の音量や発音開始時
間、発音時間に、ばらつきが生じる。
As one of such musical expressions, there is a stroke playing technique which is a playing technique of a plucked string instrument such as a guitar. In the guitar stroke playing method, even if it is described as a simultaneous chord on the score,
Since a plurality of strings are not completely played at the same time but in an order having a certain time difference, variations occur in the sound volume, the sound generation start time, and the sound generation time of each sound (each string).

【0004】さらには、ストローク奏法のダウンピッキ
ングとアップピッキングとでは、そのばらつきに大きな
違いがある。よって、ダウンピッキング主体の奏法や、
アップピッキング主体の奏法、又はこれらを交互に繰り
返すオルタネートストローク奏法では、それぞれ音楽的
表情が異なる。
Furthermore, there is a great difference in the variation between the down-picking and the up-picking of the stroke playing technique. Therefore, playing techniques mainly based on down picking,
In the upstroke-based playing method or the alternate stroke playing method in which these are alternately repeated, musical expressions are different.

【0005】[0005]

【発明が解決しようとする課題】音楽的表情を楽曲デー
タに加える作業では、楽曲のどの部分にどのような表現
を加えるのかをユーザが知っている必要がある。また、
音楽的表情を付与する為には、1つ1つの音符を表すイ
ベントに対して複数のパラメータを設定する必要があ
り、例えば、ギターの演奏などでは、6音の和音の1つ
1つを編集する必要があった。
In the work of adding a musical expression to music data, the user needs to know what part of the music and what expression to add. Also,
In order to provide a musical expression, it is necessary to set a plurality of parameters for an event representing each note. For example, when playing a guitar, each of six chords is edited. I needed to.

【0006】本発明の目的は、楽曲データに自動で音楽
的表情を付与することの出来る楽曲データ編集装置を提
供することである。
It is an object of the present invention to provide a music data editing apparatus capable of automatically giving a musical expression to music data.

【0007】[0007]

【課題を解決するための手段】本発明の一観点によれ
ば、楽曲データ編集装置は、楽曲データを入力する楽曲
データ入力手段と、前記楽曲データ内からほぼ同時期に
発音される複数の音符データで構成される和音データを
検出する和音検出手段と、前記複数の音符データの発音
順を決定する発音順序決定手段と、前記決定された発音
順に基づき前記複数の音符データの発音タイミングを編
集する発音タイミング編集手段とを有する。
According to one aspect of the present invention, a music data editing apparatus includes a music data input means for inputting music data, and a plurality of musical notes generated from the music data at substantially the same time. Chord detecting means for detecting chord data composed of data, sounding order determining means for determining a sounding order of the plurality of note data, and editing a sounding timing of the plurality of note data based on the determined sounding order. Sounding timing editing means.

【0008】[0008]

【発明の実施の形態】図1は、本発明の実施例による楽
曲データ編集装置1のハードウェア構成を示すブロック
図である。
FIG. 1 is a block diagram showing a hardware configuration of a music data editing apparatus 1 according to an embodiment of the present invention.

【0009】楽曲データ編集装置1はバス2、RAM
3、ROM4、CPU5、タイマ6、外部記憶装置7、
検出回路8、パネル操作子9、表示回路10、ディスプ
レイ11、音源回路12、効果回路13、サウンドシス
テム14、演奏操作子15、MIDIインターフェイス
16、通信インターフェイス17を含んで構成される。
The music data editing apparatus 1 includes a bus 2 and a RAM.
3, ROM 4, CPU 5, timer 6, external storage device 7,
It comprises a detection circuit 8, a panel operator 9, a display circuit 10, a display 11, a tone generator circuit 12, an effect circuit 13, a sound system 14, a performance operator 15, a MIDI interface 16, and a communication interface 17.

【0010】バス2には、RAM3、ROM4、CPU
5、外部記憶装置7、検出回路8、表示回路10、音源
回路12、効果回路13、MIDIインターフェイス1
6、通信インターフェイス17が接続される。
The bus 2 has a RAM 3, a ROM 4, a CPU,
5, external storage device 7, detection circuit 8, display circuit 10, sound source circuit 12, effect circuit 13, MIDI interface 1
6. The communication interface 17 is connected.

【0011】ユーザは、検出回路8に接続される複数の
パネル操作子9を用いて、各種設定をすることができ
る。パネル操作子9は、例えば、ロータリーエンコー
ダ、スイッチ、パッド、フェーダ、スライダ、マウス、
文字入力用キーボード、演奏用の鍵盤、ジョイスティッ
ク、ジョグシャトル等、ユーザの入力に応じた信号を出
力できるものならどのようなものでもよい。
The user can make various settings using a plurality of panel controls 9 connected to the detection circuit 8. The panel operator 9 includes, for example, a rotary encoder, a switch, a pad, a fader, a slider, a mouse,
Any keyboard, such as a character input keyboard, a performance keyboard, a joystick, and a jog shuttle, may be used as long as it can output a signal according to a user input.

【0012】また、本実施例では、パネル操作子9が、
後述する各種処理等で、ユーザが各種設定、選択、自動
演奏の開始及び停止等の指示を入力するために用いられ
る。
In the present embodiment, the panel operator 9 is
It is used for the user to input various settings, selections, and instructions such as start and stop of automatic performance in various processes described later.

【0013】また、パネル操作子9は、マウス等の他の
操作子を用いて操作するディスプレイ11上に表示され
るソフトスイッチ等でもよい。
The panel operator 9 may be a software switch or the like displayed on the display 11 operated by using another operator such as a mouse.

【0014】表示回路10は、ディスプレイ11に接続
され、各種情報をディスプレイ11に表示することがで
きる。ユーザは、このディスプレイ11に表示される情
報を参照して、各種設定を行う。また、ディスプレイ1
1は、外部の表示装置を接続することにより構成しても
よい。
The display circuit 10 is connected to a display 11 and can display various information on the display 11. The user makes various settings with reference to the information displayed on the display 11. Display 1
1 may be configured by connecting an external display device.

【0015】また、ディスプレイ11に、タッチパネル
を用いることができる。この場合は、ディスプレイ11
上に表示されるスイッチ等をユーザが押すことによりユ
ーザの指示が入力される。
A touch panel can be used as the display 11. In this case, the display 11
When the user presses a switch or the like displayed above, a user's instruction is input.

【0016】外部記憶装置7は、外部記憶装置用のイン
ターフェイスを含み、そのインターフェイスを介してバ
ス2に接続される。外部記憶装置7は、例えばフロッピ
ディスクドライブ(FDD)、ハードディスクドライブ
(HDD)、光磁気ディスク(MO)ドライブ、CD−
ROM(コンパクトディスク−リードオンリィメモリ)
ドライブ、DVD(Digital Versatil
e Disc)ドライブ、半導体メモリ等である。
The external storage device 7 includes an interface for the external storage device, and is connected to the bus 2 via the interface. The external storage device 7 includes, for example, a floppy disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive, and a CD-ROM.
ROM (Compact Disc-Read Only Memory)
Drive, DVD (Digital Versail)
e Disc) drive, semiconductor memory and the like.

【0017】外部記憶装置7には、各種パラメータ、各
種データ、及び本実施例を実現するためのプログラム等
を記憶することができる。また本実施例では、外部記憶
装置7に、自動伴奏用の伴奏スタイルデータをプリセッ
トデータ又はユーザデータとして複数記憶している。
The external storage device 7 can store various parameters, various data, programs for implementing the present embodiment, and the like. In the present embodiment, the external storage device 7 stores a plurality of accompaniment style data for automatic accompaniment as preset data or user data.

【0018】RAM3は、フラグ、レジスタ又はバッフ
ァ、各種パラメータ等を記憶するCPU5のワーキング
エリアを有する。ROM4には、各種パラメータ及び制
御プログラム、又は本実施例を実現するためのプログラ
ム等を記憶することができる。この場合、プログラム等
を重ねて、外部記憶装置7に記憶する必要は無い。CP
U5は、ROM4又は、外部記憶装置7に記憶されてい
る制御プログラム等に従い、演算又は制御を行う。
The RAM 3 has a working area of the CPU 5 for storing flags, registers or buffers, various parameters, and the like. The ROM 4 can store various parameters and control programs, programs for realizing the present embodiment, and the like. In this case, it is not necessary to store the programs and the like in the external storage device 7 in an overlapping manner. CP
U5 performs calculation or control according to a control program or the like stored in the ROM 4 or the external storage device 7.

【0019】タイマ6は、CPU5に接続されており、
基本クロック信号、割り込み処理タイミング等をCPU
5に供給する。
The timer 6 is connected to the CPU 5,
Basic clock signal, interrupt processing timing, etc.
5

【0020】外部記憶装置7として、ハードディスクド
ライブ(HDD)が接続されている場合には、制御プロ
グラム又は本実施例を実現するためのプログラム等は、
外部記憶装置7内のハードディスク(HDD)に記憶さ
せることもできる。ハードディスクからRAM3に制御
プログラム等を読み出すことにより、ROM4に制御プ
ログラム等を記憶させている場合と同様の動作をCPU
5にさせることができる。このようにすると、制御プロ
グラム等の追加やバージョンアップ等が容易に行える。
When a hard disk drive (HDD) is connected as the external storage device 7, a control program or a program for realizing the present embodiment includes:
It can also be stored in a hard disk (HDD) in the external storage device 7. By reading the control program and the like from the hard disk to the RAM 3, the same operation as when the control program and the like are stored in the ROM 4 is performed by the CPU
5 can be made. By doing so, it is possible to easily add a control program and the like, upgrade the version, and the like.

【0021】また、ハードディスクドライブに加えて、
CD−ROMドライブが接続されている場合には、制御
プログラム又は本実施例を実現するためのプログラム等
をCD−ROMに記憶させることもできる。CD−RO
Mからハードディスクに制御プログラムや本実施例を実
現するためのプログラム等をコピーすることができる。
制御プログラム等の新規インストールやバージョンアッ
プを容易に行うことができる。
In addition to the hard disk drive,
When a CD-ROM drive is connected, a control program, a program for implementing the present embodiment, and the like can be stored in the CD-ROM. CD-RO
A control program, a program for implementing the present embodiment, and the like can be copied from M to the hard disk.
New installation and version upgrade of the control program and the like can be easily performed.

【0022】音源回路12は、外部記憶装置7等に記録
されたシーケンスデータ又はMIDIインターフェイス
に接続されたMIDI機器18等から供給されるMID
I信号、演奏信号等に応じて楽音信号を生成し、効果回
路13を介して、サウンドシステム14に供給する。
The tone generator circuit 12 receives the sequence data recorded in the external storage device 7 or the MID supplied from the MIDI device 18 connected to the MIDI interface.
A tone signal is generated according to the I signal, the performance signal, and the like, and supplied to the sound system 14 via the effect circuit 13.

【0023】効果回路13は、音源回路12から供給さ
れるデジタル形式の楽音信号に各種効果を与える。
The effect circuit 13 gives various effects to the digital tone signal supplied from the tone generator circuit 12.

【0024】サウンドシステム14は、D/A変換器及
びスピーカを含み、供給されるデジタル形式の楽音信号
をアナログ形式に変換し、発音する。
The sound system 14 includes a D / A converter and a speaker, and converts a supplied digital tone signal into an analog format and generates a sound.

【0025】なお、音源回路12は、波形メモリ方式、
FM方式、物理モデル方式、高調波合成方式、フォルマ
ント合成方式、VCO(Voltage Contro
lled Oscillator)+VCF(Volt
age Controlled Filter)+VC
A(Voltage Controlled Ampl
ifier)のアナログシンセサイザ方式等、どのよう
な方式であってもよい。
The tone generator 12 has a waveform memory system,
FM system, physical model system, harmonic synthesis system, formant synthesis system, VCO (Voltage Control)
lled Oscillator) + VCF (Volt
age Controlled Filter) + VC
A (Voltage Controlled Ampl)
(i.e., analog synthesizer).

【0026】また、音源回路12は、専用のハードウェ
アを用いて構成するものに限らず、DSP(Digit
al Signal Processor)+マイクロ
プログラムを用いて構成してもよいし、CPU+ソフト
ウェアのプログラムで構成するようにしてもよいし、サ
ウンドカードのようなものでもよい。
The tone generator circuit 12 is not limited to a configuration using dedicated hardware, but may be a DSP (Digit).
al Signal Processor) + a microprogram, a CPU + software program, or a sound card.

【0027】さらに、1つの音源回路を時分割で使用す
ることにより複数の発音チャンネルを形成するようにし
てもよいし、複数の音源回路を用い、1つの発音チャン
ネルにつき1つの音源回路で複数の発音チャンネルを構
成するようにしてもよい。
Further, a plurality of tone generation channels may be formed by using one tone generator circuit in a time-division manner. Alternatively, a plurality of tone generator circuits may be used, and one tone generator circuit may be used for each tone channel. A pronunciation channel may be configured.

【0028】演奏操作子15は、検出回路8に接続さ
れ、ユーザの演奏動作に従い、演奏信号を供給する。本
実施例では、演奏操作子15として、演奏用の鍵盤、パ
ッドが用いられている。なお、演奏操作子15はこれら
に限らず、ユーザが演奏情報を入力できるものであれば
どのようなものでもよい。例えば、文字入力用のキーボ
ードや、マウス、ジョイスティック等を演奏操作子15
として用いることも出来る。
The performance operator 15 is connected to the detection circuit 8 and supplies a performance signal according to the performance operation of the user. In the present embodiment, a performance keyboard and pads are used as the performance operators 15. The performance operator 15 is not limited to these, and may be any device as long as the user can input performance information. For example, a keyboard for character input, a mouse, a joystick, or the like
Can also be used.

【0029】MIDIインターフェイス(MIDI I
/F)16は、電子楽器、その他の楽器、音響機器、コ
ンピュータ等に接続できるものであり、少なくともMI
DI信号を送受信できるものである。MIDIインター
フェイス16は、専用のMIDIインターフェイスに限
らず、RS−232C、USB(ユニバーサル・シリア
ル・バス)、IEEE1394(アイトリプルイー13
94)等の汎用のインターフェイスを用いて構成しても
よい。この場合、MIDIメッセージ以外のデータをも
同時に送受信するようにしてもよい。
The MIDI interface (MIDI I
/ F) 16 can be connected to electronic musical instruments, other musical instruments, audio equipment, computers, etc.
It can transmit and receive DI signals. The MIDI interface 16 is not limited to a dedicated MIDI interface, but may be RS-232C, USB (Universal Serial Bus), IEEE 1394 (I Triple E 13).
94) or the like. In this case, data other than the MIDI message may be transmitted and received at the same time.

【0030】MIDI機器18は、MIDIインターフ
ェイス16に接続される音響機器及び楽器等である。M
IDI機器18の形態は鍵盤楽器に限らず、弦楽器タイ
プ、管楽器タイプ、打楽器タイプ等の形態でもよい。ま
た、音源装置、自動演奏装置等を1つの電子楽器本体に
内蔵したものに限らず、それぞれが別体の装置であり、
MIDIや各種ネットワーク等の通信手段を用いて各装
置を接続するものであってもよい。ユーザは、このMI
DI機器18を演奏(操作)することにより演奏情報の
入力を行うこともできる。
The MIDI device 18 is an audio device, a musical instrument or the like connected to the MIDI interface 16. M
The form of the IDI device 18 is not limited to a keyboard instrument, but may be a string instrument type, a wind instrument type, a percussion instrument type, or the like. Further, the sound source device, the automatic performance device and the like are not limited to those built in one electronic musical instrument main body, but each is a separate device,
Each device may be connected using communication means such as MIDI or various networks. The user can use this MI
Performance information can also be input by playing (operating) the DI device 18.

【0031】また、MIDI機器18は、演奏情報以外
の各種データ及び各種設定を入力するための操作子とし
ても用いることが出来る。
The MIDI device 18 can also be used as an operator for inputting various data and various settings other than performance information.

【0032】通信インターフェイス17は、LAN(ロ
ーカルエリアネットワーク)やインターネット、電話回
線等の通信ネットワーク19に接続可能であり、該通信
ネットワーク19を介して、サーバコンピュータ20と
接続し、HDD等外部記憶装置7、又はRAM4等内
に、サーバコンピュータ20から制御プログラムや本実
施例を実現するためのプログラム、楽曲データ等をダウ
ンロードすることができる。
The communication interface 17 is connectable to a communication network 19 such as a LAN (local area network), the Internet, or a telephone line. The communication interface 17 is connected to a server computer 20 via the communication network 19, and is connected to an external storage device such as an HDD. 7, a control program, a program for implementing the present embodiment, music data, and the like can be downloaded from the server computer 20 into the RAM 4 or the like.

【0033】なお、通信インターフェイス17及び通信
ネットワーク19は、有線のものに限らず無線でもよ
い。また双方を備えていてもよい。
The communication interface 17 and the communication network 19 are not limited to wired ones, but may be wireless. Also, both may be provided.

【0034】図2は、本実施例による楽曲データMDの
フォーマットを表す概念図である。楽曲データMDは、
例えばSMF(Standard MIDI Fil
e)フォーマットに準拠した、自動楽曲データである。
FIG. 2 is a conceptual diagram showing the format of the music data MD according to the present embodiment. The music data MD is
For example, SMF (Standard MIDI Fil)
e) Automatic music data conforming to the format.

【0035】楽曲データMDは、先頭に記録される初期
設定情報HCと、発音タイミングを表すタイミングデー
タと、各タイミング毎のイベントを表すイベントデータ
とを含んで構成されている。また、楽曲データMDは複
数のパートで構成することも出来る。
The music data MD includes initial setting information HC recorded at the head, timing data indicating a sounding timing, and event data indicating an event for each timing. Also, the music data MD can be composed of a plurality of parts.

【0036】初期設定情報とは、各パート(トラック)
の再生時の各種再生態様を設定する為のデータであり、
例えば、音色設定データ、音量設定データ、テンポ設定
データなどが含まれる。
The initial setting information refers to each part (track)
Data for setting various playback modes during playback of
For example, it includes timbre setting data, volume setting data, tempo setting data, and the like.

【0037】タイミングデータは、イベントデータで表
される各種イベントを処理すべき時間を表すデータであ
る。イベントの処理時間は、演奏開始からの絶対時間で
表してもよいし、前のイベントからの経過時間である相
対時間で表すようにしてもよい。
The timing data is data representing the time to process various events represented by the event data. The processing time of the event may be represented by an absolute time from the start of the performance, or may be represented by a relative time which is an elapsed time from a previous event.

【0038】イベントデータは、楽曲を再生させる為の
各種イベントの内容を表すデータである。イベントに
は、ノートオンイベントとノートオフイベントの組合せ
である楽曲の発生に直接関係する音符を表す音符イベン
ト(音符データ)と、ピッチチェンジイベント(ピッチ
ベンドイベント)、テンポチェンジイベント、音色チェ
ンジイベントなどの楽曲の再生態様などを設定するため
の設定イベントが含まれる。
The event data is data representing the contents of various events for reproducing music. The events include a note event (note data) directly representing a note that is directly related to the generation of a song that is a combination of a note-on event and a note-off event, and a pitch change event (pitch bend event), a tempo change event, a tone change event, and the like. A setting event for setting the reproduction mode of the music is included.

【0039】それぞれの音符イベントには、音高、発音
長(ゲートタイム)GT、音量(ベロシティ)VLが記
録されている。発音長GTは4分音符長を「480」で
表しており、例えば8分音符長は「240」であり、2
分音符長は「960」である。音量VLは設定可能な最
低音量を「0」とし最大音量を「128」としている。
In each note event, a pitch, a tone length (gate time) GT, and a volume (velocity) VL are recorded. The pronunciation length GT indicates the length of a quarter note by “480”. For example, the length of an eighth note is “240”, and
The division note length is “960”. The volume VL has a settable minimum volume of “0” and a maximum volume of “128”.

【0040】図2(A)は本実施例で用いる編集前の楽
曲データMD1の例である。タイミングAに同時に発音
する6つの音符イベントで構成される和音イベントCA
が記録されており、又、タイミングBにも同時に発音す
る6つの音符イベントで構成される和音イベントCBが
記録されている。
FIG. 2A shows an example of music data MD1 before editing used in this embodiment. A chord event CA composed of six note events that are generated simultaneously at timing A
, And a chord event CB composed of six note events that are generated simultaneously at the timing B is also recorded.

【0041】楽曲データMD1では、和音イベント中の
音符イベントがすべて、同時に発音されるようになって
おり、また、音量も一定である。このようなデータを再
生すると、音楽的表情の無い機械的な演奏になってしま
う。
In the music data MD1, all note events in the chord event are simultaneously generated, and the volume is constant. Reproduction of such data results in a mechanical performance without musical expression.

【0042】この楽曲データMD1を、本実施例による
楽曲データ編集装置によりギターのストローク奏法の表
情付けを行ったものが、図2(B)に示す楽曲データM
D2である。
The musical composition data MD1 shown in FIG. 2B is obtained by adding an expression of the stroke performance of the guitar to the musical composition data MD1 according to the present embodiment.
D2.

【0043】楽曲データMD2では、後述のストローク
種類決定処理により、和音イベントCAを低音源から高
音弦に向かって徐々に発音タイミングをずらすダウンピ
ッキングに決定し、和音イベントCBを高音源から低音
弦に向かって徐々に発音タイミングをずらすアップピッ
キングに決定している。
In the music data MD2, the chord event CA is determined to be down picking in which the sound generation timing is gradually shifted from the low sound source toward the high string, and the chord event CB is changed from the high sound source to the low string by a stroke type determination process described later. Up-picking, which gradually shifts the sounding timing toward it, is determined.

【0044】さらに、後述のストローク表情付与処理に
より、和音イベントCA及び和音イベントCB中の音符
イベントの発音タイミング、発音長GT、音量VLが編
集されている。
Furthermore, the sounding timing, sounding length GT, and volume VL of the note events in the chord event CA and the chord event CB are edited by a stroke expression imparting process described later.

【0045】図に示すように発音タイミング、発音長G
T、音量VLにばらつきを持たせることにより、ギター
のストローク奏法をシミュレートしている。
As shown in FIG.
The stroke performance of the guitar is simulated by giving variations in T and volume VL.

【0046】なお、本実施例では、完全に同時に発音さ
れる複数の音符イベントだけでなく、発音タイミングが
ほぼ同時期である複数の音符イベントの組を和音イベン
トとしている。ほぼ同時期に発音される複数の音符イベ
ントとは、再生された場合に音楽的に和音として考えら
れる時間内に発音される複数の音符イベントの組であ
る。
In this embodiment, not only a plurality of note events that are sounded completely simultaneously, but also a plurality of note events whose sounding timings are almost the same period are set as chord events. A plurality of note events that are pronounced at about the same time are a set of a plurality of note events that are played within a time that is considered musically a chord when played.

【0047】図3は、図1のCPU5で行う本実施例に
よるメイン処理を表すフローチャートである。
FIG. 3 is a flowchart showing the main processing according to the present embodiment performed by the CPU 5 of FIG.

【0048】ステップSA1ではメイン処理をスタート
して、各種フラグやバッファを初期化し、次のステップ
SA2に進む。
At step SA1, the main processing is started, various flags and buffers are initialized, and the routine proceeds to the next step SA2.

【0049】ステップSA2では、図1の表示装置11
に外部記憶装置7等に記録されている楽曲データMDの
一覧を表示して、編集対象とする楽曲データをユーザに
選択させる。ユーザは、一覧表示される楽曲データの中
から編集(表情付け)をするものをパネル操作子9等で
選択する。なお、楽曲データの選択はこの方法に限ら
ず、ユーザが楽曲データの保存先のパス等を直接指定す
るようにしてもよい。楽曲データが選択されたら、次の
ステップSA3に進む。
In step SA2, the display device 11 shown in FIG.
A list of the music data MD recorded in the external storage device 7 or the like is displayed, and the user selects music data to be edited. The user uses the panel operator 9 or the like to select music data to be edited (expressed) from the music data displayed in the list. Note that the selection of the music data is not limited to this method, and the user may directly specify the path of the storage destination of the music data. When the music data is selected, the process proceeds to the next Step SA3.

【0050】なお、本実施例では、楽曲データの編集を
楽曲データの再生中ではないときに行っているが、楽曲
データ再生中にリアルタイムで行うことも出来る。この
場合は、このステップSA2で選択した楽曲データの再
生を開始する。
In this embodiment, the music data is edited when the music data is not being reproduced. However, it can be edited in real time while the music data is being reproduced. In this case, the reproduction of the music data selected in step SA2 is started.

【0051】ステップSA3では、表示装置11に選択
楽曲データに含まれるパートの一覧を表示して、編集対
象とするパート(処理パート)をユーザに選択させる。
ユーザは、一覧表示されるパートの中から処理パートを
パネル操作子9等で選択する。処理パートが選択された
ら次のステップSA4に進む。
At step SA3, a list of parts included in the selected music data is displayed on the display device 11, and the user selects a part (processing part) to be edited.
The user selects a processing part from the parts displayed in the list with the panel operator 9 or the like. When the processing part is selected, the process proceeds to the next Step SA4.

【0052】ステップSA4では、選択楽曲データを外
部記憶装置7等からRAM3内の読出しバッファに読み
込み、楽曲の再生テンポと拍子を検出する。その後、次
のステップSA5に進む。
At step SA4, the selected music data is read from the external storage device 7 or the like into the read buffer in the RAM 3, and the reproduction tempo and time signature of the music are detected. Thereafter, the flow advances to the next Step SA5.

【0053】ステップSA5では、タイマ6から供給さ
れるクロック信号に従い、選択楽曲データの処理パート
のイベントをRAM3内の作業領域に読み込む。その後
次のステップSA6に進む。
At step SA 5, the event of the processing part of the selected music data is read into the work area in the RAM 3 in accordance with the clock signal supplied from the timer 6. Thereafter, the flow advances to the next Step SA6.

【0054】ステップSA6では、ステップSA5で読
み出したイベントのタイミングが楽曲データの終了タイ
ミング(最後のイベント)か否かを検出する。終了タイ
ミングであれば、YESの矢印で示すステップSA7に
進む。終了タイミングでなければ、NOの矢印で示すス
テップSA9に進む。
In step SA6, it is detected whether or not the timing of the event read out in step SA5 is the end timing (last event) of the music data. If it is the end timing, the process proceeds to Step SA7 indicated by a YES arrow. If it is not the end timing, the process proceeds to Step SA9 indicated by a NO arrow.

【0055】ステップSA7では、その他処理を行う。
その他処理では、RAM3内の再生バッファ内の楽曲デ
ータの保存等を行う。他には、楽曲データの再生開始及
び停止、その他の編集処理、楽曲データの記録、楽曲デ
ータのダウンロード、演奏操作子用による演奏処理、各
種設定等を行うことも出来る。その後、次のステップS
A8に進みメイン処理を終了する。
At step SA7, other processing is performed.
In the other processing, the music data in the reproduction buffer in the RAM 3 is stored. In addition, reproduction and start of music data, other editing processing, recording of music data, downloading of music data, performance processing for performance operators, various settings, and the like can also be performed. Then, the next step S
The process proceeds to A8 and ends the main process.

【0056】ステップSA9では、今回のタイミングの
イベントが和音イベントか否かを判断する。今回のタイ
ミングのイベントが和音イベントであればYESの矢印
で示すステップSA10に進む。今回のタイミングのイ
ベントが和音イベントで無ければNOの矢印で示すステ
ップSA12に進む。
At step SA9, it is determined whether or not the event at this time is a chord event. If the event at this timing is a chord event, the process proceeds to Step SA10 indicated by a YES arrow. If the event at this timing is not a chord event, the process proceeds to step SA12 indicated by a NO arrow.

【0057】ステップSA10では、後述するストロー
ク種類決定処理を行う。ストローク種類決定処理が終了
したら次のステップSA11に進む。
In step SA10, a stroke type determination process described later is performed. Upon completion of the stroke type determination processing, the flow advances to the next Step SA11.

【0058】ステップSA11では、後述するストロー
ク表情付与処理を行う。ストローク表情付与処理が終了
したら、次のステップSA12に進む。
At step SA11, a stroke expression providing process described later is performed. When the stroke expression providing process is completed, the process proceeds to the next Step SA12.

【0059】ステップSA12では、今回タイミングの
イベントをRAM3内の再生バッファ等に記録する。リ
アルタイム処理を行っている場合には、ここで今回タイ
ミングのイベントの発音処理を行う。その後次のステッ
プSA13に進む。
In step SA12, the event of the current timing is recorded in a reproduction buffer or the like in the RAM 3. When the real-time processing is being performed, the sound generation processing of the event of the current timing is performed here. Thereafter, the flow advances to the next Step SA13.

【0060】ステップSA13では、次のタイミングの
イベントをRAM3内の作業領域に読み込む。その後ス
テップSA6に戻る。
At step SA13, an event at the next timing is read into the work area in the RAM 3. Thereafter, the flow returns to step SA6.

【0061】図4は、図3のステップSA10で行うス
トローク種類決定処理を表すフローチャートである。
FIG. 4 is a flowchart showing the stroke type determination process performed in step SA10 of FIG.

【0062】ステップSB1では、ストローク種類決定
処理を開始して、次のステップSB2に進む。
In step SB1, the stroke type determination processing is started, and the flow advances to the next step SB2.

【0063】ステップSB2では、図3のステップSA
4で検出した選択楽曲データの再生テンポ及び拍子に従
い、グループ時間決定テーブルを参照し、グループ時間
を決定する。その後、次のステップSB3に進む。
In step SB2, step SA in FIG.
The group time is determined by referring to the group time determination table in accordance with the playback tempo and time signature of the selected music data detected in step 4. Thereafter, the flow advances to the next Step SB3.

【0064】グループ時間とは、ダウンピッキングとア
ップピッキングの対を成す音価の時間のことであり、グ
ループ時間内では原則としてダウンピッキングとアップ
ピッキングを交互に繰り返す。
The group time is a time of a note value forming a pair of down picking and up picking, and in principle, down picking and up picking are alternately repeated within the group time.

【0065】グループ時間決定テーブルは、少なくとも
図5(A)及び図5(B)に示すように2種類用意する
ことが好ましい。図5(A)に示すグループ時間決定テ
ーブルは、2拍子系、すなわち2分の2拍子、4分の4
拍子等の2の倍数の拍子の楽曲に用いる。図5(B)に
示すグループ時間決定テーブルは、3拍子系、すなわち
4分の3拍子、8分の12拍子等の3の倍数の拍子の楽
曲に用いる。
It is preferable to prepare at least two types of group time determination tables as shown in FIGS. 5A and 5B. The group time determination table shown in FIG. 5A is a two-time system, that is, two-half time, four-fourths,
Used for music with a time signature that is a multiple of two such as a time signature. The group time determination table shown in FIG. 5B is used for a tune having a time signature of a multiple of 3, such as a triple time signature, that is, a triple time signature, a twelfth time signature, or the like.

【0066】どちらのグループ時間決定テーブルにも、
4分音符に換算したテンポと、テンポに対応するグルー
プ時間が音符長で記録されている。つまり、このステッ
プSB2では、選択楽曲データの拍子に従い使用するグ
ループ時間決定テーブルを決定して、そのテーブル中の
選択楽曲データのテンポに該当するグループ時間を参照
して、グループ時間を決定する。
In both group time determination tables,
A tempo converted to a quarter note and a group time corresponding to the tempo are recorded in note length. That is, in step SB2, the group time determination table to be used is determined according to the time signature of the selected music data, and the group time is determined by referring to the group time corresponding to the tempo of the selected music data in the table.

【0067】なお、5拍子系や7拍子系の拍子等が考え
られるが、このような場合は、上記の2拍子系と3拍子
系のグループ時間決定テーブルを組み合わせて用いる。
例えば、5拍子の場合は、「2拍子+3拍子」または
「3拍子+2拍子」の組合せであると考えられるので、
その順番を指定してやることにより、2拍子系と3拍子
系のグループ時間決定テーブルを組み合わせて用いれば
よい。
It is to be noted that a time signature of five-time system or seven-time system can be considered. In such a case, the group time determination tables of the two-time system and the three-time system are used in combination.
For example, in the case of 5 beats, it is considered that the combination is “2 beats + 3 beats” or “3 beats + 2 beats”,
By specifying the order, it is sufficient to use a combination of the group time determination tables of the two-time system and the three-time system.

【0068】なお、2拍子系と3拍子系のグループ時間
決定テーブルを組み合わせて用いる場合には、図5
(C)に示すように、4分音符に換算したテンポを同じ
境界に設定した方が使いやすいので、図5(C)に示す
ような簡略化したテーブルを用意してもよい。
In the case where the group time determination tables of the two-time system and the three-time system are used in combination, FIG.
As shown in FIG. 5C, it is easier to set the tempo converted into quarter notes at the same boundary, so that a simplified table as shown in FIG. 5C may be prepared.

【0069】ステップSB3では、今回のタイミングの
和音イベントがステップSB2で決定したグループ時間
の前半部分に位置するものか否かを判断する。和音イベ
ントがグループ時間の前半に位置するものであるとき
は、YESの矢印で示すステップSB4に進む。和音イ
ベントがグループ時間の前半に位置するものでないと
き、すなわち後半に位置するときは、NOの矢印で示す
ステップSB6に進む。
In step SB3, it is determined whether or not the chord event of the current timing is located in the first half of the group time determined in step SB2. If the chord event is located in the first half of the group time, the process proceeds to step SB4 indicated by a YES arrow. When the chord event is not located in the first half of the group time, that is, when it is located in the second half, the process proceeds to Step SB6 indicated by a NO arrow.

【0070】ステップSB4では、今回のタイミングの
和音イベントがステップSB2で決定したグループ時間
の最初の和音イベントか否かを判断する。最初の和音イ
ベントであるときは、YESの矢印で示すステップSB
5に進む。最初の和音イベントではないときは、NOの
矢印で示すステップSB7に進む。
In step SB4, it is determined whether or not the chord event of the current timing is the first chord event of the group time determined in step SB2. If it is the first chord event, step SB indicated by a YES arrow
Go to 5. If it is not the first chord event, the process proceeds to Step SB7 indicated by a NO arrow.

【0071】ステップSB5では、直前(前回)の和音
イベントのタイミングと今回の和音イベントのタイミン
グの差を検出し、それがグループ時間の半分以上の時間
であるか否かを判断する。タイミングの差がグループ時
間の半分以上であるときは、YESの矢印で示すステッ
プSB8に進んで、今回のタイミングの和音イベントを
ダウンピッキングに決定する。タイミングの差がグルー
プ時間の半分以上でないときは、NOの矢印で示すステ
ップSB7に進む。
In step SB5, the difference between the timing of the immediately preceding (previous) chord event and the timing of the current chord event is detected, and it is determined whether or not the difference is at least half the group time. If the timing difference is equal to or more than half of the group time, the process proceeds to step SB8 indicated by a YES arrow, and the chord event at the current timing is determined to be down picking. If the timing difference is not more than half of the group time, the process proceeds to Step SB7 indicated by a NO arrow.

【0072】ステップSB6では、グループ時間の後半
に位置する今回のタイミングの和音イベントがステップ
SB2で決定したグループ時間の最初の和音イベントか
否かを判断する。グループ時間前半には和音イベントが
存在せず今回の和音イベントが、グループ時間の最初の
和音イベントであるときは、YESの矢印で示すステッ
プSB9に進んで、今回のタイミングの和音イベントを
アップピッキングに決定する。グループ時間の最初の和
音イベントではないときは、NOの矢印で示すステップ
SB7に進む。
In step SB6, it is determined whether or not the chord event at the current timing located in the latter half of the group time is the first chord event in the group time determined in step SB2. If there is no chord event in the first half of the group time and this chord event is the first chord event of the group time, the process proceeds to step SB9 indicated by a YES arrow, and the chord event at the current timing is picked up. decide. If it is not the first chord event of the group time, the process proceeds to Step SB7 indicated by a NO arrow.

【0073】ステップSB7では、直前(前回)のタイ
ミングの和音イベントがダウンピッキングであるか否か
を判断する。前回の和音イベントがダウンピッキングで
ある場合は、YESの矢印で示すステップSB9に進ん
で、今回のタイミングの和音イベントをアップピッキン
グに決定する。前回の和音イベントがダウンピッキング
でない場合、すなわち、アップピッキングである場合
は、NOの矢印で示すステップSB8に進んで、今回の
タイミングの和音イベントをダウンピッキングに決定す
る。
At step SB7, it is determined whether or not the chord event at the immediately preceding (previous) timing is down picking. If the previous chord event is down picking, the process proceeds to step SB9 indicated by a YES arrow, and the chord event at the current timing is determined to be up picking. If the previous chord event is not down picking, that is, if it is up picking, the process proceeds to step SB8 indicated by a NO arrow to determine the chord event of the current timing to be down picking.

【0074】ステップSB8では、今回のタイミングの
和音イベントをダウンピッキングに決定する。その後、
ステップSB10に進んでストローク種類決定処理を終
了する。
At step SB8, the chord event at the current timing is determined to be down picking. afterwards,
Proceeding to step SB10, the stroke type determination processing ends.

【0075】ステップSB9では、今回のタイミングの
和音イベントをアップピッキングに決定する。その後、
ステップSB10に進んでストローク種類決定処理を終
了する。
At step SB9, the chord event at the current timing is determined to be up-picking. afterwards,
Proceeding to step SB10, the stroke type determination processing ends.

【0076】図6は、本実施例のストローク種類決定処
理により、ストローク種類が決定された楽譜の例であ
る。図6(A)及び(B)の楽譜では、いずれも4分音
符の和音が連続している。これをギターで演奏する場合
は、各和音をダウンピッキングかアップピッキングのい
ずれかで演奏する。
FIG. 6 is an example of a musical score whose stroke type has been determined by the stroke type determination processing of this embodiment. In the scores of FIGS. 6A and 6B, quarter note chords are continuous. When playing this on a guitar, each chord is played either down picking or up picking.

【0077】図6(A)は、再生テンポが4分音符長に
換算して110で、4分の4拍子の場合の例である。こ
の場合は、図5(A)に示す2拍子系のグループ時間決
定テーブルを参照して、再生テンポに基づきグループ時
間が4分音符長に決定される。
FIG. 6A shows an example in the case where the reproduction tempo is 110 in terms of quarter note length and the time is four quarters. In this case, the group time is determined to be a quarter note length based on the reproduction tempo with reference to the two-time group time determination table shown in FIG.

【0078】グループ時間が4分音符長であるというこ
とは、4分音符長の時間t1内でダウンピッキングとア
ップピッキングが繰り返される。よって、この図6
(A)に示す楽譜では、すべての音符イベントのストロ
ーク種類が、ダウンピッキングに決定される。
The fact that the group time is a quarter note length means that down picking and up picking are repeated within the quarter note length time t1. Therefore, FIG.
In the score shown in (A), the stroke type of all note events is determined to be down picking.

【0079】図6(B)の楽譜は、図6(A)に示す楽
譜の再生テンポを4分音符長に換算して130に設定し
たものである。図6(B)に示す楽譜では、参照するグ
ループ時間決定テーブルは、図6(A)に示す楽譜同様
に図5(A)に示す2拍子系のグループ時間決定テーブ
ルであるが、テンポが異なるために、グループ時間は2
分音符長に決定される。
The score shown in FIG. 6B is obtained by converting the playback tempo of the score shown in FIG. 6A into quarter note length and setting it to 130. In the music score shown in FIG. 6B, the group time determination table to be referred to is the two-time group time determination table shown in FIG. 5A similarly to the music score shown in FIG. So the group time is 2
The length of the note is determined.

【0080】グループ時間が2分音符長であるというこ
とは、2分音符長の時間t2内でダウンピッキングとア
ップピッキングが繰り返される。よって、この図6
(B)に示す楽譜では、それぞれの音符イベントのスト
ローク種類は、ダウンピッキング又はアップピッキング
に決定される。すなわち、ダウンピッキングとアップピ
ッキングを交互に繰り返す完全なオルタネートピッキン
グによる演奏となる。
The fact that the group time is a half note length means that down picking and up picking are repeated within the half note length time t2. Therefore, FIG.
In the score shown in (B), the stroke type of each note event is determined to be down picking or up picking. That is, the performance is based on complete alternate picking in which down picking and up picking are alternately repeated.

【0081】次に、本実施例におけるストローク表情付
与処理を図7〜図9を参照して説明する。
Next, the stroke expression providing process in this embodiment will be described with reference to FIGS.

【0082】図7及び図8は、楽曲データMDをピアノ
ロール表示で表した図である。楽曲データMDは、和音
イベントCA、CB、CCを含む。和音イベントCA
は、6つの音符イベントNA1〜NA6を含み、和音イ
ベントCBは、6つの音符イベントNB1〜NB6を含
み、和音イベントCCは、6つの音符イベントNC1〜
NC6を含んでいる。
FIGS. 7 and 8 are diagrams showing the music data MD in piano roll display. The music data MD includes chord events CA, CB, and CC. Chord Event CA
Includes six note events NA1 to NA6, a chord event CB includes six note events NB1 to NB6, and a chord event CC includes six note events NC1 to NC6.
NC6.

【0083】図9は、図3のステップSA11で行うス
トローク表情付与処理を表すフローチャートである。
FIG. 9 is a flowchart showing the stroke expression providing process performed in step SA11 of FIG.

【0084】ステップSC1では、ストローク表情付与
処理を開始する。その後、次のステップSC2に進む。
At step SC1, a stroke expression providing process is started. Thereafter, the flow advances to the next Step SC2.

【0085】ステップSC2では、今回のタイミングの
和音イベントに含まれ音符イベントの数(和音の音数)
を検出する。その後次のステップSC3に進む。
At step SC2, the number of note events included in the chord event of the current timing (the number of chord notes)
Is detected. Thereafter, the flow advances to the next Step SC3.

【0086】ステップSC3では、今回のタイミングの
和音イベントに含まれ音符イベントのそれぞれにギター
の1〜6弦のいずれかを割り当てる。その後次のステッ
プSC4に進む。
In step SC3, any one of the first to sixth strings of the guitar is assigned to each of the note events included in the chord event at the current timing. Thereafter, the flow advances to the next Step SC4.

【0087】このステップSC3の処理により、図7
(A)に示すように音符イベントNA1、NB1、NC
1は、ギターの第1弦(最高音)に割り当てられる。以
下、同様に、NA2、NB2、NC2は第2弦(第2高
音)に、NA3、NB3、NC3は第3弦(第3高音)
に、NA4、NB4、NC4は第4弦(第3低音)に、
NA5、NB5、NC5は第5弦(第2低音)に、NA
6、NB6、NC6は第6弦(最低音)に割り当てられ
る。
By the processing in step SC3, FIG.
As shown in (A), note events NA1, NB1, NC
1 is assigned to the first string (highest note) of the guitar. Hereinafter, similarly, NA2, NB2, and NC2 are the second strings (second high notes), and NA3, NB3, and NC3 are the third strings (third high notes).
In addition, NA4, NB4, and NC4 are in the fourth string (third bass),
NA5, NB5 and NC5 are in the fifth string (second bass)
6, NB6 and NC6 are assigned to the sixth string (the lowest note).

【0088】ステップSC4では、ステップSC2で求
めた和音の音数と図4のストローク種類決定処理で決定
した今回のタイミングにおける和音イベントのストロー
ク種類とに基づきストローク表情付与を参照して、今回
の和音イベントに含まれる各音符イベントの発音タイミ
ングを編集する。その後、次のステップSC5に進む。
In step SC4, the present chord is referred to based on the stroke expression assignment based on the number of chords obtained in step SC2 and the stroke type of the chord event at the current timing determined in the stroke type determination processing of FIG. Edit the sounding timing of each note event included in the event. Thereafter, the flow advances to the next Step SC5.

【0089】このステップSC4の処理により、図7
(A)中に1点鎖線の三角で示すように音符イベントの
発音時間に重なりが生じる。これは、ダウンピッキング
に指定された和音イベントCA及びCCは、低音弦に割
り当てられた音符イベントほど発音開始時刻が早められ
おり、一方、アップピッキングに指定された和音イベン
トCBは、高音弦に割り当てられた和音イベントほど発
音開始時刻が早められているからである。
By the processing in step SC4, FIG.
In (A), the sounding time of the note event overlaps as shown by the dashed-dotted triangle. This is because, in the chord events CA and CC designated for down picking, the note-on event assigned to the lower string has an earlier sounding start time, while the chord event CB designated for up picking is assigned to the higher string. This is because the sound generation start time is earlier for the given chord event.

【0090】ステップSC5では、ステップSC2で求
めた和音の音数と図4のストローク種類決定処理で決定
した今回のタイミングにおける和音イベントのストロー
ク種類とに基づきストローク表情付与を参照して、今回
の和音イベントに含まれる各音符イベントの音量(ベロ
シティ)を編集する。その後、次のステップSC6に進
む。
In step SC5, the present chord is referenced by referring to the stroke expression assignment based on the number of chords obtained in step SC2 and the stroke type of the chord event at the current timing determined in the stroke type determination process of FIG. Edit the volume (velocity) of each note event included in the event. Thereafter, the flow advances to the next Step SC6.

【0091】ステップSC6では、ステップSC5で行
った発音タイミングの編集により、直前のタイミングに
おける同一の弦に割り当てられた音符イベントと発音時
間が重なる音符イベントがあるか否かを検出する。発音
時間が重なる音符イベントがある場合は、YESの矢印
で示すステップSC7に進む。発音時間が重なる音符イ
ベントがない場合は、NOの矢印で示すステップSC8
に進む。
In step SC6, the editing of the tone generation timing performed in step SC5 detects whether or not there is a note event whose tone generation time overlaps with the note event assigned to the same string at the immediately preceding timing. If there is a note event with an overlapping sounding time, the process proceeds to step SC7 indicated by a YES arrow. If there is no note event with an overlapping sounding time, step SC8 indicated by a NO arrow
Proceed to.

【0092】ここで検出する発音時間の重なりは、上述
した図7(A)中に1点鎖線の三角で示す部分である。
The overlap of the sounding times detected here is the portion indicated by the one-dot chain line triangle in FIG. 7A described above.

【0093】ステップSC7では、発音時間が重なる前
回タイミングにおける同一の弦に割り当てられた音符イ
ベントの発音長を、今回のタイミングにおける音符イベ
ントの直前に発音終了するように修正する。すなわち、
前回タイミングの音符イベントの発音長を短くする。そ
の後次のステップSC8に進む。
In step SC7, the sound generation length of the note event assigned to the same string at the previous timing when the sound generation time overlaps is corrected so that the sound generation ends immediately before the note event at the current timing. That is,
Shorten the note length of the last note event. Thereafter, the flow advances to the next Step SC8.

【0094】このステップSC7の処理により、楽曲デ
ータMDは図7(B)に示すようになる。図7(B)中
1点鎖線の円で示す部分が発音長を修正された部分であ
る。
By the processing in step SC7, the music data MD becomes as shown in FIG. 7B. In FIG. 7B, a portion indicated by a dashed-dotted circle is a portion whose pronunciation length has been corrected.

【0095】ステップSC8では、ステップSC5で行
った発音タイミングの編集により出来た直前のタイミン
グにおける同一の弦に割り当てられた音符イベントの発
音終了時刻と今回のタイミングにおける音符イベントの
発音開始時刻との間に不適切な間隔があるか否かを検出
する。不適切な間隔がある場合は、YESの矢印で示す
ステップSC9に進む。不適切な間隔がない場合は、N
Oの矢印で示すステップSC10に進んで、ストローク
表情付与処理を終了する。
At step SC8, the tone generation end time of the note event assigned to the same string at the immediately preceding timing created by the editing of the tone generation timing performed at step SC5 and the note start time of the note event at the current timing are executed. To detect whether there is an inappropriate interval. If there is an inappropriate interval, the process proceeds to Step SC9 indicated by a YES arrow. N if no inappropriate spacing
Proceeding to step SC10 indicated by an arrow O, the stroke expression providing process ends.

【0096】このステップSC8の処理では、図7
(B)中1点鎖線の四角で示す部分を検出する。
In the process of step SC8, FIG.
(B) The part shown by the square of the one-dot chain line is detected.

【0097】本実施例において、不適切な間隔とは、こ
のストローク表情付与処理において作り出された間隔で
あり、楽曲データの作成者が意図しない間隔のことであ
る。
In the present embodiment, the inappropriate interval is an interval created in the stroke expression providing process, and is an interval not intended by the creator of the music data.

【0098】ステップSC9では、不適切な間隔がある
前回タイミングにおける同一の弦に割り当てられた音符
イベントの発音長を、今回のタイミングにおける音符イ
ベントの直前に発音終了するように修正する。すなわ
ち、前回タイミングの音符イベントの発音長を長くす
る。その後次のステップSC10に進んで、ストローク
表情付与処理を終了する。
In step SC9, the sound generation length of the note event assigned to the same string at the previous timing with an inappropriate interval is corrected so that the sound generation ends immediately before the note event at the current timing. That is, the note length of the note event at the previous timing is increased. After that, the process proceeds to the next Step SC10, and the stroke expression providing process ends.

【0099】このステップSC9で発音終了時刻を修正
することにより、楽曲データMDは図8(C)に示すよ
うになる。図中1点鎖線の星形で示す部分がステップS
C9で修正された部分である。
By correcting the tone generation end time in step SC9, the music data MD becomes as shown in FIG. 8 (C). Step S in FIG.
This is the portion corrected in C9.

【0100】図10は、図9のステップSC4で参照す
るストローク表情付与テーブルの一例である。
FIG. 10 is an example of a stroke expression assignment table referred to in step SC4 of FIG.

【0101】ストローク表情付与テーブルには、それぞ
れの和音の音数(和音イベント中の音符イベントの数)
毎に、ダウンピッキング又はアップピッキングのストロ
ーク種類があり、それぞれのストローク種類毎に変更す
るパラメータ(T=発音タイミング、V=ベロシティ)
の変更値等が記録されている。
In the stroke expression imparting table, the number of notes of each chord (the number of note events in a chord event)
Each type has a stroke type of down picking or up picking, and parameters to be changed for each stroke type (T = sound generation timing, V = velocity)
Are recorded.

【0102】例えば、和音の音数が6音であり、ストロ
ーク種類がダウンピッキングである時は、最高音(ギタ
ーの第1弦に対応する音符イベント)の発音タイミング
(T)の値に「5」を加算し、ベロシティ値に「8」を
加算する。
For example, when the number of chords is six and the stroke type is down picking, the value of the tone generation timing (T) of the highest tone (the note event corresponding to the first string of the guitar) is set to “5”. ”And“ 8 ”to the velocity value.

【0103】第2高音(ギターの第2弦に対応する音符
イベント)の発音タイミング(T)には「0」を加算、
すなわち変更せずに、ベロシティ値に「4」を加算す
る。
"0" is added to the sounding timing (T) of the second treble (note event corresponding to the second string of the guitar),
That is, “4” is added to the velocity value without changing.

【0104】第3高音(ギターの第3弦に対応する音符
イベント)の発音タイミング(T)には「−6」を加算
し、ベロシティ値に「0」を加算する、すなわちベロシ
ティ値は変更しない。
[0104] "-6" is added to the tone generation timing (T) of the third treble (note event corresponding to the third string of the guitar), and "0" is added to the velocity value, that is, the velocity value is not changed. .

【0105】第3低音(ギターの第4弦に対応する音符
イベント)の発音タイミング(T)には「−12」を加
算し、ベロシティ値に「0」を加算する、すなわちベロ
シティ値は変更しない。
[0105] "-12" is added to the tone generation timing (T) of the third bass (note event corresponding to the fourth string of the guitar), and "0" is added to the velocity value, that is, the velocity value is not changed. .

【0106】第2低音(ギターの第5弦に対応する音符
イベント)の発音タイミング(T)には「−17」を加
算し、ベロシティ値に「−4」を加算する。
"-17" is added to the sounding timing (T) of the second bass (note event corresponding to the fifth string of the guitar), and "-4" is added to the velocity value.

【0107】最低音(ギターの第6弦に対応する音符イ
ベント)の発音タイミング(T)には「−21」を加算
し、ベロシティ値に「8」を加算する。
[0107] "-21" is added to the tone generation timing (T) of the lowest note (note event corresponding to the sixth string of the guitar), and "8" is added to the velocity value.

【0108】以上のように、ストローク表情付与テーブ
ルに従い和音イベント中の各音符イベントのパラメータ
を変更することにより、ギターのストローク奏法の表情
を付与することができる。
As described above, by changing the parameters of each note event in a chord event according to the stroke expression imparting table, the expression of the stroke playing style of the guitar can be imparted.

【0109】なお、発音開始時刻の変更値は、このスト
ローク表情付与テーブルの値をそのまま使用するのでは
なく、テンポや曲想、ユーザの指示等によって、増減で
きるようにしてもよい。
Note that the change value of the sound generation start time may be increased or decreased according to a tempo, a musical idea, a user's instruction, etc., instead of using the value of the stroke expression imparting table as it is.

【0110】すなわち、早いストロークの表情を付与し
たいときは、すべての弦に対応する音符イベントの発音
開始時刻の変更値(絶対値)を小さくし、逆にゆっくり
としたストロークの表情を付与したいときは、すべての
弦に対応する音符イベントの発音開始時刻の変更値を大
きくする。
That is, when it is desired to provide a fast stroke expression, the change value (absolute value) of the sound generation start time of the note event corresponding to all the strings is reduced, and conversely, a slow stroke expression is desired. Increases the change value of the sound generation start time of the note event corresponding to all strings.

【0111】以上、本実施例に拠れば、和音データを自
動的にギターのストローク奏法におけるダウンピッキン
グとアップピッキングのいずれかに指定することができ
る。
As described above, according to the present embodiment, chord data can be automatically designated as either down picking or up picking in the stroke playing style of the guitar.

【0112】また、本実施例に拠れば、ダウンピッキン
グとアップピッキングのいずれかに指定された和音デー
タ中の音符データの発音タイミング、音量、発音時間を
適切なばらつきを与えることができる。
Further, according to the present embodiment, it is possible to appropriately vary the sounding timing, volume, and sounding time of the note data in the chord data designated as either down picking or up picking.

【0113】また、本実施例に拠れば、機械的で無表情
な楽曲データに自動でストローク奏法の表情を付与し
て、自然な表情豊かな演奏を行うことができる。
Further, according to the present embodiment, the expression of the stroke playing technique is automatically given to the mechanical and expressionless music data, so that a natural expressionful performance can be performed.

【0114】なお、本実施例では、表情を付与する和音
イベントを自動で検出したが、ユーザが選択するように
してもよい。
In the present embodiment, a chord event to which a facial expression is added is automatically detected, but the event may be selected by the user.

【0115】なお、本実施例では、ストローク種類は、
すべて自動的に決定したが、ユーザが任意に指定するよ
うにしてもよい。
In this embodiment, the stroke type is
Although all have been automatically determined, the user may arbitrarily specify them.

【0116】また、曲想によっては、ダウンピッキング
を多用したりアップピッキングを多用したりすることが
あるので、ダウンピッキングとアップピッキングの出現
頻度(指定される頻度)を設定できるようにしてもよ
い。この場合には、出現頻度を指定するための操作子を
設けるとよい。
Further, depending on the tune, down-picking or up-picking may be frequently used, so that the appearance frequency (specified frequency) of down-picking and up-picking may be set. In this case, an operator for specifying the appearance frequency may be provided.

【0117】さらに、本実施例では、楽曲のテンポに従
いグループ時間を決定したが、ユーザが任意にグループ
時間を指定することもできる。
Furthermore, in this embodiment, the group time is determined according to the tempo of the music, but the user can arbitrarily specify the group time.

【0118】また、本実施例では、音符イベントの発音
開始時刻(発音タイミング)及び音量(ベロシティ)を
ストローク表情付与テーブルを参照して編集したが、そ
れぞれの変化量をユーザが設定・変更できるようにして
もよい。
Further, in the present embodiment, the sound generation start time (sound generation timing) and volume (velocity) of the note event are edited with reference to the stroke expression imparting table, but the amount of each change can be set and changed by the user. It may be.

【0119】この場合、図5のグループ時間決定テーブ
ルのテンポの境界値を可変にし、例えば「オルタネート
の起こり易さ」というパラメータにとして、ユーザが変
更できるようにすればよい。
In this case, the boundary value of the tempo in the group time determination table shown in FIG. 5 may be made variable to allow the user to change the parameter to, for example, a parameter “probability of occurrence of an alternate”.

【0120】また、ストローク表情付与テーブルは、ダ
ウンピッキング用又はアップピッキング用のものだけを
用意して参照するようにしてもよい。例えば、ダウンピ
ッキング用のものだけが用意されている場合は、最高音
の設定を最低音に適用するなど、音高順を反対に適用す
ることにより、アップピッキング用に用いることができ
る。
Further, the stroke expression imparting table may be prepared and referred to only for down picking or for up picking. For example, when only the down-pick is prepared, the pitch can be used for up-picking by applying the pitch order in reverse, such as applying the highest note setting to the lowest note.

【0121】さらに、ダウンピッキング用のストローク
表情付与テーブルをアップピッキングに適用するとき
は、数値を5割増にするなどの変更を加えてから適用す
るようにしてもよい。
Further, when the stroke expression imparting table for down picking is applied to up picking, it may be applied after making a change such as increasing the numerical value by 50%.

【0122】ストローク表情付与テーブルは、6音の和
音用のものだけを用意して、その他の音数の和音に適用
してもよい。この場合に、例えば2音の和音に適用する
時は、最高音と最低音のパラメータの変更値を使用すれ
ばよい。
The stroke expression imparting table may be prepared for only six chords, and may be applied to chords of other numbers. In this case, for example, when applied to a chord of two tones, the changed values of the parameters of the highest note and the lowest note may be used.

【0123】なお、本実施例では、発音タイミングと発
音量の変更値を一定にしたが、これをある程度ランダム
に変更することによって、画一的でない人間的な自然な
ばらつきを与えることができる。
In the present embodiment, the change values of the sounding timing and the sounding amount are fixed, but by changing them to some extent at random, it is possible to give a non-uniform natural variation.

【0124】また、本実施例では、複数の同じ音程の和
音イベントに対してストローク表情を付与したが、本実
施例は複数の異なる音程の和音イベントに対しても適用
することができる。この場合、和音イベント中の次のタ
イミングの音符イベントと発音時間が重なる音符イベン
トの発音終了時刻が、次のタイミングの和音イベントの
最初に発音される音符イベントの発音開始時刻の直前に
なるように編集する。こうすることにより、実際のギタ
ー等の演奏における和音の構成音が変わる場合の指の押
さえ直しをシミュレートすることができる。
In the present embodiment, a stroke expression is given to a plurality of chord events having the same pitch. However, the present embodiment can be applied to a plurality of chord events having different pitches. In this case, the note ending time of the note event whose sounding time overlaps with the note event of the next timing in the chord event is set to be immediately before the sounding start time of the note event to be sounded first of the chord event of the next timing. To edit. By doing so, it is possible to simulate re-pressing of a finger when a constituent sound of a chord changes in an actual performance of a guitar or the like.

【0125】なお、楽曲データ(演奏データ)のフォー
マットは、演奏イベントの発生時刻を1つ前のイベント
からの時間で表した「イベント+相対時間」、演奏イベ
ントの発生時刻を曲や小節内における絶対時間で表した
「イベント+絶対時間」、音符の音高と符長あるいは休
符と休符長で楽曲データを表した「音高(休符)+符
長」、演奏の最小分解能毎にメモリの領域を確保し、演
奏イベントの発生する時刻に対応するメモリ領域に演奏
イベントを記憶した「ベタ方式」等、どのような形式で
もよい。
The format of the music data (performance data) is "event + relative time" which represents the time of occurrence of the performance event by the time from the immediately preceding event, and the time of occurrence of the performance event is expressed in the music or bar. "Event + absolute time" expressed in absolute time, "pitch (rest) + note length" expressing music data in note pitch and note length or rest and rest length, minimum performance resolution The memory area may be secured, and the performance event may be stored in a memory area corresponding to the time when the performance event occurs.

【0126】また、楽曲データの処理方法は、設定され
たテンポに応じて処理周期を変更する方法、処理周期は
一定で、楽曲データ中のタイミングデータの値を設定さ
れたテンポに応じて変更する方法、処理周期は一定で、
1回の処理において楽曲データ中のタイミングデータの
計数の仕方をテンポに応じて変更する方法等、どのよう
なものであってもよい。
The method of processing the music data is to change the processing cycle according to the set tempo. The processing cycle is constant, and the value of the timing data in the music data is changed according to the set tempo. The method and processing cycle are constant,
Any method may be used, such as a method of changing the timing data counting method in the music data in one process according to the tempo.

【0127】さらに、複数チャンネル分の楽曲データの
記憶方法としては、複数のチャンネルのデータが混在記
憶された形式でもよいし、各チャンネルのデータがトラ
ック毎に分かれて記憶されている形式でもよい。
Further, the method of storing music data for a plurality of channels may be a format in which data of a plurality of channels are mixedly stored, or a format in which data of each channel is separately stored for each track.

【0128】さらに、またメモリ上において、時系列の
楽曲データが連続する領域に記憶されていてもよいし、
飛び飛びの領域に散在して記憶されているデータを、連
続するデータとして別途管理するようにしてもよい。す
なわち、時系列的に連続するデータとして管理すること
ができればよく、メモリ上で連続して記憶されているか
否かは問題ではない。
Further, time-series music data may be stored in a continuous area on the memory,
Data scattered and stored in discrete areas may be separately managed as continuous data. That is, it is only necessary to be able to manage the data as time-series continuous data, and it does not matter whether the data is continuously stored in the memory.

【0129】なお、本実施例の楽曲データ編集装置1は
電子楽器、パソコン+アプリケーションソフトウェアの
形態、カラオケ装置や、ゲーム装置、携帯電話等の携帯
型通信端末、自動演奏ピアノなどどのような形態をとっ
てもよい。
Note that the music data editing apparatus 1 of this embodiment may take any form such as an electronic musical instrument, a personal computer + application software, a karaoke apparatus, a game apparatus, a portable communication terminal such as a mobile phone, and an automatic performance piano. You may take it.

【0130】携帯型通信端末に適用した場合、端末のみ
で所定の機能が完結している場合に限らず、機能の一部
をサーバ側に持たせ、端末とサーバとからなるシステム
全体として所定の機能を実現するようにしてもよい。
When the present invention is applied to a portable communication terminal, it is not limited to a case where a predetermined function is completed only by the terminal, but a part of the function is provided on the server side, and a predetermined system is formed as a whole including the terminal and the server. The function may be realized.

【0131】また、電子楽器の形態を取った場合、その
形態は鍵盤楽器に限らず、弦楽器タイプ、打楽器タイプ
等の形態でもよい。
In the case of an electronic musical instrument, the form is not limited to a keyboard instrument, but may be a stringed instrument type, a percussion instrument type, or the like.

【0132】また、音源装置、自動演奏装置等を1つの
電子楽器本体に内蔵したものに限らず、それぞれが別体
の装置であり、MIDIや各種ネットワーク等の通信手
段を用いて各装置を接続するものであってもよい。
The sound source device, the automatic performance device, and the like are not limited to those built into one electronic musical instrument main body, but each device is a separate device, and each device is connected using communication means such as MIDI or various networks. May be used.

【0133】なお、本実施例は、本実施例に対応するコ
ンピュータプログラム等をインストールした市販のコン
ピュータ等によって、実施させるようにしてもよい。
Note that the present embodiment may be implemented by a commercially available computer or the like in which a computer program or the like corresponding to the present embodiment is installed.

【0134】その場合には、本実施例に対応するコンピ
ュータプログラム等を、CD−ROMやフロッピー(登
録商標)ディスク等の、コンピュータが読み込むことが
出来る記憶媒体に記憶させた状態で、ユーザに提供して
もよい。
In this case, the computer program or the like corresponding to the present embodiment is provided to the user while being stored in a computer-readable storage medium such as a CD-ROM or a floppy (registered trademark) disk. May be.

【0135】そのコンピュータ等が、LAN、インター
ネット、電話回線等の通信ネットワークに接続されてい
る場合には、通信ネットワークを介して、コンピュータ
プログラムや各種データ等をコンピュータ等に提供して
もよい。
When the computer or the like is connected to a communication network such as a LAN, the Internet, or a telephone line, a computer program or various data may be provided to the computer or the like via the communication network.

【0136】以上実施例に沿って本発明を説明したが、
本発明はこれらに制限されるものではない。例えば、種
々の変更、改良、組合せ等が可能なことは当業者に自明
であろう。
Although the present invention has been described in connection with the preferred embodiments,
The present invention is not limited to these. For example, it will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

【0137】[0137]

【発明の効果】以上説明したように、本発明によれば、
楽曲データにストローク表情を付与することの出来る楽
曲データ編集装置を提供することができる。
As described above, according to the present invention,
A music data editing device capable of giving a stroke expression to music data can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施例による楽曲データ編集装置1
のハードウェア構成を示すブロック図である。
FIG. 1 is a music data editing apparatus 1 according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a hardware configuration of the first embodiment.

【図2】 本発明の実施例による楽曲データMDのフォ
ーマットを表す概念図である。
FIG. 2 is a conceptual diagram showing a format of music data MD according to an embodiment of the present invention.

【図3】 図1のCPU5で行う本発明の実施例による
メイン処理を表すフローチャートである。
FIG. 3 is a flowchart showing a main process performed by a CPU 5 in FIG. 1 according to an embodiment of the present invention.

【図4】 図3のステップSA10で行うストローク種
類決定処理を表すフローチャートである。
FIG. 4 is a flowchart illustrating a stroke type determination process performed in step SA10 of FIG. 3;

【図5】 本発明の実施例によるグループ時間決定テー
ブルの1例である。
FIG. 5 is an example of a group time determination table according to an embodiment of the present invention.

【図6】 本発明の実施例のストローク種類決定処理に
より、ストローク種類が決定された楽譜の例である。
FIG. 6 is an example of a musical score whose stroke type has been determined by the stroke type determination processing according to the embodiment of the present invention.

【図7】 楽曲データMDをピアノロール表示で表した
図である。
FIG. 7 is a diagram showing music data MD in a piano roll display.

【図8】 楽曲データMDをピアノロール表示で表した
図である。
FIG. 8 is a diagram showing music data MD in a piano roll display.

【図9】 図3のステップSA11で行うストローク表
情付与処理を表すフローチャートである。
FIG. 9 is a flowchart illustrating a stroke expression providing process performed in step SA11 of FIG. 3;

【図10】 図9のステップSC4で参照するストロー
ク表情付与テーブルの1例である。
FIG. 10 is an example of a stroke expression assignment table referred to in step SC4 of FIG. 9;

【符号の説明】[Explanation of symbols]

1…楽曲データ編集装置、2…バス、3…RAM、4…
ROM、5…CPU、6…タイマ、7…外部記憶装置、
8…検出回路、9…パネル操作子、10…表示回路、1
1…ディスプレイ、12…音源回路、13…効果回路、
14…サウンドシステム、15…演奏操作子、16…M
IDI I/F、17…通信I/F、18…MIDI機
器、19…通信ネットワーク、20…サーバコンピュー
1 ... music data editing device, 2 ... bus, 3 ... RAM, 4 ...
ROM, 5 CPU, 6 timer, 7 external storage device,
8 detection circuit, 9 panel operator, 10 display circuit, 1
1 display, 12 sound source circuit, 13 effect circuit,
14: sound system, 15: performance operator, 16: M
IDI I / F, 17 communication I / F, 18 MIDI equipment, 19 communication network, 20 server computer

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 楽曲データを入力する楽曲データ入力手
段と、 前記楽曲データ内からほぼ同時期に発音される複数の音
符データで構成される和音データを検出する和音検出手
段と、 前記複数の音符データの発音順を決定する発音順序決定
手段と、 前記決定された発音順に基づき前記複数の音符データの
発音タイミングを編集する発音タイミング編集手段とを
有する楽曲データ編集装置。
1. music data input means for inputting music data; chord detection means for detecting chord data composed of a plurality of note data pronounced at substantially the same time from the music data; A music data editing apparatus comprising: a sound order determining unit that determines a sound order of data; and a sound timing editing unit that edits sound timings of the plurality of note data based on the determined sound order.
【請求項2】 前記発音順は、最低音から順に発音する
ダウンピッキングと最高音から順に発音するアップピッ
キングとのいずれか一方である請求項1記載の楽曲デー
タ編集装置。
2. The music data editing apparatus according to claim 1, wherein the order of sound generation is one of down picking that sounds in order from the lowest sound and up picking that sounds in order from the highest sound.
【請求項3】 さらに、前記楽曲データの再生テンポを
検出するテンポ検出手段を有し、 前記発音順序決定手段は前記テンポに基づき前記複数の
音符データの発音順を決定する請求項1記載の楽曲デー
タ編集装置。
3. The music composition according to claim 1, further comprising tempo detection means for detecting a reproduction tempo of the music data, wherein the sound order determination means determines the sound order of the plurality of note data based on the tempo. Data editing device.
【請求項4】 さらに、前記楽曲データの拍子を検出す
る拍子検出手段を有し、 前記発音順序決定手段は前記拍子に基づき前記複数の音
符データの発音順を決定する請求項1記載の楽曲データ
編集装置。
4. The music data according to claim 1, further comprising a time signature detecting means for detecting a time signature of the music data, wherein the sound order determining means determines a sound order of the plurality of note data based on the time signature. Editing device.
【請求項5】 さらに、前記発音順に基づき前記複数の
音符データの楽音特性を編集する楽音特性編集手段を有
する請求項1記載の楽曲データ編集装置。
5. The music data editing apparatus according to claim 1, further comprising a tone characteristic editing unit that edits tone characteristics of the plurality of note data based on the order of sound generation.
【請求項6】 楽曲データを入力する楽曲データ入力工
程と、 前記楽曲データ内からほぼ同時期に発音される複数の音
符データで構成される和音データを検出する和音検出工
程と、 前記複数の音符データの発音順を決定する発音順序決定
工程と、 前記決定された発音順に基づき前記複数の音符データの
発音タイミングを編集する発音タイミング編集工程とを
有する楽曲データ編集方法。
6. A music data input step of inputting music data; a chord detection step of detecting chord data composed of a plurality of note data pronounced at substantially the same time from the music data; A music data editing method, comprising: a sound order determining step for determining a sound order of data; and a sound timing editing step for editing sound timing of the plurality of note data based on the determined sound order.
【請求項7】 楽曲データを入力する楽曲データ入力手
順と、 前記楽曲データ内からほぼ同時期に発音される複数の音
符データで構成される和音データを検出する和音検出手
順と、 前記複数の音符データの発音順を決定する発音順序決定
手順と、 前記決定された発音順に基づき前記複数の音符データの
発音タイミングを編集する発音タイミング編集手順とを
有する楽曲データ編集手順をコンピュータに実行させる
ためのプログラム。
7. A music data input procedure for inputting music data, a chord detection procedure for detecting chord data composed of a plurality of note data pronounced at substantially the same time from the music data, and the plurality of music notes A program for causing a computer to execute a music data editing procedure having a pronunciation sequence determining procedure for determining a pronunciation sequence of data, and a pronunciation timing editing procedure for editing a pronunciation timing of the plurality of note data based on the determined pronunciation sequence. .
JP2001114175A 2001-04-12 2001-04-12 Music data editing apparatus, method, and program Expired - Fee Related JP3680756B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001114175A JP3680756B2 (en) 2001-04-12 2001-04-12 Music data editing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001114175A JP3680756B2 (en) 2001-04-12 2001-04-12 Music data editing apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2002311952A true JP2002311952A (en) 2002-10-25
JP3680756B2 JP3680756B2 (en) 2005-08-10

Family

ID=18965290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001114175A Expired - Fee Related JP3680756B2 (en) 2001-04-12 2001-04-12 Music data editing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP3680756B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084175A1 (en) * 2003-03-20 2004-09-30 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
JP2007256364A (en) * 2006-03-20 2007-10-04 Yamaha Corp Performance data editing device and program
JP2015148663A (en) * 2014-02-05 2015-08-20 ヤマハ株式会社 Music processing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084175A1 (en) * 2003-03-20 2004-09-30 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
US7189915B2 (en) 2003-03-20 2007-03-13 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
JP2007256364A (en) * 2006-03-20 2007-10-04 Yamaha Corp Performance data editing device and program
JP2015148663A (en) * 2014-02-05 2015-08-20 ヤマハ株式会社 Music processing device

Also Published As

Publication number Publication date
JP3680756B2 (en) 2005-08-10

Similar Documents

Publication Publication Date Title
US8791350B2 (en) Accompaniment data generating apparatus
JP3915807B2 (en) Automatic performance determination device and program
JP3747758B2 (en) Automatic performance device
JPH10214083A (en) Musical sound generating method and storage medium
JP4407473B2 (en) Performance method determining device and program
JP3680756B2 (en) Music data editing apparatus, method, and program
JP3654227B2 (en) Music data editing apparatus and program
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP3598904B2 (en) Automatic performance data editing device and medium recording data editing program
JP3656584B2 (en) Performance data processing apparatus and program
JP3379414B2 (en) Punch-in device, punch-in method, and medium recording program
JP3430895B2 (en) Automatic accompaniment apparatus and computer-readable recording medium recording automatic accompaniment control program
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP5104414B2 (en) Automatic performance device and program
JP2002333883A (en) Musical piece data editing system, method and program
JP5548975B2 (en) Performance data generating apparatus and program
JP2000003175A (en) Musical tone forming method, musical tone data forming method, musical tone waveform data forming method, musical tone data forming method and memory medium
JP3777976B2 (en) Performance information analyzing apparatus and recording medium
JP4186802B2 (en) Automatic accompaniment generator and program
JP3637782B2 (en) Data generating apparatus and recording medium
JP4182889B2 (en) Chord composition pitch determination device and program
US7332667B2 (en) Automatic performance apparatus
JPH10171475A (en) Karaoke (accompaniment to recorded music) device
JP5104415B2 (en) Automatic performance device and program
JP2002278553A (en) Playing information analyzer

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040914

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050509

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090527

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100527

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110527

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130527

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees