[go: up one dir, main page]

JP2016197184A - Pronunciation learning content providing device, system, program, and method - Google Patents

Pronunciation learning content providing device, system, program, and method Download PDF

Info

Publication number
JP2016197184A
JP2016197184A JP2015077290A JP2015077290A JP2016197184A JP 2016197184 A JP2016197184 A JP 2016197184A JP 2015077290 A JP2015077290 A JP 2015077290A JP 2015077290 A JP2015077290 A JP 2015077290A JP 2016197184 A JP2016197184 A JP 2016197184A
Authority
JP
Japan
Prior art keywords
english
pronunciation learning
pronunciation
character string
learning support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015077290A
Other languages
Japanese (ja)
Inventor
一瀬敏樹
Toshiki Isse
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ichinose Toshiki
Original Assignee
Ichinose Toshiki
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ichinose Toshiki filed Critical Ichinose Toshiki
Priority to JP2015077290A priority Critical patent/JP2016197184A/en
Publication of JP2016197184A publication Critical patent/JP2016197184A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device allowing easy learning of fluent and various speech methods of English phrases.SOLUTION: This device outputs a string formed of a pronunciation learning support sentence string. This pronunciation learning support sentence string is associated with alphabetic words and their pronunciation methods. (1) When the pronunciation of the end of an alphabetic word is a consonant, the kana corresponding to the consonant is eliminated from the kana notation of the alphabetic word, and a pronunciation symbol or spelling expressing the consonant is added. (2) When the pronunciation of R of the end of an alphabetic word is a non-consonant, the alphabetic word is expressed by kana notation, or the kana corresponding to R is eliminated from the kana notation and R is added. (3) When the pronunciation of W of the end of an alphabetic word is a non-consonant, the alphabetic word is expressed by kana notation, or the kana corresponding to W is eliminated from the kana notation and W is added. (4) When the pronunciation of Y of the end of an alphabetic word is a non-consonant, the alphabetic word is expressed by kana notation, or the kana corresponding to Y is eliminated from the kana notation and Y is added. (5) If none of the above cases, the alphabetic word is expressed by kana notation.SELECTED DRAWING: Figure 3

Description

本発明は、発音学習コンテンツ提供装置、システム、プログラム及び方法に関する。   The present invention relates to a pronunciation learning content providing apparatus, system, program, and method.

英語フレーズの話し方を学習する際に用いられる学習装置では、主に3つの学習方法が用いられていた。
まず第1の学習方法は、英語フレーズをその構成要素である英単語に分解し、各英単語に対応する仮名表記を用いて英語フレーズの話し方を学習する方法である。しかし仮名表記で用いられる仮名文字は、1拍(モーラ)単位で音声を表記する文字なので、語末が子音で発音される英単語の発音方法を学ぶ際、学習者がこの子音の直後に不要な母音を加えて発音することを助長した(但しこの子音が撥音の場合を除く)。例えば、英単語「IT」の仮名表記「イット」は、学習者が、語末の綴り字「T」で表される子音の直後に不要な母音「オ」を加えて発音することを助長した。もし英単語の語末の子音の直後に不要な母音を加えて発音すると、学習者はこの語末の子音と後続する英単語の音声とをうまく結合することが出来なくなる。したがって、英語フレーズに語末が子音で発音される英単語が含まれる殆どの場合、学習者は英語フレーズの流暢な話し方を学ぶことが出来なかった。ここで、「語末の子音と後続する英単語の音声とを結合する」とは、語末の子音と後続する英単語の先頭の音声とを間を置かずに発音することである。
第2の学習方法は、英語フレーズをその構成要素である英単語に分解し、各英単語に対応する発音記号列を用いて英語フレーズの話し方を学習する方法である。しかしこの方法では、学習者が全ての発音記号の発音方法をまず習熟しなければならないので、英単語の発音を学ぶ際の学習者の負担が大きかった。また、結合する可能性がある語末の子音と後続する音声が、何と何であって、それらが英語フレーズの何処にあるかが学習者には分かり難いので、学習者にとって語末の子音と後続する英単語の音声とを結合することが難しかった。したがって、英語フレーズに語末が子音で発音される英単語が含まれる場合、学習者は英語フレーズの流暢な話し方を学ぶことが難しかった。
第3の学習方法は、英語フレーズがネイティブスピーカーによって実際に話されるときの音声を、あらかじめ教師が仮名文字列に書き起こし、この仮名文字列を用いて英語フレーズの話し方を学習する方法である。その際、英語フレーズの話し方と、隣接する英単語の音声を結合する方法との関係を理解しやすいように、隣接する英単語の音声を結合する際は、この隣接する英単語の間にその旨を表示するマークを記載していた(特許文献1、及び図1参照)。しかし、この方法では英語フレーズの話し方が、話者の話し方に限定されるという問題があった。英語フレーズの話し方は、各英単語の発音方法(例えば、イギリス式標準発音や一般アメリカ英語など)や、各英単語の音声を結合する方法(どの隣接する英単語の音声を結合し、どの隣接する英単語の音声を結合しないかということで、話者の話す速度等によって変わる場合がある)によって、様々な方法が考えられるが、この方法では、話者に固有の「英単語の発音方法」や、話者に固有の「隣接する英単語の音声を結合する方法」に限定されるため、学習者は話者に固有の英語フレーズの話し方しか学べなかった。
In the learning apparatus used when learning how to speak English phrases, three learning methods are mainly used.
First, the first learning method is a method in which an English phrase is decomposed into its constituent English words, and how to speak English phrases using kana notation corresponding to each English word. However, the kana characters used in kana notation are characters that describe speech in units of one beat (mora), so when learning how to pronounce English words whose endings are pronounced with consonants, the learner is not required immediately after this consonant. Assisted with the addition of vowel sounds (except when this consonant is repellent). For example, the kana notation “it” for the English word “IT” encouraged the learner to add an unnecessary vowel “o” immediately after the consonant represented by the spelling “T” at the end of the word. If an unnecessary vowel is added immediately after the consonant at the end of an English word and pronounced, the learner cannot successfully combine the consonant at the end of the word with the speech of the following English word. Therefore, in most cases where the English phrase contains English words whose endings are consonant, the learner could not learn how to speak the English phrase fluently. Here, “combining the consonant at the end of the word and the sound of the following English word” means to pronounce the consonant at the end of the word and the sound at the beginning of the following English word without any gap.
The second learning method is a method in which an English phrase is decomposed into its constituent English words, and the English phrase is learned using pronunciation symbol strings corresponding to the English words. However, with this method, the learner must first master the pronunciation method of all phonetic symbols, so the burden on the learner when learning how to pronounce English words was heavy. In addition, it is difficult for the learner to understand what the consonant at the end of the word and the subsequent speech that may be combined, and where they are in the English phrase. It was difficult to combine the voice of the word. Therefore, when an English phrase includes an English word whose end is pronounced with a consonant, it is difficult for the learner to learn how to speak the English phrase fluently.
The third learning method is a method in which a teacher transcribes a voice when an English phrase is actually spoken by a native speaker into a kana character string in advance, and learns how to speak an English phrase using the kana character string. . In order to make it easier to understand the relationship between how to speak an English phrase and the method of combining the speech of adjacent English words, when combining the speech of adjacent English words, The mark which displays the effect was described (refer to Patent Document 1 and FIG. 1). However, this method has a problem that the way of speaking English phrases is limited to that of the speaker. You can speak English phrases using the pronunciation method of each English word (for example, standard English pronunciation or general American English), or the method of combining the voices of each English word (combining the voices of which adjacent English words, which adjacent Depending on whether or not the voice of the English word to be combined is combined, it may vary depending on the speaker's speaking speed, etc.), but there are various methods possible. ”And“ how to combine adjacent English words ”specific to the speaker, the learner could only learn how to speak English phrases specific to the speaker.

山崎 祐一著 「英語リスニング大特訓」 ジェイ・リサーチ出版 2012年Yuichi Yamazaki “Special Training in English Listening” J-Research Publishing 2012

本発明は、このような点に鑑みてなされたものであって、英単語の発音記号列を用いる従来の方法と比べて英単語の発音を学ぶ際の負担が少ないだけでなく、語末が子音で発音される英単語が英語フレーズに含まれる場合でも英語フレーズの流暢で多様な話し方を容易に学習できる「発音学習コンテンツ提供装置」、「発音学習コンテンツ提供システム」、「発音学習コンテンツ提供プログラム」、及び「発音学習コンテンツ提供方法」を提供することを目的とする。 The present invention has been made in view of the above points, and not only has less burden on learning pronunciation of English words than the conventional method using pronunciation symbol strings of English words, but the end of the word is a consonant. Even if English words that are pronounced in English are included in English phrases, "pronunciation learning content provision device", "pronunciation learning content provision system", "pronunciation learning content provision program" that can easily learn various ways of speaking with fluent English phrases And “pronunciation learning content provision method”.

本発明者は鋭意検討を重ねた結果、上記課題が下記の手段により達成されることを見出した。 As a result of intensive studies, the present inventor has found that the above problems can be achieved by the following means.

(1)
英単語を記憶する英単語記憶手段と、
前記記憶された英単語からなる英語フレーズを受付ける英語フレーズ受付手段と、
前記英単語記憶手段に記憶された英単語と当該英単語の発音方法とに対応付けられた発音学習支援文字列を記憶する発音学習支援文字列記憶手段と、
前記受付けられた英語フレーズに含まれる各英単語に対応する発音学習支援文字列を、前記発音学習支援文字列記憶手段を用いて、取得する英単語発音学習支援文字列取得手段と、
前記受付けられた英語フレーズの話し方を表す、前記取得された発音学習支援文字列からなる列を出力する英語フレーズ発音学習支援文字列出力手段と、
を備えた発音学習コンテンツ提供装置であって、
前記発音学習支援文字列記憶手段に記憶される、前記英単語と当該英単語の発音方法とに対応付けられた発音学習支援文字列が、後述する第1の性質を有することを特徴とする発音学習コンテンツ提供装置。
第1の性質:
a)もし対応する英単語の語末が対応する発音方法によって子音で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記から当該子音に対応する仮名文字を削除した部分仮名表記の末尾に、当該子音を表記する発音記号を表す文字群又は当該子音に対応する綴り字を表す文字群を加えた文字列であり、
b)もし対応する英単語の語末にR音に対応する綴り字があり、且つ当該綴り字が対応する発音方法によってR音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、R音を表す文字群を加えた文字列であり、
c)もし対応する英単語の語末に第1の半母音に対応する綴り字があり、且つ当該綴り字が対応する発音方法によって第1の半母音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第1の半母音を表す文字群を加えた文字列であり、
d)もし対応する英単語の語末に第2の半母音に対応する綴り字があり、且つ当該綴り字が対応する発音方法によって第2の半母音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第2の半母音を表す文字群を加えた文字列であり、
e)もし前記a)〜d)の何れでもない場合は、
当該英単語と当該発音方法とに対応する仮名表記である。
(1)
English word storage means for storing English words,
An English phrase receiving means for receiving an English phrase composed of the stored English words;
Pronunciation learning support character string storage means for storing a pronunciation learning support character string associated with the English word stored in the English word storage means and the pronunciation method of the English word;
Pronunciation learning support character string acquisition means for acquiring pronunciation learning support character strings corresponding to each English word included in the accepted English phrase using the pronunciation learning support character string storage means;
An English phrase pronunciation learning support character string output means for outputting a sequence of the acquired pronunciation learning support character strings, which represents how to speak the accepted English phrase;
A pronunciation learning content providing device comprising:
The pronunciation learning support character string associated with the English word and the pronunciation method of the English word stored in the pronunciation learning support character string storage means has a first property to be described later. Learning content providing device.
First property:
a) If the end of the corresponding English word is pronounced as a consonant by the corresponding pronunciation method,
At the end of the partial kana notation in which the kana character corresponding to the consonant is deleted from the kana notation corresponding to the English word and the pronunciation method, the character group representing the phonetic symbol indicating the consonant or the spelling corresponding to the consonant Is a character string with a character group representing
b) If there is a spelling corresponding to the R sound at the end of the corresponding English word and the spelling is pronounced by a non-consonant pronunciation method corresponding to the R sound by the corresponding pronunciation method,
The kana notation corresponding to the English word and the pronunciation method,
A character string in which a character group representing an R sound is added to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
c) If there is a spelling corresponding to the first semi-vowel at the end of the corresponding English word, and the spelling is pronounced by the non-consonant pronunciation method corresponding to the first semi-vowel by the corresponding pronunciation method ,
The kana notation corresponding to the English word and the pronunciation method,
A character string obtained by adding a character group representing the first semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
d) If there is a spelling corresponding to the second semi-vowel at the end of the corresponding English word, and the spelling is pronounced by the non-consonant pronunciation method corresponding to the second semi-vowel by the corresponding pronunciation method ,
The kana notation corresponding to the English word and the pronunciation method,
A character string obtained by adding a character group representing the second semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
e) If none of the above a) to d),
Kana notation corresponding to the English word and the pronunciation method.

(2)
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなる発音学習コンテンツ提供システムであって、前記発音学習コンテンツ提供システムは、
英単語を記憶する英単語記憶手段と、
前記記憶された英単語からなる英語フレーズを前記端末装置から受付ける英語フレーズ受付手段と、
前記英単語記憶手段に記憶された英単語と当該英単語の発音方法とに対応付けられた発音学習支援文字列を記憶する発音学習支援文字列記憶手段と、
前記受付けられた英語フレーズに含まれる各英単語に対応する発音学習支援文字列を、前記発音学習支援文字列記憶手段を用いて、取得する英単語発音学習支援文字列取得手段と、
前記受付けられた英語フレーズの話し方を表す、前記取得された発音学習支援文字列からなる列を前記端末装置に出力させる英語フレーズ発音学習支援文字列出力手段を備えたものであって、
前記発音学習支援文字列記憶手段に記憶される、前記英単語と当該英単語の発音方法とに対応付けられた発音学習支援文字列が、前記第1の性質を有することを特徴とする発音学習コンテンツ提供システム。
(2)
A pronunciation learning content providing system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network, wherein the pronunciation learning content providing system includes:
English word storage means for storing English words,
An English phrase receiving means for receiving from the terminal device an English phrase consisting of the stored English words;
Pronunciation learning support character string storage means for storing a pronunciation learning support character string associated with the English word stored in the English word storage means and the pronunciation method of the English word;
Pronunciation learning support character string acquisition means for acquiring pronunciation learning support character strings corresponding to each English word included in the accepted English phrase using the pronunciation learning support character string storage means;
Comprising an English phrase pronunciation learning support character string output means for causing the terminal device to output a sequence of the acquired pronunciation learning support character strings, which represents the accepted way of speaking the English phrase,
The pronunciation learning support character string associated with the English word and the pronunciation method of the English word stored in the pronunciation learning support character string storage means has the first property, Content provision system.

(3)
英単語を記憶する英単語記憶手段と、
前記記憶された英単語からなる英語フレーズを受付ける英語フレーズ受付手段と、
前記英単語記憶手段に記憶された英単語に対応付けられた発音記号列を記憶する英単語発音記号列記憶手段と、
前記記憶された発音記号列から、当該発音記号列に対応する仮名表記を導出する仮名表記導出手段と、
前記受付けられた英語フレーズに含まれる各英単語に対応する発音記号列を、前記英単語発音記号列記憶手段を用いて、取得するとともに、当該英単語と当該発音記号列とに対応する発音学習支援文字列を、前記仮名表記導出手段を用いて導出する英単語発音学習支援文字列導出手段と、
前記受付けられた英語フレーズの話し方を表す、前記導出された発音学習支援文字列からなる列を出力する英語フレーズ発音学習支援文字列出力手段と、
を備えた発音学習コンテンツ提供装置であって、
前記英単語発音学習支援文字列導出手段で導出される、前記英単語と前記発音記号列とに対応する発音学習支援文字列が、後述する第2の性質を有することを特徴とする発音学習コンテンツ提供装置。
第2の性質:
a)もし子音を表記する発音記号が対応する発音記号列の末尾にある場合は、
対応する英単語と当該発音記号列とに対応する仮名表記から当該子音に対応する仮名文字を削除した部分仮名表記の末尾に、当該子音を表記する発音記号を表す文字群又は当該子音に対応する綴り字を表す文字群を加えた文字列であり、
b)もしR音に対応する綴り字が対応する英単語の語末にあり、且つ「R音に対応する非子音の発音記号」が対応する発音記号列の末尾にある場合は、
当該英単語と当該発音記号列とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、R音を表す文字群を加えた文字列であり、
c)もし第1の半母音に対応する綴り字が対応する英単語の語末にあり、且つ「第1の半母音に対応する非子音の発音記号」が対応する発音記号列の末尾にある場合は、
当該英単語と当該発音記号列とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第1の半母音を表す文字群を加えた文字列であり、
d)もし第2の半母音に対応する綴り字が対応する英単語の語末にあり、且つ「第2の半母音に対応する非子音の発音記号」が対応する発音記号列の末尾にある場合は、
当該英単語と当該発音記号列とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第2の半母音を表す文字群を加えた文字列であり、
e)もし前記a)〜d)の何れでもない場合は、
対応する英単語と対応する発音記号列とに対応する仮名表記である。
(3)
English word storage means for storing English words,
An English phrase receiving means for receiving an English phrase composed of the stored English words;
English word phonetic symbol storage means for storing a phonetic symbol string associated with the English words stored in the English word storage means;
Kana notation deriving means for deriving a kana notation corresponding to the phonetic symbol string from the stored phonetic symbol string;
Acquiring phonetic symbol strings corresponding to each English word included in the accepted English phrase using the English word phonetic symbol string storage means, and learning pronunciation corresponding to the English word and the phonetic symbol string English character pronunciation learning support character string deriving means for deriving a support character string using the kana notation deriving means;
An English phrase pronunciation learning support character string output means for outputting a sequence of the derived pronunciation learning support character strings, which represents how to speak the accepted English phrase;
A pronunciation learning content providing device comprising:
The pronunciation learning content, wherein the pronunciation learning support character string corresponding to the English word and the phonetic symbol string derived by the English word pronunciation learning support character string derivation means has a second property to be described later Providing device.
Second property:
a) If the phonetic symbol representing the consonant is at the end of the corresponding phonetic symbol string,
Corresponding to a group of characters representing a phonetic symbol representing the consonant or the consonant at the end of the partial kana notation obtained by deleting the kana character corresponding to the consonant from the kana notation corresponding to the corresponding English word and the phonetic symbol string It is a character string with a group of characters representing spelling,
b) If the spelling corresponding to the R sound is at the end of the corresponding English word and the “non-consonant phonetic symbol corresponding to the R sound” is at the end of the corresponding phonetic symbol string,
Whether it is a kana notation corresponding to the English word and the phonetic symbol string,
A character string in which a character group representing an R sound is added to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
c) if the spelling corresponding to the first semi-vowel is at the end of the corresponding English word and the “non-consonant phonetic corresponding to the first semi-vowel” is at the end of the corresponding phonetic symbol string,
Whether it is a kana notation corresponding to the English word and the phonetic symbol string,
A character string obtained by adding a character group representing the first semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
d) if the spelling corresponding to the second semi-vowel is at the end of the corresponding English word and the “non-consonant phonetic symbol corresponding to the second semi-vowel” is at the end of the corresponding phonetic symbol string,
Whether it is a kana notation corresponding to the English word and the phonetic symbol string,
A character string obtained by adding a character group representing the second semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
e) If none of the above a) to d),
A kana notation corresponding to a corresponding English word and a corresponding phonetic symbol string.

(4)
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなる発音学習コンテンツ提供システムであって、前記発音学習コンテンツ提供システムは、
英単語を記憶する英単語記憶手段と、
前記記憶された英単語からなる英語フレーズを前記端末装置から受付ける英語フレーズ受付手段と、
前記英単語記憶手段に記憶された英単語に対応付けられた発音記号列を記憶する英単語発音記号列記憶手段と、
前記記憶された発音記号列から、当該発音記号列に対応する仮名表記を導出する仮名表記導出手段と、
前記受付けられた英語フレーズに含まれる各英単語に対応する発音記号列を、前記英単語発音記号列記憶手段を用いて、取得するとともに、当該英単語と当該発音記号列とに対応する発音学習支援文字列を、前記仮名表記導出手段を用いて導出する英単語発音学習支援文字列導出手段と、
前記受付けられた英語フレーズの話し方を表す、前記導出された発音学習支援文字列からなる列を前記端末装置に出力させる英語フレーズ発音学習支援文字列出力手段と、
を備えたものであって、
前記英単語発音学習支援文字列導出手段で導出される、前記英単語と前記発音記号列とに対応する発音学習支援文字列が、前記第2の性質を有することを特徴とする発音学習コンテンツ提供システム。
(4)
A pronunciation learning content providing system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network, wherein the pronunciation learning content providing system includes:
English word storage means for storing English words,
An English phrase receiving means for receiving from the terminal device an English phrase consisting of the stored English words;
English word phonetic symbol storage means for storing a phonetic symbol string associated with the English words stored in the English word storage means;
Kana notation deriving means for deriving a kana notation corresponding to the phonetic symbol string from the stored phonetic symbol string;
Acquiring phonetic symbol strings corresponding to each English word included in the accepted English phrase using the English word phonetic symbol string storage means, and learning pronunciation corresponding to the English word and the phonetic symbol string English character pronunciation learning support character string deriving means for deriving a support character string using the kana notation deriving means;
An English phrase pronunciation learning support character string output means for causing the terminal device to output a sequence of the derived pronunciation learning support character strings, which represents the accepted way of speaking the English phrase;
With
Providing pronunciation learning content, wherein the pronunciation learning support character string corresponding to the English word and the phonetic symbol string derived by the English word pronunciation learning support character string deriving means has the second property system.

(5)
英語フレーズと、当該英語フレーズに含まれる各英単語に対応する発音学習支援文字列からなる列とを対応付けて記憶する英語フレーズ発音学習支援文字列記憶手段と、
学習対象となる英語フレーズを前記英語フレーズ発音学習支援文字列記憶手段から選択するための選択情報を受付けるとともに、当該受付けられた選択情報に対応する英語フレーズを、当該英語フレーズ発音学習支援文字列記憶手段から選択する英語フレーズ選択手段と、
前記選択された英語フレーズに対応する、発音学習支援文字列からなる列を、前記前記英語フレーズ発音学習支援文字列記憶手段から取得するとともに、当該英語フレーズと、当該取得された、発音学習支援文字列からなる列とを出力する英語フレーズ発音学習支援文字列出力手段と、
を備えた発音学習コンテンツ提供装置であって、
前記英語フレーズ発音学習支援文字列記憶手段に記憶された、前記発音学習支援文字列からなる列が、後述する第3の性質を有することを特徴とする発音学習コンテンツ提供装置。
第3の性質:
構成要素である発音学習支援文字列が、当該発音学習支援文字列に対応する英単語の発音方法にさらに対応付けられるとともに、
当該発音学習支援文字列が、
a)もし当該英単語の語末が当該発音方法によって子音で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記から当該子音に対応する仮名文字を削除した部分仮名表記の末尾に、当該子音を表記する発音記号を表す文字群又は当該子音に対応する綴り字を表す文字群を加えた文字列であり、
b)もし当該英単語の語末にR音に対応する綴り字があり、且つ当該綴り字が当該発音方法によってR音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、R音を表す文字群を加えた文字列であり、
c)もし当該英単語の語末に第1の半母音に対応する綴り字があり、且つ当該綴り字が当該発音方法によって第1の半母音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第1の半母音を表す文字群を加えた文字列であり、
d)もし当該英単語の語末に第2の半母音に対応する綴り字があり、且つ当該綴り字が当該発音方法によって第2の半母音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第2の半母音を表す文字群を加えた文字列であり、
e)もし前記a)〜d)の何れでもない場合は、
当該英単語と当該発音方法とに対応する仮名表記である。
(5)
An English phrase pronunciation learning support character string storage means for storing an English phrase and a string of pronunciation learning support character strings corresponding to each English word included in the English phrase;
Accepting selection information for selecting an English phrase to be learned from the English phrase pronunciation learning support character string storage means and storing an English phrase corresponding to the received selection information in the English phrase pronunciation learning support character string storage An English phrase selecting means for selecting from the means;
Acquiring a string of pronunciation learning support character strings corresponding to the selected English phrase from the English phrase pronunciation learning support character string storage means, and the English phrase and the acquired pronunciation learning support character An English phrase pronunciation learning support character string output means for outputting a sequence of columns;
A pronunciation learning content providing device comprising:
The pronunciation learning content providing apparatus, wherein a sequence of the pronunciation learning support character strings stored in the English phrase pronunciation learning support character string storage means has a third property to be described later.
Third property:
The pronunciation learning support character string as a constituent element is further associated with the pronunciation method of the English word corresponding to the pronunciation learning support character string,
The pronunciation learning support character string is
a) If the end of the English word is pronounced as a consonant by the pronunciation method,
At the end of the partial kana notation in which the kana character corresponding to the consonant is deleted from the kana notation corresponding to the English word and the pronunciation method, the character group representing the phonetic symbol indicating the consonant or the spelling corresponding to the consonant Is a character string with a character group representing
b) If there is a spelling corresponding to the R sound at the end of the English word and the spelling is pronounced by a non-consonant pronunciation method corresponding to the R sound by the pronunciation method,
The kana notation corresponding to the English word and the pronunciation method,
A character string in which a character group representing an R sound is added to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
c) If there is a spelling corresponding to the first semi-vowel at the end of the English word and the spelling is pronounced by the non-consonant pronunciation method corresponding to the first semi-vowel by the pronunciation method,
The kana notation corresponding to the English word and the pronunciation method,
A character string obtained by adding a character group representing the first semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
d) If there is a spelling corresponding to the second semi-vowel at the end of the English word and the spelling is pronounced by the pronunciation method with a non-consonant pronunciation method corresponding to the second semi-vowel,
The kana notation corresponding to the English word and the pronunciation method,
A character string obtained by adding a character group representing the second semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
e) If none of the above a) to d),
Kana notation corresponding to the English word and the pronunciation method.

(6)
英語フレーズと、当該英語フレーズに含まれる各英単語に対応する発音学習支援文字列からなる列とを対応付けて記憶する英語フレーズ発音学習支援文字列記憶手段と、
学習対象となる、前記発音学習支援文字列からなる列を前記英語フレーズ発音学習支援文字列記憶手段から選択するための選択情報を受付けるとともに、当該受付けられた選択情報に対応する、発音学習支援文字列からなる列を、当該英語フレーズ発音学習支援文字列記憶手段から選択する英語フレーズ発音学習支援文字列選択手段と、
前記選択された、発音学習支援文字列からなる列に対応する英語フレーズを、前記英語フレーズ発音学習支援文字列記憶手段から取得するとともに、当該取得された英語フレーズと、当該発音学習支援文字列からなる列とを出力する英語フレーズ発音学習支援文字列出力手段と、
を備えた発音学習コンテンツ提供装置であって、
前記英語フレーズ発音学習支援文字列記憶手段に記憶された、前記発音学習支援文字列からなる列が、前記第3の性質を有することを特徴とする発音学習コンテンツ提供装置。
(6)
An English phrase pronunciation learning support character string storage means for storing an English phrase and a string of pronunciation learning support character strings corresponding to each English word included in the English phrase;
Accepting selection information for selecting from the English phrase pronunciation learning support character string storage means a string made of the pronunciation learning support character string to be learned, and corresponding to the received selection information An English phrase pronunciation learning support character string selection means for selecting a column consisting of columns from the English phrase pronunciation learning support character string storage means;
The selected English phrase corresponding to the pronunciation learning support character string is acquired from the English phrase pronunciation learning support character string storage means, and from the acquired English phrase and the pronunciation learning support character string. An English phrase pronunciation learning support character string output means for outputting
A pronunciation learning content providing device comprising:
The pronunciation learning content providing apparatus, wherein a sequence of the pronunciation learning support character strings stored in the English phrase pronunciation learning support character string storage means has the third property.

(7)
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなる発音学習コンテンツ提供システムであって、前記発音学習コンテンツ提供システムは、
英語フレーズと、当該英語フレーズに含まれる各英単語に対応する発音学習支援文字列からなる列とを対応付けて記憶する英語フレーズ発音学習支援文字列記憶手段と、
学習対象となる英語フレーズを前記英語フレーズ発音学習支援文字列記憶手段から選択するための選択情報を前記端末装置から受付けるとともに、当該受付けられた選択情報に対応する英語フレーズを、当該英語フレーズ発音学習支援文字列記憶手段から選択する英語フレーズ選択手段と、
前記選択された英語フレーズに対応する、発音学習支援文字列からなる列を、前記英語フレーズ発音学習支援文字列記憶手段から取得するとともに、当該英語フレーズと、当該取得された発音学習支援文字列からなる列とを前記端末装置に出力させる英語フレーズ発音学習支援文字列出力手段を備えたものであって、
前記英語フレーズ発音学習支援文字列記憶手段に記憶された、前記発音学習支援文字列からなる列が、前記第3の性質を有することを特徴とすることを特徴とする発音学習コンテンツ提供システム。
(7)
A pronunciation learning content providing system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network, wherein the pronunciation learning content providing system includes:
An English phrase pronunciation learning support character string storage means for storing an English phrase and a string of pronunciation learning support character strings corresponding to each English word included in the English phrase;
The selection information for selecting the English phrase to be learned from the English phrase pronunciation learning support character string storage means is received from the terminal device, and the English phrase corresponding to the received selection information is received as the English phrase pronunciation learning. English phrase selection means to select from the support character string storage means;
A sequence of pronunciation learning support character strings corresponding to the selected English phrase is acquired from the English phrase pronunciation learning support character string storage means, and from the English phrase and the acquired pronunciation learning support character string Comprising an English phrase pronunciation learning support character string output means for causing the terminal device to output a sequence of
The pronunciation learning content providing system, wherein a sequence of the pronunciation learning support character strings stored in the English phrase pronunciation learning support character string storage means has the third property.

(8)
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなる発音学習コンテンツ提供システムであって、前記発音学習コンテンツ提供システムは、
英語フレーズと、当該英語フレーズに含まれる各英単語に対応する発音学習支援文字列からなる列とを対応付けて記憶する英語フレーズ発音学習支援文字列記憶手段と、
学習対象となる、前記発音学習支援文字列からなる列を前記英語フレーズ発音学習支援文字列記憶手段から選択するための選択情報を前記端末装置から受付けるとともに、当該受付けられた選択情報に対応する、発音学習支援文字列からなる列を、当該英語フレーズ発音学習支援文字列記憶手段から選択する英語フレーズ発音学習支援文字列選択手段と、
前記選択された、発音学習支援文字列からなる列に対応する英語フレーズを、前記英語フレーズ発音学習支援文字列記憶手段から取得するとともに、当該取得された英語フレーズと、当該発音学習支援文字列からなる列とを前記端末装置に出力させる英語フレーズ発音学習支援文字列出力手段を備えたものであって、
前記英語フレーズ発音学習支援文字列記憶手段に記憶された、前記発音学習支援文字列からなる列が、前記第3の性質を有することを特徴とする発音学習コンテンツ提供システム。
(8)
A pronunciation learning content providing system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network, wherein the pronunciation learning content providing system includes:
An English phrase pronunciation learning support character string storage means for storing an English phrase and a string of pronunciation learning support character strings corresponding to each English word included in the English phrase;
Receiving selection information from the terminal device for selecting from the terminal phrase the pronunciation learning support character string to be learned from the English phrase pronunciation support character string storage means, and corresponding to the received selection information; English phrase pronunciation learning support character string selection means for selecting a sequence of pronunciation learning support character strings from the English phrase pronunciation learning support character string storage means;
The selected English phrase corresponding to the pronunciation learning support character string is acquired from the English phrase pronunciation learning support character string storage means, and from the acquired English phrase and the pronunciation learning support character string. Comprising an English phrase pronunciation learning support character string output means for causing the terminal device to output a sequence of
The pronunciation learning content providing system, wherein a sequence of the pronunciation learning support character strings stored in the English phrase pronunciation learning support character string storage means has the third property.

(9)
(8)に記載の発音学習コンテンツ提供システムであって、
前記英語フレーズ発音学習支援文字列記憶手段に記憶された、前記発音学習支援文字列からなる列に対応する音声データを記憶する英語フレーズ音声記憶手段と、
前記英語フレーズ音声記憶手段に記憶された前記音声データを前記端末装置に再生させる英語フレーズ音声再生手段と、
を備え、
前記英語フレーズ発音学習支援文字列出力手段で、前記発音学習支援文字列からなる列と、当該発音学習支援文字列からなる列に対応する英語フレーズとを、前記端末装置に出力させる際に、
a)前記英語フレーズ音声記憶手段に記憶された、当該発音学習支援文字列からなる列に対応する音声データを、前記英語フレーズ音声再生手段を用いて前記端末装置に再生させながら、
b)当該音声データの再生箇所に対応する、当該英語フレーズを分割した部分と、当該再生箇所に対応する、当該発音学習支援文字列からなる列を分割した部分とを、前記端末装置に出力させることを特徴とする発音学習コンテンツ提供システム。
(9)
The pronunciation learning content providing system according to (8),
English phrase speech storage means for storing speech data corresponding to a sequence of the pronunciation learning support character strings stored in the English phrase pronunciation learning support character string storage means;
English phrase voice reproduction means for causing the terminal device to reproduce the voice data stored in the English phrase voice storage means;
With
In the English phrase pronunciation learning support character string output means, when causing the terminal device to output a string consisting of the pronunciation learning support character string and an English phrase corresponding to the string consisting of the pronunciation learning support character string,
a) While reproducing the voice data corresponding to the sequence of the pronunciation learning support character strings stored in the English phrase voice storage means, using the English phrase voice reproduction means,
b) causing the terminal device to output a portion obtained by dividing the English phrase corresponding to the reproduction location of the audio data and a portion obtained by dividing the sequence of the pronunciation learning support character string corresponding to the reproduction location. A pronunciation learning content provision system characterized by this.

(10)
(1)、(3)、(5)、又は(6)のいずれか1項記載の発音学習コンテンツ提供装置であって、
前記英語フレーズ発音学習支援文字列出力手段で出力される、発音学習支援文字列の末尾に位置する、前記発音記号を表す文字群の属性と前記綴り字を表す文字群の属性が、当該発音学習支援文字列に後続する発音学習支援文字列の先頭文字が半母音を含む直音又は母音を表記する仮名文字であるか否かで異なることを特徴とする発音学習コンテンツ提供装置。
(10)
The pronunciation learning content providing apparatus according to any one of (1), (3), (5), and (6),
The attribute of the character group representing the phonetic symbol and the attribute of the character group representing the spelling character located at the end of the pronunciation learning support character string output from the English phrase pronunciation learning support character string output means are the pronunciation learning A pronunciation learning content providing apparatus, which differs depending on whether or not the first character of the pronunciation learning support character string following the support character string is a kana character expressing a direct sound including a semi-vowel or a vowel.

(11)
(2)、(4)、(7)、又は(8)のいずれか1項記載の発音学習コンテンツ提供システムであって、
前記英語フレーズ発音学習支援文字列出力手段で出力される、発音学習支援文字列の末尾に位置する、前記発音記号を表す文字群の属性と前記綴り字を表す文字群の属性が、当該発音学習支援文字列に後続する発音学習支援文字列の先頭文字が半母音を含む直音又は母音を表記する仮名文字であるか否かで異なることを特徴とする発音学習コンテンツ提供システム。
(11)
(2) The pronunciation learning content providing system according to any one of (4), (7), and (8),
The attribute of the character group representing the phonetic symbol and the attribute of the character group representing the spelling character located at the end of the pronunciation learning support character string output from the English phrase pronunciation learning support character string output means are the pronunciation learning A pronunciation learning content providing system, which differs depending on whether or not the first character of the pronunciation learning support character string following the support character string is a kana character expressing a straight sound including a semi-vowel or a vowel.

(12)
(9)に記載の発音学習コンテンツ提供システムであって、
前記英語フレーズ発音学習支援文字列出力手段で出力される、発音学習支援文字列の末尾に位置する、前記発音記号を表す文字群の属性と前記綴り字を表す文字群の属性が、当該発音学習支援文字列に後続する発音学習支援文字列の先頭文字が半母音を含む直音又は母音を表記する仮名文字であるか否かで異なることを特徴とする発音学習コンテンツ提供システム。
(12)
The pronunciation learning content providing system according to (9),
The attribute of the character group representing the phonetic symbol and the attribute of the character group representing the spelling character located at the end of the pronunciation learning support character string output from the English phrase pronunciation learning support character string output means are the pronunciation learning A pronunciation learning content providing system, which differs depending on whether or not the first character of the pronunciation learning support character string following the support character string is a kana character expressing a straight sound including a semi-vowel or a vowel.

(13)
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなるシステムを、(11)に記載の発音学習コンテンツ提供システムが備える各手段として機能させる発音学習コンテンツ提供プログラム。
(13)
Providing pronunciation learning content that causes a system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network to function as each means included in the pronunciation learning content providing system according to (11) program.

(14)
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなるシステムを、(11)に記載の発音学習コンテンツ提供システムが備える各手段として機能させる発音学習コンテンツ提供プログラムであって、前記システムを、前記端末装置の出力画面に広告を表示する広告表示手段として機能させることを特徴とする発音学習コンテンツ提供プログラム。
(14)
Providing pronunciation learning content that causes a system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network to function as each means included in the pronunciation learning content providing system according to (11) A program for providing pronunciation learning content, wherein the system causes the system to function as an advertisement display unit that displays an advertisement on an output screen of the terminal device.

(15)
(11)に記載の発音学習コンテンツ提供システムにおける発音学習コンテンツ提供方法。
(15)
The pronunciation learning content providing method in the pronunciation learning content providing system according to (11).

(16)
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなるシステムを、(2)、(4)、(7)、(8)、(9)又は(12)のいずれか1項記載の発音学習コンテンツ提供システムが備える各手段として機能させる発音学習コンテンツ提供プログラム。
(16)
(2), (4), (7), (8), (9) or (12) is a system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network. The pronunciation learning content provision program which functions as each means with which the pronunciation learning content provision system of any one of 1) is provided.

(17)
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなるシステムを、(2)、(4)、(7)、(8)、(9)又は(12)のいずれか1項記載の発音学習コンテンツ提供システムが備える各手段として機能させる発音学習コンテンツ提供プログラムであって、前記システムを、前記端末装置の出力画面に広告を表示する広告表示手段として機能させることを特徴とする発音学習コンテンツ提供プログラム。
(17)
(2), (4), (7), (8), (9) or (12) is a system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network. The pronunciation learning content providing program that functions as each unit included in the pronunciation learning content providing system according to claim 1, wherein the system functions as an advertisement display unit that displays an advertisement on the output screen of the terminal device. Pronunciation learning content providing program characterized by that.

(18)
(2)、(4)、(7)、(8)、(9)又は(12)のいずれか1項記載の発音学習コンテンツ提供システムにおける発音学習コンテンツ提供方法。
(18)
The pronunciation learning content providing method in the pronunciation learning content providing system according to any one of (2), (4), (7), (8), (9) or (12).

(19)
コンピューターを、(10)に記載の発音学習コンテンツ提供装置が備える各手段として機能させる発音学習コンテンツ提供プログラム。
(19)
A pronunciation learning content providing program for causing a computer to function as each means included in the pronunciation learning content providing apparatus according to (10).

(20)
(10)に記載の発音学習コンテンツ提供装置における発音学習コンテンツ提供方法。
(20)
The pronunciation learning content providing method in the pronunciation learning content providing apparatus according to (10).

(21)
コンピューターを、(1)、(3)、(5)、又は(6)のいずれか1項記載の発音学習コンテンツ提供装置が備える各手段として機能させる発音学習コンテンツ提供プログラム。
(21)
A pronunciation learning content providing program that causes a computer to function as each unit included in the pronunciation learning content providing apparatus according to any one of (1), (3), (5), and (6).

(22)
(1)、(3)、(5)、又は(6)のいずれか1項記載の発音学習コンテンツ提供装置における発音学習コンテンツ提供方法。
(22)
The pronunciation learning content providing method in the pronunciation learning content providing apparatus according to any one of (1), (3), (5), and (6).

前記第1の性質の(a)、前記第2の性質の(a)又は前記第3の性質の(a)の場合、前記発音学習支援文字列は、
仮名文字列と、末尾に位置する「子音に対応する発音記号を表す文字群(又は子音に対応する綴り字を表す文字群)」とからなる。
前記第1の性質の(b)、前記第2の性質の(b)又は前記第3の性質の(b)の場合、前記発音学習支援文字列は、
仮名文字列からなるか、仮名文字列と末尾に位置する「R音を表す文字群」とからなる。
前記第1の性質の(c)、前記第2の性質の(c)又は前記第3の性質の(c)の場合、前記発音学習支援文字列は、
仮名文字列からなるか、仮名文字列と末尾に位置する「第1の半母音を表す文字群」とからなる。
前記第1の性質の(d)、前記第2の性質の(d)又は前記第3の性質の(d)の場合、前記発音学習支援文字列は、
仮名文字列からなるか、仮名文字列と末尾に位置する「第2の半母音を表す文字群」とからなる。
前記第1の性質の(e)、前記第2の性質の(e)又は前記第3の性質の(e)の場合、前記発音学習支援文字列は、
仮名文字列からなる。
したがって、本発明においては、英単語の発音記号列を用いる従来の方法と比べて、英単語の発音を学ぶ際の負担が少ない。
In the case of the first property (a), the second property (a), or the third property (a), the pronunciation learning support character string is:
It consists of a kana character string and a “character group representing a phonetic symbol corresponding to a consonant (or a character group representing a spelling corresponding to a consonant)” located at the end.
In the case of (b) of the first property, (b) of the second property or (b) of the third property, the pronunciation learning support character string is
It consists of a kana character string or consists of a kana character string and a “character group representing R sound” located at the end.
In the case of (c) of the first property, (c) of the second property or (c) of the third property, the pronunciation learning support character string is
It consists of a kana character string or a kana character string and a “character group representing the first semi-vowel” located at the end.
In the case of (d) of the first property, (d) of the second property or (d) of the third property, the pronunciation learning support character string is
It consists of a kana character string, or a kana character string and a “character group representing the second semi-vowel” located at the end.
In the case of (e) of the first property, (e) of the second property or (e) of the third property, the pronunciation learning support character string is
It consists of a kana character string.
Therefore, in the present invention, compared to the conventional method using the pronunciation symbol string of English words, the burden of learning pronunciation of English words is less.

また、本発明の発音学習支援文字列においては、英単語の語末に発音される子音が、「この子音を表記する発音記号を表す文字群(又はこの子音に対応する綴り字を表す文字群)」で表わされるので、学習者はこの子音の直後に不要な母音を加えるという癖を矯正できる。したがって、英語フレーズに語末が子音で発音される英単語が含まれる場合でも、学習者は隣接する英単語の音声を結合することができ、英語フレーズの流暢な話し方を学習できる。
さらに、英語フレーズの話し方を表す、この発音学習支援文字列からなる列においては、英単語の語末の子音が「仮名文字でない文字群」で表され、後続する英単語の先頭の音声は特殊な例外(1つの子音のみからなる英単語)を除き「仮名文字」で表記される。このため、学習者は、結合する可能性がある語末の子音と後続する音声が、何と何であって、それらが英語フレーズの何処にあるかを容易に判別することができる。したがって、英語フレーズに語末が子音で発音される英単語が含まれる場合でも、学習者は隣接する英単語の音声を容易に結合することができ、英語フレーズの流暢な話し方を容易に学習できる。
In the pronunciation learning support character string of the present invention, a consonant pronounced at the end of an English word is “a character group representing a phonetic symbol representing this consonant (or a character group representing a spelling corresponding to this consonant)”. Therefore, the learner can correct the habit of adding an unnecessary vowel immediately after this consonant. Therefore, even when an English phrase includes an English word whose end is pronounced with a consonant, the learner can combine the sounds of adjacent English words and learn how to speak English phrases fluently.
Furthermore, in this sequence of pronunciation learning support character strings representing the way of speaking English phrases, the consonant at the end of the English word is represented by "character group that is not kana characters", and the leading voice of the following English word is special Except for exceptions (English words consisting of only one consonant), they are written in “kana characters”. For this reason, the learner can easily determine what is the consonant at the end of the word that may be combined and what follows, and where they are in the English phrase. Therefore, even when an English phrase includes an English word whose end is pronounced with a consonant, the learner can easily combine the sounds of adjacent English words, and can easily learn how to speak English phrases fluently.

a)(1)及び(2)の発明においては、発音学習支援文字列記憶手段に、英単語の異なる発音方法に対応した発音学習支援文字列を記憶することが可能である。
b)(3)及び(4)の発明においては、英単語発音学習支援文字列導出手段で、英単語発音記号列記憶手段から取得された発音記号列に対応する発音学習支援文字列が導出され、この英単語発音記号列記憶手段には、英単語の異なる発音方法に対応した発音記号列を記憶することが可能である。
c)(5)、(6)、(7)、(8)及び(9)の発明においては、英語フレーズ発音学習支援文字列記憶手段に、英単語の異なる発音方法に対応した発音学習支援文字列からなる列を記憶することが可能である。
したがって、本発明の発音学習支援文字列は英単語の異なる発音方法に対応できる。
もちろん学習者が意図すれば、隣接する英単語を結合せずに話すことも可能なので、学習者は隣接する英単語の音声を結合することも結合しないことも選択することが出来る。
したがって、本発明において、学習者は英語フレーズの流暢で多様な話し方を容易に学習できる。
a) In the inventions of (1) and (2), pronunciation learning support character strings corresponding to different pronunciation methods of English words can be stored in the pronunciation learning support character string storage means.
b) In the inventions of (3) and (4), the pronunciation learning support character string corresponding to the pronunciation symbol string obtained from the English word pronunciation symbol string storage means is derived by the English word pronunciation learning support character string derivation means. The English word phonetic symbol string storage means can store phonetic symbol strings corresponding to different pronunciation methods of English words.
c) In the inventions of (5), (6), (7), (8) and (9), pronunciation learning support characters corresponding to pronunciation methods of different English words are stored in the English phrase pronunciation learning support character string storage means. It is possible to store a sequence of columns.
Therefore, the pronunciation learning support character string of the present invention can correspond to different pronunciation methods of English words.
Of course, if the learner intends, it is possible to speak without combining adjacent English words, so the learner can choose to combine or not combine the sounds of adjacent English words.
Therefore, in the present invention, the learner can easily learn various ways of speaking with fluent English phrases.

「英語フレーズ」とは、複数の英単語を含む文字列のことであり、例えば、熟語(イディオム)、英文(センテンス)、段落(パラグラフ)等を含む概念である。
「発音学習支援文字列」とは、英単語の発音学習を支援するための文字列である。
「受付ける」とは、入力部に直接入力される場合だけでなく、他の装置、コンピューター、システム等からデータを受信する場合も含む概念である。
「出力」とは、表示、印刷だけでなく、データとして他のプログラムや装置に与える場合も含む概念である。
「R音」とは、子音に分類される歯茎接近音で、音声記号//で表記される音声である。本明細書では、発音記号(又は発音記号列)として、2つの/で囲んだ国際音声記号(International Phonetic Alphabet: IPA)を用いるが、文字コードの制限により、一部の国際音声記号を、本来のものとは異なる下線付きの発音記号で表す(本明細書で使用する下線付きの発音記号と国際音声記号との対応関係は、図30の「発音記号対応表」を参照)。
「第1の半母音」とは、子音に分類される両唇軟口蓋接近音で、国際音声記号では/w/と表記される音声である。
「第2の半母音」とは、子音に分類される硬口蓋接近音で、国際音声記号では/j/と表記される音声である。
「R音に対応する綴り字」とは、綴り字「R」又は綴り字「RE」である。
「第1の半母音に対応する綴り字」とは、綴り字「W」又は綴り字「WE」である。
「第2の半母音に対応する綴り字」とは、綴り字「Y」又は綴り字「YE」である。
「R音に対応する非子音の発音方法」とは、「R音に対応する綴り字」が表す非子音の音声(例えば、/з/、/з^/、/:/の発音記号が表記する音声、図30を参照)で発音する方法である。
「第1の半母音に対応する非子音の発音方法」とは、「第1の半母音に対応する綴り字」が表す非子音の音声(例えば、/u/の発音記号が表記する音声、図30を参照)で発音する方法である。
「第2の半母音に対応する非子音の発音方法」とは、「第2の半母音に対応する綴り字」が表す非子音の音声(例えば、/i/、/ι/、/:/の発音記号が表記する音声、図30を参照)で発音する方法である。
「R音に対応する非子音の発音記号」とは、「R音に対応する綴り字」が表す非子音の音声を表記する発音記号である。
「第1の半母音に対応する非子音の発音記号」とは、「第1の半母音に対応する綴り字」が表す非子音の音声を表記する発音記号である。
「第2の半母音に対応する非子音の発音記号」とは、「第2の半母音に対応する綴り字」が表す非子音の音声を表記する発音記号である。
「仮名表記」とは、発音表記の一つであり、言語音声(スピーチサウンド)の発音を、仮名文字を使って表記した文字列である。
「発音記号列」とは、仮名表記とは異なる発音表記であり、国際音声記号等の言語音声(スピーチサウンド)の発音を正確に表記するための記号からなる列である。
「発音表記(フォネティック トランスクリプション)」とは、言語音声(スピーチサウンド)の発音を表記するため文字列である。
「発音記号を表す文字群」とは、「発音記号」そのものであるか、「発音記号と、子音と母音のいずれも表記しない記号とからなる文字群」である(例えば、a、<a、/ a、 [a] 、[a、など)。
「綴り字を表す文字群」とは、「綴り字」そのものであるか、「綴り字と、子音と母音のいずれも表記しない記号とからなる文字群」である(例えば、TH、<TH、/TH、 [TH] 、 [TH、など)。
「R音を表す文字群」とは、文字「R」であるか、「Rと、子音と母音のいずれも表記しない記号とからなる文字群」である(例えば、R、<R、/R、 [R] 、 [R、など)。
「第1の半母音を表す文字群」とは、文字「W」であるか、「Wと、子音と母音のいずれも表記しない記号とからなる文字群」である(例えば、W、<W、/W、 [W] 、 [W、など)。
「第2の半母音を表す文字群」とは、文字「Y」であるか、「Yと、子音と母音のいずれも表記しない記号とからなる文字群」である(例えば、Y、<Y、/Y、 [Y] 、 [Y、など)。
「半母音を含む直音又は母音を表記する仮名文字」とは、例えば、「ヤ」、「ユ」、「ヨ」、「ワ」、「ア」、「イ」、「ウ」、「エ」、「オ」である。
「1拍(モーラ)の音声」とは、1文字の仮名文字で表記する直音(例えば「ア」、「カ」、「サ」で表記される音声)、1文字の仮名文字と小書きの仮名文字で表記する拗音(例えば「キュ」、「チュ」で表記される音声)、促音(「ッ」で表記する音声)、撥音(「ン」で表記する音声)、又は長音(長音記号「ー」で表記する音声)である。
本明細書では、鉤括弧内に表記された英単語の綴り字の大文字と小文字は区別しない。
The “English phrase” is a character string including a plurality of English words, and is a concept including, for example, an idiom, an English sentence (sentence), a paragraph (paragraph), and the like.
The “pronunciation learning support character string” is a character string for supporting pronunciation learning of English words.
“Accept” is a concept that includes not only direct input to the input unit but also reception of data from other devices, computers, systems, and the like.
“Output” is a concept that includes not only displaying and printing, but also giving to other programs and devices as data.
The “R sound” is a gingival approach sound classified as a consonant, and is a sound represented by a phonetic symbol / r /. In this specification, two phonetic alphabets (IPA) are used as phonetic symbols (or phonetic symbol strings). However, due to character code restrictions, some international phonetic symbols are originally The phonetic symbols are underlined differently from the ones (for the correspondence between the underlined phonetic symbols used in this specification and the international phonetic symbols, see the “phonetic symbol correspondence table” in FIG. 30).
The “first semi-vowel” is a bilabial soft palate approach sound classified as a consonant, and is a voice expressed as / w / in the international phonetic symbol.
The “second semi-vowel” is a hard palate approach sound that is classified as a consonant, and is a voice represented by / j / in the international phonetic symbol.
“The spelling corresponding to the R sound” is the spelling “R” or the spelling “RE”.
“The spelling corresponding to the first semi-vowel” is the spelling “W” or the spelling “WE”.
“The spelling corresponding to the second semi-vowel” is the spelling “Y” or the spelling “YE”.
“Non-consonant pronunciation method corresponding to R sound” means a non-consonant voice (for example, / з /, / з ^ /, / : / represented by the spelling corresponding to R sound) Sound, see FIG. 30).
“Non-consonant pronunciation method corresponding to first semi-vowel” means non-consonant speech represented by “spelling letters corresponding to first semi-vowel” (for example, speech represented by a phonetic symbol of / u /, FIG. )).
“Non-consonant pronunciation method corresponding to second semi-vowel” means non-consonant speech (for example, / i /, / ι /, / : / pronunciation by the spelling corresponding to the second semi-vowel) This is a method of sounding with a voice represented by a symbol (see FIG. 30).
The “non-consonant phonetic symbol corresponding to the R sound” is a phonetic symbol representing the non-consonant sound represented by the “spelling character corresponding to the R sound”.
The “phonetic symbol of the non-consonant corresponding to the first semi-vowel” is a phonetic symbol expressing the sound of the non-consonant represented by “the spelling corresponding to the first semi-vowel”.
The “phonetic symbol of the non-consonant corresponding to the second semi-vowel” is a phonetic symbol expressing the sound of the non-consonant represented by “the spelling corresponding to the second semi-vowel”.
The “kana notation” is one of phonetic notations, and is a character string in which the pronunciation of a language voice (speech sound) is expressed using kana characters.
The “phonetic symbol string” is a phonetic notation different from the kana notation, and is a string composed of symbols for accurately expressing the pronunciation of a language voice (speech sound) such as an international phonetic symbol.
The “phonetic transcription” is a character string for describing the pronunciation of speech (speech sound).
The “character group representing the phonetic symbol” is “the phonetic symbol” itself or “the character group consisting of the phonetic symbol and a symbol that does not represent either a consonant or a vowel” (for example, a, <a, / a, [a], [a, etc.).
The “character group representing spelling” is “spelling” itself or “a group of characters composed of spelling and a symbol that does not represent either a consonant or a vowel” (for example, TH, <TH, / TH, [TH], [TH, etc.).
The “character group representing R sound” is the character “R” or “character group consisting of R and a symbol that does not represent either a consonant or a vowel” (for example, R, <R, / R , [R], [R, etc.).
The “character group representing the first semi-vowel” is the letter “W” or “character group consisting of W and a symbol not representing either a consonant or a vowel” (for example, W, <W, / W, [W], [W, etc.).
The “character group representing the second semi-vowel” is the character “Y” or “a character group including Y and a symbol not representing either a consonant or a vowel” (for example, Y, <Y, / Y, [Y], [Y, etc.).
“Kana characters expressing a straight or vowel including a semi-vowel” are, for example, “ya”, “yu”, “yo”, “wa”, “a”, “i”, “u”, “e” , "O".
“One-beat (mora) voice” means a straight sound expressed as one kana character (for example, a voice expressed as “a”, “ka”, “sa”), one kana character and a small letter. A roaring sound expressed in kana characters (for example, a sound expressed as “cu” or “chu”), a prompt sound (a sound expressed as “t”), a repelling sound (a sound expressed as “n”), or a long sound (long sound symbol) (Sound expressed as “-”).
In the present specification, the uppercase and lowercase letters of the spellings of English words written in brackets are not distinguished.

本発明の「発音学習コンテンツ提供装置」、「発音学習コンテンツ提供システム」、「発音学習コンテンツ提供プログラム」、及び「発音学習コンテンツ提供方法」によれば、英単語の発音記号列を用いる従来の方法と比べて英単語の発音を学ぶ際の負担が少ないだけでなく、語末が子音で発音される英単語が英語フレーズに含まれる場合でも、この英語フレーズの流暢で多様な話し方を容易に学習できるようになった。 According to the “pronunciation learning content providing apparatus”, “pronunciation learning content providing system”, “pronunciation learning content providing program”, and “pronunciation learning content providing method” of the present invention, a conventional method using pronunciation symbol strings of English words Compared to, the burden of learning the pronunciation of English words is less, and even if the English phrase contains English words that are pronounced consonant at the end, you can easily learn various ways of speaking with the fluency of this English phrase It became so.

は、従来技術による英語フレーズの話し方を学習する際の表示画面である。Is a display screen for learning how to speak English phrases according to the prior art. は、本発明の第1の実施の形態に係る学習装置100の全体構成を示すブロック図である。These are block diagrams which show the whole structure of the learning apparatus 100 which concerns on the 1st Embodiment of this invention. は、本発明の英語フレーズ発音学習支援文字列(発音学習支援文字列からなる列)の出力画面の例を示す。These show the example of the output screen of the English phrase pronunciation learning support character string (sequence which consists of a pronunciation learning support character string) of this invention. は、本発明の第1の実施の形態に係る学習装置100を、中央演算処理装置を用いて実現した場合のハードウェア構成の一例を示す。These show an example of the hardware configuration when the learning device 100 according to the first embodiment of the present invention is realized by using a central processing unit. は、本発明の第1の実施の形態の発音学習支援文字列情報14の例を示す図である。These are figures which show the example of the pronunciation learning assistance character string information 14 of the 1st Embodiment of this invention. は、本発明の第1の実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100が実行する処理手順の一例をフローチャート形式で示したものである。These show an example of the processing procedure which the learning apparatus 100 performs in order to implement | achieve the pronunciation learning content provision process of the 1st Embodiment of this invention in the flowchart format. は、本発明の第2、第5、第8及び第9の実施の形態に係る発音学習コンテンツ提供システムの概略図である。These are the schematic diagrams of the pronunciation learning content provision system which concerns on 2nd, 5th, 8th, and 9th embodiment of this invention. は、本発明の第2の実施の形態に係る学習装置100の全体構成を示すブロック図である。These are block diagrams which show the whole structure of the learning apparatus 100 which concerns on the 2nd Embodiment of this invention. は、本発明の第2の実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100並びに端末装置200がそれぞれ実行する処理手順の一例をフローチャート形式で示したものである。These show an example of the processing procedure which the learning apparatus 100 and the terminal device 200 each perform in order to implement | achieve the pronunciation learning content provision process of the 2nd Embodiment of this invention in the flowchart format. は、本発明の第3の実施の形態に係る学習装置100の全体構成を示すブロック図である。These are block diagrams which show the whole structure of the learning apparatus 100 which concerns on the 3rd Embodiment of this invention. は、本発明の第3の実施の形態に係る学習装置100を、中央演算処理装置を用いて実現した場合のハードウェア構成の一例を示す。These show an example of the hardware constitutions at the time of realizing learning device 100 concerning a 3rd embodiment of the present invention using a central processing unit. は、本発明の第3の実施の形態の英単語発音記号列情報12の一例を示す図である。These are figures which show an example of the English word pronunciation symbol string information 12 of the 3rd Embodiment of this invention. は、本発明の第3及び第4の実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100が実行する処理手順の一例をフローチャート形式で示したものである。These show an example of the process sequence which the learning apparatus 100 performs in order to implement | achieve the pronunciation learning content provision process of the 3rd and 4th embodiment of this invention in the flowchart format. は、本発明の第4の実施の形態に係る学習装置100の全体構成を示すブロック図である。These are block diagrams which show the whole structure of the learning apparatus 100 which concerns on the 4th Embodiment of this invention. は、本発明の第4の実施の形態に係る学習装置100を、中央演算処理装置を用いて実現した場合のハードウェア構成の一例を示す。These show an example of the hardware constitutions at the time of realizing learning device 100 concerning a 4th embodiment of the present invention using a central processing unit. は、本発明の第4の実施の形態の英単語仮名表記情報13の一例を示す図である。These are figures which show an example of the English word kana notation information 13 of the 4th Embodiment of this invention. は、本発明の第5の実施の形態に係る学習装置100の全体構成を示すブロック図である。These are block diagrams which show the whole structure of the learning apparatus 100 which concerns on the 5th Embodiment of this invention. は、本発明の第5の実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100並びに端末装置200がそれぞれ実行する処理手順の一例をフローチャート形式で示したものである。These show an example of the processing procedure which the learning apparatus 100 and the terminal device 200 each perform in order to implement | achieve the pronunciation learning content provision process of the 5th Embodiment of this invention in the flowchart format. は、本発明の第6の実施の形態に係る学習装置100の全体構成を示すブロック図である。These are block diagrams which show the whole structure of the learning apparatus 100 which concerns on the 6th Embodiment of this invention. は、本発明の第6の実施の形態に係る学習装置100を、中央演算処理装置を用いて実現した場合のハードウェア構成の一例を示す。These show an example of the hardware constitutions at the time of realizing learning device 100 concerning a 6th embodiment of the present invention using a central processing unit. は、本発明の第6の実施の形態の英語フレーズ発音学習支援文字列情報16の例を示す図である。These are figures which show the example of the English phrase pronunciation learning assistance character string information 16 of the 6th Embodiment of this invention. は、本発明の第7の実施の形態に係る学習装置100の全体構成を示すブロック図である。These are block diagrams which show the whole structure of the learning apparatus 100 which concerns on the 7th Embodiment of this invention. は、本発明の第8の実施の形態に係る学習装置100の全体構成を示すブロック図である。These are block diagrams which show the whole structure of the learning apparatus 100 which concerns on the 8th Embodiment of this invention. は、本発明の第8の実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100並びに端末装置200がそれぞれ実行する処理手順の一例をフローチャート形式で示したものである。These show an example of the processing procedure which the learning apparatus 100 and the terminal device 200 each perform in order to implement | achieve the pronunciation learning content provision process of the 8th Embodiment of this invention in the flowchart format. は、本発明の第1の実施の形態の変形例に係るシステムの概略図である。These are the schematic diagrams of the system which concerns on the modification of the 1st Embodiment of this invention. は、本発明の第2の実施の形態の変形例に係る発音学習コンテンツ提供システムの概略図である。These are the schematic diagrams of the pronunciation learning content provision system which concerns on the modification of the 2nd Embodiment of this invention. は、本発明の第9の実施の形態に係る学習装置100の全体構成を示すブロック図である。These are block diagrams which show the whole structure of the learning apparatus 100 which concerns on the 9th Embodiment of this invention. は、本発明の第9の実施の形態に係る学習装置100を、中央演算処理装置を用いて実現した場合のハードウェア構成の一例を示す。These show an example of a hardware configuration when the learning device 100 according to the ninth embodiment of the present invention is realized using a central processing unit. は、本発明の第9の実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100並びに端末装置200がそれぞれ実行する処理手順の一例をフローチャート形式で示したものである。These show an example of the processing procedure which the learning apparatus 100 and the terminal device 200 each perform in order to implement | achieve the pronunciation learning content provision process of the 9th Embodiment of this invention in the flowchart format. は、本明細書で使用する下線付きの発音記号と国際音声記号との対応関係を表したものである。Indicates the correspondence between underlined phonetic symbols used in this specification and international phonetic symbols.

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、これら実施の形態により本発明が限定されるものではない。以下の実施の形態でも、文字コードの制限により、一部の国際音声記号を本来のものとは異なる、下線付きの発音記号で表す(図30を参照) Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to these embodiments. Also in the following embodiments, some international phonetic symbols are represented by underlined phonetic symbols that are different from the original ones due to character code restrictions (see FIG. 30).

1.第1の実施の形態
(1)概要
図2は、本実施の形態に係る発音学習コンテンツ提供装置(以後、「学習装置100」とも記載する)の全体構成を示すブロック図である。学習装置100は、学習者から各種操作命令及び各種入力情報を受付け、これらに応じた発音学習に関するコンテンツを出力する。
学習装置100は、記憶部10と、制御部20と、送受信制御部30と、一時記憶部40と、ディスク装置41と、情報記録媒体42と、入力部50と、出力部60とを備えている。以下、これらを説明する。
1. First Embodiment (1) Outline FIG. 2 is a block diagram showing an overall configuration of a pronunciation learning content providing apparatus (hereinafter also referred to as “learning apparatus 100”) according to the present embodiment. The learning device 100 receives various operation commands and various input information from the learner, and outputs content related to pronunciation learning according to these.
The learning device 100 includes a storage unit 10, a control unit 20, a transmission / reception control unit 30, a temporary storage unit 40, a disk device 41, an information recording medium 42, an input unit 50, and an output unit 60. Yes. These will be described below.

(1−1)入力部
入力部50は、学習者が発音学習に必要な各種操作命令や各種情報を学習装置100に入力するためのものである。本実施の形態では、後述するキーボード/マウス34がこれに該当する。
(1-1) The input unit input unit 50 is used by the learner to input various operation commands and various information necessary for pronunciation learning to the learning device 100. In the present embodiment, a keyboard / mouse 34 described later corresponds to this.

(1−2)出力部
出力部60は、各種操作画面や文字列等の発音学習に関するコンテンツを学習装置100から出力するためのものである。本実施の形態では、後述するディスプレイ32がこれに該当する。
(1-2) Output unit The output unit 60 is for outputting content related to pronunciation learning such as various operation screens and character strings from the learning device 100. In the present embodiment, the display 32 described later corresponds to this.

(1−3)記憶部
記憶部10には、少なくとも、後述する英単語情報11と発音学習支援文字列情報14が記憶されている。本実施の形態では、後述するハードディスクドライブ39が記憶部10に該当する。
(1-3) The storage unit 10 stores at least English word information 11 and pronunciation learning support character string information 14 described later. In the present embodiment, a hard disk drive 39 described later corresponds to the storage unit 10.

(1−3−1)英単語情報11
英単語情報11は、英単語を記憶する。
(1-3-1) English word information 11
The English word information 11 stores English words.

(1−3−2)発音学習支援文字列情報14
発音学習支援文字列情報14は、英単語情報11に記憶された英単語とこの英単語の発音記号列とに対応付けられた発音学習支援文字列を記憶する。
この英単語とこの発音記号列とに対応付けられたこの発音学習支援文字列は、
a)もし子音を表記する発音記号がこの発音記号列の末尾にある場合は、
この英単語とこの発音記号列とに対応する仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、この子音を表記する発音記号(又はこの子音を表す綴り字)を加えた文字列であり、
b)もしR音に対応する綴り字がこの英単語の語末にあり、且つ「R音に対応する非子音の発音記号」がこの発音記号列の末尾にある場合は、
この英単語とこの発音記号列とに対応する仮名表記であるか、
この仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「R」を加えた文字列であり、
c)もし第1の半母音に対応する綴り字がこの英単語の語末にあり、且つ「第1の半母音に対応する非子音の発音記号」がこの発音記号列の末尾にある場合は、
この英単語とこの発音記号列とに対応する仮名表記であるか、
この仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「W」を加えた文字列であり、
d)もし第2の半母音に対応する綴り字がこの英単語の語末にあり、且つ「第2の半母音に対応する非子音の発音記号」がこの発音記号列の末尾にある場合は、
この英単語とこの発音記号列とに対応する仮名表記であるか、
この仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「Y」を加えた文字列であり、
e)もし前記a)〜d)の何れでもない場合は、
この英単語とこの発音記号列とに対応する仮名表記である。
この発音学習支援文字列情報14の具体例やデータ構造については後述する。
なお、上記b)の場合に、もし前記発音学習支援文字列を、『この英単語とこの発音記号列とに対応する仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「R」を加えた文字列』とした場合は、学習者が、この英単語の音声と後続する「語頭が母音で発音される英単語」の音声とを結合する際に、これらの音声の間にR音を挿入すること(Rリンキング)が容易になる。
なお、上記c)の場合に、もし前記発音学習支援文字列を、『この英単語とこの発音記号列とに対応する仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「W」を加えた文字列』とした場合は、学習者が、この英単語の音声と後続する「語頭が母音で発音される英単語」の音声とを結合する際に、これらの音声の間に第1の半母音を挿入することが容易になる。
なお、上記d)の場合、もし前記発音学習支援文字列を、『この英単語とこの発音記号列とに対応する仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「Y」を加えた文字列』とした場合は、学習者が、この英単語の音声と後続する「語頭が母音で発音される英単語」の音声とを結合する際に、これらの音声の間に第2の半母音を挿入することが容易になる。
「1モーラ(拍)の仮名文字」とは、直音を表記する1文字の仮名文字(例えば「ア」、「カ」、「サ」)、拗音を表記する1文字の仮名文字と小書きの仮名文字(例えば「キュ」、「チュ」)、促音を表記する1文字の小書きの仮名文字(「ッ」)、撥音を表記する1文字の仮名文字(「ン」)、又は長音記号「ー」である。
(1-3-2) Pronunciation learning support character string information 14
The pronunciation learning support character string information 14 stores the pronunciation learning support character string associated with the English word stored in the English word information 11 and the pronunciation symbol string of the English word.
This pronunciation learning support character string associated with this English word and this phonetic symbol string is
a) If a phonetic symbol representing a consonant is at the end of this phonetic symbol string,
From the kana notation corresponding to this English word and this phonetic symbol string, add the phonetic symbol (or spelling that represents this consonant) to the end of the partial kana notation with the last 1 mora kana character deleted String
b) If the spelling corresponding to the R sound is at the end of the English word and the “non-consonant phonetic symbol corresponding to the R sound” is at the end of the phonetic symbol string,
Whether it is kana notation corresponding to this English word and this phonetic symbol string,
From this kana notation, it is a character string in which the character “R” is added to the end of the partial kana notation obtained by deleting the kana character of the last 1 mora,
c) If the spelling corresponding to the first semi-vowel is at the end of the English word and the “non-consonant phonetic corresponding to the first semi-vowel” is at the end of the phonetic symbol string,
Whether it is kana notation corresponding to this English word and this phonetic symbol string,
From this kana notation, a character string in which the character “W” is added to the end of the partial kana notation obtained by deleting the kana character of the last 1 mora,
d) If the spelling corresponding to the second semi-vowel is at the end of the English word and the “non-consonant phonetic symbol corresponding to the second semi-vowel” is at the end of the phonetic symbol string,
Whether it is kana notation corresponding to this English word and this phonetic symbol string,
From this kana notation, it is a character string in which the character “Y” is added to the end of the partial kana notation obtained by deleting the last 1 mora kana character,
e) If none of the above a) to d),
It is a kana notation corresponding to this English word and this phonetic symbol string.
Specific examples and data structures of the pronunciation learning support character string information 14 will be described later.
In the case of the above b), if the pronunciation learning support character string is “at the end of the partial kana notation obtained by deleting the kana character of the last 1 mora from the kana notation corresponding to this English word and this phonetic symbol string”. , A character string including the letter “R” ”, when the learner combines the voice of this English word and the subsequent voice of“ English words whose initials are pronounced with vowels ”, It becomes easy to insert an R sound between voices (R linking).
In the case of c), if the pronunciation learning support character string is added to the end of the partial kana notation obtained by deleting the kana character of the last 1 mora from the kana notation corresponding to this English word and this phonetic symbol string. , A character string including the letter “W” ”, when the learner combines the voice of this English word with the subsequent voice of“ English words whose initials are pronounced with vowels ”, It becomes easy to insert the first semi-vowel between voices.
In the case of d) above, if the pronunciation learning support character string is “at the end of the partial kana notation obtained by deleting the kana character of the last 1 mora from the kana notation corresponding to this English word and this phonetic symbol string, In the case of “character string with the letter“ Y ”added”, when the learner combines the voice of this English word with the subsequent voice of “English words whose vocabulary is pronounced with vowels”, these voices It becomes easy to insert the second semi-vowel between the two.
“One mora (beat) kana character” means one kana character (for example, “A”, “K”, “sa”) that represents a straight sound, one kana character that represents a roar, and a small letter Kana characters (for example, “Kyu”, “Ju”), a small kana character (“tsu”) that expresses a sound, a single kana character (“N”) that expresses a repelling sound, or a long sound symbol "-".

(1−3−2−1)発音学習支援文字列の例1
英単語「AND」と発音記号列/зnd/とに対応付けられた発音学習支援文字列の一具体例を説明する。
(本明細書で使用する下線付きの発音記号と国際音声記号との対応関係は、図30の「発音記号対応表」を参照)。
この発音学習支援文字列は、子音を表記する発音記号/d/がこの発音記号列の末尾にあるので、『この英単語とこの発音記号列とに対応する仮名表記「アンド」から、末尾1モーラの仮名文字を削除した部分仮名表記「アン」の末尾に、この子音を表記する発音記号/d/又はこの子音を表す綴り字「D」を加えた文字列』、つまり、「アンd」又は「アンD」である。
なお、この発音記号/d/に、「母音及び子音(半母音も含む)の何れも表記しない記号」(例えば、/、<、[、など)を加えて、この発音学習支援文字列を、「アン/d」、「アン<d」、「アン(d)」、「アン[d]」などとしても良い。
なお、この綴り字「D」に、「母音及び子音(半母音も含む)の何れも表記しない記号」(例えば、/、<、[、など)を加えて、この発音学習支援文字列を、「アン/ D」、「アン< D 」、「アン(D)」、「アン[D]」などとしても良い。
(1-3-2-1) Example 1 of pronunciation learning support character string
One specific example of the English word "AND" and the string of phonetic symbols / з nd / and associated with the pronunciation learning support string will be described.
(For the correspondence between underlined phonetic symbols used in this specification and international phonetic symbols, see the “phonetic symbol correspondence table” in FIG. 30).
In this pronunciation learning support character string, the phonetic symbol / d / indicating the consonant is at the end of the phonetic symbol sequence. A character string that is obtained by adding the phonetic symbol / d / which represents this consonant to the end of the partial kana notation “an” from which the mora kana character is deleted, or the spelling “D” representing this consonant ”, that is,“ an d ” Or “An D”.
In addition, to this phonetic symbol / d /, a “symbol that does not represent vowels and consonants (including semi-vowels)” (for example, /, <, [, etc.) is added, and this pronunciation learning support character string is expressed as “ “An / d”, “An <d”, “Ann (d)”, “Ann [d]”, and the like may be used.
In addition, to this spelling “D”, a “symbol that does not represent either vowels or consonants (including semi-vowels)” (for example, /, <, [, etc.) is added, and this pronunciation learning support character string is expressed as “ “An / D”, “An <D”, “Ann (D)”, “Ann [D]”, etc.

(1−3−2−2)発音学習支援文字列の例2
英単語「AND」と発音記号列/εn/とに対応付けられた発音学習支援文字列の一具体例を説明する。
この発音学習支援文字列は、子音を表記する発音記号/n/がこの発音記号列の末尾にあるので、『この英単語とこの発音記号列とに対応する仮名表記「エン」から、末尾1モーラの仮名文字を削除した部分仮名表記「エ」の末尾に、この子音を表記する発音記号/n/又はこの子音を表す綴り字「N」を加えた文字列』、つまり、「エn」又は「エN」である。
(1-3-2-2) Example 2 of pronunciation learning support character string
A specific example of the pronunciation learning support character string associated with the English word “AND” and the pronunciation symbol string / εn / will be described.
In this pronunciation learning support character string, the phonetic symbol / n / indicating the consonant is at the end of the phonetic symbol sequence. Therefore, from the kana notation “en” corresponding to this English word and this phonetic symbol sequence, the end 1 A character string that is obtained by adding the phonetic symbol / n / that represents this consonant or the spelling character “N” that represents this consonant to the end of the partial kana notation “e” from which the mora kana character has been deleted ”, that is,“ e ” Or “E N”.

(1−3−2−3)発音学習支援文字列の例3
英単語「I」と発音記号列/aι/とに対応付けられた発音学習支援文字列の一具体例を説明する。
この発音学習支援文字列は、子音を表記する発音記号がこの発音記号列の末尾になく、且つR音に対応する綴り字がこの英単語の語末になく、且つ第1の半母音に対応する綴り字がこの英単語の語末になく、且つ第2の半母音に対応する綴り字がこの英単語の語末にないので、『この英単語とこの発音記号列とに対応する仮名表記「アイ」』である。
(1-3-2-2) Example 3 of pronunciation learning support character string
A specific example of the pronunciation learning support character string associated with the English word “I” and the pronunciation symbol string / a ι / will be described.
This pronunciation learning support character string has a phonetic symbol representing a consonant at the end of the phonetic symbol string, a spelling corresponding to the R sound is not at the end of the English word, and a spelling corresponding to the first semi-vowel. Since the letter is not at the end of this English word and the spelling corresponding to the second semi-vowel is not at the end of this English word, the "kana notation" ai "corresponding to this English word and this phonetic symbol string" is there.

(1−3−2−4)発音学習支援文字列の例4
英単語「ARE」と発音記号列/з^/(右鉤付きのシュワー)とに対応付けられた発音学習支援文字列の一具体例を説明する。
この発音学習支援文字列は、R音に対応する綴り字「RE」がこの英単語の語末にあり、且つ「R音に対応する非子音の発音記号」がこの発音記号列の末尾にあるので、『この英単語とこの発音記号列とに対応する仮名表記「アー」』であるか、『この仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記「ア」の末尾に、文字「R」を加えた文字列「アR」』である。
なお、もしこの発音学習支援文字列を文字列「アR」とすると、英単語「ARE」の音声と後続する「語頭が母音で発音される英単語」の音声とを結合する際に、これらの音声の間にR音を挿入すること(Rリンキング)が容易になる。
(1-3-2-2-4) Pronunciation learning support character string example 4
A specific example of the pronunciation learning support character string associated with the English word “ARE” and the pronunciation symbol string / з ^ / (Shwar with starboard) will be described.
In this pronunciation learning support character string, the spelling “RE” corresponding to the R sound is at the end of the English word, and the “non-consonant pronunciation symbol corresponding to the R sound” is at the end of the pronunciation symbol string. , “The kana notation“ Ar ”corresponding to this English word and this phonetic symbol string” or “the character at the end of the partial kana notation“ a ”with the last 1 mora kana characters removed from this kana notation It is a character string “A” added with “R”.
If this pronunciation learning support character string is the character string “A”, when combining the voice of the English word “ARE” and the subsequent voice of “English word with initial vowel pronunciation”, It becomes easy to insert an R sound between the voices (R linking).

(1−3−2−5)発音学習支援文字列の例5
英単語「ARE」と/a:/の発音記号列とに対応付けられた発音学習支援文字列の一具体例を説明する。
この発音学習支援文字列は、R音に対応する綴り字「RE」が当該英単語の語末にあり、且つ「R音に対応する非子音の発音記号」がこの発音記号列の末尾にあるので、『この英単語とこの発音記号列とに対応する仮名表記「アー」』であるか、『この仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記「ア」の末尾に、文字「R」を加えた文字列「アR」』である。
(1-3-2-5) Example 5 of pronunciation learning support character string
A specific example of the pronunciation learning support character string associated with the English word “ARE” and the pronunciation symbol string of / a: / will be described.
In this pronunciation learning support character string, the spelling “RE” corresponding to the R sound is at the end of the English word, and the “non-consonant pronunciation symbol corresponding to the R sound” is at the end of the pronunciation symbol string. , “The kana notation“ Ar ”corresponding to this English word and this phonetic symbol string” or “the character at the end of the partial kana notation“ a ”with the last 1 mora kana characters removed from this kana It is a character string “A” added with “R”.

(1−3−2−6)発音学習支援文字列の例6
英単語「HOW」と発音記号列/hau/とに対応付けられた発音学習支援文字列の一具体例を説明する。
この発音学習支援文字列は、第1の半母音に対応する綴り字「W」がこの英単語の語末にあり、且つ「第1の半母音に対応する非子音の発音記号」がこの発音記号列の末尾にあるので、『この英単語とこの発音記号列とに対応する仮名表記「ハウ」』であるか、『この仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記「ハ」の末尾に、文字「W」を加えた文字列「ハW」』である。
なお、もしこの発音学習支援文字列を文字列「ハW」とした場合は、英単語「HOW」の音声と後続する『語頭が母音で発音される英単語(例えば、後述する「ARE」)』の音声とを結合する際に、これらの音声の間に第1の半母音を挿入することが容易になる。
(1-3-2-6) Pronunciation learning support character string example 6
A specific example of the pronunciation learning support character string associated with the English word “HOW” and the pronunciation symbol string / ha u / will be described.
In this pronunciation learning support character string, the spelling “W” corresponding to the first semi-vowel is at the end of the English word, and “the non-consonant pronunciation symbol corresponding to the first semi-vowel” is Since it is at the end, it is either “a kana notation“ how ”” corresponding to this English word and this phonetic symbol string, or “a partial kana notation“ ha ”in which the kana character of the last 1 mora is deleted from this kana notation. It is a character string “C” added with the letter “W” at the end.
If the pronunciation learning support character string is the character string “ha W”, the voice of the English word “HOW” is followed by “an English word whose initial part is pronounced with a vowel (for example,“ ARE ”described later). ], It is easy to insert the first semi-vowel between these sounds.

(1−3−2−7)発音学習支援文字列の例7
英単語「KEY」と発音記号列/ki:/とに対応付けられた発音学習支援文字列の一具体例を説明する。
この発音学習支援文字列は、第2の半母音に対応する綴り字「Y」がこの英単語の語末にあり、且つ「第2の半母音に対応する非子音の発音記号」がこの発音記号列の末尾にあるので、『この英単語とこの発音記号列とに対応する仮名表記「キー」』であるか、『この仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記「キ」の末尾に、文字「Y」を加えた文字列「キY」』である。
なお、もしこの発音学習支援文字列を文字列「キY」とすると、英単語「KEY」の音声と後続する「語頭が母音で発音される英単語」の音声とを結合する際に、これらの音声の間に第2の半母音を挿入することが容易になる。
(1-3-2-7) Example 7 of pronunciation learning support character string
A specific example of the pronunciation learning support character string associated with the English word “KEY” and the phonetic symbol string / ki : / will be described.
In this pronunciation learning support character string, the spelling “Y” corresponding to the second semi-vowel is at the end of the English word, and “non-consonant pronunciation symbol corresponding to the second semi-vowel” is Since it is at the end, it is “a kana notation“ key ”corresponding to this English word and this phonetic symbol string” or “a partial kana notation“ ki ”in which the kana character of the last 1 mora is deleted from this kana notation. It is a character string “Ki Y” with a letter “Y” added to the end.
If this pronunciation learning support character string is the character string `` Ki Y '', when combining the voice of the English word `` KEY '' with the following voice of `` English words whose initials are pronounced with vowels '' It becomes easy to insert the second semi-vowel between the voices.

(1−4)制御部
制御部20は、以下に説明する英語フレーズ受付部21、英単語発音学習支援文字列取得部22、英語フレーズ発音学習支援文字列出力部27を備える。本実施の形態では、後述する、CPU(中央演算処理装置)31が制御部20に該当する。
(1-4) The control part control part 20 is provided with the English phrase reception part 21, the English word pronunciation learning support character string acquisition part 22, and the English phrase pronunciation learning support character string output part 27 which are demonstrated below. In the present embodiment, a CPU (Central Processing Unit) 31 described later corresponds to the control unit 20.

(1−4−1)英語フレーズ受付部21
英語フレーズ受付部21は、学習者が入力部50を介して入力した発音学習を行うための英語フレーズを、学習装置100が受付ける。但しこの受付けられる英語フレーズは、英単語情報11に記憶された英単語からなる。
以後、この英語フレーズにはN個の英単語が含まれているとし(但しN≧2)、この英語フレーズに第i番目に現れる英単語を「第i番目の英単語」と記載する(但しi=1、…、N)。
なお、学習者が、英語フレーズを直接入力することで、学習装置100がこの英語フレーズを受付けても良いが、記憶部10、一時記憶部40或いは情報記録媒体42に、あらかじめいくつかの英語フレーズを含む英語フレーズ情報ファイルを記録しておき、学習者がこれら英語フレーズを選択するための情報を、入力部50を介して入力し、学習装置100がこの情報に対応する英語フレーズをこの英語フレーズ情報ファイルから読み込むことで、学習装置100がこの英語フレーズを受付けても良い。
(1-4-1) English phrase receiving unit 21
In the English phrase receiving unit 21, the learning apparatus 100 receives an English phrase for performing pronunciation learning input by the learner via the input unit 50. However, the accepted English phrase is composed of English words stored in the English word information 11.
From now on, it is assumed that this English phrase contains N English words (where N ≧ 2), and the i-th English word appearing in this English phrase is referred to as the “i-th English word” (provided that i = 1,..., N).
The learning device 100 may accept the English phrase by directly inputting the English phrase by the learner. However, some English phrases are stored in the storage unit 10, the temporary storage unit 40, or the information recording medium 42 in advance. The English phrase information file including the information is recorded, the learner inputs information for selecting these English phrases via the input unit 50, and the learning apparatus 100 inputs the English phrase corresponding to this information to the English phrase. The learning apparatus 100 may accept this English phrase by reading from the information file.

(1−4−2)英単語発音学習支援文字列取得部22
英単語発音学習支援文字列取得部22では、学習装置100が、英語フレーズ受付部21で受付けられた英語フレーズに含まれる第i番目の英単語に対応する発音学習支援文字列(以後、「第i番目の発音学習支援文字列」とも記載する)を、発音学習支援文字列情報11から取得する(但しi=1、…、N)。
(1-4-2) English word pronunciation learning support character string acquisition unit 22
In the English word pronunciation learning support character string acquisition unit 22, the learning device 100 has a pronunciation learning support character string corresponding to the i-th English word included in the English phrase received by the English phrase reception unit 21 (hereinafter, “No. is acquired from the pronunciation learning support character string information 11 (where i = 1,..., N).

(1−4−3)英語フレーズ発音学習支援文字列出力部27
英語フレーズ発音学習支援文字列出力部27は、学習装置100が、英単語発音学習支援文字列取得部22で取得された第1番目から第N番目の発音学習支援文字列を、昇順に順序付けることで、英語フレーズ受付部21で受付けられた英語フレーズの話し方を表す、発音学習支援文字列からなる列を導出する。また、学習装置100が、この発音学習支援文字列からなる列を出力部60に出力する。
以後、この発音学習支援文字列からなる列を、「英語フレーズ発音学習支援文字列」とも記載する。
学習者は、この英語フレーズ発音学習支援文字列を用いて、受付けられた英語フレーズの話し方を学ぶ。またこの英語フレーズ発音学習支援文字列を構成する第i番目の発音学習支援文字列を用いて、第i番目の英単語の発音方法を学ぶ(但しi=1、…、N)。
図3の(a)は、英語フレーズ「BREATHE OUT」の話し方を表す英語フレーズ発音学習支援文字列の出力画面の一例を、
図3の(b)は、英語フレーズ「AND I」の話し方を表す英語フレーズ発音学習支援文字列の出力画面の一例を、
図3の(c)は、英語フレーズ「GOOD NEEDLE」の話し方を表す英語フレーズ発音学習支援文字列の出力画面の一例を、
図3の(d)は、英語フレーズ「THERE IS」の話し方を表す英語フレーズ発音学習支援文字列の出力画面の一例を示す。
(1-4-3) English phrase pronunciation learning support character string output unit 27
The English phrase pronunciation learning support character string output unit 27 causes the learning device 100 to order the first to Nth pronunciation learning support character strings acquired by the English word pronunciation learning support character string acquisition unit 22 in ascending order. As a result, a sequence of pronunciation learning support character strings representing how to speak the English phrase received by the English phrase receiving unit 21 is derived. In addition, the learning device 100 outputs a sequence of the pronunciation learning support character string to the output unit 60.
Hereinafter, the string composed of the pronunciation learning support character string is also referred to as “English phrase pronunciation learning support character string”.
The learner learns how to speak the accepted English phrase using the English phrase pronunciation learning support character string. In addition, the i-th pronunciation learning support character string constituting the English phrase pronunciation learning support character string is used to learn the pronunciation method of the i-th English word (where i = 1,..., N).
(A) of FIG. 3 is an example of an output screen of an English phrase pronunciation learning support character string representing how to speak the English phrase “BREATHE OUT”
(B) of FIG. 3 shows an example of an output screen of an English phrase pronunciation learning support character string representing how to speak the English phrase “AND I”.
(C) of FIG. 3 is an example of the output screen of the English phrase pronunciation learning support character string showing how to speak the English phrase “GOOD NEEDLE”.
FIG. 3D shows an example of an output screen of an English phrase pronunciation learning support character string representing how to speak the English phrase “THERE IS”.

(1−5)送受信制御部30
送受信制御部30は、通信ネットワークを介して通信可能な(図示しない)サーバー装置等と各種情報の送受信をすることを制御する。本実施の形態では、後述する通信装置35がこれに該当する。
(1-5) Transmission / reception control unit 30
The transmission / reception control unit 30 controls transmission / reception of various information to / from a server device (not shown) that can communicate via a communication network. In the present embodiment, the communication device 35 described later corresponds to this.

(1−6)一時記憶部40
一時記憶部40は、本実施の形態に係るプログラムである発音学習コンテンツ提供プログラム(以後、「発音学習プログラム80」と記載する)を含む各種プログラム、及び各種情報を一時記憶する。本実施の形態では、後述するRAM33がこれに該当する。
(1-6) Temporary storage unit 40
Temporary storage unit 40 temporarily stores various programs including a pronunciation learning content providing program (hereinafter referred to as “pronunciation learning program 80”), which is a program according to the present embodiment, and various types of information. In the present embodiment, the RAM 33 described later corresponds to this.

(1−7)ディスク装置41
ディスク装置41は、後述する情報記録媒体42に接続され、この情報記録媒体42に記憶された各種プログラムや各種情報を読み込む。本実施の形態では、後述するDVD−ROMドライブ36がこれに該当する。
(1-7) Disk device 41
The disk device 41 is connected to an information recording medium 42 described later, and reads various programs and various information stored in the information recording medium 42. In the present embodiment, a DVD-ROM drive 36 described later corresponds to this.

(1−8)情報記録媒体42
情報記録媒体42は、各種プログラムや各種情報を記憶する。本実施の形態では、後述する、DVD−ROM37がこれに該当する。
(1-8) Information recording medium 42
The information recording medium 42 stores various programs and various information. In the present embodiment, a DVD-ROM 37 described later corresponds to this.

(2)ハードウェア構成
図4は、本実施の形態に係る学習装置100をCPU(中央演算処理装置)31を用いて実現した場合のハードウェア構成の一例を示す。
制御部20に相当するCPU31には、出力部60に相当するディスプレイ32と、入力部50に相当するキーボード/マウス34と、一時記憶部40に相当するRAM33と、記憶部10に相当するハードディスクドライブ39と、ディスク装置41に相当するDVD−ROMドライブ36と、情報記録媒体42に相当するDVD−ROM37と、送受信制御部30に相当する通信装置35とが接続されている。以下、これらを説明する。
CPU31は、装置全体の制御を司り、本実施の形態に係るプログラムである発音学習コンテンツ提供プログラム(発音学習プログラム80)を実行する。
ディスプレイ32は、発音学習に必要な各種操作画面や情報等を出力する。
RAM33は、発音学習プログラム80を含む各種プログラム、各種情報を一時的に記憶する。
キーボード/マウス34は、学習者から各種操作指示、各種情報を入力するために用いられる。
通信装置35は、通信ネットワークに接続するためのインターフェースであり、例えばLANポート、モデム、無線LAN、ルーター等で構成される。
DVD−ROMドライブ36には、DVD−ROM37が接続され、DVD−ROM37から各種プログラムや各種情報を読み込むことが可能である。
ハードディスクドライブ39には、英単語情報11を記憶した英単語ファイル、発音学習支援文字列情報14を記憶した発音学習支援文字列ファイル、本実施の形態に係る発音学習プログラム80、オペレーティングシステム(OS)等が記憶されている。発音学習プログラム80は、DVD−ROMドライブ36を介して、DVD−ROM37からインストールされたものである。
(2) Hardware Configuration FIG. 4 shows an example of a hardware configuration when the learning apparatus 100 according to the present embodiment is realized using a CPU (central processing unit) 31.
The CPU 31 corresponding to the control unit 20 includes a display 32 corresponding to the output unit 60, a keyboard / mouse 34 corresponding to the input unit 50, a RAM 33 corresponding to the temporary storage unit 40, and a hard disk drive corresponding to the storage unit 10. 39, a DVD-ROM drive 36 corresponding to the disk device 41, a DVD-ROM 37 corresponding to the information recording medium 42, and a communication device 35 corresponding to the transmission / reception control unit 30 are connected. These will be described below.
The CPU 31 controls the entire apparatus and executes a pronunciation learning content providing program (pronunciation learning program 80) which is a program according to the present embodiment.
The display 32 outputs various operation screens and information necessary for pronunciation learning.
The RAM 33 temporarily stores various programs including the pronunciation learning program 80 and various information.
The keyboard / mouse 34 is used to input various operation instructions and various information from the learner.
The communication device 35 is an interface for connecting to a communication network, and includes, for example, a LAN port, a modem, a wireless LAN, a router, and the like.
A DVD-ROM 37 is connected to the DVD-ROM drive 36, and various programs and various information can be read from the DVD-ROM 37.
The hard disk drive 39 includes an English word file storing the English word information 11, a pronunciation learning support character string file storing the pronunciation learning support character string information 14, the pronunciation learning program 80 according to the present embodiment, and an operating system (OS). Etc. are stored. The pronunciation learning program 80 is installed from the DVD-ROM 37 via the DVD-ROM drive 36.

(3)データ構造 (3) Data structure

(3−1)発音学習支援文字列情報14
発音学習支援文字列情報14のデータ構造の一例を説明する。
発音学習支援文字列情報14は、英単語領域、発音記号列領域、発音学習支援文字列領域を有している。
英単語領域には、英単語情報11に記憶された英単語が記憶されている。
発音記号列領域には、英単語領域に記憶された英単語に対応する発音記号列が記憶されている。
発音学習支援文字列領域には、英単語領域に記憶された英単語と発音記号列領域に記憶された発音記号列とに対応する発音学習支援文字列が記憶されている。
図5の(a)と(b)は、本実施の形態の発音学習支援文字列情報14の例を示す。
(3-1) Pronunciation learning support character string information 14
An example of the data structure of the pronunciation learning support character string information 14 will be described.
The pronunciation learning support character string information 14 includes an English word area, a pronunciation symbol string area, and a pronunciation learning support character string area.
In the English word area, English words stored in the English word information 11 are stored.
In the phonetic symbol string area, phonetic symbol strings corresponding to the English words stored in the English word area are stored.
In the pronunciation learning support character string area, pronunciation learning support character strings corresponding to the English words stored in the English word area and the pronunciation symbol strings stored in the pronunciation symbol string area are stored.
FIGS. 5A and 5B show examples of pronunciation learning support character string information 14 of the present embodiment.

(4)処理
(4−1)発音学習コンテンツ提供処理(メインルーチンの処理)
図6は、本実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100が実行する処理手順の一例をフローチャート形式で示したものである。
ステップS1では、学習者が、発音学習を行うための英語フレーズを、キーボード/マウス34を介して入力し、CPU31が当該英語フレーズを受付ける。但し当該受付けられる英語フレーズは、英単語情報11に記憶された英単語からなる。
続くステップS2では、CPU31が、ステップS1で受付けられた英語フレーズに含まれる第i番目の英単語から、当該英単語に対応する第i番目の発音学習支援文字列を、発音学習支援文字列情報11を用いて取得する(但しi=1、…、N)。
続くステップS3では、CPU31が、ステップS2で取得された第1番目から第N番目の発音学習支援文字列を、昇順に順序付けることで、ステップS1で受付けられた英語フレーズの話し方を表す、発音学習支援文字列からなる列を導出する。
続くステップS4では、CPU31が、ステップS3で導出された、発音学習支援文字列からなる列をディスプレイ32に出力する。
続くステップS5では、CPU31が、学習者の指示を受けて学習装置100の処理手順を終了するか、或いはステップS1に戻り上述と同様の処理を繰り返し実施する。
(4) Processing (4-1) Pronunciation learning content provision processing (main routine processing)
FIG. 6 shows an example of a processing procedure executed by the learning device 100 in order to realize the pronunciation learning content provision processing of the present embodiment in a flowchart format.
In step S1, the learner inputs an English phrase for performing pronunciation learning via the keyboard / mouse 34, and the CPU 31 receives the English phrase. However, the accepted English phrase is composed of English words stored in the English word information 11.
In subsequent step S2, CPU 31 obtains the i-th pronunciation learning support character string corresponding to the English word from the i-th English word included in the English phrase accepted in step S1, and pronunciation learning support character string information. 11 (where i = 1,..., N).
In the subsequent step S3, the CPU 31 arranges the first to Nth pronunciation learning support character strings obtained in step S2 in ascending order, thereby expressing the pronunciation of the English phrase accepted in step S1. A sequence of learning support character strings is derived.
In the subsequent step S4, the CPU 31 outputs a sequence of pronunciation learning support character strings derived in step S3 to the display 32.
In the subsequent step S5, the CPU 31 receives the instruction from the learner and ends the processing procedure of the learning device 100, or returns to step S1 and repeats the same processing as described above.

(4−1−1)発音学習コンテンツ提供処理の例
英語フレーズ「AND I」が受付けられる場合の、本実施の形態の発音学習コンテンツ提供処理の一具体例を説明する。
本具体例では、英単語情報11には、英単語「AND」と英単語「I」が記憶され、発音学習支援文字列情報14には、英単語「AND」と発音記号/зnd/とに対応付けられた発音学習支援文字列「アンd」、英単語「AND」と発音記号/εn/とに対応付けられた発音学習支援文字列「エn」、及び英単語「I」と発音記号列/aι/とに対応付けられた発音学習支援文字列「アイ」が記憶されているとする。
ステップS1では、学習者が、発音学習を行うための英語フレーズ「AND I」を、キーボード/マウス34を介して入力し、CPU31が当該英語フレーズを受付ける。
続くステップS2では、CPU31が、ステップS1で受付けられた英語フレーズ「AND I」に含まれる第1番目の英単語「AND」に対応する第1番目の発音学習支援文字列(「アンd」及び「エn」)と、第2番目の英単語「I」に対応する第2番目の発音学習支援文字列「アイ」とを発音学習支援文字列情報14から取得する。
続くステップS3では、CPU31が、ステップS2で取得された各発音学習支援文字列を、昇順に順序付けることにより、英語フレーズ「AND I」の話し方を表す、発音学習支援文字列からなる列(「アンd、アイ」及び「エn、アイ」)を導出する。
続くステップS4では、CPU31が、ステップS3で導出された、発音学習支援文字列からなる列を、ディスプレイ32に出力する(例えば、「アンd アイ」及び「エn アイ」、図3の(b)を参照)。
続くステップS5の説明は省略する。
(4-1-1) Example of pronunciation learning content provision processing A specific example of the pronunciation learning content provision processing of the present embodiment when the English phrase “AND I” is accepted will be described.
In this specific example, the English word information 11 stores the English word “AND” and the English word “I”, and the pronunciation learning support character string information 14 includes the English word “AND” and the phonetic symbol / cond / Pronunciation learning support character string “An d” associated with, pronunciation learning support character string “En” associated with English word “AND” and pronunciation symbol / εn /, and pronunciation as English word “I” It is assumed that a pronunciation learning support character string “eye” associated with the symbol string / a ι / is stored.
In step S1, the learner inputs an English phrase “AND I” for performing pronunciation learning via the keyboard / mouse 34, and the CPU 31 receives the English phrase.
In the subsequent step S2, the CPU 31 performs the first pronunciation learning support character string (“An d” and “AND”) corresponding to the first English word “AND” included in the English phrase “AND I” received in step S1. “E”) and the second pronunciation learning support character string “eye” corresponding to the second English word “I” are acquired from the pronunciation learning support character string information 14.
In the subsequent step S3, the CPU 31 orders the pronunciation learning support character strings acquired in step S2 in ascending order, thereby representing a sequence of pronunciation learning support character strings representing the way of speaking the English phrase “AND I” (“ An d, eye ”and“ d n, eye ”) are derived.
In the subsequent step S4, the CPU 31 outputs the sequence of pronunciation learning support character strings derived in step S3 to the display 32 (for example, “an d eye” and “en eye”, (b) of FIG. )).
The description of subsequent step S5 is omitted.

(5)変形例
以下に示す変形例は互いに組み合わせ可能である。
(5−1)変形例1
本実施の形態では、記憶部10を、CPU31に接続されたハードディスクドライブ39に設けたが、記憶部10はハードディスクドライブ39に限定されるものではない。例えば、記憶部10に記憶されている各情報の少なくとも一部が、学習装置100に接続された情報記録媒体42に記憶されていても良いし、学習装置100から通信ネットワーク300を介して読み書き可能なファイルサーバー(サーバー装置101)に記憶されていても良い(図25を参照)。
(5) Modifications Modifications shown below can be combined with each other.
(5-1) Modification 1
In the present embodiment, the storage unit 10 is provided in the hard disk drive 39 connected to the CPU 31, but the storage unit 10 is not limited to the hard disk drive 39. For example, at least a part of each piece of information stored in the storage unit 10 may be stored in the information recording medium 42 connected to the learning device 100, and can be read / written from the learning device 100 via the communication network 300. It may be stored in a simple file server (server apparatus 101) (see FIG. 25).

(5−2)変形例2
学習装置100が、発音学習支援文字列を出力部60に出力する際に、この発音学習支援文字列の末尾に位置する発音記号(又は綴り字)を、後続する発音学習支援文字列の先頭文字が「半母音を含む直音又は母音を表記する仮名文字(例えば、「ヤ」、「ユ」、「ヨ」、「ワ」、「ア」、「イ」、「ウ」、「エ」、「オ」)」であるか否かで異なる属性で出力しても良い。例えば、この発音学習支援文字列に後続する発音学習支援文字列の先頭文字が「半母音を含む直音又は母音を表記する仮名文字」である場合は、学習装置100が、この前方の発音学習支援文字列の末尾に位置する発音記号(又は綴り字)を赤色で出力させ、それ以外の場合は、この発音記号(又は綴り字)を青色で出力させても良い。
隣接する英単語のうち前方の英単語の語末が子音で発音される場合、後続する英単語の語頭が母音又は半母音で発音されるか、そうでないか(つまり、半母音を除く子音で発音される)では、この隣接する英単語の音声を結合する方法が一般的に異なる。例えば、隣接する英単語のうち後続する英単語の語頭が母音又は半母音で発音される場合は、前方の英単語の語末の子音は後続する英単語の語頭の音声と結合されてもそのまま発音される。しかし、後続する英単語の語頭が半母音を除く子音で発音される場合は、前方の英単語の語末の子音は、後続する英単語の語頭の音声と結合されると、しばしば聞こえなくなる(リダクション)。したがって、発音学習支援文字列の末尾に位置する発音記号(又は綴り字)が出力される色を、上述のように、後続する発音学習支援文字列の先頭文字の性質によって変えることで、英語フレーズに語末が子音で発音される英単語が含まれる場合でも、学習者はより容易に隣接する英単語の音声を結合することが出来、英語フレーズの流暢な話し方をより容易に学習できる。
(5-2) Modification 2
When the learning device 100 outputs the pronunciation learning support character string to the output unit 60, the phonetic symbol (or spelling) located at the end of the pronunciation learning support character string is used as the first character of the subsequent pronunciation learning support character string. Is a kana character that represents a straight or vowel including a semi-vowel (e.g., “Ya”, “Yu”, “Yo”, “Wa”, “A”, “I”, “U”, “D”, “ It may be output with different attributes depending on whether it is “e”) ”. For example, when the first character of the pronunciation learning support character string that follows this pronunciation learning support character string is “a kana character that represents a straight or vowel including a semi-vowel”, the learning device 100 causes the pronunciation learning support in front of this The phonetic symbol (or spelling) located at the end of the character string may be output in red, and in other cases, the phonetic symbol (or spelling) may be output in blue.
If the ending of the preceding English word is pronounced as a consonant in adjacent English words, the beginning of the following English word is pronounced as a vowel or semi-vowel, or not (ie, pronounced as a consonant excluding a semi-vowel) ) Generally differs in the method of combining voices of adjacent English words. For example, if the beginning of the following English word is pronounced with vowels or semi-vowels among adjacent English words, the consonant at the end of the preceding English word is pronounced as it is even if it is combined with the speech of the beginning of the following English word The However, if the beginning of the following English word is pronounced with a consonant other than a semi-vowel, the consonant at the end of the preceding English word often becomes inaudible when combined with the beginning voice of the following English word (reduction) . Therefore, by changing the color in which the phonetic symbol (or spelling) located at the end of the pronunciation learning support character string is output according to the property of the first character of the subsequent pronunciation learning support character string as described above, the English phrase Even if the words contain English words that are pronounced with consonants, the learner can more easily combine the voices of adjacent English words and learn more easily how to speak fluent English phrases.

(5−3)変形例3
英語フレーズが比較的多くの英単語を含む場合(例えば、長時間に渡る演説の原稿等)は、学習装置100が、この発音学習支援文字列からなる列を、複数の画面(又はページ)に分割して、出力部60に出力しても良い。
(5-3) Modification 3
When the English phrase includes a relatively large number of English words (for example, a manuscript for a speech over a long period of time), the learning device 100 converts the sequence of pronunciation learning support character strings into a plurality of screens (or pages). You may divide and output to the output part 60.

2.第2の実施の形態
(1)概要
図7は、本実施の形態に係る発音学習コンテンツ提供システムの概略図である。このシステムは、端末装置200とサーバー装置(以後、「学習装置100」と記載する)とからなる。
学習装置100は、例えばインターネット等の通信ネットワーク300を介して端末装置200と通信可能に形成され、端末装置200から、学習者からの各種操作命令及び各種入力情報を受付ける。また、学習装置100は、これら受付けられた操作命令及び入力情報に応じた、発音学習に関するコンテンツを、端末装置200に出力させるサーバー装置として機能する。
端末装置200は、学習者からの各種操作命令及び各種入力情報を学習装置100に送信し、学習装置100から送信される発音学習に関するコンテンツ等を出力する機能が実装されていればよく、例えば通信機能を有するパーソナルコンピュータや、ブラウザ機能を有する携帯電話、スマートフォン、タブレット、電子書籍端末などの各種通信携帯端末等が該当する。
このような学習装置100を用いたシステムは、英語学校、英語を教える学校、その他各種の学校により運営され、またこのような学校のために学習者に発音学習に関するコンテンツを提供する業者等により運営される。
図8は、本実施の形態に係る学習装置100の全体構成を示すブロック図である。
学習装置100の全体構成は、入力部および出力部を持たず、制御部の機能と送受信制御部の説明が異なることを除き、第1の実施形態の学習装置100のそれと同様であり、図8において、図2と同一構成部分には同一の符号を付しその説明は省略する。
2. Second Embodiment (1) Overview FIG. 7 is a schematic diagram of a pronunciation learning content providing system according to the present embodiment. This system includes a terminal device 200 and a server device (hereinafter referred to as “learning device 100”).
The learning device 100 is configured to be communicable with the terminal device 200 via a communication network 300 such as the Internet, for example, and receives various operation commands and various input information from the learner from the terminal device 200. In addition, the learning device 100 functions as a server device that causes the terminal device 200 to output content related to pronunciation learning according to the received operation command and input information.
The terminal device 200 only needs to have a function of transmitting various operation commands and various input information from the learner to the learning device 100 and outputting content related to pronunciation learning transmitted from the learning device 100, for example, communication. A personal computer having a function, a mobile phone having a browser function, a smart phone, a tablet, various communication portable terminals such as an electronic book terminal, and the like are applicable.
Such a system using the learning device 100 is operated by an English school, an English teaching school, and various other schools, and is operated by a supplier who provides the learner with content related to pronunciation learning for such a school. Is done.
FIG. 8 is a block diagram showing an overall configuration of learning apparatus 100 according to the present embodiment.
The entire configuration of the learning device 100 is the same as that of the learning device 100 of the first embodiment, except that it does not have an input unit and an output unit, and the function of the control unit and the description of the transmission / reception control unit are different. In FIG. 2, the same components as those in FIG.

(1−1)送受信制御部
送受信制御部30sは、通信ネットワーク300を介して端末装置200や(図示しない)サーバー装置等と各種情報の送受信をすることを制御する。本実施の形態では、通信装置35がこれに該当する。
(1-1) Transmission / Reception Control Unit The transmission / reception control unit 30s controls transmission / reception of various types of information to / from the terminal device 200 and a server device (not shown) via the communication network 300. In the present embodiment, the communication device 35 corresponds to this.

(1−2)制御部
制御部20は、以下に説明する英語フレーズ受付部21s、英単語発音学習支援文字列取得部22s、英語フレーズ発音学習支援文字列出力部27sを備える。本実施の形態では、CPU31が制御部20に該当する。
(1-2) The control unit control unit 20 includes an English phrase receiving unit 21s, an English word pronunciation learning support character string acquisition unit 22s, and an English phrase pronunciation learning support character string output unit 27s described below. In the present embodiment, the CPU 31 corresponds to the control unit 20.

(1−2−1)英語フレーズ受付部21s
英語フレーズ受付部21sは、学習者が、発音学習を行うための英語フレーズを、端末装置200の(図示しない)入力部を介して入力し、端末装置200が、この英語フレーズを学習装置100へ送信する。また、学習装置100は、端末装置200が送信した英語フレーズを受信し、この英語フレーズが英単語情報11に記憶された英単語からなる場合のみ、この英語フレーズを受付ける。
本実施の形態でも、この英語フレーズにはN個の英単語が含まれているとし(但しN≧2)、この英語フレーズに第i番目に現れる英単語を「第i番目の英単語」と記載する(但しi=1、…、N)。
(1-2-1) English phrase acceptance unit 21s
The English phrase receiving unit 21 s inputs an English phrase for a learner to perform pronunciation learning via an input unit (not shown) of the terminal device 200, and the terminal device 200 sends the English phrase to the learning device 100. Send. The learning device 100 receives the English phrase transmitted from the terminal device 200 and accepts the English phrase only when the English phrase is composed of the English word stored in the English word information 11.
Also in the present embodiment, it is assumed that this English phrase includes N English words (where N ≧ 2), and the English word that appears in the English phrase is “i-th English word”. It is described (where i = 1,..., N).

(1−2−2)英単語発音学習支援文字列取得部22s
英単語発音学習支援文字列取得部22sでは、学習装置100が、英語フレーズ受付部21sで受付けられた英語フレーズに含まれる第i番目の英単語に対応する発音学習支援文字列(つまり、「第i番目の発音学習支援文字列」)を、発音学習支援文字列情報11から取得する(但しi=1、…、N)。
(1-2-2) English word pronunciation learning support character string acquisition unit 22s
In the English word pronunciation learning support character string acquisition unit 22s, the learning device 100 has a pronunciation learning support character string (that is, “No. i-th pronunciation learning support character string ”) is acquired from the pronunciation learning support character string information 11 (where i = 1,..., N).

(1−2−3)英語フレーズ発音学習支援文字列出力部27s
英語フレーズ発音学習支援文字列出力部27sは、学習装置100が、英単語発音学習支援文字列取得部22sで取得された第1番目から第N番目の発音学習支援文字列を、昇順に順序付けることで、英語フレーズ受付部21sで受付けられた英語フレーズの話し方を表す、発音学習支援文字列からなる列を導出する。また、学習装置100が、この発音学習支援文字列からなる列を端末装置200の(図示しない)出力部に出力させる。
(1-2-3) English phrase pronunciation learning support character string output unit 27s
The English phrase pronunciation learning support character string output unit 27s causes the learning device 100 to order the first to Nth pronunciation learning support character strings acquired by the English word pronunciation learning support character string acquisition unit 22s in ascending order. Thus, a sequence of pronunciation learning support character strings representing how to speak English phrases received by the English phrase receiving unit 21s is derived. Further, the learning device 100 causes the output device (not shown) of the terminal device 200 to output a sequence of the pronunciation learning support character strings.

(2)ハードウェア構成
このハードウェア構成の説明は、第1の実施の形態のハードウェア構成の説明と同じである。但し、ハードディスクドライブ39には、本実施の形態に係るプログラムである発音学習プログラム80が記憶されている。
なお、ディスプレイ32とキーボード/マウス34は省略することもできる。
(2) Hardware configuration The description of the hardware configuration is the same as the description of the hardware configuration of the first embodiment. However, the hard disk drive 39 stores a pronunciation learning program 80 which is a program according to the present embodiment.
The display 32 and the keyboard / mouse 34 can be omitted.

(3)処理
(3−1)発音学習コンテンツ提供処理(メインルーチンの処理手順)
図9は、本実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100並びに端末装置200がそれぞれ実行する処理手順の一例をフローチャート形式で示したものである。
ステップS1では、学習者が、発音学習を行うための英語フレーズを、端末装置200の(図示しない)入力部を介して入力し、端末装置200が、この英語フレーズを学習装置100へ送信する。
続くステップS2では、CPU31が、ステップS1で送信された英語フレーズを端末装置200から受信する。
続くステップS3では、CPU31が、ステップS2で受信された英語フレーズが英単語情報11に記憶された英単語からなるかどうかをチェックし、もし当該英語フレーズが英単語情報11に記憶された英単語からなる場合はステップ4に進み、もしそうでなければステップ1に戻る。
続くステップS4では、CPU31が、ステップS2で受信された英語フレーズを受付ける。
続くステップS5では、CPU31が、ステップS4で受付けられた英語フレーズに含まれる第i番目の英単語から、当該英単語に対応する第i番目の発音学習支援文字列を、発音学習支援文字列情報11を用いて取得する(但しi=1、…、N)。
続くステップS6では、CPU31が、ステップS5で取得された第1番目から第N番目の発音学習支援文字列を、昇順に順序付けることで、ステップS4で受付けられた英語フレーズの話し方を表す、発音学習支援文字列からなる列を導出する。
続くステップS7では、CPU31が、ステップS6で導出された、発音学習支援文字列からなる列を出力するための情報を、端末装置200に送信する。
続くステップS8では、CPU31は、終了指示が無ければステップ2に戻り上述と同様の処理を繰り返し実施し、終了指示があれば学習装置100の処理手順を終了する。
ステップS9では、端末装置200が、ステップS7で送信された情報を受信する。
続くステップS10では、端末装置200が、ステップS6で導出された、発音学習支援文字列からなる列を、端末装置200の(図示しない)出力部に出力する。
続くステップS11では、端末装置200が、学習者の指示を受けて端末装置200の処理手順を終了するか、或いはステップS1に戻り上述と同様の処理を繰り返し実施する。
(3) Processing (3-1) Pronunciation learning content provision processing (main routine processing procedure)
FIG. 9 is a flowchart showing an example of processing procedures executed by the learning device 100 and the terminal device 200 in order to realize the pronunciation learning content provision processing of the present embodiment.
In step S <b> 1, a learner inputs an English phrase for performing pronunciation learning via an input unit (not shown) of the terminal device 200, and the terminal device 200 transmits the English phrase to the learning device 100.
In subsequent step S <b> 2, CPU 31 receives the English phrase transmitted in step S <b> 1 from terminal device 200.
In the subsequent step S3, the CPU 31 checks whether or not the English phrase received in step S2 is an English word stored in the English word information 11, and if the English phrase is stored in the English word information 11, the CPU 31 checks whether the English phrase is stored in the English word information 11. If so, go to Step 4, otherwise return to Step 1.
In subsequent step S4, CPU 31 receives the English phrase received in step S2.
In the subsequent step S5, the CPU 31 obtains the i-th pronunciation learning support character string corresponding to the English word from the i-th English word included in the English phrase accepted in step S4, and the pronunciation learning support character string information. 11 (where i = 1,..., N).
In the subsequent step S6, the CPU 31 arranges the first to Nth pronunciation learning support character strings acquired in step S5 in ascending order, thereby expressing the pronunciation of the English phrase accepted in step S4. A sequence of learning support character strings is derived.
In subsequent step S <b> 7, the CPU 31 transmits information for outputting a sequence of pronunciation learning support character strings derived in step S <b> 6 to the terminal device 200.
In the subsequent step S8, the CPU 31 returns to step 2 if there is no end instruction, repeatedly performs the same processing as described above, and ends the processing procedure of the learning device 100 if there is an end instruction.
In step S9, the terminal device 200 receives the information transmitted in step S7.
In subsequent step S10, the terminal device 200 outputs the sequence of pronunciation learning support character strings derived in step S6 to an output unit (not shown) of the terminal device 200.
In the subsequent step S11, the terminal device 200 receives the instruction from the learner and ends the processing procedure of the terminal device 200, or returns to step S1 and repeats the same processing as described above.

(4)変形例
以下に示す変形例は互いに組み合わせ可能である。
(4−1)変形例1
本実施の形態では、記憶部10をCPU31に接続されたハードディスクドライブ39に設けたが、記憶部10はハードディスクドライブ39に限定されるものではない。例えば、記憶部10に記憶される各情報の少なくとも一部が、端末装置200の(図示しない)記憶装置に記憶されても良いし、学習装置100から通信ネットワークを介して読み書き可能なファイルサーバー(サーバー装置101)に記憶されていても良い(図26を参照)。
(4) Modifications Modifications shown below can be combined with each other.
(4-1) Modification 1
In the present embodiment, the storage unit 10 is provided in the hard disk drive 39 connected to the CPU 31, but the storage unit 10 is not limited to the hard disk drive 39. For example, at least a part of each piece of information stored in the storage unit 10 may be stored in a storage device (not shown) of the terminal device 200, or a file server that can be read and written from the learning device 100 via a communication network ( It may be stored in the server apparatus 101) (see FIG. 26).

(4−2)変形例2
本実施の形態では、制御部20を、学習装置100のCPU31に設けたが、制御部20は学習装置100のCPU31に限定されるものではない。
例えば、学習装置100が、発音学習プログラム80の少なくとも一部を端末装置200の(図示しない)記憶装置に記憶させることで、制御部20の各部が担う機能の少なくとも一部を、端末装置200の(図示しない)CPU(中央演算装置)で行っても良い。
また例えば、発音学習プログラム80の少なくとも一部を、学習装置100から通信ネットワークを介して通信可能なアプリケーションサーバー(サーバー装置102)の(図示しない)記憶装置に記憶することで、制御部20の各部が担う機能の少なくとも一部を、このアプリケーションサーバーの(図示しない)CPU(中央演算装置)で行っても良い(図26)を参照)。
(4-2) Modification 2
In the present embodiment, the control unit 20 is provided in the CPU 31 of the learning device 100, but the control unit 20 is not limited to the CPU 31 of the learning device 100.
For example, the learning device 100 stores at least a part of the pronunciation learning program 80 in a storage device (not shown) of the terminal device 200, so that at least a part of the functions of the respective units of the control unit 20 is stored in the terminal device 200. You may carry out by CPU (central processing unit) (not shown).
Further, for example, at least a part of the pronunciation learning program 80 is stored in a storage device (not shown) of an application server (server device 102) that can communicate from the learning device 100 via a communication network, thereby allowing each unit of the control unit 20 to At least a part of the functions of the application server may be performed by a CPU (Central Processing Unit) (not shown) of the application server (see FIG. 26).

(4−3)変形例3
学習装置100が、発音学習支援文字列を端末装置200に出力させる際に、この発音学習支援文字列の末尾に位置する発音記号(又は綴り字)を、後続する発音学習支援文字列の先頭文字が「半母音を含む直音又は母音を表記する仮名文字」であるか否かで異なる属性で出力させても良い。
(4-3) Modification 3
When the learning device 100 outputs the pronunciation learning support character string to the terminal device 200, the phonetic symbol (or spelling) positioned at the end of the pronunciation learning support character string is used as the first character of the subsequent pronunciation learning support character string. May be output with different attributes depending on whether or not “a kana character expressing a vowel or a straight sound including a semi-vowel”.

(4−4)変形例4
英語フレーズが比較的多くの英単語を含む場合は、学習装置100が、この発音学習支援文字列からなる列を、複数の画面(又はページ)に分割して、端末装置200に出力させても良い。
(4-4) Modification 4
If the English phrase includes a relatively large number of English words, the learning device 100 may divide the sequence of pronunciation learning support character strings into a plurality of screens (or pages) and cause the terminal device 200 to output them. good.

(4−5)変形例5
本実施の形態に係るシステムは、公知のクライアント/サーバー型の形態をとってもよいが、このシステムを、Webシステムを用いて実現してもよい。つまり、端末装置200にWebブラウザを搭載し、そのWebブラウザが学習装置100に搭載されたWebサーバーと、HTTPプロトコルを用いたデータ通信を行うことで、発音学習プログラム80が、このシステムに、制御部20の機能を実現させるようにしてもよい。
また、その際に、発音学習プログラム80が、このシステムを、端末装置200に出力にされるWebページ(例えば、英語フレーズ発音学習支援文字列出力部で端末装置200に出力される表示画面)の中に広告を表示する広告表示手段として機能させても良い。
「Webシステム」とは、一般に端末装置にWebブラウザを搭載し、そのWebブラウザがサーバー装置(Webサーバー)と、HTTPプロトコルを用いたデータ通信を行うことで、様々な処理を実現するシステムの総称である。
(4-5) Modification 5
The system according to the present embodiment may take a known client / server type, but this system may be realized using a Web system. That is, the pronunciation learning program 80 controls the system by mounting a Web browser on the terminal device 200 and performing data communication using the HTTP protocol with the Web server mounted on the learning device 100. The function of the unit 20 may be realized.
At that time, the pronunciation learning program 80 uses this system to output a Web page (for example, a display screen output to the terminal device 200 by the English phrase pronunciation learning support character string output unit) that is output to the terminal device 200. You may make it function as an advertisement display means to display an advertisement inside.
“Web system” is a general term for a system in which a Web browser is generally mounted on a terminal device, and the Web browser performs data communication with a server device (Web server) using the HTTP protocol, thereby realizing various processes. It is.

3.第3の実施の形態
(1)概要
図10は、本実施の形態に係る発音学習コンテンツ提供装置(学習装置100)の全体構成を示すブロック図である。
学習装置100の全体構成は、記憶部10と制御部20を除いて、第1の実施の形態の学習装置100のそれと同様であり、図10において、図2と同一構成部分には同一の符号を付しその説明は省略する。
第1と第2の実施の形態では、学習装置100が、発音学習支援文字列を、当該発音学習支援文字列が記憶された発音学習支援文字列情報11(発音学習支援文字列記憶手段)から取得したが、本実施の形態では、学習装置100が、発音学習支援文字列を、後述する英単語発音学習支援文字列導出部25(英単語発音学習支援文字列導出手段)を用いて導出する。
3. Third Embodiment (1) Outline FIG. 10 is a block diagram showing an overall configuration of a pronunciation learning content providing apparatus (learning apparatus 100) according to the present embodiment.
The entire configuration of the learning device 100 is the same as that of the learning device 100 of the first embodiment except for the storage unit 10 and the control unit 20, and in FIG. The description is omitted.
In the first and second embodiments, the learning device 100 obtains the pronunciation learning support character string from the pronunciation learning support character string information 11 (pronunciation learning support character string storage means) in which the pronunciation learning support character string is stored. In the present embodiment, the learning device 100 derives the pronunciation learning support character string using the English word pronunciation learning support character string deriving unit 25 (English word pronunciation learning support character string deriving means) described later. .

(1−1)記憶部
記憶部10には、少なくとも、後述する英単語情報11と英単語発音記号列情報12が記憶されている。本実施の形態では、ハードディスクドライブ39が記憶部10に該当する。
(1-1) The storage unit storage unit 10 stores at least English word information 11 and English word phonetic symbol string information 12 described later. In the present embodiment, the hard disk drive 39 corresponds to the storage unit 10.

(1−1−1)英単語発音記号列情報12
英単語発音記号列情報12は、英単語情報11に記憶された英単語に対応付けられた発音記号列を記憶する。このデータ構造については後述する。
(1-1-1) English word pronunciation symbol string information 12
The English word phonetic symbol string information 12 stores a phonetic symbol string associated with the English words stored in the English word information 11. This data structure will be described later.

(1−2)制御部
制御部20は、英語フレーズ受付部21と、後述する、仮名表記論理導出部24、英単語発音学習支援文字列導出部25、英語フレーズ発音学習支援文字列出力部27aを備える。本実施の形態では、CPU31が制御部20に該当する。
(1-2) The control unit control unit 20 includes an English phrase receiving unit 21, a kana notation logic deriving unit 24, an English word pronunciation learning support character string deriving unit 25, and an English phrase pronunciation learning support character string output unit 27a, which will be described later. Is provided. In the present embodiment, the CPU 31 corresponds to the control unit 20.

(1−2−1)仮名表記論理導出部24
仮名表記論理導出部24は、学習装置100が、発音記号列から当該発音記号列に対応する仮名表記を論理的に導出する。
仮名表記論理導出部24は、英単語発音記号列情報12に記憶された発音記号列から、当該発音記号列に対応する仮名表記を導出するために用いられる(仮名表記導出手段)。
(1-2-1) Kana Notation Logic Deriving Unit 24
In the kana notation logic deriving unit 24, the learning device 100 logically derives a kana notation corresponding to the phonetic symbol string from the phonetic symbol string.
The kana notation logic deriving unit 24 is used to derive a kana notation corresponding to the phonetic symbol string from the phonetic symbol string stored in the English word phonetic symbol string information 12 (kana notation deriving means).

(1−2−2)英単語発音学習支援文字列導出部25
英単語発音学習支援文字列導出部25は、学習装置100が、受付けられた英語フレーズに含まれる第i番目の英単語に対応する発音記号列(以後、「第i番目の発音記号列」とも記載する)を、英単語発音記号列情報12から取得する(但しi=1、…、N)。また学習装置100が、第i番目の発音記号列に対応する仮名表記(以後、「第i番目の仮名表記」とも記載する)を、仮名表記論理導出部24を用いて導出する(但しi=1、…、N)。さらに学習装置100が、第i番目の英単語と第i番目の発音記号列とに対応する発音学習支援文字列(以後、「第i番目の発音学習支援文字列」とも記載する)を導出する(但しi=1、…、N)。
但し、この「第i番目の英単語と第i番目の発音記号列とに対応する発音学習支援文字列」は、
a)もし子音を表記する発音記号が第i番目の発音記号列の末尾にある場合は、
第i番目の仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、この子音を表記する発音記号(又はこの子音を表す綴り字)を加えた文字列であり、
b)もしR音に対応する綴り字が第i番目の英単語の語末にあり、且つ「R音に対応する非子音の発音記号」が第i番目の発音記号列の末尾にある場合は、
第i番目の仮名表記であるか、
この仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「R」を加えた文字列であり、
c)もし第1の半母音に対応する綴り字が第i番目の英単語の語末にあり、且つ「第1の半母音に対応する非子音の発音記号」が第i番目の発音記号列の末尾にある場合は、
第i番目の仮名表記であるか、
この仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「W」を加えた文字列であり、
d)もし第2の半母音に対応する綴り字が第i番目の英単語の語末にあり、且つ「第2の半母音に対応する非子音の発音記号」が第i番目の発音記号列の末尾にある場合は、
第i番目の仮名表記であるか、
この仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「Y」を加えた文字列であり、
e)もし前記a)〜d)の何れでもない場合は、
第i番目の仮名表記である。
(1-2-2) English word pronunciation learning support character string deriving unit 25
The English word pronunciation learning support character string deriving unit 25 causes the learning device 100 to obtain a pronunciation symbol string corresponding to the i-th English word included in the accepted English phrase (hereinafter referred to as “i-th pronunciation symbol string”). Is obtained from the English word phonetic symbol string information 12 (where i = 1,..., N). Further, the learning device 100 derives a kana notation corresponding to the i-th phonetic symbol string (hereinafter also referred to as “i-th kana notation”) using the kana notation logic deriving unit 24 (where i = 1, ..., N). Further, the learning device 100 derives a pronunciation learning support character string (hereinafter also referred to as “i-th pronunciation learning support character string”) corresponding to the i-th English word and the i-th pronunciation symbol string. (Where i = 1,..., N).
However, this “pronunciation learning support character string corresponding to the i-th English word and the i-th pronunciation symbol string” is:
a) If the phonetic symbol representing the consonant is at the end of the i-th phonetic symbol string,
A character string obtained by adding a phonetic symbol (or spelling representing this consonant) to the end of the partial kana notation obtained by deleting the last 1 mora kana character from the i-th kana notation,
b) If the spelling corresponding to the R sound is at the end of the i th English word and the “non-consonant pronunciation symbol corresponding to the R sound” is at the end of the i th pronunciation symbol string,
Is the i-th kana notation,
From this kana notation, it is a character string in which the character “R” is added to the end of the partial kana notation obtained by deleting the kana character of the last 1 mora,
c) If the spelling corresponding to the first semi-vowel is at the end of the i-th English word, and the “non-consonant phonetic symbol corresponding to the first semi-vowel” is at the end of the i-th phonetic symbol string If there is
Is the i-th kana notation,
From this kana notation, a character string in which the character “W” is added to the end of the partial kana notation obtained by deleting the kana character of the last 1 mora,
d) If the spelling corresponding to the second semi-vowel is at the end of the i-th English word, and the “non-consonant phonetic symbol corresponding to the second semi-vowel” is at the end of the i-th phonetic symbol string If there is
Is the i-th kana notation,
From this kana notation, it is a character string in which the character “Y” is added to the end of the partial kana notation obtained by deleting the last 1 mora kana character,
e) If none of the above a) to d),
This is the i-th kana notation.

(1−2−3)英語フレーズ発音学習支援文字列出力部27a
英語フレーズ発音学習支援文字列出力部27aは、学習装置100が、英単語発音学習支援文字列導出部25で導出された第1番目から第N番目の発音学習支援文字列を、昇順に順序付けることで、英語フレーズ受付部21で受付けられた英語フレーズの話し方を表す、発音学習支援文字列からなる列を導出する。また、学習装置100が、この発音学習支援文字列からなる列を出力部60に出力する。学習者は、この出力された、発音学習支援文字列からなる列を用いて、この英語フレーズの話し方を学ぶ。
(1-2-3) English phrase pronunciation learning support character string output unit 27a
In the English phrase pronunciation learning support character string output unit 27a, the learning device 100 orders the first to Nth pronunciation learning support character strings derived by the English word pronunciation learning support character string deriving unit 25 in ascending order. As a result, a sequence of pronunciation learning support character strings representing how to speak the English phrase received by the English phrase receiving unit 21 is derived. In addition, the learning device 100 outputs a sequence of the pronunciation learning support character string to the output unit 60. The learner learns how to speak the English phrase by using the sequence of the output pronunciation learning support character strings.

(2)ハードウェア構成
図11は、本実施の形態に係る学習装置100を、CPU31を用いて実現した場合のハードウェア構成の一例を示す。ハードディスクドライブ39には、英単語情報11を記憶した英単語ファイル、英単語発音記号列情報12を記憶した英単語発音記号列ファイル、本実施の形態に係る発音学習プログラム80、オペレーティングシステム(OS)等が記憶されている。ハードディスクドライブ39以外は第1の実施の形態のハードウェア構成と同じである。
(2) Hardware Configuration FIG. 11 shows an example of a hardware configuration when the learning apparatus 100 according to the present embodiment is realized using the CPU 31. The hard disk drive 39 includes an English word file storing English word information 11, an English word phonetic symbol file storing English phonetic symbol string information 12, a pronunciation learning program 80 according to the present embodiment, an operating system (OS). Etc. are stored. Except for the hard disk drive 39, the hardware configuration is the same as that of the first embodiment.

(3)データ構造
(3−1)英単語発音記号列情報12
英単語発音記号列情報12のデータ構造の一例を説明する。
英単語発音記号列情報12は、英単語領域、発音記号列領域を有している。
英単語領域には、英単語情報11に記憶された英単語が記憶されている。
発音記号列領域には、英単語領域に記憶された英単語に対応する発音記号列が記憶されている。
図12は、本実施の形態の英単語発音記号列情報12の一例を示す図である。
(3) Data structure (3-1) English word pronunciation symbol string information 12
An example of the data structure of the English word pronunciation symbol string information 12 will be described.
The English word phonetic symbol string information 12 has an English word region and a phonetic symbol string region.
In the English word area, English words stored in the English word information 11 are stored.
In the phonetic symbol string area, phonetic symbol strings corresponding to the English words stored in the English word area are stored.
FIG. 12 is a diagram showing an example of English word pronunciation symbol string information 12 according to the present embodiment.

(4)処理
(4−1)仮名表記論理導出処理
仮名表記論理導出部24が、発音記号列から当該発音記号列に対応する仮名表記を論理的に導出する処理の一例を説明する。仮名表記論理導出部24は、以下に説明する3つのステップ(ステップSd1〜ステップSd3)からなる。
まずステップSd1では、CPU31が、発音記号列に含まれる各発音記号を、以下の五種類の発音記号に分類する。
(i)母音を表記する発音記号(例えば、国際音声記号の/a/、/i/、/u/、/e/等で、以後「母音記号」と記載する)。
(ii) 半母音を除いた子音を表記する発音記号(例えば、国際音声記号の/k/、/g/、/s/等で、以後、単に「子音記号」と記載する)。
(iii)半母音を表記する発音記号(例えば、国際音声記号の/j/と/w/で、以後「半母音記号」と記載する)。
(iv)長い音を表記する発音記号(例えば、音声記号の/:/)。
(v)その他のアクセント等を表記する発音記号。
(4) Process (4-1) Kana Notation Logic Derivation Process An example of a process in which the kana notation logic deriving unit 24 logically derives a kana notation corresponding to the phonetic symbol string from the phonetic symbol string will be described. The kana notation logic deriving unit 24 includes three steps (steps Sd1 to Sd3) described below.
First, in step Sd1, the CPU 31 classifies each phonetic symbol included in the phonetic symbol string into the following five types of phonetic symbols.
(i) Phonetic symbols representing vowels (for example, international phonetic symbols / a /, / i /, / u /, / e /, etc., hereinafter referred to as “vowel symbols”).
(ii) Phonetic symbols that represent consonants excluding semi-vowels (for example, international phonetic symbols / k /, / g /, / s /, etc., hereinafter simply referred to as “consonant symbols”).
(iii) Phonetic symbols that represent semi-vowels (for example, the international phonetic symbols / j / and / w /, hereinafter referred to as “semi-vowel symbols”).
(iv) A phonetic symbol representing a long sound (for example, / : / of a phonetic symbol).
(v) A phonetic symbol indicating other accents.

続くステップSd2では、CPU31が、前記発音記号列を、以下のa)〜g)の7種類のセグメント(発音記号または発音記号群)に分解する。
a)子音記号・半母音記号・母音記号の順で続く特定の三つの発音記号からなる発音記号群(例えば、国際音声記号を用いた発音記号列/kju/)。
b)子音記号・母音記号の順で続く二つの発音記号からなる発音記号群(例えば、国際音声記号を用いた発音記号列/ku/)。
c) a)の発音記号群に含まれず且つ半母音記号・母音記号の順で続く二つの発音記号からなる発音記号群(例えば、国際音声記号を用いた発音記号列/ju/)。
d)直前に子音記号や半母音記号を伴わない「単独の母音記号」(例えば、国際音声記号の/u/)。
e)直後に母音記号や半母音記号を伴わない「単独の子音記号」(例えば、国際音声記号の/k/)。
f)長い音を表記する発音記号。
g)その他のアクセント等を表記する発音記号。
In subsequent step Sd2, the CPU 31 decomposes the phonetic symbol string into the following seven types of segments (phonetic symbols or phonetic symbol groups) a) to g).
a) A phonetic symbol group consisting of three specific phonetic symbols in the order of consonant symbols, semi-vowel symbols, and vowel symbols (for example, a phonetic symbol string using international phonetic symbols / kju /).
b) A phonetic symbol group consisting of two phonetic symbols in the order of consonant symbols and vowel symbols (for example, phonetic symbol string / ku / using international phonetic symbols).
c) A phonetic symbol group consisting of two phonetic symbols not included in the phonetic symbol group of a) and continuing in the order of a semi-vowel symbol and a vowel symbol (for example, a phonetic symbol string / ju / using international phonetic symbols).
d) A “single vowel symbol” (eg, / u / for the international phonetic symbol) without a consonant symbol or semi-vowel symbol immediately before.
e) A “single consonant symbol” (eg, / k / for an international phonetic symbol) that is not immediately followed by a vowel symbol or semi-vowel symbol.
f) A phonetic symbol representing a long sound.
g) A phonetic symbol indicating other accents.

続くステップSd3では、CPU31が、
a)のセグメントには、対応する拗音を表記する1モーラの仮名文字(例えば、「キャ」、「シャ」、「ジュ」)を、
b)とc)のセグメントには、対応する直音を表記する1モーラの仮名文字(例えば、「カ」、「サ」、「ヤ」)を、
d)のセグメントには、対応する母音を表記する1モーラの仮名文字(例えば、「ア」、「ウ」、「オ」)を、
e)のセグメントには、対応する1モーラの仮名文字(例えば、「ク」、「トゥ」、「ル」,「ン」)、又は促音を表記する仮名文字と対応する1モーラの仮名文字(例えば、「ック」、「ットゥ」)を、
f)のセグメントには、長音符(「ー」)を割り当て、
g)のセグメントには、仮名文字を割り当てないことで、
前記発音記号列から当該発音記号列に対応する仮名表記を論理的に導出する。
In the subsequent step Sd3, the CPU 31
In the segment of a), a 1-mora kana character (for example, “C”, “Sha”, “Ju”) indicating the corresponding stuttering,
In the segments b) and c), a 1-mora kana character (for example, “K”, “S”, “Ya”) that represents the corresponding straight sound,
In the segment d), a 1-mora kana character (for example, “A”, “U”, “O”) representing the corresponding vowel is displayed.
The segment of e) includes a corresponding 1-mora kana character (for example, “ku”, “to”, “le”, “n”), or a 1-mora kana character corresponding to a kana character indicating a sound ( For example, "Cook", "Tutto")
Assign a long note ("-") to segment f)
By not assigning kana characters to the segment of g)
A kana notation corresponding to the phonetic symbol string is logically derived from the phonetic symbol string.

(4−1−1)仮名表記論理導出処理の例1
仮名表記論理導出部24が、発音記号列/bri/から仮名表記「ブリーズ」を導出する処理の一具体的を説明する。
まずステップSd1では、CPU31が、この発音記号列に含まれる/i/を母音記号に、/b/と、/r/と、/θ/を子音記号に、/:/を長い音を表す記号に分類する。
続くステップSd2では、CPU31が、この発音記号列を、子音記号・母音記号の順で続く二つの発音記号からなる発音記号群(/ri/)、直後に母音記号や半母音記号を伴わない単独の子音記号(/b/と/θ/)、長い音を表記する発音記号(/:/)、のセグメントに分解する。
続くステップSd3では、CPU31が、/ri/のセグメントには対応する1モーラの仮名文字「リ」を、/b/のセグメントには対応する1モーラの仮名文字「ブ」を、/θ/のセグメントには対応する1モーラの仮名文字「ズ」を、/:/のセグメントには長音符「ー」を、割り当てることで、この発音記号列に対応する仮名表記「ブリーズ」を導出する。
(4-1-1) Example 1 of Kana Notation Logic Deriving Process
A specific example of the process in which the kana notation logic deriving unit 24 derives the kana notation “breeze” from the phonetic symbol string / b r i : θ / will be described.
First, in step Sd1, the CPU 31 uses / i / in the phonetic symbol string as a vowel symbol, / b /, / r /, / θ / as a consonant symbol, and / : / as a symbol representing a long sound. Classify into:
In step Sd2, CPU 31 has the pronunciation symbol strings, pronunciation symbol groups comprising two phonetic symbols followed in the order of consonant symbol-vowels (/ r i /), without vowel marks and glide symbol immediately alone Break into segments of consonant symbols (/ b / and / θ /) and phonetic symbols (/ : /) representing long sounds.
In step Sd3, CPU 31 is, / r i / of a segment of a corresponding one mora kana character "re", / b / of the segments of the corresponding one mora kana character "blanking", / theta / The kana character “zu” corresponding to this phonetic symbol string is derived by assigning the kana character “zu” corresponding to one mora to the segment “” and the long note “—” to the segment “/ : /”.

(4−1−2)仮名表記論理導出処理の例2
仮名表記論理導出部24が、発音記号列/aut/から仮名表記「アウト」を導出する処理の一具体的を説明する。
まずステップSd1では、CPU31が、この発音記号列に含まれる/a/と、/u/を母音記号、/t/を子音記号に分類する。
続くステップSd2では、CPU31が、この発音記号列を、直前に子音記号や半母音記号を伴わない単独の母音記号(/a/及び/u/)と、直後に母音記号や半母音記号を伴わない単独の子音記号(/t/)のセグメントに分解する。
続くステップSd3では、CPU31が、/a/のセグメントには対応する1モーラの仮名文字「ア」を、/u/のセグメントには対応する1モーラの仮名文字「ウ」を、/t/のセグメントには対応する1モーラの仮名文字「ト」を、割り当てることで、この発音記号列に対応する仮名表記「アウト」を導出する。
(4-1-2) Example 2 of Kana Notation Logic Derivation Process
A specific example of the process in which the kana notation logic deriving unit 24 derives the kana notation “out” from the phonetic symbol string / a ut / will be described.
First, in step Sd1, the CPU 31 classifies / a / and / u / included in this phonetic symbol string as vowel symbols and / t / as consonant symbols.
In the subsequent step Sd2, the CPU 31 uses this phonetic symbol string as a single vowel symbol (/ a / and / u /) without a consonant symbol or semi-vowel symbol immediately before and a single symbol without a vowel symbol or semi-vowel symbol immediately after. Into consonant symbols (/ t /).
In the subsequent step Sd3, the CPU 31 applies the kana character “a” corresponding to the 1 mora corresponding to the segment of / a /, and the kana character “ u ” corresponding to 1 mora corresponding to the segment of / u / A kana character “G” corresponding to this phonetic symbol string is derived by assigning a corresponding one-mora kana character “G” to a segment.

(4−2)英単語発音学習支援文字列導出処理
英単語発音学習支援文字列導出部25が、発音学習支援文字列を導出する処理の一例を説明する。
英単語発音学習支援文字列導出部25は、以下に説明する3つのステップ(ステップSb1〜ステップSb3)からなる。
まずステップSb1では、CPU31が、受付けられた英語フレーズに含まれる第i番目の英単語から、この英単語に対応する発音記号列(つまり、第i番目の発音記号列)を、英単語発音記号列情報12を用いて取得する(但しi=1、…、N)。
続くステップSb2では、CPU31が、ステップSb1で取得された第i番目の発音記号列から、仮名表記論理導出部24を用いることで、この発音記号列に対応する仮名表記(つまり、第i番目の仮名表記)を導出する(但しi=1、…、N)。
続くステップSb3では、CPU31が、以下に説明する方法で、第i番目の英単語と第i番目の発音記号列とに対応する第i番目の発音学習支援文字列を導出する(但しi=1、…、N)。
1)もし子音を表記する発音記号が第i番目の発音記号列の末尾にある場合は、CPU31が、この第i番目の発音学習支援文字列を、「第i番目の仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、この子音を表記する発音記号又はこの子音を表す綴り字を加えた文字列」とする。
2)もしR音に対応する綴り字が第i番目の英単語の語末にあり、且つ「R音に対応する非子音の発音記号」が第i番目の発音記号列の末尾にある場合は、CPU31が、この第i番目の発音学習支援文字列を、「第i番目の仮名表記」、又は『第i番目の仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「R」を加えた文字列』とする。
3)もし第1の半母音に対応する綴り字が第i番目の英単語の語末にあり、且つ「第1の半母音に対応する非子音の発音記号」が第i番目の発音記号列の末尾にある場合は、CPU31が、この第i番目の発音学習支援文字列を、「第i番目の仮名表記」又は、『第i番目の仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「W」を加えた文字列』とする。
4)もし第2の半母音に対応する綴り字が第i番目の英単語の語末にあり、且つ「第2の半母音に対応する非子音の発音記号」が第i番目の発音記号列の末尾にある場合は、CPU31が、この第i番目の発音学習支援文字列を、「第i番目の仮名表記」又は、『第i番目の仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「Y」を加えた文字列』とする。
5)もし1)〜4)の何れでもない場合は、CPU31が、この第i番目の発音学習支援文字列を、「第i番目の仮名表記」とする。
(4-2) English word pronunciation learning support character string derivation process An example of a process in which the English word pronunciation learning support character string derivation unit 25 derives a pronunciation learning support character string will be described.
The English word pronunciation learning support character string deriving unit 25 includes three steps (steps Sb1 to Sb3) described below.
First, in step Sb1, the CPU 31 obtains a phonetic symbol string (that is, the i-th phonetic symbol string) corresponding to this English word from the i-th English word included in the accepted English phrase, as an English phonetic symbol. Obtained using column information 12 (where i = 1,..., N).
In the following step Sb2, the CPU 31 uses the kana notation logic deriving unit 24 from the i-th phonetic symbol string acquired in step Sb1, so that the kana notation corresponding to this phonetic symbol string (that is, the i-th phonetic symbol string). (Kana notation) is derived (where i = 1,..., N).
In the subsequent step Sb3, the CPU 31 derives the i-th pronunciation learning support character string corresponding to the i-th English word and the i-th phonetic symbol string by the method described below (provided that i = 1). ..., N).
1) If the phonetic symbol representing the consonant is at the end of the i-th phonetic symbol string, the CPU 31 changes the i-th pronunciation learning support character string from the “i-th kana notation to the end 1 A character string obtained by adding a phonetic symbol representing this consonant or a spelling representing this consonant to the end of the partial kana notation from which the mora kana character has been deleted.
2) If the spelling corresponding to the R sound is at the end of the i th English word and the “non-consonant pronunciation symbol corresponding to the R sound” is at the end of the i th pronunciation symbol string, The CPU 31 adds the i-th pronunciation learning support character string to the end of the partial kana notation obtained by deleting the kana character of the last 1 mora from the “i-th kana notation” or “i-th kana notation”. A character string including the character “R” ”.
3) If the spelling corresponding to the first semi-vowel is at the end of the i-th English word, and the “non-consonant phonetic symbol corresponding to the first semi-vowel” is at the end of the i-th phonetic symbol string If there is, the CPU 31 converts the i-th pronunciation learning support character string into the “i-th kana notation” or “partial kana notation obtained by deleting the last 1 mora kana characters from the i-th kana notation”. Is a character string with the letter “W” added to the end ”.
4) If the spelling corresponding to the second semi-vowel is at the end of the i-th English word, and the “non-consonant phonetic symbol corresponding to the second semi-vowel” is at the end of the i-th phonetic symbol string If there is, the CPU 31 converts the i-th pronunciation learning support character string into the “i-th kana notation” or “partial kana notation obtained by deleting the last 1 mora kana characters from the i-th kana notation”. Is a character string obtained by adding the letter “Y” to the end ”.
5) If none of 1) to 4) is satisfied, the CPU 31 sets the i-th pronunciation learning support character string as “i-th kana notation”.

(4−2−1)英単語発音学習支援文字列導出処理の例
英語フレーズ「BREATHE OUT」が受付けられる場合に、本実施の形態の英単語発音学習支援文字列導出部25が、英単語「BREATHE」と発音記号列/bri/とに対応する発音学習支援文字列(「ブリーθ」又は「ブリーTH」)、及び英単語「OUT」と発音記号列/aut/とに対応する発音学習支援文字列(「アウt」又は「アウT」)を導出する処理の一具体的を説明する。
本具体例では、英単語情報11には、英単語「BREATHE」と英単語「OUT」が記憶され、英単語発音記号列情報12には、英単語「BREATHE」に対応付けられた発音記号列/bri/、英単語「OUT」に対応付けられた発音記号列/aut/が記憶されているとする。
まずステップSb1では、CPU31が、受付けられた英語フレーズ「BREATHE OUT」に含まれる第1番目の英単語「BREATHE」に対応する第1番目の発音記号列/bri/と、第2番目の英単語「OUT」に対応する第2番目の発音記号列/aut/とを、英単語発音記号列情報12から取得する。
続くステップSb2では、CPU31が、上述の「仮名表記論理導出処理の例1」と「仮名表記論理導出処理の例2」で説明した手順に従って、ステップSb1で取得された発音記号列(/bri/、/aut/)から、仮名表記論理導出部24を用いることで、この発音記号列を表す仮名表記(それぞれ「ブリーズ」、「アウト」)を導出する。
続くステップSb3では、子音を表記する発音記号/θ/が第1番目の発音記号列/bri/の末尾にあるので、CPU31が、第1番目の発音学習支援文字列を、『第1番目の仮名表記「ブリーズ」から、末尾1モーラの仮名文字を削除した部分仮名表記「ブリー」の末尾に、発音記号/θ/又は綴り字「TH」を加えた文字列』、つまり「ブリーθ」又は「ブリーTH」とする。
子音を表記する発音記号/t/が第2番目の発音記号列/aut/の末尾にあるので、CPU31が、第2番目の発音学習支援文字列を、『第2番目の仮名表記「アウト」から、末尾1モーラの仮名文字を削除した部分仮名表記「アウ」の末尾に、発音記号/t/又は綴り字「T」を加えた文字列』、つまり「アウt」又は「アウT」とする。
(4-2-1) Example of English word pronunciation learning support character string derivation processing When the English phrase “BREATHE OUT” is accepted, the English word pronunciation learning support character string derivation unit 25 of the present embodiment Pronunciation learning support character string (“BREE θ ” or “BREE TH”) corresponding to “BREATHE” and phonetic symbol string / b r i : θ /, and English word “OUT” and phonetic symbol string / a u t / A specific example of the process of deriving the pronunciation learning support character string (“out” or “out T”) corresponding to the above will be described.
In this specific example, the English word information 11 stores the English word “BREATHE” and the English word “OUT”, and the English word phonetic symbol information 12 stores the phonetic symbol string associated with the English word “BREATHE”. Assume that / b r i : θ / and a phonetic symbol string / a u / t associated with the English word “OUT” are stored.
First, in step Sb1, the CPU 31 executes the first phonetic symbol string / b r i : θ / corresponding to the first English word “BREATHE” included in the accepted English phrase “BREATHE OUT”, and the second. The second phonetic symbol string / a u t / corresponding to the th English word “OUT” is acquired from the English word phonetic symbol string information 12.
In the subsequent step Sb2, the CPU 31 follows the procedure described in the above-mentioned “Example 1 of kana notation logic derivation processing” and “Example 2 of kana notation logic derivation processing” (/ b r By using the kana notation logic deriving unit 24, the kana notation representing the phonetic symbol string (“breeze” and “out”, respectively) is derived from i : θ /, / a u t /).
In the subsequent step Sb3, since the phonetic symbol / θ / representing the consonant is at the end of the first phonetic symbol string / b r i : θ /, the CPU 31 changes the first phonetic learning support character string to “ The first kana notation “Breeze” is a partial kana notation “Bree” with the last kana character deleted and the phonetic symbol “ θ ” or the spelling “TH” added to the character string ”, that is,“ “Blee θ ” or “Bree TH”.
Since the phonetic symbol / t / representing the consonant is at the end of the second phonetic symbol string / a u t /, the CPU 31 changes the second phonetic learning support character string to “second kana notation”. The character string with the phonetic symbol / t / or the spelling “T” added to the end of the partial kana notation “au” from which the last 1 mora kana character was deleted from “out” ”, that is,“ out ”or“ out T ” "

(4−3)発音学習コンテンツ提供処理(メインルーチンの処理手順)
図13は、本実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100が実行する処理手順の一例を、フローチャート形式で示したものである。
ステップS1では、学習者が、発音学習を行うための英語フレーズを、キーボード/マウス34を介して入力し、CPU31がこの英語フレーズを受付ける。但しこの受付けられる英語フレーズは、英単語情報11に記憶された英単語からなる。
続くステップS2では、CPU31が、ステップS1で受付けられた英語フレーズに含まれる第i番目の英単語から、この英単語に対応する第i番目の発音記号列を、英単語発音記号列情報12を用いて取得するとともに、第i番目の発音記号列に対応する第i番目の仮名表記を、仮名表記論理導出部24を用いて導出する(但しi=1、…、N)。また、本実施の形態の英単語発音学習支援文字列導出処理で説明した手順に従って、CPU31が、第i番目の英単語と第i番目の発音記号列とに対応する第i番目の発音学習支援文字列を導出する(但しi=1、…、N)。
続くステップS3では、CPU31が、ステップS2で導出された第1番目から第N番目の発音学習支援文字列を、昇順に順序付けることで、受付けられた英語フレーズの話し方を表す、発音学習支援文字列からなる列を導出する。
続くステップS4では、CPU31が、ステップS3で導出された、発音学習支援文字列からなる列をディスプレイ32に出力する。
続くステップS5では、CPU31が、学習者の指示を受けて学習装置100の処理手順を終了するか、或いはステップS1に戻り上述と同様の処理を繰り返し実施する。
(4-3) Pronunciation learning content provision processing (main routine processing procedure)
FIG. 13 shows an example of a processing procedure executed by the learning apparatus 100 in order to realize the pronunciation learning content provision processing of the present embodiment in a flowchart format.
In step S1, the learner inputs an English phrase for performing pronunciation learning via the keyboard / mouse 34, and the CPU 31 receives the English phrase. However, the accepted English phrase is composed of English words stored in the English word information 11.
In the following step S2, the CPU 31 obtains the i-th pronunciation symbol string corresponding to the English word from the i-th English word included in the English phrase accepted in step S1, and the English word pronunciation symbol string information 12 And the i-th kana notation corresponding to the i-th phonetic symbol string is derived using the kana notation logic deriving unit 24 (where i = 1,..., N). Further, according to the procedure described in the English word pronunciation learning support character string derivation process of the present embodiment, the CPU 31 performs the i th pronunciation learning support corresponding to the i th English word and the i th pronunciation symbol string. A character string is derived (where i = 1,..., N).
In the subsequent step S3, the CPU 31 arranges the first to Nth pronunciation learning support character strings derived in step S2 in ascending order, thereby expressing the pronunciation learning support characters that express the accepted English phrase. Derive a sequence of columns.
In the subsequent step S4, the CPU 31 outputs a sequence of pronunciation learning support character strings derived in step S3 to the display 32.
In the subsequent step S5, the CPU 31 receives the instruction from the learner and ends the processing procedure of the learning device 100, or returns to step S1 and repeats the same processing as described above.

(4−3−1)発音学習コンテンツ提供処理の例
英語フレーズ「BREATHE OUT」が受付けられる場合の、本実施の形態の発音学習コンテンツ提供処理の一具体例を説明する。本具体例でも、上述の「英単語発音学習支援文字列導出処理の例」と同じ情報が記憶部に記憶されているとする。
ステップS1では、学習者が、発音学習を行うための英語フレーズ「BREATHE OUT」を、キーボード/マウス34を介して入力し、CPU31がこの英語フレーズを受付ける。
続くステップS2では、CPU31が、第1番目の英単語「BREATHE」に対応する第1番目の発音記号列/bri/と、第2番目の英単語「OUT」に対応する第2番目の発音記号列/aut/とを英単語発音記号列情報12から取得するとともに、発音記号列/bri/に対応する第1番目の仮名表記「ブリーズ」と、発音記号列/aut/に対応する第2番目の仮名表記「アウト」とを、仮名表記論理導出部24を用いて導出する。また、上述の「英単語発音学習支援文字列導出処理の例」で説明した手順に従って、英単語「BREATHE」と発音記号列/bri/とに対応する第1番目の発音学習支援文字列(「ブリーθ」又は「ブリーTH」)、及び英単語「OUT」と発音記号列/aut/とに対応する第2番目の発音学習支援文字列(「アウt」又は「アウT」)を導出する。
続くステップS3では、CPU31がステップS2で導出された第1番目から第2番目の発音学習支援文字列を、昇順に順序付けることで、英語フレーズ「BREATHE OUT」の話し方を表す、発音学習支援文字列からなる列(例えば「ブリーθ、アウt」)を導出する。
続くステップS4では、CPU31がステップS3で導出された、発音学習支援文字列からなる列を、ディスプレイ32に出力する(例えば「ブリーθアウt」、図3の(a)参照)。
続くステップS5の説明は省略する。
(4-3-1) Example of Pronunciation Learning Content Providing Process A specific example of the pronunciation learning content providing process of the present embodiment when the English phrase “BREATHE OUT” is accepted will be described. Also in this specific example, it is assumed that the same information as the above-mentioned “example of English word pronunciation learning support character string derivation process” is stored in the storage unit.
In step S1, the learner inputs an English phrase “BREATHE OUT” for performing pronunciation learning via the keyboard / mouse 34, and the CPU 31 receives the English phrase.
In the subsequent step S2, the CPU 31 performs the first pronunciation symbol string / b r i : θ / corresponding to the first English word “BREATHE” and the second corresponding to the second English word “OUT”. The first phonetic symbol string / a u t / is obtained from the English phonetic symbol string information 12, and the first kana notation “breeze” corresponding to the phonetic symbol string / b r i : θ / and the phonetic symbol The second kana notation “out” corresponding to the column / a u t / is derived using the kana notation logic deriving unit 24. Also, the first pronunciation learning support corresponding to the English word “BREATHE” and the phonetic symbol string / b r i : θ / is performed according to the procedure described in “Example of English word pronunciation learning support character string derivation” above A second pronunciation learning support character string (“out” or “out” corresponding to the character string (“Blee θ ” or “Bree TH”) and the English word “OUT” and the phonetic symbol string / a u t / T ”) is derived.
In the subsequent step S3, the CPU 31 arranges the first to second pronunciation learning support character strings derived in step S2 in ascending order, thereby expressing the pronunciation learning support characters representing the English phrase “BREATHE OUT”. A column composed of columns (for example, “Blee θ , out”) is derived.
In the subsequent step S4, the CPU 31 outputs the sequence of pronunciation learning support character strings derived in step S3 to the display 32 (for example, “Brie θ out ”, see FIG. 3A).
The description of subsequent step S5 is omitted.

(5)変形例
変形例の説明は、第1の実施の形態の変形例の説明と同じである。
(5) Modification The description of the modification is the same as the description of the modification of the first embodiment.

4.第4の実施の形態
(1)概要
図14は、本実施の形態に係る発音学習コンテンツ提供装置(学習装置100)の全体構成を示すブロック図である。
学習装置100の全体構成は、記憶部10と制御部20を除いては、第3の実施形態の学習装置100のそれと同様であり、図14において、図10と同一構成部分には同一の符号を付しその説明は省略する。
本実施の形態では、第3の実施の形態の仮名表記論理導出部24ではなく、後述する英単語仮名表記情報12を用いて仮名表記導出手段が実現されている。
4). Fourth Embodiment (1) Overview FIG. 14 is a block diagram showing an overall configuration of a pronunciation learning content providing apparatus (learning apparatus 100) according to the present embodiment.
The entire configuration of the learning device 100 is the same as that of the learning device 100 of the third embodiment except for the storage unit 10 and the control unit 20, and in FIG. The description is omitted.
In the present embodiment, the kana notation deriving means is realized not using the kana notation logic deriving unit 24 of the third embodiment but using the English word kana notation information 12 described later.

(1−1)記憶部
記憶部10には、少なくとも、英単語情報11と、英単語発音記号列情報12と、後述する英単語仮名表記情報13が記憶されている。本実施の形態では、ハードディスクドライブ39が記憶部10に該当する。
(1-1) The storage unit storage unit 10 stores at least English word information 11, English word pronunciation symbol string information 12, and English word kana notation information 13 to be described later. In the present embodiment, the hard disk drive 39 corresponds to the storage unit 10.

(1−1−1)英単語仮名表記情報13
英単語仮名表記情報13は、英単語発音記号列情報12に記憶された発音記号列に対応付けられた仮名表記を記憶する。このデータ構造については後述する。英単語仮名表記情報13は、英単語発音記号列情報12に記憶された発音記号列から、この発音記号列に対応する仮名表記を導出するために用いられる(仮名表記導出手段)。
(1-1-1) English word kana notation information 13
The English word kana notation information 13 stores a kana notation associated with the phonetic symbol string stored in the English word phonetic symbol string information 12. This data structure will be described later. The English word kana notation information 13 is used to derive a kana notation corresponding to this phonetic symbol string from the phonetic symbol string stored in the English word phonetic symbol string information 12 (kana notation deriving means).

(1−2)制御部
制御部20は、英語フレーズ受付部21と、後述する、英単語発音学習支援文字列導出部25b、英語フレーズ発音学習支援文字列出力部27bを備える。本実施の形態では、CPU31が制御部20に該当する。
(1-2) The control unit control unit 20 includes an English phrase receiving unit 21, an English word pronunciation learning support character string deriving unit 25b, and an English phrase pronunciation learning support character string output unit 27b, which will be described later. In the present embodiment, the CPU 31 corresponds to the control unit 20.

(1−2−1)英単語発音学習支援文字列導出部25b
英単語発音学習支援文字列導出部25bでは、学習装置100が、英語フレーズ受付部21で受付けられた英語フレーズに含まれる第i番目の英単語に対応する発音記号列(「第i番目の発音記号列」)を、英単語発音記号列情報12から取得する(但しi=1、…、N)。また学習装置100が、第i番目の発音記号列に対応する仮名表記(「第i番目の仮名表記」)を、英単語仮名表記情報13を用いて導出する(但しi=1、…、N)。さらに学習装置100が、第i番目の英単語と第i番目の発音記号列とに対応する発音学習支援文字列(「第i番目の発音学習支援文字列」)を導出する(但しi=1、…、N)。
但し、この「第i番目の英単語と第i番目の発音記号列とに対応する発音学習支援文字列」は、第3の実施の形態の英単語発音学習支援文字列導出部25で導出される「第i番目の英単語と第i番目の発音記号列とに対応する発音学習支援文字列」と同じ性質を有するものである。
(1-2-1) English word pronunciation learning support character string derivation unit 25b
In the English word pronunciation learning support character string deriving unit 25 b, the learning device 100 uses the pronunciation symbol string (“i th pronunciation” corresponding to the i th English word included in the English phrase received by the English phrase receiving unit 21. Symbol string ") is acquired from the English word pronunciation symbol string information 12 (where i = 1,..., N). Further, the learning device 100 derives a kana notation corresponding to the i-th phonetic symbol string (“i-th kana notation”) using the English word kana notation information 13 (where i = 1,..., N ). Further, the learning device 100 derives a pronunciation learning support character string (“i-th pronunciation learning support character string”) corresponding to the i-th English word and the i-th pronunciation symbol string (where i = 1). ..., N).
However, this “pronunciation learning support character string corresponding to the i-th English word and the i-th pronunciation symbol string” is derived by the English word pronunciation learning support character string deriving unit 25 of the third embodiment. "The pronunciation learning support character string corresponding to the i-th English word and the i-th pronunciation symbol string" has the same properties.

(1−2−2)英語フレーズ発音学習支援文字列出力部27b
英語フレーズ発音学習支援文字列出力部27bは、学習装置100が、英単語発音学習支援文字列導出部25bで導出された第1番目から第N番目の発音学習支援文字列を、昇順に順序付けることで、英語フレーズ受付部21で受付けられた英語フレーズの話し方を表す、発音学習支援文字列からなる列を導出する。また、学習装置100が、この発音学習支援文字列からなる列を出力部60に出力する。
(1-2-2) English phrase pronunciation learning support character string output unit 27b
The English phrase pronunciation learning support character string output unit 27b causes the learning apparatus 100 to order the first to Nth pronunciation learning support character strings derived by the English word pronunciation learning support character string deriving unit 25b in ascending order. As a result, a sequence of pronunciation learning support character strings representing how to speak the English phrase received by the English phrase receiving unit 21 is derived. In addition, the learning device 100 outputs a sequence of the pronunciation learning support character string to the output unit 60.

(2)ハードウェア構成
図15は、本実施の形態に係る学習装置100を、CPU31を用いて実現した場合のハードウェア構成の一例を示す。ハードディスクドライブ39には、英単語情報11を記憶した英単語ファイル、英単語発音記号列情報12を記憶した英単語発音記号列ファイル、英単語仮名表記情報13を記憶した英単語仮名表記ファイル、本実施の形態に係る発音学習プログラム80、オペレーティングシステム(OS)等が記憶されている。ハードディスクドライブ39以外は第3の実施の形態のハードウェア構成と同じである。
(2) Hardware Configuration FIG. 15 shows an example of a hardware configuration when the learning apparatus 100 according to the present embodiment is realized using the CPU 31. In the hard disk drive 39, an English word file storing English word information 11, an English word phonetic symbol file storing English word phonetic symbol information 12, an English word kana notation file storing English word kana notation information 13, a book A pronunciation learning program 80, an operating system (OS), and the like according to the embodiment are stored. Except for the hard disk drive 39, the hardware configuration is the same as that of the third embodiment.

(3)データ構造
(3−1)英単語仮名表記情報13
英単語仮名表記情報13のデータ構造の一例を説明する。
英単語仮名表記情報13は、発音記号列領域、仮名表記領域を有している。
発音記号列領域には、英単語情報11に記憶された英単語に対応する発音記号列が記憶されている。
仮名表記領域には、発音記号列領域に記憶された発音記号列に対応する仮名表記が記憶されている。
図16は、本実施の形態の英単語仮名表記情報13の一例を示す図である。
(3) Data structure (3-1) English word kana notation information 13
An example of the data structure of the English word kana notation information 13 will be described.
The English word kana notation information 13 has a phonetic symbol string area and a kana notation area.
In the phonetic symbol string area, phonetic symbol strings corresponding to the English words stored in the English word information 11 are stored.
In the kana notation area, kana notation corresponding to the phonetic symbol string stored in the phonetic symbol string area is stored.
FIG. 16 is a diagram illustrating an example of the English word kana notation information 13 according to the present embodiment.

(4)処理
(4−1)英単語発音学習支援文字列導出処理
英単語発音学習支援文字列導出部25bが、発音学習支援文字列を導出する処理の一例を説明する。
英単語発音学習支援文字列導出部25bは、以下に説明する3つのステップ(ステップSb1〜ステップSb3)からなる。
まずステップSb1では、CPU31が、受付けられた英語フレーズに含まれる第i番目の英単語に対応する発音記号列(第i番目の発音記号列)を、英単語発音記号列情報12から取得する(但しi=1、…、N)。
続くステップSb2では、CPU31が、ステップSb1で取得された第i番目の発音記号列に対応する仮名表記(第i番目の仮名表記)を、英単語仮名表記情報13から取得する(但しi=1、…、N)。
続くステップSb3では、CPU31が、第3の実施の形態の英単語発音学習支援文字列導出処理のステップSb3で説明した方法と同様の方法で、第i番目の英単語と第i番目の発音記号列とに対応する第i番目の発音学習支援文字列を導出する(但しi=1、…、N)。
(4) Process (4-1) English Word Pronunciation Learning Support Character String Derivation Process An example of a process in which the English word pronunciation learning support character string derivation unit 25b derives a pronunciation learning support character string will be described.
The English word pronunciation learning support character string deriving unit 25b includes three steps (steps Sb1 to Sb3) described below.
First, in step Sb1, the CPU 31 obtains a phonetic symbol string (i-th phonetic symbol string) corresponding to the i-th English word included in the accepted English phrase from the English word phonetic symbol string information 12 ( I = 1,..., N).
In the subsequent step Sb2, the CPU 31 acquires the kana notation (i-th kana notation) corresponding to the i-th phonetic symbol string acquired in step Sb1 from the English word kana notation information 13 (where i = 1). ..., N).
In the subsequent step Sb3, the CPU 31 uses the same method as that described in step Sb3 of the English word pronunciation learning support character string derivation process of the third embodiment, and the i th English word and the i th phonetic symbol. The i-th pronunciation learning support character string corresponding to the sequence is derived (where i = 1,..., N).

(4−1−1)英単語発音学習支援文字列導出処理の例
英語フレーズ「LIKE HIM」が受付けられる場合に、英単語発音学習支援文字列導出部25bが、英単語「LIKE」と発音記号/laιk/とに対応する発音学習支援文字列(例えば「ライk」)、英単語「HIM」と発音記号列/ιm/とに対応する発音学習支援文字列(例えば「イm」)、及び英単語「HIM」と発音記号列/hιm/とに対応する発音学習支援文字列(例えば「ヒm」)を導出する処理の一具体例を説明する。
本具体例では、英単語情報11には、英単語「LIKE」と英単語「HIM」が記憶され、英単語発音記号列情報12には、英単語「LIKE」に対応付けられた発音記号列/laιk/、英単語「HIM」に対応付けられた発音記号列/ιm/、及び英単語「HIM」に対応付けられた発音記号列/hιm/が記憶され、英単語仮名表記情報13には、発音記号列/laιk/に対応付けられた仮名表記「ライク」、発音記号列/ιm/に対応付けられた仮名表記「イム」、及び発音記号列/hιm/に対応付けられた仮名表記「ヒム」が記憶されているとする。
まずステップSb1では、CPU31が、受付けられた英語フレーズ「LIKE HIM」に含まれる第1番目の英単語「LIKE」に対応する第1番目の発音記号列/laιk/、及び第2番目の英単語「HIM」に対応する第2番目の発音記号列(/ιm/と/hιm/)を英単語発音記号列情報12から取得する。
続くステップSb2では、CPU31が、ステップSb1で取得された発音記号列(/laιk/、/ιm/、/hιm/)から、当該発音記号列に対応する仮名表記(それぞれ「ライク」、「イム」、「ヒム」)を、英単語仮名表記情報13を用いて導出する。
続くステップSb3では、子音を表記する発音記号/k/が第1番目の発音記号列/laιk/の末尾にあるので、CPU31が、第1番目の発音学習支援文字列を、『第1番目の仮名表記「ライク」から、末尾1モーラの仮名文字を削除した部分仮名表記「ライ」の末尾に、この子音を表記する発音記号/k/又はこの子音を表す綴り字「K」を加えた文字列』、つまり「ライk」又は「ライK」とする。
子音を表記する発音記号/m/が第2番目の発音記号列(/ιm/、/hιm/)の末尾にあるので、CPU31が、第2番目の発音学習支援文字列を、『第2番目の仮名表記(それぞれ「イム」、「ヒム」)から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、この子音を表記する発音記号/m/又はこの子音を表す綴り字「M」を加えた文字列』、つまり『それぞれ「イm」又は「イM」、「ヒm」又は「ヒM」』とする。
(4-1-1) Example of English word pronunciation learning support character string derivation process When the English phrase “LIKE HIM” is accepted, the English word pronunciation learning support character string derivation unit 25b reads the English word “LIKE” and the pronunciation symbol. Pronunciation learning support character string corresponding to / la ι k / (for example, “Rai k”), pronunciation learning support character string corresponding to English word “HIM” and pronunciation symbol string / ι m / (for example, “I m”) ), And a specific example of processing for deriving a pronunciation learning support character string (for example, “Him”) corresponding to the English word “HIM” and the phonetic symbol string / h ι m /.
In this specific example, the English word information 11 stores the English word “LIKE” and the English word “HIM”, and the English word pronunciation symbol string information 12 stores the pronunciation symbol string associated with the English word “LIKE”. / la ι k /, phonetic symbol string / ι m / associated with English word “HIM”, and phonetic symbol string / h ι m / associated with English word “HIM” The notation information 13 includes the kana notation “Like” associated with the phonetic symbol string / la ι k /, the kana notation “im” associated with the phonetic symbol string / ι m /, and the phonetic symbol string / h ι Assume that the kana notation “Him” associated with m / is stored.
First, in step Sb1, the CPU 31 performs the first phonetic symbol string / la ι k / corresponding to the first English word “LIKE” included in the received English phrase “LIKE HIM”, and the second The second phonetic symbol string (/ ι m / and / h ι m /) corresponding to the English word “HIM” is acquired from the English word phonetic symbol string information 12.
In the subsequent step Sb2, the CPU 31 uses the phonetic symbol strings (/ la ι k /, / ι m /, / h ι m /) acquired in step Sb1 to indicate the kana characters (“Like” ”,“ Im ”,“ Him ”) using the English word kana notation information 13.
In the subsequent step Sb3, since the phonetic symbol / k / representing the consonant is at the end of the first phonetic symbol string / la ι k /, the CPU 31 converts the first phonetic learning support character string to “first Add the phonetic symbol / k / that represents this consonant or the spelling "K" that represents this consonant to the end of the partial kana notation "Lai" from which the kana character of the last 1 mora has been deleted Character string ”, that is,“ Lai k ”or“ Lai K ”.
Since the phonetic symbol / m / representing the consonant is at the end of the second phonetic symbol string (/ ι m /, / h ι m /), the CPU 31 changes the second pronunciation learning support character string to “ The second kana notation (respectively “Im” and “Him”), the phonetic symbol / m / representing this consonant or the spelling representing this consonant at the end of the partial kana notation with the last kora character deleted. A character string including the letter “M” ”, that is,“ Im ”or“ IM ”,“ Him ”or“ HiM ”, respectively.

(4−2)発音学習コンテンツ提供処理(メインルーチンの処理手順)
図13は、本実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100が実行する処理手順の一例をフローチャート形式で示したものである。
まずステップS1では、学習者が、発音学習を行うための英語フレーズを、キーボード/マウス34を介して入力し、CPU31がこの英語フレーズを受付ける。但しこの受付けられる英語フレーズは、英単語情報11に記憶された英単語からなる。
続くステップS2では、CPU31が、ステップS1で受付けられた英語フレーズに含まれる第i番目の英単語から、この英単語に対応する第i番目の発音記号列を、英単語発音記号列情報12を用いて取得するとともに、第i番目の発音記号列に対応する第i番目の仮名表記を、英単語仮名表記情報13を用いて導出する(但しi=1、…、N)。また、本実施の形態の英単語発音学習支援文字列導出処理で説明した手順に従って、CPU31が、第i番目の英単語と第i番目の発音記号列とに対応する第i番目の発音学習支援文字列を導出する(但しi=1、…、N)。
続くステップS3では、CPU31が、ステップS2で導出された第1番目から第N番目の発音学習支援文字列を、昇順に順序付けることで、受付けられた英語フレーズの話し方を表す、発音学習支援文字列からなる列を導出する。
続くステップS4では、CPU31が、ステップS3で導出された、発音学習支援文字列からなる列をディスプレイ32に出力する
続くステップS5では、CPU31が、学習者の指示を受けて学習装置100の処理手順を終了するか、或いはステップS1に戻り上述と同様の処理を繰り返し実施する。
(4-2) Pronunciation learning content provision processing (main routine processing procedure)
FIG. 13 shows an example of a processing procedure executed by the learning device 100 in order to realize the pronunciation learning content provision processing of the present embodiment in a flowchart format.
First, in step S1, the learner inputs an English phrase for performing pronunciation learning via the keyboard / mouse 34, and the CPU 31 receives the English phrase. However, the accepted English phrase is composed of English words stored in the English word information 11.
In the following step S2, the CPU 31 obtains the i-th pronunciation symbol string corresponding to the English word from the i-th English word included in the English phrase accepted in step S1, and the English word pronunciation symbol string information 12 The i-th kana notation corresponding to the i-th phonetic symbol string is derived using the English word kana notation information 13 (where i = 1,..., N). Further, according to the procedure described in the English word pronunciation learning support character string derivation process of the present embodiment, the CPU 31 performs the i th pronunciation learning support corresponding to the i th English word and the i th pronunciation symbol string. A character string is derived (where i = 1,..., N).
In the subsequent step S3, the CPU 31 arranges the first to Nth pronunciation learning support character strings derived in step S2 in ascending order, thereby expressing the pronunciation learning support characters that express the accepted English phrase. Derive a sequence of columns.
In the subsequent step S4, the CPU 31 outputs the sequence of pronunciation learning support character strings derived in step S3 to the display 32. In the subsequent step S5, the CPU 31 receives the instruction from the learner and performs the processing procedure of the learning device 100. Or return to step S1 and repeat the same process as described above.

(4−2−1)発音学習コンテンツ提供処理の例
英語フレーズ「LIKE HIM」が受付けられる場合の、本実施の形態の発音学習コンテンツ提供処理(メインルーチンの処理)の一具体例を説明する。本具体例でも、上述の「英単語発音学習支援文字列導出処理の例」と同じ情報が記憶部に記憶されているとする。
ステップS1では、学習者が、発音学習を行うための英語フレーズ「LIKE HIM」を、キーボード/マウス34を介して入力し、CPU31がこの英語フレーズを受付ける。
続くステップS2では、CPU31が、第1番目の英単語「LIKE」に対応する第1番目の発音記号列/laιk/、及び第2番目の英単語「HIM」に対応する第2番目の発音記号列(/ιm/と/hιm/)を英単語発音記号列情報12から取得するとともに、発音記号列/laιk/に対応する仮名表記「ライク」、発音記号列/ιm/に対応する仮名表記「イム」、及び発音記号列/hιm/に対応する仮名表記「ヒム」を、英単語発音記号列情報12を用いて導出する。さらに、CPU31が、上述の「英単語発音学習支援文字列導出処理の例」で説明した手順に従って、英単語「LIKE」と発音記号列/laιk/とに対応する第1番目の発音学習支援文字列(「ライk」又は「ライK」)、英単語「HIM」と発音記号列/ιm/とに対応する第2番目の発音学習支援文字列(「イm」又は「イM」)、及び英単語「HIM」と発音記号列/hιm/とに対応する第2番目の発音学習支援文字列(「ヒm」又は「ヒM」)を導出する。
続くステップS3では、CPU31が、ステップS2で導出された各発音学習支援文字列を、昇順に順序付けることで、英語フレーズ「LIKE HIM」の話し方を表す、発音学習支援文字列からなる列(例えば「ライk、イm」、「ライk、ヒm」)を導出する。
続くステップS4では、CPU31が、ステップS3で導出された、発音学習支援文字列からなる列をディスプレイ32に出力する(例えば「ライk イm」、「ライk ヒm」)。
続くステップS5の説明は省略する。
(4-2-1) Example of pronunciation learning content provision processing A specific example of pronunciation learning content provision processing (main routine processing) of the present embodiment when the English phrase “LIKE HIM” is accepted will be described. Also in this specific example, it is assumed that the same information as the above-mentioned “example of English word pronunciation learning support character string derivation process” is stored in the storage unit.
In step S1, the learner inputs an English phrase “LIKE HIM” for performing pronunciation learning via the keyboard / mouse 34, and the CPU 31 receives the English phrase.
In the subsequent step S2, the CPU 31 performs the second phonetic symbol sequence / la ι k / corresponding to the first English word “LIKE” and the second English word “HIM” corresponding to the second English word “HIM”. The phonetic symbol strings (/ ι m / and / h ι m /) are acquired from the phonetic symbol string information 12 and the kana notation “Like” corresponding to the phonetic symbol string / la ι k /, the phonetic symbol string / ι The kana notation “Im” corresponding to m / and the kana notation “Him” corresponding to the phonetic symbol string / h ι m / are derived using the English word phonetic symbol string information 12. Further, the CPU 31 performs the first pronunciation learning corresponding to the English word “LIKE” and the pronunciation symbol string / la ι k / according to the procedure described in the above “Example of English word pronunciation learning support character string derivation process”. The second pronunciation learning support character string ("Im" or "IM" corresponding to the support character string ("Lai k" or "Lai K"), the English word "HIM" and the phonetic symbol string / ι m / )), And a second pronunciation learning support character string (“hi m” or “hi M”) corresponding to the English word “HIM” and the phonetic symbol string / h ι m /.
In the subsequent step S3, the CPU 31 orders the pronunciation learning support character strings derived in step S2 in ascending order to represent a sequence of pronunciation learning support character strings representing the way of speaking the English phrase “LIKE HIM” (for example, "Lai k, Im m", "Lai k, Hi m").
In the subsequent step S4, the CPU 31 outputs a sequence of pronunciation learning support character strings derived in step S3 to the display 32 (for example, “rai k i m”, “rai k hi m”).
The description of subsequent step S5 is omitted.

(5)変形例
変形例の説明は、第1の実施の形態の変形例の説明と同じである。
(5) Modification The description of the modification is the same as the description of the modification of the first embodiment.

5.第5の実施の形態
(1)概要
図7は、本実施の形態に係る発音学習コンテンツ提供システムの概略図である。この概略図の説明は、第2の実施の形態の説明と重複するので、省略する。
図17は、学習装置100の全体構成を示すブロック図である。
学習装置100の全体構成は、入力部および出力部を持たず制御部20の機能と送受信制御部30sの説明が異なることを除き、第3の実施形態の学習装置100のそれと同様であり、図17において、図10と同一構成部分には同一の符号を付しその説明は省略する(但し送受信制御部30sは第2の実施形態の送受信制御部30sと同じものである)。以下、これらを説明する。
5. Fifth Embodiment (1) Overview FIG. 7 is a schematic diagram of a pronunciation learning content providing system according to the present embodiment. Since the description of this schematic diagram overlaps with the description of the second embodiment, it will be omitted.
FIG. 17 is a block diagram illustrating the overall configuration of the learning apparatus 100.
The overall configuration of the learning device 100 is the same as that of the learning device 100 of the third embodiment, except that it does not have an input unit and an output unit, and the function of the control unit 20 and the description of the transmission / reception control unit 30s are different. 17, the same components as those in FIG. 10 are denoted by the same reference numerals and description thereof is omitted (however, the transmission / reception control unit 30 s is the same as the transmission / reception control unit 30 s of the second embodiment). These will be described below.

(1−1)制御部
制御部20は、仮名表記論理導出部24、英単語発音学習支援文字列導出部25、及び後述する、英語フレーズ受付部21s、英語フレーズ発音学習支援文字列出力部27asを備える。本実施の形態では、CPU31が制御部20に該当する。
(1-1) The control unit control unit 20 includes a kana notation logic derivation unit 24, an English word pronunciation learning support character string derivation unit 25, an English phrase reception unit 21s, an English phrase pronunciation learning support character string output unit 27as, which will be described later. Is provided. In the present embodiment, the CPU 31 corresponds to the control unit 20.

(1−1−1)英語フレーズ受付部21s
英語フレーズ受付部21sの説明は、第2の実施の形態の英語フレーズ受付部21sの説明と同じである。
(1-1-1) English phrase receiving unit 21s
The description of the English phrase receiving unit 21s is the same as the description of the English phrase receiving unit 21s of the second embodiment.

(1−1−2)英語フレーズ発音学習支援文字列出力部27as
英語フレーズ発音学習支援文字列出力部27asは、学習装置100が、英単語発音学習支援文字列導出部25で導出された第1番目から第N番目の発音学習支援文字列を、昇順に順序付けることで、英語フレーズ受付部21sで受付けられた英語フレーズの話し方を表す、発音学習支援文字列からなる列を導出する。また、学習装置100が、この発音学習支援文字列からなる列を端末装置200の(図示しない)出力部に出力させる。
(1-1-2) English phrase pronunciation learning support character string output unit 27as
The English phrase pronunciation learning support character string output unit 27as causes the learning device 100 to order the first to Nth pronunciation learning support character strings derived by the English word pronunciation learning support character string deriving unit 25 in ascending order. Thus, a sequence of pronunciation learning support character strings representing how to speak English phrases received by the English phrase receiving unit 21s is derived. Further, the learning device 100 causes the output device (not shown) of the terminal device 200 to output a sequence of the pronunciation learning support character strings.

(2)ハードウェア構成
このハードウェア構成の説明は、第3の実施の形態のハードウェア構成の説明と同じである。但し、ハードディスクドライブ39には、本実施の形態に係る発音学習プログラム80、が記憶されている。
なお、ディスプレイ32とキーボード/マウス34は省略することもできる。
(2) Hardware configuration The description of this hardware configuration is the same as the description of the hardware configuration of the third embodiment. However, the hard disk drive 39 stores a pronunciation learning program 80 according to the present embodiment.
The display 32 and the keyboard / mouse 34 can be omitted.

(3)処理
(3−1)発音学習コンテンツ提供処理(メインルーチンの処理手順)
図18は、本実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100並びに端末装置200がそれぞれ実行する処理手順の一例を、フローチャート形式で示したものである。
ステップS1では、学習者が、発音学習を行うための英語フレーズを、端末装置200の(図示しない)入力部を介して入力し、端末装置200が、この英語フレーズを学習装置100へ送信する。
続くステップS2では、CPU31が、ステップS1で送信された英語フレーズを端末装置200から受信する。
続くステップS3では、CPU31が、ステップS2で受信された英語フレーズが英単語情報11に記憶された英単語からなるかどうか(つまり、この英語フレーズが受付け可能かどうか)をチェックし、もしこの英語フレーズが英単語情報11に記憶された英単語からなる場合はステップ4に進み、もしそうでなければステップ1に戻る。
ステップS4では、CPU31が、ステップS2で受信された英語フレーズを受付ける。
続くステップS5では、CPU31が、第3の実施の形態の英単語発音学習支援文字列導出処理で説明した手順に従って、ステップS2で受付けられた英語フレーズに含まれる第i番目の英単語から、この英単語に対応する第i番目の発音記号列を、英単語発音記号列情報12を用いて取得するとともに、第i番目の英単語と第i番目の発音記号列とに対応する第i番目の発音学習支援文字列を導出する(但しi=1、…、N)。
続くステップS6では、CPU31が、ステップS5で導出された第1番目から第N番目の発音学習支援文字列を、昇順に順序付けることで、ステップS4で受付けられた英語フレーズの話し方を表す、発音学習支援文字列からなる列を導出する。
続くステップS7では、CPU31が、ステップS6で導出された、発音学習支援文字列からなる列を出力するための情報を、端末装置200に送信する。
続くステップS8では、CPU31は、終了指示が無ければステップ2に戻り上述と同様の処理を繰り返し実施し、終了指示があれば学習装置100の処理手順を終了する。
ステップS9では、端末装置200が、ステップS7で送信された情報を受信する。
続くステップS10では、端末装置200が、ステップS6で導出された、発音学習支援文字列からなる列を、端末装置200の(図示しない)出力部に出力する。
続くステップS11では、端末装置200が、学習者の指示を受けて端末装置200の処理手順を終了するか、或いはステップS1に戻り上述と同様の処理を繰り返し実施する。
(3) Processing (3-1) Pronunciation learning content provision processing (main routine processing procedure)
FIG. 18 is a flowchart showing an example of processing procedures executed by the learning device 100 and the terminal device 200 in order to realize the pronunciation learning content provision processing of the present embodiment.
In step S <b> 1, a learner inputs an English phrase for performing pronunciation learning via an input unit (not shown) of the terminal device 200, and the terminal device 200 transmits the English phrase to the learning device 100.
In subsequent step S <b> 2, CPU 31 receives the English phrase transmitted in step S <b> 1 from terminal device 200.
In the following step S3, the CPU 31 checks whether or not the English phrase received in step S2 is composed of English words stored in the English word information 11 (that is, whether or not this English phrase is acceptable). If the phrase is composed of English words stored in the English word information 11, the process proceeds to step 4; otherwise, the process returns to step 1.
In step S4, the CPU 31 accepts the English phrase received in step S2.
In the subsequent step S5, the CPU 31 follows the procedure described in the English word pronunciation learning support character string derivation process of the third embodiment from the i-th English word included in the English phrase accepted in step S2. The i-th phonetic symbol string corresponding to the English word is acquired using the English word phonetic symbol string information 12, and the i-th phonetic symbol string corresponding to the i-th English word and the i-th phonetic symbol string is acquired. A pronunciation learning support character string is derived (where i = 1,..., N).
In the subsequent step S6, the CPU 31 arranges the first to Nth pronunciation learning support character strings derived in step S5 in ascending order, thereby expressing the pronunciation of the English phrase accepted in step S4. A sequence of learning support character strings is derived.
In subsequent step S <b> 7, the CPU 31 transmits information for outputting a sequence of pronunciation learning support character strings derived in step S <b> 6 to the terminal device 200.
In the subsequent step S8, the CPU 31 returns to step 2 if there is no end instruction, repeatedly performs the same processing as described above, and ends the processing procedure of the learning device 100 if there is an end instruction.
In step S9, the terminal device 200 receives the information transmitted in step S7.
In subsequent step S10, the terminal device 200 outputs the sequence of pronunciation learning support character strings derived in step S6 to an output unit (not shown) of the terminal device 200.
In the subsequent step S11, the terminal device 200 receives the instruction from the learner and ends the processing procedure of the terminal device 200, or returns to step S1 and repeats the same processing as described above.

(4)変形例
変形例の説明は、第2の実施の形態の変形例の説明と同じである。
(4) Modification The description of the modification is the same as the description of the modification of the second embodiment.

6.第6の実施の形態
(1)概要
図19は、本実施の形態に係る発音学習コンテンツ提供装置(学習装置100)の全体構成を示すブロック図である。
学習装置100の全体構成は、記憶部10と制御部20を除き、第1の実施形態の学習装置100のそれと同様であり、図19において、図2と同一構成部分には同一の符号を付しその説明は省略する。
6). Sixth Embodiment (1) Outline FIG. 19 is a block diagram showing an overall configuration of a pronunciation learning content providing apparatus (learning apparatus 100) according to the present embodiment.
The entire configuration of the learning device 100 is the same as that of the learning device 100 of the first embodiment except for the storage unit 10 and the control unit 20, and in FIG. 19, the same components as those in FIG. The description is omitted.

(1−1)記憶部
記憶部10には、少なくとも、後述する、英語フレーズ発音学習支援文字列情報16が記憶されている。本実施の形態では、ハードディスクドライブ39が記憶部10に該当する。
(1-1) The storage unit storage unit 10 stores at least English phrase pronunciation learning support character string information 16 described later. In the present embodiment, the hard disk drive 39 corresponds to the storage unit 10.

(1−1−1)英語フレーズ発音学習支援文字列情報16
英語フレーズ発音学習支援文字列情報16は、英語フレーズと、この英語フレーズに含まれる各英単語に対応する発音学習支援文字列からなる列とを対応付けて記憶する。
この発音学習支援文字列からなる列は、対応する英語フレーズがN個の英単語を含むとすると、第1番目から第N番目の発音学習支援文字列で構成される(但しN≧2)。
この第i番目の発音学習支援文字列は、この英語フレーズに含まれる第i番目の英単語と、この英単語に対応する発音記号列(第i番目の発音記号列)とに対応付けられるとともに、
この第i番目の発音学習支援文字列は、
a)もし子音を表記する発音記号が第i番目の発音記号列の末尾にある場合は、
第i番目の英単語と第i番目の発音記号列とに対応する仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、この子音を表記する発音記号(又はこの子音を表す綴り字)を加えた文字列であり、
b)もしR音に対応する綴り字が第i番目の英単語の語末にあり、且つ「R音に対応する非子音の発音記号」が第i番目の発音記号列の末尾にある場合は、
第i番目の英単語と第i番目の発音記号列とに対応する仮名表記であるか、
当該仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「R」を加えた文字列であり、
c)もし第1の半母音に対応する綴り字が第i番目の英単語の語末にあり、且つ「第1の半母音に対応する非子音の発音記号」が第i番目の発音記号列の末尾にある場合は、
第i番目の英単語と第i番目の発音記号列とに対応する仮名表記であるか、
当該仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「W」を加えた文字列であり、
d)もし第2の半母音に対応する綴り字が第i番目の英単語の語末にあり、且つ「第2の半母音に対応する非子音の発音記号」が第i番目の発音記号列の末尾にある場合は、
第i番目の英単語と第i番目の発音記号列とに対応する仮名表記であるか、
当該仮名表記から、末尾1モーラの仮名文字を削除した部分仮名表記の末尾に、文字「Y」を加えた文字列であり、
e)もし前記a)〜d)の何れでもない場合は、
第i番目の英単語と第i番目の発音記号列とに対応する仮名表記である(但しi=1、…、N)。
(1-1-1) English phrase pronunciation learning support character string information 16
The English phrase pronunciation learning support character string information 16 stores an English phrase and a string of pronunciation learning support character strings corresponding to each English word included in the English phrase in association with each other.
The sequence of pronunciation learning support character strings is composed of the first to Nth pronunciation learning support character strings (provided that N ≧ 2), assuming that the corresponding English phrase includes N English words.
The i-th pronunciation learning support character string is associated with the i-th English word included in the English phrase and a pronunciation symbol string (i-th pronunciation symbol string) corresponding to the English word. ,
This i-th pronunciation learning support string is
a) If the phonetic symbol representing the consonant is at the end of the i-th phonetic symbol string,
From the kana notation corresponding to the i-th English word and the i-th phonetic symbol string, the phonetic symbol (or this consonant) is displayed at the end of the partial kana notation in which the kana character of the last 1 mora is deleted. Is a character string with a spelling)
b) If the spelling corresponding to the R sound is at the end of the i th English word and the “non-consonant pronunciation symbol corresponding to the R sound” is at the end of the i th pronunciation symbol string,
The kana notation corresponding to the i-th English word and the i-th phonetic symbol string,
It is a character string in which the character “R” is added to the end of the partial kana notation obtained by deleting the last 1 mora kana characters from the kana notation,
c) If the spelling corresponding to the first semi-vowel is at the end of the i-th English word, and the “non-consonant phonetic symbol corresponding to the first semi-vowel” is at the end of the i-th phonetic symbol string If there is
The kana notation corresponding to the i-th English word and the i-th phonetic symbol string,
It is a character string in which the character “W” is added to the end of the partial kana notation obtained by deleting the last 1 mora kana character from the kana notation,
d) If the spelling corresponding to the second semi-vowel is at the end of the i-th English word, and the “non-consonant phonetic symbol corresponding to the second semi-vowel” is at the end of the i-th phonetic symbol string If there is
The kana notation corresponding to the i-th English word and the i-th phonetic symbol string,
It is a character string in which the character “Y” is added to the end of the partial kana notation obtained by deleting the last 1 mora kana character from the kana notation,
e) If none of the above a) to d),
Kana notation corresponding to the i-th English word and the i-th phonetic symbol string (where i = 1,..., N).

(1−2)制御部
制御部20は、後述する、英語フレーズ選択部28と、英語フレーズ発音学習支援文字列出力部27cとを備える。本実施の形態では、CPU31が制御部20に該当する。
(1-2) The control unit control unit 20 includes an English phrase selection unit 28 and an English phrase pronunciation learning support character string output unit 27c, which will be described later. In the present embodiment, the CPU 31 corresponds to the control unit 20.

(1−2−1)英語フレーズ選択部28
英語フレーズ選択部28は、学習装置100が、発音学習の対象となる英語フレーズを英語フレーズ発音学習支援文字列情報16から選択するための選択情報を、入力部50を介して学習者から受付ける。また、学習装置100が、この受付けられた選択情報に対応する英語フレーズを英語フレーズ発音学習支援文字列情報16から選択する。
(1-2-1) English phrase selector 28
The English phrase selection unit 28 receives selection information from the learner via the input unit 50 for the learning device 100 to select an English phrase that is a pronunciation learning target from the English phrase pronunciation learning support character string information 16. Further, the learning device 100 selects an English phrase corresponding to the received selection information from the English phrase pronunciation learning support character string information 16.

(1−2−2)英語フレーズ発音学習支援文字列出力部27c
英語フレーズ発音学習支援文字列出力部27cは、学習装置100が、英語フレーズ選択部28で選択された英語フレーズに対応する、発音学習支援文字列からなる列を、英語フレーズ発音学習支援文字列情報16から取得する。また、学習装置100が、この英語フレーズと、この取得された発音学習支援文字列からなる列とを、出力部60に出力する。学習者は、この出力された、発音学習支援文字列からなる列を用いて、この英語フレーズの話し方を学ぶ。
(1-2-2) English phrase pronunciation learning support character string output unit 27c
The English phrase pronunciation learning support character string output unit 27c uses the English phrase pronunciation learning support character string information as a string of pronunciation learning support character strings corresponding to the English phrase selected by the learning device 100 by the English phrase selection unit 28. 16 from. In addition, the learning device 100 outputs the English phrase and the sequence of the acquired pronunciation learning support character string to the output unit 60. The learner learns how to speak the English phrase by using the sequence of the output pronunciation learning support character strings.

(2)ハードウェア構成
図20は、本実施の形態に係る学習装置100を、CPU31を用いて実現した場合のハードウェア構成の一例を示す。
ハードディスクドライブ39には、英語フレーズ発音学習支援文字列情報16を記録した英語フレーズ発音学習支援文字列ファイル、本実施の形態に係る発音学習プログラム80、オペレーティングシステム(OS)等が記憶されている。ハードディスクドライブ39以外は第1の実施の形態のハードウェア構成と同じである。
(2) Hardware Configuration FIG. 20 shows an example of a hardware configuration when the learning apparatus 100 according to the present embodiment is realized using the CPU 31.
The hard disk drive 39 stores an English phrase pronunciation learning support character string file in which English phrase pronunciation learning support character string information 16 is recorded, a pronunciation learning program 80 according to the present embodiment, an operating system (OS), and the like. Except for the hard disk drive 39, the hardware configuration is the same as that of the first embodiment.

(3)データ構造
(3−1)英語フレーズ発音学習支援文字列情報16
英語フレーズ発音学習支援文字列情報16の、データ構造の一例を説明する。
英語フレーズ発音学習支援文字列情報16は、英語フレーズ領域、英単語発音記号列領域、及び英語フレーズ発音学習支援文字列領域を有している。
英語フレーズ領域には、英語フレーズが記憶されている。
英単語発音記号列領域には、第1番目から第N番目の発音記号列が記憶されている。第i番目の発音記号列は、英語フレーズ領域に記憶された英語フレーズに含まれる第i番目の英単語に対応した発音記号列である(i=1,…,N)。ここで、Nとは、英語フレーズ領域に記憶された英語フレーズに含まれる英単語の数である(但し、N≧2)。
英語フレーズ発音学習支援文字列領域には、第1番目から第N番目の発音学習支援文字列が記憶されている。この第i番目の発音学習支援文字列は、上述の「(1−1−1)英語フレーズ発音学習支援文字列情報16」で説明した性質を有する(i=1,…,N)。
図21の(a)と(b)は、英語フレーズ発音学習支援文字列情報16の一例を示す図である。
なお、図21の(a)と(b)の英語フレーズ領域に記憶されている各英単語はスペース文字(空白文字)で区切られているが、カンマ等の他の区切り文字(デリミター)で区切っても良い。
なお、図21の(a)と(b)の英単語発音記号列領域に記憶されている各発音記号列はカンマで区切られているが、スペース文字(空白文字)等の他の区切り文字(デリミター)で区切っても良い。
なお、図21の(a)と(b)の英語フレーズ発音学習支援文字列領域に記憶されている各発音学習支援文字列はカンマで区切られているが、スペース文字(空白文字)等の他の区切り文字(デリミター)で区切っても良い。
なお、この例では、英単語発音記号列領域に第1番目から第N番目の発音記号列が記憶されているとしたが、英単語発音記号列領域には、必ずしも第1番目から第N番目の発音記号列そのものが記憶されている必要はなく、各発音記号列を識別する情報が記憶されていれば良い。
(3) Data structure (3-1) English phrase pronunciation learning support character string information 16
An example of the data structure of the English phrase pronunciation learning support character string information 16 will be described.
The English phrase pronunciation learning support character string information 16 has an English phrase region, an English word pronunciation symbol string region, and an English phrase pronunciation learning support character string region.
An English phrase is stored in the English phrase area.
In the English word phonetic symbol string area, the first to Nth phonetic symbol strings are stored. The i-th phonetic symbol string is a phonetic symbol string corresponding to the i-th English word included in the English phrase stored in the English phrase area (i = 1,..., N). Here, N is the number of English words included in the English phrase stored in the English phrase area (where N ≧ 2).
In the English phrase pronunciation learning support character string area, the first to Nth pronunciation learning support character strings are stored. This i-th pronunciation learning support character string has the property described in the above-mentioned “(1-1-1) English phrase pronunciation learning support character string information 16” (i = 1,..., N).
FIGS. 21A and 21B are diagrams showing an example of English phrase pronunciation learning support character string information 16.
Note that each English word stored in the English phrase area in FIGS. 21A and 21B is separated by a space character (blank character), but is separated by another delimiter such as a comma (delimiter). May be.
Note that each phonetic symbol string stored in the English word phonetic symbol string area of FIGS. 21A and 21B is separated by a comma, but other delimiters such as a space character (blank character) ( It may be separated by a delimiter.
Note that each pronunciation learning support character string stored in the English phrase pronunciation learning support character string area of FIGS. 21A and 21B is separated by a comma, but other than a space character (blank character) or the like. It may be delimited by the delimiter (delimiter).
In this example, the first to Nth phonetic symbol strings are stored in the English word phonetic symbol string region, but the first to Nth phonetic symbol string regions are not necessarily stored in the English word phonetic symbol string region. The phonetic symbol string itself does not need to be stored, and information for identifying each phonetic symbol string may be stored.

(4)処理
(4−1)発音学習コンテンツ提供処理(メインルーチンの処理手順)
本実施の形態の発音学習コンテンツ提供処理は、以下に説明する3つのステップ(ステップS1〜ステップS3)からなる。
まずステップS1では、学習者が、発音学習の対象となる英語フレーズを英語フレーズ発音学習支援文字列情報16から選択するための選択情報を、入力部50を介して入力し、CPU31が、この選択情報を受付ける。
続くステップS2では、CPU31が、ステップS1で受付けられた選択情報に対応する英語フレーズを英語フレーズ発音学習支援文字列情報16から選択する。
続くステップS3では、CPU31が、ステップS2で選択された英語フレーズから、当該英語フレーズに対応する、発音学習支援文字列からなる列を、英語フレーズ発音学習支援文字列情報16から取得するとともに、当該英語フレーズと当該発音学習支援文字列からなる列とをディスプレイ32に出力する。
(4) Processing (4-1) Pronunciation learning content provision processing (main routine processing procedure)
The pronunciation learning content providing process according to the present embodiment includes three steps (steps S1 to S3) described below.
First, in step S1, a learner inputs selection information for selecting an English phrase to be a pronunciation learning target from the English phrase pronunciation learning support character string information 16 via the input unit 50, and the CPU 31 selects this selection. Accept information.
In subsequent step S2, CPU 31 selects an English phrase corresponding to the selection information accepted in step S1 from English phrase pronunciation learning support character string information 16.
In the subsequent step S3, the CPU 31 obtains, from the English phrase pronunciation learning support character string information 16, a sequence of pronunciation learning support character strings corresponding to the English phrase from the English phrase selected in step S2, and An English phrase and a string composed of the pronunciation learning support character string are output to the display 32.

(5)変形例
変形例の説明は、第1の実施の形態の変形例の説明と同じである。
(5) Modification The description of the modification is the same as the description of the modification of the first embodiment.

7.第7の実施の形態
(1)概要
図22は、本実施の形態に係る発音学習コンテンツ提供装置(学習装置100)の全体構成を示すブロック図である。
学習装置100の全体構成は、制御部20以外は、第6の実施形態の学習装置100のそれと同様であり、図22において、図19と同一構成部分には同一の符号を付しその説明は省略する。
7). Seventh Embodiment (1) Overview FIG. 22 is a block diagram showing an overall configuration of a pronunciation learning content providing apparatus (learning apparatus 100) according to the present embodiment.
The entire configuration of the learning device 100 is the same as that of the learning device 100 of the sixth embodiment except for the control unit 20, and in FIG. 22, the same components as those in FIG. Omitted.

(1−1)制御部
制御部20は、後述する、英語フレーズ発音学習支援文字列選択部26と、英語フレーズ発音学習支援文字列出力部27dとを備える。本実施の形態では、CPU31が制御部20に該当する。
(1-1) The control unit control unit 20 includes an English phrase pronunciation learning support character string selection unit 26 and an English phrase pronunciation learning support character string output unit 27d, which will be described later. In the present embodiment, the CPU 31 corresponds to the control unit 20.

(1−1−1)英語フレーズ発音学習支援文字列選択部26
英語フレーズ発音学習支援文字列選択部26は、学習装置100が、発音学習の対象となる「発音学習支援文字列からなる列」を英語フレーズ発音学習支援文字列情報16から選択するための選択情報を、入力部50を介して学習者から受付ける。また、学習装置100が、この受付けられた選択情報に対応する「発音学習支援文字列からなる列」を英語フレーズ発音学習支援文字列情報16から選択する。
(1-1-1) English phrase pronunciation learning support character string selection unit 26
The English phrase pronunciation learning support character string selection unit 26 is a selection information for the learning device 100 to select “a string consisting of pronunciation learning support character strings” to be a pronunciation learning target from the English phrase pronunciation learning support character string information 16. Is received from the learner via the input unit 50. In addition, the learning device 100 selects “a sequence of pronunciation learning support character strings” corresponding to the received selection information from the English phrase pronunciation learning support character string information 16.

(1−1−2)英語フレーズ発音学習支援文字列出力部27d
英語フレーズ発音学習支援文字列出力部27dは、学習装置100が、英語フレーズ発音学習支援文字列選択部26で選択された、発音学習支援文字列からなる列に対応する英語フレーズを、英語フレーズ発音学習支援文字列情報16から取得する。また、学習装置100が、この取得された英語フレーズと、この発音学習支援文字列からなる列とを、出力部60に出力する。
学習者は、この出力された、発音学習支援文字列からなる列を用いて、この英語フレーズの話し方を学ぶ。
(1-1-2) English phrase pronunciation learning support character string output unit 27d
The English phrase pronunciation learning support character string output unit 27d generates an English phrase pronunciation corresponding to the English phrase corresponding to the sequence of pronunciation learning support character strings selected by the learning device 100 by the English phrase pronunciation learning support character string selection unit 26. Obtained from the learning support character string information 16. In addition, the learning device 100 outputs the acquired English phrase and a sequence of the pronunciation learning support character string to the output unit 60.
The learner learns how to speak the English phrase by using the sequence of the output pronunciation learning support character strings.

(2)ハードウェア構成
本実施の形態のハードウェア構成の説明は、第6の実施の形態のハードウェア構成の説明と同じである。但し、ハードディスクドライブ39には、本実施の形態に係る発音学習プログラム80、が記憶されている。
(2) Hardware configuration The description of the hardware configuration of the present embodiment is the same as the description of the hardware configuration of the sixth embodiment. However, the hard disk drive 39 stores a pronunciation learning program 80 according to the present embodiment.

(3)処理
(3−1)発音学習コンテンツ提供処理(メインルーチンの処理手順)
本実施の形態の発音学習コンテンツ提供処理は、以下に説明する3つのステップ(ステップS1〜ステップS3)からなる。
まずステップS1では、学習者が、発音学習の対象となる「発音学習支援文字列からなる列」を英語フレーズ発音学習支援文字列情報16から選択するための選択情報を、入力部50を介して入力し、CPU31が、この選択情報を受付ける。
続くステップS2では、CPU31が、ステップS1で受付けられた選択情報に対応する、発音学習支援文字列からなる列を英語フレーズ発音学習支援文字列情報16から選択する。
続くステップS3では、CPU31が、ステップS2で選択された、発音学習支援文字列からなる列に対応する英語フレーズを、英語フレーズ発音学習支援文字列情報16から取得するとともに、この取得された英語フレーズと、この発音学習支援文字列からなる列とをディスプレイ32に出力する。
(3) Processing (3-1) Pronunciation learning content provision processing (main routine processing procedure)
The pronunciation learning content providing process according to the present embodiment includes three steps (steps S1 to S3) described below.
First, in step S <b> 1, the learner selects, via the input unit 50, selection information for selecting from the English phrase pronunciation learning support character string information 16 a “string consisting of pronunciation learning support character strings” that is the subject of pronunciation learning. The CPU 31 accepts this selection information.
In the subsequent step S2, the CPU 31 selects, from the English phrase pronunciation learning support character string information 16, a column consisting of the pronunciation learning support character string corresponding to the selection information received in step S1.
In the subsequent step S3, the CPU 31 acquires from the English phrase pronunciation learning support character string information 16 an English phrase corresponding to the sequence consisting of the pronunciation learning support character string selected in step S2, and this acquired English phrase. And a sequence of the pronunciation learning support character strings are output to the display 32.

(4)変形例
変形例の説明は、第1の実施の形態の変形例の説明と同じである。
(4) Modification The description of the modification is the same as the description of the modification of the first embodiment.

8.第8の実施の形態
(1)概要
図7は、本実施の形態に係る発音学習コンテンツ提供システムの概略図である。この概略図の説明は、第2の実施の形態の説明と重複するので、省略する。
図23は、学習装置100の全体構成を示すブロック図である。
学習装置100の全体構成は、入力部および出力部を持たず、制御部20の機能と送受信制御部30sの説明が異なることを除き、第6の実施形態の学習装置100のそれと同様であり、図23において、図19と同一構成部分には同一の符号を付しその説明は省略する(送受信制御部30sは第2の実施形態の送受信制御部30sと同じものである)。
8). Eighth Embodiment (1) Outline FIG. 7 is a schematic diagram of a pronunciation learning content providing system according to the present embodiment. Since the description of this schematic diagram overlaps with the description of the second embodiment, it will be omitted.
FIG. 23 is a block diagram showing the overall configuration of the learning apparatus 100. As shown in FIG.
The entire configuration of the learning device 100 is the same as that of the learning device 100 of the sixth embodiment, except that it does not have an input unit and an output unit, except that the function of the control unit 20 and the description of the transmission / reception control unit 30s are different. In FIG. 23, the same components as in FIG.

(1−1)制御部
制御部20は、後述する、英語フレーズ選択部28sと、英語フレーズ発音学習支援文字列出力部27csとを備える。本実施の形態では、本実施の形態に係る発音学習プログラム80を実行するCPU31が制御部20に該当する。
(1-1) The control part control part 20 is provided with the English phrase selection part 28s and the English phrase pronunciation learning assistance character string output part 27cs which are mentioned later. In the present embodiment, the CPU 31 that executes the pronunciation learning program 80 according to the present embodiment corresponds to the control unit 20.

(1−1−1)英語フレーズ選択部28s
英語フレーズ選択部28sは、学習装置100が、発音学習の対象となる英語フレーズを英語フレーズ発音学習支援文字列情報16から選択するための選択情報を、端末装置200の(図示しない)入力部を介して学習者から受付ける。また、学習装置100が、この受付けられた選択情報に対応する英語フレーズを英語フレーズ発音学習支援文字列情報16から選択する。
(1-1-1) English phrase selector 28s
The English phrase selection unit 28s uses the input unit (not shown) of the terminal device 200 as selection information for the learning device 100 to select an English phrase that is a pronunciation learning target from the English phrase pronunciation learning support character string information 16. Accept from learners through. Further, the learning device 100 selects an English phrase corresponding to the received selection information from the English phrase pronunciation learning support character string information 16.

(1−1−2)英語フレーズ発音学習支援文字列出力部27cs
英語フレーズ発音学習支援文字列出力部27csは、学習装置100が、英語フレーズ選択部28sで選択された英語フレーズに対応する、発音学習支援文字列からなる列を、英語フレーズ発音学習支援文字列情報16から取得する。また、学習装置100が、この英語フレーズと、この取得された、発音学習支援文字列からなる列とを、端末装置200の(図示しない)出力部に出力させる。
学習者は、この出力された、発音学習支援文字列からなる列を用いて、この英語フレーズの話し方を学ぶ。
(1-1-2) English phrase pronunciation learning support character string output unit 27cs
The English phrase pronunciation learning support character string output unit 27cs is a phrase composed of pronunciation learning support character strings corresponding to the English phrase selected by the learning device 100 by the English phrase selection unit 28s. 16 from. Further, the learning device 100 causes the output unit (not shown) of the terminal device 200 to output the English phrase and the acquired sequence of pronunciation learning support character strings.
The learner learns how to speak the English phrase by using the sequence of the output pronunciation learning support character strings.

(2)ハードウェア構成
このハードウェア構成の説明は、第6の実施の形態のハードウェア構成の説明と同じである。但し、ハードディスクドライブ39には、本実施の形態に係る発音学習プログラム80、が記憶されている。
なお、ディスプレイ32とキーボード/マウス34は省略することもできる。
(2) Hardware configuration The description of this hardware configuration is the same as the description of the hardware configuration of the sixth embodiment. However, the hard disk drive 39 stores a pronunciation learning program 80 according to the present embodiment.
The display 32 and the keyboard / mouse 34 can be omitted.

(3)処理
(3−1)発音学習コンテンツ提供処理(メインルーチンの処理手順)
図24は、本実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100並びに端末装置200がそれぞれ実行する処理手順の一例をフローチャート形式で示したものである。
まずステップS1では、学習者が、発音学習の対象となる英語フレーズを英語フレーズ発音学習支援文字列情報16から選択するための選択情報を、端末装置200の(図示しない)入力部を介して入力し、端末装置200がこの選択情報を学習装置100へ送信する。
続くステップS2では、CPU31が、ステップS1で送信された選択情報を受付ける。
続くステップS3では、CPU31が、ステップS2で受付けられた選択情報に対応する英語フレーズを英語フレーズ発音学習支援文字列情報16から選択する。
続くステップS4では、CPU31が、ステップS3で選択された英語フレーズに対応する、発音学習支援文字列からなる列を、英語フレーズ発音学習支援文字列情報16から取得する。
続くステップS5では、ステップS3で選択された英語フレーズと、ステップS4で取得された、発音学習支援文字列からなる列とを出力するための情報を、端末装置200に送信する。
続くステップS6では、CPU31は、終了指示が無ければステップ2に戻り上述と同様の処理を繰り返し実施し、終了指示があれば学習装置100の処理手順を終了する。
続くステップS7では、端末装置200が、ステップS5で送信された情報を受信する。
続くステップS8では、端末装置200が、ステップS3で選択された英語フレーズと、ステップS4で取得された、発音学習支援文字列からなる列とを、端末装置200の(図示しない)出力部に出力する。
続くステップS9では、端末装置200が、学習者の指示を受けて端末装置200の処理手順を終了するか、或いはステップS1に戻り上述と同様の処理を繰り返し実施する。
(3) Processing (3-1) Pronunciation learning content provision processing (main routine processing procedure)
FIG. 24 is a flowchart showing an example of processing procedures executed by the learning device 100 and the terminal device 200 in order to realize the pronunciation learning content provision processing of the present embodiment.
First, in step S1, a learner inputs selection information for selecting an English phrase to be a pronunciation learning target from the English phrase pronunciation learning support character string information 16 via an input unit (not shown) of the terminal device 200. The terminal device 200 transmits this selection information to the learning device 100.
In subsequent step S2, CPU 31 accepts the selection information transmitted in step S1.
In the subsequent step S3, the CPU 31 selects an English phrase corresponding to the selection information accepted in step S2 from the English phrase pronunciation learning support character string information 16.
In the subsequent step S4, the CPU 31 acquires from the English phrase pronunciation learning support character string information 16 a sequence of pronunciation learning support character strings corresponding to the English phrase selected in step S3.
In subsequent step S5, information for outputting the English phrase selected in step S3 and the sequence of pronunciation learning support character strings acquired in step S4 is transmitted to the terminal device 200.
In subsequent step S6, if there is no end instruction, the CPU 31 returns to step 2 and repeatedly performs the same processing as described above, and if there is an end instruction, ends the processing procedure of the learning device 100.
In subsequent step S7, the terminal device 200 receives the information transmitted in step S5.
In subsequent step S8, the terminal device 200 outputs the English phrase selected in step S3 and the sequence of pronunciation learning support character strings acquired in step S4 to an output unit (not shown) of the terminal device 200. To do.
In the subsequent step S9, the terminal device 200 receives the instruction from the learner and ends the processing procedure of the terminal device 200, or returns to step S1 and repeats the same processing as described above.

(4)変形例
変形例の説明は、第2の実施の形態の変形例の説明と同じである。
(4) Modification The description of the modification is the same as the description of the modification of the second embodiment.

9.第9の実施の形態
(1)概要
図7は、本実施の形態に係る発音学習コンテンツ提供システムの概略図である。この概略図の説明は、端末装置200が(図示しない)音声再生部をさらに備えることを除き、第2の実施の形態の概略図の説明と同様である。
図27は、学習装置100の全体構成を示すブロック図である。
学習装置100の全体構成は、記憶部10と制御部20が異なることを除き、第7の実施形態の学習装置100のそれと同様であり、図27において、図22と同一構成部分には同一の符号を付しその説明は省略する。
(1−1)記憶部
記憶部10には、少なくとも、英語フレーズ発音学習支援文字列情報16と、後述する英語フレーズ音声情報15とが記憶されている。本実施の形態では、ハードディスクドライブ39が記憶部10に該当する。
(1−1−1)英語フレーズ音声情報15
英語フレーズ音声情報15は、学習装置100が、英語フレーズ発音学習支援文字列情報16に記憶された、発音学習支援文字列からなる列に対応する音声データを記憶する。ここで、「発音学習支援文字列からなる列に対応する音声データ」とは、この発音学習支援文字列からなる列を、音声ナレーション又は歌声として含む音声データである。
9. Ninth Embodiment (1) Outline FIG. 7 is a schematic diagram of a pronunciation learning content providing system according to the present embodiment. The description of this schematic diagram is the same as the description of the schematic diagram of the second embodiment, except that the terminal device 200 further includes an audio reproduction unit (not shown).
FIG. 27 is a block diagram showing the overall configuration of the learning apparatus 100.
The entire configuration of the learning device 100 is the same as that of the learning device 100 of the seventh embodiment except that the storage unit 10 and the control unit 20 are different. In FIG. 27, the same components as those in FIG. Reference numerals are assigned and description thereof is omitted.
(1-1) The storage unit storage unit 10 stores at least English phrase pronunciation learning support character string information 16 and English phrase voice information 15 described later. In the present embodiment, the hard disk drive 39 corresponds to the storage unit 10.
(1-1-1) English phrase audio information 15
The English phrase speech information 15 stores speech data corresponding to a sequence of pronunciation learning support character strings stored in the English phrase pronunciation learning support character string information 16 by the learning device 100. Here, “speech data corresponding to a sequence of pronunciation learning support character strings” is audio data including the sequence of pronunciation learning support character strings as speech narration or singing voice.

(1−2)制御部
制御部20は、後述する、英語フレーズ音声再生部23と、英語フレーズ発音学習支援文字列選択部26sと、英語フレーズ発音学習支援文字列出力部27dsとを備える。本実施の形態では、本実施の形態に係る発音学習プログラム80を実行するCPU31が制御部20に該当する。
(1-2) The control unit control unit 20 includes an English phrase sound reproduction unit 23, an English phrase pronunciation learning support character string selection unit 26s, and an English phrase pronunciation learning support character string output unit 27ds, which will be described later. In the present embodiment, the CPU 31 that executes the pronunciation learning program 80 according to the present embodiment corresponds to the control unit 20.

(1−2−1)英語フレーズ音声再生部23
英語フレーズ音声再生部23は、学習装置100が、英語フレーズ音声情報15に記憶された、発音学習支援文字列からなる列に対応する音声データを端末装置200に送信することで、この音声データを端末装置200の(図示しない)音声再生部で再生させる。
(1-2-1) English phrase audio playback unit 23
The English phrase voice reproduction unit 23 transmits the voice data to the terminal device 200 by the learning device 100 transmitting voice data corresponding to a sequence of pronunciation learning support character strings stored in the English phrase voice information 15. It is played back by an audio playback unit (not shown) of the terminal device 200.

(1−2−2)英語フレーズ発音学習支援文字列選択部26s
英語フレーズ発音学習支援文字列選択部26sは、学習装置100が、発音学習の対象となる「発音学習支援文字列からなる列」を英語フレーズ発音学習支援文字列情報16から選択するための選択情報を、端末装置200の(図示しない)入力部を介して学習者から受付ける。また、学習装置100が、この受付けられた選択情報に対応する「発音学習支援文字列からなる列」を英語フレーズ発音学習支援文字列情報16から選択する。
(1-2-2) English phrase pronunciation learning support character string selection unit 26s
The English phrase pronunciation learning support character string selection unit 26 s is a selection information for the learning device 100 to select from the English phrase pronunciation learning support character string information 16 a “sequence of pronunciation learning support character strings” that is a target of pronunciation learning. Is received from the learner via an input unit (not shown) of the terminal device 200. In addition, the learning device 100 selects “a sequence of pronunciation learning support character strings” corresponding to the received selection information from the English phrase pronunciation learning support character string information 16.

(1−2−3)英語フレーズ発音学習支援文字列出力部27ds
英語フレーズ発音学習支援文字列出力部27dsは、学習装置100が、英語フレーズ発音学習支援文字列選択部26sで選択された、発音学習支援文字列からなる列に対応する英語フレーズを、英語フレーズ発音学習支援文字列情報16から取得する。また、学習装置100が、この取得された英語フレーズと、この発音学習支援文字列からなる列とを、端末装置200の(図示しない)出力部に出力させる。
学習者は、この出力された、発音学習支援文字列からなる列を用いて、この英語フレーズの話し方を学ぶ。
なお、この英語フレーズが比較的多くの英単語を含む場合(例えば、長時間に渡る演説の原稿や英語の歌詞等)は、学習装置100が、この英語フレーズと、この発音学習支援文字列からなる列とを、複数の時間に分割して、端末装置200に出力させても良い。
例えば、学習装置100が、この英語フレーズと、この発音学習支援文字列からなる列とを端末装置200に出力させる際は、
a)英語フレーズ音声情報15に記憶された、この発音学習支援文字列からなる列に対応する音声データを、英語フレーズ音声再生部23を用いて端末装置200の(図示しない)音声再生部で再生させながら、
b)この音声データの再生箇所に対応する、この英語フレーズを分割した部分と、この音声データの再生箇所に対応する、この発音学習支援文字列からなる列を分割した部分とを、端末装置200に出力させるようにしてもよい。
(1-2-3) English phrase pronunciation learning support character string output unit 27ds
The English phrase pronunciation learning support character string output unit 27ds generates an English phrase pronunciation corresponding to a sequence of pronunciation learning support character strings selected by the learning device 100 by the English phrase pronunciation learning support character string selection unit 26s. Obtained from the learning support character string information 16. Further, the learning device 100 causes the output unit (not shown) of the terminal device 200 to output the acquired English phrase and the sequence of the pronunciation learning support character string.
The learner learns how to speak the English phrase by using the sequence of the output pronunciation learning support character strings.
When the English phrase includes a relatively large number of English words (for example, a long-time speech manuscript or English lyrics), the learning apparatus 100 uses the English phrase and the pronunciation learning support character string. May be divided into a plurality of times and output to the terminal device 200.
For example, when the learning device 100 causes the terminal device 200 to output this English phrase and a sequence of pronunciation pronunciation support character strings,
a) The voice data corresponding to the pronunciation learning support character string stored in the English phrase voice information 15 is reproduced by the voice reproduction unit (not shown) of the terminal device 200 using the English phrase voice reproduction unit 23. While letting
b) The terminal device 200 includes a portion obtained by dividing the English phrase corresponding to the reproduction portion of the voice data and a portion obtained by dividing a column of the pronunciation learning support character string corresponding to the reproduction portion of the voice data. You may make it output to.

(2)ハードウェア構成
図28は、本実施の形態に係る学習装置100を、CPU31を用いて実現した場合のハードウェア構成の一例を示す。
ハードディスクドライブ39には、英語フレーズ音声情報15を記録した英語フレーズ音声ファイル、英語フレーズ発音学習支援文字列情報16を記録した英語フレーズ発音学習支援文字列ファイル、本実施の形態に係る発音学習プログラム80、オペレーティングシステム(OS)等が記憶されている。ハードディスクドライブ39以外は第1の実施の形態のハードウェア構成と同じであるので、ハードディスクドライブ39以外の説明は省略する。
なお、ディスプレイ32とキーボード/マウス34は省略することもできる。
(2) Hardware Configuration FIG. 28 shows an example of a hardware configuration when the learning apparatus 100 according to the present embodiment is realized using the CPU 31.
The hard disk drive 39 includes an English phrase audio file in which English phrase audio information 15 is recorded, an English phrase pronunciation learning support character string file in which English phrase pronunciation learning support character string information 16 is recorded, and a pronunciation learning program 80 according to the present embodiment. An operating system (OS) and the like are stored. Since the hardware configuration other than the hard disk drive 39 is the same as that of the first embodiment, the description other than the hard disk drive 39 is omitted.
The display 32 and the keyboard / mouse 34 can be omitted.

(3)処理
(3−1)発音学習コンテンツ提供処理(メインルーチンの処理手順)
図29は、本実施の形態の発音学習コンテンツ提供処理を実現するために学習装置100並びに端末装置200がそれぞれ実行する処理手順の一例をフローチャート形式で示したものである。
まずステップS1では、学習者が、発音学習の対象となる「発音学習支援文字列からなる列」を英語フレーズ発音学習支援文字列情報16から選択するための選択情報を、端末装置200の(図示しない)入力部を介して入力し、端末装置200がこの選択情報を学習装置100へ送信する。
続くステップS2では、CPU31が、ステップS1で送信された選択情報を受付ける。
続くステップS3では、CPU31が、ステップS2で受付けられた選択情報に対応する、発音学習支援文字列からなる列を英語フレーズ発音学習支援文字列情報16から選択する。
続くステップS4では、ステップS3で選択された、発音学習支援文字列からなる列に対応する英語フレーズを、英語フレーズ発音学習支援文字列情報16から取得するとともに、この発音学習支援文字列からなる列に対応する音声データを英語フレーズ音声情報15から取得する。
続くステップS5では、CPU31が、ステップS3で選択された、発音学習支援文字列からなる列と、ステップS4で取得された英語フレーズとを出力するための情報を端末装置200に送信するとともに、ステップS4で取得された音声データを再生するための情報を端末装置200に送信する。
続くステップS6では、CPU31は、終了指示が無ければステップ2に戻り上述と同様の処理を繰り返し実施し、終了指示があれば学習装置100の処理手順を終了する。
続くステップS7では、端末装置200が、ステップS5で送信された情報を受信する。
続くステップS8では、端末装置200が、ステップS3で選択された、発音学習支援文字列からなる列と、ステップS4で取得された英語フレーズとを、端末装置200の(図示しない)出力部に出力するとともに、ステップS4で取得された音声データを端末装置200の(図示しない)音声再生部で再生する。
続くステップS9では、端末装置200が、学習者の指示を受けて端末装置200の処理手順を終了するか、或いはステップS1に戻り上述と同様の処理を繰り返し実施する。
なお、ステップS8では、前記英語フレーズが比較的多くの英単語を含む場合は、端末装置200が、この英語フレーズと、前記発音学習支援文字列からなる列とを、複数の時間に分割して出力しても良い。
例えば、端末装置200が、この英語フレーズと、この発音学習支援文字列からなる列とを出力する際は、
a)この発音学習支援文字列からなる列に対応する音声データを、(図示しない)音声再生部で再生させながら、
b)この音声データの再生箇所に対応する、この英語フレーズを分割した部分と、この音声データの再生箇所に対応する、この発音学習支援文字列からなる列を分割した部分とを、(図示しない)出力部に出力してもよい。
(3) Processing (3-1) Pronunciation learning content provision processing (main routine processing procedure)
FIG. 29 is a flowchart showing an example of processing procedures executed by the learning device 100 and the terminal device 200 in order to realize the pronunciation learning content provision processing according to the present embodiment.
First, in step S1, selection information for the learner to select from the English phrase pronunciation learning support character string information 16 a “string consisting of pronunciation learning support character strings” that is the subject of pronunciation learning is displayed on the terminal device 200 (illustrated). No) Input via the input unit, and the terminal device 200 transmits this selection information to the learning device 100.
In subsequent step S2, CPU 31 accepts the selection information transmitted in step S1.
In the subsequent step S3, the CPU 31 selects, from the English phrase pronunciation learning support character string information 16, a column composed of the pronunciation learning support character string corresponding to the selection information accepted in step S2.
In the subsequent step S4, an English phrase corresponding to the sequence consisting of the pronunciation learning support character string selected in step S3 is acquired from the English phrase pronunciation learning support character string information 16, and the sequence consisting of this pronunciation learning support character string. Is obtained from the English phrase voice information 15.
In the following step S5, the CPU 31 transmits information for outputting the pronunciation learning support character string selected in step S3 and the English phrase acquired in step S4 to the terminal device 200. Information for reproducing the audio data acquired in S4 is transmitted to the terminal device 200.
In subsequent step S6, if there is no end instruction, the CPU 31 returns to step 2 and repeatedly performs the same processing as described above, and if there is an end instruction, ends the processing procedure of the learning device 100.
In subsequent step S7, the terminal device 200 receives the information transmitted in step S5.
In subsequent step S8, the terminal device 200 outputs the sequence of pronunciation learning support character strings selected in step S3 and the English phrase acquired in step S4 to an output unit (not shown) of the terminal device 200. At the same time, the audio data acquired in step S4 is reproduced by an audio reproduction unit (not shown) of the terminal device 200.
In the subsequent step S9, the terminal device 200 receives the instruction from the learner and ends the processing procedure of the terminal device 200, or returns to step S1 and repeats the same processing as described above.
In step S8, when the English phrase includes a relatively large number of English words, the terminal device 200 divides the English phrase and the sequence of pronunciation learning support character strings into a plurality of times. It may be output.
For example, when the terminal device 200 outputs this English phrase and a string composed of this pronunciation learning support character string,
a) While reproducing the audio data corresponding to the sequence of the pronunciation learning support character strings in an audio reproduction unit (not shown),
b) A portion obtained by dividing the English phrase corresponding to the reproduction location of the voice data and a portion obtained by dividing the row of the pronunciation learning support character strings corresponding to the reproduction location of the audio data (not shown) ) You may output to an output part.

(4)変形例
変形例の説明は、第2の実施の形態の変形例の説明と同じである。
(4) Modification The description of the modification is the same as the description of the modification of the second embodiment.

以上、本発明の実施の形態について説明したが、本発明は上述の実施の形態に限定されるものではない。なお、本発明における各部、ファイルは、その機能、データが論理的に区別されていることを示すものであって、物理上または事実上は同一の領域にあってもよいし、異なった領域であってもよく、特に限定するものではない。
また、前述のハードディスクに記憶された発音学習コンテンツ提供プログラム単体で処理を実行しているものに限らず、他のソフトウェア等の機能とともに、OS上で動作し前述の実施の形態の動作を実行するものも前述の実施の形態の範囲に含まれる。
As mentioned above, although embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment. In addition, each part and file in the present invention indicate that their functions and data are logically distinguished, and may be physically or virtually in the same area, or in different areas. There may be, and it does not specifically limit.
Further, the process is not limited to the execution of the pronunciation learning content providing program stored in the hard disk as described above, but operates on the OS together with other functions such as software, and executes the operation of the above-described embodiment. Those are also included in the scope of the above-described embodiment.

本発明は、企業、学校等の組織内における発音学習コンテンツ提供手段として利用することができる。 The present invention can be used as pronunciation learning content providing means in organizations such as companies and schools.

10 記憶部
11 英単語情報
12 英単語発音記号列情報
13 英単語仮名表記情報
14 発音学習支援文字列情報
15 英語フレーズ音声情報
16 英語フレーズ発音学習支援文字列情報
20 制御部
21、21s 英語フレーズ受付部
22 22s 英単語発音学習支援文字列取得部
23 英語フレーズ音声再生部
24 仮名表記論理導出部
25、25b 英単語発音学習支援文字列導出部
26、26s 英語フレーズ発音学習支援文字列選択部
27、27s、27a、27b、27as、27c、27d、27cs、27ds 英語フレーズ発音学習支援文字列出力部
28、28s 英語フレーズ選択部
30、30s 送受信制御部
31 CPU(中央演算処理装置)
32 ディスプレイ
33 RAM
34 キーボード/マウス
35 通信装置
36 DVD−ROMドライブ
37 DVD−ROM
39 ハードディスクドライブ
40 一時記憶部
41 ディスク装置
42 情報記録媒体
50 入力部
60 出力部
80 発音学習プログラム
100 学習装置
101、102 サーバー装置
200 端末装置
300 通信ネットワーク
DESCRIPTION OF SYMBOLS 10 Memory | storage part 11 English word information 12 English word pronunciation symbol string information 13 English word kana notation information 14 Pronunciation learning assistance character string information 15 English phrase speech information 16 English phrase pronunciation learning assistance character string information 20 Control part 21, 21s English phrase reception Unit 22 22s English word pronunciation learning support character string acquisition unit 23 English phrase sound reproduction unit 24 Kana notation logic derivation unit 25, 25b English word pronunciation learning support character string derivation unit 26, 26s English phrase pronunciation learning support character string selection unit 27 27s, 27a, 27b, 27as, 27c, 27d, 27cs, 27ds English phrase pronunciation learning support character string output unit 28, 28s English phrase selection unit 30, 30s Transmission / reception control unit 31 CPU (central processing unit)
32 Display 33 RAM
34 Keyboard / Mouse 35 Communication Device 36 DVD-ROM Drive 37 DVD-ROM
39 Hard Disk Drive 40 Temporary Storage Unit 41 Disk Device 42 Information Recording Medium 50 Input Unit 60 Output Unit 80 Pronunciation Learning Program 100 Learning Device 101, 102 Server Device 200 Terminal Device 300 Communication Network

Claims (22)

英単語を記憶する英単語記憶手段と、
前記記憶された英単語からなる英語フレーズを受付ける英語フレーズ受付手段と、
前記英単語記憶手段に記憶された英単語と当該英単語の発音方法とに対応付けられた発音学習支援文字列を記憶する発音学習支援文字列記憶手段と、
前記受付けられた英語フレーズに含まれる各英単語に対応する発音学習支援文字列を、前記発音学習支援文字列記憶手段を用いて、取得する英単語発音学習支援文字列取得手段と、
前記受付けられた英語フレーズの話し方を表す、前記取得された発音学習支援文字列からなる列を出力する英語フレーズ発音学習支援文字列出力手段と、
を備えた発音学習コンテンツ提供装置であって、
前記発音学習支援文字列記憶手段に記憶される、前記英単語と当該英単語の発音方法とに対応付けられた発音学習支援文字列が、後述する第1の性質を有することを特徴とする発音学習コンテンツ提供装置。
第1の性質:
a)もし対応する英単語の語末が対応する発音方法によって子音で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記から当該子音に対応する仮名文字を削除した部分仮名表記の末尾に、当該子音を表記する発音記号を表す文字群又は当該子音に対応する綴り字を表す文字群を加えた文字列であり、
b)もし対応する英単語の語末にR音に対応する綴り字があり、且つ当該綴り字が対応する発音方法によってR音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、R音を表す文字群を加えた文字列であり、
c)もし対応する英単語の語末に第1の半母音に対応する綴り字があり、且つ当該綴り字が対応する発音方法によって第1の半母音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第1の半母音を表す文字群を加えた文字列であり、
d)もし対応する英単語の語末に第2の半母音に対応する綴り字があり、且つ当該綴り字が対応する発音方法によって第2の半母音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第2の半母音を表す文字群を加えた文字列であり、
e)もし前記a)〜d)の何れでもない場合は、
当該英単語と当該発音方法とに対応する仮名表記である。
English word storage means for storing English words,
An English phrase receiving means for receiving an English phrase composed of the stored English words;
Pronunciation learning support character string storage means for storing a pronunciation learning support character string associated with the English word stored in the English word storage means and the pronunciation method of the English word;
Pronunciation learning support character string acquisition means for acquiring pronunciation learning support character strings corresponding to each English word included in the accepted English phrase using the pronunciation learning support character string storage means;
An English phrase pronunciation learning support character string output means for outputting a sequence of the acquired pronunciation learning support character strings, which represents how to speak the accepted English phrase;
A pronunciation learning content providing device comprising:
The pronunciation learning support character string associated with the English word and the pronunciation method of the English word stored in the pronunciation learning support character string storage means has a first property to be described later. Learning content providing device.
First property:
a) If the end of the corresponding English word is pronounced as a consonant by the corresponding pronunciation method,
At the end of the partial kana notation in which the kana character corresponding to the consonant is deleted from the kana notation corresponding to the English word and the pronunciation method, the character group representing the phonetic symbol indicating the consonant or the spelling corresponding to the consonant Is a character string with a character group representing
b) If there is a spelling corresponding to the R sound at the end of the corresponding English word and the spelling is pronounced by a non-consonant pronunciation method corresponding to the R sound by the corresponding pronunciation method,
The kana notation corresponding to the English word and the pronunciation method,
A character string in which a character group representing an R sound is added to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
c) If there is a spelling corresponding to the first semi-vowel at the end of the corresponding English word, and the spelling is pronounced by the non-consonant pronunciation method corresponding to the first semi-vowel by the corresponding pronunciation method ,
The kana notation corresponding to the English word and the pronunciation method,
A character string obtained by adding a character group representing the first semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
d) If there is a spelling corresponding to the second semi-vowel at the end of the corresponding English word, and the spelling is pronounced by the non-consonant pronunciation method corresponding to the second semi-vowel by the corresponding pronunciation method ,
The kana notation corresponding to the English word and the pronunciation method,
A character string obtained by adding a character group representing the second semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
e) If none of the above a) to d),
Kana notation corresponding to the English word and the pronunciation method.
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなる発音学習コンテンツ提供システムであって、前記発音学習コンテンツ提供システムは、
英単語を記憶する英単語記憶手段と、
前記記憶された英単語からなる英語フレーズを前記端末装置から受付ける英語フレーズ受付手段と、
前記英単語記憶手段に記憶された英単語と当該英単語の発音方法とに対応付けられた発音学習支援文字列を記憶する発音学習支援文字列記憶手段と、
前記受付けられた英語フレーズに含まれる各英単語に対応する発音学習支援文字列を、前記発音学習支援文字列記憶手段を用いて、取得する英単語発音学習支援文字列取得手段と、
前記受付けられた英語フレーズの話し方を表す、前記取得された発音学習支援文字列からなる列を前記端末装置に出力させる英語フレーズ発音学習支援文字列出力手段を備えたものであって、
前記発音学習支援文字列記憶手段に記憶される、前記英単語と当該英単語の発音方法とに対応付けられた発音学習支援文字列が、前記第1の性質を有することを特徴とする発音学習コンテンツ提供システム。
A pronunciation learning content providing system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network, wherein the pronunciation learning content providing system includes:
English word storage means for storing English words,
An English phrase receiving means for receiving from the terminal device an English phrase consisting of the stored English words;
Pronunciation learning support character string storage means for storing a pronunciation learning support character string associated with the English word stored in the English word storage means and the pronunciation method of the English word;
Pronunciation learning support character string acquisition means for acquiring pronunciation learning support character strings corresponding to each English word included in the accepted English phrase using the pronunciation learning support character string storage means;
Comprising an English phrase pronunciation learning support character string output means for causing the terminal device to output a sequence of the acquired pronunciation learning support character strings, which represents the accepted way of speaking the English phrase,
The pronunciation learning support character string associated with the English word and the pronunciation method of the English word stored in the pronunciation learning support character string storage means has the first property, Content provision system.
英単語を記憶する英単語記憶手段と、
前記記憶された英単語からなる英語フレーズを受付ける英語フレーズ受付手段と、
前記英単語記憶手段に記憶された英単語に対応付けられた発音記号列を記憶する英単語発音記号列記憶手段と、
前記記憶された発音記号列から、当該発音記号列に対応する仮名表記を導出する仮名表記導出手段と、
前記受付けられた英語フレーズに含まれる各英単語に対応する発音記号列を、前記英単語発音記号列記憶手段を用いて、取得するとともに、当該英単語と当該発音記号列とに対応する発音学習支援文字列を、前記仮名表記導出手段を用いて導出する英単語発音学習支援文字列導出手段と、
前記受付けられた英語フレーズの話し方を表す、前記導出された発音学習支援文字列からなる列を出力する英語フレーズ発音学習支援文字列出力手段と、
を備えた発音学習コンテンツ提供装置であって、
前記英単語発音学習支援文字列導出手段で導出される、前記英単語と前記発音記号列とに対応する発音学習支援文字列が、後述する第2の性質を有することを特徴とする発音学習コンテンツ提供装置。
第2の性質:
a)もし子音を表記する発音記号が対応する発音記号列の末尾にある場合は、
対応する英単語と当該発音記号列とに対応する仮名表記から当該子音に対応する仮名文字を削除した部分仮名表記の末尾に、当該子音を表記する発音記号を表す文字群又は当該子音に対応する綴り字を表す文字群を加えた文字列であり、
b)もしR音に対応する綴り字が対応する英単語の語末にあり、且つ「R音に対応する非子音の発音記号」が対応する発音記号列の末尾にある場合は、
当該英単語と当該発音記号列とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、R音を表す文字群を加えた文字列であり、
c)もし第1の半母音に対応する綴り字が対応する英単語の語末にあり、且つ「第1の半母音に対応する非子音の発音記号」が対応する発音記号列の末尾にある場合は、
当該英単語と当該発音記号列とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第1の半母音を表す文字群を加えた文字列であり、
d)もし第2の半母音に対応する綴り字が対応する英単語の語末にあり、且つ「第2の半母音に対応する非子音の発音記号」が対応する発音記号列の末尾にある場合は、
当該英単語と当該発音記号列とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第2の半母音を表す文字群を加えた文字列であり、
e)もし前記a)〜d)の何れでもない場合は、
対応する英単語と対応する発音記号列とに対応する仮名表記である。
English word storage means for storing English words,
An English phrase receiving means for receiving an English phrase composed of the stored English words;
English word phonetic symbol storage means for storing a phonetic symbol string associated with the English words stored in the English word storage means;
Kana notation deriving means for deriving a kana notation corresponding to the phonetic symbol string from the stored phonetic symbol string;
Acquiring phonetic symbol strings corresponding to each English word included in the accepted English phrase using the English word phonetic symbol string storage means, and learning pronunciation corresponding to the English word and the phonetic symbol string English character pronunciation learning support character string deriving means for deriving a support character string using the kana notation deriving means;
An English phrase pronunciation learning support character string output means for outputting a sequence of the derived pronunciation learning support character strings, which represents how to speak the accepted English phrase;
A pronunciation learning content providing device comprising:
The pronunciation learning content, wherein the pronunciation learning support character string corresponding to the English word and the phonetic symbol string derived by the English word pronunciation learning support character string derivation means has a second property to be described later Providing device.
Second property:
a) If the phonetic symbol representing the consonant is at the end of the corresponding phonetic symbol string,
Corresponding to a group of characters representing a phonetic symbol representing the consonant or the consonant at the end of the partial kana notation obtained by deleting the kana character corresponding to the consonant from the kana notation corresponding to the corresponding English word and the phonetic symbol string It is a character string with a group of characters representing spelling,
b) If the spelling corresponding to the R sound is at the end of the corresponding English word and the “non-consonant phonetic symbol corresponding to the R sound” is at the end of the corresponding phonetic symbol string,
Whether it is a kana notation corresponding to the English word and the phonetic symbol string,
A character string in which a character group representing an R sound is added to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
c) if the spelling corresponding to the first semi-vowel is at the end of the corresponding English word and the “non-consonant phonetic corresponding to the first semi-vowel” is at the end of the corresponding phonetic symbol string,
Whether it is a kana notation corresponding to the English word and the phonetic symbol string,
A character string obtained by adding a character group representing the first semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
d) if the spelling corresponding to the second semi-vowel is at the end of the corresponding English word and the “non-consonant phonetic symbol corresponding to the second semi-vowel” is at the end of the corresponding phonetic symbol string,
Whether it is a kana notation corresponding to the English word and the phonetic symbol string,
A character string obtained by adding a character group representing the second semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
e) If none of the above a) to d),
A kana notation corresponding to a corresponding English word and a corresponding phonetic symbol string.
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなる発音学習コンテンツ提供システムであって、前記発音学習コンテンツ提供システムは、
英単語を記憶する英単語記憶手段と、
前記記憶された英単語からなる英語フレーズを前記端末装置から受付ける英語フレーズ受付手段と、
前記英単語記憶手段に記憶された英単語に対応付けられた発音記号列を記憶する英単語発音記号列記憶手段と、
前記記憶された発音記号列から、当該発音記号列に対応する仮名表記を導出する仮名表記導出手段と、
前記受付けられた英語フレーズに含まれる各英単語に対応する発音記号列を、前記英単語発音記号列記憶手段を用いて、取得するとともに、当該英単語と当該発音記号列とに対応する発音学習支援文字列を、前記仮名表記導出手段を用いて導出する英単語発音学習支援文字列導出手段と、
前記受付けられた英語フレーズの話し方を表す、前記導出された発音学習支援文字列からなる列を前記端末装置に出力させる英語フレーズ発音学習支援文字列出力手段と、
を備えたものであって、
前記英単語発音学習支援文字列導出手段で導出される、前記英単語と前記発音記号列とに対応する発音学習支援文字列が、前記第2の性質を有することを特徴とする発音学習コンテンツ提供システム。
A pronunciation learning content providing system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network, wherein the pronunciation learning content providing system includes:
English word storage means for storing English words,
An English phrase receiving means for receiving from the terminal device an English phrase consisting of the stored English words;
English word phonetic symbol storage means for storing a phonetic symbol string associated with the English words stored in the English word storage means;
Kana notation deriving means for deriving a kana notation corresponding to the phonetic symbol string from the stored phonetic symbol string;
Acquiring phonetic symbol strings corresponding to each English word included in the accepted English phrase using the English word phonetic symbol string storage means, and learning pronunciation corresponding to the English word and the phonetic symbol string English character pronunciation learning support character string deriving means for deriving a support character string using the kana notation deriving means;
An English phrase pronunciation learning support character string output means for causing the terminal device to output a sequence of the derived pronunciation learning support character strings, which represents the accepted way of speaking the English phrase;
With
Providing pronunciation learning content, wherein the pronunciation learning support character string corresponding to the English word and the phonetic symbol string derived by the English word pronunciation learning support character string deriving means has the second property system.
英語フレーズと、当該英語フレーズに含まれる各英単語に対応する発音学習支援文字列からなる列とを対応付けて記憶する英語フレーズ発音学習支援文字列記憶手段と、
学習対象となる英語フレーズを前記英語フレーズ発音学習支援文字列記憶手段から選択するための選択情報を受付けるとともに、当該受付けられた選択情報に対応する英語フレーズを、当該英語フレーズ発音学習支援文字列記憶手段から選択する英語フレーズ選択手段と、
前記選択された英語フレーズに対応する、発音学習支援文字列からなる列を、前記前記英語フレーズ発音学習支援文字列記憶手段から取得するとともに、当該英語フレーズと、当該取得された、発音学習支援文字列からなる列とを出力する英語フレーズ発音学習支援文字列出力手段と、
を備えた発音学習コンテンツ提供装置であって、
前記英語フレーズ発音学習支援文字列記憶手段に記憶された、前記発音学習支援文字列からなる列が、後述する第3の性質を有することを特徴とする発音学習コンテンツ提供装置。
第3の性質:
構成要素である発音学習支援文字列が、当該発音学習支援文字列に対応する英単語の発音方法にさらに対応付けられるとともに、
当該発音学習支援文字列が、
a)もし当該英単語の語末が当該発音方法によって子音で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記から当該子音に対応する仮名文字を削除した部分仮名表記の末尾に、当該子音を表記する発音記号を表す文字群又は当該子音に対応する綴り字を表す文字群を加えた文字列であり、
b)もし当該英単語の語末にR音に対応する綴り字があり、且つ当該綴り字が当該発音方法によってR音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、R音を表す文字群を加えた文字列であり、
c)もし当該英単語の語末に第1の半母音に対応する綴り字があり、且つ当該綴り字が当該発音方法によって第1の半母音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第1の半母音を表す文字群を加えた文字列であり、
d)もし当該英単語の語末に第2の半母音に対応する綴り字があり、且つ当該綴り字が当該発音方法によって第2の半母音に対応する非子音の発音方法で発音される場合は、
当該英単語と当該発音方法とに対応する仮名表記であるか、
当該仮名表記から当該綴り字に対応する仮名文字を削除した部分仮名表記の末尾に、第2の半母音を表す文字群を加えた文字列であり、
e)もし前記a)〜d)の何れでもない場合は、
当該英単語と当該発音方法とに対応する仮名表記である。
An English phrase pronunciation learning support character string storage means for storing an English phrase and a string of pronunciation learning support character strings corresponding to each English word included in the English phrase;
Accepting selection information for selecting an English phrase to be learned from the English phrase pronunciation learning support character string storage means and storing an English phrase corresponding to the received selection information in the English phrase pronunciation learning support character string storage An English phrase selecting means for selecting from the means;
Acquiring a string of pronunciation learning support character strings corresponding to the selected English phrase from the English phrase pronunciation learning support character string storage means, and the English phrase and the acquired pronunciation learning support character An English phrase pronunciation learning support character string output means for outputting a sequence of columns;
A pronunciation learning content providing device comprising:
The pronunciation learning content providing apparatus, wherein a sequence of the pronunciation learning support character strings stored in the English phrase pronunciation learning support character string storage means has a third property to be described later.
Third property:
The pronunciation learning support character string as a constituent element is further associated with the pronunciation method of the English word corresponding to the pronunciation learning support character string,
The pronunciation learning support character string is
a) If the end of the English word is pronounced as a consonant by the pronunciation method,
At the end of the partial kana notation in which the kana character corresponding to the consonant is deleted from the kana notation corresponding to the English word and the pronunciation method, the character group representing the phonetic symbol indicating the consonant or the spelling corresponding to the consonant Is a character string with a character group representing
b) If there is a spelling corresponding to the R sound at the end of the English word and the spelling is pronounced by a non-consonant pronunciation method corresponding to the R sound by the pronunciation method,
The kana notation corresponding to the English word and the pronunciation method,
A character string in which a character group representing an R sound is added to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
c) If there is a spelling corresponding to the first semi-vowel at the end of the English word and the spelling is pronounced by the non-consonant pronunciation method corresponding to the first semi-vowel by the pronunciation method,
The kana notation corresponding to the English word and the pronunciation method,
A character string obtained by adding a character group representing the first semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
d) If there is a spelling corresponding to the second semi-vowel at the end of the English word and the spelling is pronounced by the pronunciation method with a non-consonant pronunciation method corresponding to the second semi-vowel,
The kana notation corresponding to the English word and the pronunciation method,
A character string obtained by adding a character group representing the second semi-vowel to the end of the partial kana notation obtained by deleting the kana character corresponding to the spelling from the kana notation,
e) If none of the above a) to d),
Kana notation corresponding to the English word and the pronunciation method.
英語フレーズと、当該英語フレーズに含まれる各英単語に対応する発音学習支援文字列からなる列とを対応付けて記憶する英語フレーズ発音学習支援文字列記憶手段と、
学習対象となる、前記発音学習支援文字列からなる列を前記英語フレーズ発音学習支援文字列記憶手段から選択するための選択情報を受付けるとともに、当該受付けられた選択情報に対応する、発音学習支援文字列からなる列を、当該英語フレーズ発音学習支援文字列記憶手段から選択する英語フレーズ発音学習支援文字列選択手段と、
前記選択された、発音学習支援文字列からなる列に対応する英語フレーズを、前記英語フレーズ発音学習支援文字列記憶手段から取得するとともに、当該取得された英語フレーズと、当該発音学習支援文字列からなる列とを出力する英語フレーズ発音学習支援文字列出力手段と、
を備えた発音学習コンテンツ提供装置であって、
前記英語フレーズ発音学習支援文字列記憶手段に記憶された、前記発音学習支援文字列からなる列が、前記第3の性質を有することを特徴とする発音学習コンテンツ提供装置。
An English phrase pronunciation learning support character string storage means for storing an English phrase and a string of pronunciation learning support character strings corresponding to each English word included in the English phrase;
Accepting selection information for selecting from the English phrase pronunciation learning support character string storage means a string made of the pronunciation learning support character string to be learned, and corresponding to the received selection information An English phrase pronunciation learning support character string selection means for selecting a column consisting of columns from the English phrase pronunciation learning support character string storage means;
The selected English phrase corresponding to the pronunciation learning support character string is acquired from the English phrase pronunciation learning support character string storage means, and from the acquired English phrase and the pronunciation learning support character string. An English phrase pronunciation learning support character string output means for outputting
A pronunciation learning content providing device comprising:
The pronunciation learning content providing apparatus, wherein a sequence of the pronunciation learning support character strings stored in the English phrase pronunciation learning support character string storage means has the third property.
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなる発音学習コンテンツ提供システムであって、前記発音学習コンテンツ提供システムは、
英語フレーズと、当該英語フレーズに含まれる各英単語に対応する発音学習支援文字列からなる列とを対応付けて記憶する英語フレーズ発音学習支援文字列記憶手段と、
学習対象となる英語フレーズを前記英語フレーズ発音学習支援文字列記憶手段から選択するための選択情報を前記端末装置から受付けるとともに、当該受付けられた選択情報に対応する英語フレーズを、当該英語フレーズ発音学習支援文字列記憶手段から選択する英語フレーズ選択手段と、
前記選択された英語フレーズに対応する、発音学習支援文字列からなる列を、前記英語フレーズ発音学習支援文字列記憶手段から取得するとともに、当該英語フレーズと、当該取得された発音学習支援文字列からなる列とを前記端末装置に出力させる英語フレーズ発音学習支援文字列出力手段を備えたものであって、
前記英語フレーズ発音学習支援文字列記憶手段に記憶された、前記発音学習支援文字列からなる列が、前記第3の性質を有することを特徴とすることを特徴とする発音学習コンテンツ提供システム。
A pronunciation learning content providing system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network, wherein the pronunciation learning content providing system includes:
An English phrase pronunciation learning support character string storage means for storing an English phrase and a string of pronunciation learning support character strings corresponding to each English word included in the English phrase;
The selection information for selecting the English phrase to be learned from the English phrase pronunciation learning support character string storage means is received from the terminal device, and the English phrase corresponding to the received selection information is received as the English phrase pronunciation learning. English phrase selection means to select from the support character string storage means;
A sequence of pronunciation learning support character strings corresponding to the selected English phrase is acquired from the English phrase pronunciation learning support character string storage means, and from the English phrase and the acquired pronunciation learning support character string Comprising an English phrase pronunciation learning support character string output means for causing the terminal device to output a sequence of
The pronunciation learning content providing system, wherein a sequence of the pronunciation learning support character strings stored in the English phrase pronunciation learning support character string storage means has the third property.
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなる発音学習コンテンツ提供システムであって、前記発音学習コンテンツ提供システムは、
英語フレーズと、当該英語フレーズに含まれる各英単語に対応する発音学習支援文字列からなる列とを対応付けて記憶する英語フレーズ発音学習支援文字列記憶手段と、
学習対象となる、前記発音学習支援文字列からなる列を前記英語フレーズ発音学習支援文字列記憶手段から選択するための選択情報を前記端末装置から受付けるとともに、当該受付けられた選択情報に対応する、発音学習支援文字列からなる列を、当該英語フレーズ発音学習支援文字列記憶手段から選択する英語フレーズ発音学習支援文字列選択手段と、
前記選択された、発音学習支援文字列からなる列に対応する英語フレーズを、前記英語フレーズ発音学習支援文字列記憶手段から取得するとともに、当該取得された英語フレーズと、当該発音学習支援文字列からなる列とを前記端末装置に出力させる英語フレーズ発音学習支援文字列出力手段を備えたものであって、
前記英語フレーズ発音学習支援文字列記憶手段に記憶された、前記発音学習支援文字列からなる列が、前記第3の性質を有することを特徴とする発音学習コンテンツ提供システム。
A pronunciation learning content providing system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network, wherein the pronunciation learning content providing system includes:
An English phrase pronunciation learning support character string storage means for storing an English phrase and a string of pronunciation learning support character strings corresponding to each English word included in the English phrase;
Receiving selection information from the terminal device for selecting from the terminal phrase the pronunciation learning support character string to be learned from the English phrase pronunciation support character string storage means, and corresponding to the received selection information; English phrase pronunciation learning support character string selection means for selecting a sequence of pronunciation learning support character strings from the English phrase pronunciation learning support character string storage means;
The selected English phrase corresponding to the pronunciation learning support character string is acquired from the English phrase pronunciation learning support character string storage means, and from the acquired English phrase and the pronunciation learning support character string. Comprising an English phrase pronunciation learning support character string output means for causing the terminal device to output a sequence of
The pronunciation learning content providing system, wherein a sequence of the pronunciation learning support character strings stored in the English phrase pronunciation learning support character string storage means has the third property.
請求項8に記載の発音学習コンテンツ提供システムであって、
前記英語フレーズ発音学習支援文字列記憶手段に記憶された、前記発音学習支援文字列からなる列に対応する音声データを記憶する英語フレーズ音声記憶手段と、
前記英語フレーズ音声記憶手段に記憶された前記音声データを前記端末装置に再生させる英語フレーズ音声再生手段と、
を備え、
前記英語フレーズ発音学習支援文字列出力手段で、前記発音学習支援文字列からなる列と、当該発音学習支援文字列からなる列に対応する英語フレーズとを、前記端末装置に出力させる際に、
a)前記英語フレーズ音声記憶手段に記憶された、当該発音学習支援文字列からなる列に対応する音声データを、前記英語フレーズ音声再生手段を用いて前記端末装置に再生させながら、
b)当該音声データの再生箇所に対応する、当該英語フレーズを分割した部分と、当該再生箇所に対応する、当該発音学習支援文字列からなる列を分割した部分とを、前記端末装置に出力させることを特徴とする発音学習コンテンツ提供システム。
The pronunciation learning content providing system according to claim 8,
English phrase speech storage means for storing speech data corresponding to a sequence of the pronunciation learning support character strings stored in the English phrase pronunciation learning support character string storage means;
English phrase voice reproduction means for causing the terminal device to reproduce the voice data stored in the English phrase voice storage means;
With
In the English phrase pronunciation learning support character string output means, when causing the terminal device to output a string consisting of the pronunciation learning support character string and an English phrase corresponding to the string consisting of the pronunciation learning support character string,
a) While reproducing the voice data corresponding to the sequence of the pronunciation learning support character strings stored in the English phrase voice storage means, using the English phrase voice reproduction means,
b) causing the terminal device to output a portion obtained by dividing the English phrase corresponding to the reproduction location of the audio data and a portion obtained by dividing the sequence of the pronunciation learning support character string corresponding to the reproduction location. A pronunciation learning content provision system characterized by this.
請求項1、請求項3、請求項5、又は請求項6のいずれか1項記載の発音学習コンテンツ提供装置であって、
前記英語フレーズ発音学習支援文字列出力手段で出力される、発音学習支援文字列の末尾に位置する、前記発音記号を表す文字群の属性と前記綴り字を表す文字群の属性が、当該発音学習支援文字列に後続する発音学習支援文字列の先頭文字が半母音を含む直音又は母音を表記する仮名文字であるか否かで異なることを特徴とする発音学習コンテンツ提供装置。
The pronunciation learning content providing apparatus according to any one of claims 1, 3, 5, and 6,
The attribute of the character group representing the phonetic symbol and the attribute of the character group representing the spelling character located at the end of the pronunciation learning support character string output from the English phrase pronunciation learning support character string output means are the pronunciation learning A pronunciation learning content providing apparatus, which differs depending on whether or not the first character of the pronunciation learning support character string following the support character string is a kana character expressing a direct sound including a semi-vowel or a vowel.
請求項2、請求項4、請求項7、又は請求項8のいずれか1項記載の発音学習コンテンツ提供システムであって、
前記英語フレーズ発音学習支援文字列出力手段で出力される、発音学習支援文字列の末尾に位置する、前記発音記号を表す文字群の属性と前記綴り字を表す文字群の属性が、当該発音学習支援文字列に後続する発音学習支援文字列の先頭文字が半母音を含む直音又は母音を表記する仮名文字であるか否かで異なることを特徴とする発音学習コンテンツ提供システム。
The pronunciation learning content providing system according to any one of claim 2, claim 4, claim 7, or claim 8,
The attribute of the character group representing the phonetic symbol and the attribute of the character group representing the spelling character located at the end of the pronunciation learning support character string output from the English phrase pronunciation learning support character string output means are the pronunciation learning A pronunciation learning content providing system, which differs depending on whether or not the first character of the pronunciation learning support character string following the support character string is a kana character expressing a straight sound including a semi-vowel or a vowel.
請求項9に記載の発音学習コンテンツ提供システムであって、
前記英語フレーズ発音学習支援文字列出力手段で出力される、発音学習支援文字列の末尾に位置する、前記発音記号を表す文字群の属性と前記綴り字を表す文字群の属性が、当該発音学習支援文字列に後続する発音学習支援文字列の先頭文字が半母音を含む直音又は母音を表記する仮名文字であるか否かで異なることを特徴とする発音学習コンテンツ提供システム。
The pronunciation learning content providing system according to claim 9,
The attribute of the character group representing the phonetic symbol and the attribute of the character group representing the spelling character located at the end of the pronunciation learning support character string output from the English phrase pronunciation learning support character string output means are the pronunciation learning A pronunciation learning content providing system, which differs depending on whether or not the first character of the pronunciation learning support character string following the support character string is a kana character expressing a straight sound including a semi-vowel or a vowel.
端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなるシステムを、請求項11に記載の発音学習コンテンツ提供システムが備える各手段として機能させる発音学習コンテンツ提供プログラム。 Providing pronunciation learning content for causing a system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network to function as each means included in the pronunciation learning content providing system according to claim 11 program. 端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなるシステムを、請求項11に記載の発音学習コンテンツ提供システムが備える各手段として機能させる発音学習コンテンツ提供プログラムであって、前記システムを、前記端末装置の出力画面に広告を表示する広告表示手段として機能させることを特徴とする発音学習コンテンツ提供プログラム。 Providing pronunciation learning content for causing a system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network to function as each means included in the pronunciation learning content providing system according to claim 11 A program for providing pronunciation learning content, wherein the system causes the system to function as an advertisement display unit that displays an advertisement on an output screen of the terminal device. 請求項11に記載の発音学習コンテンツ提供システムにおける発音学習コンテンツ提供方法。 The pronunciation learning content provision method in the pronunciation learning content provision system according to claim 11. 端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなるシステムを、請求項2、請求項4、請求項7、請求項8、請求項9又は請求項12のいずれか1項記載の発音学習コンテンツ提供システムが備える各手段として機能させる発音学習コンテンツ提供プログラム。 A system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network is defined in claim 2, claim 4, claim 7, claim 8, claim 9, or claim 9. A pronunciation learning content providing program that functions as each unit included in the pronunciation learning content providing system according to any one of 12. 端末装置と、当該端末装置に通信ネットワークを介して通信可能な一又は複数のサーバー装置とからなるシステムを、請求項2、請求項4、請求項7、請求項8、請求項9又は請求項12のいずれか1項記載の発音学習コンテンツ提供システムが備える各手段として機能させる発音学習コンテンツ提供プログラムであって、前記システムを、前記端末装置の出力画面に広告を表示する広告表示手段として機能させることを特徴とする発音学習コンテンツ提供プログラム。 A system comprising a terminal device and one or a plurality of server devices capable of communicating with the terminal device via a communication network is defined in claim 2, claim 4, claim 7, claim 8, claim 9, or claim 9. A pronunciation learning content providing program that functions as each unit included in the pronunciation learning content providing system according to any one of 12, wherein the system functions as an advertisement display unit that displays an advertisement on an output screen of the terminal device. Pronunciation learning content providing program characterized by that. 請求項2、請求項4、請求項7、請求項8、請求項9又は請求項12のいずれか1項記載の発音学習コンテンツ提供システムにおける発音学習コンテンツ提供方法。 The pronunciation learning content providing method in the pronunciation learning content providing system according to claim 2, claim 4, claim 7, claim 8, claim 9, or claim 12. コンピューターを、請求項10に記載の発音学習コンテンツ提供装置が備える各手段として機能させる発音学習コンテンツ提供プログラム。 The pronunciation learning content provision program which makes a computer function as each means with which the pronunciation learning content provision apparatus of Claim 10 is provided. 請求項10に記載の発音学習コンテンツ提供装置における発音学習コンテンツ提供方法。 The pronunciation learning content provision method in the pronunciation learning content provision apparatus of Claim 10. コンピューターを、請求項1、請求項3、請求項5、又は請求項6のいずれか1項記載の発音学習コンテンツ提供装置が備える各手段として機能させる発音学習コンテンツ提供プログラム。 The pronunciation learning content provision program which makes a computer function as each means with which the pronunciation learning content provision apparatus of any one of Claim 1, Claim 3, Claim 5, or Claim 6 is equipped. 請求項1、請求項3、請求項5、又は請求項6のいずれか1項記載の発音学習コンテンツ提供装置における発音学習コンテンツ提供方法。 The pronunciation learning content provision method in the pronunciation learning content provision apparatus of any one of Claim 1, Claim 3, Claim 5, or Claim 6.
JP2015077290A 2015-04-05 2015-04-05 Pronunciation learning content providing device, system, program, and method Pending JP2016197184A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015077290A JP2016197184A (en) 2015-04-05 2015-04-05 Pronunciation learning content providing device, system, program, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015077290A JP2016197184A (en) 2015-04-05 2015-04-05 Pronunciation learning content providing device, system, program, and method

Publications (1)

Publication Number Publication Date
JP2016197184A true JP2016197184A (en) 2016-11-24

Family

ID=57358321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015077290A Pending JP2016197184A (en) 2015-04-05 2015-04-05 Pronunciation learning content providing device, system, program, and method

Country Status (1)

Country Link
JP (1) JP2016197184A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022529762A (en) * 2019-04-26 2022-06-24 ガヘ リ Learning system for improving pronunciation
KR20240001413A (en) * 2022-06-27 2024-01-03 김은정 English pronunciation card and system for providing english pronunciation learning service using thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3162269U (en) * 2010-06-14 2010-08-26 明 岡光 Pronunciation assistance information display device
JP2010262090A (en) * 2009-05-01 2010-11-18 Nintendo Co Ltd Learning support program and learning support apparatus
JP2015036788A (en) * 2013-08-14 2015-02-23 直也 内野 Pronunciation learning device for foreign language

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262090A (en) * 2009-05-01 2010-11-18 Nintendo Co Ltd Learning support program and learning support apparatus
JP3162269U (en) * 2010-06-14 2010-08-26 明 岡光 Pronunciation assistance information display device
JP2015036788A (en) * 2013-08-14 2015-02-23 直也 内野 Pronunciation learning device for foreign language

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
塚田 元, 増田 恵子: "英単語に対する日本語読み付与方法の検討", 第53回(平成8年後期)全国大会講演論文集(2), JPN6016022202, 6 September 1996 (1996-09-06), pages 359 - 360, ISSN: 0003338260 *
安藤 聡: "クイーンズ・イングリッシュへの裏道", GOKEN NEWS, JPN6016022205, December 2005 (2005-12-01), pages 9 - 12, ISSN: 0003338259 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022529762A (en) * 2019-04-26 2022-06-24 ガヘ リ Learning system for improving pronunciation
KR20240001413A (en) * 2022-06-27 2024-01-03 김은정 English pronunciation card and system for providing english pronunciation learning service using thereof
KR102634047B1 (en) 2022-06-27 2024-02-06 김은정 English pronunciation card and system for providing english pronunciation learning service using thereof

Similar Documents

Publication Publication Date Title
US10043519B2 (en) Generation of text from an audio speech signal
JP2014504398A (en) Text conversion and expression system
US20140199667A1 (en) Conversion of alphabetic words into a plurality of independent spellings
Linell The impact of literacy on the conception of language: The case of linguistics
CN113409761A (en) Speech synthesis method, speech synthesis device, electronic equipment and computer-readable storage medium
JP7166580B2 (en) language learning methods
CN107041159A (en) Pronounce assistant
JP2016197184A (en) Pronunciation learning content providing device, system, program, and method
Guillén Galve et al. New research genres and English prosody: an exploratory analysis of academic English intonation in Video Methods Articles in experimental biology
Bowles Stenography and orality in Dickens: rethinking the phonographic myth
JP6167260B2 (en) Pronunciation learning content providing apparatus, system, program, and method
JP2008009507A (en) Method for representing pronunciation of foreign language in katakana
JP6340839B2 (en) Speech synthesizer, synthesized speech editing method, and synthesized speech editing computer program
US20070061143A1 (en) Method for collating words based on the words&#39; syllables, and phonetic symbols
JP2014142762A (en) Foreign language pronunciation notation method and information display device
JP2006236037A (en) Spoken dialogue content creation method, apparatus, program, and recording medium
Shakil et al. Cognitive Devanagari (Marathi) text-to-speech system
KR20200062910A (en) Improved learning providing system for french pronunciation
KR20180133345A (en) A way to display the information of a word pronunciation in the word
Nakatsuka et al. Web application to convert English into helpful characters for pronunciation learners
JP7654294B1 (en) Information processing device, information processing method, and computer program
JP2014142762A5 (en)
JP6449506B1 (en) Japanese character string display device for foreign language speech, display system, display method, program, recording medium, and display medium
JP7195593B2 (en) Language learning devices and language learning programs
Welby et al. T is for Treu, but how do you pronounce that? Using C-LARA to create phonetic texts for Kanak languages

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161101

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170530