JP2015035099A - 電子カルテ作成装置 - Google Patents
電子カルテ作成装置 Download PDFInfo
- Publication number
- JP2015035099A JP2015035099A JP2013165450A JP2013165450A JP2015035099A JP 2015035099 A JP2015035099 A JP 2015035099A JP 2013165450 A JP2013165450 A JP 2013165450A JP 2013165450 A JP2013165450 A JP 2013165450A JP 2015035099 A JP2015035099 A JP 2015035099A
- Authority
- JP
- Japan
- Prior art keywords
- information
- voice
- electronic medical
- recognition result
- medical record
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【課題】 長年、紙のカルテを使用してきた医師が短い時間で電子カルテを作成することを支援すること。
【解決手段】 実施形態の電子カルテ作成装置は、患者情報を記録した電子カルテを作成する装置である。音声解析手段は、音声を解析して文字情報に変換する。医療単語記憶手段は、複数の医療単語を記憶する。抽出手段は、医療単語記憶手段に記憶された医療単語に基づいて、音声解析手段により得られた文字情報の中から入力文字候補を抽出する。第1提示手段は、音声解析手段により得られた文字情報を表示すると共に、その文字情報に含まれる入力文字候補を選択可能に提示する。第1記録処理手段は、電子カルテに含まれる複数の入力項目に、ユーザの操作により選択された入力文字候補を入力する。
【選択図】図1
【解決手段】 実施形態の電子カルテ作成装置は、患者情報を記録した電子カルテを作成する装置である。音声解析手段は、音声を解析して文字情報に変換する。医療単語記憶手段は、複数の医療単語を記憶する。抽出手段は、医療単語記憶手段に記憶された医療単語に基づいて、音声解析手段により得られた文字情報の中から入力文字候補を抽出する。第1提示手段は、音声解析手段により得られた文字情報を表示すると共に、その文字情報に含まれる入力文字候補を選択可能に提示する。第1記録処理手段は、電子カルテに含まれる複数の入力項目に、ユーザの操作により選択された入力文字候補を入力する。
【選択図】図1
Description
本発明の実施形態は、電子カルテ作成装置に関する。
近年、紙のカルテに代えて、電子カルテの普及が進んできており、医師は、鉛筆やボールペンの代わりに、マウスやキーボード等の入力インタフェースを使用して、患者に関する患者情報(例、どのような症状であるか、どのような薬を処方したか等)を電子カルテに入力する。
しかしながら、長年、紙のカルテを使用してきた医師にとって、マウスやキーボード等の入力インタフェースを使用して患者情報を入力する電子カルテは、紙のカルテに患者情報を手書きする場合に比べて時間がかかってしまい、診察時間が長くなるという不都合がある。
目的は、マウスやキーボード等の入力インタフェースを極力使用しなくても、患者情報を入力し得る、ひいては、長年、紙のカルテを使用してきた医師が短い時間で電子カルテを作成することを支援し得る電子カルテ作成装置を提供することである。
実施形態の電子カルテ作成装置は、患者情報を記録した電子カルテを作成する装置である。
前記電子カルテ作成装置は、音声解析手段、医療単語記憶手段、抽出手段、第1提示手段及び第1記録処理手段を備えている。
前記音声解析手段は、音声を解析して文字情報に変換する。
前記医療単語記憶手段は、複数の医療単語を記憶する。
前記抽出手段は、前記医療単語記憶手段に記憶された医療単語に基づいて、前記音声解析手段により得られた文字情報の中から入力文字候補を抽出する。
前記第1提示手段は、前記音声解析手段により得られた文字情報を表示すると共に、その文字情報に含まれる前記入力文字候補を選択可能に提示する。
前記第1記録処理手段は、前記電子カルテに含まれる複数の入力項目に、ユーザの操作により選択された入力文字候補を入力する。
図1は、一実施形態に係る電子カルテ作成装置を含む電子カルテ作成システムの構成例を示す模式図であり、図2〜図4は、同実施形態に係る電子カルテ作成装置を構成する各記憶部に記憶されるデータのデータ構造の一例を示す模式図である。
図1に示すように、電子カルテ作成システムは、音声・動作認識装置10と電子カルテ作成装置20とを備えている。
図1に示すように、音声・動作認識装置10は、例えば図示しないネットワーク(例、院内ネットワーク等)を介して電子カルテ作成装置20と通信可能に接続されており、音声認識部11と動作認識部12とを更に備えている。なお、音声・動作認識装置10としては、例えば、Kinect(登録商標)が用いられる。また、図1に示す音声・動作認識装置10の構成は、あくまで一例であり、実施形態はこれに限定されるものではない。さらに、音声・動作認識装置10の各種機能は、電子カルテ作成装置20が有するとしても良い。以下に、音声・動作認識装置10を構成する各部11及び12の詳細な機能について説明する。
音声認識部11は、周囲の音声を集音し、音源の方向を特定すると共に音声認識を行う。音声認識部11は、複数のマイクを備えたマイクアレイを有し、ビームフォーミングを行う。ビームフォーミングは、特定の方向からの音声を選択的に集音する技術である。例えば、音声認識部11は、マイクアレイを用いたビームフォーミングによって、音源の方向を特定する。また、音声認識部11は、既知の音声認識技術を用いて、集音した音声から複数の単語からなる文書を認識する(換言すると、音声を解析して文書情報に変換する)。すなわち、音声認識部11は、例えば、音声認識技術によって認識された複数の単語からなる文書及びその文書が発せられた方向を対応付けた音声認識結果情報を生成する。
動作認識部12は、被写体(例、医師、患者等)の動作を認識し、当該認識した動作を示す動作認識結果情報(動作情報)を生成する(換言すると、被写体の動作を解析して動作情報に変換する)。
なお、音声認識部11によって生成される音声認識結果情報は、電子カルテ作成装置20を構成する音声判別部25に随時送信され、また、動作認識部12によって生成される動作認識結果情報は、電子カルテ作成装置20を構成する動作判別部26に随時送信される。
また、音声・動作認識装置10は、動作認識部12を用いて、医師及び患者の双方が揃ったことを認識すると、すなわち、動作認識部12により医師及び患者の動作を認識すると、音声認識部11を作動させ、医師及び患者の音声を集音する機能を有する。
ここでは、音声・動作認識装置10は、医師と患者との2人の動作を認識し、これら2人の音声を集音するとしたが、これに限定されず、例えば、患者が子供や高齢者であり、付き添い人がいる場合、音声・動作認識装置10は、医師、患者及び付き添い人の動作を認識し、これら3人(またはそれ以上)の音声を集音するとしても良い。
図1に示すように、電子カルテ作成装置20は、例えば図示しないネットワークを介して音声・動作認識装置10と通信可能に接続されており、医療単語記憶部21、シェーマ情報記憶部22、調剤情報記憶部23、電子カルテ記憶部24、音声判別部25、動作判別部26及び処理決定部27を更に備えている。以下に、電子カルテ作成装置20を構成する各部21〜27の詳細な機能について説明する。
医療単語記憶部21は、図2に示すように、複数の医療単語a1(例、咳、鼻水、風邪、咳止め等)を予め記憶する記憶装置である。医療単語とは、医療現場において特に使用すると予想される単語である。なお、医療単語記憶部21に記憶される医療単語a1は、ユーザの操作により適宜追加することが可能である。
シェーマ情報記憶部22は、図3に示すように、動作情報とシェーマ画像とが対応付けられた複数のシェーマ情報b1を予め記憶する記憶装置である。動作情報とは、医師及び患者の動作を示す情報である。シェーマ画像とは、人体の所定の部位の画像を示す画像情報である。図3に示す例では、シェーマ情報b1には、「医師が患者の口を診察する動作」を示す動作情報に対応付けて「口」を示すシェーマ画像が含まれている。なお、シェーマ情報記憶部22に記憶されるシェーマ情報b1は、ユーザの操作により適宜追加することが可能である。また、本実施形態では、シェーマ情報が動作情報とシェーマ画像とが対応付けられた情報であるとしたが、これに限定されず、例えば、シェーマ情報は、文書が更に対応付けられた情報であるとしても良い。具体的には、シェーマ情報は、「医師が患者の口を診察する動作」を示す動作情報と、「それじゃあ口を開けてください」という文書と、「口」を示すシェーマ画像とが対応付けられた情報であるとしても良い。
調剤情報記憶部23は、図4に示すように、単語群と薬名称情報とが対応付けられた複数の調剤情報c1を予め記憶する記憶装置である。単語群とは、複数の単語の組合せ(例、風邪、咳止め、一週間の組合せ等)からなる情報である。薬名称情報は、1つまたは複数の薬の名称(例、薬A、薬B、薬C等)を示す情報である。なお、調剤情報記憶部23に記憶される調剤情報c1は、ユーザの操作により適宜追加することが可能である。
電子カルテ記憶部24は、電子カルテ作成装置20によって作成された複数の電子カルテを患者毎に記憶する記憶装置である。
音声判別部25は、音声・動作認識装置10の音声認識部11から送信された音声認識結果情報の入力を受け付けると、当該入力を受け付けた音声認識結果情報に含まれる方向に基づいて、当該音声認識結果情報に含まれる文書が医師または患者のどちらの音声から認識した文書であるかを判別する機能を有する(又は、音声・動作認識装置10の各種機能を電子カルテ作成装置20が有する場合、音声判別部25は、前述の各種機能により得られた音声認識結果情報に含まれる音源の方向に基づいて、当該音声認識結果情報に含まれる文書情報が医師または患者のどちらの音声を解析したものであるかを判別する)。但し、医師が音声・動作認識装置10からみて通常どちら側に位置し、患者が音声・動作認識装置10からみて通常どちら側に位置するといったことは、事前情報として予め設定しておく必要がある。すなわち、事前情報により医師が通常右側に位置し、患者が通常左側に位置するといったことが設定されていた場合、音声判別部25は、音声認識結果情報に含まれる方向が右を示すとき、当該音声認識結果情報に含まれる文書は医師の音声から認識した文書であると判別し、音声認識結果情報に含まれる方向が左を示すとき、当該音声認識結果情報に含まれる文書は患者の音声から認識した文書であると判別する。
動作判別部26は、音声・動作認識装置10の動作認識部12から送信された動作認識結果情報の入力を受け付けると、当該入力を受け付けた動作認識結果情報により示される動作が、シェーマ情報記憶部22に記憶された複数のシェーマ情報b1に含まれる動作情報により示される動作のいずれかに該当する動作であるか否かを判定する機能を有する(又は、音声・動作認識装置10の各種機能を電子カルテ作成装置20が有する場合、動作判別部26は、前述の各種機能により得られた動作認識結果情報により示される動作が、シェーマ情報記憶部22に記憶された複数のシェーマ情報b1に含まれる動作情報により示される動作のいずれかに該当する動作であるか否かを判定する)。なお、上記した判定の結果が該当する動作である旨を示すとき、動作判別部26は、シェーマ画像取得部30にシェーマ画像を取得させるために画像取得要求を出力する。
図1に示すように、処理決定部27は、音声認識結果分類部28、医療単語抽出部29、シェーマ画像取得部30、医師音声認識結果判定部31、薬名称情報取得部32、表示部33及び患者情報記録部34を更に備えている。以下に、処理決定部27を構成する各部28〜34の詳細な機能について説明する。なお、以下の説明においては記載を簡略化するために、「図示しない表示装置に表示」と記載した場合、図示しない表示装置に表示させる画面情報を生成し、当該生成した画面情報を表示部33を介して図示しない表示装置に表示させる旨を示しているものとする。
音声認識結果分類部28は、音声判別部25による判別結果に応じて、入力を受け付けた音声認識結果情報(又は、音声・動作認識装置10の各種機能を電子カルテ作成装置20が有する場合、前述の各種機能により得られた音声認識結果情報)を、医師の音声から認識した文書を含む第1の音声認識結果情報と、患者の音声から認識した文書を含む第2の音声認識結果情報とに分類し、これら音声認識結果情報を図示しない一時メモリ等に書込む機能を有する。なお、音声・動作認識装置10により医師及び患者の2人の音声ではなく、医師、患者及び付き添い人等、3人以上の音声を集音されている場合、音声認識結果分類部28は、集音された音声の種類と同様な数だけ、音声認識結果情報を分類する。また、音声認識結果分類部28は、分類した第1の音声認識結果情報を医師の発言として、また、分類した第2の音声認識結果情報を患者の発言として、図示しない表示装置に表示させることが可能である。
医療単語抽出部29は、音声認識結果情報を構成する複数の単語から医療単語記憶部21に記憶される複数の医療単語a1と一致する単語(入力文字候補)を抽出する機能を有する。また、医療単語抽出部29は、抽出した単語を所定の方法(例、ハイライト等)で強調して、図示しない表示装置に表示させることが可能である。
シェーマ画像取得部30は、動作判別部26による判定結果が該当する動作である旨を示すとき、すなわち、動作判別部26から出力された画像取得要求を受けると、当該該当した動作を示す動作情報に対応付けられたシェーマ画像をシェーマ情報記憶部22から取得する機能を有する。
医師音声認識結果判定部31は、第1の音声認識結果情報に含まれる文書を構成する複数の単語が、調剤情報記憶部23に記憶された複数の調剤情報c1に含まれる単語群を構成する複数の単語の組合せのいずれかに該当するか否かを判定する機能を有する。なお、上記した判定の結果が該当する旨を示すとき、医師音声認識結果判定部31は、薬名称情報取得部32に薬名称情報を取得させるために名称情報取得要求を出力する。
薬名称情報取得部32は、医師音声認識結果判定部31による判定結果が該当する旨を示すとき、すなわち、医師音声認識結果判定部31から出力された名称情報取得要求を受けると、当該該当した複数の単語の組合せからなる単語群に対応付けられた薬名称情報を調剤情報記憶部23から取得する機能を有する。
表示部33は、ユーザの操作に応じて、電子カルテに含まれる複数の項目のうちのいずれかの項目を選択可能である旨をユーザに対して提示する、すなわち、電子カルテに含まれる複数の項目のうちのいずれかの項目を選択可能なプルダウンメニューを図示しない表示装置に表示させる機能を有する。また、表示部33は、薬名称情報取得部32により取得された薬名称情報により示される複数の薬の名称のうちのいずれかの薬の名称を選択可能である旨をユーザに対して提示する、すなわち、複数の薬の名称のうちのいずれかの薬の名称を選択可能なプルダウンメニューを図示しない表示装置に表示させる機能を有する。
患者情報記録部34は、ユーザの操作により、表示部33により提示された複数の項目のうちのいずれかの項目が選択されると、当該選択された項目に、医療単語抽出部29により抽出された少なくとも1つの単語(入力文字候補)を患者情報として記録する機能を有する。また、患者情報記録部34は、電子カルテの複数の項目のうち、予めシェーマ画像を記録すると定められた項目に、シェーマ画像取得部30により取得されたシェーマ画像を患者情報として記録する機能を有する。更に、患者情報記録部34は、ユーザの操作により、表示部33により提示された複数の薬の名称のうちのいずれかの薬の名称が選択されると、電子カルテの複数の項目のうち、予め薬の名称を記録すると定められた項目に、当該選択された薬の名称を患者情報として記録する機能を有する。
次に、以上のように構成された電子カルテ作成装置20の動作の一例について、図5のフローチャートと、図6〜図11の模式図とを参照しながら説明する。但し、ここでは、音声・動作認識装置10は、医師及び患者の2人の動作を認識し、これら2人の音声を集音しているものとし、更には、音声・動作認識装置10は、生成した音声認識結果情報及び生成した動作認識結果情報を電子カルテ作成装置20に随時送信しているものとする。
始めに、音声判別部25は、音声・動作認識装置10の音声認識部11から送信された音声認識結果情報の入力を受け付けると、当該入力を受け付けた音声認識結果情報に含まれる方向に基づいて、当該音声認識結果情報に含まれる文書が医師または患者のどちらの音声であるかを判別する(ステップS1)。
続いて、上記したステップS1の判定処理の結果に応じて、音声認識結果分類部28は、入力を受け付けた音声認識結果情報を、医師の音声から認識した文書を含む第1の音声認識結果情報と、患者の音声から認識した文書を含む第2の音声認識結果情報とに分類し、これら音声認識結果情報を図示しない一時メモリ等に書込む(ステップS2)。このとき、第1の音声認識結果情報や第2の音声認識結果情報は、表示部33によって図示しない表示装置に出力され、当該表示装置には、例えば図6に示すように、第1の音声認識結果情報に含まれる「どうしました?」という文書が「医師発言」として項目d1に、また、第2の音声認識結果情報に含まれる「朝から咳が止まらなくて、あと鼻水も。」という文書が「患者発言」として項目d2にそれぞれ表示される。
次に、医療単語抽出部29は、上記したステップS2の処理により分類された第1の音声認識結果情報に含まれる文書を構成する複数の単語と、第2の音声認識結果情報に含まれる文書を構成する複数の単語とから、医療単語記憶部21に記憶された複数の医療単語a1に一致する少なくとも1つの単語を抽出する(ステップS3)。ここでは、医療単語抽出部29は、例えば図6に示すように、「咳」及び「鼻水」といった単語を抽出し、これら抽出した単語を所定の方法(例、ハイライト等)で強調した上で、図示しない表示装置に表示させる。
続いて、表示部33は、ユーザの操作に応じて、電子カルテに含まれる複数の項目のうちのいずれかの項目が選択可能である旨を当該ユーザに対して提示する(ステップS4)。ここでは、上記したステップS3の処理により抽出された単語のいずれか(または複数)を図示しない入力インタフェース(例、マウス、キーボード等)を用いて指定する旨の入力を受け付けると、表示部33は、例えば図7に示すように、図示しない表示装置にプルダウンメニューm1を表示させ、当該プルダウンメニューm1に含まれる複数の項目、ここでは「主訴」、「所見」及び「投薬」のうちのいずれかの項目を選択するようユーザに促す。
なお、以下の説明においては、当該ステップS4の処理において、「咳」及び「鼻水」といった単語がユーザの操作により指定され、更には、プルダウンメニューm1から「主訴」の項目がユーザの操作により指定されたものと仮定する。
次に、患者情報記録部34は、ユーザの操作により、上記したステップS4の処理により提示された複数の項目のうちのいずれかの項目が選択されると、当該選択された項目に、ユーザの操作により指定された単語を患者情報として記録する(ステップS5)。ここでは、患者情報記録部34は、例えば図8に示すように、「咳」及び「鼻水」といった単語を電子カルテe1の「主訴」の項目に記録する。
続いて、動作判別部26は、音声・動作認識装置10の動作認識部12により送信された動作認識結果情報の入力を受け付けると、当該入力を受け付けた動作認識結果情報により示される動作が、シェーマ情報記憶部22に記憶された複数のシェーマ情報b1に含まれる動作情報により示される動作のいずれかに該当する動作であるか否かを判定する(ステップS6)。なお、ステップS6の判定処理の結果が否を示す場合(ステップS6のNO)、後述するステップS9の処理に進む。
また、以下の説明においては、当該ステップS6の処理において入力を受け付けた動作認識結果情報により示される動作が、例えば図8に示すように、「医師が患者の口を診察する動作」であるものと仮定する。
ステップS6の判定処理の結果が該当する旨を示す場合(ステップS6のYES)、シェーマ画像取得部30は、該当した動作を示す動作情報に対応付けられたシェーマ画像をシェーマ情報記憶部22から取得する(ステップS7)。ここでは、シェーマ画像取得部30は、「医師が患者の口を診察する動作」に対応付けられた「口」を示すシェーマ画像をシェーマ情報記憶部22から取得する。
次に、患者情報記録部34は、上記したステップS7の処理により取得されたシェーマ画像を、電子カルテの複数の項目のうち、予めシェーマ画像を記録すると定められた項目に患者情報として記録する(ステップS8)。ここでは、患者情報記録部34は、例えば図9に示すように、「口」を示すシェーマ画像を電子カルテe1の「所見」の項目に記録する。
続いて、医師音声認識結果判定部31は、音声認識結果分類部28により分類された第1の音声認識結果情報に含まれる文書を構成する複数の単語が、調剤情報記憶部23に記憶された複数の調剤情報c1に含まれる単語群を構成する複数の単語の組合せのいずれかに該当するか否かを判定する(ステップS9)。なお、ステップS9の判定処理の結果が否を示す場合(ステップS9のNO)、電子カルテ作成装置20は、上記ステップS1〜ステップS8の処理において作成された電子カルテe1を電子カルテ記憶部24に書込み、本動作例における処理を終了させる。
また、以下の説明においては、当該ステップS9の処理において、第1の音声認識結果情報に含まれる文書を構成する複数の単語に「風邪」、「咳止め」及び「一週間」という単語が含まれていたものと仮定する。
ステップS9の判定処理の結果が該当する旨を示す場合(ステップS9のYES)、薬名称情報取得部32は、該当した複数の単語の組合せからなる単語群に対応付けられた薬名称情報を調剤情報記憶部23から取得する(ステップS10)。ここでは、薬名称情報取得部32は、「風邪」、「咳止め」及び「一週間」という複数の単語の組合せからなる単語群に対応付けられた「薬A」、「薬B」及び「薬C」を示す薬名称情報を調剤情報記憶部23から取得する。
次に、表示部33は、上記したステップS10の処理により取得された薬名称情報により示される複数の薬の名称のうちいずれかの薬の名称を選択可能である旨をユーザに対して提示する(ステップS11)。ここでは、表示部33は、例えば図10に示すように、図示しない表示装置にプルダウンメニューm2(投薬リスト)を表示させ、当該プルダウンメニューm2に含まれる複数の薬の名称、ここでは「薬A」、「薬B」及び「薬C」のうちのいずれかの薬の名称を選択するようユーザに促す。
なお、以下の説明においては、当該ステップS11の処理において、プルダウンメニューm2から「薬A」の項目がユーザの操作により指定されたものと仮定する。
しかる後、患者情報記録部34が、ユーザの操作により、上記したステップS11の処理により提示された複数の薬の名称のうちのいずれかの薬の名称が選択されると、当該選択された薬の名称を、電子カルテの複数の項目のうち、予め薬の名称を記録すると定められた項目に患者情報として記録し(ステップS12)、その後、電子カルテ作成装置20は、上記したステップS1〜ステップS12の処理において作成された電子カルテを電子カルテ記憶部24に書込み、本動作例における処理を終了させる。ここでは、患者情報記録部34は、例えば図11に示すように、「薬A」を電子カルテe1の「投薬」の項目に記録する。
なお、本実施形態では、シェーマ情報記憶部22に記憶された複数のシェーマ情報b1に含まれる動作情報により示される動作のいずれかに該当する動作であるときにシェーマ画像を取得し、電子カルテに患者情報として記録するとしたが、シェーマ画像の記録手法としては、例えば、音声・動作認識装置10が医師の触診する動作を認識し、更には、医師の「ここは?」といった発言に対する患者の「痛いです」といった発言を認識した旨を示すときに、電子カルテ作成装置20は、患者からの「痛いです」といった発言を音声・動作認識装置10が認識したときに医師が触診していた部位にマーキングを施した人体を模式的に示すシェーマ画像を生成し、電子カルテに患者情報として記録するとしても良い。
以上説明した一実施形態によれば、マウスやキーボード等の入力インタフェースを極力使用しなくても、患者情報を入力し得る、ひいては、長年、紙のカルテを使用してきた医師が短い時間で電子カルテを作成することを支援し得る電子カルテ作成装置を提供することができる。
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…音声・動作認識装置、11…音声認識部、12…動作認識部、20…電子カルテ作成装置、21…医療単語記憶部、22…シェーマ情報記憶部、23…調剤情報記憶部、24…電子カルテ記憶部、25…音声判別部、26…動作判別(判定)部、27…処理決定部、28…音声認識結果分類部、29…医療単語抽出部、30…シェーマ画像取得部、31…医師音声認識結果判定部、32…薬名称情報取得部、33…表示部、34…患者情報記録部。
Claims (6)
- 患者情報を記録した電子カルテを作成する電子カルテ作成装置であって、
音声を解析して文字情報に変換する音声解析手段と、
複数の医療単語を記憶する医療単語記憶手段と、
前記医療単語記憶手段に記憶された医療単語に基づいて、前記音声解析手段により得られた文字情報の中から入力文字候補を抽出する抽出手段と、
前記音声解析手段により得られた文字情報を表示すると共に、その文字情報に含まれる前記入力文字候補を選択可能に提示する第1提示手段と、
前記電子カルテに含まれる複数の入力項目に、ユーザの操作により選択された入力文字候補を入力する第1記録処理手段と
を備えたことを特徴とする電子カルテ作成装置。 - 請求項1に記載の電子カルテ作成装置において、
前記音声解析手段は、
周囲の音声を集音し、当該集音した音声を解析して複数の単語からなる文書を示す前記文字情報に変換すると共に、音源の方向を特定し、当該文字情報と当該特定した音源の方向とを対応付けた音声認識結果情報を生成する手段を備えたことを特徴とする電子カルテ作成装置。 - 請求項2に記載の電子カルテ作成装置において、
前記音声解析手段により得られた音声認識結果情報に含まれる音源の方向に基づいて、当該音声認識結果情報に含まれる文書情報が医師または患者のどちらの音声を解析したものであるか判別する音声判別手段と、
前記音声判別手段による判別結果に応じて、前記音声解析手段により得られた音声認識結果情報を、医師の音声を解析したことで得られた文書情報を含む第1の音声認識結果情報と、患者の音声を解析したことで得られた文書情報を含む第2の音声認識結果情報とに分類し、当該第1の音声認識結果情報及び当該第2の音声認識結果情報を一時メモリに各々書込む音声認識結果分類手段と
を更に備えたことを特徴とする電子カルテ作成装置。 - 請求項3に記載の電子カルテ作成装置において、
前記分類された第1の音声認識結果情報に含まれる文書情報を医師の発言として、また、前記分類された第2の音声認識結果情報に含まれる文書情報を患者の発言として、各々表示させる表示手段をさらに備えたことを特徴とする電子カルテ作成装置。 - 請求項3または請求項4に記載の電子カルテ作成装置において、
複数の単語の組合せからなる単語群と、患者に処方される可能性の高い複数の薬の名称を示す薬名称情報とが対応付けられた複数の調剤情報を記憶する調剤情報記憶手段と、
前記分類された第1の音声認識結果情報に含まれる文書情報を構成する複数の単語が、前記記憶された複数の調剤情報に含まれる単語群を構成する複数の単語の組合せのいずれかに該当するか否かを判定する音声認識結果判定手段と、
前記音声認識結果判定手段による判定結果が該当する旨を示すとき、当該該当した複数の単語の組合せからなる単語群に対応付けられた前記薬名称情報を前記調剤情報記憶手段から取得する薬名称情報取得手段と、
前記取得された薬名称情報により示される複数の薬の名称のうちのいずれかの薬の名称を選択可能である旨を前記ユーザに対して提示する第2提示手段と、
前記ユーザの操作により、前記提示された複数の薬の名称のうちのいずれかの薬の名称が選択されると、前記電子カルテの複数の項目のうち、予め薬の名称を記録すると定められた項目に、当該選択された薬の名称を前記患者情報として記録する第2記録処理手段と
をさらに備えたことを特徴とする電子カルテ作成装置。 - 請求項1乃至請求項5のいずれか1項に記載の電子カルテ作成装置において、
医師及び患者の動作を示す動作情報と、人体の所定の部位のシェーマ画像とが対応付けられた複数のシェーマ情報を記憶するシェーマ情報記憶手段と、
被写体の動作を解析して前記動作情報に変換する動作解析手段と、
前記動作解析手段により得られた動作情報により示される動作が、前記記憶された複数のシェーマ情報に含まれる動作情報により示される動作のいずれかに該当する動作であるか否かを判定する動作認識結果判定手段と、
前記動作認識結果判定手段による判定結果が該当する旨を示すとき、当該該当した動作を示す動作情報に対応付けられた前記シェーマ画像を前記シェーマ情報記憶手段から取得するシェーマ画像取得手段と、
前記取得されたシェーマ画像を、前記電子カルテの複数の項目のうち、予めシェーマ画像を記録すると定められた項目に、前記患者情報として記録する第3記録処理手段と
をさらに備えたことを特徴とする電子カルテ作成装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013165450A JP2015035099A (ja) | 2013-08-08 | 2013-08-08 | 電子カルテ作成装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013165450A JP2015035099A (ja) | 2013-08-08 | 2013-08-08 | 電子カルテ作成装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015035099A true JP2015035099A (ja) | 2015-02-19 |
Family
ID=52543586
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013165450A Pending JP2015035099A (ja) | 2013-08-08 | 2013-08-08 | 電子カルテ作成装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2015035099A (ja) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017138981A (ja) * | 2016-01-29 | 2017-08-10 | 東日本メディコム株式会社 | 指導支援システム、指導支援方法及びプログラム |
| JP2017215879A (ja) * | 2016-06-01 | 2017-12-07 | 株式会社メディベース | 電子カルテ |
| US20180240538A1 (en) * | 2017-02-18 | 2018-08-23 | Mmodal Ip Llc | Computer-Automated Scribe Tools |
| WO2020084529A1 (en) * | 2018-10-23 | 2020-04-30 | Mmodal Ip Llc | Applying machine learning to scribe input to improve data accuracy |
| WO2022030595A1 (ja) * | 2020-08-07 | 2022-02-10 | 株式会社東芝 | 入力支援システム、入力支援方法およびプログラム |
| KR20220095581A (ko) * | 2020-12-30 | 2022-07-07 | 고려대학교 산학협력단 | 음성 인식을 이용한 치과 전자 차트 생성 방법 및 장치 |
| KR20220164439A (ko) | 2021-06-04 | 2022-12-13 | 주식회사 피플스헬스 | 인공지능 기반 전자차트 및 표준 emr 자동 생성 방법 |
-
2013
- 2013-08-08 JP JP2013165450A patent/JP2015035099A/ja active Pending
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7045797B2 (ja) | 2016-01-29 | 2022-04-01 | 東日本メディコム株式会社 | 指導支援システム、指導支援方法及びプログラム |
| JP2017138981A (ja) * | 2016-01-29 | 2017-08-10 | 東日本メディコム株式会社 | 指導支援システム、指導支援方法及びプログラム |
| JP2017215879A (ja) * | 2016-06-01 | 2017-12-07 | 株式会社メディベース | 電子カルテ |
| US20180240538A1 (en) * | 2017-02-18 | 2018-08-23 | Mmodal Ip Llc | Computer-Automated Scribe Tools |
| WO2018152352A1 (en) * | 2017-02-18 | 2018-08-23 | Mmodal Ip Llc | Computer-automated scribe tools |
| US11158411B2 (en) * | 2017-02-18 | 2021-10-26 | 3M Innovative Properties Company | Computer-automated scribe tools |
| WO2020084529A1 (en) * | 2018-10-23 | 2020-04-30 | Mmodal Ip Llc | Applying machine learning to scribe input to improve data accuracy |
| WO2022030595A1 (ja) * | 2020-08-07 | 2022-02-10 | 株式会社東芝 | 入力支援システム、入力支援方法およびプログラム |
| JP2022030754A (ja) * | 2020-08-07 | 2022-02-18 | 株式会社東芝 | 入力支援システム、入力支援方法およびプログラム |
| US11983465B2 (en) | 2020-08-07 | 2024-05-14 | Kabushiki Kaisha Toshiba | Input assistance system, input assistance method, and non-volatile recording medium storing program |
| JP7584942B2 (ja) | 2020-08-07 | 2024-11-18 | 株式会社東芝 | 入力支援システム、入力支援方法およびプログラム |
| KR20220095581A (ko) * | 2020-12-30 | 2022-07-07 | 고려대학교 산학협력단 | 음성 인식을 이용한 치과 전자 차트 생성 방법 및 장치 |
| KR102623753B1 (ko) | 2020-12-30 | 2024-01-11 | 고려대학교 산학협력단 | 음성 인식을 이용한 치과 전자 차트 생성 방법 및 장치 |
| KR20220164439A (ko) | 2021-06-04 | 2022-12-13 | 주식회사 피플스헬스 | 인공지능 기반 전자차트 및 표준 emr 자동 생성 방법 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2015035099A (ja) | 電子カルテ作成装置 | |
| Valstar et al. | Induced disgust, happiness and surprise: an addition to the mmi facial expression database | |
| US10902743B2 (en) | Gesture recognition and communication | |
| Mahmoud et al. | 3D corpus of spontaneous complex mental states | |
| Holler et al. | Co-speech gesture mimicry in the process of collaborative referring during face-to-face dialogue | |
| Lanyon et al. | Do the hands have it? The facilitation effects of arm and hand gesture on word retrieval in aphasia | |
| CN109698030A (zh) | 用于患者-提供者对话的界面以及笔记或总结的自动生成 | |
| US20090292713A1 (en) | Acquisition and particular association of data indicative of an inferred mental state of an authoring user | |
| US11756540B2 (en) | Brain-inspired spoken language understanding system, a device for implementing the system, and method of operation thereof | |
| CN105206123B (zh) | 一种聋哑患者交流装置 | |
| JP2018032164A (ja) | 面接システム | |
| CN112768070A (zh) | 一种基于对话交流的精神健康评测方法和系统 | |
| Maricchiolo et al. | Coding hand gestures: A reliable taxonomy and a multi-media support | |
| Skedsmo | Multiple other-initiations of repair in Norwegian Sign Language | |
| JP2016177483A (ja) | コミュニケーション支援装置、コミュニケーション支援方法及びプログラム | |
| JP7388450B2 (ja) | 会話支援装置、会話支援システム、会話支援方法及び記録媒体 | |
| Theakston et al. | Handling agents and patients: Representational cospeech gestures help children comprehend complex syntactic constructions. | |
| CN113255323B (zh) | 一种描述数据处理方法、系统、电子设备及介质 | |
| US20120023135A1 (en) | Method for using virtual facial expressions | |
| JP7049010B1 (ja) | プレゼンテーション評価システム | |
| CN111863243A (zh) | 一种药房预问诊方法、装置、存储介质及电子设备 | |
| KR102111775B1 (ko) | 진료 데이터 수집 관리 시스템 및 방법 | |
| JP2011100254A (ja) | 医用診断レポートシステム、当該システムとして機能させるためのプログラム、および医用診断レポートの作成支援方法 | |
| JP7355244B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
| Nazareth et al. | MEMOA: Introducing the multi-modal emotional memories of older adults database |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160512 |