[go: up one dir, main page]

CN112242139B - 语音交互方法、装置、设备和介质 - Google Patents

语音交互方法、装置、设备和介质 Download PDF

Info

Publication number
CN112242139B
CN112242139B CN201910657252.4A CN201910657252A CN112242139B CN 112242139 B CN112242139 B CN 112242139B CN 201910657252 A CN201910657252 A CN 201910657252A CN 112242139 B CN112242139 B CN 112242139B
Authority
CN
China
Prior art keywords
user
voice
pickup time
matching
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910657252.4A
Other languages
English (en)
Other versions
CN112242139A (zh
Inventor
袁仁富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Mengtong Culture Communication Co ltd
Original Assignee
Beijing Rubu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Rubu Technology Co ltd filed Critical Beijing Rubu Technology Co ltd
Priority to CN201910657252.4A priority Critical patent/CN112242139B/zh
Publication of CN112242139A publication Critical patent/CN112242139A/zh
Application granted granted Critical
Publication of CN112242139B publication Critical patent/CN112242139B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种语音交互方法、装置、设备和介质。所述方法包括:如果在预设时间内检测到用户语音,则实时识别在初始拾音时间内获取的用户语音;如果在初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求,则根据匹配结果与延时阈值的关系,在初始拾音时间的基础上,进行拾音时间延长;将在延长拾音时间内获取的用户语音的识别结果与在初始拾音时间内获取的用户语音的识别结果进行整合;如果整合后的语音识别结果与预设候选语句的匹配结果满足匹配要求,则将与整合后的语音识别结果对应的反馈信息反馈给用户。本发明实施例实现了即使用户语音出现磕绊,人机交互中也能完整获取用户语音,提高智能教学效果。

Description

语音交互方法、装置、设备和介质
技术领域
本发明实施例涉及智能教育技术领域,尤其涉及一种语音交互方法、装置、设备和介质。
背景技术
AI(Artificial Intelligence,人工智能)是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,智能教育机器人与学生之间进行AI互动对话式的教学已成为可能,例如,通过儿童英语教学机器人与儿童的交互,让儿童学习英语。
然而,儿童在学习语言的时候,尤其是在学习非母语语言的初期,总是会存在说话磕磕绊绊的现象,如果按照现有技术中基于在设定拾音时间内获取的儿童语音进行人机交互,基于VAD(Voice Activity Detection,语音活动检测)检测技术可能会误判儿童语音的结束点,容易导致人机交互过程中不能完整获取儿童语音,导致智能教学效果较差。
发明内容
本发明实施例提供一种语音交互方法、装置、设备和介质,以解决现有技术中基于在设定拾音时间内获取的儿童语音进行人机交互,容易导致人机交互过程中不能完整获取儿童语音,导致智能教学效果较差的问题。
第一方面,本发明实施例提供了一种语音交互方法,所述方法包括:
如果在预设时间内检测到用户语音,则触发在初始拾音时间内识别用户语音的操作;
实时识别在所述初始拾音时间内获取的用户语音;
如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求,则根据所述匹配结果与延时阈值的关系,在所述初始拾音时间的基础上,进行拾音时间延长;
将在延长拾音时间内获取的用户语音的识别结果与在所述初始拾音时间内获取的用户语音的识别结果进行整合,并将整合后的语音识别结果与所述预设候选语句进行匹配;
如果所述整合后的语音识别结果与所述预设候选语句的匹配结果满足所述匹配要求,则将与所述整合后的语音识别结果对应的反馈信息反馈给用户。
第二方面,本发明实施例提供了一种语音交互装置,所述装置包括:
用户语音识别触发模块,用于如果在预设时间内检测到用户语音,则触发在初始拾音时间内识别用户语音的操作;
用户语音识别模块,用于实时识别在所述初始拾音时间内获取的用户语音;
拾音时间延长模块,用于如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求,则根据所述匹配结果与延时阈值的关系,在所述初始拾音时间的基础上,进行拾音时间延长;
语句匹配模块,用于将在延长拾音时间内获取的用户语音的识别结果与在所述初始拾音时间内获取的用户语音的识别结果进行整合,并将整合后的语音识别结果与所述预设候选语句进行匹配;
第一信息反馈模块,用于如果所述整合后的语音识别结果与所述预设候选语句的匹配结果满足所述匹配要求,则将与所述整合后的语音识别结果对应的反馈信息反馈给用户。
第三方面,本发明实施例提供了一种设备,所述设备还包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明实施例中任一所述的语音交互方法。
第四方面,本发明实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例中任一所述的语音交互方法。
本发明实施例通过将初始拾音时间内获取的用户语音的识别结果与预设候选语句进行匹配,如果不满足匹配要求则在所述初始拾音时间的基础上,进行拾音时间延长,实现了即使用户语音出现“磕磕绊绊”问题,人机交互过程中也可以完整获取用户语音,提高智能教学效果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明实施例一提供的一种语音交互方法的流程图;
图2为本发明实施例二提供的一种语音交互方法的流程图;
图3为本发明实施例三提供的一种语音交互装置的结构示意图;
图4为本发明实施例四提供的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明实施例作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明实施例,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明实施例相关的部分而非全部结构。
实施例一
图1是本发明实施例一提供的一种语音交互方法的流程图。本实施例适用于儿童通过语音交互的方式与智能设备进行交流学习的情况,该方法可以由本发明实施例提供的语音交互装置来执行,该装置可以采用软件和/或硬件的方式实现,并且该装置可以集成在任意的智能设备上,例如智能教学机器人、智能手机和智能音箱等。如图1所示,该方法可以包括:
步骤101、如果在预设时间内检测到用户语音,则触发在初始拾音时间内识别用户语音的操作。
其中,与用户进行交互的设备可以包括智能教学机器人、智能手机和智能音箱等等,以下统称交互设备。预设时间指的是交互设备在进入与用户的语音交互状态之前的拾音准备时间。交互设备可以在被启用后,即开启语音检测功能,在预设时间内可以检测用户语音。如果交互设备在预设时间内检测到用户语音,则认为用户存在语音交互的需求;如果超过预设时间仍没有检测到用户语音,则认为用户不存在语音交互的需求,关闭语音检测功能。用户语音的检测可以利用现有技术中任意可用的方式实现,例如VAD技术。将交互设备进入与用户的语音交互状态后,检测到用户第一次开始说话到说话结束之间持续的时间,称之为初始拾音时间,初始拾音时间并不是一个固定时长,其是由用户语音持续时间决定的,并且与用户的语速快慢有关,例如,如果用户语速较快,初始拾音时间可以设置为较短的时间长度,如果用户语速较慢,初始拾音时间可以设置为较长的时间长度。
具体的,交互设备设置有包括麦克风的拾音设备,可以实时检测并获取用户语音,并在检测到用户开始发声时,立即触发识别用户语音的操作。通过检测到用户语音则触发识别用户语音操作,提高了人机交互的效率,缩短了感应时间。
步骤102、实时识别在所述初始拾音时间内获取的用户语音。
具体的,检测到用户发声之后,就将用户语音不断地输入到交互设备内置的语音识别引擎中,通过语音识别引擎对获取的用户语音进行识别。
步骤103、如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求,则根据所述匹配结果与延时阈值的关系,在所述初始拾音时间的基础上,进行拾音时间延长。
其中,所述预设候选语句包括交互设备预测的人机交互过程中用户的提问语句,或者在人机交互过程中标准答复语句。示例性的,研发人员根据交互设备不同的运行环节,可以预先建立预测语句库,当交互设备当前运行环节为用户向交互设备进行提问,交互设备可以根据已经识别的用户语音,在预测语句库中进行搜索与匹配,预测用户将要提问的语句,作为当前预设候选语句;当交互设备当前运行环节为交互设备向用户进行提问,则预设候选语句为预先存储的标准答复语句。
用户语音的识别结果与预设候选语句的匹配,是一种语句相似度计算过程,匹配结果即是语句相似度计算值。是否满足匹配要求即用户语音的识别结果是否与预设候选语句相似,可选的预设一个相似度门限值,若用户语音的识别结果与预设候选语句的匹配结果小于相似度门限值,则表示用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求。示例性的,预设相似度门限值为80%,若用户语音的识别结果与预设候选语句的匹配结果为75%,75%<80%则用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求。
匹配结果不满足匹配要求时,会进行拾音时间延长,匹配结果越高则代表用户已快要表达完想要表达的语音,同理匹配结果越低则代表用户未表达完想要表达的语音,为了能够完整获取用户想要表达的语音,根据匹配结果的不同,设置不同的拾音时间延长时间。可选的,根据所述匹配结果与不同延时阈值的关系,以及不同延时阈值与目标延长时间的对应关系,在所述初始拾音时间的基础上,进行拾音时间延长,其中,所述延时阈值越大,对应的目标延长时间越短。
可选的,本实施例还提供了一个“步骤103”具体的实现场景:云服务器中存储有大量的预设候选语句,交互设备与云服务器进行通讯,交互设备将本地得到的用户语音的识别结果与云服务器中存储的预设候选语句进行匹配,当不满足匹配要求时,则在检测到用户停止说话后,继续进行拾音。
通过用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求时,进行拾音时间延长,能够在用户语音出现磕绊情况下,还可以完整获取用户语音;通过根据匹配结果与延时阈值的关系,进行拾音时间延长,能够根据用户不同语音表达情况,灵活的调整拾音延长时间的长短。
步骤104、将在延长拾音时间内获取的用户语音的识别结果与在所述初始拾音时间内获取的用户语音的识别结果进行整合,并将整合后的语音识别结果与所述预设候选语句进行匹配。
示例性的,初始拾音时间内获取的用户语音的识别结果为“My name is”,延长拾音时间内获取的用户语音的识别结果为“Smith”,则整合后的语音识别结果为“My name isSmith”。
步骤105、如果所述整合后的语音识别结果与所述预设候选语句的匹配结果满足所述匹配要求,则将与所述整合后的语音识别结果对应的反馈信息反馈给用户。
其中,根据不同的交互环节,所述反馈信息可以进行灵活设置,以增加互动教学的趣味性,提高教学效果。具体的,所述反馈信息可以根据与语音识别结果相匹配的预设候选语句,以及AI互动策略得到。
示例性的,若当前环节是用户向交互设备提问,整合后的语音识别结果为“苹果用英语怎么说?”,其满足匹配要求,且相匹配的预设候选语句为“苹果用英语怎么念?”,则根据AI互动策略,反馈信息包括文字显示形式或语音形式的“apple”。
示例性的,若当前环节是交互设备向用户提问,问题为“今天是星期几?”假设预设候选语句为“Monday”,整合后的语音识别结果为“Monday”,其满足匹配要求,则根据AI互动策略,反馈信息包括文字显示形式或语音形式的鼓励语句,例如“真棒,回答正确”或者“正确,再接再厉”等等。
可选的,如果所述整合后的语音识别结果与所述预设候选语句的匹配结果不满足所述匹配要求,则生成语音交互异常提示信息。
示例性的,若当前环节是用户向交互设备提问,整合后的语音识别结果不满足匹配要求,则语音交互异常提示信息包括:“我不懂你在说什么,换一个问题吧”或者“我还要多加学习呀,等我学完再来回答你”等等。
示例性的,若当前环节是交互设备向用户提问,问题为“今天是星期几?”假设预设候选语句为“Monday”,整合后的语音识别结果为“Friday”,其不满足匹配要求,则语音交互异常提示信息包括:“回答错误,再想想吧”或者直接播放错误提示音等等。
通过如果整合后的语音识别结果与预设候选语句的匹配结果满足匹配要求,则将与整合后的语音识别结果对应的反馈信息反馈给用户,实现了根据用户语音,完成了AI互动过程,提高了用户的使用感受。
本发明实施例通过将初始拾音时间内获取的用户语音的识别结果与预设候选语句进行匹配,如果不满足匹配要求则在所述初始拾音时间的基础上,进行拾音时间延长,实现了即使用户语音出现“磕磕绊绊”问题,人机交互过程中也可以完整获取用户语音,提高了智能教学效果。
实施例二
图2为本发明实施例二提供的一种语音交互方法的流程图。本实施例为上述实施例提供了一种具体实现方式,如图2所示,该方法可以包括:
步骤201、如果在预设时间内检测到用户语音,则触发在初始拾音时间内识别用户语音的操作。
步骤202、实时识别在所述初始拾音时间内获取的用户语音。
步骤203、确定所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果是否满足匹配要求。
若是,则执行步骤204;若不是,则执行步骤205。
步骤204、将与所述初始拾音时间内获取的用户语音的识别结果对应的反馈信息反馈给用户。
示例性的,若当前环节是用户向交互设备提问,初始拾音时间内的语音识别结果为“苹果用英语怎么说?”,其满足匹配要求,且相匹配的预设候选语句为“苹果用英语怎么念?”,则根据AI互动策略,反馈信息包括文字显示形式或语音形式的“apple”。
示例性的,若当前环节是交互设备向用户提问,问题为“今天是星期几?”假设预设候选语句为“Monday”,初始拾音时间内的语音识别结果为“Monday”,其满足匹配要求,则根据AI互动策略,反馈信息包括文字显示形式或语音形式的鼓励语句,例如“真棒,回答正确”或者“正确,再接再厉”等等。
步骤205、根据所述匹配结果与不同延时阈值的关系,以及不同延时阈值与目标延长时间的对应关系,在所述初始拾音时间的基础上,进行拾音时间延长,其中,所述延时阈值越大,对应的目标延长时间越短。
匹配结果越高则代表用户已快要表达完想要表达的语音,所以需要延长的时间越短。
示例性的,延时阈值可设置为两个,分别为第一延时阈值“60%”和第二延时阈值“40%”,第一延时阈值对应的目标延长时间可选的为3秒,第二延时阈值对应的目标延长时间可选的为5秒,第一延时阈值与第二延时阈值之间对应的目标延长时间可选的为4秒,匹配要求可选的为“70%”。
若初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果为65%,而60%<65%<70%,则在初始拾音时间的基础上,进行目标延长时间为3秒的拾音时间延长。
若初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果为55%,而40%<55%<60%,则在初始拾音时间的基础上,进行目标延长时间为4秒的拾音时间延长。
若初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果为35%,而35%<40%,则在初始拾音时间的基础上,进行目标延长时间为5秒的拾音时间延长。
步骤206、将在延长拾音时间内获取的用户语音的识别结果与在所述初始拾音时间内获取的用户语音的识别结果进行整合,并将整合后的语音识别结果与所述预设候选语句进行匹配。
步骤207、确定所述整合后的语音识别结果与所述预设候选语句的匹配结果是否满足匹配要求,若不是则生成语音交互异常提示信息,若是则执行步骤208。
步骤208、将与所述整合后的语音识别结果对应的反馈信息反馈给用户。
本发明实施例中,若初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果满足匹配要求,则将与所述初始拾音时间内获取的用户语音的识别结果对应的反馈信息反馈给用户,实现了立即返回反馈信息的效果,减少了用户等待时间;若初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求,则根据匹配结果确定相应的目标延长时间,并进行拾音时间延长,使得即使用户语音出现“磕磕绊绊”问题,人机交互过程中也可以完整获取用户语音,提高了智能教学效果。
实施例三
图3为本发明实施例三提供的一种语音交互装置的结构示意图,本实施例适用于儿童通过语音交互的方式与智能设备进行交流学习的情况。该装置可以采用软件和/或硬件的方式实现,并且该装置可以集成在任意的智能设备上,例如智能教学机器人、智能手机和智能音箱。如图3所示,该装置可以包括:
用户语音识别触发模块31,用于如果在预设时间内检测到用户语音,则触发在初始拾音时间内识别用户语音的操作;
用户语音识别模块32,用于实时识别在所述初始拾音时间内获取的用户语音;
拾音时间延长模块33,用于如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求,则根据所述匹配结果与延时阈值的关系,在所述初始拾音时间的基础上,进行拾音时间延长;
语句匹配模块34,用于将在延长拾音时间内获取的用户语音的识别结果与在所述初始拾音时间内获取的用户语音的识别结果进行整合,并将整合后的语音识别结果与所述预设候选语句进行匹配;
第一信息反馈模块35,用于如果所述整合后的语音识别结果与所述预设候选语句的匹配结果满足所述匹配要求,则将与所述整合后的语音识别结果对应的反馈信息反馈给用户。
在上述实施例的基础上,所述拾音时间延长模块33,具体用于:
根据所述匹配结果与不同延时阈值的关系,以及不同延时阈值与目标延长时间的对应关系,在所述初始拾音时间的基础上,进行拾音时间延长,其中,所述延时阈值越大,对应的目标延长时间越短。
在上述实施例的基础上,所述预设候选语句包括预测的人机交互过程中用户的提问语句,或者在人机交互过程中标准答复语句。
在上述实施例的基础上,所述装置还包括第二信息反馈模块,具体用于:
如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果满足匹配要求,则将与所述初始拾音时间内获取的用户语音的识别结果对应的反馈信息反馈给用户。
在上述实施例的基础上,所述装置还包括异常提示信息生成模块,具体用于:
如果所述整合后的语音识别结果与所述预设候选语句的匹配结果不满足所述匹配要求,则生成语音交互异常提示信息。
本发明实施例所提供的一种语音交互生成装置,可执行本发明任意实施例所提供的一种语音交互方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意方法实施例中的描述。
实施例四
图4为本发明实施例四提供的一种设备的结构示意图。图4示出了适于用来实现本发明实施方式的示例性设备400的框图。图4显示的设备400仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,设备400以通用计算设备的形式表现。设备400的组件可以包括但不限于:一个或者多个处理器或者处理单元401,存储装置402,连接不同系统组件(包括存储装置402和处理单元401)的总线403。
总线403表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
设备400典型地包括多种计算机系统可读介质。这些介质可以是任何能够被设备400访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置402可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)404和/或高速缓存存储器405。设备400可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统406可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线403相连。存储装置402可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块407的程序/实用工具408,可以存储在例如存储装置402中,这样的程序模块407包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块407通常执行本发明所描述的实施例中的功能和/或方法。
设备400也可以与一个或多个外部设备409(例如键盘、指向设备、显示器410等)通信,还可与一个或者多个使得用户能与该设备400交互的设备通信,和/或与使得该设备400能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口411进行。并且,设备400还可以通过网络适配器412与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器412通过总线403与设备400的其它模块通信。应当明白,尽管图中未示出,可以结合设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元401通过运行存储在系统存储装置402中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的语音交互方法,包括:
如果在预设时间内检测到用户语音,则触发在初始拾音时间内识别用户语音的操作;
实时识别在所述初始拾音时间内获取的用户语音;
如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求,则根据所述匹配结果与延时阈值的关系,在所述初始拾音时间的基础上,进行拾音时间延长;
将在延长拾音时间内获取的用户语音的识别结果与在所述初始拾音时间内获取的用户语音的识别结果进行整合,并将整合后的语音识别结果与所述预设候选语句进行匹配;
如果所述整合后的语音识别结果与所述预设候选语句的匹配结果满足所述匹配要求,则将与所述整合后的语音识别结果对应的反馈信息反馈给用户。
实施例五
本发明实施例五还提供了一种计算机可读存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种语音交互方法,该方法包括:
如果在预设时间内检测到用户语音,则触发在初始拾音时间内识别用户语音的操作;
实时识别在所述初始拾音时间内获取的用户语音;
如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求,则根据所述匹配结果与延时阈值的关系,在所述初始拾音时间的基础上,进行拾音时间延长;
将在延长拾音时间内获取的用户语音的识别结果与在所述初始拾音时间内获取的用户语音的识别结果进行整合,并将整合后的语音识别结果与所述预设候选语句进行匹配;
如果所述整合后的语音识别结果与所述预设候选语句的匹配结果满足所述匹配要求,则将与所述整合后的语音识别结果对应的反馈信息反馈给用户。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的一种语音交互方法中的相关操作。本发明实施例的计算机可读存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (8)

1.一种语音交互方法,其特征在于,所述方法包括:
如果在预设时间内检测到用户语音,则触发在初始拾音时间内识别用户语音的操作;
实时识别在所述初始拾音时间内获取的用户语音;
如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求,则根据所述匹配结果与延时阈值的关系,在所述初始拾音时间的基础上,进行拾音时间延长;
将在延长拾音时间内获取的用户语音的识别结果与在所述初始拾音时间内获取的用户语音的识别结果进行整合,并将整合后的语音识别结果与所述预设候选语句进行匹配;
如果所述整合后的语音识别结果与所述预设候选语句的匹配结果满足所述匹配要求,则将与所述整合后的语音识别结果对应的反馈信息反馈给用户;
其中,根据所述匹配结果与延时阈值的关系,在所述初始拾音时间的基础上,进行拾音时间延长,包括:
根据所述匹配结果与不同延时阈值的关系,以及不同延时阈值与目标延长时间的对应关系,在所述初始拾音时间的基础上,进行拾音时间延长,其中,所述延时阈值越大,对应的目标延长时间越短;其中,所述匹配结果越高,则代表用户已快要表达完想要表达的语音,且对应的目标延长时间越短。
2.根据权利要求1所示的方法,其特征在于,所述预设候选语句包括预测的人机交互过程中用户的提问语句,或者在人机交互过程中标准答复语句。
3.根据权利要求1所示的方法,其特征在于,所述方法还包括:
如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果满足匹配要求,则将与所述初始拾音时间内获取的用户语音的识别结果对应的反馈信息反馈给用户。
4.根据权利要求1所示的方法,其特征在于,所述方法还包括:
如果所述整合后的语音识别结果与所述预设候选语句的匹配结果不满足所述匹配要求,则生成语音交互异常提示信息。
5.一种语音交互装置,其特征在于,所述装置包括:
用户语音识别触发模块,用于如果在预设时间内检测到用户语音,则触发在初始拾音时间内识别用户语音的操作;
用户语音识别模块,用于实时识别在所述初始拾音时间内获取的用户语音;
拾音时间延长模块,用于如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果不满足匹配要求,则根据所述匹配结果与延时阈值的关系,在所述初始拾音时间的基础上,进行拾音时间延长;
语句匹配模块,用于将在延长拾音时间内获取的用户语音的识别结果与在所述初始拾音时间内获取的用户语音的识别结果进行整合,并将整合后的语音识别结果与所述预设候选语句进行匹配;
第一信息反馈模块,用于如果所述整合后的语音识别结果与所述预设候选语句的匹配结果满足所述匹配要求,则将与所述整合后的语音识别结果对应的反馈信息反馈给用户;
其中,拾音时间延长模块,具体用于:
根据所述匹配结果与不同延时阈值的关系,以及不同延时阈值与目标延长时间的对应关系,在所述初始拾音时间的基础上,进行拾音时间延长,其中,所述延时阈值越大,对应的目标延长时间越短;其中,所述匹配结果越高,则代表用户已快要表达完想要表达的语音,且对应的目标延长时间越短。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括第二信息反馈模块,具体用于:
如果在所述初始拾音时间内获取的用户语音的识别结果与预设候选语句的匹配结果满足匹配要求,则将与所述初始拾音时间内获取的用户语音的识别结果对应的反馈信息反馈给用户。
7.一种设备,其特征在于,所述设备还包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的语音交互方法。
8.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的语音交互方法。
CN201910657252.4A 2019-07-19 2019-07-19 语音交互方法、装置、设备和介质 Active CN112242139B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910657252.4A CN112242139B (zh) 2019-07-19 2019-07-19 语音交互方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910657252.4A CN112242139B (zh) 2019-07-19 2019-07-19 语音交互方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
CN112242139A CN112242139A (zh) 2021-01-19
CN112242139B true CN112242139B (zh) 2024-01-23

Family

ID=74167980

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910657252.4A Active CN112242139B (zh) 2019-07-19 2019-07-19 语音交互方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN112242139B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107146618A (zh) * 2017-06-16 2017-09-08 北京云知声信息技术有限公司 语音处理方法及装置
CN107146602A (zh) * 2017-04-10 2017-09-08 北京猎户星空科技有限公司 一种语音识别方法、装置及电子设备
CN107195303A (zh) * 2017-06-16 2017-09-22 北京云知声信息技术有限公司 语音处理方法及装置
CN108257616A (zh) * 2017-12-05 2018-07-06 苏州车萝卜汽车电子科技有限公司 人机对话的检测方法以及装置
CN108847236A (zh) * 2018-07-26 2018-11-20 珠海格力电器股份有限公司 语音信息的接收方法及装置、语音信息的解析方法及装置
CN109712610A (zh) * 2019-03-12 2019-05-03 百度在线网络技术(北京)有限公司 用于识别语音的方法和装置
CN109961787A (zh) * 2019-02-20 2019-07-02 北京小米移动软件有限公司 确定采集结束时间的方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107146602A (zh) * 2017-04-10 2017-09-08 北京猎户星空科技有限公司 一种语音识别方法、装置及电子设备
CN107146618A (zh) * 2017-06-16 2017-09-08 北京云知声信息技术有限公司 语音处理方法及装置
CN107195303A (zh) * 2017-06-16 2017-09-22 北京云知声信息技术有限公司 语音处理方法及装置
CN108257616A (zh) * 2017-12-05 2018-07-06 苏州车萝卜汽车电子科技有限公司 人机对话的检测方法以及装置
CN108847236A (zh) * 2018-07-26 2018-11-20 珠海格力电器股份有限公司 语音信息的接收方法及装置、语音信息的解析方法及装置
CN109961787A (zh) * 2019-02-20 2019-07-02 北京小米移动软件有限公司 确定采集结束时间的方法及装置
CN109712610A (zh) * 2019-03-12 2019-05-03 百度在线网络技术(北京)有限公司 用于识别语音的方法和装置

Also Published As

Publication number Publication date
CN112242139A (zh) 2021-01-19

Similar Documents

Publication Publication Date Title
US11503155B2 (en) Interactive voice-control method and apparatus, device and medium
JP7365985B2 (ja) 音声を認識するための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム
US9805718B2 (en) Clarifying natural language input using targeted questions
CN111402861B (zh) 一种语音识别方法、装置、设备及存储介质
CN108922564B (zh) 情绪识别方法、装置、计算机设备及存储介质
CN110689877A (zh) 一种语音结束端点检测方法及装置
US10811005B2 (en) Adapting voice input processing based on voice input characteristics
WO2021051544A1 (zh) 语音识别方法及其装置
CN109003624A (zh) 情绪识别方法、装置、计算机设备及存储介质
JP7063937B2 (ja) 音声対話するための方法、装置、電子デバイス、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム
JP2020528566A (ja) ホットワード認識音声合成
CN113674746B (zh) 人机交互方法、装置、设备以及存储介质
CN109036406A (zh) 一种语音信息的处理方法、装置、设备和存储介质
CN113611316A (zh) 人机交互方法、装置、设备以及存储介质
CN110427460A (zh) 用于交互信息的方法及装置
KR20190074508A (ko) 챗봇을 위한 대화 모델의 데이터 크라우드소싱 방법
JP7178394B2 (ja) 音声信号を処理するための方法、装置、機器、および媒体
WO2022169417A1 (zh) 语音相似度确定方法及设备、程序产品
CN117612520A (zh) 异常会话的问题识别方法、装置、电子设备和可读介质
Sartiukova et al. Remote Voice Control of Computer Based on Convolutional Neural Network
CN120071971A (zh) 一种人机交互方法、装置、设备及介质
CN110070869A (zh) 语音互动生成方法、装置、设备和介质
CN112242139B (zh) 语音交互方法、装置、设备和介质
CN112151073B (zh) 一种语音处理方法、系统、设备及介质
WO2025030654A1 (zh) 一种语音处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20210817

Address after: Room 301-112, floor 3, building 2, No. 18, YANGFANGDIAN Road, Haidian District, Beijing 100089

Applicant after: Beijing Rubu Technology Co.,Ltd.

Address before: Room 508-598, Xitian Gezhuang Town Government Office Building, No. 8 Xitong Road, Miyun District Economic Development Zone, Beijing 101500

Applicant before: BEIJING ROOBO TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240923

Address after: 518000, Building 702, Building A, No. 4545 Songbai Road, Heshuikou Community, Matian Street, Guangming District, Shenzhen, Guangdong Province

Patentee after: Shenzhen Yongsheng Intellectual Property Service Co.,Ltd.

Country or region after: China

Address before: Room 301-112, floor 3, building 2, No. 18, YANGFANGDIAN Road, Haidian District, Beijing 100089

Patentee before: Beijing Rubu Technology Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20241111

Address after: Room 3511, Building C, No. 555 Dongchuan Road, Minhang District, Shanghai, 201100

Patentee after: Shanghai Mengtong Culture Communication Co.,Ltd.

Country or region after: China

Address before: 518000, Building 702, Building A, No. 4545 Songbai Road, Heshuikou Community, Matian Street, Guangming District, Shenzhen, Guangdong Province

Patentee before: Shenzhen Yongsheng Intellectual Property Service Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right