JP2004508748A - Speech recognition method and system for determining outgoing telephone call situations - Google Patents

Speech recognition method and system for determining outgoing telephone call situations Download PDF

Info

Publication number
JP2004508748A
JP2004508748A JP2002524138A JP2002524138A JP2004508748A JP 2004508748 A JP2004508748 A JP 2004508748A JP 2002524138 A JP2002524138 A JP 2002524138A JP 2002524138 A JP2002524138 A JP 2002524138A JP 2004508748 A JP2004508748 A JP 2004508748A
Authority
JP
Japan
Prior art keywords
response
speech recognition
target person
speech
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002524138A
Other languages
Japanese (ja)
Other versions
JP2004508748A5 (en
JP4167057B2 (en
Inventor
マーロウ,ルーカス
ドゥレイン,アレキサンドラ
クレーカー,ジョン, ピー.
ボラノフ,オレグ
クイブリア,ナスレーン
ロビンソン,マイケル, アール.
Original Assignee
エリザ コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エリザ コーポレーション filed Critical エリザ コーポレーション
Publication of JP2004508748A publication Critical patent/JP2004508748A/en
Publication of JP2004508748A5 publication Critical patent/JP2004508748A5/ja
Application granted granted Critical
Publication of JP4167057B2 publication Critical patent/JP4167057B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5158Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with automated outdialling systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/64Automatic arrangements for answering calls; Automatic arrangements for recording messages for absent subscribers; Arrangements for recording conversations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/82Line monitoring circuits for call progress or status discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/46Arrangements for calling a number of substations in a predetermined sequence until an answer is obtained
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/271Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2016Call initiation by network rather than by subscriber
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2027Live party detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Marketing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Telephonic Communication Services (AREA)

Abstract

発信電話呼出し中に応答電話の状況を決定するためのシステムには、対象人物が記載された電話番号を有する場所に電話呼出しをし、電話呼出しが応答された際に、対象人物(26)を尋ねる事前記録挨拶を開始して、応答人物から発話応答を受信するための自動電話呼出し装置と、発話応答について、スピーチ認識分析を実施して、発話応答の状況を決定するためのスピーチ認識装置とが含まれる。応答人物が対象人物(50)であると、スピーチ認識装置が判定した場合、スピーチ認識装置は、対象人物(52)について、スピーチ認識アプリケーションを開始する。A system for determining the status of an answering telephone during an outgoing telephone call includes making a telephone call to a location where the target person has a listed telephone number and, when the telephone call is answered, the target person (26). An automatic telephone calling device for initiating a prerecorded greeting to ask and receive an utterance response from a responding person; Is included. If the speech recognition device determines that the responding person is the target person (50), the speech recognition device starts a speech recognition application for the target person (52).

Description

【0001】
(関連出願の相互参照)
本出願は、2001年9月1日に出願されたAPPLICATION OF AUTOMATIC SPEECH RECOGNITION TO OUTBOUND CALLSという名称の本願の所有者が所有する米国仮特許出願第60/229,774号の優先権の特典を主張する。
【0002】
(発明の分野)
本発明は、一般に、発信電話呼出し中に応答電話の状況を決定する方法およびシステムに関し、より具体的には、発信電話呼出し中に特定の人物を識別および/または特定するために、スピーチ認識を使用する方法およびシステムに関する。
【0003】
(発明の背景)
新しい連結経済では、企業またはサービス・プロバイダは、得意先および顧客とより一致していることが、ますます重要になってきている。そのような接触は、自動電話処理システムで容易にすることができる。このシステムでは、対話式に生成されたプロンプトが、電話処理の状況において再生され、人間ユーザの応答は、自動スピーチ認識システムによって認識される。応答者によって与えられた応答は、システムによって処理されて、発話された言葉を意味に変換し、それにより、意味を対話式に使用することができ、またはデータベースに記憶することができる。
【0004】
コンピュータ・システムが、発話された言葉を認識して、これらの言葉をテキストに変換するために、システムは、言葉を音声的に分解して、言葉の一部をテキスト等価物に変換するようにプログラムされなければならない。そのような変換をするには、スピーチの構成要素と、発話された言葉の構造とを理解することが必要である。スピーチの生成により、一連の複雑な迅速に変化する音圧波形が生成される。これらの波形は、音素として知られる、スピーチの基本的な構築ブロックを含む。母音と子音は、音素で作成され、人間のスピーチのどの構成要素が使用されるかに応じて、多くの異なる特性を有する。言葉における音素の位置は、生成される最終的な音声に対し、大きな影響を有する。発話された言葉は、話し方に応じて、いくつかの意味を有する。言語学者は、異音を音素の音響変形として識別し、それらを使用して、特定の言葉が形成される方法をより明確に確定する。
【0005】
Hidden Markovモデリングおよびニューラル・ネットワークを含めて、発話された言葉を分析して、認識システムがスピーチをワード・ストリングに変換することを可能にするのに必要な情報を抽出するいくつかの異なる方法が存在するが、これらの方法は、一般に、同様の動作を行う。これらの方法の違いは、通常、システムが、音素を確定する部分に音声信号を分解する方法を決定する方式にある。一般に、スピーチ認識システムは、まず、着信アナログ音声信号をデジタル信号に変換する。第2ステップは、特徴抽出と呼ばれ、システムは、デジタル信号を分析して、デジタル信号の音響特性を識別する。特徴抽出は、一般に、音声を個々の音声構成要素に分解する。特徴抽出を実施する従来の技術には、サブバンド符号化高速フーリエ変換と線形予測符号化が含まれる。信号を分析した後、システムは、異なる音響領域が生じる場所を決定する。このステップの目的は、音響信号を音素として識別される領域に分割することであり、音素は、テキスト・フォーマットに変換することができる。隔離ワード・システムでは、各ワードの後にポーズが存在するので、このプロセスは簡略化される。しかし、連続スピーチ・システムでは、通常、音響ストリームのワードの間に中断がないので、このプロセスは、はるかに困難である。したがって、システムは、ワード自体を異なる音響領域に分解することができるだけでなく、ストリームの連続ワードを分離することもできなければならない。Hidden Markovモデリングおよびニューラル・ネットワークなどの従来の方法が使用されるのは、このステップである。最終ステップには、先行ステップで決定された特定の音響領域を、データベースのテンプレートの既知の組と比較して、音響信号領域によって表されたワードまたはワードの一部を決定することが含まれる。整合が見つけられた場合、結果として得られたテキスト・ワードは、システムから出力される。整合が見つけられない場合、信号を動的に操作して、整合を見つける機会を増やすか、または、データの損失のために、関連する応答を決定することができない場合、データを破棄して、応答者に対する問合せを繰り返すようにシステムを促すことができる。
【0006】
顧客サービスの応用分野では、サービス・プロバイダが、顧客から情報を獲得することができる、または顧客に情報を提供することができることが重要である。しばしば、サービス・プロバイダは、所望の情報を獲得または提供するために、電話を介して顧客と接触する必要がある。そのような情報交換に関連するコストを下げるために、多くのサービス・プロバイダは、顧客に接触するために、自動電話呼出し装置を使用する。しかし、呼び出された特定の個人以外の誰かが電話に応答した場合、情報交換は、うまくいかない可能性が最も高く、サービス・プロバイダは、貴重なリソースを無駄にすることになる。
【0007】
(発明の概要)
本発明は、発信呼出し中に応答電話の状況を決定する方法およびシステムを対象とする。システムには、特定の電話番号に記載された対象人物への電話呼出しを開始する自動電話呼出しシステムが含まれる。電話呼出しが応答されたとき、システムは、まず、実際に人が電話に応答したのか、または応答機械が電話に応答したのかを判定する。応答機械が検出された場合、システムは、対象人物にメッセージを残す。実際に人が電話に応答した場合、システムは、スピーチ認識分析を使用して、応答人物の状況を決定し、応答人物が対象人物ではない場合、対象人物の特定を試行する。
【0008】
本発明の一態様によれば、発信電話呼出し中に応答電話の状況を決定する方法は、
A.自動呼出しシステムで、対象人物が記載された電話番号を有する場所に電話呼出しをすること、
B.電話呼出しが応答された際に、対象人物を尋ねる事前記録挨拶を開始すること、
C.応答人物から発話応答を受信すること、
D.発話応答についてスピーチ認識分析を実施して、発話応答の状況を決定すること、および、
E.応答人物が対象人物であると、スピーチ認識分析が判定した場合、対象人物について、スピーチ認識アプリケーションを開始することを含む。
【0009】
応答人物が対象人物でないことを発話応答が示すと、スピーチ認識分析が判定した場合、次のステップは、対象人物を尋ねる事前記録問合せを開始することを含むことが可能である。対象人物が電話呼出しに応答した際に、方法は、対象人物について、スピーチ認識アプリケーションを開始することをさらに含むことが可能である。対象人物がその場所にいないことを発話応答が示すと、スピーチ認識分析が判定した場合、次のステップは、対象人物にメッセージを残すことを要求する事前記録問合せを開始することを含むことが可能である。方法は、応答人物に事前記録メッセージを提供するステップをさらに含むことが可能である。ステップDにおいて、発話応答が保留要求であると、スピーチ認識分析が判断した場合、次のステップは、待機状態に入って、対象人物が、電話呼出しに発話応答するのを待つことを含むことが可能である。対象人物が、電話呼出しに発話応答を提供した際に、方法は、対象人物について、スピーチ認識アプリケーションを開始することをさらに含むことが可能である。ステップDにおいて、発話応答が、呼出しシステムを担当するエンティティの識別に対する要求であると、スピーチ認識分析が判定した場合、方法は、呼出し当事者の識別を示す事前記録応答を開始して、対象人物を尋ねる事前記録挨拶を繰り返して、ステップCからステップEを反復することをさらに含むことが可能である。ステップDにおいて、電話番号が、対象人物の正確な番号ではないことを発話応答が示すと、スピーチ認識分析が判定した場合、方法は、事前記録謝罪メッセージを開始して、電話呼出しを終了することをさらに含むことが可能である。スピーチ認識分析が、発話応答の状況を決定することができない場合、方法は、対象人物を尋ねる事前記録挨拶を繰り返して、ステップCからステップEを反復することをさらに含むことが可能である。
【0010】
本発明の他の態様によれば、発信電話呼出し中に応答電話の状況を決定するためのシステムには、対象人物が記載された電話番号を有する場所に電話呼出しをするための自動電話呼出し装置と、電話呼出しが応答された際に、対象人物を尋ねる事前記録挨拶を開始して、応答人物から発話応答を受信し、発話応答について、スピーチ認識分析を実施して、発話応答の状況を決定するスピーチ認識装置とが含まれる。応答人物が対象人物であると、スピーチ認識装置が判定した場合、スピーチ認識装置は、対象人物について、スピーチ認識アプリケーションを開始する。
【0011】
応答人物が対象人物でないことを発話応答が示すと、スピーチ認識装置が判定した場合、スピーチ認識システムは、自動電話呼出し装置に、対象人物を尋ねる事前記録問合せを開始するように命令することが可能である。対象人物が電話呼出しに応答した際に、スピーチ認識システムは、対象人物について、スピーチ認識アプリケーションを開始することが可能である。対象人物がその場に存在しないことを発話応答が示すと、スピーチ認識装置が判定した場合、スピーチ認識システムは、自動電話呼出し装置に、対象人物にメッセージを残すことを要求する事前記録問合せを開始するように命令することが可能である。自動電話呼出し装置は、応答人物に事前記録メッセージを提供することが可能である。発話応答が保留要求であると、スピーチ認識装置が判定した場合、スピーチ認識は、待機状態に入って、対象人物が、電話呼出しに発話応答を提供するのを待機することが可能である。対象人物が電話呼出しに発話応答を提供したと、スピーチ認識装置が判定したとき、スピーチ認識装置は、対象人物について、スピーチ認識アプリケーションを開始することが可能である。発話応答が、自動呼出し装置の役割を担当するエンティティの識別に対する要求であると、スピーチ認識装置が判定した場合、スピーチ認識システムは、自動電話呼出し装置に、エンティティの識別を示す事前記録応答を開始して、対象人物を尋ねる事前記録挨拶を繰り返すように命令することが可能である。応答人物から発話応答を受信した際に、スピーチ認識装置は、発話応答について、スピーチ認識分析を実施して、発話応答の状況を決定することが可能である。電話番号が、対象人物の正しい番号ではないことを発話応答が示すと、スピーチ認識装置が判定した場合、スピーチ認識システムは、自動電話呼出し装置に、事前記録謝罪メッセージを開始して、電話呼出しを終了するように命令することが可能である。スピーチ認識装置が、発話応答の状況を決定することができない場合、スピーチ認識システムは、自動電話呼出し装置に、対象人物を尋ねる事前記録挨拶を繰り返すように命令することが可能であり、応答人物から発話応答を受信した際に、スピーチ認識装置は、発話応答について、スピーチ認識分析を実施して、発話応答の状況を決定することが可能である。
【0012】
本発明の他の態様によれば、発信電話呼出し中に応答電話の状況を決定するための方法には、
A.自動呼出しシステムで、対象人物が記載された電話番号を有する場所に電話呼出しをすること、
B.電話呼出しが応答された際に、対象人物を尋ねる事前記録挨拶を再生すること、
C.応答人物から発話応答を受信すること、
D.発話応答について、スピーチ認識分析を実施して、発話応答の状況を決定すること、および、
E.スピーチ認識分析に基づいて、
【0013】
a.応答人物が対象人物であると、スピーチ認識分析が判定した場合、対象人物について、スピーチ認識アプリケーションを開始する応答と、
b.応答人物が対象人物ではないことを発話応答が示すと、スピーチ認識分析が判定した場合、対象人物を尋ねる事前記録問合せを開始して、対象人物が電話呼出しに応答した際に、方法が、対象人物について、スピーチ認識アプリケーションを開始することをさらに含む応答と、
c.対象人物がその場所にいないことを発話応答が示すと、スピーチ認識分析が判定した場合、対象人物にメッセージを残すことを要求する事前記録問合せを開始する応答と、
d.発話応答が保留要求であると、スピーチ認識分析が判定した場合、待機状態に入って、対象人物が、電話呼出しに発話応答を提供するのを待ち、対象人物が電話呼出しに発話応答を提供した際に、方法が、対象人物について、スピーチ認識アプリケーションを開始することをさらに含む応答と、
e.発話応答が、呼出しシステムを担当するエンティティの識別に対する要求であると、スピーチ認識分析が判定した場合、呼出し当事者の識別を示す事前記録応答を開始して、対象人物を尋ねる事前記録挨拶を繰り返して、ステップCからステップEを反復する応答と、
f.電話番号が対象人物の正しい番号ではないことを発話応答が示すと、スピーチ認識分析が判定した場合、事前記録謝罪メッセージを開始して、電話呼出しを終了する応答と、
g.スピーチ認識分析が、発話応答の状況を決定することができない場合、対象人物を尋ねる事前記録応答を繰り返して、ステップCからステップEを反復する応答との少なくとも1つを提供することが含まれる。
【0014】
本発明の他の態様によれば、応答機械を検出する方法には、
A.自動呼出しシステムで、対象人物が記載された電話番号を有する場所に電話呼出しをすること、
B.電話呼出しが応答された際に、所定の時間の間、発話応答を待つこと、
C.発話応答を受信した際に、対象人物を尋ねる事前記録挨拶プロンプトを開始すること、
D.事前記録挨拶プロンプトを再生している間、所定の時間パラメータを超過して、さらに発話応答を検出することを試行すること、
E.事前記録挨拶プロンプトの再生中に、さらに発話応答が検出されなかった場合、問合せアプリケーションを開始すること、
F.事前記録挨拶プロンプトの再生中に、さらに発話応答を検出した際に、事前記録プロンプトの再生を終了すること、および、
G.応答機械が検出されたことを示すことが含まれる。
【0015】
方法は、事前記録挨拶プロンプトの再生中に、ビープ・トーンを検出することを試行して、ビープ・トーンが検出された際に、事前記録挨拶プロンプトを中断して、事前記録応答機械メッセージ・プロンプトを再生するステップをさらに含むことが可能である。方法は、事前記録応答機械メッセージ・プロンプトの再生中に、ビープ・トーンの検出を試行して、ビープ・トーンを検出した際に、事前記録応答機械メッセージ・プロンプトを中断して、事前記録プロンプトを再生することをさらに含むことが可能である。
本発明の以上の目的と他の目的、その様々な特徴、ならびに本発明自体は、添付の図面と共に以下の記述を読むとき、以下の記述からより完全に理解することが可能である。
【0016】
(詳細な説明)
ここで、図1〜3を参照して、本発明の好ましい実施形態について記述する。図1のシステム12には、自動電話呼出しシステム14と、スピーチ認識システム16とが含まれる。自動電話呼出しシステム14は、IBM PCまたはIBM PC互換性システム、あるいはAPPLE MacINTOSHシステムなどのパーソナル・コンピュータ、またはCompaq Computer Corporationから入手可能なAlphaベースのコンピュータ・システム、あるいはSUN Microsystems Corporationから入手可能なSPARCステーション・コンピュータ・システムなどのより進化したコンピュータ・システムであることが好ましいが、メイン・フレーム・コンピュータ・システムも使用することができる。そのようなシステムでは、システムの構成要素のすべてが、コンピュータ・システム上にあることになり、それにより、システムは、以下で記述する方式で、応答者から受信したデータを独立して処理することが可能になる。代替として、構成要素は、LANまたは同様のネットワークを介して互いにアクセスする、異なるシステムに含むことが可能である。たとえば、自動電話呼出し装置14は、電話18から発話応答を受信して、その応答をスピーチ認識装置16に送信するサーバ・システム上に配置することが可能である。
【0017】
自動電話呼出しシステム14は、ネットワーク・インタフェースを含むことも可能であり、このネットワーク・インタフェースは、電話ネットワーク、携帯電話ネットワーク、Web、インターネット、ローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)、私設ネットワーク、仮想私設ネットワーク(VPN)、イントラネット、エクストラネット、無線ネットワークなど、またはそれらのある組合せなど、様々なネットワークのいずれかによって、音声情報の受信を容易にする。システム10は、音声情報を伝達することができる様々な入力装置のいずれか1つまたは複数によってアクセスすることが可能である。そのような装置は、標準的な電話または携帯電話18を含むことが可能であるが、これに限定されるものではない。
【0018】
自動電話呼出しシステム14には、本明細書でこれ以後「対象人物」と呼ぶ、システム12が電話呼出しを開始することができる対象の人物のデータベースと、各人物に関連付けられた電話番号と、対象人物の名前を含む記録データファイルとが含まれる。そのような自動電話呼出し装置は、当技術分野では既知である。以下で記述するように、自動電話呼出しシステム14は、対象人物への電話呼出しを開始して、対象人物を尋ねる事前記録挨拶プロンプトを再生することができる。次いで、システム14は、スピーチ認識システム16と相互作用して、電話18に出た人物から受信した応答を分析する。
【0019】
スピーチ認識システム16は、自動システムであり、このシステム上では、特定のトピックに関する問合せを含むプロンプトと呼ばれる一連の音声出力を含めて、スピーチ認識アプリケーションをプログラムして、好ましくは問合せ当事者と応答者の電話による相互作用によって、アプリケーションを応答者に提示することができる。しかし、スピーチ認識アプリケーションは、情報を収集、提供、および/または共有するあらゆる対話式アプリケーションとすることが可能である。例として、本発明では、スピーチ・アプリケーションは、対話式アプリケーションのグループのいずれかとすることが可能であり、対話式アプリケーションには、消費者調査アプリケーション;Webアクセス・アプリケーション;コンピュータ・ベースの学習およびレッスン・アプリケーションと試験アプリケーションとを含んでいる教育アプリケーション;スクリーニング・アプリケーション;消費者好み監視アプリケーション;製品のメンテナンスに関する通知を含む、コンプライアンス関連活動の通知を生成するアプリケーションを含んでいるコンプライアンス・アプリケーション;標準試験結果、消費者産物試験結果、およびメンテナンス結果の少なくとも1つを提供するアプリケーションを含んでいる、試験結果アプリケーション;ならびに上記のアプリケーションの2つ以上を連結するアプリケーションを含んでいる連結アプリケーションが含まれる。
【0020】
好ましい実施形態では、各スピーチ認識アプリケーションには、スピーチ認識システム16内にプログラムされたアプリケーション・ファイルが含まれる。アプリケーションを作成する一連の問合せは、消費者または消費者サービス、教育、および特定の産物またはサービスあるいは他の機能の研究と開発を補助するために、応答者から特定の情報を獲得するように設計されることが好ましい。たとえば、特定のスピーチ・アプリケーションは、特定の産物またはサービスに関する特有の問合せを応答者に質問するように設計することができる。したがって、アプリケーションを発行するエンティティは、この情報を使用して、特定の産物またはサービスをさらに開発することが可能である。また、アプリケーションを使用して、特定の情報を特定の人物に提供することが可能である。
【0021】
自動電話呼出し装置12が、対象人物への呼出しを開始したとき、この装置は、実際に人が電話に応答したのか、または応答機械が電話に応答したのかを判定することができなければならない。システム12によって実施される方法を、図2の流れ図20に示す。ステップ22において、自動電話呼出しシステムは、図1の電話18の電話番号に記載された対象人物への発信電話呼出しを開始する。電話18が応答された際に、システム12は、通常「もしもし」である、実際人物からの初めの挨拶、または応答機械メッセージの始まりが検出されるまで待機する、ステップ24。システムは、処理のこの時点では、実際人物と機械の区別をする必要はない。初期応答が検出された後、システムは、対象人物の名前を含む事前記録メッセージを使用して、対象人物を尋ねる挨拶プロンプトを開始する、ステップ26。この挨拶プロンプトが再生されている間、スピーチ認識システム16は、1600msなどの所定の時間より長い発話応答を検出することを試行する、ステップ32。この最小時間を観測して、スピーチ認識システムに実際人物のスピーチ応答を不正確に検出させる可能性のある、あらゆる回線雑音を排除する。システムは、実際人物が電話に応答した場合、彼または彼女は、初期挨拶プロンプト中に話さないことを想定している。一方、応答機械は、呼出し当事者が話しているか否かにかかわらず、挨拶メッセージを再生する。所定の時間より長い発話応答が検出されなかった場合、ステップ32、スピーチ認識システム16は、実際人物が電話に応答したと判定して、挨拶プロンプトへの応答を待機する、ステップ34。所定の時間より長い発話応答が検出された場合、ステップ32、スピーチ認識システムは、応答機械が電話に応答したと判定する、ステップ38。
【0022】
挨拶プロンプトが再生されている間、スピーチ認識システム16は、また、応答機械によって出力された短いトーンまたは「ビープ」を検出することも試行する、ステップ30。ビープ・トーンが検出されなかった場合、ステップ36、スピーチ認識システム16は、実際人物が電話に応答したと判定して、挨拶プロンプトへの応答を待機する、ステップ34。ビープ・トーンが検出された場合、ステップ36、スピーチ認識システム16は、応答機械が電話に応答したと判定する、ステップ40。
【0023】
応答機械が電話18に応答したと、スピーチ認識システム16が判定した後、挨拶プロンプトは中断され、ステップ41、事前記録応答機械メッセージ・プロンプトが、応答機械に対して再生される、ステップ42。挨拶プロンプトの再生中の場合のように、応答機械メッセージ・プロンプトの再生中に、所定の時間より長い発話応答が検出された場合、ステップ44、またはビープ・トーンが検出された場合、ステップ46、応答機械メッセージ・プロンプトは中断され、再度再生される、ステップ42。これにより、応答機械メッセージ・プロンプトが、応答機械記録装置と適切に位置調整されることが保証される。応答機械メッセージ・プロンプトが、発話応答を検出せずに、ステップ44、またはビープ・トーン、ステップ46を検出せずに、完全に再生されたとき、プロセスは終了する、ステップ48。
【0024】
上述したように、電話18が応答されたとき、スピーチ認識システム16は、挨拶プロンプトを再生する、ステップ26、図2。挨拶プロンプトの例は、「こちらは、Xです。Y(対象人物の名前)さんに電話しています。Yさんですか?」である。発話応答またはビープ・トーンが、挨拶プロンプト中に検出されなかった場合、スピーチ認識システムは、挨拶プロンプトへの応答を待機する、ステップ34。スピーチ認識システム16が動作して、電話に応答した人物の状況を決定し、応答人物が対象人物でない場合、対象人物の特定を試行する。挨拶プロンプトが開始されたステップ26を図3に示す。図3は、応答電話の状況を決定する方法を示す流れ図である。挨拶プロンプトが再生された後、スピーチ認識システム16は、いくつかの異なる応答シナリオを認識して、それらに対処することができなければならない。これらの応答のそれぞれについて、以下で記述する。応答の例が記述に含まれているが、スピーチ認識システム16は、以下で与えた例の変形を認識するようにプログラムすることが可能であることが理解されるであろう。例は、以下に記述した応答シナリオのそれぞれで予期される応答を示すために提供されている。したがって、本発明は、これらの例に限定されるものではない。
【0025】
ステップ50において、スピーチ認識システム16は、挨拶プロンプトへの応答に基づいて、応答人物が対象人物であると判定する。応答人物が、実際に対象人物であることを示す通常の応答には、以下が含まれる。
A.「はい」
B.「こちらは、彼/彼女/彼/彼女/私/Y(尋ねられた名前)です」
C.「はい、そうです」
D.「話しています」
E.「続けてください」
F.「彼/彼女です」
これらの応答のいずれかが、スピーチ認識システム16によって受信されたとき、システムは、応答を分析して、応答人物が対象人物であると判定する。次いで、スピーチ認識システムは、対象人物について、スピーチ認識アプリケーションを開始する、ステップ52。
【0026】
スピーチ認識システム16によって受信された挨拶プロンプトへの発話応答が、以下の1つによって判定された場合、
A.「彼/彼女は、ここにいません」
B.「彼/彼女は、(今)外出中です」
C.「彼/彼女は、不在です」
スピーチ認識システム16は、対象人物と話ができないと判定する、ステップ54。この判定に基づいて、スピーチ認識システム16は、応答人物に、彼/彼女がメッセージを受け付けるかどうかを質問するメッセージ・プロンプトを再生する、ステップ56。図3に示したように、通常のメッセージ・プロンプトは、「メッセージをお願いできますか?」である。スピーチ認識装置16は、このプロンプトへの発話応答を受信し、それを分析して、プロンプトへの応答を判定する。応答が、「いいえ」と判定された場合、スピーチ認識システム16は、終了プロンプトを再生し、ステップ58、応答人物に謝意を表して、電話を終了する。メッセージ・プロンプトへの応答が、「はい」と判定された場合、スピーチ認識システム16は、応答人物に対し、事前記録メッセージを再生する、ステップ60。そのようなメッセージは、呼出しを担当するエンティティを識別して、電話する対象人物の電話番号を提供することができる。事前記録メッセージを再生した後、繰返しプロンプトを再生して、ステップ62、応答人物に、メッセージを繰り返すかの選択肢が与えられる。応答人物によって提供された応答に基づいて、スピーチ認識システムは、メッセージを繰り返す、ステップ60、または終了プロンプトを再生して、ステップ58、電話を終了する。
【0027】
スピーチ認識システム16によって受信された挨拶プロンプトへの発話応答が、以下の1つであると判定された場合、
A.「いいえ」
B.「違います」
C.「彼/彼女/彼/彼女ではないのですか」
D.「いいえ、こちらは、彼/彼女/彼/彼女ではありません」
E.「いいえ、違います」
F.「こちらは、彼の/彼女の、妻/夫です」
スピーチ認識システム16は、応答人物が対象人物ではないことを応答人物が示したと判定する、ステップ64。この判定に基づいて、スピーチ認識システムは、スピーチ認識システム16が、対象人物を待つべきであるかを応答人物に質問する保留プロンプトを再生する。図3に示したように、通常の保留プロンプトは、「私はYさんを待つべきですか?」というものである。スピーチ認識装置16は、このプロンプトへの発話応答を受信し、それを分析して、プロンプトへの応答を判定する。応答が、「いいえ」であると判定された場合、スピーチ認識システム16は、メッセージ・プロンプトを再生して、ステップ56、上述したメッセージ手順で進行する。応答が、「はい」であると判定された場合、システムは、他の発話応答が検出されるまで、待機する、ステップ68。発話応答が、スピーチ認識システム16によって受信されたとき、システムは、識別プロンプトを再生して、ステップ70、その人物が対象人物であるかを質問する。識別プロンプトへの応答が、「いいえ」であると判定された場合、スピーチ認識システム16は、メッセージ・プロンプトを再生して、ステップ56、上述したメッセージ手順で進む。応答が、「はい」であると判定された場合、スピーチ認識システムは、対象人物について、スピーチ認識アプリケーションを開始する、ステップ52。
【0028】
スピーチ認識システム16によって受信された挨拶プロンプトへの発話応答が、以下の1つであると判定された場合、
A.「どちら様ですか?」
B.「私は誰と話していますか?」
C.「ご用件は何ですか?」
D.「目的をお聞きしてもいいですか?」
E.「内容をお聞きしてもいいですか?」
F.「誰なのか、彼/彼女に言ってもいいですか?」
G.「これ/それの目的/内容は何ですか?」
H.「誰ですか?」
I.「あなたは誰ですか?」
スピーチ認識システム16は、応答人物が、呼出しを担当するエンティティの識別を要求したと判定する、ステップ72。この判定に基づいて、スピーチ認識システムは、エンティティと、随意選択で電話の理由とを識別する事前記録メッセージを再生する、ステップ74。次いで、スピーチ認識システムは、スピーチ認識システム16が、対象人物を待つべきであるかどうかを応答人物に質問する、保留プロンプトを再生する、ステップ66。スピーチ認識装置16は、このプロンプトへの発話応答を受信し、それを分析して、プロンプトへの応答を判定する。応答が、「いいえ」であると判定された場合、スピーチ認識システム16は、メッセージ・プロンプトを再生して、ステップ56、上述したメッセージ手順で進行する。応答が、「はい」であると判定された場合、システムは、他の発話応答が検出されるまで待機する、ステップ68。発話応答が、スピーチ認識システム16によって受信されたとき、システムは、識別プロンプトを再生して、ステップ70、その人物が対象人物であるかを質問する。識別プロンプトへの応答が、「いいえ」であると判定された場合、スピーチ認識システム16は、メッセージ・プロンプトを再生して、ステップ56、上述したメッセージ手順で進行する。応答が、「はい」であると判定された場合、スピーチ認識システムは、コネクタ71によって示されたように、対象人物について、スピーチ認識アプリケーションを開始する、ステップ52。
【0029】
スピーチ認識システム16によって受信された挨拶プロンプトへの発話応答が、以下の1つであると判定された場合、
A.「お待ちください」
B.「彼/彼女は、ここにいます、お待ちください」
C.「少々お待ちください」
D.「はい、お待ちください」
スピーチ認識システム16は、応答人物が、システムに待つように要求したと判定する、ステップ76。この判定に基づいて、システムは、他の発話応答が検出されるまで待機する、ステップ68。発話応答が、スピーチ認識システム16によって受信されたとき、システムは、識別プロンプトを再生して、ステップ70、その人物が対象人物であるかを質問する。識別プロンプトへの応答が、「いいえ」であると判定された場合、スピーチ認識システム16は、メッセージ・プロンプトを再生して、ステップ56、上述したメッセージ手順で進行する。応答が、「はい」であると判定された場合、スピーチ認識システムは、コネクタ71によって示したように、対象人物について、スピーチ認識アプリケーションを開始する、ステップ52。
【0030】
挨拶プロンプトが再生された後、ステップ26、スピーチ認識システム16によって受信された挨拶プロンプトへの発話応答が、「もしもし?」であると判定された場合、ステップ78、スピーチ認識システム16は、対象人物が電話を取ったと判定する。この判定に基づいて、システムは、識別プロンプトを再生して、ステップ70、その人物が対象人物であるかを質問する。識別プロンプトへの応答が、「いいえ」であると判定された場合、スピーチ認識システム16は、メッセージ・プロンプトを再生して、ステップ56、上述したメッセージ手順で進行する。応答が、「はい」であると判定された場合、スピーチ認識システムは、コネクタ71によって示したように、対象人物について、スピーチ認識アプリケーションを開始する、ステップ52。
【0031】
スピーチ認識システム16によって受信された挨拶プロンプトへの発話応答が、以下の1つであると判定された場合、
A.「間違った番号にかけています(かけているに違いありません)」
B.「番号が間違っています」
C.「その名前の人は、ここにはいません」
D.「その名前の人は、ここには住んでいません」
スピーチ認識システム16は、間違った番号に電話をしたと判定する、ステップ80。この判定に基づいて、スピーチ認識システム16は、終了プロンプトを再生し、ステップ82、応答人物に謝意を表して、電話を終了する。
【0032】
挨拶プロンプトへの発話応答が、スピーチ認識システム16によって認識されなかった場合、または所定の時間の間内に応答がなく、上述のステップのどれも続くことができなかった場合、ステップ84、スピーチ認識システム16は、応答の言葉のいずれかが認識されたかどうか判定する、ステップ86。応答の言葉の1つまたは複数が認識された場合、スピーチ認識システム16は、識別プロンプトを再生して、応答人物が対象人物であるかを質問することが可能である、ステップ88。システムが、最初の発話応答を理解しなかったことを応答人物に示すために、識別プロンプトを変更して、「よく聞こえませんでした、Yさんですか?」とすることが可能である。
【0033】
挨拶プロンプトへの発話応答の言葉のどれも認識されなかった場合、ステップ86、または応答が受信されなかった場合、システムは、図3のコネクタ90によって示したように、ステップ66にジャンプして、保留プロンプトを再生する。システムが、最初の発話応答を理解しなかったことを応答人物に示すために、この例の保留プロンプトを変更して、「よく聞こえませんでした、Yさんを待つべきですか?」とすることが可能である。次いで、システムは、上述したように、ステップ66に続くステップを進行する。
このように、本発明は、出呼出し中に応答電話の状況を決定する方法およびシステムを提供する。システムには、特定の電話番号に記載された対象人物への電話呼出しを開始する自動電話呼出しシステムが含まれる。電話呼出しが応答されたとき、システムは、まず、実際に人が電話に応答したのか、または応答機械が電話に応答したのかを判定する。応答機械が検出された場合、システムは、対象人物にメッセージを残す。実際に人が電話に応答した場合、システムは、スピーチ認識分析を使用して、応答人物の状況を決定し、応答人物が対象人物でない場合、対象人物の特定を試行する。対象人物と話ができる場合、システムは、スピーチ認識アプリケーションを開始する。そうでない場合、システムは、対象人物にメッセージを残すことを試行するか、または単に電話を終了する。
【0034】
本発明は、本発明の精神または本質的な特徴から逸脱せずに、他の特有の形態で実施することが可能である。たとえば、システムを使用して、実際人物を対象人物に接続することが可能である。この場合、対象人物が電話に出たとシステムが判定した後、対象人物と実際に会話をするために、スピーチ認識アルゴリズムではなく、対象人物に実際人物を接続することが可能である。したがって、本発明の実施形態は、限定ではなく、例示と見なされるべきであり、本発明の範囲は、上記の記述ではなく、添付の請求項によって示され、したがって、請求項の等価物の意味と範囲内にあるすべての変更は、請求項に包含されることを意図している。
【図面の簡単な説明】
【図1】
本発明による、発信電話呼出し中に応答電話の状況を決定するためのシステムの概略的なブロック図である。
【図2】
本発明による、応答機械を検出するための方法の流れ図である。
【図3】
本発明による、発信電話呼出し中に応答電話の状況を決定するための方法の流れ図である。
[0001]
(Cross-reference of related applications)
This application claims the benefit of priority of US Provisional Patent Application Ser. No. 60 / 229,774, filed on Sep. 1, 2001, which is owned by the owner of the present application entitled APPLICATION OF AUTOMATIC SPEECH RECOGNITION TO OUTBOUND CALLS. I do.
[0002]
(Field of the Invention)
The present invention relates generally to methods and systems for determining the status of an answering phone during an outgoing phone call, and more particularly, to speech recognition to identify and / or identify a particular person during an outgoing phone call. The method and system used.
[0003]
(Background of the Invention)
In the new consolidated economy, it is increasingly important for companies or service providers to be more consistent with their customers and customers. Such contact can be facilitated with an automatic telephone processing system. In this system, interactively generated prompts are played in the context of telephone processing and human user responses are recognized by an automatic speech recognition system. The response provided by the respondent is processed by the system to convert the spoken words into meaning, so that the meaning can be used interactively or stored in a database.
[0004]
In order for the computer system to recognize the spoken words and convert these words to text, the system may be able to vocalize the words and convert parts of the words to text equivalents. Must be programmed. Such a transformation requires an understanding of the components of the speech and the structure of the spoken words. The generation of speech produces a series of complex, rapidly changing sound pressure waveforms. These waveforms contain the basic building blocks of speech, known as phonemes. Vowels and consonants are made of phonemes and have many different characteristics, depending on which component of human speech is used. The location of phonemes in words has a significant effect on the final speech produced. The spoken words have several meanings, depending on how they are spoken. Linguists identify allophones as acoustic variants of phonemes and use them to more clearly determine how certain words are formed.
[0005]
There are several different ways to analyze spoken words and extract the information needed to enable a recognition system to convert speech to word strings, including Hidden Markov modeling and neural networks. Although present, these methods generally perform similar operations. The difference between these methods is that the system usually determines how to decompose the audio signal into parts that determine phonemes. In general, a speech recognition system first converts an incoming analog voice signal into a digital signal. The second step is called feature extraction, in which the system analyzes the digital signal and identifies the acoustic properties of the digital signal. Feature extraction generally breaks down speech into individual speech components. Conventional techniques for performing feature extraction include sub-band coded fast Fourier transform and linear predictive coding. After analyzing the signal, the system determines where different acoustic regions occur. The purpose of this step is to split the acoustic signal into regions identified as phonemes, which can be converted to text format. In an isolated word system, this process is simplified because there is a pause after each word. However, in a continuous speech system, this process is much more difficult, since there is usually no break between words in the audio stream. Thus, the system must not only be able to decompose the words themselves into different acoustic domains, but also be able to separate successive words of the stream. It is at this step that conventional methods such as Hidden Markov modeling and neural networks are used. The final step involves comparing the particular acoustic region determined in the preceding step with a known set of templates in the database to determine the word or part of the word represented by the acoustic signal region. If a match is found, the resulting text word is output from the system. If no match is found, the signal can be manipulated dynamically to increase the chance of finding a match, or if the relevant response cannot be determined due to data loss, discard the data, The system can be prompted to repeat the query for the respondent.
[0006]
In customer service applications, it is important that the service provider be able to obtain information from or provide information to the customer. Often, service providers need to contact customers via telephone to obtain or provide desired information. To reduce the costs associated with such information exchange, many service providers use automatic telephone calling equipment to contact customers. However, if someone other than the specific individual called answers the call, the information exchange is most likely to fail and the service provider will waste valuable resources.
[0007]
(Summary of the Invention)
The present invention is directed to a method and system for determining the status of an answering call during an outgoing call. The system includes an automatic telephone calling system that initiates a telephone call to a target person listed at a particular telephone number. When a telephone call is answered, the system first determines whether the person actually answered the telephone or whether the answering machine answered the telephone. If a responding machine is detected, the system leaves a message for the subject. If a person actually answers the phone, the system uses speech recognition analysis to determine the situation of the respondent, and if the respondent is not the target, attempts to identify the target.
[0008]
According to one aspect of the present invention, a method for determining the status of an answering phone during an outgoing phone call comprises:
A. Making a telephone call to the place where the target person has the listed telephone number in the automatic calling system;
B. Initiating a prerecorded greeting asking the subject when the telephone call is answered;
C. Receiving an utterance response from the responding person;
D. Performing a speech recognition analysis on the utterance response to determine the status of the utterance response; and
E. FIG. If the speech recognition analysis determines that the responding person is the target person, this includes starting a speech recognition application for the target person.
[0009]
If the speech response analysis determines that the responding person is not the target person, then the next step may include initiating a pre-recorded query asking the target person. When the subject person answers the telephone call, the method can further include starting a speech recognition application for the subject person. If the speech recognition analysis determines that the utterance response indicates that the target person is not at that location, the next step can include initiating a prerecorded query requesting the target person to leave a message. It is. The method can further include providing the pre-recorded message to the responding person. If, in step D, the speech recognition analysis determines that the utterance response is a hold request, the next step may include entering a wait state and waiting for the subject to answer the telephone call. It is possible. When the subject provides the spoken response to the telephone call, the method may further include initiating a speech recognition application for the subject. If, in step D, the speech recognition analysis determines that the speech response is a request for the identity of the entity responsible for the calling system, the method initiates a pre-recorded response indicating the identity of the calling party to identify the subject person. It may further include repeating steps C through E, repeating the prerecorded greeting to ask. In step D, if the speech recognition analysis determines that the utterance response indicates that the telephone number is not the correct number of the subject person, the method may include starting a prerecorded apology message and ending the telephone call. Can be further included. If the speech recognition analysis cannot determine the status of the utterance response, the method can further include repeating steps C through E, repeating the prerecorded greeting asking for the subject.
[0010]
According to another aspect of the present invention, a system for determining the status of an answering telephone during an outgoing telephone call includes an automatic telephone calling device for making a telephone call to a location having a telephone number having a listed target person. When a telephone call is answered, start a prerecorded greeting to ask for the target person, receive an utterance response from the responding person, perform speech recognition analysis on the utterance response, and determine the status of the utterance response And a speech recognition device. When the speech recognition device determines that the responding person is the target person, the speech recognition device starts a speech recognition application for the target person.
[0011]
If the speech recognizer determines that the answering person is not the target person, and the speech recognizer determines, the speech recognition system can instruct the automatic telephone calling device to initiate a prerecorded query asking the target person. It is. When the target person answers the telephone call, the speech recognition system can initiate a speech recognition application for the target person. If the speech recognizer determines that the utterance response indicates that the target person is not present, the speech recognition system initiates a prerecorded inquiry requesting the automatic telephone calling device to leave a message for the target person. It is possible to command to The automatic telephone calling device can provide a pre-recorded message to the responding person. If the speech recognition device determines that the speech response is a hold request, the speech recognition can enter a standby state and wait for the subject person to provide the speech response to the telephone call. When the speech recognition device determines that the target person provided an utterance response to the telephone call, the speech recognition device can initiate a speech recognition application for the target person. If the speech recognizer determines that the speech response is a request for the identity of the entity responsible for the automatic calling device, the speech recognition system initiates a prerecorded response to the automatic telephone calling device indicating the identity of the entity. Then, it is possible to instruct to repeat the prerecorded greeting asking for the target person. When a speech response is received from a responding person, the speech recognition device can perform a speech recognition analysis on the speech response to determine the situation of the speech response. If the speech recognizer determines that the phone number is not the correct number of the subject person, the speech recognition system initiates a pre-recorded apology message to the automatic telephone calling device to initiate the telephone call. It is possible to command to end. If the speech recognizer cannot determine the status of the utterance response, the speech recognizer can instruct the automatic telephone calling device to repeat the prerecorded greeting asking for the target person, Upon receiving the utterance response, the speech recognition device can perform a speech recognition analysis on the utterance response to determine the status of the utterance response.
[0012]
According to another aspect of the present invention, a method for determining the status of an answering phone during an outgoing phone call comprises:
A. Making a telephone call to the place where the target person has the listed telephone number in the automatic calling system;
B. Playing a prerecorded greeting asking for the subject when the telephone call is answered;
C. Receiving an utterance response from the responding person;
D. Performing a speech recognition analysis on the speech response to determine the status of the speech response; and
E. FIG. Based on speech recognition analysis
[0013]
a. If the speech recognition analysis determines that the responding person is the target person, a response to start the speech recognition application for the target person;
b. If the utterance response indicates that the responding person is not the target person, the speech recognition analysis determines if the pre-recorded query asking the target person is initiated, and when the target person answers the telephone call, the method A response, further comprising initiating a speech recognition application for the person;
c. When the speech response indicates that the target person is not at that location, if the speech recognition analysis determines, a response to start a pre-recorded inquiry requesting that the target person leave a message,
d. If the speech recognition analysis determines that the speech response is a hold request, the speech recognition analysis determines that the subject enters a standby state and waits for the speech response to be provided to the telephone call, and the subject provides the speech response to the telephone call. Wherein the method further comprises initiating a speech recognition application for the subject person;
e. If the speech recognition analysis determines that the speech response is a request for the identity of the entity responsible for the calling system, it initiates a pre-recorded response indicating the identity of the calling party and repeats the pre-recorded greeting asking for the target person. , A response that repeats steps C through E;
f. If the speech response indicates that the phone number is not the correct number of the subject person, the speech recognition analysis determines that the prerecorded apology message is initiated and a response to terminate the phone call;
g. If the speech recognition analysis is unable to determine the context of the utterance response, it may include repeating the pre-recorded response asking for the subject person and providing at least one of the responses repeating steps C through E.
[0014]
According to another aspect of the present invention, a method for detecting a response machine includes:
A. Making a telephone call to the place where the target person has the listed telephone number in the automatic calling system;
B. Waiting for a speech response for a predetermined time when the telephone call is answered;
C. Initiate a prerecorded greeting prompt asking for the subject upon receiving an utterance response;
D. While playing a pre-recorded greeting prompt, exceeding a predetermined time parameter and attempting to detect further speech responses;
E. FIG. During playback of the prerecorded greeting prompt, if no further utterance response is detected, start the query application;
F. Terminating the playback of the prerecorded prompt when the prerecorded greeting prompt is played and an utterance response is detected, and
G. FIG. Includes indicating that a responding machine has been detected.
[0015]
The method attempts to detect a beep tone during playback of the pre-recorded greeting prompt, interrupts the pre-recorded greeting prompt when a beep tone is detected, and responds to the pre-recorded reply machine message prompt. May be further included. The method attempts to detect a beep tone during playback of the prerecorded response machine message prompt, interrupts the prerecorded response machine message prompt when the beep tone is detected, and sets the prerecorded prompt. Playing can further be included.
The foregoing and other objects of the invention, its various features, and the invention itself, can be more fully understood from the following description when read in conjunction with the accompanying drawings.
[0016]
(Detailed description)
A preferred embodiment of the present invention will now be described with reference to FIGS. The system 12 of FIG. 1 includes an automatic telephone calling system 14 and a speech recognition system 16. The automatic telephone calling system 14 may be a personal computer, such as an IBM PC or IBM PC compatible system, or an APPLE MacINTOSH system, or an Alpha-based computer system available from Compaq Computer Corporation, or a SPARC available from SUN Microsystems Corporation. Preferably, a more advanced computer system, such as a station computer system, may be used, but a mainframe computer system can also be used. In such a system, all of the components of the system would be on a computer system so that the system would independently process the data received from the responder in the manner described below. Becomes possible. Alternatively, the components can be included in different systems, accessing each other via a LAN or similar network. For example, automatic telephone calling device 14 may be located on a server system that receives a spoken response from telephone 18 and sends the response to speech recognizer 16.
[0017]
The automatic telephone calling system 14 may also include a network interface, such as a telephone network, a cellular telephone network, the Web, the Internet, a local area network (LAN), a wide area network (LAN). Facilitate reception of voice information by any of a variety of networks, such as a WAN (WAN), a private network, a virtual private network (VPN), an intranet, an extranet, a wireless network, or some combination thereof. System 10 can be accessed by any one or more of a variety of input devices that can convey audio information. Such a device may include, but is not limited to, a standard telephone or mobile phone 18.
[0018]
The automatic telephone calling system 14 includes a database of persons to whom the system 12 can initiate telephone calls, hereinafter referred to as "subjects," a telephone number associated with each person, And a recording data file containing the name of the person. Such automatic telephone calling devices are known in the art. As described below, the automatic telephone calling system 14 can initiate a telephone call to the subject and play a prerecorded greeting prompt asking the subject. The system 14 then interacts with the speech recognition system 16 to analyze the response received from the person answering the phone 18.
[0019]
The speech recognition system 16 is an automated system on which a speech recognition application is programmed, including a series of audio outputs, called prompts, containing inquiries about a particular topic, preferably to the querying party and the respondent. Applications can be presented to respondents by telephone interaction. However, the speech recognition application can be any interactive application that collects, provides, and / or shares information. By way of example, in the present invention, the speech application may be any of a group of interactive applications, including a consumer survey application; a web access application; computer-based learning and lessons. Educational applications including applications and testing applications; Screening applications; Consumer preference monitoring applications; Compliance applications including applications that generate notifications of compliance-related activities, including notifications regarding product maintenance; Standard exams A test results application including an application that provides at least one of results, consumer product test results, and maintenance results. ; As well as linking the application containing the application that connects two or more of the above applications.
[0020]
In a preferred embodiment, each speech recognition application includes an application file programmed into speech recognition system 16. The series of queries that make up the application are designed to obtain specific information from responders to assist consumers or consumer services, education, and research and development of specific products or services or other features Preferably. For example, a particular speech application may be designed to interrogate respondents for specific queries about a particular product or service. Thus, the entity issuing the application can use this information to further develop a particular product or service. In addition, it is possible to provide specific information to a specific person using an application.
[0021]
When the automatic telephone calling device 12 initiates a call to a target person, the device must be able to determine whether the person has actually answered the call or whether the answering machine has answered the call. The method performed by system 12 is illustrated in flowchart 20 of FIG. In step 22, the automatic telephone calling system initiates an outgoing telephone call to the target person identified by the telephone number of telephone 18 in FIG. When the telephone 18 is answered, the system 12 waits until the first greeting from the actual person or the beginning of the answering machine message, which is usually "hello", is detected, step 24. The system does not actually need to distinguish between a person and a machine at this point in the process. After the initial response is detected, the system initiates a greeting prompt asking for the subject using a prerecorded message containing the subject's name, step 26. While the greeting prompt is being played, the speech recognition system 16 attempts to detect an utterance response longer than a predetermined time, such as 1600 ms, step 32. Observing this minimum time eliminates any line noise that could cause the speech recognition system to incorrectly detect the actual human speech response. The system assumes that if the person actually answers the phone, he or she will not speak during the initial greeting prompt. On the other hand, the answering machine plays the greeting message whether or not the calling party is talking. If no speech response longer than the predetermined time is detected, step 32, the speech recognition system 16 determines that the actual person has answered the phone and waits for a response to the greeting prompt, step 34. If a speech response longer than the predetermined time is detected, step 32, the speech recognition system determines that the answering machine has answered the call, step 38.
[0022]
While the greeting prompt is being played, the speech recognition system 16 also attempts to detect a short tone or "beep" output by the answering machine, step 30. If no beep tone is detected, step 36, speech recognition system 16 determines that the actual person has answered the phone and waits for a response to the greeting prompt, step 34. If a beep tone is detected, step 36, speech recognition system 16 determines that the answering machine has answered the call, step 40.
[0023]
After the speech recognition system 16 determines that the answering machine has answered the telephone 18, the greeting prompt is interrupted and step 41, a prerecorded answering machine message prompt is played to the answering machine, step 42. Step 44 if a speech response longer than a predetermined time is detected during the playback of the answering machine message prompt, such as during a greeting prompt, or Step 46 if a beep tone is detected. The answering machine message prompt is interrupted and played again, step 42. This ensures that the responding machine message prompt is properly aligned with the responding machine recorder. The process ends when the answering machine message prompt has been fully played without detecting a speech response, step 44, or without detecting a beep tone, step 46, step 48.
[0024]
As described above, when the telephone 18 is answered, the speech recognition system 16 plays a greeting prompt, step 26, FIG. An example of the greeting prompt is "This is X. I'm calling Y (the name of the target person). Are you Y?" If no speech response or beep tone was detected during the greeting prompt, the speech recognition system waits for a response to the greeting prompt, step 34. The speech recognition system 16 operates to determine the status of the person who answered the call and, if the responding person is not the target person, attempts to identify the target person. FIG. 3 shows step 26 in which the greeting prompt is started. FIG. 3 is a flow chart illustrating a method for determining the status of an answering call. After the greeting prompt has been played, the speech recognition system 16 must be able to recognize several different response scenarios and address them. Each of these responses is described below. Although examples of responses are included in the description, it will be appreciated that speech recognition system 16 can be programmed to recognize variations of the examples provided below. Examples are provided to illustrate the expected response in each of the response scenarios described below. Therefore, the present invention is not limited to these examples.
[0025]
In step 50, the speech recognition system 16 determines that the responding person is the target person based on the response to the greeting prompt. A typical response indicating that the responding person is in fact a target person includes:
A. "Yes"
B. "This is him / her / he / her / me / Y (name asked)"
C. "Yes, it is"
D. "I'm talking."
E. FIG. "Please continue"
F. "He / she"
When any of these responses are received by the speech recognition system 16, the system analyzes the responses and determines that the responding person is the subject person. Next, the speech recognition system starts a speech recognition application for the target person, step 52.
[0026]
If the speech response to the greeting prompt received by the speech recognition system 16 is determined by one of the following:
A. "He / she is not here"
B. "He / She is out (now)"
C. "He / she is absent."
The speech recognition system 16 determines that it cannot talk to the target person, step 54. Based on this determination, the speech recognition system 16 plays a message prompt asking the responding person whether he / she accepts the message, step 56. As shown in FIG. 3, a typical message prompt is "Can you give me a message?" The speech recognizer 16 receives the utterance response to the prompt and analyzes it to determine a response to the prompt. If the response is determined to be "no," the speech recognition system 16 plays an end prompt and acknowledges the responder, step 58, and ends the call. If the response to the message prompt is determined to be "yes," speech recognition system 16 plays the pre-recorded message to the responding person, step 60. Such a message may identify the entity responsible for the call and provide the telephone number of the person to call. After playing the prerecorded message, the repeat prompt is played and step 62, the responding person is given the option to repeat the message. Based on the response provided by the respondent, the speech recognition system repeats the message, plays a step 60, or plays an end prompt, and ends the call, step 58.
[0027]
If the speech response to the greeting prompt received by the speech recognition system 16 is determined to be one of the following:
A. "No"
B. "wrong"
C. "Isn't he / she / he / she?"
D. "No, this is not him / her / he / her"
E. FIG. "No, no."
F. "This is his / her wife / husband."
The speech recognition system 16 determines that the responding person has indicated that the responding person is not the target person, step 64. Based on this determination, the speech recognition system plays a hold prompt that asks the respondent if the speech recognition system 16 should wait for the target person. As shown in FIG. 3, the normal hold prompt is "Should I wait for Mr. Y?" The speech recognizer 16 receives the utterance response to the prompt and analyzes it to determine a response to the prompt. If the response is determined to be "no," the speech recognition system 16 plays a message prompt and proceeds with step 56, the message procedure described above. If the response is determined to be "yes", the system waits until another utterance response is detected, step 68. When the speech response is received by the speech recognition system 16, the system plays an identification prompt and asks if the person is the target person, step 70. If the response to the identification prompt is determined to be "no," the speech recognition system 16 plays the message prompt and proceeds with step 56, the message procedure described above. If the response is determined to be "yes", the speech recognition system starts a speech recognition application for the target person, step 52.
[0028]
If the speech response to the greeting prompt received by the speech recognition system 16 is determined to be one of the following:
A. "Who are you?"
B. "Who am I talking to?"
C. "What is your business?"
D. "Can I ask you my purpose?"
E. FIG. "Can I ask for the content?"
F. "Can I tell him / her who you are?"
G. FIG. "What is this / it's purpose / content?"
H. "Who is it?"
I. "Who are you?"
The speech recognition system 16 determines that the responder has requested identification of the entity responsible for the call, step 72. Based on this determination, the speech recognition system plays a pre-recorded message identifying the entity and, optionally, the reason for the call, step 74. The speech recognition system then plays a hold prompt, which the speech recognition system 16 asks the respondent if it should wait for the subject, step 66. The speech recognizer 16 receives the utterance response to the prompt and analyzes it to determine a response to the prompt. If the response is determined to be "no," the speech recognition system 16 plays a message prompt and proceeds with step 56, the message procedure described above. If the response is determined to be "yes", the system waits until another utterance response is detected, step 68. When the speech response is received by the speech recognition system 16, the system plays an identification prompt and asks if the person is the target person, step 70. If the response to the identification prompt is determined to be "no", the speech recognition system 16 plays the message prompt and proceeds with step 56, the message procedure described above. If the response is determined to be "yes", the speech recognition system starts a speech recognition application for the subject person, as indicated by connector 71, step 52.
[0029]
If the speech response to the greeting prompt received by the speech recognition system 16 is determined to be one of the following:
A. "Please wait"
B. "He / she is here, please wait"
C. "Please wait a moment"
D. "Yes, please wait"
The speech recognition system 16 determines that the responder has requested the system to wait, step 76. Based on this determination, the system waits until another utterance response is detected, step 68. When the speech response is received by the speech recognition system 16, the system plays an identification prompt and asks if the person is the target person, step 70. If the response to the identification prompt is determined to be "no", the speech recognition system 16 plays the message prompt and proceeds with step 56, the message procedure described above. If the response is determined to be "yes", the speech recognition system initiates a speech recognition application for the target person, as indicated by connector 71, step 52.
[0030]
After the greeting prompt has been played, step 78, if the speech response to the greeting prompt received by the speech recognition system 16 is determined to be "Hello?", Step 78, the speech recognition system 16 Determines that he has picked up the phone. Based on this determination, the system plays an identification prompt and asks at step 70 if the person is the target person. If the response to the identification prompt is determined to be "no", the speech recognition system 16 plays the message prompt and proceeds with step 56, the message procedure described above. If the response is determined to be "yes", the speech recognition system initiates a speech recognition application for the target person, as indicated by connector 71, step 52.
[0031]
If the speech response to the greeting prompt received by the speech recognition system 16 is determined to be one of the following:
A. "Calling the wrong number (must be calling)"
B. "The number is incorrect"
C. "There is no one with that name here."
D. "The person by that name does not live here."
The speech recognition system 16 determines that the wrong number has been called, step 80. Based on this determination, the speech recognition system 16 plays an end prompt and thank the responding person at step 82 and ends the call.
[0032]
If the speech response to the greeting prompt was not recognized by the speech recognition system 16 or if there was no response within a predetermined time and none of the above steps could be followed, step 84, speech recognition. System 16 determines whether any of the words in the response have been recognized, step 86. If one or more of the words of the response have been recognized, speech recognition system 16 can play an identification prompt and ask if the responding person is the target person, step 88. To indicate to the responder that the system did not understand the original utterance response, the identification prompt can be changed to "Did not hear well, Mr. Y?"
[0033]
If none of the words in the utterance response to the greeting prompt were recognized, step 86, or if no response was received, the system jumps to step 66, as indicated by connector 90 in FIG. Play hold prompt. Modify the on-hold prompt in this example to indicate to the responder that the system did not understand the first utterance response, saying "Did not hear well, should we wait for Mr. Y?" Is possible. The system then proceeds with the steps following step 66, as described above.
Thus, the present invention provides a method and system for determining the status of an answering call during an outgoing call. The system includes an automatic telephone calling system that initiates a telephone call to a target person listed at a particular telephone number. When a telephone call is answered, the system first determines whether the person actually answered the telephone or whether the answering machine answered the telephone. If a responding machine is detected, the system leaves a message for the subject. If the person does answer the phone, the system uses the speech recognition analysis to determine the situation of the responding person and, if the responding person is not the target person, attempts to identify the target person. If the system can talk to the target person, the system starts a speech recognition application. If not, the system attempts to leave a message for the subject or simply ends the call.
[0034]
The present invention may be embodied in other specific forms without departing from the spirit or essential characteristics of the invention. For example, the system can be used to connect a real person to a target person. In this case, after the system determines that the target person has answered the telephone, the actual person can be connected to the target person instead of the speech recognition algorithm in order to actually talk to the target person. Accordingly, the embodiments of the present invention should be regarded as illustrative rather than limiting, and the scope of the present invention is defined by the appended claims, rather than the above description, and thus, the meaning of the equivalents of the claims And all modifications that come within the scope are intended to be covered by the appended claims.
[Brief description of the drawings]
FIG.
FIG. 2 is a schematic block diagram of a system for determining the status of an answering phone during an outgoing phone call according to the present invention.
FIG. 2
4 is a flowchart of a method for detecting a response machine according to the present invention.
FIG. 3
4 is a flow chart of a method for determining the status of an answering phone during an outgoing phone call according to the present invention.

Claims (24)

発信電話呼出し中に応答電話の状況を決定する方法であって、
A.自動呼出しシステムで、対象人物が記載されている電話番号を有する場所に電話呼出しをすること、
B.前記電話呼出しが応答された際に、対象人物を尋ねる事前記録挨拶を開始すること、
C.発話応答を応答人物から受信すること、
D.前記発話応答についてスピーチ認識分析を実施して、前記発話応答の状況を決定すること、および、
E.前記応答人物が前記対象人物であると、前記スピーチ認識分析が判定した場合、前記対象人物について、スピーチ認識アプリケーションを開始することを含む方法。
A method for determining the status of an answering phone during an outgoing phone call, comprising:
A. Making a telephone call to a location having a telephone number in which the target person is described in an automatic calling system;
B. Initiating a prerecorded greeting asking for a target person when the telephone call is answered;
C. Receiving an utterance response from a responding person;
D. Performing a speech recognition analysis on the speech response to determine a status of the speech response; and
E. FIG. A method comprising, if the speech recognition analysis determines that the responding person is the target person, starting a speech recognition application for the target person.
ステップDにおいて、前記応答人物が前記対象人物ではないことを前記発話応答が示すと、前記スピーチ認識分析が判定した場合、次のステップが、前記対象人物を尋ねる事前記録問合せを開始することを含む、請求項1に記載の方法。In step D, if the speech response indicates that the responding person is not the target person, and the speech recognition analysis determines that the next step includes initiating a pre-recorded inquiry asking the target person. The method of claim 1. 前記対象人物が前記電話呼出しに応答した際に、前記対象人物について、スピーチ認識アプリケーションを開始することをさらに含む、請求項2に記載の方法。3. The method of claim 2, further comprising initiating a speech recognition application for the target person when the target person answers the telephone call. ステップDにおいて、前記対象人物が前記場所にいないことを前記発話応答が示すと、前記スピーチ認識分析が判定した場合、次のステップが、前記対象人物にメッセージを残すことを要求する事前記録問合せを開始することを含む、請求項1に記載の方法。In step D, when the speech response indicates that the target person is not at the place, if the speech recognition analysis determines that the next step is a prerecorded inquiry requesting the target person to leave a message. The method of claim 1, comprising initiating. 事前記録メッセージを前記応答人物に提供するステップをさらに含む、請求項4に記載の方法。The method of claim 4, further comprising providing a pre-recorded message to the respondent. ステップDにおいて、前記発話応答が保留要求であると、前記スピーチ認識分析が判定した場合、次のステップが、待機状態に入って、前記対象人物が前記電話呼出しに発話応答するのを待つことを含む、請求項1に記載の方法。In step D, if the speech recognition analysis determines that the utterance response is a hold request, the next step is to enter a standby state and wait for the target person to answer the telephone call. The method of claim 1, comprising: 前記対象人物が前記電話呼出しに発話応答を提供した際に、前記対象人物について、スピーチ認識アプリケーションを開始することをさらに含む、請求項6に記載の方法。7. The method of claim 6, further comprising initiating a speech recognition application for the subject when the subject provides an utterance response to the telephone call. 前記発話応答が呼出しシステムを担当するエンティティの識別に対する要求であると、前記スピーチ認識分析が判定した場合、呼出し当事者の識別を示す事前記録応答を開始して、対象人物を尋ねる前記事前記録挨拶を繰り返して、ステップCからステップEを反復することをさらに含む、請求項1に記載の方法。If the speech recognition analysis determines that the utterance response is a request for the identity of an entity responsible for a calling system, a pre-recorded response indicating the identity of the calling party is initiated and the pre-recorded greeting asking for a target person. 2. The method of claim 1, further comprising: repeating steps C through E. ステップDにおいて、前記電話番号が対象人物の正しい番号ではないことを前記発話応答が示すと、前記スピーチ認識分析が判定した場合、事前記録謝罪メッセージを開始して、前記電話呼出しを終了することをさらに含む、請求項1に記載の方法。In step D, when the speech response indicates that the telephone number is not the correct number of the target person, if the speech recognition analysis determines, a prerecorded apology message is started and the telephone call is terminated. The method of claim 1, further comprising: ステップDにおいて、前記スピーチ認識分析が、前記発話応答の状況を決定できない場合、対象人物を尋ねる前記事前記録挨拶を繰り返して、ステップCからステップEを反復することをさらに含む、請求項1に記載の方法。The method of claim 1, wherein in step D, if the speech recognition analysis cannot determine the status of the utterance response, the method further comprises repeating the prerecorded greeting asking for a target person and repeating steps C through E. The described method. 発信電話呼出し中に応答電話の状況を決定するためのシステムであって、
対象人物が記載された電話番号を有する場所に電話呼出しをするための自動電話呼出し装置と、
前記電話呼出しが応答された際に、対象人物を尋ねる事前記録挨拶を開始して、応答人物から発話応答を受信し、前記発話応答についてスピーチ認識分析を実施して、前記発話応答の状況を決定するスピーチ認識装置とを含み、
前記応答人物が前記対象人物であると、前記スピーチ認識装置が判定した場合、前記スピーチ認識装置が、前記対象人物について、スピーチ認識アプリケーションを開始するシステム。
A system for determining the status of an answering phone during an outgoing phone call, comprising:
An automatic telephone calling device for making a telephone call to a place where the target person has the listed telephone number;
When the telephone call is answered, start a prerecorded greeting asking for the target person, receive an utterance response from the responding person, perform a speech recognition analysis on the utterance response, and determine the status of the utterance response Speech recognition device
When the speech recognition device determines that the responding person is the target person, the speech recognition device starts a speech recognition application for the target person.
前記応答人物が前記対象人物ではないことを前記発話応答が示すと、前記スピーチ認識装置が判定した場合、前記スピーチ認識システムが、前記自動電話呼出し装置に、前記対象人物を尋ねる事前記録問合せを開始するように命令する、請求項11に記載のシステム。If the speech response device indicates that the responding person is not the target person, and the speech recognition device determines, the speech recognition system starts a pre-recording inquiry asking the automatic telephone calling device for the target person. 12. The system of claim 11, wherein the system is instructed to: 前記対象人物が前記電話呼出しに応答した際に、前記スピーチ認識システムが、前記対象人物について、スピーチ認識アプリケーションを開始する、請求項12に記載のシステム。13. The system of claim 12, wherein when the subject answers the telephone call, the speech recognition system initiates a speech recognition application for the subject. 前記対象人物が前記場所にいないことを前記発話応答が示すと、前記スピーチ認識装置が判定した場合、前記スピーチ認識システムが、前記自動電話呼出し装置に、対象人物にメッセージを残すことを要求する事前記録問合せを開始するように命令する、請求項11に記載のシステム。If the speech recognition device determines that the utterance response indicates that the target person is not at the location, the speech recognition system will prompt the automatic telephone calling device to request the target person to leave a message. The system of claim 11, wherein the system instructs to initiate a record query. 前記自動電話呼出し装置が、前記応答人物に事前記録メッセージを提供する、請求項14に記載のシステム。15. The system of claim 14, wherein the automated telephone calling device provides a pre-recorded message to the respondent. 前記発話応答が保留要求であると、前記スピーチ認識装置が判定した場合、前記スピーチ認識が、待機状態に入って、前記対象人物が、前記電話呼出しに発話応答を提供するのを待機する、請求項11に記載のシステム。If the speech recognition device determines that the speech response is a hold request, the speech recognition enters a standby state and waits for the target person to provide a speech response to the telephone call. Item 12. The system according to Item 11. 前記対象人物が前記電話呼出しに発話応答を提供したと、前記スピーチ認識装置が判定した場合、前記スピーチ認識装置が、前記対象人物について、スピーチ認識アプリケーションを開始する、請求項16に記載のシステム。17. The system of claim 16, wherein if the speech recognizer determines that the target person provided an utterance response to the telephone call, the speech recognizer initiates a speech recognition application for the target person. 前記発話応答が自動呼出し装置を担当するエンティティの識別に対する要求であると、前記スピーチ認識装置が判定した場合、スピーチ認識システムが、前記自動電話呼出し装置に、エンティティの識別を示す事前記録応答を開始して、対象人物を尋ねる前記事前記録挨拶を繰り返すように命令し、
応答人物から発話応答を受信した際に、前記スピーチ認識装置が、前記発話応答について、スピーチ認識分析を実施して、前記発話応答の状況を決定する、請求項11に記載のシステム。
If the speech recognizer determines that the speech response is a request for the identity of the entity responsible for the automatic calling device, the speech recognition system initiates a pre-recorded response indicating the identity of the entity to the automatic telephone calling device. Commanding to repeat the prerecorded greeting asking for the subject person,
The system of claim 11, wherein upon receiving a speech response from a respondent, the speech recognition device performs a speech recognition analysis on the speech response to determine a status of the speech response.
前記電話番号が対象人物の正しい番号ではないことを前記発話応答が示すと、前記スピーチ認識装置が判定した場合、前記スピーチ認識システムが、前記自動電話呼出し装置に、事前記録謝罪メッセージを開始して、前記電話呼出しを終了するように命令する、請求項11に記載の方法。When the speech response indicates that the telephone number is not the correct number of the target person, if the speech recognition device determines, the speech recognition system, in the automatic telephone calling device, starts a pre-recorded apology message. 12. The method of claim 11, wherein the command is to terminate the telephone call. 前記スピーチ認識装置が前記発話応答の状況を決定することができない場合、前記スピーチ認識システムが、前記自動電話呼出し装置に、対象人物を尋ねる前記事前記録挨拶を繰り返すように命令し、
応答人物から発話応答を受信した際に、前記スピーチ認識装置が、前記発話応答について、スピーチ認識分析を実施して、前記発話応答の状況を決定する、請求項11に記載の方法。
If the speech recognizer cannot determine the status of the utterance response, the speech recognizer instructs the automatic telephone calling device to repeat the pre-recorded greeting asking for a target person;
The method of claim 11, wherein upon receiving an utterance response from a respondent, the speech recognizer performs a speech recognition analysis on the utterance response to determine a status of the utterance response.
発信電話呼出し中に応答電話の状況を決定する方法であって、
A.自動呼出しシステムで、対象人物が記載された電話番号を有する場所に電話呼出しをすること、
B.前記電話呼出しが応答された際に、対象人物を尋ねる事前記録挨拶を開始すること、
C.応答人物から発話応答を受信すること、
D.前記発話応答について、スピーチ認識分析を実施して、前記発話応答の状況を決定すること、および、
E.前記スピーチ認識分析に基づいて、
a.前記応答人物が前記対象人物であると、前記スピーチ認識分析が判定した場合、前記対象人物について、スピーチ認識アプリケーションを開始する応答と、
b.前記応答人物が前記対象人物ではないことを前記発話応答が示すと、前記スピーチ認識分析が判定した場合、前記対象人物を尋ねる事前記録問合せを開始して、前記対象人物が前記電話呼出しに応答した際に、前記方法が、前記対象人物について、スピーチ認識アプリケーションを開始することをさらに含む応答と、
c.前記対象人物が、前記場所にいないことを前記発話応答が示すと、前記スピーチ認識分析が判定した場合、前記対象人物にメッセージを残すことを要求する事前記録問合せを開始する応答と、
d.前記発話応答が保留要求であると、前記スピーチ認識分析が判定した場合、待機状態に入って、前記対象人物が、前記電話呼出しに発話応答を提供するのを待ち、前記対象人物が、前記電話呼出しに発話応答を提供した際に、前記方法が、前記対象人物について、スピーチ認識アプリケーションを開始することをさらに含む応答と、
e.前記発話応答が、呼出しシステムを担当するエンティティの識別に対する要求であると、前記スピーチ認識分析が判定した場合、呼出し当事者の識別を示す事前記録応答を開始し、対象人物を尋ねる前記事前記録挨拶を繰り返して、ステップCからステップEを反復する応答と、
f.前記電話番号が、対象人物の正確な番号ではないことを前記発話応答が示すと、前記スピーチ認識分析が判定した場合、事前記録謝罪メッセージを開始して、前記電話呼出しを終了する応答、および、
g.前記スピーチ認識分析が、前記発話応答の状況を決定することができない場合、対象人物を尋ねる前記事前記録挨拶を繰り返して、ステップCからステップEを反復する応答の少なくとも1つを提供することを含む方法。
A method for determining the status of an answering phone during an outgoing phone call, comprising:
A. Making a telephone call to the place where the target person has the listed telephone number in the automatic calling system;
B. Initiating a prerecorded greeting asking for a target person when the telephone call is answered;
C. Receiving an utterance response from the responding person;
D. Performing a speech recognition analysis on the speech response to determine a status of the speech response; and
E. FIG. Based on the speech recognition analysis,
a. If the responding person is the target person, and the speech recognition analysis determines that, for the target person, a response to start a speech recognition application,
b. When the speech response indicates that the responding person is not the target person, if the speech recognition analysis determines, a pre-recorded inquiry asking the target person was initiated, and the target person answered the telephone call Wherein the method further comprises: starting a speech recognition application for the target person;
c. When the speech response indicates that the target person is not at the location, and when the speech recognition analysis determines, a response to start a prerecorded inquiry requesting that the target person leave a message,
d. If the speech recognition analysis determines that the speech response is a hold request, the speech recognition analysis determines that the process enters a standby state and waits for the target person to provide a speech response to the telephone call. Upon providing a speech response to the call, the method further comprising: initiating a speech recognition application for the subject.
e. If the speech recognition analysis determines that the speech response is a request for the identity of the entity responsible for the calling system, initiates a pre-recorded response indicating the identity of the calling party and the pre-recorded greeting asking for the target person. And a response that repeats Step C through Step E;
f. If the speech response indicates that the telephone number is not the correct number of the target person, the speech recognition analysis determines if the speech recognition analysis determines that a pre-recorded apology message is to be initiated and the response to terminate the telephone call, and
g. If the speech recognition analysis cannot determine the status of the utterance response, repeat the prerecorded greeting asking for the subject person to provide at least one of the responses repeating steps C through E. Including methods.
応答機械を検出する方法であって、
A.自動呼出しシステムで、対象人物が記載された電話番号を有する場所に電話呼出しをすること、
B.前記電話呼出しが応答された際に、所定の時間の間、発話応答を待機すること、
C.前記発話応答を受信した際に、前記対象人物を尋ねる事前記録挨拶プロンプトを再生すること、
D.前記事前記録挨拶プロンプトの再生中に、所定の時間パラメータを超えて、他の発話応答を検出することを試行すること、
E.前記事前記録挨拶プロンプトの再生中に、前記他の発話応答が検出されなかった場合、問合せアプリケーションを開始すること、
F.前記事前記録挨拶プロンプトの再生中に、前記他の発話応答を検出した際に、前記事前記録プロンプトの再生を終了すること、および、
G.応答機械が検出されたことを示すことを含む方法。
A method for detecting a responding machine, comprising:
A. Making a telephone call to the place where the target person has the listed telephone number in the automatic calling system;
B. Waiting for a speech response for a predetermined time when the telephone call is answered;
C. Upon receiving the utterance response, playing a pre-recorded greeting prompt asking for the target person,
D. Attempting to detect other utterance responses beyond a predetermined time parameter during playback of the pre-recorded greeting prompt;
E. FIG. During playback of the pre-recorded greeting prompt, if the other utterance response is not detected, starting an inquiry application;
F. During the reproduction of the prerecorded greeting prompt, upon detecting the other utterance response, ending the reproduction of the prerecorded prompt, and
G. FIG. A method comprising indicating that a responding machine has been detected.
前記事前記録挨拶プロンプトの再生中に、ビープ・トーンの検出を試行し、ビープ・トーンが検出された際に、事前記録挨拶プロンプトを中断して、事前記録応答機械メッセージ・プロンプトを再生するステップをさらに含む、請求項22に記載の方法。Attempting to detect a beep tone during playback of the prerecorded greeting prompt, and interrupting the prerecorded greeting prompt and playing a prerecorded response machine message prompt when a beep tone is detected. 23. The method of claim 22, further comprising: 前記事前記録応答機械メッセージ・プロンプトの再生中に、ビープ・トーンの検出を試行し、ビープ・トーンが検出された際に、前記事前記録応答機械メッセージ・プロンプトを中断して、前記事前記録プロンプトを再度再生することをさらに含む、請求項23に記載の方法。Attempting to detect a beep tone during playback of the prerecorded response machine message prompt, and interrupting the prerecorded response machine message prompt when a beep tone is detected, 24. The method of claim 23, further comprising playing the recording prompt again.
JP2002524138A 2000-09-01 2001-08-31 Speech recognition method and system for determining the status of outgoing telephone calls Expired - Lifetime JP4167057B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US22977400P 2000-09-01 2000-09-01
PCT/US2001/027061 WO2002019317A1 (en) 2000-09-01 2001-08-31 Sppech recognition method and system to determine the status of an outbound telephone call

Publications (3)

Publication Number Publication Date
JP2004508748A true JP2004508748A (en) 2004-03-18
JP2004508748A5 JP2004508748A5 (en) 2006-11-30
JP4167057B2 JP4167057B2 (en) 2008-10-15

Family

ID=22862613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002524138A Expired - Lifetime JP4167057B2 (en) 2000-09-01 2001-08-31 Speech recognition method and system for determining the status of outgoing telephone calls

Country Status (6)

Country Link
US (5) US6990179B2 (en)
EP (1) EP1328926A4 (en)
JP (1) JP4167057B2 (en)
AU (1) AU2001286937A1 (en)
CA (1) CA2420679C (en)
WO (1) WO2002019317A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010124509A (en) * 2005-06-22 2010-06-03 Nec Corp Method and apparatus for blocking switch connection of crank call
US20180227418A1 (en) 2016-06-13 2018-08-09 Google Llc Automated call requests with status updates
US10827064B2 (en) 2016-06-13 2020-11-03 Google Llc Automated call requests with status updates
US11303749B1 (en) 2020-10-06 2022-04-12 Google Llc Automatic navigation of an interactive voice response (IVR) tree on behalf of human user(s)
US11468893B2 (en) 2019-05-06 2022-10-11 Google Llc Automated calling system
US12080285B2 (en) 2020-03-20 2024-09-03 Google Llc Semi-delegated calling by an automated assistant on behalf of human participant
US12225158B2 (en) 2022-12-15 2025-02-11 Google Llc System(s) and method(s) for implementing a personalized chatbot

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7263484B1 (en) 2000-03-04 2007-08-28 Georgia Tech Research Corporation Phonetic searching
US20040170258A1 (en) * 2001-09-26 2004-09-02 Mitch Levin Predictive dialing system and method
US20030086541A1 (en) * 2001-10-23 2003-05-08 Brown Michael Kenneth Call classifier using automatic speech recognition to separately process speech and tones
US20030083875A1 (en) * 2001-10-23 2003-05-01 Brown Micheal Kenneth Unified call classifier for processing speech and tones as a single information stream
AU2003302422A1 (en) * 2002-05-03 2004-06-18 University Of Southern California Artificial neural systems with dynamic synapses
US8055503B2 (en) 2002-10-18 2011-11-08 Siemens Enterprise Communications, Inc. Methods and apparatus for audio data analysis and data mining using speech recognition
US7133828B2 (en) * 2002-10-18 2006-11-07 Ser Solutions, Inc. Methods and apparatus for audio data analysis and data mining using speech recognition
US7076427B2 (en) * 2002-10-18 2006-07-11 Ser Solutions, Inc. Methods and apparatus for audio data monitoring and evaluation using speech recognition
US7386101B2 (en) * 2003-04-08 2008-06-10 Intervoice Limited Partnership System and method for call answer determination for automated calling systems
EP1656662B1 (en) 2003-08-22 2016-06-01 Unify Inc. System for and method of automated quality monitoring
US8189762B2 (en) * 2003-10-30 2012-05-29 Hewlett-Packard Development Company, L.P. System and method for interactive voice response enhanced out-calling
US7756255B1 (en) * 2004-05-25 2010-07-13 Sprint Spectrum L.P. Method and system for delivering a voice message from a telephone to a group of recipients
US20060159239A1 (en) * 2005-01-14 2006-07-20 Hughes Robert E Jr Telephone call center distribution system and method
US8054951B1 (en) 2005-04-29 2011-11-08 Ignite Media Solutions, Llc Method for order taking using interactive virtual human agents
US8150023B2 (en) * 2005-10-07 2012-04-03 Virtual Hold Technology, Llc Automated system and method for distinguishing audio signals received in response to placing and outbound call
US7599861B2 (en) 2006-03-02 2009-10-06 Convergys Customer Management Group, Inc. System and method for closed loop decisionmaking in an automated care system
US7809663B1 (en) 2006-05-22 2010-10-05 Convergys Cmg Utah, Inc. System and method for supporting the utilization of machine language
US8379830B1 (en) 2006-05-22 2013-02-19 Convergys Customer Management Delaware Llc System and method for automated customer service with contingent live interaction
US8065146B2 (en) * 2006-07-12 2011-11-22 Microsoft Corporation Detecting an answering machine using speech recognition
WO2008092085A2 (en) 2007-01-25 2008-07-31 Eliza Corporation Systems and techniques for producing spoken voice prompts
JP2010517450A (en) * 2007-01-30 2010-05-20 エリザ・コーポレーション System and method for generating a build call
US8243889B2 (en) 2007-08-23 2012-08-14 Voxeo Corporation System and method for dynamic call-progress analysis and call processing
EP2225870A4 (en) * 2007-12-14 2011-08-17 Promptu Systems Corp Automatic service vehicle hailing and dispatch system and method
US9462126B2 (en) * 2008-02-26 2016-10-04 International Business Machines Corporation Tracking individuals using voice verification
US20090245487A1 (en) * 2008-03-30 2009-10-01 William Jockusch Device for Alerting a Telephone Caller When a Live Person is Reached
US8370148B2 (en) 2008-04-14 2013-02-05 At&T Intellectual Property I, L.P. System and method for answering a communication notification
TWI521936B (en) * 2008-04-25 2016-02-11 台達電子工業股份有限公司 Outbound dialogue system and dialogue operation method
US8953754B1 (en) * 2009-04-24 2015-02-10 Wells Fargo Bank, N.A. Pre-authentication system and method for outgoing communication
WO2012122568A1 (en) 2011-03-10 2012-09-13 Ahmed Tewfik Bouzid Answering machine detection
EP2575064A1 (en) * 2011-09-30 2013-04-03 General Electric Company Telecare and/or telehealth communication method and system
US8515029B2 (en) 2011-11-02 2013-08-20 At&T Intellectual Property I, L.P. System and method for visual voice mail in an LTE environment
US8489075B2 (en) 2011-11-16 2013-07-16 At&T Intellectual Property I, L.P. System and method for augmenting features of visual voice mail
US9042527B2 (en) 2011-10-17 2015-05-26 At&T Intellectual Property I, L.P. Visual voice mail delivery mechanisms
US9282185B2 (en) * 2011-10-17 2016-03-08 At&T Intellectual Property I, L.P. System and method for callee-caller specific greetings for voice mail
US9025739B2 (en) 2011-10-20 2015-05-05 At&T Intellectual Property I, L.P. System and method for visual voice mail in a multi-screen environment
WO2014036359A2 (en) 2012-08-30 2014-03-06 Interactive Intelligence, Inc. Method and system for learning call analysis
GB2513924A (en) * 2013-05-10 2014-11-12 Noetica Ltd Live person detection in an automated calling system
US9191511B1 (en) * 2015-06-04 2015-11-17 Noble Systems Corporation Agent override of a call answering outcome determination of an outbound call in a contact center
US9838538B1 (en) 2016-09-21 2017-12-05 Noble Systems Corporation Using real-time speech analytics to navigate a call that has reached a machine or service
US9774736B1 (en) 2016-09-21 2017-09-26 Noble Systems Corporation Augmenting call progress analysis with real-time speech analytics
US10277745B1 (en) 2017-05-30 2019-04-30 Noble Systems Corporation Answering machine detection for a contact center
US10148818B1 (en) 2017-03-15 2018-12-04 Noble Systems Corporation Using enhanced answering machine detection (“AMD”) to detect reassigned numbers
US10530928B1 (en) * 2017-03-15 2020-01-07 Noble Systems Corporation Answering machine detection (“AMD”) for a contact center by using AMD meta-data
US10834365B2 (en) 2018-02-08 2020-11-10 Nortek Security & Control Llc Audio-visual monitoring using a virtual assistant
US11295139B2 (en) 2018-02-19 2022-04-05 Intellivision Technologies Corp. Human presence detection in edge devices
US11615623B2 (en) 2018-02-19 2023-03-28 Nortek Security & Control Llc Object detection in edge devices for barrier operation and parcel delivery
US10978050B2 (en) 2018-02-20 2021-04-13 Intellivision Technologies Corp. Audio type detection
US11113672B2 (en) * 2018-03-22 2021-09-07 Microsoft Technology Licensing, Llc Computer support for meetings
US11528589B2 (en) * 2018-10-26 2022-12-13 Motorola Solutions, Inc. Device, system and method for modifying actions associated with an emergency call
US10887459B1 (en) * 2019-07-17 2021-01-05 Motorola Mobility Llc Identifying a live person on a phone call
US11158321B2 (en) 2019-09-24 2021-10-26 Google Llc Automated calling system
CN111508527B (en) * 2020-04-17 2021-03-12 北京帝派智能科技有限公司 Telephone answering state detection method, device and server
US11146686B1 (en) * 2020-06-09 2021-10-12 Capital One Services, Llc Systems for identifying the answering party of an automated voice call

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58131856A (en) 1982-02-01 1983-08-05 Nippon Telegr & Teleph Corp <Ntt> Voice response recognition service system
US4761807A (en) * 1982-09-29 1988-08-02 Vmx, Inc. Electronic audio communications system with voice authentication features
JPS59171963A (en) 1983-03-18 1984-09-28 Fuji Photo Film Co Ltd Electrophotographic plate making material
US4667065A (en) * 1985-02-28 1987-05-19 Bangerter Richard M Apparatus and methods for electrical signal discrimination
JPS63253758A (en) 1987-04-10 1988-10-20 Nec Corp Extension individual call system in telephone system
US4941168A (en) * 1988-09-21 1990-07-10 U.S. Telecom International Inc. System for the recognition of automated telephone answering devices and delivery of prerecorded messages to such devices
JPH02119371A (en) 1988-10-27 1990-05-07 Nec Corp Automatic dialing system for communication terminal equipment
CA2015410C (en) * 1989-05-17 1996-04-02 Chin H. Lee Speech recognition employing key word modeling and non-key word modeling
CA2022265C (en) * 1989-09-20 1994-10-04 Percy B. Brown Call message delivery system and method utilizing caller-selected system annoucements
US5127043A (en) * 1990-05-15 1992-06-30 Vcs Industries, Inc. Simultaneous speaker-independent voice recognition and verification over a telephone network
WO1992008309A1 (en) 1990-11-02 1992-05-14 Anthony Ben Dibianca Telephone calling apparatus and method
US5430792A (en) * 1991-05-03 1995-07-04 Electronic Information Systems, Inc. Automated telephone calling system
US5309505A (en) * 1991-05-20 1994-05-03 Inventions, Inc. Automated voice system for improving agent efficiency and improving service to parties on hold
US5581602A (en) * 1992-06-19 1996-12-03 Inventions, Inc. Non-offensive termination of a call detection of an answering machine
US5475748A (en) * 1992-09-18 1995-12-12 Boston Technology, Inc. Automatic telephone system with function for multiple out-dialed calls per caller
US5404400A (en) * 1993-03-01 1995-04-04 Dialogic Corporation Outcalling apparatus
US5488652A (en) 1994-04-14 1996-01-30 Northern Telecom Limited Method and apparatus for training speech recognition algorithms for directory assistance applications
US5644624A (en) * 1994-05-23 1997-07-01 Caldwell Communications Development, Inc. Automatic telephone call origination and retry system and method of operation
US6567504B1 (en) * 1994-06-20 2003-05-20 Sigma Communications, Inc. Automated calling system with database updating
US5652789A (en) * 1994-09-30 1997-07-29 Wildfire Communications, Inc. Network based knowledgeable assistant
US5594791A (en) * 1994-10-05 1997-01-14 Inventions, Inc. Method and apparatus for providing result-oriented customer service
US5638424A (en) * 1994-11-30 1997-06-10 Texas Instruments Incorporated Telephone voice mail delivery system
CA2220945C (en) * 1995-05-18 2000-10-24 Northern Telecom Limited Telephony based delivery system of messages containing selected greetings
US5802160A (en) * 1996-01-19 1998-09-01 Pilgrim Telephone, Inc. Multi-ring telephone method and system
US5719921A (en) * 1996-02-29 1998-02-17 Nynex Science & Technology Methods and apparatus for activating telephone services in response to speech
US5797124A (en) * 1996-05-30 1998-08-18 Intervoice Limited Partnership Voice-controlled voice mail having random-order message retrieval based on played spoken identifier list
US7006605B1 (en) * 1996-06-28 2006-02-28 Ochopee Big Cypress Llc Authenticating a caller before providing the caller with access to one or more secured resources
US5809113A (en) * 1996-07-12 1998-09-15 At&T Corp Enhanced, deferred messaging service
US5953393A (en) * 1996-07-15 1999-09-14 At&T Corp. Personal telephone agent
JPH1063293A (en) * 1996-08-23 1998-03-06 Kokusai Denshin Denwa Co Ltd <Kdd> Telephone voice recognition device
US5915001A (en) * 1996-11-14 1999-06-22 Vois Corporation System and method for providing and using universally accessible voice and speech data files
JP2991144B2 (en) * 1997-01-29 1999-12-20 日本電気株式会社 Speaker recognition device
US6167119A (en) * 1997-03-28 2000-12-26 Bell Atlantic Network Services, Inc. Providing enhanced services through SIV and personal dial tone
US5978450A (en) 1997-03-28 1999-11-02 Bell Atlantic Network Services, Inc. Personal dial tone
US6101242A (en) 1997-03-28 2000-08-08 Bell Atlantic Network Services, Inc. Monitoring for key words with SIV to validate home incarceration
US6038305A (en) 1997-03-28 2000-03-14 Bell Atlantic Network Services, Inc. Personal dial tone service with personalized caller ID
SE9701810D0 (en) 1997-05-14 1997-05-14 Ericsson Telefon Ab L M Method and device for automatic interaction
US6611681B2 (en) * 1997-09-26 2003-08-26 Daniel A. Henderson Method and apparatus for an improved call interrupt feature in a cordless telephone answering device
US6178230B1 (en) * 1997-11-13 2001-01-23 Advanced Micro Devices, Inc. System and method for identifying a callee of an incoming telephone call
US6075844A (en) * 1997-11-18 2000-06-13 At&T Corp. Messaging system with remote messaging recording device where the message is routed based on the spoken name of the recipient
DE19901137A1 (en) 1999-01-14 2000-07-20 Alcatel Sa Automatic consumer's dialling and selection system for telemarketing for customer contacting and service and information deals
US7260187B1 (en) * 1999-05-11 2007-08-21 Verizon Services Corp. Voice response apparatus and method of providing automated voice responses with silent prompting
US6404746B1 (en) * 1999-07-13 2002-06-11 Intervoice Limited Partnership System and method for packet network media redirection
US6836537B1 (en) * 1999-09-13 2004-12-28 Microstrategy Incorporated System and method for real-time, personalized, dynamic, interactive voice services for information related to existing travel schedule
US20020112007A1 (en) * 1999-11-03 2002-08-15 Christopher (Noah) Wood Personal message management system
US6633846B1 (en) * 1999-11-12 2003-10-14 Phoenix Solutions, Inc. Distributed realtime speech recognition system
US20010047261A1 (en) * 2000-01-24 2001-11-29 Peter Kassan Partially automated interactive dialog
US6678359B1 (en) * 2000-04-06 2004-01-13 Ag Communication Systems Corporation Called party identification in packet switched networks
US6584316B1 (en) * 2000-05-05 2003-06-24 Lucent Technologies Inc. Handoff of phone calls from wireless to wireline network
US8938256B2 (en) * 2000-08-29 2015-01-20 Intel Corporation Communication and control system using location aware devices for producing notification messages operating under rule-based control

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010124509A (en) * 2005-06-22 2010-06-03 Nec Corp Method and apparatus for blocking switch connection of crank call
US10917522B2 (en) 2016-06-13 2021-02-09 Google Llc Automated call requests with status updates
JP2019522914A (en) * 2016-06-13 2019-08-15 グーグル エルエルシー Escalation to human operators
US20190306314A1 (en) 2016-06-13 2019-10-03 Google Llc Automated call requests with status updates
US10560575B2 (en) 2016-06-13 2020-02-11 Google Llc Escalation to a human operator
US10574816B2 (en) 2016-06-13 2020-02-25 Google Llc Automated call requests with status updates
US10582052B2 (en) 2016-06-13 2020-03-03 Google Llc Automated call requests with status updates
US10721356B2 (en) 2016-06-13 2020-07-21 Google Llc Dynamic initiation of automated call
US10827064B2 (en) 2016-06-13 2020-11-03 Google Llc Automated call requests with status updates
US20180227418A1 (en) 2016-06-13 2018-08-09 Google Llc Automated call requests with status updates
US10893141B2 (en) 2016-06-13 2021-01-12 Google Llc Automated call requests with status updates
US11936810B2 (en) 2016-06-13 2024-03-19 Google Llc Automated call requests with status updates
US11563850B2 (en) 2016-06-13 2023-01-24 Google Llc Automated call requests with status updates
US11012560B2 (en) 2016-06-13 2021-05-18 Google Llc Automated call requests with status updates
US11468893B2 (en) 2019-05-06 2022-10-11 Google Llc Automated calling system
US12112755B2 (en) 2019-05-06 2024-10-08 Google Llc Automated calling system
US12080285B2 (en) 2020-03-20 2024-09-03 Google Llc Semi-delegated calling by an automated assistant on behalf of human participant
US11303749B1 (en) 2020-10-06 2022-04-12 Google Llc Automatic navigation of an interactive voice response (IVR) tree on behalf of human user(s)
US11843718B2 (en) 2020-10-06 2023-12-12 Google Llc Automatic navigation of an interactive voice response (IVR) tree on behalf of human user(s)
US20220201119A1 (en) 2020-10-06 2022-06-23 Google Llc Automatic navigation of an interactive voice response (ivr) tree on behalf of human user(s)
US12225158B2 (en) 2022-12-15 2025-02-11 Google Llc System(s) and method(s) for implementing a personalized chatbot

Also Published As

Publication number Publication date
US6990179B2 (en) 2006-01-24
US20160248910A1 (en) 2016-08-25
US20020051522A1 (en) 2002-05-02
US8363792B2 (en) 2013-01-29
EP1328926A4 (en) 2004-09-29
US20060056600A1 (en) 2006-03-16
US9313312B2 (en) 2016-04-12
US20130108031A1 (en) 2013-05-02
CA2420679C (en) 2010-11-09
WO2002019317A1 (en) 2002-03-07
JP4167057B2 (en) 2008-10-15
US10320982B2 (en) 2019-06-11
CA2420679A1 (en) 2002-03-07
AU2001286937A1 (en) 2002-03-13
US9848083B2 (en) 2017-12-19
EP1328926A1 (en) 2003-07-23
US20180077285A1 (en) 2018-03-15

Similar Documents

Publication Publication Date Title
JP4167057B2 (en) Speech recognition method and system for determining the status of outgoing telephone calls
US10522144B2 (en) Method of and system for providing adaptive respondent training in a speech recognition application
US10127928B2 (en) Multi-party conversation analyzer and logger
US9270817B2 (en) Method for determining the on-hold status in a call
US10536582B2 (en) Systems and methods for producing build calls
US20060265089A1 (en) Method and software for analyzing voice data of a telephonic communication and generating a retention strategy therefrom
CA2600523A1 (en) Systems and methods for analyzing communication sessions
CN104601832A (en) Dialogue system and voice dialogue processing method
JP2021078012A (en) Answering machine determination device, method and program
CA2712853C (en) Speech recognition method and system to determine the status of an outbound telephone call
CN114724569A (en) Customer service voice optimization method, device and electronic device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061013

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070829

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20071129

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080709

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080731

R150 Certificate of patent or registration of utility model

Ref document number: 4167057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term