JP2023001577A - Avatar providing device, avatar providing method, and program - Google Patents
Avatar providing device, avatar providing method, and program Download PDFInfo
- Publication number
- JP2023001577A JP2023001577A JP2021102386A JP2021102386A JP2023001577A JP 2023001577 A JP2023001577 A JP 2023001577A JP 2021102386 A JP2021102386 A JP 2021102386A JP 2021102386 A JP2021102386 A JP 2021102386A JP 2023001577 A JP2023001577 A JP 2023001577A
- Authority
- JP
- Japan
- Prior art keywords
- avatar
- information
- dialogue
- automatic processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】適切な対話および自動処理の少なくとも一方を実現可能なアバターを提供するアバター提供装置を実現する。
【解決手段】対話機能、および自動処理機能の少なくとも一方の機能を有する2以上のアバターであって、対話機能と対話に関する学習機能との組、および自動処理機能と自動処理の追加機能との組の少なくとも一方の組の機能を有する1以上のアバターを含む2以上のアバターをそれぞれ出力するための2以上のアバター情報が格納されるアバター格納部101と、2以上のアバターの一つを選択する選択指示を、端末装置2から受信する指示受信部111と、選択指示に対応するアバターのアバター情報をアバター格納部101から取得するアバター取得部113と、アバター取得部113が取得したアバター情報を端末装置2に送信するアバター送信部114と、を備えた。
【選択図】図1
An avatar providing device that provides an avatar capable of realizing at least one of appropriate interaction and automatic processing is realized.
The present invention includes two or more avatars having at least one of a dialogue function and an automatic processing function, a set of the dialogue function and a learning function related to dialogue, and a set of the automatic processing function and an automatic processing additional function. an avatar storage unit 101 storing two or more avatar information for outputting two or more avatars including one or more avatars having at least one set of functions of; and selecting one of the two or more avatars An instruction receiving unit 111 receives a selection instruction from the terminal device 2; an avatar acquisition unit 113 acquires avatar information of an avatar corresponding to the selection instruction from the avatar storage unit 101; and an avatar transmission unit 114 that transmits to the device 2 .
[Selection drawing] Fig. 1
Description
本発明は、アバターを提供する装置等に関するものである。 The present invention relates to an apparatus for providing avatars, and the like.
従来の技術として、ユーザごとに割り当てた、複数のアバターを、ネットワーク上の会話画面に登場させ、ユーザから送信されてきたメッセージを、会話画面を通じて表示、出力させることによりユーザ同士で会話を行わせるようにしたネットワークチャットサービスが知られていた(例えば、特許文献1参照)。 As a conventional technique, a plurality of avatars assigned to each user are made to appear on a conversation screen on a network, and messages sent from users are displayed and output through the conversation screen to allow users to converse with each other. A network chat service that does this has been known (see, for example, Patent Document 1).
しかしながら、従来のユーザと対話を行う機能を有するアバターや、自動処理を行う機能を有するアバターにおいては、アバターが対話に利用する対話モデル等や、アバターが実行可能な自動処理が、予め決められているため、ユーザの要求等に合わせて、アバターが適切な対話や、自動処理を実現することが困難である、という課題があった。 However, in conventional avatars that have a function of interacting with a user or avatars that have a function of performing automatic processing, the dialogue model that the avatar uses for dialogue and the automatic processing that the avatar can execute are predetermined. Therefore, there is a problem that it is difficult for the avatar to realize appropriate dialogue and automatic processing in accordance with the user's request.
本発明は、上記のような課題を解消するためになされたものであり、適切な対話および自動処理の少なくとも一方を実現可能なアバターを提供できるアバター提供装置等を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the problems described above, and an object of the present invention is to provide an avatar providing apparatus and the like capable of providing an avatar capable of realizing at least one of appropriate dialogue and automatic processing.
本発明のアバター提供装置は、対話機能、および自動処理機能の少なくとも一方の機能を有する2以上のアバターであって、対話機能と対話に関する学習機能との組、および自動処理機能と自動処理の追加機能との組の少なくとも一方の組の機能を有する1以上のアバターを含む2以上のアバターをそれぞれ出力するための2以上のアバター情報が格納されるアバター格納部と、2以上のアバターの一つを選択する選択指示を、端末装置から受信する指示受信部と、選択指示に対応するアバターのアバター情報をアバター格納部から取得するアバター取得部と、アバター取得部が取得したアバター情報を端末装置に送信するアバター送信部とを備えたアバター提供装置である。 The avatar providing device of the present invention is two or more avatars having at least one function of a dialogue function and an automatic processing function, the combination of the dialogue function and the learning function related to the dialogue, and the addition of the automatic processing function and the automatic processing. an avatar storage unit storing two or more pieces of avatar information for outputting two or more avatars each including one or more avatars having at least one set of functions, and one of the two or more avatars an instruction receiving unit for receiving a selection instruction to select from a terminal device; an avatar acquisition unit for acquiring avatar information of an avatar corresponding to the selection instruction from an avatar storage unit; and an avatar transmitting unit for transmitting.
かかる構成により、適切な対話および自動処理の少なくとも一方を実現可能なアバターを提供することができる。 With such a configuration, it is possible to provide an avatar capable of realizing at least one of appropriate interaction and automatic processing.
また、本発明のアバター提供装置は、前記アバター提供装置において、アバター格納部には、対話機能と対話に関する学習機能とを有する1以上のアバターのアバター情報が格納され、学習機能を有する一のアバターについて予め決められた条件を満たした場合に、アバターの学習機能に応じて、対話に関する学習処理を行う学習処理部をさらに備えるようにしてもよい。 Further, in the avatar providing apparatus of the present invention, in the avatar providing apparatus, the avatar storage unit stores avatar information of one or more avatars having a dialogue function and a learning function related to dialogue, and one avatar having a learning function is stored in the avatar storage unit. may be further provided with a learning processing unit that performs learning processing related to the dialogue according to the learning function of the avatar when a predetermined condition for is satisfied.
かかる構成により、対話に関する学習を行うことで、適切な対話を実現可能なアバターを提供することができる。 With such a configuration, it is possible to provide an avatar capable of realizing appropriate dialogues by learning about dialogues.
また、本発明のアバター提供装置は、前記アバター提供装置において、学習処理部は、他のアバターが有する対話機能のための教師データまたは対話モデルの全部または一部を取得し、取得した教師データまたは対話モデルを用いて、対話に関する学習処理を行うようにしてもよい。 Further, in the avatar providing device of the present invention, in the avatar providing device, the learning processing unit acquires all or part of teacher data or interaction models for interaction functions possessed by other avatars, and acquires the acquired teacher data or A dialog model may be used to perform learning processing related to the dialog.
かかる構成により、対話に関する学習を適切に行うことができ、適切な対話を実現可能なアバターを提供することができる。 With such a configuration, it is possible to provide an avatar capable of appropriately learning about dialogue and realizing appropriate dialogue.
また、本発明のアバター提供装置は、前記アバター提供装置において、アバター格納部には、自動処理機能と自動処理の追加機能とを有する1以上のアバターのアバター情報が格納され、追加機能を有する一のアバターについて予め決められた条件を満たした場合に、アバターの追加機能に応じて、自動処理に関する追加処理を行う追加処理部をさらに備えるようにしてもよい。 Further, in the avatar providing device of the present invention, in the avatar providing device, the avatar storage unit stores avatar information of one or more avatars having an automatic processing function and an additional function for automatic processing, and one having the additional function. If the avatar satisfies a predetermined condition, it may further include an additional processing unit that performs additional processing related to automatic processing in accordance with the additional function of the avatar.
かかる構成により、アバターが適切な自動処理を実現できるようにすることができる。 Such a configuration enables the avatar to achieve appropriate automatic processing.
また、本発明のアバター提供装置は、前記アバター提供装置において、一のアバターに対する要求を端末装置から受信する入力情報受信部と、自動処理機能を用いて、要求に対応する自動処理を実行する要求処理部をさらに備え、予め決められた条件は、要求処理部が、要求に対応する自動処理を実行できないことである、ようにしてもよい。 Further, the avatar providing device of the present invention uses an input information receiving unit for receiving a request for one avatar from a terminal device, and an automatic processing function in the avatar providing device to perform automatic processing corresponding to the request. A processing unit may be further provided, and the predetermined condition may be that the request processing unit cannot perform automatic processing corresponding to the request.
かかる構成により、要求に対応する自動処理を実行できない場合に、アバターが実行する自動処理を追加することができる。 With such a configuration, it is possible to add an automatic process to be executed by the avatar when the automatic process corresponding to the request cannot be executed.
また、本発明のアバター提供装置は、前記アバター提供装置において、一のアバターとの対話のための対話入力情報を端末装置から受信する入力情報受信部と、対話機能を用いて、対話入力情報に応じた応答情報を取得する応答情報取得部と、応答情報を端末装置に送信する応答情報送信部と、応答情報に対する評価結果を取得する評価取得部とをさらに備え、予め決められた条件は、評価結果が評価条件を満たすほど低いことである、アバター提供装置としてもよい。 Further, in the avatar providing apparatus of the present invention, in the avatar providing apparatus, an input information receiving unit for receiving dialogue input information for dialogue with one avatar from a terminal device, and a dialogue function to receive the dialogue input information further comprising a response information acquisition unit that acquires response information in response, a response information transmission unit that transmits the response information to the terminal device, and an evaluation acquisition unit that acquires an evaluation result for the response information, wherein the predetermined condition is It may be an avatar providing device in which the evaluation result is low enough to satisfy the evaluation condition.
かかる構成により、対話入力情報に対して適切な応答情報を取得できない場合、対話に関する学習を行って、アバターが適切な対話を実現できるようにすることができる。 With such a configuration, it is possible for the avatar to implement appropriate dialogue by learning about the dialogue when appropriate response information cannot be obtained for the dialogue input information.
また、本発明のアバター提供装置は、前記アバター提供装置において、指示受信部は、端末装置に対応するユーザ識別子と対応付けられた選択指示を受信し、ユーザ識別子が、ユーザが利用するアバターと対応付けられて格納されるユーザ識別子格納部と、指示受信部が受信した選択指示に対応付けられたユーザ識別子を、選択指示に対応するアバターと対応付けてユーザ識別子格納部に蓄積する蓄積部と、選択指示に対応するアバターの利用に対して、選択指示に対応するユーザ識別子で識別されるユーザに課金処理を行う課金部と、をさらに備えたアバター提供装置としてもよい。 Further, in the avatar providing device of the present invention, the instruction receiving unit in the avatar providing device receives a selection instruction associated with a user identifier corresponding to the terminal device, and the user identifier corresponds to the avatar used by the user. a user identifier storage unit that stores the user identifier associated with the selection instruction received by the instruction receiving unit; The avatar providing apparatus may further include a charging unit that charges a user identified by the user identifier corresponding to the selection instruction for use of the avatar corresponding to the selection instruction.
かかる構成により、ユーザにアバターの利用について適切に課金することができる。 With such a configuration, it is possible to appropriately charge the user for the use of the avatar.
また、本発明のアバター提供装置は、前記アバター提供装置において、アバター格納部に格納されるアバター情報は、アバター情報により出力されるアバターに関する1以上の属性値と対応付けられており、課金部は、選択指示に対応するアバターと対応付けられた1以上の属性値に応じて、選択指示に対応付けられたユーザに対して、異なる金額の課金処理を行う、アバター提供装置としてもよい。 Further, in the avatar providing device of the present invention, in the avatar providing device, the avatar information stored in the avatar storage unit is associated with one or more attribute values related to the avatar output by the avatar information, and the charging unit Alternatively, the avatar providing apparatus may charge a user associated with the selection instruction with different amount of money according to one or more attribute values associated with the avatar corresponding to the selection instruction.
かかる構成により、ユーザが利用するアバターの属性値に応じて適切な金額の課金を行うことができる。 With this configuration, it is possible to charge an appropriate amount of money according to the attribute value of the avatar used by the user.
また、本発明のアバター提供装置は、前記アバター提供装置において、ユーザ識別子格納部には、さらに、アバターを一時的に利用するか否かを示す情報が、ユーザ識別子と対応付けられて格納されており、課金部は、アバターを一時的に利用するか否かを示す情報の値に応じて、ユーザに対して、異なる金額の課金処理を行う、アバター提供装置としてもよい。 Further, in the avatar providing apparatus of the present invention, in the avatar providing apparatus, the user identifier storage unit further stores information indicating whether or not the avatar is temporarily used in association with the user identifier. The billing unit may be an avatar providing device that bills the user for different amounts of money depending on the value of information indicating whether or not the avatar is to be used temporarily.
かかる構成により、一時利用である場合と、一時利用でない場合とで、適切な課金を行うことができる。 With this configuration, it is possible to perform appropriate billing for temporary use and non-temporary use.
また、本発明のアバター提供装置は、前記アバター提供装置において、選択指示は、1以上のユーザ属性値を有し、アバター取得部は、1以上のユーザ属性値を用いて、取得するアバターを決定し、アバター格納部からアバターのアバター情報を取得するようにしてもよい。 Further, in the avatar providing device of the present invention, the selection instruction has one or more user attribute values, and the avatar acquisition unit determines the avatar to be acquired using the one or more user attribute values. However, the avatar information of the avatar may be obtained from the avatar storage unit.
かかる構成により、ユーザに適したアバター情報を取得することができる。 With such a configuration, it is possible to acquire avatar information suitable for the user.
また、本発明のアバター提供装置は、前記アバター提供装置において、1以上のユーザ属性値とアバターを識別するアバター識別子とを有する2以上の教師データに対して、機械学習の学習処理を行うことにより取得された学習器が格納される学習器格納部をさらに具備し、アバター取得部は、選択指示が有する1以上のユーザ属性値と、学習器とを用いて、機械学習の予測処理を行い、アバター識別子を取得し、アバター識別子で識別されるアバターのアバター情報を、アバター格納部から取得するアバター提供装置としてもよい。 Further, the avatar providing device of the present invention performs machine learning learning processing on two or more teacher data having one or more user attribute values and avatar identifiers for identifying avatars in the avatar providing device. further comprising a learning device storage unit that stores the acquired learning device, the avatar acquisition unit performs machine learning prediction processing using one or more user attribute values included in the selection instruction and the learning device, The avatar provision device may acquire an avatar identifier and acquire avatar information of the avatar identified by the avatar identifier from the avatar storage unit.
かかる構成により、機械学習を利用して、ユーザに適したアバター情報を取得することができる。 With such a configuration, avatar information suitable for the user can be acquired using machine learning.
本発明によるアバター提供装置等によれば、適切な対話および自動処理の少なくとも一方を実現可能なアバターを提供することができる。 According to the avatar providing device and the like according to the present invention, it is possible to provide an avatar capable of realizing at least one of appropriate dialogue and automatic processing.
以下、アバター提供装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。 Hereinafter, embodiments of an avatar providing device and the like will be described with reference to the drawings. It should be noted that, since components denoted by the same reference numerals in the embodiments perform similar operations, repetitive description may be omitted.
(実施の形態)
図1は、本実施の形態におけるアバター利用システム1000のブロック図である。
(Embodiment)
FIG. 1 is a block diagram of an avatar utilization system 1000 according to this embodiment.
アバター利用システム1000は、アバター提供装置1と、1または2以上の端末装置2とを備える。アバター提供装置1と各端末装置2とは、有線や無線のネットワーク等を介して情報の送受信が可能となるよう接続される。ここでは、一例として、アバター利用システム1000が、3以上の端末装置2を有する場合を例に挙げて説明する。
The avatar utilization system 1000 includes an
アバター提供装置1は、アバター格納部101、ユーザ識別子格納部102、学習器格納部103、指示受信部111、蓄積部112、アバター取得部113、アバター送信部114、入力情報受信部115、要求処理部120、応答情報取得部121、応答情報送信部122、評価取得部123、学習処理部124、追加処理部125、および課金部126を備える。
The
端末装置2は、端末受信部201、端末出力部202、端末受付部203、および端末送信部204を備える。
The
アバター提供装置1は、例えば、例えば、ASPサーバや、クラウドサーバ等のサーバ装置である。アバター提供装置1は、例えば、コンピュータ等で実現可能である。
The
アバター格納部101には、2以上のアバター情報が格納される。各アバター情報は、アバターを出力するための情報である。アバター情報は、例えば、アバターをモニタ等に表示するために用いられる情報である。
The
アバターとは、コンピュータ等により表現される人の分身である。アバターは、例えば、人を示す仮想のオブジェクトである。アバターは、人を表すキャラクタ等と考えてもよい。ここでのアバターに対応する人は、例えば、端末装置2のユーザであってもよく、端末装置2のユーザのアシスタントや対話相手であってもよく、コンシェルジュや、端末装置2のユーザの顧客や、端末装置2のユーザに商品やサービスを提供する企業や法人等の事業者と考えてもよい。アバターの外観は、必ずしも人の姿である必要はなく、例えば、動物やロボット等の外観を有していてもよい。
An avatar is an alter ego of a person represented by a computer or the like. An avatar is, for example, a virtual object representing a person. An avatar may be considered as a character or the like representing a person. The person corresponding to the avatar here may be, for example, the user of the
アバター情報は、例えば、アバターの画像を有する。アバターの画像は、静止画像であってもよく、アニメーション画像等の動画像であってもよい。また、アバターの画像は2次元画像であってもよく、3次元画像であってもよい。アバター情報が有するアバターの画像は、異なるポーズの複数の静止画像であってもよい。また、アバター情報が有するアバターの画像は、アバターの異なる動きをそれぞれ示すアニメーション画像等の複数の動画像であってもよい。また、アバター情報は、レンダリング等を行うことにより、アバターの画像を出力可能なアバターの外形等を定義する3次元モデルのデータや、ベクトル画像データ等であってもよい。また、アバター情報は、3次元モデルのデータと、3次元モデルの1または2以上の動きを指定する1または2以上の情報とを有していてもよい。また、アバター情報は、さらに、通常の3次元モデルをレンダリングする際に利用されるテクスチャー情報や色等を指定する情報等を有していてもよい。また、アバターの画像は、例えば、モデル情報を有する。モデル情報は、アバターの表示を構成するための情報である。モデル情報は、例えば、メッシュ情報、ボーン情報、マテリアル情報を有する。モデル情報のデータ構造は、例えば、glTF(GL Transmission Format)、VRM、OBJ、FBX、STL、GLB、COLLADA等であり、その種類は問わない。 Avatar information has an image of an avatar, for example. The avatar image may be a still image or a moving image such as an animation image. Also, the avatar image may be a two-dimensional image or a three-dimensional image. The avatar images included in the avatar information may be a plurality of still images in different poses. Also, the avatar image included in the avatar information may be a plurality of moving images such as animation images respectively showing different movements of the avatar. Also, the avatar information may be three-dimensional model data, vector image data, or the like that defines the outer shape of an avatar that can output an image of the avatar by performing rendering or the like. In addition, the avatar information may include 3D model data and 1 or 2 or more pieces of information specifying 1 or 2 or more movements of the 3D model. In addition, the avatar information may further include texture information, color information, and the like that are used when rendering a normal three-dimensional model. Also, the avatar image has, for example, model information. The model information is information for configuring the display of the avatar. Model information includes, for example, mesh information, bone information, and material information. The data structure of the model information is, for example, glTF (GL Transmission Format), VRM, OBJ, FBX, STL, GLB, COLLADA, etc., and the type is not limited.
アバター情報は、例えば、アバター識別子と対応付けられてアバター格納部101に格納される。アバター識別子は、アバターを識別可能な情報であり、例えば、アバターに割り当てられたコードや、アバターの名前等である。例えば、アバター識別子と対応付けられたアバター情報は、アバター識別子を有するアバター情報であってもよい。
Avatar information is stored in the
アバター格納部101には、対話機能、および自動処理機能の少なくとも一方の機能を有する2以上のアバターをそれぞれ出力するための2以上のアバター情報が格納される。対話機能、および自動処理機能の少なくとも一方の機能を有するアバターとは、対話機能のみを有するアバターであってもよく、自動処理機能のみを有するアバターであってもよく、対話機能と自動処理機能とを有するアバターであってもよい。また、アバター格納部101には、対話機能と対話に関する学習機能との組、および自動処理機能と自動処理の追加機能との組の少なくとも一方を有する1以上のアバターを出力するための1以上のアバター情報が格納される。例えば、アバター格納部101に格納される対話機能を有するアバターを出力するアバター情報の1以上が、対話に関する学習機能をさらに有していてもよく、アバター格納部101に格納される自動処理機能を有するアバターを出力するアバター情報の1以上が、自動処理の追加機能をさらに有していてもよく、アバター格納部101に格納される対話機能と自動処理機能とを有するアバターを出力するアバター情報の1以上が、対話に関する学習機能、自動処理の追加機能、または対話に関する学習機能と自動処理の追加機能との両方をさらに有していてもよい。
The
対話機能とは、例えば、アバターが、1以上の端末装置2のユーザとの間で対話する機能である。対話機能は、例えば、ユーザから入力される対話のための入力情報に応じた応答を出力する機能である。ここでの対話は、例えば、ユーザが理解可能な1以上の言語を用いて行われる。ここでの対話は、アバターの動作を介して行われる対話であってもよい。ここでの対話は、音声を介した対話であってもよく、文字列を介した対話であってもよく、手話やジェスチャー等を介した対話であってもよい。
A dialogue function is, for example, a function in which an avatar interacts with users of one or more
アバターの対話機能は、例えば、対話モデルを用いて実現される。対話モデルとは、例えば、ユーザの発話に対して取得するデータや、ユーザの発話に対して返す応答を定義する情報である。 The avatar's interactive function is implemented using, for example, an interactive model. A dialogue model is, for example, information that defines data to be acquired in response to a user's utterance and responses to the user's utterance.
ユーザの発話とは、例えば、ユーザの発言を示す文や音声等である。ユーザの発話とは、例えば、文字列の情報や、文字列を取得可能な音声情報等の情報である。ユーザの発話とは、例えば、ユーザからアバターに対して話しかける情報である。ユーザの発話とは、例えば、後述する入力情報受信部115が受信する対話のための入力情報(以下、対話入力情報と称す)である。例えば、対話入力情報は、ユーザの発する音声である発話から音声認識により取得される文を示す文字列や、ユーザがキーボードやタッチパネル等の入力デバイスを介して入力したユーザの発言である文を示す文字列である。
The user's utterance is, for example, a sentence, voice, or the like indicating the user's utterance. The user's utterance is, for example, character string information or information such as voice information from which the character string can be obtained. The user's utterance is, for example, information spoken by the user to the avatar. The user's utterance is, for example, input information for dialogue (hereinafter referred to as dialogue input information) received by the input
対話モデルは、例えば、サンプルとなる対話入力情報と、この対話入力情報に対応する応答の情報(以下、応答情報と称す)との1以上の組である。また、対話モデルは、例えば、対話入力情報に対応する対話の意図または目的を示す情報や、対話の意図または目的を示す情報と対話入力情報内の1以上の変数を定義する情報とを有する情報と、応答の情報との1以上の組であってもよい。また、対話モデルは、例えば、サンプルとなる複数の対話入力情報とこれに対応する応答との複数の組を用いて機械学習を行うことにより取得した学習器であってもよく、機械学習により取得したサンプルとなる対話入力情報と、この対話入力情報に対応する応答の情報との1以上の組であってもよい。応答情報は、例えば、対話入力情報に対する応答に用いられる情報であり、応答する文字列等の情報や、音声データである。対話入力情報や、応答の情報の1以上は、変数を示す情報を有していてもよい。また、対話モデルは、対話入力情報に対応する応答が取得できない場合や、対話入力情報から目的を示す情報を取得できない場合の応答に利用される応答の情報を有していてもよい。 A dialogue model is, for example, one or more sets of sample dialogue input information and response information corresponding to the dialogue input information (hereinafter referred to as response information). Further, the dialogue model is, for example, information indicating the intention or purpose of the dialogue corresponding to the dialogue input information, or information indicating the intention or purpose of the dialogue and information defining one or more variables in the dialogue input information. and response information. Further, the dialogue model may be, for example, a learner obtained by performing machine learning using a plurality of sets of a plurality of sample dialogue input information and corresponding responses. It may be one or more sets of dialogue input information as a sample obtained from the dialogue input information and response information corresponding to the dialogue input information. The response information is, for example, information used for responding to dialogue input information, such as information such as a character string to be responded, and voice data. One or more of the dialogue input information and the response information may have information indicating variables. Further, the dialogue model may have response information that is used as a response when a response corresponding to the dialogue input information cannot be obtained or when information indicating the purpose cannot be obtained from the dialogue input information.
ここで用いられる対話モデルは、いわゆる生成ベースモデルであってもよく、検索ベースモデルであってもよい。また、対話モデルは、上記のような構造の対話モデルに限定されない。例えば、対話モデルは、ダイアログモデルを有していてもよい。また、対話モデルは、シーケンスを示す情報を有していてもよい。対話モデルについては、アバター等の対話システム等の技術として公知であるため、ここでは詳細な説明を省略する。また、アバターの対話機能は、上記の対話モデルを用いた対話機能に限定されない。アバターの対話機能は、対話モデル以外の、対話に利用可能な情報を用いて実現されてもよい。 The interaction model used here may be a so-called generative-based model or a retrieval-based model. Also, the dialogue model is not limited to the dialogue model having the structure described above. For example, an interaction model may comprise a dialog model. Also, the dialogue model may have information indicating the sequence. Since the dialogue model is well known as a technology for dialogue systems such as avatars, detailed description thereof is omitted here. Also, the avatar's interactive function is not limited to the interactive function using the above-described dialogue model. The avatar's interactive function may be realized using information available for interaction other than the interaction model.
応答情報は、例えば、アバターが出力可能な情報である。応答情報は、例えば、端末装置2においてアバターが音声出力可能な音声情報や、音声に変換可能な文字列の情報であってもよく、アバターが、いわゆる吹き出しやダイアログボックス等を用いて表示可能な文字列の情報である。また、応答情報は、画像の情報であってもよい。
Response information is, for example, information that can be output by an avatar. The response information may be, for example, voice information that can be output by the avatar as voice on the
アバターが対話に利用する情報は、アバター格納部101に格納されていてもよく、アバター提供装置1がアクセス可能なサーバ装置(図示せず)が有する格納部に格納されていてもよい。
The information that the avatar uses for interaction may be stored in the
アバターが対話に利用する対話モデル等の情報としては、例えば、複数の異なる対話モデル等の情報が用意されていてもよい。これらの対話に利用可能な異なる情報は、例えば、アバター格納部101や図示しない格納部等に格納されていてもよい。異なる対話モデル等の情報とは、対話の分野や話題ごとに異なる情報であってもよく、対話の分野や話題等が同じであって、対話入力情報と応答の情報との複数の組が異なる情報であってもよい。
Information such as a plurality of different dialogue models may be prepared as the information such as the dialogue model that the avatar uses for dialogue, for example. Different information that can be used for these interactions may be stored, for example, in the
アバターが対話に利用可能な複数の対話モデル等の情報には、異なる識別子等が対応付けられていてもよい。例えば、アバターが対話に利用可能な対話モデルには、対話モデルを識別可能なコード等の対話モデル識別子が対応付けられていてもよい。 Different identifiers or the like may be associated with information such as a plurality of interaction models that can be used by avatars for interaction. For example, a dialogue model that can be used by an avatar for dialogue may be associated with a dialogue model identifier such as a code that can identify the dialogue model.
また、対話モデル等のアバターが対話に利用可能な情報には、その情報により実現可能な対話の分野や話題を示す情報が対応付けられていてもよい。対話の分野を示す情報は、例えば、分野名や、分野に割り当てられたコード等の分野識別子である。対話の話題を示す情報は、例えば、話題名や、話題のキーワードや、話題に割り当てられたコード等の話題識別子等である。 Further, the information such as the dialogue model that can be used by the avatar for dialogue may be associated with information indicating the fields and topics of dialogue that can be realized by the information. The information indicating the field of dialogue is, for example, a field name and a field identifier such as a code assigned to the field. The information indicating the conversation topic is, for example, a topic name, a topic keyword, a topic identifier such as a code assigned to the topic, and the like.
アバターが対話に利用可能な複数の対話モデル等の情報には、各情報を利用する場合の利用料金を示す情報が対応付けられていてもよい。利用料金は、例えば、1回あたりの利用料金であってもよく、単位時間当たりの利用料金であってもよい。また、利用料金は、一時利用する場合の利用料金と、この利用料金とは異なる一時利用でない場合の利用料金との組であってもよい。一時利用でない場合の利用料金は、いわゆるサブスクリプション等の、予め決められた期間内であれば何回でも利用可能とする場合の利用料金であってもよい。 Information such as a plurality of dialogue models that can be used by an avatar for dialogue may be associated with information indicating usage charges for using each piece of information. The usage fee may be, for example, a usage fee per time, or may be a usage fee per unit time. Also, the usage fee may be a combination of a usage fee for temporary use and a usage fee for non-temporary use different from this usage fee. The usage fee for non-temporary usage may be a usage fee for a so-called subscription, which allows unlimited usage within a predetermined period.
各アバターの対話機能は、例えば、各アバターと対応付けられた上記のような対話機能に利用される対話モデル等の情報のうちの1以上の情報を用いて実現される。アバターに対応付けられた情報とは、例えば、アバター情報またはアバター識別子と対応付けられた情報である。アバターの対話機能に利用される対話モデル等の情報は、アバター情報が有していてもよい。また、例えば、対話機能に利用される対話モデル等の情報を用いて対話を実現するためのプログラム等は、アバター情報が有していてもよい。 The interactive function of each avatar is implemented using, for example, one or more pieces of information such as the interactive model used for the above-described interactive functions associated with each avatar. Information associated with an avatar is, for example, avatar information or information associated with an avatar identifier. Avatar information may include information such as a dialogue model used for the avatar's dialogue function. Also, for example, the avatar information may include a program or the like for realizing dialogue using information such as a dialogue model used for the dialogue function.
一のユーザが利用する一のアバターの対話機能は、例えば、一のユーザのユーザ識別子と、一のアバターのアバター識別子と、の組に対応付けられた対話機能に利用される1以上の情報(例えば、1以上の対話モデル)等を用いて実現されるようにしてもよい。例えば、一のユーザが利用する一のアバターの対話機能は、後述するユーザ識別子格納部102に格納される一のユーザのユーザ識別子と、一のアバターのアバター識別子と、の組に対応付けられた対話機能に利用される1以上の情報(例えば、1以上の対話モデル)等を用いて実現されるようにしてもよい。
The interactive function of one avatar used by one user is, for example, one or more pieces of information ( For example, it may be realized using one or more dialogue models). For example, the interactive function of one avatar used by one user is associated with a set of a user identifier of one user and an avatar identifier of one avatar stored in the user
ユーザ識別子とは、ユーザを識別可能な情報であり、例えば、ユーザ名や、ユーザのメールアドレス、ユーザの携帯電話番号、ユーザに割り当てられたコード等である。一のユーザが利用する端末装置2が決まっている場合等においては、ユーザが利用する端末装置2の識別子を、ユーザのユーザ識別子として用いてもよい。端末装置2の識別子は、例えば、端末装置2のシリアル番号や、端末装置2のMACアドレスやIPアドレス等や、端末装置2に割り当てられたコード等である。かかることは、以下においても同様である。
A user identifier is information that can identify a user, such as a user name, a user's email address, a user's mobile phone number, a code assigned to the user, and the like. In cases such as when the
各アバターが対話機能に利用する対話モデル等の情報のうちの1以上の情報は、デフォルト等として予め決められていてもよい。また、各アバターが対話機能に利用する対話モデル等の情報のうちの1以上の情報は、アバターを利用するユーザが指定できるようにしてもよい。各アバターが対話機能に利用する対話モデル等の1以上の情報は、更新可能であってもよい。更新可能とは、例えば、追加、変更、および削除のうちの1以上が可能であることを意味する。 One or more pieces of information such as a dialogue model that each avatar uses for the dialogue function may be predetermined as a default or the like. Further, one or more pieces of information such as a dialogue model used by each avatar for the dialogue function may be specified by the user using the avatar. One or more pieces of information, such as the interaction model that each avatar uses for interactivity, may be updatable. Updatable means, for example, that one or more of addition, change, and deletion is possible.
自動処理機能とは、例えば、アバターが、1以上の処理を自動的に行う機能である。例えば、アバターが、ユーザからの要求に応じて、処理を自動的に実行する機能である。ここでの要求は、例えば、アバターに対して入力される情報であって、アバターに対してユーザが1以上の処理を自動的に実行することを要求する情報である。ここでの要求は、例えば、実行する処理を検出可能な情報である。ここでの要求は、処理の実行に必要な1以上のパラメータ等を有していてもよい。ここでの要求は、上述した対話入力情報と同様に取得される情報である。なお、ここでの要求は、上述した対話入力情報に含まれると考えてもよく、含まれないと考えてもよい。以下においては、一例として、上述した対話入力情報に要求が含まれない場合を例に挙げて説明する。 An automatic processing function is, for example, a function in which an avatar automatically performs one or more processes. For example, an avatar is a function that automatically executes processing in response to a request from a user. The request here is, for example, information input to the avatar, requesting that the user automatically perform one or more processes on the avatar. The request here is, for example, information that can detect the process to be executed. The request here may have one or more parameters required for execution of processing. The request here is information obtained in the same manner as the interaction input information described above. Note that the request here may or may not be considered to be included in the interactive input information described above. In the following, as an example, a case where the above-described interaction input information does not include a request will be described.
アバターが自動処理機能により自動的に実行する1以上の処理は、例えば、要求に応じて検索を行う処理であってもよく、要求に応じて情報を収集する処理であってもよい。また、自動処理機能により自動的に実行する処理は、例えば、電子商取引サイトに対して、購入手続きを行う処理や、購入手続きを行った際に、累積購入額を算出して、端末装置に送信する処理である。また、また、自動処理機能により自動的に実行する処理は、要求に応じて店舗やサービス等の予約を行う処理であってもよく、要求に応じてメールや資料等を作成したり、これらを送信したりする処理であってもよい。自動処理機能により実行する1以上の処理は、上記の処理に限定されない。自動処理機能により実行する1以上の処理は、例えば、端末装置2以外の外部のサーバ装置(図示せず)等に対して行う処理であることが好ましい。また、この処理は、処理によって得られる情報をユーザに対して出力することが目的となる処理以外の処理であることが好ましい。
The one or more processes automatically executed by the avatar using the automatic processing function may be, for example, a process of searching on demand or a process of collecting information on demand. In addition, the processing that is automatically executed by the automatic processing function is, for example, the processing of performing a purchase procedure on an electronic commerce site, or calculating the cumulative purchase amount when performing a purchase procedure and transmitting it to the terminal device. It is a process to In addition, the processing automatically executed by the automatic processing function may be the processing of making a reservation for a store or service, etc., in response to a request. It may be processing such as transmission. The one or more processes executed by the automatic processing function are not limited to the processes described above. The one or more processes executed by the automatic processing function are preferably processes performed on an external server device (not shown) other than the
自動処理機能は、例えば、自動処理を実行するための自動処理モデルを用いて実行される。自動処理モデルは、例えば、ユーザからの要求に対して実行される自動処理を定義する1または2以上の情報である。自動処理モデルは、サンプルとなるユーザからの要求と、この要求に応じて実行される自動処理を定義する情報とを有する情報である。サンプルとなる要求は、例えば、要求の意図や目的を示す情報を有する情報である。サンプルとなる要求はさらに、1以上の変数を定義する情報を有していてもよい。ユーザからの要求とは、例えば、商品やサービスを購入する指示や、商品やサービスの予約を行う指示、メール等を作成して送信する指示等である。自動処理を定義する情報とは、実行される自動処理を示す情報や、自動処理の実行を指示する情報等である。自動処理を定義する情報は、例えば、1以上のプログラムや、1以上のプログラムの識別子(例えば、実行ファイル名等)であってもよく、一以上の関数や、メソッド名や、「if」、「then」等で示される制御構文等で構成されていてもよい。自動処理を定義する情報によって定義される自動処理は、対応する要求内の1以上の変数等を利用する自動処理であってもよい。自動処理モデルは、ユーザの要求と、要求に応じて実行される自動処理を定義する情報との複数の組を教師データとして機械学習を行うことで取得される学習器であってもよく、機械学習により取得された上記のようなユーザからの要求と、この要求に応じて実行される自動処理を定義する情報とを有する自動処理モデルであってもよい。ここでの学習器は、例えば、ユーザの要求に応じて、要求に対応する処理を定義する情報を取得する学習器であってもよく、要求に対応する処理を自動的に実行する学習器であってもよい。 Automated processing functions are implemented, for example, using an automated processing model for performing automated processing. An automatic processing model is, for example, one or more pieces of information that define automatic processing to be executed in response to requests from users. An automatic processing model is information having a request from a sample user and information defining an automatic processing to be executed in response to this request. A sample request is, for example, information having information indicating the intent or purpose of the request. A sample request may also have information defining one or more variables. The request from the user is, for example, an instruction to purchase a product or service, an instruction to make a reservation for the product or service, or an instruction to create and send an e-mail or the like. The information defining automatic processing includes information indicating automatic processing to be executed, information instructing execution of automatic processing, and the like. Information defining automatic processing may be, for example, one or more programs or identifiers of one or more programs (for example, executable file names, etc.), one or more functions, method names, "if", It may be composed of a control syntax or the like indicated by "then" or the like. The automatic process defined by the information defining the automatic process may be an automatic process that utilizes one or more variables, etc. within the corresponding request. The automatic processing model may be a learner obtained by performing machine learning using a plurality of sets of user requests and information defining automatic processing to be executed in response to the requests as teacher data. It may also be an automatic processing model having the user's request obtained by learning as described above and information defining automatic processing to be executed in response to this request. The learning device here may be, for example, a learning device that acquires information defining processing corresponding to a user's request, or a learning device that automatically executes processing corresponding to the request. There may be.
なお、アバターの自動処理機能は、上記の自動処理モデルを用いて実行される自動処理機能に限定されない。アバターの自動処理機能は、自動処理モデル以外の、自動処理機能に利用可能な情報を用いて実行されてもよい。 Note that the automatic processing function of the avatar is not limited to the automatic processing function executed using the above automatic processing model. Avatar automation functions may be performed using information available to the automation functions other than the automation model.
アバターが自動処理機能に利用する情報は、アバター格納部101に格納されていてもよく、アバター提供装置1がアクセス可能なサーバ装置(図示せず)が有する格納部に格納されていてもよい。
Information used by the avatar for the automatic processing function may be stored in the
アバターが自動処理機能を実行するために利用可能な自動処理モデル等の情報としては、例えば、複数の異なる自動処理モデル等の情報が用意されていてもよい。これらの自動処理機能の実行に利用可能な異なる情報は、例えば、アバター格納部101や図示しない格納部等に格納されていてもよい。異なる自動処理機能の実行に利用可能な自動処理モデル等の情報は、商品購入や予約のように、実行される処理等が異なる情報であってもよく、実行される処理等が同じであって、自動処理に利用する情報等(例えば、検索に利用する検索サイトや、商品を購入する電子商取引サイト等)が異なる情報であってもよい。
For example, information such as a plurality of different automatic processing models may be prepared as the information such as the automatic processing model that can be used by the avatar to perform the automatic processing function. Different information that can be used for executing these automatic processing functions may be stored, for example, in the
アバターが自動処理機能を実行するために利用可能な複数の自動処理モデル等の情報には、異なる識別子等が対応付けられていてもよい。例えば、アバターが自動処理機能の実行に利用可能な自動処理モデルには、自動処理モデルを識別可能なコード等の自動処理モデル識別子が対応付けられていてもよい。 Different identifiers and the like may be associated with the information, such as multiple automation models that the avatar can use to perform the automatic processing functions. For example, an automatic processing model that can be used by an avatar to execute an automatic processing function may be associated with an automatic processing model identifier such as a code that can identify the automatic processing model.
また、アバターが自動処理機能の実行に利用可能な情報には、自動処理の分野を示す情報(例えば、分野名や、分野を示す識別子等)や、自動処理に利用する情報(例えば、予約サイトや、電子商取引サイトを特定する識別子等)が対応付けられていてもよい。自動処理の分野とは、自動処理の処理内容の分類を示す情報や、自動処理で処理する処理対象の分類を示す情報や、これらの組み合わせ等である。自動処理の分野は、自動処理が用いられる分野であってもよい。例えば、自動処理が行う処理の処理内容が、予約であるか、購入であるかによって、自動処理が異なる分野であると判断してもよい。また、自動処理により購入される商品やサービスの分野が異なる場合、自動処理が異なる分野であると判断してもよい。 In addition, the information that the avatar can use to execute the automatic processing function includes information indicating the field of automatic processing (for example, field name, identifier indicating field, etc.) and information used for automatic processing (for example, reservation site , an identifier that identifies an electronic commerce site, etc.) may be associated. The field of automatic processing includes information indicating the classification of processing content of automatic processing, information indicating the classification of processing targets to be processed by automatic processing, a combination of these, and the like. The field of automated processing may be a field in which automated processing is used. For example, it may be determined that the automatic processing is in a different field depending on whether the content of the processing performed by the automatic processing is reservation or purchase. Also, if the fields of products or services purchased by automatic processing are different, it may be determined that the automatic processing is for different fields.
アバターが自動処理機能の実行に利用可能な複数の自動処理モデル等の情報には、上記の対話に利用可能な複数の対話モデル等の情報と同様に、各情報を利用する場合の利用料金を示す情報が対応付けられていてもよい。 For information such as multiple automatic processing models that can be used by avatars to execute automatic processing functions, similar to information such as multiple dialogue models that can be used for dialogue above, usage fees for using each information will be charged. The information shown may be associated.
各アバターの自動処理機能は、例えば、各アバターと対応付けられた上記のような自動処理機能に利用される自動処理モデル等の情報のうちの、1以上の情報を用いて実現される。アバターに対応付けられた情報とは、例えば、アバターに対応するアバター情報またはアバター識別子と対応付けられた情報である。アバターの自動処理機能に利用される自動処理モデル等の情報は、アバター情報が有する情報であってもよい。 The automatic processing function of each avatar is implemented using, for example, one or more pieces of information such as the automatic processing model used for the above-described automatic processing function associated with each avatar. The information associated with the avatar is, for example, avatar information corresponding to the avatar or information associated with the avatar identifier. Information such as the automatic processing model used for the automatic processing function of the avatar may be information included in the avatar information.
一のユーザが利用する一のアバターの自動処理機能は、例えば、一のユーザのユーザ識別子と、一のアバターのアバター識別子と、の組に対応付けられた自動処理機能に利用される1以上の情報(例えば、1以上の自動処理モデル)等を用いて実現されるようにしてもよい。例えば、一のユーザが利用する一のアバターの自動処理機能は、後述するユーザ識別子格納部102に格納される一のユーザのユーザ識別子と、一のアバターのアバター識別子と、の組に対応付けられた自動処理機能に利用される1以上の情報(例えば、1以上の自動処理モデル)等を用いて実現されるようにしてもよい。
The automatic processing function of one avatar used by one user is, for example, one or more automatic processing functions associated with a set of a user identifier of one user and an avatar identifier of one avatar. It may be implemented using information (eg, one or more automated processing models) or the like. For example, the automatic processing function of one avatar used by one user is associated with a set of a user identifier of one user and an avatar identifier of one avatar stored in the user
各アバターが自動処理機能に利用する自動処理モデル等の1以上の情報は、デフォルト等として予め決められていてもよい。また、各アバターが自動処理機能に利用する自動処理モデル等の1以上の情報は、アバターを利用するユーザが指定できるようにしてもよい。各アバターが自動処理機能に利用する自動処理モデル等の1以上の情報は、更新可能であってもよい。 One or more pieces of information such as an automatic processing model that each avatar uses for the automatic processing function may be predetermined as a default or the like. Also, one or more pieces of information such as an automatic processing model that each avatar uses for the automatic processing function may be specified by the user using the avatar. One or more pieces of information, such as the automation model that each avatar uses for its automation functions, may be updatable.
対話に関する学習機能とは、例えば、対話に利用される情報の学習である。対話に利用される情報の学習とは、例えば、対話に利用される対話モデル等の情報の更新である。ここでの更新とは、情報の追加、変更、または削除等である。対話モデル等の更新は、例えば、対話機能に用いられる学習器の追加等であってもよい。 The learning function related to dialogue is, for example, learning of information used in dialogue. The learning of information used in dialogue is, for example, updating of information such as a dialogue model used in dialogue. Here, updating means addition, change, deletion, or the like of information. The update of the dialogue model etc. may be, for example, the addition of a learner used for the dialogue function.
また、対話に利用される情報の学習は、機械学習等により対話に利用される対話モデルを取得する際に用いられる教師データの更新であってもよく、この教師データを用いて機械学習を行うことで取得した学習器や対話モデルの追加や、これらの学習器や対話モデルによる既存の学習器や対話モデルの置換であってもよい。 Also, the learning of information used in dialogue may be the updating of teacher data used when obtaining a dialogue model used in dialogue by machine learning or the like, and machine learning is performed using this teacher data. It is also possible to add a learner or dialogue model acquired by the method, or to replace an existing learner or dialogue model with these learners or dialogue models.
自動処理機能の追加機能とは、自動処理に利用される情報の学習である。自動処理に利用される情報の学習とは、例えば、自動処理に利用される自動処理モデル等の情報の更新である。ここでの更新とは、情報の追加、変更、または削除等である。また、自動処理に利用される処理に利用する情報(例えば、検索サイトや、電子商取引サイトを特定する識別子等)の更新であってもよい。 An additional function of the automatic processing function is the learning of information used for the automatic processing. The learning of information used for automatic processing is, for example, updating of information such as an automatic processing model used for automatic processing. Here, updating means addition, change, deletion, or the like of information. It may also be an update of information used for processing used in automatic processing (for example, an identifier identifying a search site or an electronic commerce site).
また、自動処理に利用される情報の学習は、機械学習等により自動処理に利用される自動処理モデルを取得する際に用いられる教師データの更新であってもよく、この教師データを用いて機械学習を行うことで取得した学習器や自動処理モデルの追加や、これらの学習器や自動処理モデルによる既存の学習器や自動処理モデルの置換であってもよい。 Further, the learning of information used for automatic processing may be the updating of teacher data used when acquiring an automatic processing model used for automatic processing by machine learning or the like. It may be addition of a learning device or an automatic processing model acquired through learning, or replacement of an existing learning device or automatic processing model with these learning devices or automatic processing model.
アバター情報には、対話機能を実行するために利用される対話モデル等の情報を機械学習により取得する際に利用する上記のような複数の教師データが対応付けられていてもよい。複数の教師データは、例えば、アバター格納部101に格納されていてもよい。
The avatar information may be associated with a plurality of teacher data as described above, which are used when acquiring information such as a dialogue model used for executing the dialogue function by machine learning. A plurality of teacher data may be stored in the
また、アバター情報には、自動処理機能を実行するために利用される自動処理モデル等の情報を機械学習により取得する際に利用する上記のような複数の教師データが対応付けられていてもよい。複数の教師データは、例えば、アバター格納部101に格納されていてもよい。
In addition, the avatar information may be associated with a plurality of teacher data as described above, which are used when acquiring information such as an automatic processing model used for executing the automatic processing function by machine learning. . A plurality of teacher data may be stored in the
アバター格納部101に格納される異なるアバター情報は、通常、異なるアバターを出力するための情報である。異なるアバターとは、例えば、外観や動きが異なるアバターである。例えば、異なるアバター情報は、異なるアバターの画像を有していてもよく、異なるアバターの画像を出力可能な異なる3次元モデルのデータを有していてもよい。また、異なるアバターや、異なる音声を出力可能なアバターであってもよい。また、異なるアバターとは、異なる対話機能を有するアバターであってもよく、異なる自動処理機能を有するアバターであってもよい。異なる対話機能を有するアバターとは、例えば、対話機能に用いる対話モデル等の情報が異なるアバターである。異なる対話モデルとは、構成する情報(例えば、対話入力情報と、応答との複数の組や、対話の目的を示す情報と、応答の情報との複数の組)が異なる対話モデルであってもよく、対象とする分野や話題が異なる対話モデルであってもよく、対話モデルを取得するために用いられる教師データが異なる対話モデルであってもよい。また、異なる自動処理機能を有するアバターとは、例えば、自動処理機能を実行するために用いる自動処理モデル等の情報が異なるアバターである。異なる自動処理モデルとは、実行される自動処理が異なる自動処理モデルであってもよく、自動処理に利用される検索サイト等の情報が異なる自動処理モデルであってもよい。
The different avatar information stored in the
アバター情報は、例えば、上記のような1以上の機能をコンピュータ等により実行するプログラムを有していてもよく、このようなプログラムと対応付けられていてもよい。ここでのプログラムは、いわゆるマクロ等も含むと考えてもよい。データ(例えば、対話モデルや自動処理モデル等)と対応付けられている。アバター情報は、例えば、アバター情報が示すアバターと対応付けられた1以上の対話機能を実行するためのプログラムや、1以上の自動処理機能を実行するためのプログラムや、これらのプログラムを特定する識別子等と対応付けられている。このプログラムは、例えば、上述したような、アバター情報と対応付けられた対話モデルや自動処理モデル等の対話機能や自動処理機能の実行に用いられる情報を用いて、上記のような1以上の機能を実行するプログラムである。 The avatar information may include, for example, a program that causes a computer or the like to perform one or more functions as described above, and may be associated with such a program. The programs here may be considered to include so-called macros and the like. It is associated with data (for example, dialogue model, automatic processing model, etc.). The avatar information is, for example, a program for executing one or more interactive functions associated with the avatar indicated by the avatar information, a program for executing one or more automatic processing functions, or an identifier that identifies these programs. etc. This program, for example, uses information used to execute interactive functions and automatic processing functions, such as interactive models and automatic processing models associated with avatar information, to perform one or more functions as described above. is a program that executes
アバター格納部101は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。かかることは、以下の他の格納部についても同様である。
The
ユーザ識別子格納部102には、ユーザ識別子が、このユーザ識別子が識別するユーザが利用するアバターと対応付けられて格納される。アバターと対応付けて格納されるということは、例えば、アバター識別子と対応付けられて格納されることである。ユーザ識別子は、蓄積される日時等の日時の情報と対応付けられて格納されてもよい。
The user
ユーザ識別子格納部102には、さらに、アバターを一時的に利用するか否かを示す情報が、ユーザ識別子と対応付けられて格納されてもよい。例えば、ユーザ識別子格納部102には、さらに、アバターを一時的に利用するか否かを示す情報が、ユーザ識別子とアバターとに対応付けられて格納されてもよい。一時的に利用するか否かを示す情報は、例えば、いわゆるフラグの情報である。
The user
また、ユーザ識別子格納部102には、ユーザ識別子と学習機能を有するアバターとが、学習機能により追加された対話の機能を実行するための情報と対応付けられて格納されてもよい。学習機能により追加された対話の機能を実行するための情報は、例えば、学習機能により追加されたアバターが対話機能に利用する対話モデル等の情報である。アバターが対話機能に利用する情報が対応付けて格納される、ということは、例えば、アバター識別子が、対話機能に利用する情報の識別子(例えば、1以上の対話モデルの識別子)と対応付けられて格納されることであってもよい。また、学習機能により追加された対話の機能を実行するための情報は、例えば、アバターが対話機能に利用する対話モデル等の情報を機械学習により取得するために用いられる教師データであってもよい。アバターが教師データと対応付けられて格納される、ということは、例えば、アバター識別子が、教師データの識別子と対応付けられて格納されることである。
User
また、ユーザ識別子格納部102には、ユーザ識別子と自動処理機能の追加機能を有するアバターとが、追加機能により追加された対話の機能を実行するための情報と対応付けられて格納されてもよい。追加機能により追加された対話の機能を実行するために利用される情報は、例えば、追加機能により追加されたアバターが自動処理機能に利用する自動処理モデル等の情報である。アバターが自動処理機能に利用する情報が対応付けて格納される、ということは、例えば、アバター識別子が、自動処理機能に利用する情報の識別子(例えば、1以上の自動処理モデルの識別子)と対応付けられて格納されることであってもよい。また、学習機能により追加された自動処理の機能を実行するために利用される情報は、例えば、アバターが自動処理機能に利用する自動処理モデル等の情報を機械学習により取得するために用いられる教師データであってもよい。アバターが教師データと対応付けられて格納される、ということは、例えば、アバター識別子が、教師データの識別子と対応付けられて格納されることである。
Further, the user
学習器格納部103には、1以上のユーザ属性値とアバターを識別するアバター識別子とを有する2以上の教師データに対して、機械学習の学習処理を行うことにより取得された学習器が格納される。ユーザの属性値とは、ユーザの年齢、性別、嗜好等を示す値である。ここでの嗜好は、例えば、ユーザの好きなキャラクタや、動物等の情報である。ここでの学習器は、例えば、ユーザに適合したアバターを取得するために用いられる学習器である。
The learning
学習器格納部103に格納される学習器は、例えば、複数のユーザについてそれぞれ取得した、1以上のユーザ属性値と、ユーザが利用するアバターのアバター識別子との組を教師データとして用いて、機械学習を行うことにより生成された学習器である。機械学習としては、例えば、ニューラルネットワークの学習や、SVM、SVR、深層学習、決定木、ランダムフォレスト等の学習が利用可能である。
For example, the learning device stored in the learning
なお、学習器格納部103に学習器が格納されているとは、例えば、学習器そのもの(例えば、入力に対して値を出力する関数や学習結果のモデル等)が記憶されていることであってもよく、学習器を構成するために必要なパラメータ等の情報が記憶されていることであってもよい。後者の場合であっても、そのパラメータ等の情報を用いて学習器を構成できるため、実質的に学習器が図示しない格納部に格納されていると考えることができるからである。
Note that storing a learning device in the learning
指示受信部111は、アバター格納部101に格納されている2以上のアバターの一つを選択する選択指示を、端末装置2から受信する。指示受信部111は、例えば、端末装置2に対応するユーザ識別子(例えば、端末装置2を利用するユーザのユーザ識別子)と対応付けられた選択指示を受信する。選択指示は、例えば、結果的に一のアバターを選択可能な指示であればよい。例えば、選択指示は、端末装置2に対応するユーザが選択する一のアバターのアバター識別子を有していてもよい。また、選択指示は、端末装置2のユーザについての1以上のユーザ属性値を有していてもよい。この1以上のユーザ属性値は、アバターの選択に利用可能なユーザ属性値であり、例えば、学習器格納部103に格納される学習器に対して入力として与えることが可能な情報である。ここでの1以上のユーザ属性値は、例えば、学習器格納部103に格納される学習器の取得に用いられる教師データが有する1以上のユーザ属性値と同じ属性の1以上のユーザ属性値である。なお、ユーザが利用するアバターが決まっており、例えば、ユーザ識別子格納部102等に、ユーザ識別子と、このユーザ識別子が示すユーザが利用するアバターのアバター識別子とが、対応付けられて格納されている場合、選択指示は、ユーザ識別子を少なくとも有するようにしてもよい。
The
また、選択指示は、アバターを一時的に利用するか否かを示す情報を有していてもよい。 Also, the selection instruction may have information indicating whether to temporarily use the avatar.
指示受信部111は、通常、通常、無線または有線の通信手段で実現される。
The
蓄積部112は、例えば、指示受信部111が受信した選択指示に対応付けられたユーザ識別子を、選択指示に対応するアバターと対応付けてユーザ識別子格納部102に蓄積する。選択指示に対応するアバターとは、選択指示に応じて後述するアバター取得部113が取得するアバターである。ユーザ識別子を、アバターと対応付けて蓄積する、ということは、例えば、アバター識別子と対応付けて蓄積することである。
For example, the
アバター取得部113は、選択指示に対応するアバターのアバター情報をアバター格納部101から取得する。例えば、アバター取得部113は、選択指示が有するアバター識別子と対応付けられたアバター情報を、アバター格納部101から取得してもよい。アバター取得部113は、選択指示が有するユーザ識別子と対応付けられてユーザ識別子格納部102に格納されたアバター識別子と対応付けられたアバター情報をアバター格納部101から取得してもよい。アバター取得部113は、選択指示が有するユーザ識別子と対応付けられたアバター識別子であって、一時利用でない情報と対応付けてユーザ識別子格納部102に格納されたアバター識別子と対応付けられたアバター情報をアバター格納部101から取得してもよい。
また、アバター取得部113は、例えば、選択指示が有する1以上のユーザ属性値を用いて、取得するアバターを決定し、アバター格納部101からアバターのアバター情報を取得してもよい。例えば、アバター取得部113は、選択指示が有する1以上のユーザ属性値と、学習器格納部103に格納された学習器とを用いて、機械学習の予測処理を行い、アバター識別子を取得し、アバター識別子で識別されるアバターのアバター情報を、アバター格納部101から取得してもよい。例えば、アバター取得部113は、ユーザ属性値を、学習器に入力することにより得られるアバター識別子により識別されるアバター情報を取得してもよい。
Also, the
また、アバター格納部101に、複数のアバター情報が、それぞれ、ユーザ属性値の1または2以上の組み合わせと対応付けて格納されているようにし、アバター取得部113は、選択指示が有するユーザ属性値の1または2以上の組み合わせと同じ属性値と対応付けられたアバター情報を、アバター格納部101から取得するようにしてもよい。
Further, the
なお、アバター情報の取得に学習器を利用しない場合、学習器格納部103は省略してもよい。
Note that the learning
アバター送信部114は、アバター取得部113が取得したアバター情報を、選択指示を送信した端末装置2に送信する。アバター送信部114は、通常、無線または有線の通信手段により実現される。
The
入力情報受信部115は、端末装置2から送信される情報を受信する。入力情報受信部115は、例えば、一のアバターとの対話のための対話入力情報を端末装置2から受信する。例えば、入力情報受信部115は、端末装置2を利用するユーザのユーザ識別子と対応付けられた対話入力情報を受信する。入力情報受信部115が受信する対話入力情報は、対話の対象となるアバターのアバター識別子と対応付けられていてもよい。ただし、入力情報受信部115は、対話機能を有する一のアバターについてのみ対話入力情報を受信するようにしてもよい。
The input
また、入力情報受信部115は、例えば、一のアバターに対する要求を端末装置2から受信する。例えば、入力情報受信部115は、端末装置2を利用するユーザのユーザ識別子と対応付けられた要求を受信する。入力情報受信部115が受信する要求は、要求の対象となるアバターのアバター識別子と対応付けられていてもよい。ただし、入力情報受信部115は、自動処理機能を有するアバターについてのみ要求を受信するようにしてもよい。
Also, the input
なお、入力情報受信部115が、受信する情報を、対話入力情報であるか、要求であるかを、要求処理部120や応答情報取得部121がどのように判断してもよい。例えば、ユーザが入力する対話入力情報と、要求とを、それぞれの情報であることが判断可能な情報としてもよい。例えば、要求にのみ、要求であることを判断可能な1以上の特定の語句(例えば、「購入して」、「予約して」等の語句)を含めるようにし、この語句を含む場合に、入力情報受信部115が、入力された情報が要求である判断し、含まない場合に対応入力情報であると判断してもよい。また、対応入力情報の先頭に、特定の呼びかけの言葉(例えば、「質問」、「教えて」等の言葉が必要であるとするルールを設定し、このルールに沿った情報を対応入力情報と判断してもよい。また、対話入力情報を入力する際に、端末装置2に対して特定の操作や入力が必要となるようにし、特定の操作や入力がある場合に、端末装置2が、対話入力情報と対応付けて、対話入力情報であることを示すフラグ等の情報を送信し、このフラグ等の情報がある場合に、入力される情報が対話入力情報であると判断してもよい。なお、要求を入力する際に、上記と同様に、特定の操作や入力が必要となるようにし、この操作や入力に応じて、要求であることを示すフラグ等の情報を、端末装置2が、要求と対応付けて送信するようにしてもよい。
The
また、入力情報受信部115が、受信した情報に対して、言語処理等を行うことにより、何らかの処理の実行を要求しているか否かを判断し、要求している場合に、要求であると判断し、要求でない場合、対話入力情報と判断するようにしてもよい。また、機械学習を用いて、受信した情報が対話入力情報であるか、要求であるかを判断してもよい。例えば、対話入力情報である文と、要求である文とを教師データとして学習することで取得した学習器を、格納部(図示せず)に予め格納しておくようにし、この学習器を用いて、受信した情報が対話入力情報であるか要求であるかを判別してもよい。
Further, the input
なお、入力情報受信部115が、受信する情報を対話入力情報であるか要求情報であるかを判断する代わりに、要求処理部120が、入力情報受信部115が受信する情報を、上記と同様の処理を行って、要求情報であるか判断するようにし、応答情報取得部121が、入力情報受信部115が受信する情報を、上記と同様の処理を行って、対話入力情報であるか判断するようにしてもよい。
It should be noted that instead of input
入力情報受信部115が受信する要求や対話入力情報等の情報は、文字列の情報であってもよく、音声情報であってもよい。音声情報である場合、入力情報受信部115は、音声情報に対応する文字列の情報を取得することが好ましい。例えば、入力情報受信部115は、音声情報について音声認識処理等を行うことにより、音声情報に対応する文字列の情報を取得することが好ましい。音声認識処理を行うために用いられる情報は、アバター提供装置1が有していてもよく、アバター提供装置1がアクセス可能な他のサーバ装置(図示せず)等が有していてもよい。また、入力情報受信部115は、受信した音声情報を、音声認識等を行って音声情報に対応する文字列の情報を取得する処理を行うサーバ装置(図示せず)等に送信して、文字列を取得する処理を実行させ、これにより取得された文字列を受信することで、音声情報に対応する文字列の情報を取得してもよい。
Information such as requests and dialogue input information received by the input
要求処理部120は、自動処理機能を用いて、要求に対応する自動処理を実行する。要求処理部120は、例えば、入力情報受信部115が、一のアバターに対する要求(例えば、アバター識別子と対応付けられた要求)を受信した場合に、この一のアバター(例えば、要求に対応付けられたアバター識別子により識別されるアバター)の自動処理機能を用いて要求に対応する自動処理を実行する。例えば、一のアバターに対する要求が受信された場合、要求処理部120は、このアバターと対応付けられてアバター格納部101等に格納されている自動処理モデルを用いて、受信した要求に対応する自動処理を定義する情報を取得し、取得した情報により定義される自動処理を実行する。要求処理部120は、例えば、要求を送信した端末装置2のユーザのユーザ識別子と、要求に対応付けられたアバターとに対応付けられてユーザ識別子格納部102に格納された自動処理モデルを用いて、受信した要求に対応する自動処理を定義する情報を取得してもよい。例えば、要求処理部120は、アバターと対応付けられた自動処理モデルにおいて、受信した要求に対応する要求と対応付けられた自動処理を定義する情報を、検索により取得する。例えば、取得する自動処理を定義する情報が、自動処理を実行するためのプログラムの実行ファイル名である場合、要求処理部120は、この実行ファイル名が示す実行ファイルを実行することで、要求に応じた自動処理を行う。実行する自動処理が、処理が終了したことを示す情報や、処理結果等が取得される自動処理である場合、要求処理部120は、これらの情報を取得してもよい。要求処理部120は、要求に含まれる1以上の変数を用いて、要求に対応する自動処理を実行してもよい。例えば、要求に対応する自動処理として、要求に含まれる1以上のキーワードを用いた検索処理を含む自動処理を実行してもよい。なお、要求処理部120は、自動処理モデルを用いずに、要求に対応する自動処理を実行してもよい。
The
応答情報取得部121は、対話機能を用いて、対話入力情報に応じた応答情報を取得する。応答情報取得部121は、例えば、入力情報受信部115が、一のアバターに対する対話入力情報(例えば、アバター識別子と対応付けられた対話入力情報)を受信した場合に、この一のアバター(例えば、対話入力情報に対応付けられたアバター識別子により識別されるアバター)の対話機能を用いて対話入力情報に対応する応答情報を取得する。例えば、一のアバターに対する対話入力情報が受信された場合、応答情報取得部121は、このアバターと対応付けられてアバター格納部101等に格納されている対話モデルを用いて、受信した対話入力情報に対応する応答情報を取得する。
The response
応答情報取得部121は、例えば、対話入力情報を送信した端末装置2のユーザのユーザ識別子と、この対話入力情報に対応付けられたアバターとに対応付けられてユーザ識別子格納部102に格納された対話モデルを用いて、受信した対話入力情報に対応する応答情報を取得する。例えば、応答情報取得部121は、アバターと対応付けられた対話モデルにおいて、受信した対話入力情報に対応する対話入力情報と対応付けられた応答情報を検索により取得する。応答情報取得部121は、対話入力情報に含まれる1以上の変数を用いて、応答情報を取得してもよい。例えば、対話入力情報に含まれる1以上の変数で、対話入力情報に対応する応答情報内の予め決められた変数を示す文字列等を置き換えることで、変数を含む応答情報を取得してもよい。なお、応答情報取得部121は、対話モデルを用いずに、対話入力情報に対応する応答情報を取得してもよい。
For example, the response
応答情報送信部122は、応答情報取得部121が取得した応答情報を端末装置2に送信する。応答情報送信部122は、例えば、対話入力情報に応じて応答情報取得部121が取得した応答情報を、対話入力情報を送信した端末装置2に送信する。応答情報送信部122は、例えば、無線または有線の通信手段等により実現される。
The response
評価取得部123は、応答情報取得部121が取得する応答情報に対する評価結果を取得する。評価結果とは、例えば、対話入力情報に対して適切な応答情報が取得できたか否かの評価を示す情報や、対話入力情報に対して応答情報が取得できたか否かの情報である。適切な応答情報が取得できなかったことを示す評価情報は、例えば、対話入力情報に対応する応答が破綻していることを示す評価情報である。評価結果は、例えば、応答情報に対する評価が高いか否かを表す2値の値や、評価を3以上の多段階で表した値である。例えば、評価取得部123は、応答情報取得部121が、対話入力情報について応答情報を取得した場合に、評価が高いことを示す評価情報を取得し、応答情報が取得できなかった場合や、対話入力情報に対応する適切な応答情報が取得できなかったことを示す応答情報を取得した場合に、評価が低いことを示す評価情報を取得してもよい。また、評価取得部123は、対話入力情報について取得した応答情報の数に応じた評価情報を取得してもよい。例えば、評価取得部123は、対話入力情報に応じて取得される応答情報の数の増加に応じて、連続的または段階的に評価が下がる評価情報を取得してもよい。
The
また、評価取得部123は、応答情報送信部122が送信する応答情報に対して入力情報受信部115が受信する対話入力情報に応じて、評価情報を取得してもよい。例えば、応答情報送信部122が送信した一の応答情報について受信した対話入力情報が、一の応答情報が適切な応答情報出なかったことを示す情報である場合に、評価取得部123は、評価が低いことを示す評価情報を取得してもよい。
Also, the
なお、評価取得部123は、図示しない受信部が端末装置2から受信する応答情報に対する評価を示すアンケート回答情報を用いて、評価情報を取得してもよい。例えば、応答情報に対応するアンケート回答情報とは、例えば、応答情報を送信する場合に、応答情報とともに応答情報送信部122が送信する情報であって、送信する応答情報の評価を尋ねる情報であるアンケート情報に対する回答の情報である。アンケート回答情報は、アンケート情報に対応する応答情報が適切であるか否かを示す情報であってもよく、応答情報を3以上の段階で評価した情報であってもよい。アンケート情報は、このような回答を得るためのアンケートの情報である。評価取得部123は、一のアンケート回答情報が有する評価を評価情報として取得してもよく、同様の対話入力情報に対応した複数のアンケート回答情報がそれぞれ示す評価を統計処理した値を評価情報として取得してもよい。
Note that the
評価取得部123は、取得した評価情報を、例えば、対応する対話入力情報や、対話入力情報のサンプルと対応付けて格納部(図示せず)や、アバター格納部101等に蓄積したり、予め指定された1以上の送信先等に送信したりしてもよい。
The
学習処理部124は、学習機能を有する一のアバターについて、予め決められた条件を満たした場合に、このアバターの学習機能に応じて対話に関する学習処理を行う。学習処理部124は、例えば、学習機能を有する一のアバターであって、一のユーザが利用しているアバターについて、予め決められた条件を満たした場合に、このアバターの学習機能に応じて対話に関する学習処理を行う。一のユーザが利用しているアバターとは、例えば、一のユーザが対話しているアバターである。学習機能に応じて学習処理を行う、ということは、例えば、学習機能を実行して学習処理を行うことと考えてもよい。
When a predetermined condition is satisfied for one avatar having a learning function, the
予め決められた条件とは、例えば、評価取得部123が一のアバターについて取得した評価結果が評価条件を満たすほど低いことである。評価条件は、例えば、評価結果が示す評価が高いか低いかを評価するための条件である。例えば、評価結果が、評価を数値で表す情報である場合、評価条件は、例えば、閾値よりも低い(評価結果の数値が高いほど評価が高い場合)という条件、または閾値よりも高い(評価結果の数値が低いほど評価が高い場合)という条件である。評価条件は、評価が低いことを示す1以上の評価結果の値のいずれかと一致するという条件と考えてもよい。なお、評価条件は、これらの評価結果の値から、評価が高いか否かを判断可能な情報であれば、上記の情報に限定されない。
The predetermined condition is, for example, that the evaluation result obtained by the
ここでの学習処理は、一のアバターが対話に利用する対話モデル等の情報の、追加、削除または更新等を行うことであってもよく、一のアバターが一のユーザとの対話に利用する対話モデル等の情報の、追加、削除または変更等を行うことであってもよい。例えば、ユーザ識別子格納部102にアバター識別子とユーザ識別子とに対応付けて格納される対話モデルの追加、削除または変更等を行うことであってもよい。また、ここでの学習処理は、他のアバターが有する対話機能のための教師データの全部または一部を取得することであってもよい。また、ここでの学習処理は、機械学習等を利用して、対話機能に利用する対話モデル等の追加、削除または変更等を行うことであってもよい。
The learning process here may be to add, delete, or update information such as a dialogue model that one avatar uses for dialogue, and one avatar uses for dialogue with one user. It may be to add, delete or change information such as a dialogue model. For example, the interaction model stored in the user
学習処理部124は、例えば、予め決められた条件を満たした場合に、この条件を満たすか否かの判断対象となった対話入力情報や、一のアバターが対話機能を実現するために利用する対話モデル等を利用して学習処理を行ってもよい。例えば、学習処理部124は、判断対象となった対話入力情報について取得した応答情報の評価が低かったと判断して、この対話入力情報の一部またはすべてを用いて、この対話入力情報に対応する応答情報として評価の高い応答情報が得られるような学習を行ってもよい。例えば、学習処理部124は、判断対象となった対話入力情報について取得した応答情報の評価が低かったと判断して、対話機能に利用している1以上の対話モデルを用いて、この1以上の対話モデル以外の対話モデルであって、評価の高い応答情報が得られる対話モデルを取得するための学習を行ってもよい。
For example, when a predetermined condition is satisfied, the
学習処理部124は、例えば、一のアバター以外の、他のアバターが有する対話機能のための教師データの全部または一部を取得し、取得した教師データを用いて、一のアバターについて対話に関する学習処理を行う。対話機能のための教師データとは、例えば、対話機能に用いられる対話モデルを取得したり、更新したりするために用いられる教師データである。ここでの教師データは、例えば、教師データとして用いられる複数のデータである。ここでの学習処理は、取得した教師データ等を用いた機械学習である。
The
例えば、学習処理部124は、アバター格納部101等に格納されている他のアバターが対話機能のために利用する教師データから、予め決められた条件を満たすと判断された応答情報に対応する対話入力情報に関連する教師データの全部または一部を取得し、取得した教師データを用いて機械学習を行って新たな対話モデルを取得したり、取得した教師データと、既に取得済みである教師データとを用いて機械学習を行って、対話に用いる対話モデルを更新したりしてもよい。対話入力情報に関連する教師データとは、例えば、条件を満たすと判断された応答情報に対応する対話入力情報と同じ分野や話題の対話入力情報と、これに対する応答情報とを有するデータである。例えば、同じ分野や話題、目的等の対話入力情報は、公知の話題抽出の技術等を利用して検出可能である。対話入力情報に関連する教師データは、教師データと対応付けられた対話の分野や話題等を示す属性値が、条件を満たすと判断された応答情報に対応する対話入力情報から取得される分野や話題等と一致または類似する教師データであってもよい。この場合、例えば、教師データには、このような属性値を対応付けてアバター格納部101等に格納しておくことが好ましい。
For example, the
学習処理部124は、例えば、一のアバター以外の他のアバターが有する対話機能のための1または2以上の対話モデルの全部または一部を取得し、取得した対話モデルを用いて、一のアバターについて対話に関する学習処理を行う。ここでの対話モデルの取得は、対話モデルの識別子や、対話モデルへのリンク等を取得することであってもよい。対話機能のための対話モデルとは、対話機能を有するアバターが対話に利用する対話モデルである。対話モデルの一部とは、2以上の対話モデルのうちの1以上であってもよく、一の対話モデルを構成するデータのうちの一部(例えば、対話モデルが有する対話入力情報のサンプルと応答情報との複数の組の1以上)であってもよい。ここでの学習処理は、一のアバターが対話に利用する対話モデル、または、一のアバターが一のユーザとの対話に利用する対話モデルを追加することである。ここでの対話モデルの追加は、取得した対話モデルを新たに追加する対話モデルとして一のアバターや、一のアバターと一のユーザとの組に対応付けたり、対応付けて追記したりすることであってもよく、取得した対話モデルと、一のアバターが既に利用している対話モデルとをマージすることであってもよい。
The
例えば、学習処理部124は、アバター格納部101等に格納されている他のアバターが対話機能のために利用する対話モデルから、予め決められた条件を満たすと判断された応答情報に対応する対話入力情報に関連する対話モデルの全部または一部を取得し、取得した対話モデルを一のアバターが利用する対話モデルとして追加する。対話入力情報に関連する対話モデルとは、例えば、条件を満たすと判断された応答情報に対応する対話入力情報と同じ分野や話題についての対話モデルであり、例えば、サンプルとなる対話入力情報の分野や話題が、条件を満たすと判断された応答情報に対応する対話入力情報と同じである対話モデルである。例えば、同じ分野や話題の対話入力情報は、公知の話題抽出の技術等を利用して検出可能である。対話入力情報に関連する対話モデルは、対話モデルに対応付けられた対話の分野や話題等を示す属性値が、条件を満たすと判断された応答情報に対応する対話入力情報から取得される分野や話題等と一致または類似する対話モデル等であってもよい。この場合、例えば、対話モデル等には、このような属性値を対応付けてアバター格納部101等に格納しておくことが好ましい。
For example, the
追加処理部125は、追加機能を有する一のアバターについて予め決められた条件を満たした場合に、アバターの追加機能に応じて、自動処理に関する追加処理を行う。予め決められた条件とは、例えば、要求に応じて実行される自動処理に関する条件である。予め決められた条件は、例えば、要求処理部120が、入力情報受信部115が受信した要求に対応する自動処理を実行できないことである。自動処理を実行できないことは、要求に対応する自動処理を定義する情報を有する自動処理モデルが検出できないことと考えてもよい。また、予め決められた条件は、自動処理の結果に対するユーザの評価結果が、上記の対話に対する評価結果の場合と同様に、評価条件を満たすほど低いことであってもよい。評価結果は、例えば、自動処理の結果を示す情報とともに、上記と同様の、自動処理に対するアンケート情報を、要求を送信した端末装置2に送信して、これに応じてこの端末装置2から送信されるアンケート結果情報から取得するようにしてもよい。アバターの追加機能に応じて、自動処理に関する追加処理を行う、ということは、例えば、追加機能を実行することで、自動処理の追加処理を行うことである。
The
追加処理部125が行う自動処理に関する追加処理とは、例えば、一のアバターが実行可能な自動処理を追加することである。一のアバターが実行可能な自動処理とは、例えば、一のユーザについて、一のアバターが実行可能な自動処理と考えてもよい。かかることは以下においても同様である。また、追加処理部125が行う自動処理に関する追加処理とは、例えば、一のアバターが自動処理を実行する際に利用する自動処理モデル等の情報を追加することである。自動処理モデルの追加は、例えば、既にアバターが利用している自動処理モデルに加えて、新たな自動処理モデルを追加することであってもよく、既にアバターが利用している自動処理モデルのデータと、新たな自動処理モデルのデータとを重複が生じないようマージすることであってもよい。追加処理部125は、他のアバターが自動処理に利用する1または2以上の自動処理モデル等の情報を追加してもよく、格納部(図示せず)に格納されている1または2以上の自動処理モデル等の情報を追加してもよい。予め決められた条件が、要求に対応する自動処理が実行できない、という条件である場合、追加処理部125は、例えば、要求に対応する自動処理を実行可能とする自動処理モデルを検出して追加する。例えば、追加処理部125は、入力情報受信部115が受信した要求に対して、意図や目的が同じであるサンプルとなる要求、または意図や目的が同じであり、要求と同じ変数を有するサンプルとなる要求を有する自動処理モデルを追加する。また、受信した要求と、同じまたは類似する分野等と対応付けられた自動処理モデル等の情報を、追加してもよい。要求や、自動処理モデルが有するサンプルとなる要求等から、要求の分野等の情報を取得する技術は、公知であるため、詳細な説明を省略する。また、例えば、この場合、上述した対話モデルの場合と同様に、自動処理モデル等の情報に、予め、分野等の情報を対応付けておくようにして、追加処理部125が、入力情報受信部115が受信した要求から取得した分野等と同じまたは類似する分野等と対応付けられた自動処理モデルを検出して追加してもよい。
Additional processing related to automatic processing performed by the
課金部126は、選択指示に対応するアバターの利用に対して、選択指示に対応するユーザ識別子で識別されるユーザに課金処理を行う。課金処理は、ユーザのクレジットカードの情報(例えば、クレジットカード番号)や、電子マネーの情報(例えば、アカウント)等の、ユーザに対応付けられた決済に利用可能な情報を用いて、ユーザからアバターの利用に対する料金を徴収する処理であってもよく、このような課金を行う指示を、クレジットカード会社や、電子マネー決済を行う会社や、これらの会社が運営するサーバ装置等に対して出力することであってもよく、アバターの利用に対する料金の請求書等を、ユーザに対して発行する処理であってもよい。課金処理は、結果的にアバターの利用に対する料金をユーザに課金できる処理であれば、上記のような処理に限定されない。課金に必要となるユーザのクレジットカードや電子マネーの情報は、例えば、格納部(図示せず)にユーザ識別子と対応付けて格納されているようにしてもよい。
The
課金部126は、例えば、選択指示に対応するアバターと対応付けられた1以上の属性値に応じて、選択指示に対応付けられたユーザに対して、異なる金額の課金処理を行う。アバターの属性値とは、例えば、アバターが利用可能な機能、アバターが利用可能な機能数、アバターが機能を実行するために利用する対話モデル、利用する対話モデル数、利用する対話モデルのデータ量、アバターが機能を実行するために利用する自動処理モデル、利用する自動処理モデル数、利用する自動処理モデルのデータ量、アバターが対話モデル等の取得に利用する教師データのデータ量等である。ここでのデータ量は、データ数であってもよく、データの容量(例えば、ビット数等)であってもよい。
The
異なる金額は、例えば、属性値に応じて変動する(言い換えれば、属性値に応じて決定される)金額である。例えば、課金部126は、アバターの属性値であるアバターが利用する機能数や、対話モデル数や、自動処理モデル数に比例して増加する金額(または対応して連続的、または段階的に増加する金額)の課金処理を行う。また、例えば、課金部126は、アバターの属性値であるアバターが利用する対話モデルや、自動処理モデル、教師モデル等のデータ量に比例して増加する金額(または対応して連続的または段階的に増加する金額)の課金処理を行う。また、課金部126は、例えば、アバターが利用する対話モデルや、自動処理モデルや、教師データに対応付けられた金額を課金する処理を行ってもよい。
A different amount of money is, for example, an amount that varies according to the attribute value (in other words, is determined according to the attribute value). For example, the
課金部126は、アバターを一時的に利用するか否かを示す情報の値に応じて、ユーザに対して、異なる金額の課金処理を行うようにしてもよい。例えば、指示受信部111が、選択指示等を受信する際に、選択指示が示すアバターの利用が、一時的に利用するか否かを示す情報等を受け付けるようにし、この情報に応じて、課金部126が、ユーザによるアバターの利用が、一時的な利用か否かを判断するようにしてもよい。例えば、上述したように、一時的に利用するか否かを示す情報(例えば、フラグの情報)が、ユーザ識別子と選択指示が有するアバター識別子とに対応付けられてユーザ識別子格納部102に格納されるようにし、この格納された一時的に利用するか否かを示す情報に応じて、課金部126は、課金の対象となる一のアバターの、一のユーザによる利用が一時的な利用か否かを判断してもよい。この場合の、ユーザ識別子格納部102に格納されるユーザがアバターを一時的に利用するか否かを示す情報は、上記のように選択指示を受信する際に受信した情報であってもよく、ユーザがアバターを利用するための契約時に蓄積される情報であってもよい。なお、アバター提供装置1が、どのように、一のアバターの、一のユーザによる利用が一時的に利用するか否かを管理するかは上記に限定されない。
The charging
課金部126は、例えば、課金する金額を決定する際に利用するアバターの属性値に予め対応付けられた単価が、一時的に利用する場合と、一時的でない場合とで異なる金額に設定されているようにすることで、一時的に利用する場合と、一時的な利用でない場合とで、異なる金額の課金を行うようにしてもよく、一旦、アバターの利用について課金する金額を決定した後、この金額を、一時的な利用であるか否かに応じて、予め決められた値を加算したり、乗算したりして補正することにより、一時的な利用であるか否かに応じて異なる金額を課金するようにしてもよい。ただし、どのように異なる金額を決定するかは、上記に限定されない。
For example, the
課金部126は、例えば、指示受信部111が選択指示を受信した場合に、この選択指示に対応するアバターの利用についての課金処理を、選択指示に対応するユーザに対して行うようにしてもよい。選択指示に対応するユーザは、例えば、選択指示を送信した端末装置2のユーザである。また、課金部126は、ユーザがアバターの利用を終了した場合に、このアバターの利用についての課金処理を行ってもよい。また、課金部126は、ユーザ識別子格納部102に、アバター識別子と対応付けられて格納されているユーザ識別子等の情報を用いて、予め決められた時期(例えば、毎月の月末や、毎月の20日、毎年の、情報が蓄積された日と同じ日付等)に、課金処理等を行ってもよい。なお、課金部126が課金処理を行うタイミング等は上記に限定されない。
For example, when the
端末装置2は、例えば、ユーザが利用する装置である。端末装置2は、例えば、コンピュータや、いわゆるスマートフォンや、携帯電話、タブレット型端末、ウェアラブル端末等により実現可能である。
The
端末受信部201は、アバター提供装置1から送信される情報を受信する。例えば、端末受信部201は、アバター提供装置1から送信されるアバター情報を受信する。また、例えば、端末受信部201は、アバター提供装置1から送信される応答情報を受信する。また、例えば、端末受信部201は、アバター提供装置1から送信される自動処理の結果を示す情報を受信する。また、例えば、端末受信部201は、アバター提供装置1から送信される要求に対応する自動処理を実行できないことを示す情報を受信する。なお、要求に対応する自動処理を実行できないことを示す情報は、自動処理の結果を示す情報の一態様と考えてもよく、考えなくてもよい。端末受信部201が受信する応答情報や、自動処理の結果を示す情報は、例えば、アバター識別子と対応付けられた情報である。なお、端末受信部201が受信する情報は、上記のような情報に限定されない。例えば、応答情報や自動処理の結果を示す情報とともに、これらについてのアンケート情報を受信してもよい。
端末受信部201は、例えば、無線または有線の通信手段により実現される。
The
The
端末出力部202は、端末受信部201が受信する情報を用いて出力を行う。例えば、端末出力部202は、端末受信部201が受信するアバター情報を用いて、アバターを出力する。例えば、端末出力部202は、受信したアバター情報が3次元データや、ベクターデータ等である場合、これらをレンダリングして取得した静止画像や動画像等の画像を表示してもよい。また、端末出力部202は、例えば、端末受信部201が受信する応答情報や、自動処理の結果を示す情報等を出力する。また、端末出力部202は、端末受信部201が受信するアンケート情報を出力してもよい。例えば、端末出力部202は、端末受信部201が受信した応答情報や自動処理の結果を示す情報等を、アバターの出力として出力してもよい。アバターの出力として出力する、ということは、アバターが出力しているようにみえるよう情報を出力することであり、アバターが音声で出力することであってもよく、アバターが、いわゆる吹き出しやダイアログボックス等を用いて表示することであってもよい。例えば、端末受信部201が受信した応答情報や自動処理の結果を示す情報等が音声情報である場合、この音声情報を用いた音声を、アバターの出力として出力してもよく、端末受信部201が受信した応答情報や自動処理の結果を示す情報等が文字列の情報である場合、この文字列の情報を音声に変換して、変換した音声をアバターの出力として出力してもよい。また、端末受信部201が受信した応答情報や自動処理の結果を示す情報等が文字列の情報である場合、この文字列を含む吹き出しや、ダイアログボックスを、アバターの出力として、アバターの画像等と適宜対応付けて出力してもよい。
The
なお、端末出力部202による出力は、端末受信部201が受信する情報を用いた出力に限定されない。例えば、端末出力部202は、格納部(図示せず)に予め格納されているアバターの選択指示を出力するための操作等を受け付ける操作画面の情報等を用いて、このような操作画面等を表示してもよい。また、端末出力部202による出力は、上記のような出力に限定されない。
Note that the output from
ここでの出力は、通常は、モニタや、プロジェクタ等の表示デバイスを用いた表示であるが、音声出力であってもよく、表示と音声出力との組み合わせであってもよい。端末出力部202は、例えば、表示デバイスのドライバーや、表示デバイスと、そのドライバーとの組み合わせにより実現可能である。
The output here is usually display using a display device such as a monitor or a projector, but may be audio output or a combination of display and audio output. The
端末受付部203は、ユーザからの操作や入力を受け付ける。例えば、端末受付部203は、ユーザからアバターを選択する操作を受け付ける。ここでのアバターを選択する操作は、アバターの選択に利用されるユーザの属性値の受け付けを含むと考えてもよい。なお、ユーザの属性値は、格納部(図示せず)に予め格納されているユーザ属性値を読み出してもよい。また、端末受付部203は、例えば、ユーザから、アバターに対する要求の入力を受け付けてもよい。また、端末受付部203は、例えば、ユーザから、アバターに対する対話入力情報の入力を受け付ける。ここでのアバターは、例えば、端末出力部202が出力しているアバターである。例えば、端末受付部203は、ユーザからキーボードやタッチパネル等の入力デバイス(図示せず)を介して、文字列による入力を受け付ける。また、例えば、端末受付部203は、マイクロフォン等の入力デバイス(図示せず)等を介して音声により入力を受け付けてもよい。なお、端末受付部203が受け付ける入力は、上記のような入力に限定されない。例えば、端末受付部203は、端末出力部202が出力するアンケート情報に対するアンケート回答情報をユーザから受け付けてもよい。
端末受付部203は、例えば、入力デバイスのドライバーや、入力デバイスとそのドライバーとの組み合わせにより実現可能である。
The
The
端末送信部204は、端末受付部203が受け付けた入力に応じた情報をアバター提供装置1に送信する。例えば、端末送信部204は、入力に応じた情報に、格納部(図示せず)に予め格納されている自装置のユーザのユーザ識別子等を対応付けてアバター提供装置1に送信してもよい。また、端末送信部204は、例えば、一のアバターに関して端末受付部203が受け付けた入力に応じた情報を、この一のアバターのアバター識別子と対応付けてアバター提供装置1に送信してもよい。
The
例えば、端末送信部204は、端末受付部203が受け付けたアバターを選択する操作に応じた選択指示を、アバター提供装置1に送信する。この選択指示は、ユーザの属性値を有する情報であってもよい。また、端末送信部204は、例えば、端末受付部203が受け付けた要求を、アバター提供装置1に送信する。また、端末送信部204は、例えば、端末受付部203が受け付けた対話入力情報を、アバター提供装置1に送信する。また、端末送信部204は、端末受付部203が受け付けたアンケート回答情報を、アバター提供装置1に送信してもよい。ここで、端末送信部204が受け付ける要求または対話入力情報が音声情報である場合、端末送信部204は、受け付けたこれらの情報を、音声情報のままアバター提供装置1に送信してもよく、音声情報に対応する文字列を取得し、取得した文字列をアバター提供装置1に送信してもよい。
For example, the
例えば、端末送信部204は、音声情報について音声認識処理等を行うことにより、音声情報に対応する文字列の情報を取得する。音声認識処理を行うために用いられる情報は、端末装置2が有していてもよく、端末装置2がアクセス可能な他のサーバ装置(図示せず)等が有していてもよい。また、端末送信部204は、受信した音声情報を、音声認識等を行って音声情報に対応する文字列の情報を取得する処理を行うサーバ装置(図示せず)等に送信して、文字列を取得する処理を実行させ、これにより取得された文字列を受信することで、音声情報に対応する文字列の情報を取得してもよい。
端末送信部204は、例えば、無線または有線の通信手段により実現可能である。
For example, the
The
次に、アバター利用システム1000の、アバター提供装置1の動作の一例について図2のフローチャートを用いて説明する。
Next, an example of the operation of the
(ステップS101)指示受信部111は、選択指示を受信したか判断する。ここでは一例として、指示受信部111が受信する選択指示は、ユーザ識別子を有する選択指示であるとする。また、ここでは一例として、新規にアバターを利用する場合の選択指示は、1以上のユーザ属性値と、一時利用であるか否かを示す情報を有するものであるとする。なお、新規にアバターを利用する場合の選択指示は、新規の利用であることを示す情報を有していてもよい。選択指示を受信した場合、ステップS102に進み、受信していない場合、ステップS107に進む。
(Step S101) The
(ステップS102)アバター取得部113は、ステップS101で受信した選択指示が、1以上のユーザ属性値を有するか判断する。有している場合、ステップS103に進み、有していない場合、ステップS105に進む。なお、ステップS101で受信した選択指示が、新規の利用であることを示す情報を有するか判断し、有する場合に、ステップS103に進み、有さない場合、ステップS105に進むようにしてもよい。
(Step S102) The
(ステップS103)アバター取得部113は、ステップS101で受信した選択指示が有する1または2以上のユーザ属性値を用いてアバター格納部101からアバター情報を取得する。例えば、選択指示と同じ1または2以上のユーザ属性値と対応付けられたアバター情報をアバター格納部101から取得してもよく、選択指示が有する1または2以上のユーザ属性値を、学習器格納部103に格納された学習器に入力して、その出力として得られるアバター識別子が識別するアバター情報を取得してもよい。
(Step S103) The
(ステップS104)蓄積部112は、ステップS101で受信した選択指示が有するユーザ識別子と、ステップS103でアバター取得部113が取得したアバター識別子と、ステップS101で受信した選択指示が有するユーザ識別子と、一時利用であるか否かを示す情報とを対応付けてユーザ識別子格納部102に蓄積する。
(Step S104) The
(ステップS105)アバター取得部113は、ステップS101で受信した選択指示が有するユーザ識別子と対応付けられてユーザ識別子格納部102に格納されているアバター識別子を取得し、このアバター識別子で識別されるアバター情報を、アバター格納部101から取得する。ここでは特に、ステップS101で受信した選択指示が有するユーザ識別子と、一時利用でないことを示す情報と対応付けられてユーザ識別子格納部102に格納されているアバター識別子を取得し、このアバター識別子で識別されるアバター情報を、アバター格納部101から取得する。
(Step S105)
(ステップS106)アバター送信部114は、直前のステップS103またはステップS105においてアバター取得部113が取得したアバター情報を、選択指示を送信した端末装置2に送信する。そして、ステップS101に戻る。
(Step S106) The
(ステップS107)入力情報受信部115は、対話入力情報を受信したか判断する。受信する対話入力情報は、ここでは、一例として、端末装置2で出力しているアバターのアバター識別子と、端末装置2を利用するユーザのユーザ識別子とに対応付けられているものとする。受信した場合、ステップS108に進み、受信していない場合、ステップS116に進む。
(Step S107) The input
(ステップS108)応答情報取得部121は、ステップS107で受信した対話入力情報に対応するアバターが対話機能を有するか判断する。例えば、このアバターに対応するアバター情報が、対話機能を有することを示す情報を有しているか判断する。対話機能を有する場合、ステップS109に進み、有していない場合、ステップS101に戻る。
(Step S108) The response
(ステップS109)応答情報取得部121は、ステップS107で受信した対話入力情報に対応する応答情報を取得する。例えば、アバター格納部101に格納されている対話モデルのうちの、受信した対話入力情報と対応付けられたアバター識別子とデフォルトで対応付けられた対話モデル、または受信した対話入力情報に対応付けられたアバター識別子とユーザ識別子との組に対応付けられている1または2以上の対話モデル識別子により識別される他のアバターと対応付けられた対話モデルを用いて、応答情報を取得する。なお、対話モデルから応答情報が取得できなかった場合、適切な応答情報が取得できないことを示す応答情報を取得する。この応答情報は、対話入力情報が理解できないことを示す応答情報であってもよい。
(Step S109) The response
(ステップS110)応答情報送信部122は、ステップS108で取得した応答情報を、対話入力情報を送信した端末装置2に送信する。
(Step S110) The response
(ステップS111)評価取得部123は、ステップS107で受信した対話入力情報に対応するアバターが学習機能を有するか判断する。例えば、このアバターに対応するアバター情報が、学習機能を有することを示す情報を有しているか判断する。学習機能を有する場合、ステップS112に進み、有していない場合、ステップS101に戻る。
(Step S111) The
(ステップS112)評価取得部123は、ステップS109で取得した応答情報についての評価結果を取得する。この評価結果は、対話機能についての評価結果と考えてよい。
(Step S112) The
(ステップS113)学習処理部124は、ステップS110で取得した評価結果が、予め用意された評価条件を満たすほど低いか判断する。この判断は、例えば、評価結果の値が、予め用意された評価条件が示す評価が低いことを示す1以上の値のいずれかと一致するか否かの判断と考えてもよい。ここでの1以上の値は、値の範囲であってもよい。評価結果が低い場合、ステップS114に進み、低くない場合、ステップS101に戻る。
(Step S113) The
(ステップS114)学習処理部124は、ステップS107で受信した対話入力情報が対応付けられたアバター識別子が示すアバター以外の他のアバターと対応付けられた対話モデルであって、受信した対話入力情報に対応する1以上の対話モデルを取得する。例えば、対話モデルに対応する分野や話題等が、対話入力情報の分野や話題と一致する対話モデルを取得する。対話モデルの取得は、対話モデルを識別する対話モデル識別子の取得と考えてもよい。なお、対話モデルを取得する代わりに、受信した対話入力情報に対応する対話機能のために用いられる教師データであって、他のアバターと対応付けられた教師データを取得してもよい。また、この教師データを用いて、機械学習を行って、対話入力情報が有するアバター識別子が示すアバターが利用する対話モデルを取得したり更新したりしてもよい。
(Step S114) The
(ステップS115)蓄積部112は、ステップS112で取得した対話モデルの対話モデル識別子を、ステップS107で受信した対話入力情報と対応付けられたアバター識別子とユーザ識別子とに対応付けて、ユーザ識別子格納部102に蓄積(例えば、追記)する。そして、ステップS101に戻る。
(Step S115) The
(ステップS116)入力情報受信部115は、要求を受信したか判断する。受信する要求は、ここでは、一例として、端末装置2で出力しているアバターのアバター識別子と、端末装置2を利用するユーザのユーザ識別子と対応付けられているものとする。受信した場合、ステップS117に進み、受信していない場合、ステップS125に進む。
(Step S116) The input
(ステップS117)要求処理部120は、ステップS116で受信した要求に対応するアバターが自動処理機能を有するか判断する。例えば、このアバターに対応するアバター情報が、自動処理機能を有することを示す情報を有しているか判断する。自動処理機能を有する場合、ステップS118に進み、有していない場合、ステップS101に戻る。
(Step S117) The
(ステップS118)要求処理部120は、ステップS116で受信した要求に対応する自動処理を決定する。例えば、アバター格納部101に格納されている自動処理モデルのうちの、受信した要求と対応付けられたアバター識別子とデフォルトで対応付けられた自動処理モデル、または受信した要求に対応付けられたアバター識別子とユーザ識別子との組に対応付けられている1または2以上の自動処理モデル識別子により識別される他のアバターと対応付けられた自動処理モデルを用いて、自動処理を定義する情報を取得する。自動処理を定義する情報を取得することは、実質的に、この情報で定義される自動処理を決定することと考えてよい。なお、いずれの自動処理モデルからも自動処理を定義する情報が取得できなかった場合、適切な自動処理が決定できないと判断する。この場合、適切な自動処理が決定できないことを示す情報を取得してもよい。
(Step S118) The
(ステップS119)要求処理部120は、ステップS108で取得した自動処理を実行する。なお、要求処理部120は、自動処理の結果を示す情報を、要求を送信した端末装置2に送信してもよい。なお、ステップS118で自動処理が決定できなかった場合、ステップS119で自動処理を実行せず、自動処理を実行できなかったことを示す情報等を、自動処理の結果を示す情報として、要求を送信した端末装置2に送信してもよい。
(Step S119) The
(ステップS120)評価取得部123は、ステップS116で受信した要求に対応するアバターが追加機能を有するか判断する。例えば、このアバターに対応するアバター情報が、追加機能を有することを示す情報を有しているか判断する。追加機能を有する場合、ステップS121に進み、有していない場合、ステップS101に戻る。
(Step S120) The
(ステップS121)評価取得部123は、ステップS119で実行した自動処理についての評価結果を取得する。なお、ステップS119において、自動処理が実行できなかった場合、例えば、実行できなかったことについての評価結果を取得する。ここでの評価結果は、自動処理機能についての評価結果と考えてよい。
(Step S121) The
(ステップS122)追加処理部125は、ステップS121で取得した評価結果が、予め用意された評価条件を満たすほど低いか判断する。この判断は、例えば、評価結果の値が、予め用意された評価条件が示す評価が低いことを示す1以上の値のいずれかと一致するか否かの判断と考えてもよい。ここでの1以上の値は、値の範囲であってもよい。評価結果が低い場合、ステップS123に進み、低くない場合、ステップS101に戻る。
(Step S122) The
(ステップS123)追加処理部125は、ステップS116で受信した要求が対応付けられたアバター識別子が示すアバター以外の他のアバターと対応付けられた自動処理モデルであって、受信した要求に対応する1以上の自動処理モデルを取得する。例えば、自動処理モデルに対応する分野等が、要求の分野等と一致する自動処理モデルを取得する。自動処理モデルの取得は、自動処理モデルを識別する自動処理モデル識別子の取得と考えてもよい。なお、自動処理モデルを取得する代わりに、受信した要求に対応する自動処理機能のために用いられる教師データであって、他のアバターと対応付けられた教師データを取得してもよい。また、この教師データを用いて、機械学習を行って、要求に対応付けられたアバター識別子が示すアバターが利用する自動処理モデルを取得したり更新したりしてもよい。
(Step S123) The
(ステップS124)蓄積部112は、ステップS123で取得した自動処理モデルの自動処理モデル識別子を、ステップS116で受信した要求と対応付けられたアバター識別子とユーザ識別子とに対応付けて、ユーザ識別子格納部102に蓄積(例えば、追記)する。そして、ステップS101に戻る。
(Step S124) The
(ステップS125)課金部126は、アバターの利用についての課金処理を行うタイミングであるか判断する。例えば、予め決められた課金処理を行う日付(例えば、毎月の決められた日付等)になったか判断する。また、予め決められた処理等が行われた場合に、課金処理を実行するタイミングであると判断してもよい。課金処理を実行するタイミングである場合、ステップS126に進み、タイミングでない場合、ステップS101に戻る。
(Step S125) The
(ステップS126)課金部126は、アバターの利用についての課金処理を行う。例えば、課金部126は、ユーザ識別子格納部102に、ユーザ識別子と対応付けられて格納されている情報が示すユーザが利用するアバターや、このアバターが利用する対話モデルや自動処理モデルに応じて、ユーザに対して課金処理を行う。例えば、課金部126は、一のユーザによる一のアバターの利用が、一時利用であるか否かに応じて、一のユーザに対して異なる金額の課金処理を行う。また、一のユーザが利用するアバターに対応付けられた対話モデルや自動処理モデル(すなわちアバターが対話機能に利用する対話モデルや、自動処理機能に利用する自動処理モデル)の数や、それぞれの対話モデルや自動処理モデルに対応付けられた金額に応じて変化する金額の課金処理を行う。そして、ステップS101に戻る。
(Step S126) The
なお、課金部126は、ユーザ識別子格納部102に、ユーザ識別子と対応付けられて格納されている情報が示すアバターの対話機能に利用される教師データや、アバターの自動処理機能に利用される教師データの数やデータ量等に応じた金額の課金を行ってもよい。
The
なお、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Note that in the flowchart of FIG. 2, the process ends when the power is turned off or when the process ends.
次に、アバター利用システム1000の端末装置2の動作について、簡単に説明する。
Next, the operation of the
端末受付部203が、ユーザからアバターを選択する指示を受け付けると、端末送信部204が、この指示に応じた選択指示を、ユーザ識別子と対応付けてアバター提供装置1に送信する。送信した選択指示に応じて、端末受信部201が、アバター提供装置1からアバター情報を受信すると、端末出力部202は、受信したアバター情報を用いてアバターを出力する。
When the
端末受付部203が、ユーザから、出力されるアバターに対する一の自動処理を行うための要求を受け付けると、端末送信部204は、この要求を、ユーザ識別子と、出力されているアバターのアバター識別子とに対応付けて、アバター提供装置1に送信する。送信した要求に応じて、端末受信部201が、自動処理の結果を示す情報を受信すると、端末出力部202は、受信した情報を、現在出力されているアバターからの出力として出力する。
When the
端末受付部203が、ユーザから、出力されるアバターに対する一の対話入力情報の入力を受け付けると、端末送信部204は、この対話入力情報を、ユーザ識別子と、出力されているアバターのアバター識別子とに対応付けて、アバター提供装置1に送信する。送信した対話入力情報に応じて、端末受信部201が、応答情報を受信すると、端末出力部202は、受信した応答情報を、現在出力されているアバターからの出力として出力する。
When the
なお、端末受信部201が、アバター提供装置1から、自動処理の結果を示す情報や、応答情報と対応付けられたアンケート情報を受信した場合、端末出力部202が、このアンケート情報を、例えば、アバターの出力等として出力し、端末受付部203が、出力されたアンケート情報に対するユーザの回答を受け付け、受け付けた回答を示すアンケート回答情報を、ユーザ識別子とアバター識別子とに対応付けて(または、受信したアンケート情報に対応付けて)アバター提供装置1に送信するようにしてもよい。
When the
(具体例1)
以下、本実施の形態におけるアバター利用システム1000の具体的な動作について説明する。ここでは、アバター提供装置1はサーバ装置、端末装置2はユーザが利用するスマートフォンであるとする。また、ここでは、端末装置2を利用するユーザの決済に必要な情報(例えば、クレジットカード番号や、電子マネーの識別子等)が、予め、決済を行うサーバ装置(図示せず)等の格納部(図示せず)に、ユーザ識別子と対応付けて格納されているものとする。
(Specific example 1)
A specific operation of avatar utilization system 1000 according to the present embodiment will be described below. Here, it is assumed that the
ユーザAが、新規にアバターを利用するために、端末装置2の端末出力部202にアバターの利用を申し込むための入力画面を表示させ、タッチパネルを利用して、この入力画面に、ユーザA自身のユーザ識別子「U0001」と、自分の性別「男性」や年齢「25」歳等の予め決められた複数の属性についてのユーザ属性値とを入力するとともに、アバターの利用が一時利用ではなく、毎月払いのサブスクリプションにより利用であることを指定する情報を入力すると、端末受付部203は、これらの入力を受け付ける。そして、ユーザAが、入力した情報を送信するための送信ボタン(図示せず)を押したとすると、端末受付部203がこの操作を受け付け、端末送信部204が、この操作に応じて、上記で受け付けた情報を有する選択指示をアバター提供装置1に送信する。
In order for user A to newly use an avatar, the
アバター提供装置1の指示受信部111が、ユーザAの端末装置2から上記の選択指示を受信すると、選択指示がユーザ属性値を有しているため、アバター取得部113は、新規のアバターを取得するために、学習器格納部103に予め格納されている学習器と、上記の複数のユーザ属性値とを用いて機械学習の予測処理を行い、アバター識別子を取得する。例えば、アバター取得部113は、複数の属性についてのユーザ属性値を学習器に入力して、学習器が出力するアバター識別子を取得する。ここでの学習器は、例えば、複数のユーザについてそれぞれ取得した上記と同じ複数の属性のユーザ属性値と、各ユーザが利用したアバターのアバター識別子と、各ユーザが利用したアバターについての評価を示す情報を有する情報とを、教師データとして用いて機械学習を行うことで取得した学習器であってもよく、利用したアバターに対する評価が高い複数のユーザについての、上記と同じ複数の属性のユーザ識別子と、各ユーザが利用したアバターのアバター識別子との組を教師データとして機械学習を行って取得した学習器であってもよい。なお、学習器は、複数の属性についてのユーザ属性値を用いて、機械学習の予測処理を行うことで、ユーザに適したアバターを特定できる学習器であれば、上記の学習器に限定されない。ここで学習器を用いて取得したアバター識別子は、「A101」であったとする。
When the
図3は、アバター格納部101に格納されているアバター情報を管理するアバター管理表である。アバター管理表は、「アバターID」と、「アバター情報」と、「対話モデル」と、「自動処理モデル」と、「学習」と、「追加」という属性を有している。「アバターID」はアバター識別子である。「アバター情報」は、アバター情報であり、ここでは、アバター情報のファイル名を示している。なお、ここでは、説明の便宜上、一のアバターのアバター情報が一つのファイルで構成されている場合を例に挙げて示しているが、一のアバターのアバター情報は、複数のファイルで構成されていてもよく、一のアバターのアバター情報は、複数のファイルを一つにパッケージ化した情報等であってもよい。かかることは、以下の「対話モデル」や、「自動処理モデル」についても同様である。「対話モデル」は、アバターがデフォルトで利用する対話モデルの対話モデル識別子である。「自動処理モデル」は、アバターがデフォルトで利用する自動処理モデルの自動処理モデル識別子である。なお、対話機能を有さないアバターについては、「対話モデル」の値が空欄またはNULLになる。また、自動処理機能を有さないアバターについては、「自動処理モデル」の値が空欄またはNULLになる。「学習」は、アバターが対話に関する学習機能を有するか否かを示す情報であり、値「1」は学習機能を有しており、値「0」は学習機能を有していないものとする。通常、対話機能を有さないアバターは学習機能を有さない。「追加」は、自動処理の追加機能を有するか否かを示す情報であり、値「1」は、自動処理の追加機能を有することを示し、値「0」は、追加機能を有さないことを示す。通常、自動処理機能を有さないアバターは自動処理の追加機能を有さない。アバター管理表において、一のレコード(行)が、一のアバターのアバター情報等に対応している。
FIG. 3 is an avatar management table for managing avatar information stored in the
図4(a)は、ユーザ識別子格納部102に格納されているユーザ識別子を管理するユーザ識別子管理表である。ユーザ識別子管理表は、「ユーザID」と、「アバターID」と、「一時利用」と、「追加対話モデル」と、「追加自動処理モデル」という属性を有している。「ユーザID」は、ユーザ識別子である。「アバターID」は、ユーザが利用するアバターのアバター識別子、「一時利用」は、アバターの利用が一時利用であるか否かを示す情報であり、値「1」は一時利用を示し、「0」は一時利用ではない利用を示している。ここでの一時利用ではない利用は、月単位に課金が発生するサブスクリプションによる利用であるとする。「追加対話モデル」は、アバターの対話に関する学習機能により追加された1以上の対話モデルの対話モデル識別子であるとする。「追加自動処理モデル」は、アバターの自動処理の追加機能により追加された1以上の自動処理モデルの自動処理モデル識別子であるとする。
FIG. 4A is a user identifier management table for managing user identifiers stored in the user
なお、ここでは、ユーザ識別子管理表の各レコードのうちの、一時利用であることを示すレコードは、そのレコードについての課金処理が終了した場合に、課金部126等により削除され、一時利用でないことを示すレコードについては、アバターの利用が終了した後であって、そのレコードについて利用終了後の最初の課金処理または利用料金を精算するための課金が行われた時点で、課金部126等によりそのレコードが削除されるものとする。ただし、ユーザ識別子管理表の管理は、アバターの利用に応じた課金が適切に行えるものであれば、上記のような仕組みでの管理に限定されない。
Here, among the records in the user identifier management table, a record indicating temporary use is deleted by the
蓄積部112は、アバター取得部113が上記で取得したアバター識別子「A101」と、選択指示が有するユーザ識別子「U0001」と、選択指示が有するアバターの利用が一時利用でないことを示す情報とを対応付けて、ユーザ識別子格納部102に新たに蓄積する。図4(a)に示したユーザ識別子管理表は、この新たな情報に対応するレコード(行)が蓄積された状態のユーザ識別子管理表を示している。新たに蓄積されたレコードは、図4(a)の一番下の行であり、「ユーザID」が「U0001」であり、「アバターID」が「A101」であり、「一時利用」が「0」であるレコードである。なお、新たに情報が蓄積された時点では、学習機能により追加された対話モデルや、追加機能により追加された自動処理モデルがないため、新たに追記されたアバター識別子「A101」と、ユーザ識別子「U0001」とを有するレコードの「追加対話モデル」と、「追加自動処理モデル」との値は空欄またはNULLとなっている。
The
アバター取得部113は、図3に示したアバター管理表の「アバターID」が「A101」であるレコードの「アバター情報」の値「D101」を取得し、ファイル名が「D101」であるアバター情報とアバター識別子「A101」とを、アバター格納部101から読み出す。そして、アバター送信部114が、読み出したアバター情報を、選択指示を送信したユーザAの端末装置2に送信する。
The
ユーザAの端末装置2の端末受信部201が、ファイル名が「D101」であるアバター情報を受信すると、端末出力部202が、受信したアバター情報を用いて、アバターを出力する。ここでは、アバターを表示する。
When the
図5は、ユーザAの端末装置2のモニタ202aに表示されたアバターの表示例を示す図である。
FIG. 5 is a diagram showing a display example of an avatar displayed on the
次に、ユーザAが、表示されているアバターに対し、端末装置2が有するマイクロフォンを用いて、「スマートフォンで動画を見る方法を教えて」という対話入力情報を音声で入力したとすると、この音声入力を端末受付部203が受け付け、受け付けた音声の音声情報を対応する文字列の情報に変換するサービスを提供するサーバ装置(図示せず)に送信し、このサーバ装置が変換した上記の音声情報に対応する文字列の情報「スマートフォンで動画を見る方法を教えて」を受信する。そして、受信した文字列の情報を、対話入力情報として、ユーザAのユーザ識別子「U0001」と、現在出力しているアバターのアバター識別子「A101」とに対応付けて、アバター提供装置1に送信する。
Next, assuming that user A uses the microphone of
アバター提供装置1の入力情報受信部115が、ユーザ識別子「U0001」と、アバター識別子「A101」と、に対応付けられた「スマートフォンで動画を見る方法を教えて」という文字列の対話入力情報を受信すると、応答情報取得部121は、図3に示したアバター管理表において、対話入力情報に対応付けられたアバター識別子「A101」に対応するレコードの「対話モデル」の値として、1以上の対話モデル識別子が格納されているか判断する。ここでは、「C101」という対話モデル識別子がデフォルトで格納されているとすると、応答情報取得部121は、アバター識別子が「A101」であるアバターが、対話機能を有するアバターであると判断する。このため、応答情報取得部121は、アバター格納部101に対話モデル識別子と対応付けて格納されている対話モデルのうちの、上記のデフォルトの対話モデル識別子「C101」で識別される対話モデルにおいて、上記で受信した対話入力情報に対応するサンプルの対話入力情報を検索し、検出されたサンプルの対話入力情報に対応する応答情報を取得する。なお、受信した対話入力情報に対応するサンプルの対話入力情報を検出する処理は、対話モデルを用いた対話処理においては公知の技術であるため、詳細な説明を省略する。
The input
ここでは、応答情報取得部121が、「動画アプリABCをタップして、見たい動画を選択すると、動画が再生されます。」という文字列の応答情報を対話モデル識別子「C101」で識別される対話モデルを用いて取得したとする。
Here, the response
応答情報送信部122は、取得した文字列の応答情報を、対話入力情報を送信したユーザAの端末装置2に送信する。
The response
ユーザAの端末装置2の端末受信部201が、上記の応答情報を受信すると、端末出力部202が、文字列の応答情報を音声情報に変換し、変換した音声情報を、現在出力されているアバターの出力として、スピーカー等(図示せず)から出力する。具体的には、「動画アプリABCをタップして、見たい動画を選択すると、動画が再生されます。」という音声をアバターの出力として出力する。文字列の応答情報への変換は、端末装置2が行ってもよく、文字列を音声情報に変換するサービスを提供するサーバ装置(図示せず)等に、文字列の応答情報を送信し、変換された文字列の情報をサーバ装置から受信するようにしてもよい。なお、応答情報を音声情報に変換せずに、文字列の応答情報を、現在出力されているアバターに対応する吹き出しや、ダイアログボックス等に配置して表示するようにしてもよい。
When the
なお、応答情報送信部122が、文字列の応答情報を音声情報に変換して、端末装置2に送信するようにしてもよい。この場合の文字列の音声情報への変換は、アバター提供装置1が行ってもよく、上記と同様に、文字列を音声情報に変換するサービスを提供するサーバ装置(図示せず)等を利用して行ってもよい。かかることは、以下の応答情報等の出力や、自動処理の結果を示す情報の出力等についても同様である。
Note that the response
ここで、仮に、ユーザAの入力に応じて端末装置2が送信する対話入力情報が、「パスポートの取り方が知りたい」という文字列の情報であったとし、対話モデル識別子が「C101」である上記のデフォルトの対話モデルにおいて、対話入力情報に対応するサンプルの対話入力情報が検出できず、検出されたサンプルの対話入力情報に対応する応答情報を取得できなかったとする。
Here, it is assumed that the dialogue input information transmitted by the
この場合、応答情報取得部121は、図4(a)に示したユーザ識別子管理表において、「ユーザID」が上記の対話入力情報に対応付けられたユーザ識別子「U0001」と一致し、「アバターID」が、上記の対話入力情報に対応付けられたアバター識別子「A101」と一致するレコードを検出する。検出されたレコードが、仮に、「追加対話モデル」の値として1以上の対話モデル識別子を有していた場合、応答情報取得部121は、この1以上の対話モデル識別子が識別する対話モデルを用いて、上記と同様に応答情報を取得し、応答情報送信部122が取得した応答情報を端末装置2に送信する。
In this case, in the user identifier management table shown in FIG. ID" matches the avatar identifier "A101" associated with the dialogue input information. If the detected record has one or more dialogue model identifiers as the value of "additional dialogue model", the response
しかし、ここでは、図4(a)に示したユーザ識別子管理表において検出したレコードの「追加対話モデル」の値がなかった、またはNULLであったとする。この場合、応答情報取得部121は、適切な応答情報を取得できなかったと判断する。そして、応答情報取得部121は、応答情報が取得できなかったことを示す予め決められた文字列等の情報(例えば、「わかりませんでした。」等)を端末装置2に送信する。この情報を受信した端末装置2は、上記と同様に、この情報に対応する音声を、アバターの出力として出力する。
However, here, it is assumed that the value of the "additional interaction model" of the record detected in the user identifier management table shown in FIG. 4(a) is absent or NULL. In this case, the response
応答情報取得部121が、上記のように対話モデルを用いた応答情報を取得する処理を行い、その結果として、応答情報または応答情報が取得できなかったことを示す情報を端末装置2に送信すると、学習処理部124は、図3に示したアバター管理表の、「アバターID」が、対応入力情報と対応付けられたアバター識別子「A101」と一致するレコード(行)の「学習」の値が、対話に関する学習機能を有することを示す値である「1」であるか、判断する。ここでは、「1」であり、学習機能を有するアバターであると判断されたとする。
When the response
このため、評価取得部123は、応答情報に対する評価結果を取得する。ここでは、応答情報を取得できた場合、評価結果として値「1」を取得し、応答情報が取得できなかった場合、評価結果として値「0」を取得する。ここでは、仮に、評価結果として値「0」を取得したとする。
Therefore, the
そして、学習処理部124は、評価取得部123が取得した評価結果が、予め決められた評価条件を満たすほど低いか判断する。ここでは、評価条件が、評価結果の値が「0」である、という条件であったとすると、学習処理部124は、上記で取得した評価結果が評価条件を満たすほど低いと判断する。
Then, the
このため、学習処理部124は、入力情報受信部115が受信した対話入力情報の分野と同じ分野の対話モデルを、アバター識別子「A101」以外のアバター識別子と対応付けられた対話モデルの中から取得する。
Therefore, the
図6(a)は、アバター格納部101に格納される対話モデルを管理する対話モデル管理表である。対話モデル管理表は、「対話モデル」と、「分野」という属性を有している。「対話モデル」は、対話モデル識別子である。「分野」は、対話モデルに対応する分野の分野名であり、例えば、対話モデルに含まれるサンプルとなる対話入力情報の分野を示す分野名である。
6A is a dialogue model management table for managing dialogue models stored in the
学習処理部124は、対話入力情報である「パスポートの取り方が知りたい」から、この対話入力情報の内容の分野名を取得する。例えば、対話入力情報から、形態素解析等を行って名詞句を取得し、格納部(図示せず)に予め格納されている複数の分野名ごとにそれぞれ用意された1または2以上の名詞句、または複数の名詞句の組み合わせ等の情報を用いて、対話入力情報から取得した名詞句と一致する名詞句に対応する分野名を、対話入力情報の分野名として取得する。例えば、ここでは、「パスポート」という名詞句から、「旅行」という分野名を取得したとする。
The
なお、形態素解析等は、アバター提供装置1が行ってもよく、形態素解析を行うサービスを提供するサーバ装置(図示せず)等を用いて行ってもよい。また、形態素解析に用いる情報は、アバター提供装置1が有していてもよく、他のサーバ装置(図示せず)等が有しているものを用いてもよい。
The morphological analysis and the like may be performed by the
学習処理部124は、図6(a)に示した対話モデル管理表において、「分野」が、上記で対話入力情報から取得した分野名である「旅行」と一致するレコードを検出し、検出したレコードの「対話モデル」の値である対話モデル識別子であって、図3に示したアバター管理表においてアバター識別子「A101」と対応付けられた対話モデル識別子と、図4に示したユーザ識別子管理表においてユーザ識別子「U0001」およびアバター識別子「A101」と対応付けられた対話モデル識別子と、を除く対話モデル識別子を取得する。ここでは、対話モデル識別子として「C103」が取得されたとする。そして、蓄積部112が、学習処理部124が取得した対話モデル識別子を、対話入力情報に対応付けられたユーザ識別子「U0001」およびアバター識別子「A101」に対応付けてユーザ識別子格納部102に蓄積する。具体的には、図4(a)に示したユーザ識別子管理表の「ユーザID」が「U0001」であり、「アバターID」が「A101」であるレコードの、「追加対話モデル」の値として、上記で取得した対話モデル識別子「C103」を追記する。なお、対応する分野名が同じである複数の対話モデル識別子が検出された場合、これらをすべて取得して、ユーザ識別子管理表に蓄積してもよく、そのうちの一部のみを取得して、蓄積してもよい。一部のみを取得する場合、どのようにその一部を取得する対象に決定してもよく、例えば、データ量の多いものから順に、または少ないものから順に、取得する対象に決定してもよく、ランダムに取得する対象を決定してもよい。
The
図4(b)は、図4(a)に示した対話モデル管理表に、上記で取得した対話モデル識別子が追記して得られた対話モデル管理表を示す図である。 FIG. 4(b) is a diagram showing a dialogue model management table obtained by adding the dialogue model identifier obtained above to the dialogue model management table shown in FIG. 4(a).
これにより、ユーザ識別子「U0001」とアバター識別子「A101」とに対応付けられた対話入力情報を受信した場合において、デフォルトで用意された対話モデル識別子が「C101」である対話モデルを用いて、上記の対話入力情報に対応する応答情報が取得できないときには、ユーザ識別子管理表により、ユーザ識別子「U0001」とアバター識別子「A101」とに対応付けられている対話モデル識別子が「C103」を用いて、上記の対話入力情報に対応する応答情報を取得する処理が行われることにより、適切な応答情報が取得できるようになることが期待でき、ユーザが利用するアバターの対話機能を向上させることができる。特に、この対話モデル識別子が「C103」である対話モデルは、対応する分野が「旅行」であるため、上記と同様の、「パスポートの取り方が知りたい」という対話入力情報を受信した場合に適切な応答情報を取得することができる可能性を高めることができ、適切な応答が可能となる。なお、追加した対話モデルを用いて、上記の対話入力情報に応じた応答情報を取得し、端末装置2に送信するようにしてもよい。この場合、上記のように、応答情報が取得できなかったことを示す情報を、端末装置2に送信しないようにしてもよい。
As a result, when the dialogue input information associated with the user identifier "U0001" and the avatar identifier "A101" is received, the dialogue model prepared by default whose dialogue model identifier is "C101" is used to perform the above When the response information corresponding to the dialogue input information cannot be acquired, the dialogue model identifier is "C103", which is associated with the user identifier "U0001" and the avatar identifier "A101", according to the user identifier management table. By performing the process of acquiring the response information corresponding to the interaction input information, it can be expected that appropriate response information can be acquired, and the interaction function of the avatar used by the user can be improved. In particular, the dialog model whose dialog model identifier is "C103" corresponds to the field of "travel". It is possible to increase the possibility of acquiring appropriate response information and to make appropriate responses. Note that response information corresponding to the above-described dialogue input information may be acquired using the added dialogue model and transmitted to the
上記において、図3に示したアバター管理表の、「アバターID」が、対応入力情報と対応付けられたアバター識別子「A101」と一致するレコード(行)の「学習」の値が、対話に関する学習機能を有さないことを示す値である「0」である場合や、評価取得部123が取得した対話機能についての評価結果が、評価条件を満たすほど低くない場合、学習処理部124は、上記のような対話モデルを追加する学習処理は行わない。
In the above, in the avatar management table shown in FIG. 3, the value of "learning" of the record (row) whose "avatar ID" matches the avatar identifier "A101" associated with the corresponding input information is the learning about dialogue. When the value is “0” indicating that the function is not provided, or when the evaluation result of the interactive function obtained by the
次に、ユーザAが、表示されているアバターに対し、端末装置2が有するマイクロフォンを用いて、「雑誌ABCを購入してほしい。」という要求を音声で入力したとすると、この音声入力を端末受付部203が受け付け、受け付けた音声の音声情報を、対応する文字列の情報に変換するサービスを提供するサーバ装置(図示せず)に送信し、このサーバ装置が変換した上記の音声情報に対応する文字列の情報を受信する。そして、受信した文字列の情報を、要求として、ユーザAのユーザ識別子「U0001」と、現在出力しているアバターのアバター識別子「A101」とに対応付けて、アバター提供装置1に送信する。
Next, assuming that the user A uses the microphone of the
アバター提供装置1の入力情報受信部115が、ユーザ識別子「U0001」と、アバター識別子「A101」と、に対応付けられた「雑誌ABCを購入してほしい。」という文字列の要求を受信すると、要求処理部120は、図3に示したアバター管理表において、受信した要求に対応付けられたアバター識別子「A101」に対応するレコードの「自動処理モデル」の値として、1以上の自動処理モデル識別子が格納されているか判断する。ここでは、「M101」という自動処理モデル識別子がデフォルトで格納されているとすると、要求処理部120は、アバター識別子が「A101」であるアバターが、自動処理機能を有するアバターであると判断する。このため、要求処理部120は、アバター格納部101に自動処理モデル識別子と対応付けて格納されている自動処理モデルのうちの、上記のデフォルトの自動処理モデル識別子「M101」で識別される自動処理モデルにおいて、上記で受信した要求に対応するサンプルの要求を検索し、検出されたサンプルの要求に対応する自動処理を定義する情報を取得する。例えば、要求処理部120は、取得する自動処理を定義する情報に、要求に含まれる「雑誌ABC」という文字列を、自動処理を定義する情報が有する変数の値として代入してもよい。なお、受信した要求に対応するサンプルの対話入力情報を検出する処理は、上述した受信した対話入力情報に対応するサンプルの対話入力情報を検出する処理と同様の技術であり、ここでは詳細な説明を省略する。
When the input
ここでは、要求処理部120が、「雑誌ABC」を、雑誌を販売する特定の電子商取引サイトから購入する処理を定義する情報を、自動処理モデル識別子「M101」で識別される自動処理モデルを用いて取得したとする。
Here, the
要求処理部120は、上記の自動処理を定義する情報を用いて、自動処理を実行して、ユーザAのために、特定の電子商取引サイトから、「雑誌ABC」を購入する処理を行う。商品を自動購入する処理については、公知技術であるため、ここでは、詳細な説明を省略する。そして、購入が完了したことを示す情報を、自動処理の結果を示す情報として、ユーザAの端末装置2に送信する。購入が完了したことを示す情報は、ここでは文字列の情報であるとする。例えば、この文字列は、「雑誌ABCの購入が完了しました。」等であるとする。
The
ユーザAの端末装置2の端末受信部201が、上記の購入が完了したことを示す情報を受信すると、端末出力部202が、文字列の応答情報を音声情報に変換し、変換した音声情報を、現在出力されているアバターの出力として、スピーカー等(図示せず)から出力する。具体的には、「雑誌ABCの購入が完了しました。」という音声をアバターの出力として出力する。
When the
ここで、仮に、ユーザAの入力に応じて端末装置2が送信する要求が、「10月2日の東京のホテルを予約したい」という文字列の情報であったとし、対話モデル識別子が「M101」である上記のデフォルトの自動処理モデルにおいて、要求に対応するサンプルの対話入力情報が検出できず、検出されたサンプルの要求に対応する応答情報を取得できなかったとする。
Here, it is assumed that the request transmitted by the
この場合、要求処理部120は、図4(b)に示したユーザ識別子管理表において、「ユーザID」が上記の要求に対応付けられたユーザ識別子「U0001」と一致し、「アバターID」が、上記の要求に対応付けられたアバター識別子「A101」と一致するレコードを検出する。検出されたレコードが、仮に、「追加自動処理モデル」の値として1以上の自動処理モデル識別子を有していた場合、要求処理部120は、この1以上の自動処理モデル識別子が識別する自動処理モデルを用いて、上記と同様に、要求に対応する自動処理を定義する情報を取得して、自動処理を行い、その処理結果を端末装置2に送信する。
In this case, the
しかし、ここでは、図4(b)に示したユーザ識別子管理表において検出したレコードの「追加自動処理モデル」の値がなかった、またはNULLであったとする。この場合、要求処理部120は、自動処理が実行できなかったと判断する。そして、要求処理部120は、自動処理ができなかったことを示す予め決められた文字列等の情報(例えば、「わかりませんでした。」等)を端末装置2に送信する。この情報を受信した端末装置2は、上記と同様に、この情報に対応する音声を、アバターの出力として出力する。
However, here, it is assumed that the value of the "additional automatic processing model" of the record detected in the user identifier management table shown in FIG. 4B is absent or NULL. In this case, the
要求処理部120が、自動処理を実行した場合、または自動処理が実行できず、実行できなかったことを示す情報を端末装置2に送信した場合、学習処理部124は、図3に示したアバター管理表の、「アバターID」が、対応入力情報と対応付けられたアバター識別子「A101」と一致するレコード(行)の「追加」の値が、自動処理の追加機能を有することを示す値である「1」であるか判断する。ここでは、「1」であり、追加機能を有するアバターであると判断されたとする。
When the
このため、評価取得部123は、自動処理に対する評価結果を取得する。ここでは、自動処理が実行できた場合、評価結果として値「1」を取得し、自動処理が実行できなかった場合、評価結果として値「0」を取得する。ここでは、仮に、評価結果として値「0」を取得したとする。
Therefore, the
そして、追加処理部125は、評価取得部123が取得した評価結果が、予め決められた評価条件を満たすほど低いか判断する。ここでは、評価条件が、評価結果の値が「0」である、という条件であったとすると、追加処理部125は、評価結果が評価条件を満たすほど低いと判断する。
Then, the
このため、追加処理部125は、入力情報受信部115が受信した要求の分野と同じ分野の自動処理モデルを、アバター識別子「A101」以外のアバター識別子と対応付けられた自動処理モデルの中から取得する。
Therefore, the
図6(b)は、アバター格納部101に格納される自動処理モデルを管理する自動処理モデル管理表である。自動処理モデル管理表は、「自動処理モデル」と、「分野」という属性を有している。「自動処理モデル」は、自動処理モデル識別子である。「分野」は、自動処理モデルに対応する分野の分野名であり、例えば、自動処理モデルに含まれるサンプルとなる要求の分野を示す分野名である。
FIG. 6B is an automatic processing model management table for managing automatic processing models stored in the
追加処理部125は、要求である「10月2日の東京のホテルを予約したい」から、この要求の内容の分野名を取得する。例えば、要求から、形態素解析等を行って名詞句を取得し、格納部(図示せず)に予め格納されている複数の分野名ごとにそれぞれ用意された1または2以上の名詞句、または複数の名詞句の組み合わせ等の情報を用いて、要求から取得した名詞句と一致する名詞句に対応する分野名を、要求の分野名として取得する。例えば、ここでは、「ホテル」という名詞句と、「予約」という名詞句との組み合わせから、「ホテル予約」という分野名を取得したとする。
The
なお、形態素解析等は、アバター提供装置1が行ってもよく、形態素解析を行うサービスを提供するサーバ装置(図示せず)等を用いて行ってもよい。また、形態素解析に用いる情報は、アバター提供装置1が有していてもよく、他のサーバ装置(図示せず)等が有しているものを用いてもよい。
The morphological analysis and the like may be performed by the
追加処理部125は、図6(b)に示した自動処理モデル管理表において、「分野」が、上記で要求から取得した分野名である「ホテル予約」と一致するレコードを検出し、検出したレコードの「自動処理モデル」の値である自動処理モデル識別子であって、図3に示したアバター管理表においてアバター識別子「A101」と対応付けられた自動処理モデル識別子「M101」と、図4に示したユーザ識別子管理表においてユーザ識別子「U0001」およびアバター識別子「A101」と対応付けられた自動処理モデル識別子(ここでは、対応する自動処理モデル識別子は無い)と、を除く自動処理モデル識別子を取得する。ここでは、自動処理モデル識別子として「M104」が取得されたとする。そして、蓄積部112は、追加処理部125が取得した自動処理モデル識別子を、要求に対応付けられたユーザ識別子「U0001」およびアバター識別子「A101」に対応付けてユーザ識別子格納部102に蓄積する。具体的には、図4(b)に示したユーザ識別子管理表の「ユーザID」が「U0001」であり、「アバターID」が「A101」であるレコードの、「追加自動処理モデル」の値として、上記で取得した自動処理モデル識別子「M104」を追記する。
The
図4(c)は、図4(b)に示した自動処理モデル管理表に、上記で取得した自動処理モデル識別子が追記して得られた自動処理モデル管理表を示す図である。 FIG. 4(c) is a diagram showing an automatic processing model management table obtained by adding the automatic processing model identifier obtained above to the automatic processing model management table shown in FIG. 4(b).
これにより、ユーザ識別子「U0001」とアバター識別子「A101」とに対応付けられた要求を受信した場合において、デフォルトで用意された自動処理モデル識別子が「M101」である自動処理モデルを用いて、上記の要求に対応する自動処理を特定する情報が取得できないときには、ユーザ識別子管理表により、ユーザ識別子「U0001」とアバター識別子「A101」とに対応付けられている自動処理モデル識別子が「M104」を用いて、上記の要求に対応する自動処理を特定する情報を取得する処理が行われることにより、適切な自動処理を特定する情報が取得できるようなることが期待でき、ユーザが利用するアバターの自動処理機能を向上させることができる。特に、この自動処理モデル識別子が「M104」である自動処理モデルは、対応する分野が「ホテル予約」であるため、上記と同様の、「10月2日の東京のホテルを予約したい」という要求を受信した場合に適切な自動処理を特定する情報を取得することができる可能性を高めることができ、適切な応答が可能となる。なお、追加した自動処理モデルを用いて、上記の要求に応じた自動処理を行うようにしてもよい。この場合、上記のように、自動処理が行えなかったことを示す情報を、端末装置2に送信しないようにしてもよい。
As a result, when a request associated with the user identifier "U0001" and the avatar identifier "A101" is received, the automatic processing model prepared by default whose automatic processing model identifier is "M101" is used to When the information specifying the automatic processing corresponding to the request cannot be obtained, the automatic processing model identifier "M104" associated with the user identifier "U0001" and the avatar identifier "A101" is used according to the user identifier management table. Therefore, it is expected that information specifying appropriate automatic processing can be acquired by performing processing to acquire information specifying automatic processing corresponding to the above-mentioned request, and automatic processing of avatars used by users can be expected. function can be improved. In particular, the automatic processing model whose automatic processing model identifier is "M104" corresponds to the field "hotel reservation". is received, the possibility of being able to acquire information specifying appropriate automatic processing can be increased, and an appropriate response can be made. It should be noted that the automatic processing according to the above request may be performed using the added automatic processing model. In this case, as described above, the information indicating that the automatic processing could not be performed may not be transmitted to the
上記において、図3に示したアバター管理表の、「アバターID」が、対応入力情報と対応付けられたアバター識別子「A101」と一致するレコード(行)の「追加」の値が、対話に関する追加機能を有さないことを示す値である「0」である場合や、評価取得部123が取得した自動処理機能についての評価結果が、評価条件を満たすほど低くない場合、追加処理部125は、上記のような自動処理モデルを追加する学習処理は行わない。
In the above, in the avatar management table shown in FIG. 3, the value of "addition" of the record (row) whose "avatar ID" matches the avatar identifier "A101" associated with the corresponding input information is the addition related to the dialogue. If the value is “0” indicating that the function is not provided, or if the evaluation result of the automatic processing function acquired by the
ここで、ユーザによるアバターの利用について課金処理を行うタイミングになったとする。ここでのタイミングは、毎月の予め決められた日付であり、この日付になった場合に、課金部126は、その月の前月におけるアバターの利用について、各ユーザに対し課金処理を行うものとする。
Assume that it is now time to perform billing processing for the user's use of the avatar. The timing here is a predetermined date of every month, and when this date arrives, the
図7は、アバター格納部101に格納されている課金情報管理表である。課金情報管理表には、アバターの利用に対する課金を決定する情報が管理されている。課金情報管理表は、「条件」および「金額」という属性を有している。「条件」は、課金を決定するための条件である。また、「金額」は、条件を満たす場合の金額、または条件に関連する変数を用いて金額を算出するための算出式である。ここでは、課金情報管理表が有する条件のうちの、ユーザによるアバターの利用が満たすすべての条件に対応する金額の合計が、ユーザに対して課金されるものとする。なお、V1,V2等は、金額を示す任意の値であるとする。なお、ここでは、「条件」を自然言語で表しているが、「条件」は、例えば、これらの自然言語に相当する一以上の関数や、メソッド名や、「if」、「then」等で示される制御構文等で構成されていてもよい。また、「条件」は、これらの自然言語に対応する判断処理等を行うためのアルゴリズムであってもよい。
FIG. 7 is a billing information management table stored in the
課金部126は、図4(c)に示したユーザ識別子管理表の各レコード(行)の情報を読み出し、読み出した情報を用いて課金処理を行う。ここでは、まず、ユーザ識別子管理表の上から1行目の「ユーザID」が「U2023」であるユーザについての、課金処理について説明する。例えば、課金部126は、上から一行目のレコードの「アバターID」の値「A537」を取得し、図3に示したアバター管理表の、「アバターID」が「A537」であるレコード(行)の「対話モデル」の値が、空欄およびNULLのいずれでもなければ、図7に示した課金情報管理表の上から1行目の「条件」の値が示す「対話機能あり」という条件を満たすと判断して、対応する「金額」の値「V1」を取得し、いずれかである場合、条件を満たさないと判断して、「金額」の値を取得しない。また、同レコードの「自動処理モデル」の値が、空欄およびNULLのいずれでもなければ、図7に示した課金情報管理表の上から2行目の「条件」の値が示す「自動処理機能あり」という条件を満たすと判断して、対応する「金額」の値「V2」を取得し、いずれかである場合、条件を満たさないと判断して、「金額」の値を取得しない。また、同レコードの「学習」の値が、「1」であれば、図7に示した課金情報管理表の上から2行目の「条件」の値が示す「対話の学習機能あり」という条件を満たすと判断して、対応する「金額」の値「V3」を取得し、「0」である場合、条件を満たさないと判断して、「金額」の値を取得しない。また、同レコードの「学習」の値が、「1」であれば、図7に示した課金情報管理表の上から2行目の「条件」の値が示す「自動処理追加機能あり」という条件を満たすと判断して、対応する「金額」の値「V4」を取得し、「0」である場合、条件を満たさないと判断して、「金額」の値を取得しない。ここでは、図7に示した課金情報管理表の上から4行目までの条件をいずれも満たしていたとして、「ユーザID」が「U2023」であるユーザについて、それぞれの条件に関して課金する金額の値として、V1~V4を取得したとする。
The
さらに、課金部126は、図4(c)に示したユーザ識別子管理表の上から1行目のレコードの「一時利用」の値が、「1」であるか否かを判断する。ここでは、一時利用でないことを示す値「0」であるため、課金部126は、図7に示した課金情報管理表の上から5行目の「一時利用である」という条件を満たさず、上から6行目の「一時利用でない」という条件を満たすとして、上から6行目の「金額」の値「V6」を取得する。なお、値が「1」である場合、図7に示した課金情報管理表の上から5行目の「一時利用である」という条件を満たし、上から6行目の「一時利用でない」という条件を満たさないとして、上から5行目の「金額」の値「V5」を取得する。
Further, the
また、課金部126は、上から1行目のレコードの「追加対話モデル」の値が空欄およびNULLのいずれでもないか判断する。ここでは、いずれでもないため、図7に示した課金情報管理表の上から7行目の「追加対話モデルあり」という条件を満たすと判断し、「追加対話モデル」の値である対話モデル識別子の数をカウントし、カウントした数「2」を「金額」のPの値として代入することで、課金する金額の値「V7×2」を得る。なお、仮に、「追加対話モデル」の値が空欄およびNULLのいずれかである場合、この条件については課金する金額を取得しない。
Also, the
さらに、課金部126は、上から1行目のレコードの「追加自動処理モデル」の値が空欄およびNULLのいずれでもないか判断する。ここでは、空欄およびNULLのいずれかであるため、図7に示した課金情報管理表の上から8行目の「追加自動処理モデルあり」という条件を満たさないと判断し、この条件については、課金する金額を取得しない。仮に、空欄およびNULLのいずれでもない場合、「追加対話モデル」の値である対話モデル識別子の数をカウントし、カウントした数を「金額」のQの値として代入することで、課金する金額の値「V8×Q」を得る。
Further, the
そして、課金部126は、上記で取得した課金する金額の合計であるV1+V2+V3+V4+V6+V7×2を「ユーザID」が「U2023」であるユーザについて課金する金額として取得する。そして、課金部126は、取得した金額を、ユーザ識別子「U2023」と対応付けて、決済を行うサーバ装置(図示せず)に送信する。決済を行うサーバ装置においては、受信したユーザ識別子と金額とを用いて、ユーザがアバターの利用料金を支払うための決済の処理を行う。
Then, the
課金部126は、図3(c)に示したユーザ識別子管理表の、課金処理を行った1行目のレコードについては、「一時利用」の値が「0」であり、一時利用でないことを示しているため、このレコードについては、次回の課金のタイミングにおいても課金の処理が必要となるレコードであると判断して、削除せずに残すようにする。仮に、「一時利用」の値が「0」である場合、このレコードの情報は、次回の課金には利用しないため、このレコードは削除する。かかることは、ユーザ識別子管理表の他のレコードについても同様である。なお、ここでの削除は、削除したことを示すフラグ等の情報を、レコードに付与することであってもよい。
The
課金部126は、同様にして、図3(c)に示したユーザ識別子管理表の上から2行目以下のレコードについても、上記と同様の課金処理を行う。これにより、ユーザが利用しているアバターの状況(例えば、対話モデルを追加したか否か等)に応じて、適切な課金を行うことができる。
The
なお、上記において、既にアバターを一時利用以外で利用しているユーザが、アバターを端末装置2において出力(例えば、表示)させる場合には、端末装置2を介して、ユーザ識別子を有する選択指示をアバター提供装置1に送信するようにし、指示受信部111がこの選択指示を受信すると、アバター取得部113が、ユーザ識別子管理表から、「ユーザID」の値がこの選択指示が有するユーザ識別子と一致するレコードであって、「一時利用」の値が「0」であるレコードの「アバターID」の値であるアバター識別子が示すアバター情報を、図3に示したアバター管理表から取得し、取得したアバター情報を、アバター送信部114が、上記のユーザの端末装置2に送信するようにすればよい。また、上記において、以前に一時利用したユーザが、アバターを再度利用する場合には、上記と同様に、アバターを新規に利用するための操作等を行うようにすればよい。
In the above, when the user who has already used the avatar for purposes other than temporary use outputs (for example, displays) the avatar on the
(具体例2)
上記具体例においては、評価取得部123による応答情報の評価が低い場合に学習機能により対話モデルを追加し、自動処理の評価が低い場合に追加機能により自動処理モデルを追加するようにしたが、評価取得部123による応答情報の評価が低い場合に学習機能により対話機能のための教師データを追加し、自動処理の評価が低い場合に追加機能により自動処理機能のための教師データを追加する具体例について以下に説明する。
(Specific example 2)
In the above specific example, when the evaluation of the response information by the
図8は、アバター格納部101に格納されているアバター情報を管理する第二アバター管理表であり、この第二アバター管理表は、図3に示したアバター管理表において、「対話教師データ」と、「自動処理教師データ」という属性を加えたものである。「対話教師データ」は、デフォルトでアバターに対して用意されている対話機能のための教師データであり、ここでは、教師データのファイル名を示している。対話機能のための教師データは、例えば、対話のための発話と、この発話に対する応答との複数の組を有する情報である。ただし、教師データは、このような情報に限定されない。「自動処理教師データ」とデフォルトでアバターに対して用意されている自動処理機能のための教師データであり、ここでは、教師データのファイル名を示している。自動処理機能のための教師データは、例えば、ユーザからの処理の実行を求める要求と、この要求に対して行われる処理を特定する情報の複数の組を有する情報である。ただし、教師データは、このような情報に限定されない。各レコードの「対話モデル」の値が示す対話モデルは、同じレコードの「対話教師モデル」の値が示す教師モデルを用いて機械学習を行って取得された対話モデルであり、例えば学習器であるとする。また、各レコードの「自動処理モデル」の値が示す対話モデルは、同じレコードの「自動処理教師モデル」の値が示す教師モデルを用いて機械学習を行って取得された対話モデルであり、例えば学習器であるとする。
FIG. 8 shows a second avatar management table for managing avatar information stored in the
図9は、ユーザ識別子格納部102に格納されているユーザ識別子を管理する第二ユーザ識別子管理表であり、図4(a)~図4(c)に示したユーザ識別子管理表において、「追加対話モデル」および「追加自動処理モデル」の代わりに、「対話モデル」および「自動処理モデル」を属性として有し、さらに、「追加対話教師データ」と、「追加自動処理教師データ」という属性を有している。「対話モデル」は、同じレコードの「ユーザID」が示すユーザが、「アバターID」が示すアバターを利用する際に、アバターが利用する対話モデルおよび自動処理モデルの識別子である。「追加対話教師データ」は、評価取得部123の評価に応じて学習処理部124が対話機能の学習のために取得した対話機能のための教師データであり、「追加自動処理教師データ」は、追加処理部125が自動処理機能の追加のために取得した自動処理機能のための教師データである。
FIG. 9 is a second user identifier management table for managing user identifiers stored in the user
図10(a)は、アバター格納部101に格納される対話機能のための教師データを管理する対話教師データ管理表である。対話教師データ管理表は、「対話教師データ」と、「分野」という属性を有している。「対話教師データ」は、対話機能のための教師データである。「分野」は、対話機能のための教師データに対応する分野の分野名であり、例えば、教師データに含まれる対話の分野を示す分野名である。
FIG. 10(a) is a dialog teaching data management table for managing teaching data for interactive functions stored in the
図10(b)は、アバター格納部101に格納される自動処理機能のための教師データを管理する自動処理教師データ管理表である。自動処理教師データ管理表は、「自動処理教師データ」と、「分野」という属性を有している。「自動処理教師データ」は、自動処理機能のための教師データである。「分野」は、自動処理機能のための教師データに対応する分野の分野名であり、例えば、教師データにより実行される自動処理の分野を示す分野名である。
FIG. 10(b) is an automatic processing teaching data management table for managing teaching data stored in the
例えば、ユーザが新規にアバターを利用する際には、図9に示したような第二ユーザ識別子管理表に、ユーザのユーザ識別子と、選択指示に応じてアバター取得部113が取得したアバター情報のアバター識別子と、に対応付けられたレコードであって、図8に示した第二アバター管理表の、この取得したアバター識別子に対応付けられたデフォルトの対話モデル識別子および自動処理モデル識別子を「対話モデル」および「自動処理モデル」の値として有するレコードが、蓄積部112により、新規に追加される。追加されるレコードの「追加対話教師データ」と「追加自動処理教師データ」との値は、いずれもデフォルトで空欄またはNULLとする。
For example, when a user newly uses an avatar, the second user identifier management table as shown in FIG. The record associated with the avatar identifier, and the default dialogue model identifier and automatic processing model identifier associated with this acquired avatar identifier in the second avatar management table shown in FIG. ” and “automatic processing model” are newly added by the
そして、指示受信部111が、ユーザ識別子とアバター識別子と対応付けられた対話入力情報を受信した場合、応答情報取得部121は、図9に示した第二ユーザ識別子管理表の、受信したユーザ識別子とアバター識別子と対応付けられたレコードの「対話モデル」の値である対話モデル識別子が示す対話モデルを用いて、応答情報を取得する処理を行う。
Then, when the
また、指示受信部111が、ユーザ識別子とアバター識別子とに対応付けられた要求を受信した場合、応答情報取得部121は、図9に示した第二ユーザ識別子管理表の、受信したユーザ識別子とアバター識別子とに対応付けられたレコードの「自動処理モデル」の値である自動処理モデル識別子が示す自動処理モデルを用いて、要求に応じた自動処理を実行する処理を行う。
Further, when the
応答情報取得部121が取得した応答情報に対する評価取得部123の評価、つまりアバターの対話機能についての評価が低い場合、学習処理部124は、図10(a)に示した対話教師データ管理表から、対話入力情報と対応付けられたユーザ識別子、および対話入力情報と対応付けられたユーザ識別子とアバター識別子との組み合わせのいずれにも対応付けられていない対話機能のための教師データであって、指示受信部111が受信した対話入力情報に対応する分野の教師データの識別子(すなわち対話教師データ識別子)を取得する。そして、取得した識別子を、蓄積部112が、図9に示した第二ユーザ識別子管理表の、対話入力情報と対応付けられたユーザ識別子とアバター識別子とを有するレコードの「追加対話教師データ」の値として追記する。さらに、学習処理部124は、追記する識別子が示す対話機能のための教師データと、第二アバター管理表によりこのアバター識別子とデフォルトで対応付けられた「対話教師データ」の値が示す教師データとを用いて、機械学習を行って、学習器を取得し、取得した学習器に、対話モデル識別子を新規に付与して、アバター格納部101に蓄積する。そして、蓄積部112が、この対話モデル識別子で、図9に示した第二ユーザ識別子管理表の、対話入力情報と対応付けられたユーザ識別子とアバター識別子とを有するレコードの「対話モデル」の値を更新(例えば、上書き)する。更新後は、更新された対話モデル識別子が示す対話モデルを用いて、応答情報取得部121が、対話入力情報に対応する応答情報を取得する。これにより、対話機能について評価が低かったユーザが利用するアバターの対話機能を向上させることができる。
When the evaluation of the
また、応答情報取得部121が取得した自動処理に対する評価取得部123の評価、つまりアバターの自動処理機能に対する評価が低い場合、学習処理部124は、図10(b)に示した自動処理教師データ管理表から、指示受信部111が受信した要求と対応付けられたユーザ識別子、および要求と対応付けられたユーザ識別子とアバター識別子との組み合わせのいずれにも対応付けられていない自動処理機能のための教師データであって、指示受信部111が受信した要求に対応する分野の教師データの識別子(すなわち自動処理教師データ識別子)を取得する。取得した識別子を、蓄積部112が、図9に示した第二ユーザ識別子管理表の、要求と対応付けられたユーザ識別子とアバター識別子とを有するレコードの「追加自動処理教師データ」の値として追記する。さらに、学習処理部124は、追記する識別子が示す自動処理機能のための教師データと、第二アバター管理表によりこのアバター識別子とデフォルトで対応付けられた「自動処理教師データ」の値が示す教師データとを用いて、機械学習を行って、学習器を取得し、取得した学習器に、自動処理モデル識別子を新規に付与して、アバター格納部101に蓄積する。蓄積部112は、この自動処理モデル識別子で、図9に示した第二ユーザ識別子管理表の、指示受信部111が受信した要求と対応付けられたユーザ識別子とアバター識別子とを有するレコードの「自動処理モデル」の値を更新(例えば、上書き)する。更新後は、更新された自動処理モデル識別子が示す自動処理モデルを用いて、応答情報取得部121が、対話入力情報に対応する応答情報を取得する。これにより、対話機能について評価が低かったユーザが利用するアバターの自動処理機能を向上させることができる。
Further, when the evaluation of the
また、課金の際には、上記の具体例の課金する金額を決定する処理において、追加した対話モデル数や、追加した自動処理モデル数に応じて課金する金額を決定する処理に代えて(または処理に加えて)、第二ユーザ識別子管理表の「追加対話教師データ」の値の数や、「追加自動処理教師データ」の値の数に応じて、課金する金額を決定するようにすればよい。 In the case of charging, in the processing for determining the amount to be charged in the specific example above, instead of the processing for determining the amount to be charged according to the number of added dialogue models or the number of added automatic processing models (or processing), the amount to be charged can be determined according to the number of values of "additional dialogue training data" and the number of values of "additional automatic processing training data" in the second user identifier management table. good.
以上、本実施の形態によれば、ユーザが利用するアバターが対話に利用する情報および自動処理に利用する情報の少なくとも一方を変更することができ、適切な対話および自動処理の少なくとも一方を実現可能なアバターを提供することができる。これにより、例えば、ユーザが利用するアバターの利便性を向上させることができる。 As described above, according to the present embodiment, it is possible to change at least one of the information that the avatar used by the user uses for interaction and the information that is used for automatic processing, so that at least one of appropriate interaction and automatic processing can be realized. avatars can be provided. Thereby, for example, the convenience of the avatar used by the user can be improved.
なお、上記実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。 In the above embodiments, each process (each function) may be implemented by centralized processing by a single device (system), or may be implemented by distributed processing by a plurality of devices. may
また、上記実施の形態において、一の装置に存在する2以上の通信手段(指示受信部および入力情報受信部、アバター送信部および応答情報送信部など)は、物理的に一の媒体で実現されても良いことは言うまでもない。 Further, in the above embodiments, two or more means of communication (instruction receiving unit, input information receiving unit, avatar transmitting unit, response information transmitting unit, etc.) existing in one device are physically realized by one medium. It goes without saying that this is a good thing.
また、上記実施の形態では、アバター提供装置がスタンドアロンである場合について説明したが、アバター提供装置は、スタンドアロンの装置であってもよく、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、出力部や受付部は、通信回線を介して入力を受け付けたり、画面を出力したりすることになる。 Also, in the above embodiment, the avatar provision device is a stand-alone device, but the avatar provision device may be a stand-alone device or a server device in a server-client system. In the latter case, the output unit and reception unit receive inputs and output screens via communication lines.
また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、格納部(例えば、ハードディスクやメモリ等の記録媒体)にアクセスしながらプログラムを実行してもよい。 Further, in the above embodiments, each component may be configured by dedicated hardware, or components that can be realized by software may be realized by executing a program. For example, each component can be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU. During execution, the program execution unit may execute the program while accessing a storage unit (for example, a recording medium such as a hard disk or memory).
なお、上記実施の形態におけるアバター提供装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、対話機能、および自動処理機能の少なくとも一方の機能を有する2以上のアバターであって、対話機能と対話に関する学習機能との組、および自動処理機能と自動処理の追加機能との組の少なくとも一方の組の機能を有する1以上のアバターを含む2以上のアバターをそれぞれ出力するための2以上のアバター情報が格納されるアバター格納部にアクセス可能なコンピュータを、2以上のアバターの一つを選択する選択指示を、端末装置から受信する指示受信部と、選択指示に対応するアバターのアバター情報をアバター格納部から取得するアバター取得部と、アバター取得部が取得したアバター情報を端末装置に送信するアバター送信部と、して機能させるためのプログラムである。 The software that implements the avatar providing device in the above embodiment is the following program. In other words, the program includes two or more avatars having at least one function of a dialogue function and an automatic processing function, a combination of the dialogue function and a learning function related to dialogue, an automatic processing function and an automatic processing additional function. a computer capable of accessing an avatar storage unit storing two or more pieces of avatar information for respectively outputting two or more avatars including one or more avatars having at least one set of functions of a set of two or more avatars an instruction receiving unit that receives from the terminal device a selection instruction to select one of; an avatar acquisition unit that acquires avatar information of the avatar corresponding to the selection instruction from the avatar storage unit; It is a program for functioning as an avatar transmission unit that transmits to a terminal device.
なお、上記プログラムにおいて、情報を送信する送信ステップや、情報を受信する受信ステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。 In the above program, the transmission step for transmitting information and the reception step for receiving information are performed by hardware. not included).
なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を取得する取得部や、情報を出力する出力部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には含まれない。 In the program, the functions realized by the program do not include functions that can be realized only by hardware. For example, functions that can be realized only by hardware such as modems and interface cards, such as an acquisition unit that acquires information and an output unit that outputs information, are not included in the functions realized by the above program.
また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。 Also, the number of computers executing this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
図11は、上記プログラムを実行して、上記実施の形態によるアバター提供装置を実現するコンピュータの外観の一例を示す模式図である。上記実施の形態は、コンピュータハードウェアおよびその上で実行されるコンピュータプログラムによって実現されうる。 FIG. 11 is a schematic diagram showing an example of the appearance of a computer that implements the avatar provision device according to the embodiment by executing the program. The above embodiments can be implemented by computer hardware and computer programs executed thereon.
図11において、コンピュータシステム900は、CD-ROM(Compact Disk Read Only Memory)ドライブ905を含むコンピュータ901と、キーボード902と、マウス903と、モニタ904とを備える。
In FIG. 11,
図12は、コンピュータシステム900の内部構成を示す図である。図12において、コンピュータ901は、CD-ROMドライブ905に加えて、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに、一時記憶空間を提供するRAM(Random Access Memory)913と、アプリケーションプログラム、システムプログラム、およびデータを記憶するハードディスク914と、MPU911、ROM912等を相互に接続するバス915と、を備える。なお、コンピュータ901は、LANへの接続を提供する図示しないネットワークカードを含んでいてもよい。
FIG. 12 is a diagram showing the internal configuration of the
コンピュータシステム900に、上記実施の形態によるアバター提供装置等の機能を実行させるプログラムは、CD-ROM921に記憶されて、CD-ROMドライブ905に挿入され、ハードディスク914に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ901に送信され、ハードディスク914に記憶されてもよい。プログラムは実行の際にRAM913にロードされる。なお、プログラムは、CD-ROM921、またはネットワークから直接、ロードされてもよい。
A program that causes the
プログラムは、コンピュータ901に、上記実施の形態によるアバター提供装置の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム900がどのように動作するのかについては周知であり、詳細な説明は省略する。
The program does not necessarily include an operating system (OS) or a third party program that causes the
本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 It goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible and are also included within the scope of the present invention.
以上のように、本発明にかかるアバター提供装置等は、アバターを提供する装置等として適しており、特に、対話や自動処理を行うことができるアバターを提供する装置等として有用である。 As described above, the avatar providing device or the like according to the present invention is suitable as a device or the like for providing avatars, and is particularly useful as a device or the like for providing avatars capable of performing dialogue or automatic processing.
1 アバター提供装置
2 端末装置
101 アバター格納部
102 ユーザ識別子格納部
103 学習器格納部
111 指示受信部
112 蓄積部
113 アバター取得部
114 アバター送信部
115 入力情報受信部
120 要求処理部
121 応答情報取得部
122 応答情報送信部
123 評価取得部
124 学習処理部
125 追加処理部
126 課金部
201 端末受信部
202 端末出力部
202a モニタ
203 端末受付部
204 端末送信部
1000 アバター利用システム
1
Claims (13)
前記2以上のアバターの一つを選択する選択指示を、端末装置から受信する指示受信部と、
前記選択指示に対応するアバターのアバター情報を前記アバター格納部から取得するアバター取得部と、
前記アバター取得部が取得したアバター情報を前記端末装置に送信するアバター送信部と、を備えたアバター提供装置。 Two or more avatars having at least one of a dialogue function and an automatic processing function, and at least one of a set of a dialogue function and a learning function related to dialogue, and a set of an automatic processing function and an automatic processing additional function an avatar storage unit storing two or more pieces of avatar information for respectively outputting two or more avatars including one or more avatars having a set of functions;
an instruction receiving unit that receives a selection instruction to select one of the two or more avatars from a terminal device;
an avatar acquisition unit that acquires avatar information of an avatar corresponding to the selection instruction from the avatar storage unit;
and an avatar transmitting unit configured to transmit the avatar information acquired by the avatar acquiring unit to the terminal device.
前記学習機能を有する一のアバターについて予め決められた条件を満たした場合に、前記アバターの学習機能に応じて、対話に関する学習処理を行う学習処理部をさらに備えた請求項1記載のアバター提供装置。 The avatar storage unit stores avatar information of one or more avatars having a dialogue function and a learning function related to dialogue,
2. The avatar providing apparatus according to claim 1, further comprising a learning processing unit that performs learning processing related to dialogue according to the learning function of the avatar when a predetermined condition is satisfied for the one avatar having the learning function. .
他のアバターが有する対話機能のための教師データまたは対話モデルの全部または一部を取得し、当該取得した教師データまたは対話モデルを用いて、対話に関する学習処理を行う請求項2記載のアバター提供装置。 The learning processing unit
3. The avatar providing device according to claim 2, which acquires all or part of teacher data or a dialog model for dialog functions possessed by other avatars, and uses the acquired teacher data or dialog model to perform learning processing related to the dialog. .
前記追加機能を有する一のアバターについて予め決められた条件を満たした場合に、前記アバターの追加機能に応じて、自動処理に関する追加処理を行う追加処理部をさらに備えた請求項1から請求項3いずれか一項記載のアバター提供装置。 The avatar storage unit stores avatar information of one or more avatars having an automatic processing function and an additional automatic processing function,
Claims 1 to 3, further comprising an additional processing unit that performs additional processing related to automatic processing according to the additional function of the avatar when a predetermined condition is satisfied for the one avatar having the additional function. The avatar providing device according to any one of claims 1 to 3.
前記自動処理機能を用いて、前記要求に対応する自動処理を実行する要求処理部をさらに備え、
前記予め決められた条件は、
前記要求処理部が、前記要求に対応する自動処理を実行できないことである、請求項4記載のアバター提供装置。 an input information receiving unit that receives a request for one avatar from the terminal device;
further comprising a request processing unit that executes automatic processing corresponding to the request using the automatic processing function;
The predetermined condition is
5. The avatar providing device according to claim 4, wherein said request processing unit cannot execute automatic processing corresponding to said request.
前記対話機能を用いて、前記対話入力情報に応じた応答情報を取得する応答情報取得部と、
前記応答情報を前記端末装置に送信する応答情報送信部と、
前記応答情報に対する評価結果を取得する評価取得部とをさらに備え、
前記予め決められた条件は、
前記評価結果が評価条件を満たすほど低いことである、請求項2または請求項3記載のアバター提供装置。 an input information receiving unit that receives dialogue input information for dialogue with one avatar from the terminal device;
a response information obtaining unit that obtains response information corresponding to the dialogue input information using the dialogue function;
a response information transmission unit that transmits the response information to the terminal device;
An evaluation acquisition unit that acquires an evaluation result for the response information,
The predetermined condition is
4. The avatar providing device according to claim 2, wherein said evaluation result is so low as to satisfy an evaluation condition.
ユーザ識別子が、当該ユーザが利用するアバターと対応付けられて格納されるユーザ識別子格納部と、
前記指示受信部が受信した選択指示に対応付けられたユーザ識別子を、当該選択指示に対応するアバターと対応付けて前記ユーザ識別子格納部に蓄積する蓄積部と、
前記選択指示に対応するアバターの利用に対して、当該選択指示に対応するユーザ識別子で識別されるユーザに課金処理を行う課金部と、をさらに備えた請求項1から請求項6いずれか一項に記載のアバター提供装置。 The instruction receiving unit receives a selection instruction associated with a user identifier corresponding to the terminal device,
a user identifier storage unit in which a user identifier is stored in association with an avatar used by the user;
an accumulation unit that associates a user identifier associated with the selection instruction received by the instruction receiving unit with an avatar corresponding to the selection instruction and accumulates the user identifier in the user identifier storage unit;
7. A billing unit that bills a user identified by a user identifier corresponding to the selection instruction for use of the avatar corresponding to the selection instruction. 3. The avatar providing device according to .
前記課金部は、
前記選択指示に対応するアバターと対応づけられた前記1以上の属性値に応じて、当該選択指示に対応づけられたユーザに対して、異なる金額の課金処理を行う、請求項7記載のアバター提供装置。 The avatar information stored in the avatar storage unit is associated with one or more attribute values related to the avatar output by the avatar information,
The billing unit
8. The provision of avatars according to claim 7, wherein different amounts of money are charged for the user associated with the selection instruction according to the one or more attribute values associated with the avatar corresponding to the selection instruction. Device.
前記課金部は、
前記アバターを一時的に利用するか否かを示す情報の値に応じて、ユーザに対して、異なる金額の課金処理を行う、請求項7または請求項8記載のアバター提供装置。 The user identifier storage unit further stores information indicating whether or not the avatar is temporarily used in association with the user identifier,
The billing unit
9. The avatar providing apparatus according to claim 7, wherein different amounts of money are charged to the user according to the value of information indicating whether or not said avatar is to be used temporarily.
前記アバター取得部は、
前記1以上のユーザ属性値を用いて、取得するアバターを決定し、前記アバター格納部から当該アバターのアバター情報を取得する、請求項1から請求項9いずれか一項に記載のアバター提供装置。 The selection instruction has one or more user attribute values,
The avatar acquisition unit
The avatar provision device according to any one of claims 1 to 9, wherein the avatar to be acquired is determined using the one or more user attribute values, and the avatar information of the avatar is acquired from the avatar storage unit.
前記アバター取得部は、
前記選択指示が有する前記1以上のユーザ属性値と、前記学習器とを用いて、機械学習の予測処理を行い、アバター識別子を取得し、当該アバター識別子で識別されるアバターのアバター情報を、前記アバター格納部から取得する請求項10記載のアバター提供装置。 Further comprising a learning device storage unit storing learning devices obtained by performing machine learning learning processing on two or more teacher data having one or more user attribute values and avatar identifiers for identifying avatars. death,
The avatar acquisition unit
Machine learning prediction processing is performed using the one or more user attribute values included in the selection instruction and the learning device to obtain an avatar identifier, and the avatar information of the avatar identified by the avatar identifier is obtained from the 11. The avatar providing device according to claim 10, obtained from an avatar storage unit.
前記指示受信部が、前記2以上のアバターの一つを選択する選択指示を、端末装置から受信するステップと、
前記アバター取得部が、前記選択指示に対応するアバターのアバター情報を前記アバター格納部から取得するステップと、
前記アバター送信部が、前記アバター格納部から取得したアバター情報を前記端末装置に送信するステップと、を備えたアバター提供方法。 Two or more avatars having at least one of a dialogue function and an automatic processing function, and at least one of a set of a dialogue function and a learning function related to dialogue, and a set of an automatic processing function and an automatic processing additional function an avatar storage unit storing two or more pieces of avatar information for respectively outputting two or more avatars including one or more avatars having a set of functions; an instruction reception unit; an avatar acquisition unit; An avatar providing method performed using
a step in which the instruction receiving unit receives a selection instruction for selecting one of the two or more avatars from a terminal device;
a step in which the avatar acquisition unit acquires avatar information of an avatar corresponding to the selection instruction from the avatar storage unit;
An avatar providing method, comprising: the avatar transmission unit transmitting avatar information acquired from the avatar storage unit to the terminal device.
前記2以上のアバターの一つを選択する選択指示を、端末装置から受信する指示受信部と、
前記選択指示に対応するアバターのアバター情報を前記アバター格納部から取得するアバター取得部と、
前記アバター取得部が取得したアバター情報を前記端末装置に送信するアバター送信部と、して機能させるためのプログラム。 Two or more avatars having at least one of a dialogue function and an automatic processing function, and at least one of a set of a dialogue function and a learning function related to dialogue, and a set of an automatic processing function and an automatic processing additional function a computer accessible to an avatar store storing two or more pieces of avatar information for respectively outputting two or more avatars including one or more avatars having a set of functions;
an instruction receiving unit that receives a selection instruction to select one of the two or more avatars from a terminal device;
an avatar acquisition unit that acquires avatar information of an avatar corresponding to the selection instruction from the avatar storage unit;
A program for functioning as an avatar transmission unit that transmits the avatar information acquired by the avatar acquisition unit to the terminal device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021102386A JP2023001577A (en) | 2021-06-21 | 2021-06-21 | Avatar providing device, avatar providing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021102386A JP2023001577A (en) | 2021-06-21 | 2021-06-21 | Avatar providing device, avatar providing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023001577A true JP2023001577A (en) | 2023-01-06 |
Family
ID=84688811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021102386A Pending JP2023001577A (en) | 2021-06-21 | 2021-06-21 | Avatar providing device, avatar providing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023001577A (en) |
-
2021
- 2021-06-21 JP JP2021102386A patent/JP2023001577A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11971936B2 (en) | Analyzing web pages to facilitate automatic navigation | |
CN116226334B (en) | Method for training generated large language model and searching method based on model | |
US10088972B2 (en) | Virtual assistant conversations | |
US10417567B1 (en) | Learning user preferences in a conversational system | |
JP6061729B2 (en) | Product information providing system and product information providing program | |
JP2019159309A (en) | Method and apparatus for determining speech interaction satisfaction | |
CN112346567A (en) | Virtual interaction model generation method and device based on AI (Artificial Intelligence) and computer equipment | |
CN112799747A (en) | Intelligent assistant evaluation and recommendation method, system, terminal and readable storage medium | |
KR102246130B1 (en) | Method and System Providing Service Based on User Voice | |
US7373375B2 (en) | Information management system using agents | |
CN109389427A (en) | Questionnaire method for pushing, device, computer equipment and storage medium | |
JP7551180B1 (en) | Method, program and information processing system for providing event information to visitors | |
CN118193754A (en) | Task execution method, device, equipment, medium and program product | |
US20220351722A1 (en) | User-customizable and domain-specific responses for a virtual assistant for multi-dwelling units | |
WO2025097987A1 (en) | Model evaluation method, electronic device, and storage medium | |
CN118132695A (en) | Heuristic man-machine dialogue method and device, electronic equipment and storage medium | |
CN111523030B (en) | Newspaper disc information recommendation method and device and computer readable storage medium | |
JP2023001577A (en) | Avatar providing device, avatar providing method, and program | |
CN117076627A (en) | Information interaction method, device, computer equipment and storage medium | |
JP2020091800A (en) | Information processing apparatus, information processing method, and information providing system | |
CN111753107A (en) | Resource display method, device, equipment and storage medium | |
JP7644945B1 (en) | Information processing device, information processing method, and program | |
KR102758496B1 (en) | Generative ai-based spatial computing web service for creating and providing immersive marketing content | |
Leonard | Conversational AI: How (Chat) Bots Will Reshape the Digital Experience | |
US20250062928A1 (en) | Apparatus and method for providing meeting records in artificial intelligence-based chat room |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250409 |