SEO外包平台,我们为您提供专业的企业网站SEO整站优化外包服务 SEO设置

SEO外包平台

专注于企业网站SEO整站优化外包服务

[seo服务公司推荐火星系统]推荐系统论文阅读(二十九-美团:利用历史交互数据改进对话推荐系统

作者:jcmp      发布时间:2021-04-20      浏览量:0
论文:函授授权主题:“leveragin

论文:函授

授权主题:“leveraginghistoricalictiondationdataforimprimproverimp>授权主题:“leveraginghistoricticalicalicalicallicartiontictiontiontiontionndtaforiorioriorimprimprimprimprimprimprinthtarintarintariorinthtariorinththththththththtriorioriorimprinththththththththththththtriorioriorimprinthththththt:foriorimprioriorimprionthththththtrintrintiorionththththcorionththcoriorionthththththththththththththththtrinoriorinthththththththththtorinththththththththththththththththththththththththtorororinththththththththththththththto=https://dl.acm.org/doi/pdf/10.1145/3340531.3412098《关于targt=_blank》>https://dl.acm.org/doi/pdf/10.1145/3345/33431.3412098.

这是我第一次把美团发表的论文写在这里。这篇论文是人民代表大会和美团合作在CIKM上的短篇论文,研究的是如何利用历史交流的数据对话推荐。

、一、背景

最近,对话推荐系统(CRS)成为新的实用研究主题。现有的CRS方法大多专注于只从对话数据中为用户学习有效的偏好。但是,本文从新的角度利用历史交互数据改善CRS。因此,本文提出了通过预训练方法集成基于物品喜好的序列(来自历史交流数据)和属性喜好的序列(来自对话数据)的新颖预训练方法。

随着电子商务平台智能代理的快速发展,对话推荐系统(CRS)成为寻求对话向用户提供高质量推荐的新兴研究主题。通常,CRS由对话模块和推荐模块组成。对话模块侧重于通过多轮互动获取用户喜好,推荐模块侧重于如何利用推送的喜好信息为用户推荐合适的商品。

现在的CRS大多是以系统要求用户应对的模式设计的。在每次对话中,CRS都会提出用户喜欢的问题,用户会使用个性化的反馈来回答系统。通常,系统根据商品的属性(例如,您最喜欢的电影类型是什么)生成系统查询,用户反馈反映了用户对该属性的特定喜好(例如,我喜欢动作电影)。主流的方法是结构追踪模块,该模块可以从该多次对话中推断用户基于属性的喜好。以这种方式,可以将推断的喜好呈现为推断属性的序列(例如,电影CRS中的流派=动作→导演=詹姆斯·卡梅隆)。有了这个序列,我们可以用知识图像来推荐。

但这些现有的CRS研究存在两大问题。首先,对话本身的信息是非常有限的。不少CRS为了减少系统与用户互动的回合数,进一步优化。因此,在基于属性的推断偏好中,可能会丢失一些有用的属性。其次,仅仅利用属性的喜好进行推荐可能还不够。例如,即使过滤了一些属性,候选人也可能很大。

现在要解决上述两个问题,必须将基于item的方法和属性的方法结合起来。其中,根据历史互动item的方式反映的是用户的长期兴趣,根据对话属性的方式反映的是用户当前的兴趣,也就是短期兴趣,这是典型的长期兴趣结合的任务。

任务的定义:根据CRS模块,首先收集属性的序列,然后点击序列进行推荐。关于这个任务的定义,我们首先有属性序列,然后主要根据点击序列进行推荐,属性序列的建模是子模块任务,序列的推荐是主要任务,序列的推荐任务在属性序列更新后可以重复利用这个信息

三、模型,


。1BaseModel

basedel是Transformer制作的,输入是embedding层,这不仅是有属性的eding矩阵,也是有属性的eding矩阵。

中间的运算是Transformer的过程,self-attention和ffn,在这里不知道transformer结构的人可以看论文。

输出部分是预测候选人temi的概率:


<

3.2ImprovementwithPraingStratgis

br/>3.2.1Maskemprediction.(MIMI)

bert的都知道。

其中ffik是item、transformer结构出来的位置k出来的向量,SA是熟悉结构出来的Aik出来的向量,w是映射矩阵,eik是原始的itembeding。

3.2.2.SubstitutedAttributedDimination(SAD)。

取代itemased的信息与attributebased相结合,还采用了另一种mask方法。

3.3LearningwithenhancedcedNeativeSample出现了

升级到LTR中,如果采用了pairwise的优化方式,则取样技术是关键,优化了正式的概率

MIP中采用的是IR-GAN、ELECT两种论文。

更改论文选择了SASRec作为第一阶段的pairwiseranking模型,这个模型也是用于samplebook的模型。负采样是这样做的rwise和ranking的方式训练模型作为生成器,获得候选item的概率分布这个概率分布,我们可以带来负采样。因为排名高的items接近真相。关于为什么选择这个模型,论文之所以个论文在序列推荐任务中的表现特别好,也就是说作为ranking的模型效果很好。请注意,虽然生成器可以像标准GAN一样更新,但我们只训练一次参数。根据经验,反复更新带来的改善是有限的。

整个训练分为两个阶段,第一个是预训练阶段,训练表示学习模型,第二个是微调阶段学习,第二个是微调阶段学习,

::