当前位置: 代码迷 >> 综合 >> 推荐系统——Behavior Sequence Transformer for E-commerce Recommendation in Alibaba(BST)
  详细解决方案

推荐系统——Behavior Sequence Transformer for E-commerce Recommendation in Alibaba(BST)

热度:21   发布时间:2023-11-21 13:07:57.0

前言

论文地址:arxiv
代码地址:github
代码第三方复现,建议阅读原文

系列文章

推荐系统——Neural Collaborative Filtering(NMF)
推荐系统——Deep Interest Network for Click-Through Rate Prediction(DIN)
推荐系统——Deep Interest Evolution Network for Click-Through Rate Prediction(DIEN)
推荐系统——Deep Session Interest Network for Click-Through Rate Prediction(DSIN)
推荐系统——Multi-Interest Network with Dynamic Routing for Recommendation at Tmall(MIND)
推荐系统——Behavior Sequence Transformer for E-commerce Recommendation in Alibaba(BST)
持续更新中…

动机

transformer在cv和nlp杀疯了,所以拿来试试。

网络结构

在这里插入图片描述
结构真没啥好讲的,承接DIN,DISN,DIEN的风格,结构几乎和DIN一致,不了解DIN戳这里:推荐系统——Deep Interest Network for Click-Through Rate Prediction(DIN)
这里把DIN做了简化,去除了DIN的用MLP实现的attention结构,才用transformer来实现对应的功能。transformer不了解戳这里:Transformer主干网络——ViT保姆级解析。这个transformer的block负责对用户的时序行为以及target item的特征进行信息交互,然后再输出交互后的结果,接后面的MLP进行预测。

这里要注意的一点是,这个transformer的机构才用了时间差作为位置编码,时间差就是item1的时间减去target item的时间。这样的好处就是可以充分挖掘用户在不同时刻的行为的信息。

做位置编码的实现也很简单,就是把序列行为的特征按位加上时间差特征即可。

模型效果

在这里插入图片描述
看起来在阿里巴巴线上获得了不错的CTR收益。
这里我在私人数据集上魔改了下加入Transformer结构实验的效果如下:

实验 AUC GAUC
base 74.77 62.94
base+transformer 74.79 63.08
base+transformer+time(position) 75.03 63.49
可以看到加上时间位置编码挖掘用户的时序兴趣是很重要的!
  相关解决方案