您的位置:网站首页 > 技术前沿 > 正文

国际机器学习顶会ICML我们来了!

类别:技术前沿 日期:2019-6-11 2:17:21 人气: 来源:

  当地时间 6 月 9 日,机器学习领域最具影响力的学术会议之一 ICML 2019 在美国长滩隆重开幕。在本次 ICML 上,支付宝展示了多篇入选论文,并在 6 月 9 日举行了专家云集的主题 workshop,现场与各位学者专家探讨了前沿金融智能技术和应用的发展。

  据了解,本次 workshop 围绕金融智能展开,会上 AI 专家围绕金融智能应用实践、“小数据”、数据隐私安全等焦点问题进行了分享,助力行业解决人工智能+金融融合创新中的技术难题。

  而论文方面,本届 ICML 支付宝 AI 技术团队贡献了多篇论文研究,包括提出了用生成对抗用户模型来解决强化学习小样本的问题,并将此方法用在推荐系统的优化中;引入了分布梯度时序插分学习,在分布强化学习的基础上开辟了新的方向;提出了粒子流贝叶斯(particle flow BayesRule)算法,实现对高维贝叶斯推理的精确度的提升优化等。

  简介:将强化学习(RL)用于推荐系统,能更好地考虑用户的长期效益,从而保持用户在平台中的长期满意度、活跃度。但是,强化学习需要大量训练样本。在这篇论文中,我们提出用生成对抗用户模型(GAN user model)作为强化学习的模拟,先在此模拟中进行线下训练,再根据线上用户反馈进行即时策略更新,以此实现对线上训练样本需求的极大降低。

  简介:我们在该篇论文中引入了分布梯度时序插分学习(distributional gradient temporal difference learnig)。近年来分布强化学习例如 DeepMind 的 c51 算法引起了学术界的广泛注意。相较于传统的强化学习算法,分布强化学习考虑到长期励(long term reward)的分布信息,使得其具有学习过程更稳定,速度更快的优点。但是与神经网络相结合以及使用 off-policy 学习后,分布强化学习的性依旧难以得到。因此我们将分布强化学习与梯度时序插分学习相结合,提出了 Distributional Mean Squared Bellman Error 做为我们的优化目标函数。该研究为分布强化学习提供了理论保障同时在其基础上开辟了新的研究方向。

  简介:贝叶斯推理(Bayesian Inference)在高维问题中,由于高维积分带来一系列的计算和精度问题,计算后验概率(posterior)是一个重大挑战。除此之外,在许多现实的问题中,观测数据(observations)按顺序依次到达,贝叶斯推断需要反复迭代使用:在观察一些数据后得到的后验概率可以当作新的先验概率,再根据新的数据得到新的后验概率。这种问题需要算法能在不储存大量历史数据的情况下,在线执行快速、有效的贝叶斯更新(Bayesian updating)。为解决这一具有挑战性的问题,我们提出了粒子流贝叶斯(particle flow Bayes Rule),这是一个基于常微分方程(ODE)的贝叶斯算子。我们在几个经典、高维实验中展示了通过 meta learning 训练得到的粒子流贝叶斯算子(particle flowBayes Rule)的有效性以及泛化能力。尤其在高纬问题中,我们提出的算法对后验的估算比已有的算法在精确度以及计算效率上有明显的优势。返回搜狐,查看更多属蛇的属相婚配表

   文章来源于博贝棋牌850游戏

0
0
0
0
0
0
0
0
下一篇:没有资料

网友评论 ()条 查看

姓名: 验证码: 看不清楚,换一个

推荐文章更多

热门图文更多

最新文章更多

关于联系我们 - 广告服务 - 友情链接 - 网站地图 - 版权声明 - 人才招聘 - 帮助

声明:网站数据来源于网络转载,不代表站长立场,如果侵犯了你的权益,请联系站长删除。

CopyRight 2010-2016 贝伦特微商- All Rights Reserved