大数据文摘作品
编译 | 宁云舟,桑桑
呜啦啦啦啦啦大家好呀,又到了本周的AI大事件时间了。过去的一周中AI圈都发生了什么?大佬们互撕了哪些问题?研究者们发布了哪些值得一读的论文?又有哪些开源的代码和数据库可以使用了?文摘菌带你盘点过去一周AI大事件!
新闻
Gluon:一个来自AWS和微软的新机器学习库
来源:AWS.AMAZON.COM
链接:https://aws.amazon.com/cn/blogs/aws/introducing-gluon-a-new-library-for-machine-learning-from-aws-and-microsoft/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
本周,AWS和微软发布了Gluon,一种新的开源深度学习界面,允许开发人员构建机器学习模型。Gluon现在已经在Apache MXNet上可用了。
阿里巴巴推出全球研究计划
来源:WWW.BUSINESSWIRE.COM
链接:http://www.businesswire.com/news/home/20171010006804/en/Alibaba-Launches-Global-Research-Program-Cutting-Edge-Technology?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
阿里巴巴成立“以科技创新世界”的阿里巴巴达摩院,计划在三年之内对新技术投资超过1000亿人民币,包括全球研究院、高校联合实验室、全球前沿创新研究计划三大部分。人工智能将作为一个研究的重点领域,部分实验室将把机器学习、计算机视觉和自然语言处理作为研究目标。
李飞飞访谈:把人类放在人工智能的中心
来源:WWW.TECHNOLOGYREVIEW.COM
链接:https://www.technologyreview.com/s/609060/put-humans-at-the-center-of-ai/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
李飞飞是斯坦福人工智能实验室的主任,现在也是谷歌云的首席科学家。她日前在访谈中谈到了我们对人工智能多样性的需要。
文章&教程
深度强化学习Bootcamp-视频讲座&实验
来源:SITES.GOOGLE.COM
链接:https://sites.google.com/view/deep-rl-bootcamp/home?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
这个训练营在8月26-27日在伯克利上线了。讲座和实验环境现在都可以免费在线访问。对想学习强化学习的小伙伴来说是很棒的资源。
用神经网络给黑白照片上色
来源:BLOG.FLOYDHUB.COM
链接:https://blog.floydhub.com/colorizing-b&w-photos-with-neural-networks/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
这是一个详细的教程,能够教会你建立一个神经网络,可以使用神经网络给黑白照片上色。
一种盲点算法
来源:NEWS.MIT.EDU
链接:http://news.mit.edu/2017/artificial-intelligence-for-your-blind-spot-mit-csail-cornercameras-1009?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
CornerCameras,是一个麻省理工研发的系统,可以与智能手机的摄像头集成,从而在一个隐蔽的场景中探测到人或者其他物体并且实时测量出它们的速度和轨迹。这个系统可以用在自动驾驶和搜索救援等领域。
混合精确训练(百度+ NVIDIA)
来源:RESEARCH.BAIDU.COM
链接:http://research.baidu.com/mixed-precision-training/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
目前大多数的深度学习模型都是使用32位单精度浮点数字来训练的。通过“混合精度训练”,使用16位浮点数(FP16),可以减少训练深度学习模型需要的存储器,并且使硬件处理器好计算单元的速度更快。
代码,项目&数据
TensorFlow: 发布 1.4.0 (tf.data)
来源:GITHUB.COM
链接:https://github.com/tensorflow/tensorflow/releases/tag/v1.4.0-rc0?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
该版本包括新的tf.data API,能够帮助开发者定义数据源并实现功能转换。
基于PyTorch的强化学习实现
链接:https://github.com/ikostrikov/pytorch-a2c-ppo-acktr?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
这个库包含了以下特点的 PytTorch实现1.Advantage Actor-Critic(A2C),A3C的同步确定版本的3C。2.最近策略优化(PPO:Proximal Policy Optimization)。3.ACKTR。它还包括预先培训的模型。
多代理竞争环境
链接:https://github.com/openai/multiagent-competition?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
多代理竞争这个库包含了论文《多智能体竞争的复杂性》(Emergent Complexity via Multi-agent Competition)中OpenAI的AI 健身房环境。
PyTorch实现准递归神经网络
链接:https://github.com/salesforce/pytorch-qrnn?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
这个库包含了一个基于PyTorch实施准递归神经网络的研究。QRNN的精确度与LSTM相似,但速度却可以达到LSTM的2到17倍。
爆款论文
多智能体竞争的复杂性
来源:ARXIV.ORG
链接:https://arxiv.org/abs/1710.03748?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
作者表明,一个竞争的多智能体环境与自我训练可以产生比环境本身复杂得多的行为。这样的环境伴随着一个自然的学习和竞争,因为对于任何技能水平,一个充满相同级别的智能体的环境都会有合适的难度。本文介绍了几种具有竞争性的多智能体环境,其中智能体在模拟物理世界中进行竞争。我们可以从中找到学习行为的一个亮点。
非平稳竞争环境下基于元学习的连续自适应
链接:https://arxiv.org/abs/1710.03641?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
在非平稳环境中不断学习并且通过有限的经验适应环境的能力是通向一般智力的道路上一个重要的里程碑。作者提出了一种基于梯度的元学习算法,适用于动态变化和对抗的场景。他们还提出了一种新的多智能体的竞争环境,RoboSumo,可以测试连续适应策略的各个方面。
孟买英语和印地语的平行语料库
链接:https://arxiv.org/abs/1710.02855?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
语料库是在以前的公共领域和新的平行语料库中提供的语料的汇编。语料库包含149万段平行语料,其中在公共领域的69.4万段是以前的语料库不宝库的。语料库已经为机器翻译进行了预处理。作者还报告了基于SMT和NMT的翻译结果。
The corpus is a compilation of parallel corpora previously available in the public domain as well as new parallel corpora. The corpus contains 1.49 million parallel segments, of which 694k segments were not previously available in the public domain. The corpus has been pre-processed for machine translation, and the authors report baseline phrase-based SMT and NMT translation results on this corpus.
举报/反馈

大数据文摘

21.6万获赞 10.4万粉丝
专注数据,分享价值。
关注
0
0
收藏
分享