@好东西传送门 出品, 过刊见 http://ml.memect.com
订阅:给 [email protected] 发封空信, 标题: 订阅机器学习日报
可点击加长版56条 http://memect.co/ml-list-2015-01-15
@G_Auss
关键词:公告板, 深度学习
我在 @知乎 回答了 [深度学习现在坑还多吗?] :要说深度学习还有什么坑,就要看看目前的深度学习都从哪些方面去研究。个人觉得当前深度学习领域的学术研究可以包含四部分:优化(Optimization),泛化(Generalization),表达(Represen… [1]
@爱可可-爱生活
关键词:自然语言处理, 数据科学, 政府网站
The free big data sources you should know 不容错过的免费大数据集,有些已经是耳熟能详,有些可能还是第一次听说,内容跨越文本、数据、多媒体等,让他们伴你开始数据科学之旅吧,具体包括:Data.gov、US Census Bureau、European Union Open Data Portal、Data.gov.uk等。 [1]
[1] https://agenda.weforum.org/2014/12/the-free-big-data-sources-you-should-know/
@CrazyJvm
关键词:架构, 资源, Spark, 视频
湾区Spark Meetup 2015第一炮,Patrick和祥瑞做了精彩的分享,展望了Spark在2015的发展,同时也着重强调了SchemaRDD的重要作用,祥瑞介绍了MLlib in 2015. slide & demo code [1] 视频: [2] (youtube)
[1] http://pan.baidu.com/s/1i3nCxu9
[2] https://www.youtube.com/watch?v=YWppYPWznSQ&feature=em-subs_digest
@王威廉
关键词:深度学习, Geoffrey Hinton, Ilya Sutskever, 行业动态, 集成学习
谷歌科学家、Hinton亲传弟子Ilya Sutskever的深度学习综述及实际建议 [1] 比较喜欢其中关于tricks的建议:包括data, preprocessing, minibatches, gradient normalization, learning rate, weight initialization, data augmentation, dropout和ensemble。
[1] http://weibo.com/p/1001603799166017998138
@爱可可-爱生活
关键词:深度学习, Nikhil Buduma, 神经网络
《深入讨论RNN》非常好的讨论递归神经网络的文章,覆盖了RNN的概念、原理、训练及优化等各个方面内容,强烈推荐!本文作者Nikhil Buduma,也是前两天推荐的《Deep Learning in a Nutshell》的作者,赞! [1]
[1] http://nikhilbuduma.com/2015/01/11/a-deep-dive-into-recurrent-neural-networks/