@好东西传送门 出品, 过刊见 http://ml.memect.com
订阅:给 [email protected] 发封空信, 标题: 订阅机器学习日报
可点击加长版31条 http://ml.memect.com/archive/2015-02-12/long.html
@爱可可-爱生活
关键词:经验总结, 算法, Python, 博客, 集成学习, 特征工程
[文章]《Selecting good features》特征工程系列文章:Part1.单变量选取 [1] Part2.线性模型和正则化 [2] Part3.随机森林 [3] Part4.稳定性选择法、递归特征排除法(RFE)及综合比较 [4] 内容很赞,还有Python代码示例,强烈推荐!
[1] http://blog.datadive.net/selecting-good-features-part-i-univariate-selection/
[2] http://blog.datadive.net/selecting-good-features-part-ii-linear-models-and-regularization/
[3] http://blog.datadive.net/selecting-good-features-part-iii-random-forests/
长微博图: http://ww2.sinaimg.cn/large/5396ee05jw1ep6a5lq5dqj20kq2q1npd.jpg
@Copper_PKU
关键词:深度学习, 算法, 资源, CRF, PDF, 论文, 神经网络
Conditional Random Fields as Recurrent Neural Networks link: [1] 就喜欢这种把model串起来的工作方便理解和泛化。paper将mean-field inference每次迭代过程和CNN对应上,整个inference过程对应为一个Recurrent NN 这是这几天arxiv中算有意思的paper @火光摇曳Flickering
[1] http://arxiv.org/pdf/1502.03240.pdf
@鲁东东胖
关键词:江辉, 论文
推荐一下York University 江辉老师的最新工作: [1]
[1] http://arxiv.org/abs/1502.00702
@金连文
关键词:经验总结, 视觉, Yoshua Bengio, 博客, 论文
又见Automatic Image Captioning(AIC)论文,来自Yoshua Bengio教授团队(22 pages, 8页正文+n多附图) [1] ,文中报道的结果比之前Microsoft、Google的结果更好。 此前还看到过今年一篇介绍Image Caption Generation的博文: [2] ,内容够up-dated,还不错!
[1] http://arxiv.org/abs/1502.03044
[2] https://pdollar.wordpress.com/2015/01/21/image-captioning/
@cswhjiang
关键词:深度学习, Python
torch vs theano [1]