V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  HGladIator  ›  全部回复第 16 页 / 共 38 页
回复总数  749
1 ... 12  13  14  15  16  17  18  19  20  21 ... 38  
2017-05-31 10:36:48 +08:00
回复了 iamfirst 创建的主题 问与答 V 友是怎么处理自己人事档案的
@SourceMan #24 身边总是有很多人,可以说绝大多数人都是这种 ,觉得干部身份没有什么用,只要有技术就可以,我还是觉得这种事情真的说不清,谁知道你会不会用到呢, 谢谢你给我一详细的例子
2017-05-31 10:34:06 +08:00
回复了 iamfirst 创建的主题 问与答 V 友是怎么处理自己人事档案的
@cxbig #4 挪回本地还是要过问一下的, 我之前挪回去的时候是需要签订一个一年的《人事代理合同书》,然后一年到期了是需要续签的。也打电话问过 最好还是续签一下的好, 不过不续签也不是不行
@kunimi 可是这么回复 “你说你被砸了 你有证据证明是被楼上扔东西砸的么?确定不是脑子进水,下雨天滑了一跤磕的?”
2017-05-30 13:36:00 +08:00
回复了 chengxiao 创建的主题 问与答 各位看 B 站会卡么?
@zccicy 我的是不管 Windows Linux 都卡顿
检测信息一直才 90KB
我这可是 20 兆小水管啊
APP 端不卡 说明不是网速的问题吧
2017-05-30 13:31:55 +08:00
回复了 chengxiao 创建的主题 问与答 各位看 B 站会卡么?
现在卡顿不分白天黑夜
简直不知道该怎么查哪里有问题
2017-05-30 13:30:55 +08:00
回复了 chengxiao 创建的主题 问与答 各位看 B 站会卡么?
B 站和斗鱼 chrome 都卡的不行
检测信息一直才 90KB
我这可是 20 兆小水管啊
相反 APP 端没问题
斗鱼直接一直获取房间信息失败
A 站 火猫油管都没问题
2017-05-29 11:03:59 +08:00
回复了 JJaicmkmy 创建的主题 随想 看到 15 岁在家无业,我想分享一下我的经历
这不上学是你自己选择的 而那个孩子是想上学,家里不同意
可以自己选择自己的生活 而且享有资源 真是让人羡慕的少年生活
2017-05-28 17:47:23 +08:00
回复了 littledream 创建的主题 问与答 十五岁,无业,在家,可以学点什么?
这个时候可能你一个人、你的家庭的力量是很难面对现在的生活,可是可是动用社会的力量,毕竟义务教育还没有完成,比如去找校长面谈、如果真的没人能帮助你,然后才是想办法接受现状,在这之前你有试过么?重要的事情一定要狠狠的争取,困难在你的顽强面前可能会发生变化哦
2017-05-28 17:35:30 +08:00
回复了 littledream 创建的主题 问与答 十五岁,无业,在家,可以学点什么?
我那时还不曾上过网,也不曾玩过电脑……
说真的起码要上完高中。职高什么的。
不然日子会比现在更难走
2017-05-28 08:59:15 +08:00
回复了 4399 创建的主题 推广 六一临时工上线,留言拿炸锅机啦
炸锅……好像是个好东西
2017-05-27 10:47:22 +08:00
回复了 nellace 创建的主题 问与答 朋友,你们还和自己的发小联系吗
心塞,不说了,不想联系了
2017-05-27 10:42:50 +08:00
回复了 azuis 创建的主题 全球工单系统 阿里云服务器被超过 800PB DDoS 流量攻击
不得了了 不得了了
从来开过完全访问
2017-05-26 11:46:56 +08:00
回复了 HGladIator 创建的主题 Python scrapy-redis 的 start_urls 添加很多个,怎么做便捷?
@shimmerh #10 看这便捷的方法不是找到了吗, start_requests 读文件啊
2017-05-26 11:07:47 +08:00
回复了 HGladIator 创建的主题 Python scrapy-redis 的 start_urls 添加很多个,怎么做便捷?
我还是老老实实写脚本吧
2017-05-26 11:01:02 +08:00
回复了 HGladIator 创建的主题 Python scrapy-redis 的 start_urls 添加很多个,怎么做便捷?
@knightdf #6 我才不会手动呢,我想着应该会有更便捷的高级方法
2017-05-26 10:35:10 +08:00
回复了 HGladIator 创建的主题 Python scrapy-redis 的 start_urls 添加很多个,怎么做便捷?
@qsnow6 #2 这个写在 spider 里面吗
2017-05-26 10:34:29 +08:00
回复了 HGladIator 创建的主题 Python scrapy-redis 的 start_urls 添加很多个,怎么做便捷?
@PythoneerDev6 #1
@knightdf #3
需要很长一串啊 一个一个加进去 比如我有 50 个页码怎么加
```
127.0.0.1:6379> lpush yourspider:start_urls https://www.v2ex.com/t/363913
```
这样的 url 不是要写 50 个?
1 ... 12  13  14  15  16  17  18  19  20  21 ... 38  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2911 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 46ms · UTC 07:30 · PVG 15:30 · LAX 23:30 · JFK 02:30
Developed with CodeLauncher
♥ Do have faith in what you're doing.