先放网址,👉点击这里
PS:一个多月前,我发了这个帖子# Jobincorner 发现在角落的工作,给自己写了一个网站方便自己找工作,一个多月过去了,我在第一版的基础加了不少功能,比如扩展了一下采集的网站,之前只有 5 个,现在扩展到了 11 个。在这里跟部分网友说声感谢,因为有些网站的地址就是他们提供的。接下来继续介绍一下这个网站
帮助大家找工作,主要就是将一些社交平台/社区有关招聘的信息给采集下来,做成一个信息聚合网站。
我现在这份工作是在 x(twttier)上找的,那时刚失业不久准备收拾东西去大理旅游,在出发的前一天晚上我刷 twttier(那个时候还叫 twttier),刷到我现在这家公司的同事在招人,本着看到了就试试的原则立马就投了简历,然后当天晚上就拉进了同事群,然后一直工作到现在。直到现在我都觉的这份工作来的过于离谱 😨。
在 V2EX ,x 等这种平台上刷到了过一些蛮心动的工作,也投了不少的简历,虽然大都是失败告终,但是我却发现了找工作的另外一个视角——在社交平台/技术社区这种非招聘平台也存在着不少的工作机会。而且这种工作机会更加直接,发布招聘的往往都是你未来的同事(假设成功入职 :>)。但是这种工作机会来的很快,去的也很快,很快就会淹没在信息流里,遇上真的就是看运气。
总结以上就是:
现在的数据源如下:
一共有 11 个,比之前多了 6 个,未来会支持更多网站,如果大家有好的网站,欢迎提交👏
这个功能是我自己想要的功能,主要是用于快速的过滤以及保存过滤条件。比如我经常看 V2EX 的远程工作,那么我就可以设置一个筛选条件,并将这个条件保存,下次直接点击保存设置即可。
不少网友反馈的时候说希望加上 RSS 订阅,这次安排上了。
实现原理比较简单,就是获取到平台的内容(可以通过接口或者网页获取),然后通过 AI (目前我用的是 GPT3.5 )对内容进行 format 输出,输出成 json ,然后将 format 后的数据保存到数据库。
为了避免一些不正常的数据,比如存在噶腰子风险、一句话招聘这种,以及 AI 有时候并不靠谱,还是需要人工进行一层智能审核(狠狠的当了一次审核员),最后才会将过滤后的数据呈现在网站上。
前端: 主要是 React 相关技术栈 ,主要是 Shadcn UI +Tailwindcss + Tanstack + Nextjs
后端:主要是 Node 相关技术栈,主要是 Nestjs + Prisma + PostgreSql
其他:PM2 + Nginx
昨晚提交到阮一峰周刊,早上起来发现已经被收录到周刊了😄, 👉点击这里查看
希望能够在这个就业不太友好的环境中,帮助到大家 : )
1
zoeliu 182 天前 1
|
3
gochendong 182 天前
求教, 推特的招聘信息是怎么获取/过滤的 ?
|
4
Yidoon OP @gochendong 其实我用的方式特别土,就是人工过滤😂。特别好的办法我也还没找到,之前有想过写个浏览器插件自动爬取,但是一直没动手 🤷。
|
5
queryee 182 天前
RSS 订阅能不能也支持条件过滤
|
7
gochendong 182 天前
@Yidoon #4 获取也是手动的? 😂
|
8
Yidoon OP @gochendong 对,我看到了,或者别人给我分享,我再把内容丢给 AI ,主打一个人工智能😅。
|
9
kirisamemarisas 180 天前
x 现在不是有浏览限制吗?那这个信息收集怎么做全面?
|
10
Yidoon OP @kirisamemarisas 我没太理解 “信息收集怎么做全面” 是啥意思?意思是怎么自动获取 x 的帖子么?比如通过 api 或者 爬虫这种?
|