V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  abc634  ›  全部回复第 1 页 / 共 2 页
回复总数  24
1  2  
@flashmamba 抱歉,公司政策不允许
@flashmamba
目前定 1-3 个月,合适的话尽快到东京,合不来的话就提前终止。
@houshuu 也顺便问问,
日本这些 IT 开发工作中,
新卒开发 普通开发 Manager 开发部长
主要的要求是技术能力和 还是沟通能力。
主要的区别是 代码水平还是 管理能力。
@superliy
请告诉我国内卷到什么程度,我 7 点半回家都要被抱怨。
@flashmamba 我们是小家,有兴趣欢迎联络。
@houshuu
是,请移步你希望的岗位
@rabbitsionEden
目前总体的判断是 后端语言以后差别会越来越小,
有信心,请进一步联络。
@iloveyou 为了避免 spam ,公司名称就不公开了。
业务是自己社内的专用系统开发。欢迎简历进一步确认。
@imokkkk 性价比取决于你的能力,我们有信心匹配更好的能力。
请给出你的简历。
@zsmile 最终要到东京上班。
因为远程的沟通成本太高,从美国到日本,现在都在取消远程。
@otakustay 谢谢,
我之前还没有碰到 这种情况,我碰到的是上下文太长超出窗口,
(多页内容)
然后我就把前一页的 xml 内容和新的页面 丢给 gpt 让他自己补全,效果还可以。
我的一个小经验:
让 api 返回 markdown 或者 html 或者 xml ,都比 json 好。
然后再解析 xml 就简单了。
@cooooing 您好,
我们决定增加 后端岗位,
简历可以提供给我们评估看看。
@zoverdoser
可以拿简历出来评评看。
比起欧美上海,东京的行业薪资是比不上的。
31 天前
回复了 abc634 创建的主题 Local LLM 请教,关于显卡内存
@mili100 感谢经验分享。
看起来是不错的主意,但是 需要比较强的代码能力?
我这边主要偶尔要测试下 Hugging Face 的模型,我暂时还不清除当这些模型要求使用 cuda 的时候,怎么去改造成使用 Ollama ,感谢提供了一个新的思路。
39 天前
回复了 abc634 创建的主题 Local LLM 请教,关于显卡内存
其他各位的经验,也谢谢分享。
39 天前
回复了 abc634 创建的主题 Local LLM 请教,关于显卡内存
@Boyang
感谢,我也关注 幻 X 看看(如果笔记本便携又可以跑本地模型,感觉非常理想)

ROG 在今年 CES 上发布的着重就讲了这点,128G 统一内存可以分配给核显跑模型

@Remember
strix halo 这个好像也是个选择,不知道是不是和 幻 X 同个路线。

@MacsedProtoss @plasticman64
谢谢了,只是 Mac Studio 暂时不考虑。
39 天前
回复了 abc634 创建的主题 Local LLM 请教,关于显卡内存
@joynvda
理论上应该可以给核显 3 验证模型,推理模型不如直接用国内平台提供的

谢谢,使用第三方平台确实有考虑,但是在联调中希望先确认模型可用,
比如手上有 5 个模型,根本不知道哪个质量好,希望先本地验证可用,再用平台的去跑。
主要是觉得这样方便。
45 天前
回复了 a526796017 创建的主题 职场话题 关于报销的相关疑问?
建议不要这么做:
1 ,你自己心理有阴影。这会影响你的生活和工作,几年甚至更久。
并且你自己知道在工作上不是尽职尽责的,影响你自己提升。

2 ,财务的事,没有倒查都好,万一酒店其他影响被查,牵连到你,不合算。

3 ,你的朋友,如果知道了这件事,不知道他怎么评价你。在我看来是负分。今后有难了可以找你吗?
@cooooing 久等了,抱歉这次优先考虑前端。
1  2  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2899 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 18ms · UTC 09:03 · PVG 17:03 · LAX 01:03 · JFK 04:03
Developed with CodeLauncher
♥ Do have faith in what you're doing.