V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  zwpaper  ›  全部回复第 1 页 / 共 50 页
回复总数  999
1  2  3  4  5  6  7  8  9  10 ... 50  
1 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@unbridle 对,还得在 config.toml 上配置一下远端 api 的信息,需要自己 mount 这个配置文件进去
我一般是陌生路段车头朝上,稍微熟悉的路段就北朝上,这个确实挺重要的,北朝上可以更熟悉周边地理位置;
对于 2 我有点不理解,英文系统显示拼音不是很正常吗?否则期望显示的是什么?
13 天前
回复了 roxanne299 创建的主题 MacBook Pro M4 Pro 和 M4 Max 怎么选
CPU 区别是快慢,而且 Pro 已经很快了,内存区别有可能是 能不能,开发用,我倾向大内存。

14 或者 16 看你不外接屏幕的场景多不多,大多时候有外接屏幕,14 轻便;经常只用 Mac 的屏幕,16 才能干活
17 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@weank #91 语言只是实现途径之一,用 Rust 也是考虑生态之后的选项,实际开发体验下来也都挺好的,我也知道 Rust 的花边新闻,不过最终产出才是中最要的。

对于开发者,主要是有一个上手门槛,但是现在像 Tabby 这样的助手出现,也能很大程度的降低这个门槛。

对于企业,主要还是看产品,一般也不会过多关注具体的实现方式
17 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@monkeyWie Tabby 会整合更多的相关信息,不仅仅是一个代码助手
17 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@astkaasa #80 可以到 GitHub 或者 Slack 里贴一下详细的问题,才能定位一下怎么回事
17 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@jlak 会有点,不过现在 token 价格也都越来越便宜了,而且只会更便宜,另外就是本地有显卡的话,本地模型能力也会越来越强的
17 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@a174871 #81 可以的,参考这里几个不同的厂商,可以组合使用,也可以本地远端组合使用
https://tabby.tabbyml.com/docs/references/models-http-api/deepseek/
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@Echoleung #63 是的
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@Rrrrrr #59 我个人的经验是 codestral 22b 一个模型对于 Completion 和 Chat 处理得都挺不错的,显卡能跑起来这个模型的话,体验上应该就很不错了
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@a174871 #67 是的,全能力需要 3 个模型,Chat 、Completion 、Embedding ,

Google 有 Chat 和 Embedding

OpenAI 三个都有,只是 Completion 已经 Deprecated 了
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@ZSeptember 哈哈,互联网时代,主要还是看产品
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@Alias2023 个人本地部署基本没有限制,有一些企业功能是限制了需要订阅才可以的,这也是我们的商业模式
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@a132811 是的,允许添加 GitHub/GitLab 等仓库,会自动去拉取,或者本地的 Git 仓库也都是可以的
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@Rrrrrr "我们的 API" 就是指的本地运行的这个 Server API ,公司不让上网指的应该是不让上互联网吧,公司内网部署 Tabby ,然后内部都访问这个 API 就行
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@TimPeake #50 LLM 基本都是这样,不同模型对显卡的利用率也不一样
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@a174871 因为 Gemini 只有 Chat 模型,所以关注度不算高,不过好像也确实可以把 Chat 模型给他加上,毕竟也是个 LLM 大哥
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@TimPeake 得看一下具体的日志和报错,之前碰到过的 docker 绑了 IPv6 ,还碰到过 localhost 解析异常,或者 GPU 异常,之类的问题

或者各位有条件的话,可以加一下我们的 Slack ,我们可以更好的当好客服工作,哈哈

https://links.tabbyml.com/join-slack-landing
18 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@xdeng @Echoleung @jonsmith 本地有显卡是最好的,可以本地跑模型,尤其对于企业来说,数据还很重要的。

没有显卡的情况下,Tabby 也支持使用远端的模型 API ,针对不同的厂商,我们也都有对应的文档,可以参考一下,例如最近很火的 Deepseek V3 和 Deepseek Coder 都可以通过 Deepseek 的 API 运行: https://tabby.tabbyml.com/docs/references/models-http-api/deepseek/
19 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@liuliuliuliu @xfn 我们目前没有对比的文章,但是从个人体验上说,Tabby 会获取更多的上下文,包括编辑器里能获取的,还有 Server Side 保存的,在 Chat 或者补全的时候都会有更高的命中率
1  2  3  4  5  6  7  8  9  10 ... 50  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1776 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 20ms · UTC 05:02 · PVG 13:02 · LAX 21:02 · JFK 00:02
Developed with CodeLauncher
♥ Do have faith in what you're doing.