V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  lchynn  ›  全部回复第 2 页 / 共 13 页
回复总数  241
1  2  3  4  5  6  7  8  9  10 ... 13  
253 天前
回复了 wxiao333 创建的主题 分享发现 回五线城市老家一周,惊人的发现
小城市科学上网, 可能会被作为 KPI 抓去喝茶。 如果自由职业 github 码农,可能被充公财产收入。
274 天前
回复了 Grocker 创建的主题 程序员 分辨多个用户之间是否是分身的算法?
或者一本产证最多允许 2 个未满 18 岁身份证号的优惠 (未满 18 岁也有身份证,户口本上有);

按产证拿福利,思路来自于魔都大封城期间,居委发每户“救济粮”,按每户发放,而不是手机号或者什么别的号领取。
274 天前
回复了 Grocker 创建的主题 程序员 分辨多个用户之间是否是分身的算法?
用房产证吧, 一本产证只能一个号。
281 天前
回复了 mike163 创建的主题 OpenAI gpt-4o-mini 和阿里 qwen2-7b-instruct 对比
@openmynet #14 ;

试了下,gemma2-9b-it 翻译还不如 gemma1-7b ; 没觉得强在哪里啊?

拿下面这句话测试的:
Whether you're a believer or a skeptic, it's a thought-provoking watch that might just make you see the stars in a new light.

“thought-provoking” 没有翻译出来, 直接给我写在中文译文里面,llama2-8b, gemma2-9b, Qwen2-7b 都可以翻译出来。 我用的是 groq.com 的服务测试的。
282 天前
回复了 aeucon 创建的主题 生活 希望每个城市都有一个“24 小时书店”
网吧
@nidongpinyinme #63 你大模型是跑 10B 以下的还是 70B, 110B 这种的? 如果是后 2 者, 你就是量化 Q4 ,你这个显卡也推理起来够呛, 如果是只有几个 B 的,比如 GEMMA, PHI3 这种的。 拿 AMD 8845 或者 INTEL ULTRA 核显都推理的飞快。 如果你要微调大模型( SFT )? 我觉得消费级显卡,基本没啥关系吧, 哪怕你买了 4090 ,也够呛。
@ospider #64 , 你这个还不如直接用 BASE64 得了, 起码转换工具导出都有啊, 拿八卦的 UNICODE 区段字符代替 BASE 64 ,看的眼睛都花了。
不如另一个 EMOJI-AES 的项目, https://aghorler.github.io/emoji-aes/
343 天前
回复了 AIInception 创建的主题 OpenAI 智谱 AI 发布 Batch API
折算下来每 M Token 要 50 元。
性价比并不好, 不如 混元和 deepseek , 就是对比 moonshot ,minimax 等也算贵的。
大部分 RAG 场景, 并不需要很高的推理能力。只有编程和复杂任务规划智能体才需要接近 GPT4 水平的 GLM4 ;
而 GLM3 能力又和弱智的文心一眼 ERINE 3 差不多。
345 天前
回复了 hendry 创建的主题 OpenAI plus 的 GPT4 诗词歌赋胡说八道
讲道理, 问中文文言和诗词常识,真的不如百度文心、通义千问、GLM4 。二线的 KIMI, 天宫,豆包什么都可以。

GPT4 的强项是在代码生成,指令遵循,复杂任务理解上。 你让一个大学毕业的程序员和突击过古诗文大赛提纲的的小学生比谁能背的诗词多,肯定程序员输啊。
349 天前
回复了 hendry 创建的主题 OpenAI ChatGPT 4o 免费玄学,如下图所示
测试大模型所训练数据的时间节点,可以问新闻大事;
比如俄罗斯何时入侵乌克兰,可以筛选掉 2022 年 2 月之前训练数据的大模型;
比如日本什么时候确定正式排放福岛核废水,可以筛选掉 2023 年 Q3 之后训练的大模型;
以此类推,建议使用英语询问。 对于国内大模型,关掉互联网搜索能力,可能测出实际训练数据的时间。
357 天前
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
@mkdirmushroom 有没有试一下 Code-Qwen 或者 Deepseek Code ? 谢谢, 如果速度可以, 感觉可以代替 Copilot 了
357 天前
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
8845HS 的 NPU 好像说 FP16 (half) 的算力是 16 TFLOPS ; 估计是瞎吹吧。
3060 12G 的 FP16 (half) 才 12.74 TFLOPS
357 天前
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
@wxd21020 8848HS 的 NPU 好像说 FP16 是 TFLOPS ; 估计是瞎吹吧。
3060 12G 的 FP16 (half) 才 12.74 TFLOPS
358 天前
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
@mkdirmushroom 买了 GEM12 了么? OLLAMA 或者 LM-STUDIO 推理 7B 的 gguf 模型咋样? 有测试结果么?
360 天前
回复了 CoffeeLeak 创建的主题 Local LLM 折腾 Llama3 跑在 NAS...结果确实一言难尽
@xJogger 谢谢, 那看来日常够用了。不知道综合能力对比 Qwen1.5 7B 如何。
1  2  3  4  5  6  7  8  9  10 ... 13  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5564 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 36ms · UTC 02:37 · PVG 10:37 · LAX 19:37 · JFK 22:37
Developed with CodeLauncher
♥ Do have faith in what you're doing.