V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  openmynet  ›  全部回复第 1 页 / 共 5 页
回复总数  97
1  2  3  4  5  
@466162659 有这问题
从使用 ai 辅助开发角度我会推荐 rn ,AI 对 js/ts 的支持要比 dart 好太多。
按 ds 的 1-2 个月一个版本的尿性,v3.1, r2 估计正在训练中。
@466162659 ds-r1 确实要比 4o 好太多,我在 reddit 看到的情况是 ds-r1 都是和 o1 进行对比,在 aider 编程测试中,r1+v3 基准测试为 59.1%,接近 o1, r1+Sonnet 则优于 o1
4 天前
回复了 spike0100 创建的主题 OpenAI Deepseek R1 的本地模型也会触发敏感词吗?
7b 是原模型 qwen 本身自带的审核
问 deepseek 是什么模型, deepseek 说自己是 gpt4 ,这个问题在 reddit 被讨论过,大部分观点倾向于这一两年的互联网语料的污染,这几年谈论 AI 基本都是在围绕 GPT 在讨论。类似的问题也会出现在 llama3 身上。
rust 的生命周期和现实世界高度类似,一个东西(在生命周期内)永远只会在一个人手里,如果你看到两个一样的东西其他一个必定是复制品(.clone())

```js
let r1 = &m.1; // 139 已经被 r1 拿在在手里了
v.1; // error:v.1 取回 139
println!("{}", r1); // r1 现在手里没有 139 , 你现在非要让 r1 给你拿出来,r1 拿不出来,rust 编译器向上裁定 v.1 不允许拿 139 。
```js
调整一下获取 139 的顺序

```js
let r1 = &m.1; // 139 已经被 r1 拿在在手里了
println!("{}", r1); // r1 现在手里有 139 , 你现在让 r1 给你拿出来,139 被成功打印。
v.1; // v.1 拿回 139

```
要么你在 139 被借出去之前弄一个复制品.clone()

```js
let mut v = (136, 139);
let v1 = v.1.clone();
let m = &mut v;
let m0 = &mut m.0;
*m0 = 137;

let r1 = &m.1;
v1;
println!("{}", r1);
```
要么用 zlmediakit 或者 srs 部署流媒体服务器,要么使用第三方云平台的直播服务(走拉流)。zlmediakit 、srs 支持 flv, 对应的播放器是 flv.js, 延迟要比 hls 好很多, 另外海康自己的 h5 播放器(新版本)也是走 websocket 的。
34 天前
回复了 5261 创建的主题 Rust rust 大抵是病了,它担心大家太容易掌握了
@5261 你对照着 java 来看,自然会觉得复杂,如果你一开始是写 js 的,而且还是 es5 的版本,在还没有没有 ts 来写一些复杂的 js 应用时,会发现 rs 的类型系统的和生命周期机制是真香。不用担心未知的内存泄露把浏览器卡到爆炸,不用担心某些变量的值莫名其妙的被修改了,甚至在调用某些插件时,明明已经进行释放操作了,内存占用还是没降下来。
从我的角度上看,rs 是比 ts 进化的更彻底的 js 。另外 js 和 rs 是同一个作者,所有在 rs 身上有一部分 js 的身影。
40 天前
回复了 kdbtg91 创建的主题 OpenAI 如何评价 OpenAI 的 o3?
o1 到 o3,性能是线性增长,成本却是指数增长。
mistral large latest api ![mistral_large_latest_api.png]( https://imgur.com/pr4bp0r)
62 天前
回复了 murmur 创建的主题 程序员 有多少兄弟被国产化改造坑过
@HojiOShi 没觉得是瞎改,不把好的改出 bug 怎么去收技术服务费。没事找事才能让领导看到我没闲着。
71 天前
回复了 bli22ard 创建的主题 程序员 rust vs golang 交叉编译
明显是在钓答案的。
个人觉得 enable 应该是赋能(赋予..能力),而黑话中的"赋能"则更倾向于赋予正能量。
AI 本身就是欺软怕硬。
119 天前
回复了 vnxi 创建的主题 投资 牛市来了,却只能看着
国债不会通过大 A 来实现均富,但大概率会通过大 A 来实现济贫。
你不投,他不投,我的生活在发愁。
131 天前
回复了 Gabrielle70 创建的主题 程序员 求助: Claude vs. ChatGPT 订阅哪个?
你们平时都用 openai 和 Claude 来干嘛,纯好奇。我自己平时 deepseek + gemini-1.5-pro + mistral large 2 感觉已经够用了。目前编码方面没有遇到这三个都解决不了的,其他方面没怎么使用。
找个支持交叉编译的 docker 镜像会比你瞎折腾要来得简单些。之前就用这做过 rust+cpp 在 arm32/64 的编译
189 天前
回复了 mike163 创建的主题 OpenAI gpt-4o-mini 和阿里 qwen2-7b-instruct 对比
@lchynn 我这用的也是 groq, 但走的是 api ,groq 里面没有 gemma2-9b ,只有 gemma2-9b-it; 翻译用是的火狐插件 ChatGPTBox ,参数设置:Temperature: 1 。

gemma2-9b-it: 无论你是否相信,这是一部发人深省的影片,可能会让你以一种全新的眼光去看待星空。
qwen2-7b: 不论你是信徒还是怀疑论者,这都是一部引人深思的影片,可能让你以全新视角看待星空。
yi-15.-9b: 无论你是信徒还是怀疑论者,这都是一部引人深思的作品,可能会让你以一种新的视角来看待星星。
chatglm-4-9b: 无论您是信徒还是怀疑者,这都是一部发人深思的影片,可能会让您以全新的视角看待星星。



受限于 ChatGPTBox 插件的限制,Temperature 没法设置: 0.01 ,当设置 Temperature:0 (Temperature 会使用默认值)
以下是通过软件进行测试:
测试配置:

Temperature: 0.01 (尽可能的保证每一次回答都一样)
top_p: 1
presence_penalty: 1.1
系统提示词:未设置

将以下内容翻译为中文:
Whether you're a believer or a skeptic, it's a thought-provoking watch that might just make you see the stars in a new light.

gemma2-9b-it: 无论你是相信者还是怀疑者,这部电影都值得一看,它可能会让你以全新的视角看待星空。
qwen2-7b: 无论是相信者还是怀疑者,这都是一部引人深思的影片,它可能会让你以全新的视角看待星星。
yi-1.5-9b: 无论你是信徒还是怀疑论者,这都是一部引人深思的观看,可能会让你以一种新的视角来看待星星。
chatglm-4-9b: 无论你是信徒还是怀疑者,这都是一部发人深省的影片,可能会让你以全新的视角看待星星。

-1.----------------------------

来源: https://www.reddit.com/r/LocalLLaMA/comments/1eaw160/anthropic_claude_could_block_you_whenever_they/
将以下内容翻译为中文:
Anthropic Claude could block you whenever they want.

gemma2-9b-it: Anthropic Claude 可以随时阻止你的访问。
qwen2-7b: 具有人类意识的克劳德可以在任何时候阻止你。
yi-1.5-9b: Anthropic Claude 可以随时阻止你。
chatglm-4-9b: Anthropic Claude 可以随时阻止你。

-2.----------------------------

来源: https://www.reddit.com/r/LocalLLaMA/comments/1eaw160/anthropic_claude_could_block_you_whenever_they/

将以下内容翻译为中文:
Thank God for how open source models are catching up, I have no desire whatsoever to become a slave to API run by tech bros.

gemma2-9b-it: 感谢上帝,开源模型正在赶上,我绝对不想成为那些科技大佬掌控的 API 的奴隶。
qwen2-7b: 感谢上帝开源模式正在迎头赶上,我完全没有意愿成为由科技精英运营的 API 的奴隶。
yi-1.5-9b: 感谢上帝,开源模型正在迎头赶上,我丝毫没有成为由科技兄弟运行的 API 的奴隶的愿望。
chatglm-4-9b: 感谢上帝开源模型正在迎头赶上,我无论如何都没有成为科技大亨们 API 的奴隶的欲望。

-3.----------------------------

来源: https://www.reddit.com/r/LocalLLaMA/comments/1eaw160/anthropic_claude_could_block_you_whenever_they/

将以下内容翻译为中文:
Why do you assume any crime has ever been committed ever, it’s a TOS they can change that and block you at any time for any reason.

gemma2-9b-it: 你为什么假设任何犯罪行为都曾经发生过?这违反了服务条款,他们可以随时更改条款,并出于任何理由封锁你的账号。
qwen2-7b: 为什么你假设任何犯罪行为曾经发生过?这是服务条款的一部分,他们可以随时出于任何理由阻止你。
yi-1.5-9b: 你为什么假设任何犯罪行为都曾经发生过?这是他们的服务条款,他们可以随时以任何理由更改并阻止你。
chatglm-4-9b: 你为什么假设任何犯罪行为都曾经发生过?这是他们的服务条款,他们可以随时以任何理由更改并阻止你。

-4.----------------------------
来源: https://www.reddit.com/r/singularity/comments/1eaej0u/mark_zuckerberg_eloquently_states_the_case_for/

将以下内容翻译为中文:
Mark Zuckerberg eloquently states the case for open source and decentralized AI - a well thought writeup that answers the naysayers and doomers

gemma2-9b-it: 马克·扎克伯格( Mark Zuckerberg )巧妙地阐述了开源和去中心化人工智能的理由——一篇经过深思熟虑的文章,回应了反对者和悲观主义者。
qwen2-7b: 马克·扎克伯格有力地阐述了开源和去中心化人工智能的案例——一篇深思熟虑的撰写,回答了质疑者和悲观者的观点。
yi-1.5-9b: 马克·扎克伯格以优雅的言辞阐述了开源和去中心化人工智能的案例——一篇深思熟虑的写作,回答了那些持怀疑态度和悲观的人。
chatglm-4-9b: 马克·扎克伯格巧妙地阐述了开源和去中心化 AI 的论点——这是一篇深思熟虑的撰写,回应了那些怀疑者和悲观主义者。
```rust
#[derive(Debug, Clone, PartialEq, Deserialize, Serialize)]
pub struct TokenParams {
pub token: String,
}
impl TokenParams {
pub fn from_uri(uri: &axum::http::Uri) -> Result<Self, impl IntoResponse> {
uri.query()
.ok_or((StatusCode::BAD_REQUEST, "缺失参数"))
.and_then(|q| {
serde_qs::from_str::<TokenParams>(q)
.map_err(|_| (StatusCode::FORBIDDEN, "缺失必要参数"))
})
}
}

async fn authorize_demo(mut request: Request, next: Next) -> Result<Response, impl IntoResponse> {
// 从 query 中获取
let valid = TokenParams::from_uri(request.uri());

match valid {
Ok(valid) => {
request.extensions_mut().insert(valid);
Ok(next.run(request).await)
}
Err(err) => {
return Err(err);
}
}
}

```
1  2  3  4  5  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1817 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 29ms · UTC 08:29 · PVG 16:29 · LAX 00:29 · JFK 03:29
Developed with CodeLauncher
♥ Do have faith in what you're doing.