V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  wowodavid  ›  全部回复第 3 页 / 共 37 页
回复总数  739
1  2  3  4  5  6  7  8  9  10 ... 37  
214 天前
回复了 timjunk 创建的主题 健康 差点挂了
明显低血糖,屁事没有
@isAK47 #3 到手即用的旁路由一炸全家都炸了
219 天前
回复了 JiaNa 创建的主题 问与答 如何保证医疗险不拒赔?
@JiaNa 普惠性的不说了。高端型的,都是消费型的没错,但有个口碑因素在这里。比如 msh bupa 就是配的爽快,中间带就是叽叽歪歪。
多看口碑吧,但没法确保,因为本身拒赔也属于保险公司的盈利范畴。
@SIUCAK 小红书 50%以上内容都是纯 gpt 生成的,剩下的 45%也是被 gpt 润色过的
222 天前
回复了 zhousir5071 创建的主题 问与答 户外音箱哪家好?
当然,实际上音质也不是很差,只不过满足不了 hifi ,对于一般需求,绝对没问题
222 天前
回复了 zhousir5071 创建的主题 问与答 户外音箱哪家好?
@digimoon 说的好听,实际不超过 10 瓦,唱 k 根本不够,还不如直接嗓子干吼。要满足于唱歌的需求,还是去找广场舞音响吧,量大管饱,500-1000 左右可以随便挑了。音质不是很关键,就一般人的嗓子,谈不上讨论音质的地步。
222 天前
回复了 zhousir5071 创建的主题 问与答 户外音箱哪家好?
上面推荐的几款都满足不了你唱歌的需求(音量还没你嗓子大)
228 天前
回复了 233373 创建的主题 Apple 如何将大量的照片和视频导入到 Apple 相册?
A Better Finder Attributes
宜家主要是省心,你去谈索菲亚,你妈去谈,你老婆去谈,你兄弟去谈,可以谈出 4 个价格,难不难受?
@jatesun 很简单,因为 apple care+保护的是“意外”,而不是“质量问题”。任何需要维修的情形,无非分为三类,“意外损坏”、“故意损坏”、“质量问题”。其中 apple care+保护第一种情形,三包政策和商家的质量承诺保护第三种情形。
具体到你的案例,键盘失灵,在没有明确证据是外力损坏的情形下,当然属于“质量问题”,这种情形直接回退到“三包”等质量承诺服务了,根本够不上 apple care+。至于你这个接口的问题,道理也是一样,在没有明确证据的情形下,接口出现问题当然是“质量问题”。
“明确证据”包括客户自我描述、客观证据(浸水的残留物、变色的检验纸等等)……
236 天前
回复了 Eagleyes 创建的主题 汽车 有多少人有意购买小米 SU7?
30 万买小米股票,su7 足够好的话,这笔钱应该够你买一车库的 su7
教网球,一小时 1000 随便,一周勤点搞 10 次课,一年下来 40 万随随便便。家里 3 4 套,这个家算了他父母?干了几十年老师,积蓄在本地混两三套房子太容易了吧
253 天前
回复了 junwind 创建的主题 git 大家好, mac 上有哪款 git GUI 工具好用呢?
不嫌贵可以试试 sublime merge
253 天前
回复了 anson264556364 创建的主题 macOS MAC 删除重复文件推荐
问题是,apfs 还需要删除重复文件吗?
253 天前
回复了 anson264556364 创建的主题 macOS MAC 删除重复文件推荐
gpt 写一个脚本就行创建一个 Mac 脚本来删除指定文件夹内的重复文件(保留其中一个副本)可以通过多种方式完成,其中一种有效方式是使用基于哈希值的比较。下面的脚本使用了`bash`和`md5`命令来识别和删除重复的文件。这个脚本只会保留每个文件的一个副本,删除其他所有的重复项。

请注意,运行此脚本之前,请确保你拥有足够的权限来读取目标文件夹和修改其内容,并且对你想要处理的数据进行备份,以避免意外的数据丢失。使用此脚本时应谨慎行事。

```bash
#!/bin/bash

# 替换下面的路径为你想要清理的文件夹路径
TARGET_DIR="/path/to/your/target/directory"

# 创建一个临时文件,用于存储已经处理过的文件的哈希值
PROCESSED_HASHES=$(mktemp)

# 遍历目标目录中的所有文件(不包括目录)
find "$TARGET_DIR" -type f -print0 | while IFS= read -r -d '' file; do
# 计算当前文件的 MD5 哈希值
MD5_HASH=$(md5 -q "$file")

# 检查这个哈希值是否已经存在于处理过的哈希值中
if grep -q "$MD5_HASH" "$PROCESSED_HASHES"; then
# 如果哈希值存在,这意味着我们已经遇到了一个重复的文件,可以删除它
echo "Deleting duplicate file $file"
rm "$file"
else
# 否则,将这个新的哈希值添加到已处理的哈希值中,保留这个文件
echo "$MD5_HASH" >> "$PROCESSED_HASHES"
fi
done

# 删除临时文件
rm "$PROCESSED_HASHES"

echo "Duplicate files deletion process is completed."
```

如何使用这个脚本:

1. 打开终端( Terminal )。
2. 使用`nano`或你喜欢的文本编辑器,创建一个新的脚本文件,例如,你可以命名为`delete_duplicates.sh`。
3. 复制上面的脚本内容到这个文件中。
4. 替换`TARGET_DIR="/path/to/your/target/directory"`行中的路径为你想要查找和删除重复文件的目标文件夹。
5. 保存并关闭文件。
6. 让脚本具有可执行权限,通过运行`chmod +x delete_duplicates.sh`。
7. 在终端中运行脚本:`./delete_duplicates.sh`。

使用这个脚本之前,请确保你完全理解了它的作用,并对你的数据进行了备份。这个脚本会无声地删除文件,只在删除时打印信息。
256 天前
回复了 yukiyama 创建的主题 Apple 新款 M3 MacBook Air 到底该买什么配置?🤔
16/24+256 ,然后改硬盘到 2t
257 天前
回复了 blueguitar 创建的主题 Apple M3 AIR 折扣这么高么?
85%上下正常价吧,无非就是渠道价+专票税点,你不要专票,数码产品都能做到这个数
多看文字,少看视频
14 寸千万别买 m1max ,续航能力极差,至少上 m2max
1  2  3  4  5  6  7  8  9  10 ... 37  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1380 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 37ms · UTC 17:35 · PVG 01:35 · LAX 09:35 · JFK 12:35
Developed with CodeLauncher
♥ Do have faith in what you're doing.