有一道 easy 的 leetcode 题目,gpt 很容易就给出了不错的解决代码,还有完整的思考过程,有点人的感觉了。详细过程在这里.
这两天也在试一些 leetcode 上面比较新的 medium 和 hard 题目,gpt 给的方法还是很惊艳的,所以 gpt 的逻辑推理能力真的是一种 “涌现” 出来的能力吗。
1
Tink 2023-06-07 08:05:34 +08:00
生成式模型就是想出来的啊
|
2
centralpark 2023-06-07 08:07:46 +08:00
leetcode 的题都在训练数据里,看这个没意思
|
3
hubqin 2023-06-07 08:10:20 +08:00 via Android
生成式 AI, 每个字都是根据前面的字推断出来的。为什么这么通顺,像真的有智能一样,因为他有几千亿个参数。
|
4
sentinelK 2023-06-07 08:21:25 +08:00 via iPhone
他不是逻辑推理,他是根据上文猜测下一个最可能的字。相当于是一种非常暴力的统计学+训练调优结果。
从某种意义上讲,大语言模型证明了人类的创意性产出(设计,撰写)其实很大程度上就是复读机(有强相关性),只不过人类大脑的并行能力有限,发现不了,或者发现了但很难抽象成一个方法论而已。 |
5
RandyLuo 2023-06-07 08:23:29 +08:00
因为在数据集里面,之前 Hacker News 讨论过,让 ChatGPT 做 Codeforces Div.3 的题,发现旧的题全对,新出的题几乎全错。
|
6
locoz 2023-06-07 08:27:53 +08:00 via Android
无论是思考过程还是可运行的代码,训练数据里都有,做出来很正常。
要看逻辑推理能力,应该让 AI 做一些需要一定逻辑和分析能力,且训练数据中必然无法直接涉及到的事,比如:把一个 yaml 转换成 json ,并且必须符合你制定的规范,同时 yaml 中可能还有特殊的 value 也需要按规范进行处理。 像这种要求,绝大多数开源的所谓达到 ChatGPT 多少多少能力的模型,都会出问题。 |
7
xuelang OP @centralpark 其实找了一个新的题目,https://leetcode.com/problems/sum-of-matrix-after-queries/description/ ,能暴力算出来。提示后也能给出优化解决方案。
|
8
xuelang OP @sentinelK 是的,我比较同意,就是暴力随机+调优。 不过目前能力,也比很多普通人强了,medium 的新的题目,提示后很快就能做对。
|
9
xuelang OP @locoz 我试了比较新的题目,gpt4 在简单提示 2 次后,也给出了一个优化后的实现。对话在这里 https://chat.openai.com/share/94bcadbe-88b1-4bcd-b907-a1eaec703fc7
|