![]() |
1
wuyiccc OP ![]() 看看哪一家能率先完成软件自举,证明自己的编程能力,hiahia~
|
![]() |
2
wuyiccc OP |
![]() |
3
xboxv 7 小时 39 分钟前
|
![]() |
4
GeekGao 6 小时 21 分钟前
你高估了 LLM 的能力;低估了 IDE 软件的复杂性。
|
5
mumbler 5 小时 50 分钟前
胃口太小了,要实现 AGI ,大模型具备自我进化迭代能力是非常关键的,人类工作效率还是太差,大模型自己训练下一代大模型,然后再训练下一代,缺什么补什么,经过几十代就进化出自我意识了,做个 agent 有什么难的
|
6
billccn 4 小时 2 分钟前
问题就来了,如果编程工具实现了自举,那每个客户订阅一个月自己写一个后面就不用再订阅了(至少可以直接接入最便宜的 AI API ),那这些做工具的就无法赚钱了。
就像我那天构思了个部分利用 AI 的代码优化系统,但转念一想它最有可能的作用是把我的部门搞失业,遂作罢。 |
![]() |
7
cooltechbs 3 小时 17 分钟前 via Android
一帮前百度工程师需要多少时间重写一个百度出来?
虽然 AI 堆屎山速度可以快很多倍,但那些百度工程师是用百度代码“训练过”的,而 Cursor 是没有用 Cursor 自身代码训练过的,所以也可能永远写不出来 |
8
findex 2 小时 54 分钟前
我觉得完全可以
|
![]() |
9
chendy 44 分钟前
都能干 IDE 这种大屎山了,怕不是已经可以直接生成大部分软件了,还是直接出二进制的
|
![]() |
10
iorilu 33 分钟前
想多了
现在都不能指望写一个 500 行程序不用任何改动直接运行的 |
11
WhiskerSpark 25 分钟前
这个问题很好,根据我的经验,现在还远远做不到,所以说目前 AI 水平还差得远。
从根本上说,目前的生成式 AI 推理能力很弱,所以他不能做到有意识,有方向地做事。出了错误无法自我纠正,必须依靠人类纠正。因此迭代几次就开始胡言乱语,其实就是熵增。 因此如果要达到理想中的那种 AI 还需要一次根本性的突破,让 AI 真正具备强逻辑推理能力,有意识,有目的地去做事。 如果有一天真的实现了这一步跨越,就不仅是自我训练的问题,一定会给社会带来巨变,是好是坏都不一定。 举个例子,现在的 AI 都是运行在英伟达的显卡上,将来让 AI 接管台积电的工厂,实现物理上的自我复制,只要有能源就可以不停地生产机器人,再让他们去接管其他工作。 但从另一方面来讲,首先开发出这种 AI 的人,会面临一个选择,那就是是否要开放出来给大众使用。因为理论上讲,这些开发者和台积电,还有生产机器人/机械臂的公司,直接就可以满足自己所有的需求,那为什么还要来挣你们其他人的钱的,要钱还有什么用?甚至他们可以利用这个能力来征服其他人。 |
12
Wishprophet 7 分钟前 via iPhone
贾维斯开发贾维斯是吧
|
13
odingo 6 分钟前
上古问题:如何用 C 语言编写一个 C 语言编译器
|
![]() |
14
nanajj 4 分钟前
做不到,我用 AI 做过最复杂的事情是写编译器,架子能搭,深入点就是东墙补西墙一团乱麻了。
|
15
yc8332 2 分钟前
想太多了吧。。真以为是人工智能有思想思考能力啊。。。都只是特定的资料训练出来的
|