例如
提问:吃葡萄不吐葡萄皮? or 吃葡萄吐不吐葡萄皮? or 不吃葡萄吐不吐葡萄皮? or 葡萄皮
回答:不吃葡萄倒吐葡萄皮
参考了这个教程 https://huggingface.co/blog/zh/gemma-peft
试了下 gemma-2b ,喂了一些葡萄皮进去,没成功还是瞎编。
gemma-7b 倒是能回复不吃葡萄倒吐葡萄皮,但是后面跟了很多乱七八糟的东西。
是喂的数据量不够、数据问题吗?还是选的模型不对,或是小模型就是做不到?
能求些靠谱的资料参考吗?
1
graetdk 236 天前
你数据集是啥样的
|
2
NoOneNoBody 236 天前
摘自 wikipedia
2017 年,OpenAI 仅在云计算上就花费了$790 万美元,占其职能支出的四分之一。相比之下,DeepMind 2017 年的总支出为$4.42 亿美元。2018 年夏天,仅仅训练 OpenAI 的 Dota 2 机器人就需要从谷歌租用 128,000 个 CPU 和 256 个 GPU ,持续数周。 =============== 一直不觉得个人玩得起大模型,即使人家是从 0 到 1 ,个人是从 1 到 1.000000001 也很难 |