首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX
›
iPhone
iPhone 的神经网络引擎是如何学习的?
Themyth
·
2020-11-13 13:21:01 +08:00
· 8127 次点击
这是一个创建于 1475 天前的主题,其中的信息可能已经有所发展或是发生改变。
我昨天使用了辅助功能---旁白--里面的屏幕识别。
据说这是利用到了 A12 芯片之后的神经网络引擎做到的。
它可以识别出图像中的物体是什么,文字是什么,甚至打开摄像头就能识别前方物体 人类 杯子 道路等等。
但是看介绍说这个识别率会随着自己学习慢慢变的更厉害。
这我就不理解了,它又没联网,它是如何自己学习的?普通用户是不是多多使用就能训练他的学习能力了呢?
神经网络
识别
学习
物体
1 条回复
•
2020-11-13 14:15:37 +08:00
1
learningman
2020-11-13 14:15:37 +08:00 via Android
预训练模型
能不能本地训练不知道,猜不能
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
1325 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 23ms ·
UTC 17:43
·
PVG 01:43
·
LAX 09:43
·
JFK 12:43
Developed with
CodeLauncher
♥ Do have faith in what you're doing.