1
kop1989 2021-09-16 17:07:41 +08:00
个人感觉跟存储信息无关。就是纯粹的软件阉割。
因为景深是靠 ai 算的,换句话说,raw 视频都是深景深。然后通过景深信息( 13 靠双镜头视差、pro 系列多个雷达)进行计算。无论你片源是 4k 还是 720p,景深信息都差不多。帧数可能有些许影响,但感觉也并不大。 |
2
happuiness 2021-09-16 17:11:30 +08:00
技术帖蹲点
|
3
x86 2021-09-16 17:13:17 +08:00
手机 4K 编辑真的好吗
|
4
ffffb 2021-09-16 17:14:26 +08:00
是对自己的自动景深不自信?对于 pro 用户来说 4k 60 帧比后期手动调整景深要刚需吧。
|
5
Zeonjl 2021-09-16 17:14:50 +08:00 via iPhone 1
iPhone14 就可以拍 4k 了,请耐心等待哈
|
7
Vegetable 2021-09-16 17:20:32 +08:00
盲猜景深是算出来的,小光圈模拟大光圈,实际上没有记录额外信息,而是在后期处理中加不同的滤镜。
|
8
HariopaNic 2021-09-16 17:24:40 +08:00
大家用手机拍视频的场景多么 除了微信小视频- -
|
9
katoyu 2021-09-16 17:49:11 +08:00
这代给你 4K 的话,下代吃什么,一点都不了解套路的。牙膏挤成什么样子都看不出来,这代 1080,下代 4K,看看那个 gpu 5 核,有记性的话,2019 的 ipad pro 也搞过类似的套路。奇数核心就是过渡,完整版在下一代。
|
10
paradoxs 2021-09-16 17:53:36 +08:00
这个动态调整景深的效果也太牛逼了
不知道安卓要多久才能做出来。 |
11
YoungKing6 2021-09-16 17:59:35 +08:00
这不跟没解释一样么
|
12
kop1989 2021-09-16 18:06:45 +08:00
而且先拍视频后对焦,去年 ios 上有个 app 就能做到:Focos Live,好巧不巧,他也是 1080p 、30 帧。
怀疑可能目前 iphone 雷达的景深采样频率极限就是 30hz 。 |
13
westoy 2021-09-16 18:08:56 +08:00
|
14
westoy 2021-09-16 18:10:42 +08:00
不过效果确实很不错了
|
15
Building 2021-09-16 20:08:04 +08:00 via iPhone
难道不是因为算力不够吗?
|
16
dhou45 2021-09-16 22:07:54 +08:00
阴谋论真是够了, 就算力不够这么显而易见的事情还扯那么多
|
17
tysb777 2021-09-16 22:42:32 +08:00
感觉后期手动设置对焦的话手机会很烫
|
18
ericwoflskin 2021-09-17 11:08:59 +08:00
不用琢磨了,就是软件阉割。
不光电影效果,还有摄影风格、ProRes 视频,这些功能对硬件并没有特殊要求,都是通过 CPU 软件计算实现。 而这些功能 12Pro 却都不支持,明明 A14 和 A15 的 CPU 性能几乎一样,明显是人为故意阉割。 只能说,库克为了销量,已经(早就)开始拿老用户开刀了。 |
19
mbooyn 2021-09-17 23:50:58 +08:00
盲猜是算力不够
|