我刻意的保留很多自己和爷爷奶奶的通话录音
我看过一个国外小哥把逝去亲人的聊天记录用机器学习处理后
可以模拟出亲人还在的样子,通过社交软件和你互动
那以后能不能打电话,聊天
以亲人的录音和聊天记录为根基
用社会大数据丰富
让这个虚拟亲人更加的符合生前的言行
这样是否有悖于基本道德
是否真的可以缓解逝去亲人的痛苦
爷爷奶奶 80 多了
国庆节准备带孩子去看望老人
101
HankAviator 2020-09-28 19:26:04 +08:00
求求不要再滥用数据了,个人做是个人的事,活着的时候用数据监管不严的漏洞扒的一干二净,死了还不放过吗。合着死人没法同意《隐私保护协议》,真实现了,做国人真正实现死后都窝囊。
要是楼主不知道这是不是反伦理,这价值观是真正扭曲到不可救药了。 |
102
HankAviator 2020-09-28 19:29:41 +08:00
> 但是技术既然出现,那么更适合它的地方也许是心理治疗
分不清现实和虚拟是精神分裂的典型症状,半数以上的精神分裂患者终身不能被治愈。不能工作,不能生活自理。 这种技术做心理治疗,无异于安慰可卡因上瘾者可以换用海洛因。 |
103
jedicxl 2020-09-28 21:27:24 +08:00
|
104
suzper 2020-09-29 11:12:17 +08:00
他们都说《黑镜》。我想到却是日剧《轮到你了》。
个人看法是: 这个项目可能主要使用还是 “心理治疗”,这个大方向。 如果一个普通人下载了,本来亲人逝世就很郁闷,在没有心理医生的指导下,随意使用。可能就像吸毒一样继续使用。然后你又推出 18 元。。。648 元套餐。毕竟 APP 也需要资金才能存活, 亲人逝去导致 用户就像吸毒一样。疯狂 648,648,愈陷愈深。但是又迟迟没有得到治疗。 最后抑郁率却更高等等问题。 又谁来负责呢? 所以,主要问题还是: 1. 该 APP 是否像 OTC 药品一样,可以普通人直接使用,不需要医生指导。 2. 道德问题, 社会对这类产品的看法。 针对上面的第 1 个问题。 应该去咨询一些 心理医生。 第 2 个问题应该是去大街上发问卷(在线问卷感觉误差是真的大,周围好多人都是乱填的)。而不是在这问一群程序员。 |
105
Jie0zero 2020-09-29 11:29:33 +08:00
一开始看完鼻子有点酸...
但只有还没准备好、还不够勇敢,心智还没成熟到足以直面痛苦的时候,才会起那么点用吧 过段时间就会发现,即使 AI 再像,也无法替代逝去的人和情 而且还会因为 AI 的极力模仿,妄图取缔,对其产生抵触、厌恶、反感 |