本文原为6月12日于 Scenes Weekly | No. 9 发布的文章,并在原文基础上有所修正。

除了微博,也欢迎关注这个专门做总结的公众号。这些从头至尾都是我加强信息记忆的利己之道。

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/7b37b5fb-de63-44d3-9827-0dfc5aeef520/2x.png

体验机型是 iPhone XR,已经用了两年半。

iOS 15 的更新一大部分是 FaceTime 和 Messages 相关的,这两者在国内使用机会并不多,使用次数可以和手机使用年份挂钩。不过我比较在意基于 AI 的音频降噪技术未来能否适用于系统其它 App。而且从旁观者的角度可以看出,FaceTime 和 Messages 的整合越来越紧密了,仿佛像在探索「当我们在谈熟人社交时我们在谈什么」问题的答案。

通知的合并进一步强调了 “humane”,隔壁的 Materia You 某种方向上也是,不过貌似只停留在表现层面。很遗憾我是默认把所有 App 推送关闭的人,只会留下需要开启的,通常是具有一定的即时性,所以这个功能我也用不到。后来开启了一天试试,发现果然对我来说很鸡肋。

Focus 对我来说也没有这种需求,真的需要专心做事的场景,本身便不会在意手机,去设置诸如「工作模式」反倒需要多一步开始工作的流程。最关键的是,Focus 的主要机制是让用户主动去挖掘场景通知需求,患得患失最后导致此功能失去原本的初衷。

当然睡觉时会自动开启睡觉模式(前提是使用睡眠功能定了时间),体验上确实无缝,但我并不清楚这个期间它帮我做了什么(包括其他模式)。如果有像是 watchOS 8 中这种「睡醒总结」就好了。

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/f0c73253-fb1b-4436-8c73-ab869b5d4ffd/640.png

(修正:这个总结其实是有的,当起床处于睡眠模式尾声时,第一次锁屏界面是会出现类似信息。)

Spotlight 的搜索更为全面了,Live Text 的识别结果可被搜索到。常规产品级操作。相册也做了些改动,「回忆」功能不谈,这里是 Live Text 的主要阵地,它告诉了人们,现代操作系统里加入一个全局性的功能到底需要做到哪种地步。而 Live Text 的多语种识别准确度和翻译质量还需多加训练……此外可以方便的看到照片 EXIF 信息,「人物」的识别容错上也有了提升。