在Apple的后台代码中出现了可能指向iOS 27的新Apple Intelligence功能的线索。目前这仍属推测,MacRumors对此有更多解读。
因此,Visual Intelligence也成为焦点,即通过相机或截图识别内容。据悉,Apple内部正在开发与AI相关的可穿戴设备,包括眼镜、带摄像头的AirPods以及具有AI功能的胸针或吊坠。这也解释了为什么Visual Intelligence在iOS 27中将学习两项新任务:首先是扫描食品上的营养成分表并进行分析。
与Health App的关联似乎很自然,例如记录营养信息,而无需手动输入所有内容。其次,系统将能够识别印刷的电话号码和地址,并直接提供将其作为新联系人或添加到现有联系人的选项。这类似于目前Visual Intelligence在文本中发现日程时,会建议将其添加到日历中的功能。
根据代码,Wallet App也可能获得新功能。iOS将能够通过简单扫描创建自己的数字通行证,例如门票或会员卡。目前,用户需要借助外部工具来实现这一功能。
Safari也在功能列表中。有迹象表明,针对标签组将有一项功能,能够根据打开页面的内容自动命名。Safari将根据标签内容识别主题,并直接将其写入组名,而不是使用"组1"或自定义标签。
这些功能是否会完全按照这些方式实现仍不确定。这些信息来自单独的代码字符串,而非完整的UI界面或演示。确切的时间表仍是推测:这些功能可能会随iOS 27或后续的27.x更新推出,但也不一定。唯一确定的是,Apple正在并行开发一个功能更强大的Siri,它将更深入地集成到系统应用中。图像分析、智能Wallet技巧和自动标签命名等功能与这一套件非常契合。
iOS 27预计将于6月的WWDC上照常发布,正式推出时间可能仍将在9月与新iPhone一同进行。届时将揭晓哪些发现的Apple Intelligence功能真正落地。
【全文结束】

