虽然视觉智能最初是iPhone 16高端机型的专属功能,但随着iOS 18.4的推出,苹果已将该功能扩展到iPhone 15 Pro。由于该功能依赖于iPhone 16上的相机控制按钮,因此你可能会好奇,在没有该按钮的iPhone 15 Pro上,它的效果会有多大差异。这其中肯定有一些未被提及的细节。
iPhone 15 Pro上的视觉智能如何工作?
要在iPhone 15 Pro上使用视觉智能,你需要在“设置”应用中将其关联到操作按钮。或者,你也可以在控制中心添加一个开关来激活该功能。启动视觉智能后,你可以用它来了解你周围的物体和文本信息。值得注意的是,这个过程完全依赖于iPhone 15 Pro强大的神经引擎,这意味着即使在离线状态下,部分视觉智能功能也能正常工作,例如物体识别和文本翻译。这与完全依赖云端的解决方案形成了鲜明对比,后者在没有网络连接时会受到限制。

视觉智能允许你识别物体、翻译文本、与ChatGPT聊天,提问与摄像头前的东西相关的问题,或者访问谷歌反向图像搜索,以获取视觉上相似的结果。这种集成体现了苹果在人工智能领域的努力,旨在让用户体验更加直观和无缝。
iPhone 16和15 Pro上的视觉智能有什么不同?
在iPhone 16上,视觉智能与相机控制按钮相关联。长按此按钮可立即启动视觉智能,从而可以了解你周围的物体。 而且,你可以通过在相机控制按钮上向上或向下滑动来放大和缩小物体。这种硬件层面的优势,可以提供更快捷的操作体验。

同时,在iPhone 15 Pro和iPhone 16e上,由于两者都缺少相机控制按钮,你必须使用操作按钮来启动视觉智能。 虽然这可行,但速度可能会稍慢,并且你会失去访问其他有用的操作按钮快捷方式的权限。 此外,你需要手动放大和缩小。 这也意味着,为了获得最佳的视觉智能体验,iPhone 16在人机交互方面,更胜一筹。

哪款iPhone对视觉智能的支持更好?
两款iPhone机型都提供相同级别的视觉智能支持。 两者之间的唯一区别在于你访问该功能以及放大和缩小对象的方式。 无论你是通过操作按钮还是相机控制打开视觉智能,它在两款设备上的工作方式都相同。 然而,在实际使用中,iPhone 16由于拥有独立的相机控制按钮,因此在便捷性和操作速度上略胜一筹。 这种细微的差异可能会影响用户的使用习惯和偏好。