视觉智能:苹果能否与谷歌镜头一较高下?iOS 18.4中升级功能的深度解析。
苹果的iOS 18.4引入了升级版的视觉智能功能,旨在挑战谷歌镜头(Google Lens)在图像识别领域的霸主地位。虽然谷歌镜头长期以来占据主导地位,但苹果的最新版本集成了ChatGPT,以提供更深入的洞察力。实际应用中,苹果的视觉智能到底表现如何?我们进行了对比测试,并对结果进行了深入分析。
值得注意的是,视觉智能的未来发展方向不仅仅是识别事物本身,而是要理解其背后的含义,并能与用户进行更深入的交流。苹果与ChatGPT的整合,正是朝着这个方向迈出的重要一步。这将使得视觉智能的应用场景更加广泛,例如,可以应用于教育、旅游、购物等多个领域,甚至可以成为未来人机交互的关键技术。
激活方式与可访问性
苹果已将视觉智能深度集成到iPhone 16系列中。最方便的激活方式是长按相机控制按钮,使其感觉像是相机的延伸,而不是一个独立的功能。或者,你可以设置背部轻点手势来激活,类似于谷歌的Quick Tap。
然而,这种紧密集成有一个主要的缺点:视觉智能仅限于iPhone 16型号和部分iPhone 15 Pro用户。如果您拥有较旧的iPhone,则无法使用此功能。这无疑是苹果在战略上做出的一个重要选择,旨在推动用户升级最新设备,但也可能因此失去一部分用户。
另一方面,谷歌镜头具有普遍的可访问性。它几乎可以在所有Android设备上使用,甚至可以通过Google应用程序在iPhone上使用。虽然它没有像Apple的相机控制这样的专用按钮,但您可以轻松地从Google Assistant小部件或Google应用程序启动它。这种广泛的可访问性使其在覆盖范围方面成为明显的赢家。谷歌镜头的这种开放性策略,无疑更有利于其市场份额的扩张。
搜索准确性与真实场景表现
为了比较它们的性能,我们使用iPhone 15 Pro和Pixel 7 Pro在真实场景中进行了测试。
1. 商业场所识别:苹果在自动化方面胜出

我们停在一家当地理发店,查看营业时间。Apple的Visual Intelligence立即识别出商店,并提取了其详细信息(Yelp评论,照片以及用于呼叫或访问网站的快速操作按钮),所有这些都无需额外点击。谷歌镜头虽然准确,但需要额外的步骤:在提供商业详细信息之前,我们必须按下快门按钮。
2. 植物识别:喜忧参半
我们通过将它们指向植物来测试了两者。苹果迅速将其识别为番茄植株,并通过ChatGPT提供了护理技巧。但是,Google Lens将其误认为是玉树。虽然两者都提供了相关的结果,但是苹果与ChatGPT的集成通过提供可操作的建议而不是仅仅是识别来增加了实用性。例如,ChatGPT会告诉你每天需要浇多少水,或者应该放在什么样的光照环境下。
3. 翻译功能:谷歌仍然遥遥领先

Google Lens的内置翻译工具改变了游戏规则。我们用它测试了一个阿拉伯语菜单,它立即提供了清晰,准确的翻译。苹果虽然能够识别文本,但缺乏专用的翻译功能,要求我们手动将文本复制到翻译应用程序中。与Google的无缝体验相比,这是一个明显的缺点。
苹果在集成ChatGPT之后,拥有了“提问”功能。与主要关注识别和搜索的Google Lens不同,Visual Intelligence允许用户提出上下文问题。 例如,在识别出一朵花之后,我们询问了如何护理它,ChatGPT提供了具体的指导。 同样,当我们扫描数学方程式时,它逐步引导我们完成解决方案。
Google Lens通过为各项任务提供专用工具来采取不同的方法,其中包括:
- 作业助手:非常适合解决方程式。
- Google翻译:旅行者的必备品。
- 购物助手:快速查找在哪里在线购买商品。
总而言之,虽然苹果的视觉智能在某些方面表现出色,尤其是在与ChatGPT集成后,但在可访问性和翻译等特定功能方面,仍有改进的空间。两者的选择,最终取决于用户的个人需求和偏好。如果你更看重设备的智能交互能力,那么苹果的视觉智能或许更适合你。如果你更看重功能的全面性和易用性,那么谷歌镜头仍然是更好的选择。