Meta公司近日宣布,将在其Ray-Ban智能眼镜上推出全新的多模态AI功能,为用户带来更加智能、交互式的体验。该功能利用眼镜的摄像头和麦克风,使Meta的AI助手能够感知用户周围的视听信息,并做出相应的反应。
在Instagram的一段视频中,马克扎克伯格展示了这一更新。他向智能眼镜询问关于一件衬衫的搭配建议,智能眼镜AI助手回应并描述了衬衫,提供了几条可能搭配的裤子建议。此外,他还展示了眼镜的AI助手进行文本翻译和图像说明的能力。
扎克伯格表示,用户可以在一天中的不同时间向Meta的AI助手提问,涉及用户所看或所在之处的问题。这显示了这款智能眼镜的多模态AI功能不仅限于物体识别,还包括语言翻译、图像描述等多方面的应用。
除了上述功能,CTO Andrew Bosworth在一段视频中展示了其他特性,包括要求助手帮助标注用户拍摄的照片,以及进行翻译和摘要等常见的AI功能。Bosworth在Instagram中展示了多模态版本的一个新功能,他穿戴着眼镜,凝视着一件展示加利福尼亚州状态的墙艺术品。有趣的是,他似乎还拿着一部智能手机,这表明人工智能可能需要与眼镜配对使用。
从下周开始,他们将在美国进行Beta测试,旨在通过提前体验计划让用户参与测试,尽管他在帖子中并未提及如何参与测试计划。
智能眼镜的最新版本于Meta年度Connect大会上亮相,起售价为299美元。当前的型号已经配备了内置的人工智能助手,但其功能相对有限,无法智能响应视频或摄影,更不用说对佩戴者所见的实时图像作出智能回应了(尽管眼镜内置了摄像头)。
这一举措标志着Meta公司致力于将其AI技术融入更多硬件产品中,为用户提供更为智能、个性化的体验。对于智能眼镜市场而言,这一步或许将开创更为多元化的应用场景,为用户带来更加便捷和智能的生活体验。