在本周于山景城举行的GoogleI/O大会上,这家搜索巨头宣布了其所有产品的一系列人工智能更新和功能,其中包括一款使用术语“Project”的新产品,这意味着它不会向用户开放。消费者很快就会。这就是阿斯特拉计划。
在谷歌周二的主题演讲中,该公司展示了ProjectAstra,这是该公司对多模式助手的愿景。基本上,ProjectAstra可以与文本、音频和视频进行交互。与Gemini甚至之前的GoogleAssistant相比,这使其成为更强大的AI助手。
主题演讲中有短短几秒钟,谷歌展示了一副眼镜。预计这将是谷歌将在未来某个时候发布的新款人工智能眼镜。这才是真正让我对Astra项目感兴趣的原因。但不幸的是,谷歌并没有在GoogleI/O大会上展示这些眼镜。但是,它正在展示阿斯特拉计划。
阿斯特拉项目虽然早期,但令人印象深刻
谷歌的ProjectAstra是由其DeepMind部门开发的,它能够看到你放在它前面的东西,也能听到你对它说的话。谷歌本周在GoogleI/O上展示的演示之一是头韵的能力。基本上,谷歌员工会在相机的视野中放置几个物体,并添加更多物体来观察头韵如何变化。它非常令人印象深刻,虽然并不总是100%正确,但大多数时候确实非常接近。
谷歌炫耀的另一个例子是玩Pictionary。《阿斯特拉计划》在图画方面非常出色,但它仍然不完美。如果您感到无聊,您可以随时通过ProjectAstra玩Pictionary。
您还可以使用ProjectAstra作为讲故事的人,或者只是以自由形式与它交谈和互动。然而,这些演示并未在GoogleI/O上展示。可能是由于时间限制。
那么为什么我认为这是人工智能和可穿戴设备的未来呢?好吧,谷歌可以将ProjectAstra放在你脸上的眼镜中,并用它来查看你周围发生的事情。您还可以在不拿出手机的情况下获取某些信息。当然,我们之前在MetaRay-Ban眼镜中见过类似的东西,但Meta的人工智能远不及ProjectAstra现在的水平。
最重要的是,我认为ProjectAstra的眼镜非常适合低视力或盲人。因为阿斯特拉计划可以告诉人们什么,甚至是谁在他们面前。显然,这还处于Astra项目的早期阶段。然而,我确实相信这将是人工智能和可穿戴设备的未来,我迫不及待地想看看未来会是什么样子。