索尼已经向着虚拟现实和元宇宙的未来又迈出了重要一步,载体是一套朴实无华的按钮式设备。很多朋友都知道,在VR中玩游戏、在元宇宙应用里探索肯定离不开某种动作捕捉系统,但这些东西往往非常笨重、碍手碍脚。
以Meta公司为代表,很多人都坚称元宇宙才是互联网的未来。过去几年中,越来越多的平台允许用户在虚拟世界中选择自己的数字化身。但如果没有合适的设备,用户还是没有多少能与元宇宙真正交互的途径。
单靠鼠标和键盘,甚至是游戏手柄,显然不足以把我们的动作充分映射到化身那边。虽然这种功能缺失在传统的游戏和应用程序中不是什么大事,但未来的元宇宙场景肯定还需要更强的响应能力。索尼公布的小工具有望解决这个问题。它虽然没办法取代VR头显,但却打开了一道大门、解决了VR头显也无法应对的挑战。
索尼公布了一段节奏欢快的有趣视频,其中介绍了这款名为「Mocopi」的全新运动跟踪系统,并很好地展示了其功能。Mocopi在本质上类似于由六个苹果AirTag构成的一组传感器,其区别就是按钮在束带上、而不像AirTag那样放在钥匙扣上。这些束带可以佩戴在头上、脚部、手部和臀部,在正确设置之后,它们就能跟元宇宙应用程序配对,由此创建出一个能实时跟踪用户动作的全同步化身。
Mocopi依靠的是索尼的专利算法,能够以最不限制行动的方式测量并跟踪用户动作。它虽然不足以成为单独的游戏控制器,但依然能支撑元宇宙和社交应用中的简单操作。截至目前,Mocopi还没有公布与此类服务的关联,但索尼表示将在2022年12月15日发布软件开发工具包,并开放对Unity开发者平台和MotionBUilder的访问。如此一来,Mocopi将可用于收集运动数据以制作3D动画。
Mocopi可能需要匹配Android 11或更高版,以及iOS 15.7.1或更高版本的设备才能运行。从12月中旬开始,索尼将在接下来几周内开放产品预订。但真正的全面投放市场估计要从2023年1月开始。不过遗憾的是,目前还不清楚这款产品何时才会登陆日本以外的其他市场。
好文章,需要你的鼓励
从4万亿芯片帝国到AI革命,黄仁勋揭秘英伟达30年创新密码:'你必须相信你所相信的'。当计算成本10年下降10万倍,人类将面临怎样的未来?这场斯坦福对话给出了颠覆性答案。
香港中文大学团队首次将DeepSeek-R1推理范式应用到视频理解,开发出Video-R1系统。该系统通过创新的T-GRPO训练方法,让AI学会利用视频时序信息进行深度推理,而非简单识别画面。在多项测试中表现优异,甚至在空间推理任务上超越GPT-4o,为AI视频理解开辟新道路。
谷歌DeepMind发布AlphaEarth Foundations AI模型,能处理每日数TB卫星数据追踪地表变化。该模型如"虚拟卫星"般将全球陆地和沿海水域映射为数字表示,帮助科学家监测食品安全、森林砍伐、城市扩张等关键问题。模型整合光学卫星图像、雷达、激光测绘等数据源,以10×10米精度追踪变化,错误率比其他模型低24%。
上海AI实验室发布视觉强化微调技术,让计算机学会"边看边思考"。该方法通过强化学习训练视觉模型先进行推理再给出答案,在少样本学习中表现优异,单样本图像分类准确率提升24.3%,物体检测精度提升超20分,在开放词汇检测等任务上也实现显著突破。