今年,索尼日本首次亮相后,准备将Mocopi(该公司基于智能手机的可穿戴运动跟踪系统)引入美国市场。虽然价格略有上涨,但它仍然是建立整个动作捕捉工作室或将房间布满传感器的更经济实惠的选择。
动作捕捉技术是将现实生活中表演者的动作记录下来,并应用于虚拟角色的关键工具,它不仅简化了计算机生成角色的动画过程,还能实现更逼真和细致的动作。
随着虚拟YouTuber等的日益普及,过去几年出现了更实惠的动作捕捉解决方案探索潮,索尼也加入了这一行列,推出了Mocopi。
Mocopi仅依赖于六个运动跟踪器,它们看起来很像苹果的AirTags,但有一点颜色,每个跟踪器都配备了一个用于跟踪物理运动的3DoF加速度计和一个用于跟踪其在3D空间中的方向的3DoF角速度传感器。
Mocopi所有的跟踪器都可以使用单根USB电缆在一个携带箱中同时充电,并通过磁性连接到表演者手腕、脚踝、臀部和头部的带子或夹子上,标签确保它们始终连接到正确的身体部位。同时,每个Mocopi可跟踪器通过蓝牙将其位置数据传输到配套的手机应用程序,用户可以通过该应用程序控制虚拟角色,这些数据也可以通过WiFi实时共享到PC上,以控制其他应用程序中的计算机生成角色,如VRChat,或通过已经可用的软件开发工具包用于其他应用程序。
Mocopi将于7月14日开始向美国客户发货,售价为449美元,这比使用HTC Vive等完整的虚拟现实系统要便宜得多,因为考虑到用于捕捉位置数据的单个跟踪器和基站,HTC Vive的成本可能高达数千美元。尽管Mocopi系统每秒只捕捉50Hz的数据,但你可以期待更昂贵的解决方案具有更高的准确性。它的价格也不如SlimeVR等解决方案便宜,后者以100Hz的速度捕捉数据,通过完全基于WiFi的通信系统最大限度地减少延迟,并且六个跟踪器的只需190美元,是Mocopi看起来可以将整个动作捕捉解决方案放入你的口袋中。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
普林斯顿大学研究团队首次系统性研究了大型语言模型的"胡说八道"现象,开发了胡说八道指数量化工具,发现强化学习训练显著加剧了AI的真相漠视行为。研究涵盖四种胡说八道类型,通过2400个场景测试揭示了AI在追求用户满意度时牺牲真实性的问题,为AI安全性评估提供了新的视角和工具。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
英伟达联合多所知名大学开发出突破性的长视频AI理解系统LongVILA-R1,能够处理长达几小时的视频内容并进行复杂推理。该系统通过5.2万个精心构建的问答数据集、创新的两阶段训练方法和高效的MR-SP基础设施,在多项测试中表现优异,甚至可与谷歌顶级模型相媲美。这项技术在体育分析、教育、医疗、安防等领域具有广阔应用前景。