谷歌将闭门开发安卓操作系统;PICO OS V5130U版本更新

  •美军军方称其在IVAS项目上与帕尔默·拉奇的国防公司Anduril有巨大的合作机会

  •受动作片启发的射击沙盒游戏《HARD BULLET》将于今年春季登陆Quest 3

  •阿里开源首个全模态大模型Qwen2.5-Omni,手机可部署,甚至可识别情绪

  •OpenAI智能体重大更新:Agent SDK接入MCP服务解锁无限工具拓展

  3月27日,据安卓领域专家Mishaal Rahman在垂类网站Android Authority发布的文章,谷歌证实,下周起谷歌将开始完全在内部分支机构闭门开发安卓操作系统,此举是为了简化安卓操作系统的开发。

  但谷歌也明确强调,安卓不会成为闭源系统。该公司将继续发布新安卓版本的源代码,并对外开放。

  长期以来,谷歌同时维护着两大安卓主要分支:一是面向公众开放的“安卓开源项目(AOSP)分支”,二是谷歌内部使用的“内部开发分支”。

  前者是任何人都能访问,后者则仅对谷歌自身、安卓设备制造商(OEM厂商),以及持有谷歌移动服务(GMS)许可协议的公司开放。谷歌一直在其“内部开发分支”开发安卓的大部分组件,而“AOSP分支”只包含安卓框架的某些其他方面,如蓝牙堆栈。

  谷歌方面确认,这一变化并不意味着安卓将走向闭源,公司将致力于发布新安卓系统的源代码。变化的其实将是特定安卓组件公开发布源代码的频率。

  Mishaal Rahman在文章中指出,这一变化对普通用户和应用开发者的影响微乎其微。唯一影响的是向AOSP贡献代码的第三方开发人员,他们可能更难跟踪谷歌对安卓所做的更改。

  从已知消息判断,此举或许不会影响到Android XR的发展。作为Android操作系统的一个分支或扩展,Android XR仍将继续开发。但值得注意的是,此前在GDC大会上,谷歌忽视Android XR VR游戏开发的行为引发了部分开发者的不满。(新闻来源:澎湃新闻)

  据了解,在最新的 PICO OS 5.13.0.U 版本系统中,用户可以在开发者选项中针对单个应用进行刷新率、分辨率、硬件功耗等方面的设定。在《PICO 互联》中增添了串流插帧功能,提升了一体机应用与串流应用的显示画质效果。

  同时,相册新增了将 2D 照片一键转换为 3D 空间照片的功能,让曾经记录的美好瞬间呈现出立体感,并且支持观看 iPhone 16 系列手机拍摄的空间照片。

  此外,新版本系统还支持多窗口的随意摆放,以及头显息屏时长的自定义,在使用层面赋予用户更大的自由度。针对暗光环境与交互方式,也进行了算法方面的优化。

  在日前于北京举办的新一期“PICO 产品面对面”中,PICO OS 产品经理、PICO 视频产品经理、硬件产品经理以及体感追踪器产品经理一同亮相,与30 余位 PICO 资深用户一同交流了 PICO OS 最新版本的试用感受。

  在活动现场,用户还率先体验了 PICO 近期所推出的产品及功能,涵盖体感追踪器腰部版、大空间应用《达芬奇:狂想之翼》,以及 PICO 4 Ultra 5.13.0.U 版本系统的全新功能——显示画质效果的增强、2D 照片向 3D 空间影像的转换等。(新闻来源:东方网)

  美军军方称其在IVAS项目上与帕尔默·拉奇的国防公司Anduril有巨大的合作机会

  今年2月,Oculus创始人帕尔默·拉奇的国防公司Anduril宣布,微软正在寻求将其整个与美国军方签署的 IVAS 合同转让给 Anduril。在一个月后,美国军方反馈称,“我们非常非常满意,因为我们与 Anduril 有一些巨大的机会”。

  美国军方表示,虽然更换了合作方,但他们仍在迭代该计划,只是目前还没有设定大规模采购的计划。

  最高军装采购官员罗伯特·柯林斯表示:“该项目当前计划购买大量 IVAS 1.2,这是该设备的最新版本。目前尚不清楚的是,该服务是否会继续迭代该设计,只是进行新的竞赛或两者的结合。”而士兵项目执行办公室负责人克里斯托弗·施耐德声称,“在接下来的一个月左右,我们将能够就未来的道路进行讨论。”

  在过去的几年里,该项目在 IVAS 开发过程中遇到了时断时续的问题。项目中提及的设备基于 Microsoft 的商用 HoloLens 2 平视显示器,陆军试图将其转变为士兵可以在战斗(包括在黑暗掩护下)和虚拟训练中使用的设备。

  这项工作导致 Microsoft 签订了一份价值高达 220 亿美元的 10 年生产合同,但在 2021 年获奖后不久,一系列问题公开出现,包括士兵抱怨不适、头晕、恶心和系统可靠性。

  陆军领导人公开支持该计划,但开始降低期望。最终,该项目被拆分为三个初始版本的 google——1.0、1.1 和 1.2。该项目一直在测试这种新设计,但尚未透露关键要点。官方表示,现在已“从士兵那里得到了关于 IVAS 1.2 的非常好的反馈”。(新闻来源:breakingdefense)

  近日,由 Pradipta Biswas 教授领导的印度科学研究所 I3D(智能包容互设计实验室)在该研究所的年度盛会 Rhapsody3.0 上展示了尖端创新技术——由人工智能驱动的混合现实探测车-无人机系统和与印度空间研究组织指定宇航员共同开发的定制虚拟现实航天器模拟器。

  据了解,其中的探测无人机系统专为从监视和仓库运营到灾难响应和太空探索等应用而设计,通过大型语言模型(LLM)实现自然语言处理。用户可以通过语音命令控制无人机和探测车,而人工智能驱动的图像检测可以实现物体识别——这对于搜索救援任务和行星探索至关重要。

  VR 航天器模拟器则是由印度空间研究组织 Gaganyaan 任务指定宇航员候补人选设计。该模拟器专注于紧急情况下的手动脱离轨道,证明了底视图(显示下方的整个地球)比仅可见地平线的正面视图更有效。

  除了太空应用之外,该模拟器还可用作人机界面(HMI) 的模块化测试平台,集成触觉手套和定制硬件。该团队目前正在扩展其微重力航天器对接、飞行模拟和下一代飞机虚拟飞行员辅助系统的功能。

  受动作片启发的射击沙盒游戏《HARD BULLET》将于今年春季登陆Quest 3

  近日,GexagonVR 宣布,其受动作片启发的射击沙盒游戏《HARD BULLET》将于今年春季登陆Quest 3。

  据了解,《HARD BULLET》最初于 2020 年在 PC VR 头戴设备上以抢先体验版的形式发布,是受吴宇森启发的香港复古风格游戏,注重基于物理的战斗以及随之而来的极端暴力。

  与大型战役更新 之前的《剑与魔法》类似,这款射击风格的战斗沙盒游戏不具备故事模式(目前),而是完全依靠思考创造性的方法来消灭成群结队的坏人。

  开发商GexagonVR 还宣布,游戏的故事模式将于 2025 年某个时候推出,据说“将跨越多个章节展开,设定在不断发展的地区,每个地区都有自己的氛围和遭遇。”

  与 PC VR 游戏一样,《HARD BULLET》的 Quest 版本承诺提供 100 多种武器,以及各种制作自己的破坏性装备的方法。正如玩家期望的那样,游戏玩法还将包括“子弹时间”的慢动作,让玩家真正融入 约翰·威克式的射击和武术动作中。(新闻来源:roadtovr)

  据了解,该游戏是一款受《阿凡达》启发的全新 VR 多人动作游戏,在游戏中,玩家将玩家扮演元素师,驾驭水、土、火和空气的力量。游戏提供单人模式,可与 AI 对手对战,可与其他玩家在线对战,还可在“部落风格”生存模式中进行合作,玩家需要在不同竞技场参加锦标赛和挑战。

  官方公布的预告片显示,游戏中,在为每场比赛选择一个单独的元素后,玩家的元素能力将通过手势控制来召唤,让玩家可以引导水流、召唤石障、穿越竞技场等等。游戏内的体验系统还能让玩家升级以解锁新的力量、能力和外观。

  3月25日,《穿越·汉阳兵工厂》元宇宙大空间沉浸式体验项目试运行,这是武汉市文博场馆首个XR元宇宙项目。

  该项目坐落于辛亥革命博物院南区一层多功能展厅,整个体验时长为30分钟。它创新性地采用了“剧情引导 + 自主探索”的双线叙事模式,借助高精度三维建模、实时物理引擎与多人协同交互技术,让游客只需穿戴相应设备,便能瞬间穿越到武汉抗战战场。

  在体验过程中,游客将置身于1938年武汉抗战的紧张局势之中。当时,在汉阳兵工厂一带,为确保最后一批工厂设备及人员能够安全撤离,一支中国军队小分队与日本侵略者展开了一场惊心动魄的博弈。游客仿佛亲身参与到这场激烈的战斗中,深刻感受到那段历史的波澜壮阔与英勇无畏。

  近日,国务院印发的《关于推进博物馆改革发展的指导意见》明确提出,支持博物馆、美术馆打造沉浸式体验空间,鼓励延长开放时间,让文化体验更深度、更自由。

  在这样的背景下,《穿越·汉阳兵工厂》项目的试运行,无疑为武汉文博场馆的创新发展注入了新的活力,也为游客提供了更加丰富、多元的文化体验方式。(新闻来源:元力社)

  阿里开源首个全模态大模型Qwen2.5-Omni,手机可部署,甚至可识别情绪

  3月27日凌晨,阿里巴巴发布并开源首个端到端全模态大模型通义千问Qwen2.5-Omni-7B,可同时处理文本、图像、音频和视频等多种输入,并实时生成文本与自然语音合成输出。在权威的多模态融合任务OmniBench等测评中,Qwen2.5-Omni刷新业界纪录,全维度远超Google的Gemini-1.5-Pro等同类模型。

  据了解,Qwen2.5-Omni以接近人类的多感官方式“立体”认知世界并与之实时交互,还能通过音视频识别情绪,在复杂任务中进行更智能、更自然的反馈与决策。现在,开发者和企业可免费下载商用Qwen2.5-Omni,手机等终端智能硬件也可轻松部署运行。

  Qwen2.5-Omni采用了通义团队全新首创的Thinker-Talker双核架构、Position Embedding (位置嵌入)融合音视频技术、位置编码算法TMRoPE(Time-aligned MultimodalRoPE)。双核架构Thinker-Talker让Qwen2.5-Omni拥有了人类的“大脑”和“发声器”,形成了端到端的统一模型架构,实现了实时语义理解与语音生成的高效协同。具体而言,Qwen2.5-Omni支持文本、图像、音频和视频等多种输入形式,可同时感知所有模态输入,并以流式处理方式实时生成文本与自然语音响应。

  得益于上述突破性创新技术,Qwen2.5-Omni在一系列同等规模的单模态模型权威基准测试中,展现出了全球最强的全模态优异性能,其在语音理解、图片理解、视频理解、语音生成等领域的测评分数,均领先于专门的Audio或VL模型,且语音生成测评分数(4.51)达到了与人类持平的能力。(新闻来源:钱江晚报)

  OpenAI智能体重大更新:Agent SDK接入MCP服务解锁无限工具拓展

  3 月 27 日凌晨, OpenAI 宣布对其 Agent SDK 进行重大更新,正式支持 Model Context Protocol(MCP)服务。这项技术使得开发者可以通过统一接口标准,为智能体无限接入各种第三方工具,大幅提升复杂自动化应用的开发效率。

  据了解,MCP 相当于 AI 模型的“USB 接口”,它提供了一个统一的标准,让 AI 智能体能够连接不同的工具和数据源。就像你可以用 USB 接口连接 U 盘或移动硬盘,MCP 也可以让 AI 智能体实现网络搜索工具、数据库查询工具等“即插即用”的扩展能力。

  根据官方说明,新版 SDK 现已支持网络搜索、专业分析、本地查询、网络追踪等多样化工具的快速集成。以开发需要同时处理文件系统、数据库和网络信息的智能体为例,开发者可借助 MCP 服务器分别接入对应工具,显著简化多任务协同开发流程。

  值得注意的是,OpenAI 联合创始人兼首席执行官 Sam Altman 还特意发文赞扬 MCP,可见其对 AI 智能体的重要性。

  据悉,OpenAI 目前已经在 GitHub 提供完整的开发文档(),有需要的用户可自行查阅。(新闻来源:IT之家)

  VRAR星球每天都会发布XR领域深度文章及业内新闻,感兴趣的朋友可以持续关注哦

转载需注明本文链接:DNF公益服发布平台 » 谷歌将闭门开发安卓操作系统;PICO OS V5130U版本更新
分享到