看日报是个好习惯。
AR/VR协作平台Spatial宣布获2500万美元融资,将转型开发元宇宙
AR/VR协作平台Spatial今天宣布获2500万美元融资,并将对公司业务进行升级,致力于发展文化活动的元宇宙,让人们能够在其中进行NFT展览、品牌体验和会议,并且同时支持PC、移动设备及VR设备。
图源:Spatial
本轮融资的投资者包括Pine Venture Partners、Maven Growth Partners、Korea Investment Partners、KB Investment、Mirae、Balaji Srinvasan,现有投资者iNovia、Whitestar和Lerer Hippeau也参与其中。这使得该公司迄今为止的融资总额达到了5000万美元。Spatial表示,这些资金将用于加速推动其成为一个3D中心,将NFT创作者与他们的社区和收藏家联系起来。
Spatial表示,其已经看到非头显用户数量正在激增,目前有80%的用户通过网络和手机访问Spatial,而去年有80%的用户通过头显访问。该公司补充说,这些用户中的绝大多数是NFT创作者、艺术家和收藏家,他们希望在沉浸式环境中建造、分享和聚会,这远远超出了2D平台的业务范畴。
Spatial公司业务主管Jacob Loewenstein指出:"聆听用户反馈一直是我们产品战略的核心,但自从我们在多个平台上推出免费版本以来,我们已经从一个专注于企业生产力的AR/VR平台变成了一个连接数字创作者和更广泛NFT经济的网络/VR平台。元宇宙将远远超出会议空间,我们从内部见证了创作者经济的这一发展趋势,并能看到随着创作权利进入这些创客手中而产生的巨大机会。以网络为先也打破了今天进入元宇宙的所有障碍。我们相信建立一个包容和开放的元宇宙,能够让艺术家和创作者通过可互操作的门户、化身和共享空间在多个虚拟平台上自由移动。"
Spatial的目标是提供一个可访问的元宇宙,供任何人在网络、移动设备和VR设备上免费体验。该公司的平台允许用户在不需要任何编码的情况下进行虚拟会面、策划画廊或举办活动。用户可以简单地上传内容,并在一分钟内建立一个空间。Spatial将开始为想要拥有元宇宙的创作者和收藏家提供限量版、专门建造的NFT环境。
此外,Spatial表示,它正在与使用其平台的艺术家合作,从艺术展览和活动,到体育或音乐人销售NFT纪念品或以新的方式与粉丝和收藏家建立联系。据该公司称,在其平台的新版本中,艺术家们可以享受新的共享聚会空间。
最后,该公司补充说,它致力于建立一个开放、链上(在区块链上)和可互用的元宇宙,支持包括以太坊钱包在内的去中心化基础设施,对其他区块链的支持也将在不久的将来跟进。Spatial认为,在未来,用户将能够以更开放的方式拥有3D空间,并可以在其他元宇宙自由消费。
"自从我们将公司发展重点转移到为创作者和艺术家建立元宇宙以来,我们的平台在短短两个月内的使用量增长了4倍。这一轮新的资金将加速我们实现自己的使命,使互联网更有沉浸感、社交性和趣味性,”Spatial联合创始人兼首席产品官Jinha Lee说道。
Meta 前员工加盟,谷歌为AR创新设备招聘团队
spotted by 9to5Google的招聘信息显示,谷歌最近正在招聘AR操作系统团队,该团队由Mark Lucovsky 领导,将为一款创新型AR设备构建操作系统。Mark Lucovsky 曾在Meta工作,工作内容主要是为安卓开发内部替代方案以驱动公司硬件,同时,他也参与了Windows NT操作系统的构建。
图源:推特
招聘信息显示,AR操作系统团队正在构建“控制和管理其AR硬件产品上的软件组件”。这次AR软件的开发并非谷歌首次,而是更多的在继续谷歌在安卓和Tango上开发ARCore的工作,谷歌当年面向B端市场的谷歌眼镜便是构建在安卓基础上。
据了解,该团队中一位高级软件工程师在招聘信息中写道,“我们专注于让大家通过移动设备访问沉浸式计算”,并补充说他们将负责帮助“在高度定制化的硬件平台创造引人入胜的AR体验平台”。有关专注于相机与输入硬件的开发人员招聘信息,还提到了“实时操作系统(RTOS)开发”。
虽然招聘的大部分职位都在美国,但 9to5Google 指出,有些职位位于加拿大滑铁卢。谷歌去年收购的 Focals 智能眼镜背后的AR 公司 North 总部正是在这里。
Snap推出适用于移动设备的独立视频编辑应用程序Story Studio
Snap推出了一款名为Story Studio的独立视频编辑应用,旨在为创作者提供对视频更精细的编辑控制,并允许他们添加文字、潮流音频和AR镜头等元素。该应用于5月首次公布,现在作为"早期体验版本"提供给美国、英国和加拿大的iOS用户。
图源:Snap Story Studio
Snap表示Story Studio是"与创作者一起构建的",旨在成为一个更高级的视频编辑工具,就像使用Spotlight的创作者一样。一年前推出的Spotlight是Snap作为TikTok的对标产品,在Story Studio编辑的视频可以直接导出到Spotlight或用户的Snapchat故事。视频可以下载并在其他平台上分享,而且与TikToks不同,它们没有水印。
Snap还宣布,自去年11月推出Spotlight以来,该公司已向12000名创作者支付了超过2.5亿美元。该公司称,它每月向Spotlight提交效果最好的用户支付数百万美元,但没有说明具体数字。Snap表示,它将继续提供"一系列机会",以奖励受欢迎的创作者,但没有说每月数百万的奖金鼓励是否会继续。
Snap在移动视频领域仍面临着来自TikTok和Instagram Reels的激烈竞争,Facebook在7月表示,它将在2022年前向创作者支付10亿美元。尽管Snap表示,目前创作者使用Spotlight的发布频率是该功能发布时的三倍,但它仍然是一个相对新颖的产品,而且它的对手是TikTok这样拥有10亿月活用户的巨头。
Ozobot推出用于教育的免费AR机器人MetaBot
可编程机器人公司Ozobot推出了MetaBot,用于STEAM(科学、技术、工程、艺术和数学)教育领域的免费AR机器人。它将帮助儿童建立编码素养,促进他们学习创造和使用智能机器人的技能发展。
AR学习对所有年龄段的儿童来说都非常有效。他们在游戏化的互动体验中接受信息,因此,他们对学习感到兴奋,并会将所有注意力集中在手上的任务。
图源:arpost.co
依靠这一原则,Ozobot团队设计并创建了MetaBot这款用于教育的AR机器人。学生们只需要一部智能手机或平板电脑,就可以开始与MetaBot互动,无论他们在学校、在家里或与朋友在公园里。
Ozobot公司首席执行官Andy Fathollahi表示:"MetaBot是我们解决数字鸿沟问题的回答,并推进了我们实现教育技术民主化的使命,同时也使我们能够在元宇宙中对教育提出要求。我们相信每个学生都应该有公平机会获得STEAM教育和计算机科学,无论他们的情况或环境如何。"
图源:arpost.co
为了进一步实现这一目标,Ozobot还为MetaBot用户提供了访问Classroom的机会,这个资源库包含数学、科学、英语语言艺术、社会研究、艺术和音乐等各个领域的视频课程。
Ozobot团队认为,孩子们应该对STEAM充满热情,并希望帮助他们从事这一领域的工作。Fathollahi表示:"随着MetaBot的推出,整个教室可以通过选定的STEAM课程,使用一部智能手机或平板电脑学习编程、创造和协作;使几乎所有的学习者都能掌握未来所需的技能,以促进他们的教育、职业并进入元宇宙。"
Teledyne Flir获美国1570万美元AR技术防御订单,用于揭露生化威胁
近日,Teledyne Flir与美国国防威胁减少局联合科技办公室(DTRA JSTO)签订了一份价值高达1570万美元的开发合同,用于开发新型战场威胁地图和可视化工具。
该技术将通过传感器检测,以数字形式绘制危险物质,并通过手机、平板电脑和显示器上的混合现实“查看”它们的确切位置。
图源:optics
Teledyne Flir 将与合作伙伴合作开发软件,使化学、生物、放射和核 (CBRN) 危害能够被精确定位、测量和映射,以便在Tactical Assault Kit(TAK)工具套件中查看。威胁地图将由那些在其电子设备上运行TAK的人,以及诸如配合IVAS(集成视觉增强系统)等未来派HUD设备的人在“透视”AR显示器中进行显示。
该计划的资金来自DTRA的数字战场管理办公室,其目标是提供改进的实时CBRN态势感知,并使TAK用户能够看到并避免化学和生物危害。未来,该项目还将允许配备IVAS的个人在执行侦察和净化任务时可视化化学、生物威胁并获得实时决策支持。此外,该计划进一步为美国陆军的自主净化工作奠定了人工智能和AR基础。
Teledyne Flir无人驾驶和集成解决方案业务总经理戴维·库林博士(David Cullin)说:“为了保护我们部署在任何地方的部队,我们需要利用最先进的探测和战场管理技术来应对化学和生物武器带来的致命风险。我们很自豪能够领导这项工作,这将帮助我们的作战人员直观地可视化具有危险的化学生物威胁,同时推进与IVAS和自主机器人净化相关的未来能力。”
小米虚拟试穿专利获授权,可将虚拟服饰精准叠加到人像
VR陀螺12月15日讯,天眼查App显示,近日,北京小米移动软件有限公司获“虚拟试穿的方法及装置”专利授权。
摘要显示,本专利公开的是一种关于虚拟试穿的方法及装置,用以将虚拟服饰精准地叠加到人体图像上。
所述方法包括:对电子显示屏显示的人体图像进行图像分割,得到人体图像中与待试穿服饰类型相同的已穿戴服饰的第一区域;基于待试穿服饰的第一图像对第一区域进行变形计算,得到人体图像中的待试穿服饰的第二区域;基于第一图像的颜色分布,调整第二区域内的颜色分布,得到调整后的人体图像;调整后的人体图像中第二区域内的颜色分布与所述第一图像的颜色分布相同;通过电子显示屏显示调整后的所述人体图像。本公开技术方案可以将虚拟服饰精准地叠加到人体图像上。
图源:天眼查
游戏开发商People Can Fly宣布收购VR游戏工作室Incuvo,将为其IP开发VR游戏
近日,游戏开发商People Can Fly宣布已经与VR游戏工作室Incuvo S.A.签订了开发和出版协议,并购买了这家位于波兰卡托维兹的公司的控股权。Incuvo是一家专门从事VR游戏制作的工作室,曾参与Bloober团队的《层层恐惧(Layers of Fear)》和《女巫布莱尔(Blair Witch)》的VR版开发工作。Incuvo目前正在制作开发商Creepy Jar的VR版《绿色地狱(Green Hell)》。
图源:People Can Fly
对于People Can Fly来说,2021年是一个收获巨大增长和知名度的一年。该公司曾收购Game On,并将Phosphor Games转化为People Can Fly Chicago工作室,其与Epic Games决裂后的第一款游戏《Outriders》也已经于今年年初面世。
Incuvo还将为People Can Fly的一个IP开发一款VR版本游戏,由PCF集团全额资助,并打算在2023年底前发布。Phosphor Games在加入PCF大家庭之前,也曾发布过一款恐怖VR游戏《布鲁克海文实验》,并拥有丰富的VR开发经验。根据PCF首席执行官Sebastian Wojciechowski的说法,"将在Incuvo和我们的芝加哥工作室之间建立协同合作,后者在VR游戏开发方面也有丰富的经验。"
在这个问题上,PCF芝加哥工作室的Justin Corcoran也补充说,他的团队 "非常渴望与Incuvo的团队合作并推进这个新项目"。值得注意的是,由于Incuvo与PCF以外的其他开发商如Bloober Team和Creepy Jar仍然保持着合作,所以该公司将在PCF集团旗下独立运作。
这实质上意味着Incuvo将从People Can Fly获得新的支持和资源,但该公司将继续保持与其他客户的合作,这类似于People Can Fly对Game On的收购。从本质上讲,People Can Fly拥有这两家公司,但每家公司都有必要的独立性来承接其他客户的工作。
People Can Fly以推出FPS游戏而闻名,这将永远是PCF基因的一个重要组成部分。在过去几年中,该公司也一直在成长并使其投资组合多样化,例如People Can Fly纽约工作室正在开发一款动作冒险游戏。
在总结Incuvo加入PCF的情况时,Wojciechowski说道:"我们欢迎Incuvo加入PCF大家庭。我们正以高昂的姿态结束我们作为上市公司的第一年,并在一个新的、有前景的领域中扩大集团的能力。在与Incuvo合作的过程中以及PCF的投资组合日益多样化的背景下,我们确信他们是一个值得投资的合作伙伴。"
 苹果新专利曝光,未来HMD或配备瞳孔检测技术来进行眼动追踪 
近日,美国专利商标局公布了苹果公司的一项专利申请,该专利涉及评估用户眼睛瞳孔特征的系统、方法和设备,该系统、方法和设备利用眼睛反射的光来估计用户的注视方向,使用多个闪光来识别用户的眼睛形状、位置和方向。在各种实施方案中,瞳孔特征评估被用来促进注视点追踪,这可用于实现用户交互。
上周,苹果分析师郭明錤表示,"苹果未来的头显将包括创新的人机UI技术,如手势控制、物体检测、眼睛/注视点追踪、虹膜识别、语音控制、皮肤检测、表情检测和空间检测。"
而在此前苹果公司已经发布了一些涵盖眼睛和注视点追踪的专利,很明显这项技术将在苹果公司未来的混合现实头显中发挥重要作用。
苹果公司在他们的专利文件中指出,现有的瞳孔检测技术可能使用一个图像传感器,并在一个曝光期整合光强度水平,以产生灰度图像,然后试图使用灰度图像检测瞳孔。瞳孔是基于瞳孔区域和周围虹膜区域之间的灰度对比度来检测的,因此依赖于瞳孔和虹膜之间的显着对比度。这样的瞳孔检测技术可能不那么准确或有效,特别是在瞳孔和虹膜之间的对比不那么明显的情况下,而这正是苹果公司的发明所要解决的问题。
苹果公司的发明涵盖了一种瞳孔特征评估系统,该系统包括一个光源、一个图像传感器和一个处理器,该处理器根据从光传感器收到的用户眼睛反射光线数据进行瞳孔特征评估。在不同的实施方案中,瞳孔特征是使用来自光源的轴上照明来确定的,这样一来,来自光源的光被反射到眼睛的视网膜上,能够在图像传感器获得的数据中产生一个明亮的瞳孔类型的光图案。
该光可被调制或以其他方式在某一频率下脉冲,频率分割可用于区分通过瞳孔从视网膜上反射的光和来自其他光源的反射。在一些实施方案中,图像传感器是一个基于帧的相机,该方法从下一个图像中沿图像序列减去一个图像,以识别图像中以频率出现的光脉冲。
在一些实施方案中,图像传感器是一个事件相机,对应于从视网膜反射出来并通过瞳孔的光的事件之间的时间量,用来确定以该频率发生的事件。
该事件相机在多个相应位置上有光传感器。响应于特定的光传感器检测到光强度的变化,光传感器会产生一个事件信息,指示特定光传感器的特定位置。
事件相机可以包括或被称为动态视觉传感器(DVS)、硅视网膜、基于事件的相机或无框架相机。因此,事件相机产生(和传输)关于光强度变化的数据,而不是关于每个光传感器的绝对强度的大量数据。
图源:patentlyapple
苹果公司的专利图4是一个头戴式设备(HMD)的分解方框图;图7是一个功能方框图,说明了亮瞳效应和暗瞳效应之间的差异。
更具体地说,图4的外壳#401还容纳了一个瞳孔评估系统,包括一个或多个光源#422,图像传感器#424,和一个控制器#480。一个或多个光源向用户的眼睛发射以及反射光线(例如,定向光束),可由传感器检测。基于这些反射,控制器可以确定用户的瞳孔特征。
作为另一个例子,控制器可以确定瞳孔中心、瞳孔大小、注视方向或注视点。因此,在各种实施方案中,光由一个或多个光源发出,从用户的眼睛上反射,并由传感器检测。在不同的实施方案中,来自用户眼睛的光线在到达传感器之前会被热镜反射或通过目镜。
图源:patentlyapple
苹果公司的专利图8是一个功能框图,说明使用分光器来提供大约在轴上的照明;图9是一个功能框图,说明在光传感器的光学元件附近使用光源环来提供大约在轴上的照明;以及图10是一个功能框图,说明图9的光源环。
苹果公司的专利图11说明了一个功能框图,说明将基于轴上照明的瞳孔检测与基于离轴照明的眼睛特征检测相结合;图12说明了在轴上照明期间获得的事件相机数据的收集;图13说明了图12的事件相机数据的一部分近景。
想了解更多细节,可查阅苹果公司的专利申请20210378509。考虑到这是一项专利申请,目前还不知道包含专利技术的产品何时会上市。
该专利将Walter Nistico列为唯一发明人。Nistico是苹果公司的深度学习和计算机视觉工程经理。4年半前,Nistico随着苹果公司收购SMI SensoMotoric Instruments GmbH而加入了苹果。在加入苹果公司之前,Nistico还曾与谷歌、高通、索尼、Nvidia和英特尔合作开展VR和AR项目。
第一时间了解XR资讯  
  关注VR陀螺官网(vrtuoluo.cn)
VR陀螺的联系方式:
商务合作 | 投稿 :

西瓜(微信号 18659030320)
六六 (微信号 13138755620)
交流分享 | 爆料:案山子 (微信 shimotsuki_jun)

投稿邮箱:[email protected]
推荐阅读

继续阅读
阅读原文