2022 年 6 月 6 日,中国上海——全球领先的神经拟态视觉系统发明者普诺飞思(Prophesee)宣布,即日起免费提供 Metavision® Intelligence 软件套件的最新版本,包含其所有模块,为视觉系统设计人员探索基于事件视觉技术的性能及能效、部署差异化的机器视觉应用提供加速路径。Metavision Intelligence 套件提供目前业界最全面的软件工具及代码示例,至今已获五项国际奖项认可。该软件套件的免费,将进一步加速基于事件视觉系统的设计研发、商业落地及交付使用。

借助该领先的软件工具包,现在,工程师可以轻松地在 PC 上开发计算机视觉应用,为工业自动化、物联网、安防监控、移动设备、医疗、汽车等市场应用提供更具效率的基于事件的解决方案。

Metavision Intelligence 3.0 的模块可通过 C++ 和 Python API 免费获取,包括一个全面的机器学习工具包。该软件套件还通过 Studio 工具提供无代码选项,未拥有事件相机的用户可以免费体验预先录制的数据集。拥有事件相机的用户也可以在几秒钟的时间内自行传输或录制事件。

该软件套件总共包含 95 个算法、67 个代码示例和 11 个即用型应用程序。包括高速计数、振动监测、飞溅监测、物体跟踪、光流、超慢动作、机器学习等算法支持即插即用。此外,该软件套件还为用户提供 C++ 和 Python API,以及按执行级别组织的大量文档和丰富示例,以逐步引入基于事件的机器视觉概念。

“自 Metavision Intelligence 推出以来,我们看到了市场对基于事件的视觉技术有很大的兴趣,我们的生态社区也得以不断发展壮大,现在 4,500 多名发明家正在使用 Metavision Intelligence 开发基于事件的解决方案”,普诺飞思联合创始人兼首席执行官 Luca Verre 先生表示。“随着基于事件的视觉技术敲开了越来越多细分市场的大门,我们决定进一步加速市场部署 Metavision Intelligence 套件。通过提供这些开发辅助工具,我们希望可以推动基于事件的视觉技术有更广阔的应用可能,并鼓励产业链上的每个人贡献自己独特的价值。”

新功能赋能高效定制解决方案

Metavision Intelligence 套件的最新版本将有助于缩短生产时间,支持系统开发人员在短时间内快速传输事件,甚至可以使用提供开源许可的相机插件作为基础,从头开始搭建事件相机。

该软件套件还支持开发人员将开发成果传输到 Windows 或 Ubuntu 操作系统上。通过提供对关键传感器插件的源代码访问,Metavision Intelligence 3.0 还将有机会释放基于事件传感器的全部潜力,例如抑制频闪、调整偏差等。

此外,Metavision Studio 还进一步改善了注册指引、用户界面(UI)、感兴趣区域(ROI)及偏差设置流程,以优化用户体验。

全新机器学习核心模块,衔接基于帧和基于事件的视觉系统

Metavision Intelligence 套件提供的机器学习核心模块包含一个开源转换器(支持将事件转换成视频),以及一个模拟器(根据视频模拟生成事件)。该转换器利用预训练的神经网络来构建基于事件的灰度图像。在此基础上,用户可以充分利用他们现有的资源来处理基于事件的数据,并在其上构建算法。

此外,通过支持将常规基于帧的数据集转换为基于事件的数据集,该软件成功打破了基于事件领域中数据稀缺的障碍。

开发人员现可免费下载 Metavision Intelligence 套件,开始探索并构建基于事件传感技术的产品。

更多信息请访问:https://www.prophesee.ai/metavision-intelligence

关于普诺飞思

普诺飞思(Prophesee)是世界上最先进的神经拟态视觉系统的发明者。

普诺飞思为机器视觉开发了突破性的基于事件的视觉(Event-Based Vision)解决方案。这种新的视觉方法可显著降低功耗、延迟、及数据处理的要求,能够获得传统基于帧的传感器不能获取的内容。普诺飞思获得专利的 Metavision® 传感器和 AI 算法,模仿人眼和大脑的工作方式,能够显着提高机器视觉在自动驾驶、工业自动化、物联网、移动设备和 AR/VR 等领域的效率。

普诺飞思总部位于巴黎,并在格勒诺布尔、上海、东京和硅谷设有办事处。公司有 100 多名有远见的工程师,拥有 50 多项国际专利,并得到领先国际投资者的支持,包括 360 Capital Partners、欧洲投资银行、iBionext、韦豪创芯、英特尔资本、雷诺集团、Robert Bosch Venture Capital、创新工场、Supernova Invest、小米等。

更多信息请访问:www.prophesee.ai.