当前位置: 首页> 67系统

HumanisingAutonomy筹资530万美金用于AI系统帮助自动驾驶汽车注意行人

发布时间:20-02-14

(图片来源:Humanising Autonomy官网)

盖世汽车讯&n∠bsp;制造自动驾驶汽车最困难的部分是确保┊┋车辆知道行人在做什么,以及他们将要做什么。Humanising Autonomy具有该领域的专长,并希望成为全球以人为中心的计算机视觉系统的一部分。据外媒报道,该公司凭借其AI系统优势,筹集了530万美元种子资金。该公司表示其AI系统表现优于人类,几乎可以处理所有的汽车摄像头图像。

Humanising A♀utonomy的技术是一套机器→学习模块,用来识别不同的行人行为,例如行人是否准备走到街上、他们是否注意到了汽车、是否与司机有眼神交流,以及‖是否正在打电话等。该公司将其模型的优势归功于两点。首先,是其数据源的多样性。该公司联合创始人兼首席执行官Maya Pindeus表示,“最初,我们就从⿷各种来源收集数据,包括CCTV摄像头、各种分辨率的█车载摄像头,以及自动驾驶汽车传感器。我们还建立了数据伙伴关系,与不同的机构合作。因此我们能够在不同的城市建立强大的数据集,包括不同的摄像头类型、不同的分辨率等等。这对系统╞非常有益,所以系统适用于夜间环境,以及↘密歇根州多雨的情况等。”此外,Hum※anising Autonomy还获取并分析意外事故影像,因为这些都是有用的例子,说明自动驾驶系统或人类司机未能读取行人的意图。

其次是该公司的模型具有模块化特性。它们并不是单一的模型,而是一组模型,可以根据自动驾驶主♦体或硬件需求〓,单独选择和调整这些模型。Pindeus解释说,“例如,如果要知道行人在过马路时是否分心,人类会采取很多行动进行判断。我们有所有不同的模块,可以一起预测一个人是否分心、是否面临危险等。这使得我们可以根据不同的环℡境对其进行调整,例如伦敦和东京,人们在不同的环境里会有不同的╫行为。”Pindeus还表示,“另外是处理需求,自动驾驶汽车对GPU的要求非常高,我们的模块能适应不同的处∮理需求。模块与4级或5级自动驾驶车辆集成时,软件在标准的GPU上运行。与售后市场合作改造应用程序时,我们的〡模型仍然可以运行。因此我们的系统能满足多个自动驾驶级别。”

专注激光雷达和RGB摄像头的全栈传感公司需要完成几十项或几百项任务,包括对象特征识别与追踪、注意标识、监测附近和远处的汽车等。对于这些公司和制造商而言,Humanising Autonomy的功能性和高度特定★解决方案可能更简单,而不是构建自己系统的或依赖更通用的对象跟踪。Pindeus指出,“与自动驾驶汽车毗︶︷︸邻的行业也可以使ⓔ用该系统。”仓库和制造设施使用机器人和其他自动机じ器,如果它们知道周围的工人在做什么,工作效率将会更高。Humanising Autonomy系统只对需要重新训练的部分进行再训练,这比从头构建一个新系统所需的工作量更少。

目前,该公司正与欧洲、美国以及日本的出行供应商合作,包括戴姆勒旗下的奔驰和空客。该公司正在进行一些案例研究,展示其系统如何在各种情况下提供帮助,包括在人行横道上提醒车辆和行人注意对方,以及改进自动驾驶汽▒车路径规划。该系统还可以查看大量以往的视频,根据行≦人的数量和行为,┗对某个区域或〥一天中∩的某个时间段进行风险评估。Pindeus表示,这←500万美元种子基金主要用于该产品的商业化。


幸运飞艇全天微信群计划   微信赛车群

*特别声明:本文为盖世汽车原创技术文章,版权归盖世汽车所有,禁止转载或大篇幅摘录!违规转载,法律必微信群 究。

本文地址:h↓ttp://auto.gasgoo.com/News/2019/06/▶2707112811-28I70112723C601.shtml

自动驾驶

】 ◢

上一篇: 【下半年经济工作怎么干】系统挖掘国内消费需求潜力
下一篇: 看片 | 新款 iPad Pro 发布,和 iPhone XS 对比,库克终于良心了一回