SoC设计与应用技术领导厂商SocionextInc.(以下“Socionext”,或“公司”)宣布,联合大阪大学数据能力科学研究所长原教授研究小组共同开发新型深度学习算法,该算法无需制作庞大的数据集,只需通过融合多个模型便可在极度弱光的条件下进行精准检测物体及图像识别。Socionext笹川幸宏先生和大阪大学长原教授在8月23日至28日(英国夏令时间)举办的欧洲计算机视觉国际会议(ECCV)上报告了这一研究成果。
近年来尽管计算机视觉技术取得了飞速发展,但在低照度环境下车载摄像头、安防系统等获取的图像质量仍不理想,图像辨识性能较差。不断提升低照度环境下图像识别性能依旧是目前计算机视觉技术面临的主要课题之一。CVPR中一篇名为《LearningtoSeeintheDark》[1]的论文曾介绍过利用图像传感器的RAW图像数据的深度学习算法,但这种算法需要制作超过,张图像和多万个批注[2]数据集才能进行端到端学习,既费时又费钱,难以实现商业化落地(如下图1)。
图1:《LearningtoSeeintheDark》及RAW图像识别课题
为解决上述课题,Socionext与大阪大学联合研究团队通过迁移学习(TransferLearning)和知识蒸馏(KnowledgeDistillation)等机器学习方法,提出采用领域自适应(DomainAdaptation)的学习方法,即利用现有数据集来提升目标域模型的性能,具体内容如下(如图2):
(1)使用现有数据集构建推理模型;
(2)通过迁移学习从上述推理模型中提取知识;
(3)利用Gluelayer合并模型;
(4)通过知识蒸馏建立并生成模型。
图2:本次开发的领域适应方法(DomainAdaptationMethod)
此外,结合领域自适应方法和物体检测YOLO模型[3],并利用在极端弱光条件下拍摄的RAW图像还可构建“YOLOintheDark”检测模型。YOLOintheDark模型可仅通过现有数据集实现对RAW图像的对象检测模型的学习。针对那些通过使用现有YOLO模型,校正图像亮度后仍无法检测到图像的(如下图a),则可以通过直接识别RAW图像确认到物体被正常检测(如下图b)。同时测试结果发现,YOLOintheDark模型识别处理时所需的处理量约为常规模型组合(如下图c)的一半左右。
图3:《YOLOintheDark》效果图
本次利用领域自适应法所开发的“直接识别RAW图像”可不仅应用于极端黑暗条件下的物体检测,还可应用于车载摄像头、安防系统和工业等多个领域。未来,Socionext还计划将该技术整合到公司自主研发的图像信号处理器(ISP)中开发下一代SoC,并基于此类SoC开发全新摄像系统,进一步提升公司产品性能,助力产业再升级。
欧洲计算机视觉国际会议(ECCV)
日期:8月23~28日(英国夏令时间)
地点:线上会议
演讲主题:YOLOintheDark-DomainAdaptationMethodforMergingMultipleModels-
演讲人:SocionextInc.笹川幸宏先生大阪大学长原教授
注释:
[1]“LearningtoSeeintheDark”:CVPR,Chenetal.
[2]MSCOCOdatasetasanexample
[3]YOLO(YouOnlyLookOnce):Oneofthedeeplearningobjectdetectionmethods
关于Socionext
SocionextInc.是一家全球性创新型企业,其业务内容涉及片上系统(System-on-chip)的设计、研发和销售。公司专注于以消费、汽车和工业领域为核心的世界先进技术,不断推动当今多样化应用发展。Socionext集世界一流的专业知识、经验和丰富的IP产品组合,致力于为客户提供高效益的解决方案和客户体验。公司成立于年,总部设在日本横滨,并在日本、亚洲、美国和欧洲设有办事处,领导其产品开发和销售。
本新闻稿中提及的所有公司或产品名称均为其各自所有者的商标或注册商标。以上发布的信息为截止发稿时的信息,日后若发生变更,恕不另行通知,敬请谅解。