联系方式:
电话:4008113950 手机:13021282218 联系人:赵先生 Q Q:
ErgoLAB面部表情分析系统新品推荐,面部表情分析系统、动作捕捉系统、肌电仪、无线表面肌电仪、压力分布测试系统、交通场景仿真软件、自动驾驶仿真软件、驾驶模拟器本公司于12月16日14点23分报道:ErgoLAB面部表情分析系统新品推荐(http://www.app17.com/c151109/products/d9929765.html)
产品简介
一、产品概述
ErgoLAB FACS面部表情分析系统是主要的神经行为测试工具,该系统是一款业的工具软件,可自动分析面部表情和面部微表情动作,同时系统内嵌情感效价识别模型,直接测量个体的“消”、“中性”、“积”的情感状态,还提供视线方向、头部朝向、个人特征等数据。系统通过面部动作编码体系(FACS:Facial Action Coding System)将许多现实生活中人类的表情进行了分类,是如面部表情的肌肉运动的权威参照标准。系统具备情绪状态识别、面部表情分析等功能,根据人脸的解剖学特点,将其划分成若干既相互独立又相互联系的运动单元(AU),并分析了这些运动单元的运动特征及其所控制的主要区域以及与之相关的表情。
ErgoLAB FACS系统是完全自主研发利技术,具有多项国家发明利与软件著作权,通过了省部新技术新产品认证,欧洲CE、美国FCC、欧盟Rohs、ISO9001、ISO14001、OHSAS18001等多项管理体系认证。广泛应用于心理与行为观察、人因智能与人机互动、人机界面设计与产品可用性测试、产品(广告)营销、汽车驾驶(交通安全)、工业管理、工业设计、人因工程、消费行为学、应急行为研究、安全科学、环境行为学、建筑设计等多个域科学研究。
ErgoLAB FACS面部表情分析系统是一款业的面部表情分析与情绪状态识别科研工具。系统通过图像识别技术结合机器学习等人工智能算法,利用面部肌肉特征点计算和分类表情状态,自动编码多种基本表情、精确计算情感效价;并通过庞大的数据库使得模型预测的情绪准确率高达 93.3%。通过计算多维度数据特征,结合AI状态识别进一步研发可实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。ErgoLAB FACS系统采用表情识别算法,开发团队在软件功能及算法定制开发上积累了丰富的开发实施经验,可以根据用户要求对软件进行定制化设计开发,确保满足用户科研需要。
系统可以嵌入ErgoLAB行为观察分析系统和人机环境同步平台,支持在同一个软件界面同步采集与分析多维数据源,包括行为观察视频、生理数据、眼动数据、脑电数据、动作捕捉、生物力学、作业环境数据等,包含多终端API/TTL实时行为编码与事件标记应用程序,并提供开放数据同步接口可供二次开发。
随着神经行为科学的迅猛发展,人们开始尝试用神经行为学工具来测试各种商业行为表现。主要集中应用在对消费者偏好和满意度的测试,如消费者观看广告内容时的表情和购买意愿的关系;消费者闻不同气味的香水后的表情反应与对香水偏好的关系;听众的表情与音乐喜好的关系等众多研究域。情感预测态度和行动针对视频图像中的每一帧,FACS提供面部表情的7种关键指标的详实数据,以及6种面部特征统计数据。这些参数可以洞察人们的情绪状态,并提高消费品、广告、媒体、软件的商业价值。
1、面部表情自动编码
● 面部表情自定义处理参数模块,包括实时处理及离线处理,如数据插值、中值滤波、均值滤波等,支持自定义程度阈值、合并阈值、以及大脑加工时间。
● 自动识别并编码七种基本表情,包括高兴、悲伤、厌恶、恐惧、惊讶、生气、参与度,以0至100%区间计算表情程度值;
● 计算多种微表情数据,如抬起眉毛内角、抬起眉毛外角、皱眉(降低眉毛)、上眼睑上升、脸颊提升、眼轮匝肌外圈收紧/内圈收紧、皱鼻、拉动上嘴唇向上运动、拉动人中部位的皮肤向上、拉动嘴角倾斜向上、急剧的嘴唇拉动、收紧嘴角、拉动嘴角向下倾斜、拉动下唇向下、推动下唇向上、撅嘴、嘴角拉伸、收紧双唇向外翻、眼睛扩大、张嘴等。
2、状态识别与预警反馈
● 系统内嵌情感效价计算模型,精确识别积、中性、消情感,客观评价个体情绪状态,与多模态数据形成客观有效的印证关系;
● 系统可自动检测操作人员的头部位置三轴数据:俯仰角、偏航角、翻滚角;系统能够自动检测实时跟踪操作人员头部朝向,包括俯仰角、偏航角、翻滚角,并测定注视方向,计算瞳孔间距以及注意状态检测;
● 结合人工智能与机器学习算法,进一步实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。
3、面部表情分析与统计属性识别
● 实时可视化的表情编码:系统实时计算操作人员的表情状态与情绪效价,在实验过程中,主试可实时查看与监测操作人员的表情程度与情绪变化,并做出相应的任务调整与行为预警。
● 自动统计面部表情数据:包括每种面部表情的开始时间、结束时间、第*一次发生的时间、总发生次数、频率、每次发生的时间、总的持续时间、总的持续时间在全部观察时间中所占的百分比、短的持续时间、长的持续时间、平均持续时间、持续时间的标准差、持续时间间隔置信区间等数据。
● 自动检测操作人员的整个面部特征点,并输出原始坐标X、Y,以及视线位置;
● 系统包含年龄分类器,支持实时计算并识别多个年龄段状态,可智能识别多种被试属性信息,如性别、是否佩戴眼镜。
4、多维度数据统计与二次开发
● 多维度数据交叉统计:系统支持面部表情数据与其他多模态数据(眼动、脑电、生理、动补、行为等)的同步交叉分析,多个数据源在同一平台界面呈现,在采集的同时间轴数据里选择相应的时间片段,可同步观察和统计分析所有数据流之间的相关关系;
● 具有API开发接口:面部表情原始数据与状态分析结果可以被其他程序实时访问,可使其它程序对被试者的情绪进行反馈。
●心理学与神经科学研究;
●人因工程与工效学研究;
●人因智能与人机交互研究;
●智能交通与驾驶行为研究;
●建筑人居健康与环境行为研究;
●市场研究与消费者调研;
●用户体验与交互研究;
●教育研究;
●临床研究;
●婴儿研究;
●体育运动研究;
●沉浸式VR研究;
主营产品:面部表情分析系统、动作捕捉系统、肌电仪、无线表面肌电仪、压力分布测试系统、交通场景仿真软件、自动驾驶仿真软件、驾驶模拟器、多通道人机交互智能座舱、光环境模拟舱、环境模拟实验室、虚拟现实实验室、人因工程实验室仪器设备、用户体验实验室仪器设备、人机工效实验室仪器设备、可用性测试实验室仪器设备、虚拟现实实验室仪器设备、人机交互实验室仪器设备、人工智能实验室仪器设备、人机环境实验室仪器设备、健康建筑人居环境实验室仪器设备、景观设计实验室仪器设备、智能座舱人机交互实验室仪器设备、环境行为实验室仪器设备
联系方式:
电话:4008113950 手机:13021282218 联系人:赵先生 Q Q: