Hume AI获5000万美元融资,刚刚推出了世界上第一款共情 AI 语音接口 EVI,它可以让开发人员能够通过几行代码将情感智能人工智能语音集成到健康和保健、AR/VR、客户服务呼叫中心、医疗保健等领域的应用程序中。
一、Hume AI是什么?
Hume AI是一项专注于开发能够理解人类情感和表情的技术的人工智能产品。它提供了表情测量API和自定义模型API,以预测和改善人类福祉。这款工具适用于需要理解和预测人类情感、行为和福祉的研究人员、开发者和企业。
Hume EVI(共情语音界面) 是世界上第一个共情AI对话机器人,是一款具有情感感知能力的对话式AI工具,EVI 采用了被称为情感大语言模型(eLLM)的多模态生成AI技术,这种技术结合了大语言模型的语言理解能力和表情测量技术的情感感知能力,这意味着EVI能够更好地理解和回应用户的情绪,从而提供更加丰富和真实的对话体验。
Hume AI 的这款新产品EVI,是一项了不起的创举,凭借其情感感知能力和流畅的对话体验,让它在AI技术与人类情感之间架起了一座桥梁,无疑将对AI对话技术的发展产生深远影响。
此外,Hume AI还提供由同理心 AI 支持的对话式语音API,名为EVI,该API能够测量细微声音调制、指导语言和语音生成。他们的模型基于多年的研究,能够捕捉音频、视频和图像中表达的细微差别,例如笑声中夹杂的情感。同时,Hume AI提供自定义模型API,使用先进的表达测量模型和eLLM的迁移学习,能够准确预测各种结果。这些功能为应用程序提供了同理心和发言权,能够构建定制的见解。
二、Hume AI的网站地址:
1、官网地址:
2、体验地址:
三、Hume AI的应用场景:
- 情感分析:分析社交媒体上的情感表达和用户行为,为营销活动提供决策支持。
- 用户体验:了解用户在产品或服务使用过程中的情绪反馈,优化用户体验设计。
- 心理健康:通过情感识别技术辅助心理健康评估和干预。
- 社交互动:构建个性化情感模型,提升社交机器人的互动体验。
四、Hume AI的产品优势:
1、情绪表达模型
Hume AI 开发的模型可以立即捕捉音频、视频和图像中细微的情感表达。 这些模型可以解读声音和面部线索,检测夹杂着尴尬的笑声、如释重负的叹息、怀旧的目光等等。想象一下,人工智能不仅能理解我们所说的话,还能理解它们背后的情感,这就像是给了技术一颗心脏。
2、可定制的洞察力
Hume AI 的低代码定制模型解决方案允许开发人员在应用程序中构建可定制的洞察力。这些洞察力基于最先进的表达测量模型和 eLLM(情感感知语言模型)的迁移学习。Hume AI 的自定义模型 API 可以比单独使用语言更准确地预测结果,是增强用户体验的强大工具。
3、Hume倡议
Hume AI 通过 Hume Initiative 与人工智能研究人员、伦理学家、社会科学家和法律学者合作。 他们共同为理解情感线索的同理心人工智能制定了指导方针和最佳实践,通过引导人工智能的发展走向同理心,创造真正关心我们福祉的技术。
4、改善人类情感体验
Hume AI 设想了一个人工智能融合情感科学见解的未来。 他们的目标是通过技术改善人类的情感体验。
这不仅仅是功能性的问题,也是关于技术如何影响我们的感受和整体福祉。Hume AI 正在开创同理心技术,确保 AI 能够以同理心进行沟通,并学会让人们快乐。
五、为什么选择Hume AI
Hume AI 的模型被财富 500 强公司、初创企业、研究机构和医院用于改善技术如何影响人类福祉。
⭕️ 以严谨的科学为基础
Hume AI 的模型基于广泛的实证研究,利用来自数十个国家的数百万种实验控制的表达方式和数百万小时的人际交往来增强您构建的产品。
⭕️ 适应性强且易于定制
使用Hume AI 的 API 生成可定制的见解和体验。只需几行代码即可轻松将它们集成到您的产品中。我们的 API 既适应性强又功能强大 – 是一种通用工具,可用于在许多不同的垂直领域构建富有同理心的用户体验。
⭕️ 从构思到实施均获得支持
对于许多客户来说,共情 AI 是新事物。Hume 及其不断壮大的合作伙伴群致力于帮助您构建能够产生有意义商业价值的解决方案。
⭕️ 无与伦比的洞察力和最先进的成果
Hume AI 测量了声调、语音韵律、面部表情等数百个维度的表达。我们的见解比语言本身所能捕捉到的要准确得多。
六、Hume AI的情绪表达
一个 API,四种模式,数百个情感维度。
1、言语韵律
发现超过 25 种曲调、节奏和音色模式,为日常言语注入复杂、混合的含义。
娱乐、愤怒、尴尬、无聊、平静、困惑、蔑视、欲望、决心、苦恼、恐惧、内疚、恐怖、痛苦、骄傲、悲伤、惊讶和疲倦
2、声音表达
区分 28 种被认为传达不同含义的声音表达方式以及它们混合在一起的多种方式
崇拜、娱乐、愤怒、敬畏、困惑、轻蔑、满足、欲望、失望、厌恶、苦恼、狂喜、尴尬、兴奋、恐惧、恐怖、兴趣、喜悦、痛苦、实现、宽慰、悲伤、惊讶、同情、疲倦、和更多
3、语音通话类型
通过推断 67 个描述符(如“笑”、“叹气”、“尖叫”、“哦”、“啊”、“嗯”等)的概率来探索声音表达
4、表情
区分 37 种被认为传达不同含义的面部动作以及它们混合在一起的多种方式。
钦佩、崇拜、审美、愤怒、焦虑、敬畏、平静、蔑视、满足、渴望、欲望、决心、失望、苦恼、怀疑、狂喜、尴尬、共情痛苦、入迷、嫉妒、兴奋、恐惧等等
5、面部表情动作捕捉
改进的自动化面部动作编码系统 (FACS):测量 26 个面部动作单位 (AU) 和 29 个其他特征,偏差甚至比传统 FACS 更少
6、动态反应
测量一段时间内面部表情的动态模式,这些模式与 20 多种不同的报告情绪相关
钦佩、崇拜、审美、娱乐、焦虑、敬畏、无聊、平静、专注、沉思、困惑、满足、渴望、厌恶、苦恼、共情痛苦、嫉妒、兴奋、恐惧、内疚、恐怖、兴趣、喜悦、爱、和更多
七、Hume AI的使用体验:
- 可打断性:在与EVI交流时,可以像人类谈话一样被打断,然后倾听用户的诉说。
- 对表达做出类人化反应:可以像人类一样听到用户的倾诉时,给出惊讶、称赞、愤怒等真实反应提升聊天体验。
- 表现力丰富:EVI生成的语音与人类差不多,能提供自然、丰富的语调,不会有生硬的机器感。此外,EVI可通过与用户的对话,通过优化幸福感和满意度完成自我迭代。
八、如何使用Hume AI?
- 接口访问:调用相应的API接口,传入需要分析的数据,即可获取准确的情感识别结果。用户可以根据实际需求选择不同的情感计算功能,实现个性化的数据处理和情感分析。
- 在线体验:打开体验地址:https://demo.hume.ai/,即可开始语音对话。建议使用有麦克风的电脑或者使用访问。