suncitygroup太阳成集团

En
学术动态
查看更多
  • 心智前沿 |《柳叶刀》刊发中德联合研究:基于中英文数据库的抗精神病药物最新证据
    2026年新春伊始,由上海交通大学医学院附属精神卫生中心、suncitygroup太阳成集团李春波教授和德国慕尼黑工大Stefan Leucht教授团队联合牵头的一项系统评价在《柳叶刀》以论著形式正式刊发。该研究比较了24种抗精神病药物治疗急性期精神分裂症疗效与耐受性,是迄今样本量最大、涵盖新药最全、并纳入中国临床研究的最新循证证据。研究纳入438项随机对照试验,共包括78193名参与者。研究涵盖了23种以多巴胺受体阻断为主要机制的抗精神病药物,以及2024年获批的新型毒蕈碱受体激动剂呫诺美林-曲司氯铵(xanomeline-trospium)。研究的主要结局为总体精神症状改善情况,次要结局包括阳性症状、阴性症状、抑郁症状、认知功能、生活质量、社会功能以及耐受性指标。该研究在2019年综述的基础上对纳入的抗精神病药物进行扩展,包括呫诺美林-曲司氯铵、奥氮平-萨米多芬、卢美哌隆、布南色林、哌罗匹隆、非口服制剂(长效肌肉注射或皮下注射以及透皮给药),还纳入了儿童和青少年(18岁以下)、老年期患者(65岁以上)以及首次发作、对既往抗精神病药物治疗无效或不耐受、以及合并药物滥用障碍的个体。此外,该研究提供了33项结局指标的证据,包括临床相关结局指标,如认知功能、胆碱能不良事件、性功能相关不良事件、心率异常、白细胞计数减少和癫痫发作。所有24种药物的疗效均优于安慰剂,标准化均数差在-0.90至-0.23之间。其中,氯氮平、氨磺必利、奥氮平和利培酮在改善总体症状方面优于至少三种其他药物,且其95%置信区间排除了“非常小”的效应值,提示这些差异具有临床意义。除疗效外,在选择个体化用药时还需考虑多样化的副作用。在通常副作用较轻的部分多巴胺受体激动剂中,阿立哌唑因其中等疗效可能更受青睐。布南色林疗效中等和卢美哌隆也属于副作用较少的药物,但卢美哌隆在疗效上排名最末。加用萨米多芬对减轻奥氮平引起的体重增加作用有限。毒蕈碱类药物似乎是有前景的化合物,因为呫诺美林-曲司氯铵在疗效方面排名前三分之一,且不引起与多巴胺受体阻断剂相关的副作用,但具有胆碱能和抗胆碱能效应。对于循证医学而言,纳入随机化方法不当的研究和不可靠的数据可能导致误导性的Meta分析结果。因此,本研究中方团队通过电话访谈、邮件、平信问卷的方式联系5117项中文RCT的第一作者和通信作者,以了解随机化程序的详细信息,但仅有349个研究进行了有效回复。在回复问卷的研究中,仅24项中文研究确认了适当的随机化方法和数据真实性,最终纳入了Meta分析。虽然相比中文发表的精神分裂症临床研究数量很少,但这也是首次被纳入大型的系统评价研究。综上,该研究提供了最新最全面的抗精神病药物比较证据,提示不同药物在疗效和副作用方面存在差异。研究结果支持在临床指南中更明确地反映这些差异,为进一步个体化用药选择提供参考依据。研究同时指出,未来需开展更多头对头研究,尤其是针对呫诺美林-曲司氯铵与传统药物的比较,以及氯氮平在早期治疗阶段的应用研究。上海交通大学医学院附属精神卫生中心、上海市重性精神病重点实验室朱怡康副研究员是共一作者,董愉博士生、官世伟博士生、王嘉曦博士生是共同作者,研究也得到上海交通大学医学院仇晓春研究馆员等老师和研究生的帮助。本研究受到了国家自然科学基金国际合作与交流项目(82161138021)和德国研究基金会项目(468853597)的联合资助。参考文献Johannes Schneider-Thoma*, Yikang Zhu*, Mengchang Qin, Yu Dong, Shiwei Guan, Jiaxi Wang, Jing Tian, Xiao Lin, Alessandro Rodolico, Spyridon Siafis, Irene Bighelli, Melanie Wehner, Christina Veith, Felix Krayer, Elfriede Scheuring, John M Davis, Josef Priller, Adriani Nikolakopoulou, Georgia Salanti, Chunbo Li†, Stefan Leucht†, Comparative efficacy and tolerability of antidopaminergic and muscarinic antipsychotics for acute schizophrenia: a network meta-analysis of randomised controlled trials indexed in international English and Chinese databases, Lancet 2026; 407: 876–91
    2026-03-04
  • suncitygroup太阳成集团傅小兰/刘鑫研究组发布情感计算领域首个多模态大模型情绪幻觉评估基准
    近日,suncitygroup太阳成集团傅小兰/刘鑫研究团队与拉彭兰塔-拉赫蒂工业大学、奥卢大学、东南大学等国内外合作单位共同完成的研究成果“EmotionHallucer: Evaluating Emotion Hallucinations in Multimodal Large Language Models”被人工智能领域顶级会议 ICLR 2026 (International Conference on Learning Representations, CCF-A类会议)正式接收。本研究成果首次面向情感计算领域提出专门用于检测和分析多模态大语言模型\\\"情感幻觉\\\"的评估基准,系统揭示了当前主流模型在情感理解方面的深层缺陷,为构建可信情感AI提供了重要的评测依据,填补了情感计算领域情绪幻觉评估的空白。◆ 成果速读 ◆本研究构建了全球首个多模态大语言模型情绪幻觉评估基准 EmotionHallucer,从情绪心理学知识与真实世界多模态情绪感知两大维度,系统评测了 41 个主流大模型在情绪理解中的\\\"幻觉\\\"问题,并提出了即插即用的 PEP-MEK 框架,显著降低多模态大语言模型的幻觉现象。◆ 成果介绍 ◆情绪理解是人工智能最基础却最具挑战性的任务之一。近年来,多模态大语言模型展现出强大的跨模态理解能力,并在情绪识别、情感对话、共情交互等方向显现出巨大潜力。然而,这些模型常常会\\\"一本正经地说错话\\\":输出看似合理、实则与事实或输入不一致的内容,这一现象被称为幻觉(Hallucination)。与一般的物体或场景幻觉不同,情绪幻觉更加隐蔽、更难察觉:情绪本身具有主观性,蕴含认知评估、生理反应、文化与社会线索等复杂机制。一旦大模型在临床心理、教育陪伴、司法辅助等高风险应用中产生情绪幻觉,可能带来比一般事实性错误更严重的风险。然而,现有幻觉评测基准几乎全部聚焦于通用视觉–语言任务,情绪领域的幻觉评估长期处于空白状态。图1. EmotionHallucer 的研究动机与基准概览。(a) 基于情绪心理学的\\\"成分过程模型\\\"与\\\"动态系统观\\\",人类情绪理解源于认知评估、生理变化、主观感受与外显行为之间的动态交互;而 MLLMs 仅能从外显行为线索中进行数据驱动学习,难以推断底层情绪状态。(b) EmotionHallucer 覆盖情绪知识与多模态感知两大维度,共 7 个子类别 × 4 种模态。◆ 研究动机 ◆当前多模态大模型的情绪理解面临两大核心挑战:一方面,人类情绪源于先天生物机制与终身社会化学习的交互,具有具身性与体验性;而 MLLMs 仅凭大规模语料与视听数据进行统计学习,缺乏情绪产生的内在机制支撑。另一方面,情绪理解同时依赖心理学知识与多模态感知两类能力,而现有评测方法往往无法将两者分离,导致模型的\\\"幻觉行为\\\"难以被准确刻画。情绪心理学经过数十年积累,已为情绪的产生、感知、调节与表达提供了丰富的理论与实证依据。若能将心理学知识体系与严格的对抗式评测机制相结合,将有望从数据与评估层面系统揭示大模型情绪理解的能力边界,推动\\\"懂情绪\\\"的可信 AI 迈出关键一步。◆ 研究贡献 ◆该研究提出 EmotionHallucer 基准及配套的 PEP-MEK 框架,主要贡献如下:1. 首创情绪幻觉评估范式。首次系统地界定、分类并量化多模态大模型中的\\\"情绪幻觉\\\",将其划分为情绪心理学知识幻觉(Theory / Definition / Finding)与多模态情绪感知幻觉(Category / Intensity / Reasoning Result / Reasoning Cue),为情感计算领域提供了通用的幻觉评估基准。2. 心理学理论驱动的高质量基准构建。以权威情绪心理学教材及经典理论为知识来源,结合 SOUL、Twitter15/17、RAVDESS、MER 2023、Social-IQ 2.0 等真实世界数据集,构建涵盖文本、图像、语音、视频四种模态的对抗式二元 QA 题目,每题由\\\"基础问题 + 幻觉问题\\\"成对构成,严格控制语言偏置。3. 对 41 个主流大模型的系统评测。覆盖从开源到闭源、从通用到情感专用、从 7B 到超大参数规模的 41 个 LLM/MLLM,评测结果显示当前大多数模型在情绪幻觉上存在显著问题,多数开源模型甚至无法超过随机猜测的 25% 基线。4. 即插即用的 PEP-MEK 框架。针对\\\"感知弱于知识\\\"这一发现,本研究提出 Predict–Explain–Predict with Modality and Emotion Knowledge (PEP-MEK) 框架,通过引导模型显式抽取模态线索与情绪知识并进行\\\"预测—解释—再预测\\\"式推理,在三类代表性模型(Qwen2.5-Omni、Emotion-LLaMA、Gemini-2.5-Flash)上平均带来 9.90% 的准确率提升,其中情感专用模型 Emotion-LLaMA 提升高达 16.38%。图2. EmotionHallucer 样例与 PEP-MEK 框架。(a) 每一题均由\\\"基础问题 + 幻觉问题\\\"成对构成,仅在两题均正确时才计为正确,显著降低了语言偏置和随机作答的影响;(b) PEP-MEK 首先引导模型从多模态输入中抽取模态特异性线索与情绪心理学知识,生成初步预测与解释,再结合解释进行二次预测。◆ 研究创新 ◆本研究实现了三大理论与技术突破:1. 情绪幻觉的双维度评估体系。首次将\\\"情绪心理学知识\\\"与\\\"多模态情绪感知\\\"两条幻觉脉络系统纳入同一评测框架,覆盖 7 个子类别与 4 种模态,为后续可信情感 AI 研究提供了标准化的评测底座。2. 对抗式二元 QA 评测策略。针对传统 caption-based 评测易受提示设计与长度影响的问题,采用严格配对的基础–幻觉对抗式问答,并引入 Yes Percentage Difference 与 False Positive Ratio 等偏置指标,系统刻画模型的\\\"过度肯定\\\"与\\\"过度否定\\\"倾向。3. 心理学知识驱动的幻觉缓解范式。PEP-MEK 不依赖模型重训,仅通过结构化提示即可显著降低多模态情绪感知中的幻觉,为\\\"知识注入 + 推理显式化\\\"的可信情感 AI 路径提供了可迁移的实践样本。 ICLR (International Conference on Learning Representations) 是人工智能领域的顶级会议。· 论文链接: https://arxiv.org/abs/2505.11405· 发表会议: ICLR 2026· 作者: 邢博浩, 刘鑫, 赵国英, 刘澄玉, 傅小兰, Heikki Kälviäinen· 引用信息: B. Xing, X. Liu, G. Zhao, C. Liu, X. Fu, and H. Kälviäinen, “EmotionHallucer: Evaluating Emotion Hallucinations in Multimodal Large Language Models,” International Conference on Learning Representations (ICLR), 2026.
    2026-04-20
  • suncitygroup太阳成集团傅小兰/刘峰研究组提出微表情高效识别技术新框架TSFmicro
    近日,suncitygroup太阳成集团傅小兰教授与刘峰助理研究员联合研究团队与江南大学人工智能与计算机学院钱雪忠副教授团队合作的研究成果“Temporal-spatial cross-fusion for dynamic micro expression recognition”在模式识别、计算机视觉与人工智能领域国际权威期刊 Pattern Recognition正式录用。 成果速读本研究成果首次从维度融合视角系统探索时空特征在动态微表情识别中的互补机制,提出新型并行时空交叉融合框架TSFmicro,为小样本场景下的微表情识别任务提供高效解决方案。 成果介绍微表情是人类在情绪抑制状态下无意识流露的短暂面部反应,具有持续时间极短(1/25~1/2秒)、运动强度微弱、局部区域特异等典型特征,在临床心理评估、公共安全监测、司法鉴证等领域具有重要应用价值。然而,微表情的瞬时性与局部性给准确识别带来显著挑战,即使经过专业训练的人员,其肉眼识别准确率也难以超过50%。现有方法多采用单一维度建模策略,难以有效捕捉微表情“在哪里发生”(where)与“如何变化”(how)之间的互补关系,制约了模型性能的进一步提升。图1. 本文试图从维度融合的角度,探讨时间融合对微表情识别性能的潜在影响。(a) 利用帧差分技术,将帧与帧之间的时间信息提取为时间特征。(b) 采用位置嵌入技术,学习与动作发生相关的位置信息,并将其映射到时间特征上。(c) 通过时序流和空间流提取时空信息,并尝试不同的时空融合方法。 (d) 采用不同时空维度融合方法时,TSFmicro的性能表现。 研究动机当前动态微表情识别研究面临两大核心挑战:一方面,微表情的高时序动态性使得单帧图像难以准确捕捉动作演化过程;另一方面,微表情的低强度与局部化特征导致关键运动区域难以精确定位。现有方法或侧重时间建模而忽略空间定位,或专注空间特征而弱化动态变化,缺乏对时空维度互补关系的系统性探索。若能在高维特征空间实现时空信息的有效融合,形成语义层面的\\\"where-how\\\"协同表征,将有望突破微表情识别的性能瓶颈。 研究贡献本研究提出时空交叉融合动态微表情识别框架(Temporal-Spatial Fusion framework for DMER, TSFmicro),主要贡献如下:1. 多维融合新视角。首次从维度融合角度系统探索时空特征在动态微表情识别中的互补机制,明确不同维度特征在多种组合模式下的作用与贡献,为微表情识别研究提供新的方法论参考;2. 并行时空融合方法。提出新型并行时空融合策略,在高维特征空间融合时空信息,形成语义层面的互补\\\"where-how\\\"关系,为模型提供更丰富的语义表征。空间子分支引入可学习位置嵌入并采用浅层网络设计,有效避免提取与微表情运动无关的身份信息;3. 时空特征贡献重审视。重新审视微表情识别领域中时间维度与空间维度的特征贡献关系,提出时空特征多维融合与计算的模式识别新范式,推动微表情识别从单维建模向多维协同演进;4. 高效时空融合框架。提出新型时空特征融合框架,通过计算Onset帧与Apex帧的差分捕获动态时序信息,并将其映射至空间子分支提取的位置信息,实现时空信息的高效整合。在CASME II、SAMM、CAS(ME)³三个主流数据集上的实验结果表明,该方法性能超越当前最先进方法(SOTA)。图2. TSFmicro框架整体架构。(a)整体流程首先进行人脸裁剪,随后从差异帧中提取时序特征,从起始帧中提取空间特征,最后进行时序-空间融合与分类。(b)特征融合模块通过逐元素求和的方式整合时序和空间特征流。(c)T-S(early)融合策略在识别主干之前融合时序与空间信息。(d)T to S融合策略在空间编码之后将时序特征融合到空间分支中。(e)S to T融合策略在时序编码之后将空间特征融合到时序分支中。(f)T-S(late)融合策略对独立处理的时序和空间特征进行逐元素求和。 研究创新本研究实现三大理论与技术突破:1. 维度融合新范式。突破传统单维建模局限,首次系统探索时空维度在微表情识别中的互补机制,为小样本时序分类任务提供可迁移的多维融合方法论;2. 轻量高效设计。采用元素级求和的融合策略,在保持模型轻量(9.5M参数,4.9G FLOPs)的同时实现性能提升,适用于计算资源受限的实际应用场景;3. 时空协同表征。通过\\\"差分帧+位置嵌入\\\"的协同设计,将动态时序变化与静态空间定位相互结合,显著提升模型对微表情完整演化过程的理解能力。 刘峰助理研究员为该文第一作者兼通讯作者,傅小兰教授为共同通讯作者,南丙誉、钱雪忠副教授为共同作者,南丙誉是刘峰老师与钱雪忠老师共同指导的硕士研究生。本研究得到国家重点研发计划“主动健康和老龄化科技应对”重点专项(No.2024YFC3606802)、上海交通大学2030倡议及新进教师启动计划项目基金的资助(No.25X010506040)。 Pattern Recognition 是模式识别、计算机视觉与人工智能领域国际权威期刊,五年影响因子IF=8.0,在学术界与工业界均具有广泛影响力。 论文链接:https://doi.org/10.1016/j.patcog.2026.113715代码地址:https://github.com/Cross-Innovation-Lab/TSFmicro发表日期:2026年4月13日作者:刘峰*、南丙誉、钱雪忠、傅小兰*单位:suncitygroup太阳成集团*、江南大学人工智能与计算机学院引用信息F. Liu, B. Nan, X. Qian, and X. Fu, \\\"Temporal-spatial cross-fusion for dynamic micro expression recognition,\\\" Pattern Recognition, 2026, doi: 10.1016/j.patcog.2026.113715.
    2026-04-17
  • 学术报告
    查看更多
    XML 地图