发布日期:2026-03-06 10:43 点击次数:66

近日,海外学术会议CVPR 2026论文接受摈弃公布,长安大学数据科学与东说念主工智能参议院多篇论文被委派。CVPR全称为IEEE/CVF Conference on Computer Vision and Pattern Recognition(盘算机视觉与形态识别会议),被以为是深度学习边界的顶级海外会议之一,与ICCV、ECCV并称为盘算机视觉边界三大顶会。CVPR 2026将于2026年6月3日-7日在好意思国科罗拉多州丹佛市举行,会议将呈现和发布深度学习边界前沿参议效果。
论文题目:SynthRGB-T: Language-Vision Guided Image Translation for Diversity Synthesis
第一作家:丁健刚(长安大学信息工程学院)
通信作家:李伟(长安大学数据科学与东说念主工智能参议院)
论文详细:弥合红外图像与可见光图像之间的模态互异,关于达成跨模态清晰及丰富多模态基准数据具有紧迫意旨。可是,现存参议智力多局限于一双一映射范式,且常常仅在单向或阻塞场景中进行评估,难以欣喜复杂绽放环境下的万般化需求。针对上述问题,论文将图像养息经过革命性地表述为一种由视觉与说话共同指点的去噪扩散经过。通过引入绽放寰球学问,抢庄牛牛官网达成了可控的双向图像翻译。此外,所建议的 SynthRGB-T 模子大要合成万般性强且高保真度的数据样本,显耀拓展了多模态数据资源的范围与丰富度,为多模态边界后续参议提供了有劲复旧。
{jz:field.toptypename/}伸开剩余54%论文题目:SkeletonContext: Skeleton-side Context Prompt Learning for Zero-Shot Skeleton-based Action Recognition
第一作家:王宁(长安大学数据科学与东说念主工智能参议院)
通信作家:张亮(西安电子科技大学盘算机科学与工夫学院)
论文详细:针对零样本(Zero-shot)骨骼当作识别中因空泛环境凹凸文(如交互物体)导致当作语义迟滞、难以分歧视觉雷同当作的挑战,论文建议了一种基于教导学习的新框架 SkeletonContext。该框架通过引入“跨模态凹凸文教导模块”,哄骗大说话模子(LLM)生成的丰富配景语义来补全骨骼当作中的缺失信息,达成了骨骼特征与说话描述的深层语义对都;同期,衔尾“关键部位解耦模块”索取畅通联系枢纽特征,进一步增强了在无物体交互场景下对复杂当作的清晰武艺。在多个主流基准数据集上的本质摈弃标明,SkeletonContext 在传统及广义零样本任务中均达到了跨越水平,显耀提高了模子对细粒度当作的推理精度与鲁棒性。
华商报大风新闻记者 任婷
发布于:陕西省上一篇:牛牛 英伟达产能大转念:H200让位给下一代芯片Vera Rubin
下一篇:没有了