本研究系统分析SAM2在医学影像中的表现,发现其分割精度受物体大小、位置和结构复杂度显著影响。通过在MSD、ISLES和BTCV数据 ...
这项由杭州电子科技大学的余新磊和深圳大数据研究院的王常淼等研究人员合作开展的研究,发表于2025年6月的arXiv预印本平台 ...
SAM2(Segment Anything 2)是Meta开发的一个新模型,可以对图像中的任何物体进行分割,而不局限于特定的类别或领域。这个模型的独特之处在于其训练数据的规模:1100万张图像和110亿个掩码。这种广泛的训练使SAM2成为训练新图像分割任务的强大起点。 如果SAM可以 ...
为解决神经纤维瘤病1型(NF1)患者全身MRI(WB-MRI)中数百个神经纤维瘤(NFs)手动分割耗时且现有交互式方法难以兼顾精度与可扩展性的难题,本研究提出了一种名为MOIS-SAM2的新型多目标交互式分割模型。该模型在Segment Anything Model 2(SAM2)的基础上,创新性地 ...
又是发布即开源! Meta“分割一切AI”二代SAM2在SIGGRAPH上刚刚亮相。 相较于上一代,它的能力从图像分割拓展到视频分割。 可实时处理任意长视频,视频中没见过的对象也能轻松分割追踪。 它和Llama系列一样遵循Apache 2.0许可协议,并根据BSD-3许可分享评估代码。
还记得去年, Meta 发布的 Segment Anything ( SAM )吗? 它呢,是个用来分割图像的模型。在之前,对于不同类型的物体,分割模型之间是有壁的,就比如能分割猪狗的模型,大概率是不能分割苹果梨的。。。 而 SAM 一面世,就打出了 “ 分割一切 ” 的名号,不少人 ...
又是发布即开源! Meta“分割一切AI”二代SAM2在SIGGRAPH上刚刚亮相。 相较于上一代,它的能力从图像分割拓展到视频分割。 可实时处理任意长视频,视频中没见过的对象也能轻松分割追踪。 它和Llama系列一样遵循Apache 2.0许可协议,并根据BSD-3许可分享评估代码。
Mate在SAM的基础之上推出的多模态视觉大模型SAM2(Segment Anything Model 2)—一个致力于解决图像与视频可提示视觉分割任务的基础模型。通过构建能通过用户交互持续优化模型与数据的数据引擎,收集了迄今为止规模最大的视频分割数据集。该模型采用简洁的 ...
可以输出语义的「分割一切模型2.0」来了! 一次交互,「分割+识别+解释+描述」全搞定,同时支持图像、视频和长视频,文本&Mask同时输出! 由港中文MMLab、港理工、北京大学等机构开源的PAM(Perceive Anything Model)模型,能够在保留SAM2分割一切、追踪一切能力的 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果