Meta Segment Anything Model 2(SAM 2)是 Meta 推出的下一代对象分割模型,它支持视频和图像中的对象分割。
SAM 2 的主要特点和优势包括:
SAM 2 采用了流式架构和记忆机制等技术。流式架构是 SAM 到视频领域的自然泛化,可实时处理任意长度的视频;记忆机制则可以存储对象的交互信息和之前处理过的信息,使模型能够在整个视频中实现预测行为,并能根据存储的对象记忆上下文有效地纠正预测。
不过,SAM 2 也存在一些局限性,例如在处理长时间遮挡、拥挤场景或快速移动物体时可能会丢失对象跟踪或混淆物体,在分割多个对象时效率会降低等。但这些情况可以通过人为干预提供细化提示来解决。
总的来说,SAM 2 的发布是 Meta 在开放科学和人工智能领域的重要进展,它有可能成为更大 AI 系统的一部分,推动对世界的多模态理解,并在工业和创意领域有着广泛的应用潜力。
免责声明:本网站仅提供网址导航服务,对链接内容不负任何责任或担保。
1 个月前
2025年10月29日,苹果公司发布了名为Pico-Banana-400K的大规模研究数据集,旨在推动文本引导图像编辑技术的发展。 数据集概况:Pico-Banana-400K包含40万张图像,其研究论文题为《Pico-Banana-400K:面向文本引导图像编辑的大规模数据集》。该数据集采用非商业性研究许可发布,学术机构和研究人员可免费使用。 构建过程:研究团队首先从OpenImages数据集中选取大量真实照片,以确保图像内容的多样性,涵盖人物、物体及含文字场景等。然后设计了35种不同类型的图像修改指令,将其归入像素与光度调整、以人为中心的编辑、场景构成与多主体编辑等八大类别。接着,把原始图像与编辑指令输入至Nanon-Banana模型进行图像编辑,生成结果由Gemini 2.5-Pro模型进行自动评估,只有通过双重验证的结果才会被纳入最终数据集。 数据集构成: 单轮监督微调整子集:包含25.8万个成功的单轮图像编辑示例,涵盖了35种编辑分类法的全部范围,为模型训练提供强大的监督信号。 多轮编辑集:包含7.2万个按顺序进行的编辑交互示例,序列长度从2到5轮不等,用于研究连续修改中的顺序编辑、推理与规划。 偏好集:包含5.6万个示例,由原始图像、指令、成功编辑和失败编辑组成的三联体,可用于训练奖励模型和应用直接偏好优化等对齐技术。 长短指令配对集:用于发展指令重写与摘要能力。 发布意义:尽管Nanon-Banana在精细空间控制、布局外推和文字排版处理方面仍存在局限,但Pico-Banana-400K为下一代文本引导图像编辑模型提供了一个坚实、可复现的训练与评测基础。目前,相关研究论文已发布于预印本平台arXiv,完整的Pico-Banana-400K数据集也已在GitHub上向全球研究者免费开放。 (新闻来源:github.com/apple/pico-banana-400k )

9 个月前
AI 国际简讯 2025年02月18日 微软发布OmniParser V2.0工具,用于识别和解析屏幕上的可交互图标,新版本提升交互图标解析能力。 Meta Reality Labs 的研究团队推出"Pippo"模型,可从普通照片生成1K分辨率的多视角视频。 苹果将在Vision Pro头戴设备中推出Apple Intelligence系统,提供书写工具、Genmojis表情和图像功能。 JetBrains更新"AI Assistant"应用,支持本地大语言模型调用,可直接使用DeepSeek等离线模型。

1 年前
12月6日,Meta AI推出了新开源模型Llama 3.3 70B。 Meta AI副总裁Ahmad Al-Dahle在社交媒体平台发布的一篇帖子中表示,这款仅支持文本的Llama 3.3 70B模型与Meta最大型模型Llama 3.1 405B的性能相当,但运行起来更简单、更经济高效。

1 年前
语言大模型(LLM)能够生成图片和视频的能力主要依赖于其多模态学习和生成技术。

1 年前
Meta的Transfusion模型代表了多模态AI领域的一个重要进展,成功地将Transformer架构与扩散模型(Diffusion models)结合起来,实现了对文本和图像的统一处理和生成。

1 年前
Meta推出了其 “分割一切AI” 的第二代——SAM2,不仅能实时处理任意长度的视频,连视频中从未见过的物体也能轻松分割追踪。

1 年前
据称,Llama3.1开源大模型的表现能力优于ChatGPT-4o。
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI