清晨好,您是今天最早来到科研通的研友!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您科研之路漫漫前行!

DepthCropSeg++: Scaling a Crop Segmentation Foundation Model With Depth-Labeled Data

分割 计算机科学 人工智能 机器学习 图像分割 一般化 精准农业 比例(比率) 模式识别(心理学) 深度学习 市场细分 任务(项目管理) 遥感 基础(证据) 数据挖掘 数据建模 增采样
作者
Jiafei Zhang,Songliang Cao,Binghui Xu,Yanan Li,Weiwei Jia,Tingting Wu,H. H. Lu,Weijuan Hu,Zhiguo Han
出处
期刊:IEEE Journal of Selected Topics in Signal Processing [Institute of Electrical and Electronics Engineers]
卷期号:20 (2): 129-141
标识
DOI:10.1109/jstsp.2026.3654362
摘要

We introduce DepthCropSeg++, a foundation model for crop segmentation, capable of segmenting different crop species under open in-field environment. Crop segmentation is a fundamental task for modern agriculture, which closely relates to many downstream tasks such as plant phenotyping, density estimation, and weed control. In the era of foundation models, a number of generic large language and vision models have been developed. These models have demonstrated remarkable realworld generalization due to significant model capacity and largescale datasets. However, current crop segmentation models mostly learn from limited data due to expensive pixel-level labelling cost, often performing well only under specific crop types or controlled environment. In this work, we follow the vein of our previous work DepthCropSeg, an almost unsupervised approach to crop segmentation, to scale up a cross-species and crossscene crop segmentation dataset, with 28,406 images across 30+ species and 15 environmental conditions. We also build upon a state-of-the-art semantic segmentation architecture ViT-Adapter architecture, enhance it with dynamic upsampling for improved detail awareness, and train the model with a two-stage selftraining pipeline. To systematically validate model performance, we conduct comprehensive experiments to justify the effectiveness and generalization capabilities across multiple crop datasets. Results demonstrate that DepthCropSeg++ achieves $93.11\%$ mIoU on a comprehensive testing set, outperforming both supervised baselines and general-purpose vision foundation models like Segmentation Anything Model (SAM) by significant margins ($+0.36\%$ and +$48.57\%$ respectively). The model particularly excels in challenging scenarios including night-time environment ($86.90\%$ mIoU), high-density canopies ($90.09\%$ mIoU), and unseen crop varieties ($90.09\%$ mIoU), indicating a new state of the art for crop segmentation.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
碧蓝雁风完成签到 ,获得积分0
刚刚
异烟肼发布了新的文献求助10
刚刚
allrubbish完成签到,获得积分10
1秒前
able完成签到 ,获得积分0
5秒前
无言完成签到 ,获得积分10
6秒前
乐观的星月完成签到 ,获得积分10
17秒前
czj完成签到 ,获得积分0
50秒前
酷波er应助wc采纳,获得10
53秒前
是真的完成签到 ,获得积分10
55秒前
古今奇观完成签到 ,获得积分10
1分钟前
炳灿完成签到 ,获得积分10
1分钟前
陈A完成签到 ,获得积分10
1分钟前
yy完成签到 ,获得积分10
1分钟前
搜集达人应助xingsixs采纳,获得10
1分钟前
1分钟前
甜美的觅荷完成签到,获得积分10
1分钟前
桐桐应助danli采纳,获得50
1分钟前
wc发布了新的文献求助10
1分钟前
小黄完成签到 ,获得积分10
1分钟前
晨风完成签到,获得积分10
1分钟前
Zhao完成签到,获得积分10
1分钟前
异烟肼完成签到 ,获得积分10
1分钟前
李健的粉丝团团长应助wc采纳,获得10
1分钟前
Microgan完成签到,获得积分10
1分钟前
wc关闭了wc文献求助
1分钟前
danli完成签到,获得积分20
1分钟前
拉长的芷烟完成签到 ,获得积分10
2分钟前
如泣草芥完成签到,获得积分0
2分钟前
2分钟前
SciGPT应助风中的小熊猫采纳,获得10
2分钟前
粗犷的月饼完成签到 ,获得积分10
2分钟前
danli发布了新的文献求助50
2分钟前
熊雅完成签到,获得积分10
2分钟前
xiaofeixia完成签到 ,获得积分10
2分钟前
2分钟前
2分钟前
wc发布了新的文献求助10
2分钟前
秀丽的芷珍完成签到 ,获得积分10
2分钟前
tiaotiao完成签到 ,获得积分10
2分钟前
李煜琛完成签到 ,获得积分10
2分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Inorganic Chemistry Eighth Edition 1200
Free parameter models in liquid scintillation counting 1000
Standards for Molecular Testing for Red Cell, Platelet, and Neutrophil Antigens, 7th edition 1000
The Organic Chemistry of Biological Pathways Second Edition 800
The Psychological Quest for Meaning 800
Signals, Systems, and Signal Processing 610
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6314286
求助须知:如何正确求助?哪些是违规求助? 8130481
关于积分的说明 17037255
捐赠科研通 5370115
什么是DOI,文献DOI怎么找? 2851151
邀请新用户注册赠送积分活动 1828949
关于科研通互助平台的介绍 1681102