CAISFormer: Channel-wise attention transformer for image steganography

计算机科学 封面(代数) 隐写术 人工智能 特征(语言学) 嵌入 频道(广播) 图像(数学) 模式识别(心理学) 特征提取 计算机视觉 电信 工程类 机械工程 语言学 哲学
作者
Yuhang Zhou,Ting Luo,Zhouyan He,Gangyi Jiang,Haiyong Xu,Chin‐Chen Chang
出处
期刊:Neurocomputing [Elsevier BV]
卷期号:603: 128295-128295 被引量:2
标识
DOI:10.1016/j.neucom.2024.128295
摘要

Current Transformer-based image steganography cannot embed data properly without considering the correlation of the cover image and the secret image. In addition, to save computational complexity, spatial-wise Transformer is often used to apply in small spatial windows, which limits the extraction of the global feature. To solve those limitations, we present a channel-wise attention Transformer model for image steganography (CAISFormer), which aims to construct long-range dependencies for identifying inconspicuous positions to embed data. A channel self-attention module (CSAM) is deployed to focus the feature channels suitable for data hiding by establishing channel relationships. Meanwhile, a non-linear enhancement (NLE) layer is employed to enhance the beneficial features while weaken the irrelevant ones. For building feature coupling between the cover image and the secret image, a channel-wise cross attention module (CCAM) is designed to fine-tune cover image features by capturing their cross-dependencies. In addition, for concealing data properly, a global-local aggregation module (GLAM) is deployed to adjust fused features by combining global and local attention, which can focus on inconspicuous and texture regions, respectively. The experimental results demonstrate that CAISFormer obtains PSNR gains of more than 0.36 dB and 0.90 dB for the cover/stego image pair and the secret/recovery image pair, respectively, and the detection ratio is decreased by 3.43%, in single image hiding compared to the state-of-the-art. Moreover, the generalization ability is also proved across a variety of datasets. The code will be made publicly available at https://github.com/YuhangZhouCJY/CAISFormer.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
LINDENG2004完成签到 ,获得积分10
5秒前
Xulun完成签到,获得积分10
11秒前
SOL完成签到 ,获得积分10
11秒前
大个应助科研通管家采纳,获得10
18秒前
沉静高山完成签到,获得积分10
19秒前
无为完成签到 ,获得积分10
21秒前
蒲蒲完成签到 ,获得积分10
23秒前
24秒前
谨慎鹏涛完成签到 ,获得积分10
27秒前
诺亚方舟哇哈哈完成签到 ,获得积分0
27秒前
沉静高山发布了新的文献求助100
28秒前
肖雪依完成签到,获得积分10
30秒前
31秒前
Never stall完成签到 ,获得积分10
32秒前
Herbs完成签到 ,获得积分10
34秒前
37秒前
送不送书7完成签到 ,获得积分10
39秒前
醉熏的飞薇完成签到,获得积分10
39秒前
海阔天空发布了新的文献求助10
40秒前
真真完成签到 ,获得积分10
47秒前
HDD完成签到,获得积分10
48秒前
过柱子完成签到,获得积分10
48秒前
lingling完成签到 ,获得积分10
49秒前
王佳豪完成签到,获得积分10
55秒前
海阔天空完成签到,获得积分10
55秒前
发嗲的慕蕊完成签到 ,获得积分10
58秒前
喵了个咪完成签到 ,获得积分10
1分钟前
zz完成签到,获得积分10
1分钟前
iwaking完成签到,获得积分10
1分钟前
文静的峻熙完成签到,获得积分10
1分钟前
liciky完成签到 ,获得积分10
1分钟前
1分钟前
CHEN完成签到 ,获得积分10
1分钟前
1分钟前
bkagyin应助licui采纳,获得10
1分钟前
小young完成签到 ,获得积分10
1分钟前
荣浩宇完成签到 ,获得积分10
1分钟前
科研狗完成签到 ,获得积分0
1分钟前
1分钟前
玉yu完成签到 ,获得积分10
1分钟前
高分求助中
Les Mantodea de Guyane: Insecta, Polyneoptera [The Mantids of French Guiana] 2500
Future Approaches to Electrochemical Sensing of Neurotransmitters 1000
Electron microscopy study of magnesium hydride (MgH2) for Hydrogen Storage 1000
Finite Groups: An Introduction 800
壮语核心名词的语言地图及解释 700
ВЕРНЫЙ ДРУГ КИТАЙСКОГО НАРОДА СЕРГЕЙ ПОЛЕВОЙ 500
ВОЗОБНОВЛЕН ВЫПУСК ЖУРНАЛА "КИТАЙ" НА РУССКОМ ЯЗЫКЕ 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3906993
求助须知:如何正确求助?哪些是违规求助? 3452391
关于积分的说明 10870280
捐赠科研通 3178271
什么是DOI,文献DOI怎么找? 1755864
邀请新用户注册赠送积分活动 849148
科研通“疑难数据库(出版商)”最低求助积分说明 791387