Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >USenhance2023——2023 年超声图像增强挑战赛

USenhance2023——2023 年超声图像增强挑战赛

作者头像
医学处理分析专家
发布于 2023-08-17 01:23:18
发布于 2023-08-17 01:23:18
66603
代码可运行
举报
运行总次数:3
代码可运行

今天将分享低质量超声图像生成高质量超声图像的完整实现版本,为了方便大家学习理解整个流程,将整个流程步骤进行了整理,并给出详细的步骤结果。感兴趣的朋友赶紧动手试一试吧。

一、USenhance2023介绍

超声成像常用于辅助疾病诊断和治疗,具有无创性优势。最近,医学超声显示出从医院昂贵的大型机器到更广泛使用的经济型手持设备的前景。障碍在于,由于硬件限制,使用手持设备进行超声检查存在成像质量低的缺点。为此,超声图像增强提供了一种潜在的低成本解决方案。使用计算机算法从低质量图像恢复高质量图像将免除硬件改进的要求,并促进超声设备革命和更广泛的应用。

二、USenhance2023任务

从低质量图像重建高质量超声图像。

三、USenhance2023数据集

提供五个器官的各种超声数据,包括甲状腺、颈动脉、肝脏、乳房和肾脏,来自109名患者的总共3000张超声图像(1500 对低质量和高质量图像)。

评价指标:(峰值信噪比)PSNR,(结构相似性)SSIM,(局部归一化互相关)LNCC,(使用预训练分割模型在增强图像上进行病变分割 Dice)Dice,(用于处理一张图像的平均秒数)运行时间。

四、技术路线

1、分析超声图像可以看到低质量图像和高质量图像不具有空间位置一一对应的关系,采用GAN网络的生成器将低质量图像生成高质量图,然后再通过判别器来区分真实高质量图像和生成高质量图像。

2、由于超声图像是灰度图像所以对低质量和高质量图像都进行0-1范围归一化处理即可。然后将数据分成训练集和验证集。

3、搭建WGAN网络,生成器网络采用Vnet2d,判别器网络采用VGG8,生成器和判别器都使用Adam优化器,学习率是0.0001,batchsize是32,epoch是600,损失函数是采用对抗损失即生成器要求判别网络对生成的图像趋向于真,而判别器要求判别网络能够区分真实图像和生成图像,也就是真实图像趋向于真,生成图像趋向于假。

4、训练结果和验证结果

5、验证集部分生成结果

左图是低质量图像,中间是生成的高质量图像,右边是真实高质量图像。

6、测试集部分生成结果

左图是低质量图像,右图是生成的高质量图像。

如果大家觉得这个项目还不错,希望大家给个Star并Fork,可以让更多的人学习。如果有任何问题,随时给我留言我会及时回复的。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-08-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 最新医学影像技术 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Qwen7b微调保姆级教程
前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于各种开源LLM模型的,同时支持多轮和单轮对话数据集的大模型高效微调范例。
lyhue1991
2023/09/17
2.1K0
Qwen7b微调保姆级教程
Baichuan-13B 保姆级微调范例
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的Baichuan-13B-Chat的finetune教程~
lyhue1991
2023/09/05
1.4K0
Baichuan-13B 保姆级微调范例
BaiChuan13B多轮对话微调范例
前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于多轮对话数据集的大模型高效微调范例。
lyhue1991
2023/09/05
1.1K0
BaiChuan13B多轮对话微调范例
单样本微调给ChatGLM2注入知识~
前方干货预警:这可能也是一篇会改变你对LLM微调范式,以及对LLM原理理解的文章。
lyhue1991
2023/09/05
9560
单样本微调给ChatGLM2注入知识~
60分钟吃掉ChatGLM2-6b微调范例~
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源LLM的finetune教程~
lyhue1991
2023/09/05
8030
60分钟吃掉ChatGLM2-6b微调范例~
微调BaiChuan13B来做命名实体识别
传统上,一般把NLP的研究领域大致分为自然语言理解(NLU)和自然语言生成(NLG)两种。
lyhue1991
2023/09/05
6980
微调BaiChuan13B来做命名实体识别
微调llama2模型教程:创建自己的Python代码生成器
本文将演示如何使用PEFT、QLoRa和Huggingface对新的lama-2进行微调,生成自己的代码生成器。所以本文将重点展示如何定制自己的llama2,进行快速训练,以完成特定任务。
deephub
2023/08/30
1.3K0
微调llama2模型教程:创建自己的Python代码生成器
【LLM训练系列01】Qlora如何加载、训练、合并大模型
参考脚本:https://github.com/QwenLM/Qwen/blob/main/recipes/finetune/deepspeed/finetune_qlora_multi_gpu.ipynb
致Great
2024/11/23
2940
【LLM训练系列01】Qlora如何加载、训练、合并大模型
使用QLoRa微调Llama 2
上篇文章我们介绍了Llama 2的量化和部署,本篇文章将介绍使用PEFT库和QLoRa方法对Llama 27b预训练模型进行微调。我们将使用自定义数据集来构建情感分析模型。只有可以对数据进行微调我们才可以将这种大模型进行符合我们数据集的定制化。
deephub
2023/08/30
6840
使用QLoRa微调Llama 2
使用QLoRA对Llama 2进行微调的详细笔记
使用QLoRA对Llama 2进行微调是我们常用的一个方法,但是在微调时会遇到各种各样的问题,所以在本文中,将尝试以详细注释的方式给出一些常见问题的答案。这些问题是特定于代码的,大多数注释都是针对所涉及的开源库以及所使用的方法和类的问题。
deephub
2023/09/22
6.2K0
使用QLoRA对Llama 2进行微调的详细笔记
【LLM训练系列04】手把手教你Qlora微调
IGNORE_TOKEN_ID 是一个常量,通常用于在训练过程中忽略某些特定的标签或输入。它的作用是告诉模型在计算损失时不考虑这些特定的标签或输入。
致Great
2024/12/21
2060
【LLM训练系列04】手把手教你Qlora微调
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
之前陆续写了Qwen1.5、Qwen2.0、GLM-4等国产开源大模型的原理、训练及推理相关的文章,每一篇都拿到了热榜第一,但其中训练部分均基于Llama-factory框架,对于工程师而言,最喜欢的就是刨根问底,使用中间层的训练框架,还是少一些“安全感”。今天我们抛开中间框架,深入底层,一步一步带大家微调一个大模型。
LDG_AGI
2024/08/13
1.6K0
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
谷歌Gemma介绍、微调、量化和推理
谷歌的最新的Gemma模型是第一个使用与Gemini模型相同的研究和技术构建的开源LLM。这个系列的模型目前有两种尺寸,2B和7B,并且提供了聊天的基本版和指令版。
deephub
2024/03/01
2.1K0
谷歌Gemma介绍、微调、量化和推理
解密Prompt系列6. lora指令微调扣细节-请冷静,1个小时真不够~
上一章介绍了如何基于APE+SELF自动化构建指令微调样本。这一章咱就把微调跑起来,主要介绍以Lora为首的低参数微调原理,环境配置,微调代码,以及大模型训练中显存和耗时优化的相关技术细节
风雨中的小七
2023/04/29
10.4K1
解密Prompt系列6. lora指令微调扣细节-请冷静,1个小时真不够~
使用ORPO微调Llama 3
ORPO是一种新的微调技术,它将传统的监督微调和偏好对齐阶段结合到一个过程中。减少了训练所需的计算资源和时间。论文的实证结果表明,ORPO在各种模型大小和基准上都优于其他对齐方法,所以这次我们就来使用最新的Llama 3来测试下ORPO的效果。
deephub
2024/04/26
4660
使用ORPO微调Llama 3
QLoRa:在消费级GPU上微调大型语言模型
大多数大型语言模型(LLM)都无法在消费者硬件上进行微调。例如,650亿个参数模型需要超过780 Gb的GPU内存。这相当于10个A100 80gb的gpu。就算我们使用云服务器,花费的开销也不是所有人都能够承担的。
deephub
2023/08/30
1K0
QLoRa:在消费级GPU上微调大型语言模型
ChatGLM-6B使用、微调、训练
https://github.com/THUDM/ChatGLM-6B模型3月14日开源后,Github Star增速惊人,连续12天位列全球大模型下载榜第一名。
Dlimeng
2024/01/13
1.9K0
ChatGLM-6B使用、微调、训练
GLM4大模型微调入门实战(完整代码)
以GLM4作为基座大模型,通过指令微调的方式做高精度文本分类,是学习LLM微调的入门任务。
用户9029617
2024/06/12
1.9K0
GLM4大模型微调入门实战(完整代码)
“超级AI助手:全新提升!中文NLP训练框架,快速上手,海量训练数据,ChatGLM-v2、中文Bloom、Dolly_v2_3b助您实现更智能的应用!”
在文件code02_训练模型全部流程.ipynb的cell-5代码的前面,创建一个新的cell,然后把下面的代码放到这个cell里面
汀丶人工智能
2023/10/11
5550
“超级AI助手:全新提升!中文NLP训练框架,快速上手,海量训练数据,ChatGLM-v2、中文Bloom、Dolly_v2_3b助您实现更智能的应用!”
使用BERT进行文本分类
准备数据阶段主要需要用到的是datasets.Dataset 和transformers.AutoTokenizer。
lyhue1991
2023/09/05
7240
使用BERT进行文本分类
推荐阅读
相关推荐
Qwen7b微调保姆级教程
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验