前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >如何让 Mybatis 自动生成代码,提高开发效率

如何让 Mybatis 自动生成代码,提高开发效率

作者头像
JAVA葵花宝典
发布于 2020-11-13 03:37:09
发布于 2020-11-13 03:37:09
1.2K00
代码可运行
举报
文章被收录于专栏:JAVA葵花宝典JAVA葵花宝典
运行总次数:0
代码可运行
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
出处:https://www.cnblogs.com/homejim/p/9782403.html在使用 mybatis 过程中, 当手写 JavaBean和XML 写的越来越多的时候, 就越来越同意出错。这种重复性的工作, 我们当然不希望做那么多。

还好, mybatis 为我们提供了强大的代码生成--MybatisGenerator

通过简单的配置, 我们就可以生成各种类型的实体类, Mapper接口, MapperXML文件, Example对象等。通过这些生成的文件, 我们就可以方便的进行单表进行增删改查的操作。

以下的工具使用的都是 IDEA

1 创建代码生成器

1.1 创建Maven项目

1.1.1 菜单上选择新建项目

File | New | Project

1.1.2 选择左侧的Maven

由于我们只是创建一个普通的项目, 此处点击 Next即可。

1.1.3 输入GroupIdArtifactId

  • 在我的项目中,

GroupId 填 com.homejim.mybatis ArtifactId 填 mybatis-generator

点击 Next

1.1.4 Finish

通过以上步骤, 一个普通的Maven项目就创建好了。

1.2 配置 generator.xml

其实名字无所谓, 只要跟下面的 pom.xml 文件中的对应上就好了。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<?xml version="1.0" encoding="UTF-8" ?>
<!DOCTYPE generatorConfiguration PUBLIC
        "-//mybatis.org//DTD MyBatis Generator Configuration 1.0//EN"
        "http://mybatis.org/dtd/mybatis-generator-config_1_0.dtd" >
<generatorConfiguration>

    <!-- 本地数据库驱动程序jar包的全路径 -->
    <classPathEntry location="C:\Users\\Administrator\\.m2\repository\\mysql\\mysql-connector-java\\8.0.12\\mysql-connector-java-8.0.12.jar"/>
    <context id="context" targetRuntime="MyBatis3">
        <commentGenerator>
            <property name="suppressAllComments" value="false"/>
            <property name="suppressDate" value="true"/>
        </commentGenerator>

        <!-- 数据库的相关配置 -->
        <jdbcConnection
                driverClass="com.mysql.jdbc.Driver"
                connectionURL="jdbc:mysql://localhost:3306/mybatis"
                userId="root"
                password="jim777"/>

        <javaTypeResolver>
            <property name="forceBigDecimals" value="false"/>
        </javaTypeResolver>

        <!-- 实体类生成的位置 -->
        <javaModelGenerator
                targetPackage="com.homejim.mybatis.entity"
                targetProject=".\src\main\java">
            <property name="enableSubPackages" value="false"/>
            <property name="trimStrings" value="true"/>
        </javaModelGenerator>

        <!-- *Mapper.xml 文件的位置  sqlMapGenerator-->
        <sqlMapGenerator
                targetPackage="mybatis/mapper"
                targetProject=".\src\main\resources">
            <property name="enableSubPackages" value="false"/>
        </sqlMapGenerator>

        <!-- Mapper 接口文件的位置 -->
        <javaClientGenerator type="XMLMAPPER"
                             targetPackage="com.homejim.mybatis.mapper"
                             targetProject=".\src\main\java">
            <property name="enableSubPackages" value="false"/>
        </javaClientGenerator>

        <!-- 相关表的配置 -->

        <table tableName="blog" />
    </context>
</generatorConfiguration>

需要改一些内容:

  1. 本地数据库驱动程序jar包的全路径(必须要改)。
  2. 数据库的相关配置(必须要改
  3. 相关表的配置(必须要改
  4. 实体类生成存放的位置。
  5. MapperXML 生成文件存放的位置。
  6. Mapper 接口存放的位置。

如果不知道怎么改, 请看后面的配置详解

1.3 配置 pom.xml

在原基础上添加一些内容。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.homejim.mybatis</groupId>
    <artifactId>mybatis-generator</artifactId>
    <version>1.0-SNAPSHOT</version>
    <!--在原基础上添加 这些就好了-->
    <build>
        <finalName>mybatis-generator</finalName>
        <plugins>
            <plugin>
                <groupId>org.mybatis.generator</groupId>
                <artifactId>mybatis-generator-maven-plugin</artifactId>
                <version>1.3.7</version>
                <configuration>
                   <!--此处需要注意, 文件与上面的文件匹配-->
                   <configurationFile>src/main/resources/generator.xml</configurationFile>
                    <verbose>true</verbose>
                    <overwrite>true</overwrite>
                </configuration>
                <executions>
                    <execution>
                        <id>Generate MyBatis Artifacts</id>
                        <goals>
                            <goal>generate</goal>
                        </goals>
                    </execution>
                </executions>
                <dependencies>
                    <dependency>
                        <groupId>org.mybatis.generator</groupId>
                        <artifactId>mybatis-generator-core</artifactId>
                        <version>1.3.7</version>
                    </dependency>
                </dependencies>
            </plugin>
        </plugins>
    </build>
    <!--到此结束-->
</project>

需要注意的是 configurationFile 中的文件指的是 generator.xml。因此路径写的是该文件的相对路径, 名称也跟该文件相同。

到此, mybatis-generator 就可以使用啦。

1.4 使用及测试

1.4.1 打开 Maven Projects 视图

在 IDEA 上, 打开:

View | Tools | Windwos | Maven Projects

Maven项目窗口

1.4.2 Maven Projects 中双击 mybatis-generator

在右侧此时可以看到 Maven Projects 了。找到 mybatis-generator 插件。

mybatis-generator | Plugins | mybatis-generator | mybatis-generator

运行插件

1.4.3 双击运行

运行正确后, 生成代码, 得到如下的结构

2 XML 配置详解

仅仅是上面那么简单的使用还不够爽。那么我们就可以通过更改 generator.xml 配置文件的方式进行生成的配置。

2.1 优先

推荐查看官方的文档。

英文不错的:官方网站。

中文翻译版:翻译版网站

2.2 官网没有的

2.2.1 property 标签

该标签在官网中只是说用来指定元素的属性, 至于怎么用没有详细的讲解。

2.2.1.1 分隔符相关
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<property name="autoDelimitKeywords" value="true"/>
<property name="beginningDelimiter" value="`"/>
<property name="endingDelimiter" value="`"/>

以上的配置对应的是 mysql当数据库中的字段和数据库的关键字一样时, 就会使用分隔符。

比如我们的数据列是 delete, 按以上的配置后, 在它出现的地方, 就变成 delete

2.2.1.2 编码

默认是使用当前的系统环境的编码, 可以配置为 GBK 或 UTF-8。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<property name="javaFileEncoding" value="UTF-8"/>

我想项目为 UTF-8, 如果指定生成 GBK, 则自动生成的中文就是乱码。

2.2.1.3 格式化
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<!--格式化生成的 Java 代码-->
<property name="javaFormatter" value="org.mybatis.generator.api.dom.DefaultJavaFormatter"/>
<!--格式化生成的 XML-->
<property name="xmlFormatter" value="org.mybatis.generator.api.dom.DefaultXmlFormatter"/>

这些显然都是可以自定义实现的的。

2.2.2 plugins 标签

plugins 标签用来扩展或修改代码生成器生成的代码。

在生成的 XML 中, 是没有 **** 这个标签的。该标签是配置缓存的。

如果我们想生成这个标签, 那么可以 plugins 中进行配置。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<plugin type="org.mybatis.generator.plugins.CachePlugin" >
            <property name="cache_eviction" value="LRU"/>
</plugin>

cache

比如你想生成的 JavaBean 中自行实现 Serializable 接口。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<plugin type="org.mybatis.generator.plugins.SerializablePlugin" />

序列化接口实现

还能自定义插件。

这些插件都蛮有用的, 感觉后续可以专门开一篇文章来讲解。

2.2.3 commentGenerator 标签

看名称, 就知道是用来生成注释用的。

默认配置:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
    <commentGenerator >
        <property name="suppressAllComments" value="false"/>
        <property name="suppressDate" value="false"/>
        <property name="addRemarkComments" value="false"/>
    </commentGenerator>

suppressAllComments:阻止生成注释, 默认值是false。

suppressDate: 阻止生成的注释包含时间戳, 默认为false。

addRemarkComments: 注释中添加数据库的注释, 默认为 false。

还有一个就是我们可以通过 type 属性指定我们自定义的注解实现类, 生成我们自己想要的注解。自定义的实现类需要实现 org.mybatis.generator.api.CommentGenerator

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
推荐阅读

代码对比工具,我就用这6个
分享我常用的5个免费的在线 SQL 数据库环境,简直太方便了!
Spring Boot 三招组合拳,手把手教你打出优雅的后端接口
MySQL 5.7 vs 8.0,你选那个?网友:我继续原地踏步~
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-11-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 JAVA葵花宝典 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
中科大、中科院、南大提出 Vision-Language 模型, ContCoOp 为 VLMs 高效微调与模型升级搭桥 !
随着人工智能技术的飞速发展,其在各个领域的应用日益广泛。本文旨在探讨人工智能技术在当前的研究进展、应用前景以及所面临的挑战。通过对现有文献的梳理和分析,本文将全面展示人工智能领域的最新研究成果和发展趋势。
未来先知
2025/02/07
1550
中科大、中科院、南大提出 Vision-Language 模型, ContCoOp 为 VLMs 高效微调与模型升级搭桥 !
NODE-Adapter:神经常微分方程助力更优视觉-语言推理!
这些挑战将阻碍它们将视觉-语言模型(VLMs)适应于下游任务的能力。受到这一关键观察的启发,作者提出了一种新颖的方法,称为NODE-Adapter,该方法利用神经常微分方程进行更优的视觉-语言推理。 为了充分利用视觉和文本模态,并更有效、更准确地估计类别原型,作者将方法分为两个阶段:跨模态原型构建和利用神经常微分方程进行跨模态原型优化。具体来说,作者利用VLM将手工制作的提示编码为文本特征,将少样本支持图像编码为视觉特征。 然后,作者分别通过对文本特征和视觉特征取平均来估计文本原型和视觉原型,并将文本原型和视觉原型自适应地结合构建跨模态原型。 为了减轻原型偏差,作者将原型优化过程建模为一个初值问题,使用神经常微分方程来估计连续梯度流。 作者广泛的实验结果,包括少样本分类、域泛化和人-物交互视觉推理,证明了提出的方法显著优于现有的最先进方法。
AIGC 先锋科技
2024/07/31
2450
NODE-Adapter:神经常微分方程助力更优视觉-语言推理!
高效的测试时间促进视觉语言模型的训练 !
开放集图像分类是计算机视觉领域一个基本且具有挑战性的任务。最近,视觉语言模型(VLMs)在这个领域展现出了强大的能力。一个突出的模型是CLIP (Radford等人,2021年),将图像和语言编码到统一的嵌入空间中,通过测量图像表示和文本类描述之间的相似度来进行分类。
未来先知
2024/08/29
2330
高效的测试时间促进视觉语言模型的训练 !
IJCV 2025 | 基于对比特征重构的渐进式视觉提示学习
提示学习作为一种有吸引力的替代传统微调范式的方法,可使预训练的视觉语言(V-L)模型适应下游任务。受自然语言处理中提示学习成功的启发,早期研究主要集中在基于文本的提示策略上。相比之下,V-L模型中的视觉提示尚未得到充分利用。将现有的为视觉变换器(ViT)设计的视觉提示方法直接应用到V-L模型中,往往会导致性能不佳或训练不稳定。为了应对这些挑战,本文提出了一种名为渐进式视觉提示(ProVP)的新结构。该设计旨在加强相邻层提示之间的交互,从而以一种类似实例特定的方式,更有效地将图像嵌入传播到更深的层。此外,为了解决可学习提示在训练期间泛化能力下降的常见问题,作者进一步引入了一种用于视觉提示学习的对比特征重构技术。该方法可防止提示后的视觉特征与固定的CLIP视觉特征分布出现显著偏差,确保其具有更好的泛化能力。结合ProVP和对比特征重构技术,作者提出的方法ProVP-Ref显著稳定了训练过程,并增强了V-L模型中视觉提示学习的适应性和泛化能力。为了证明该方法的有效性,作者在11个图像数据集上对ProVP-Ref进行了评估,在少样本学习和基类到新类泛化设置下,在其中7个数据集上取得了最先进的结果。据作者所知,这是第一项展示视觉提示在V-L模型中比该领域以前的文本提示方法性能更优的研究。
小白学视觉
2025/03/31
1570
IJCV 2025 | 基于对比特征重构的渐进式视觉提示学习
提升CLIP性能,IntCoOp联合学习在零样本学习中的优势 !
近年来,在视觉语言模型领域取得了重大进展,例如CLIP、Flamingo 、ALIGN 和CoCa。这些模型通过结合两个基本组成部分,在获取可迁移且鲁棒的图像表示方面取得了卓越成就:
未来先知
2024/08/08
4000
提升CLIP性能,IntCoOp联合学习在零样本学习中的优势 !
南大 & 上海 Ai Lab AWT 框架 | 革新视觉-语言模型的零样本与少样本学习能力,提升语义相关性挖掘 !
近期在视觉语言模型(VLMs)方面取得了进展,这些模型经过大规模的网络图像文本对预训练,已经在各种分类任务中表现出显著的成功。VLMs被训练以将图像与相关的文本描述相联系。在标准协议(图1(a))中,原始图像和类别名称被投射到一个联合视觉语言嵌入空间中,选择距离图像表示最近的类别作为预测结果。
AIGC 先锋科技
2024/07/20
2510
南大 & 上海 Ai Lab   AWT 框架 | 革新视觉-语言模型的零样本与少样本学习能力,提升语义相关性挖掘 !
从梯度下降到动态提示:IPO 如何利用 LLMs 改善视觉语言模型的训练?
视觉语言模型,经过在包含广泛真实世界概念的图像文本对上进行训练 ,在各种下游任务上表现出显著的适应性 。这些模型通过填充预定义的 Prompt 模板(例如,“一张[CLASS]的照片”)来完成特定的类名填充文本编码器。尽管它们在新任务上的有效泛化,但 Prompt 模板的词序变化可能会影响性能 [8]。手动创建手工制作的 Prompt 已经过时,自然语言处理 [9; 10] 和计算机视觉最近的发展提出了学习一组软 Prompt 的方法,所需的 Token 数据最小。尽管在 Prompt 学习方面取得了进步,但目前的最佳状态仍受限于其缺乏可解释性和基础类上的过拟合问题,这在多样化和动态应用环境中可能具有阻碍作用。这些限制强调了在视觉语言模型中优化 Prompt 的必要性。
未来先知
2025/01/02
1330
从梯度下降到动态提示:IPO 如何利用 LLMs 改善视觉语言模型的训练?
清华大学提出CapS-Adapter | 利用CLIP的单模态和跨模态优势,通过使用多模态支持集提高了预测准确性!
视觉-语言基础模型(VLMs)[17, 21, 29]的最新进展在各个计算机视觉任务上取得了显著的进步。这些模型展现出了强大的零样本能力,这是由于它们在大规模图像-文本配对数据集上进行了预训练,其中一个突出的例子是CLIP。当将VLMs应用于下游任务时,如果下游数据集的数据分布与VLMs预训练时使用的图像分布存在显著差异,其零样本性能会大幅度下降[10]。
AIGC 先锋科技
2024/07/08
6180
清华大学提出CapS-Adapter | 利用CLIP的单模态和跨模态优势,通过使用多模态支持集提高了预测准确性!
对比感知校准(CAC)多模态方法,为视觉语言模型开放词汇任务校准难题破局 !
视觉-语言模型,如CLIP,在庞大的网络规模文本-图像数据集上进行预训练,已在各种下游图像分类任务中展现出令人印象深刻的零样本能力和图像-文本对齐能力。针对少量 Token 数据提升视觉语言模型(VLM)在特定任务上的性能,已经提出了多种 Prompt 学习方法。
AIGC 先锋科技
2025/03/03
1470
对比感知校准(CAC)多模态方法,为视觉语言模型开放词汇任务校准难题破局 !
结合异构图神经网络,HeGraphAdapter 提升 CLIP 模型性能研究 !
最近,大规模的视觉语言模型(VLMs),如CLIP [1]及其变体,为计算机视觉提供了一种新范式,并在许多下游任务上表现出优越的泛化性能,例如零样本泛化[5],少样本分类[6]和跨分布(OOD)检测。VLMs通常预先在数百万对视觉语言数据上进行训练,使它们能够理解开放词汇视觉概念。它们在与手工艺文本 Prompt (如“一张{类别}的照片”)结合时,展示了出色的泛化能力。
AIGC 先锋科技
2024/12/19
3720
结合异构图神经网络,HeGraphAdapter 提升 CLIP 模型性能研究 !
CLIPex 用以增强如CLIP之类的大型视觉语言模型(VLMs)的可解释性 !
大型视觉语言模型(VLMs),如CLIP ,彻底改变了图像分类。尽管早期的深度分类模型如AlexNet 和ResNet 取得了进展,但它们处理开放词汇分类的能力对它们在各种领域的适应性贡献显著。此外,通过在特定数据集上对它们进行微调,它们达到了惊人的准确度。
AIGC 先锋科技
2024/07/08
1950
CLIPex 用以增强如CLIP之类的大型视觉语言模型(VLMs)的可解释性 !
LLM 与 BiomedCLIP 携手提升生物医学图像 Prompt 学习的准确性与泛化性 !
最近,视觉语言模型(VLMs)如CLIP在视觉任务的自监督表示学习方面取得了显著成功。然而,有效地将VLMs应用到下游任务仍具有挑战性,因为它们的准确性通常依赖于耗时且需要专业知识的时间密集型 Prompt 工程,而全模型微调则成本高昂。
AIGC 先锋科技
2025/02/05
4190
LLM 与 BiomedCLIP 携手提升生物医学图像 Prompt 学习的准确性与泛化性 !
在线高斯自适应革新 OTTA 视觉语言模型 !
视觉-语言对齐已成为一种强大的范式,可用于预训练模型,这些模型能够处理各种下游任务,且在少量或没有 Token 数据的情况下也能胜任。如CLIP[19]这样的对比方法通过联合优化视觉编码器和文本编码器来学习可迁移的视觉表示,从而对配对图像和标题的表示进行对齐。这使创建图像分类器成为可能,而无需重新训练模型,只需使用类别的文本描述。随后,分类过程仅仅依赖于测量文本特征与图像特征之间的相似度,从而实现零样本预测。这已经在广泛认可的监督学习基准,如ImageNet[3]上展示了令人印象深刻的零样本性能。这一成功激励了对适应视觉-语言模型(VLMs)以处理未见任务的方法的研究,从而绕过了重新训练模型的需求,无论是通过 Prompt 优化[20, 32]、低秩适应[26]还是在嵌入空间中的 Adapter 。这些后一种方法特别引人关注,因为它们不需要访问模型权重——被称为黑盒方法——这使得它们适用于基于API的应用。
AIGC 先锋科技
2025/02/10
1530
在线高斯自适应革新 OTTA 视觉语言模型  !
【他山之石】ICLR 2024 | 跨领域准确进行零样本异常检测,浙大等提出AnomalyCLIP!
“他山之石,可以攻玉”,站在巨人的肩膀才能看得更高,走得更远。在科研的道路上,更需借助东风才能更快前行。为此,我们特别搜集整理了一些实用的代码链接,数据集,软件,编程技巧等,开辟“他山之石”专栏,助你乘风破浪,一路奋勇向前,敬请关注!
马上科普尚尚
2024/05/06
7980
【他山之石】ICLR 2024 | 跨领域准确进行零样本异常检测,浙大等提出AnomalyCLIP!
清华&MBZUAI&CMU&牛津提出DenseCLIP,用上下文感知的提示进行语言引导密集预测!代码已开源!
最近的研究表明,使用对比图像文本对进行大规模的预训练可能是从自然语言监督中学习高质量视觉表示的有前途的方法。得益于更广泛的监督来源,这一新范式在下游分类任务和可迁移性方面展现出了不错的结果。
CV君
2021/12/15
1.3K0
清华&MBZUAI&CMU&牛津提出DenseCLIP,用上下文感知的提示进行语言引导密集预测!代码已开源!
加州大学通过知识提炼增强CLIP概念的渗透,从 CLIP 到 KnowledgeCLIP 大语言模型赋能视觉语言融合 !
多模态编码器在视觉语言领域的预训练,例如CLIP(Radford等,2021),已被发现对学习源自图像和文本配对数据的可转移特征非常有益。CLIP的学习框架是对比式的,通常依赖于数据增强以消除不必要的插入和捷径。
AIGC 先锋科技
2025/01/14
2850
加州大学通过知识提炼增强CLIP概念的渗透,从 CLIP 到 KnowledgeCLIP 大语言模型赋能视觉语言融合 !
改进视觉-语言概念瓶颈模型中的概念匹配 !
概念瓶颈模型(CBM)[14]是构建具有高级概念的可解释模型的一种流行选择。这些模型首先将输入图像映射到一个低维的(因此有“瓶颈”一词)专家定义的概念空间,其中每个概念都可以被人类容易理解。例如,朱红捕蝇鸟这一鸟类物种可以有“红色身体”、“黑色翅膀”和“红色冠”等概念。然后,一个线性分类器在这些概念之上进行类别预测。构建CBM有两个基本要求:一个定义良好的、无歧义的概念集以及每个样本的相应概念标签。近期的方法[25, 46]通过利用大型语言模型(LLM)和视觉语言模型(VLM)来自动化上述步骤,并将CBM扩展到更大的数据集(如ImageNet)。它们通常涉及通过用少量样本提示LLM来生成一个初始概念集,然后提取那些有利于区分(分类)的概念子集。当图像和这个经过筛选的概念集3作为输入传递给经过对比预训练的VLM时,其图像-文本对齐分数作为该样本的“概念分数或概念标签”。这些概念标签可以用来训练另一个CBM分类器,或者直接用来预测类别,从而将VLM转变为CBM(从此处起称为VL-CBM)。尽管LLM拥有丰富的世界知识,并且可以在任何领域生成潜在的(大量)概念集,但在某些情况下,专家定义的概念更为合适。
AIGC 先锋科技
2024/08/19
2510
改进视觉-语言概念瓶颈模型中的概念匹配 !
利用大型语言模型和扩散模型大规模生成视觉最小变化数据,提升VLMs的细粒度理解能力 !
细粒度地理解目标、属性及其关系对于视觉-语言模型(VLMs)有效泛化到新的、未见过的场景和构图至关重要。以往的研究如ARO [40] 和 Sugarcrepe [8],强调了VLMs在这一领域的不足,主要关注于理解两个非常相似的标题之间的细粒度差异——一个人工编写的标题和自动生成的硬负例2标题,其中硬负例标题与原标题仅在目标、属性或两个目标之间的关系上有所不同。虽然可以通过基于规则的方法合成标题的硬负例,但为图像合成这样的硬负例则非常具有挑战性。
AIGC 先锋科技
2024/07/31
3580
利用大型语言模型和扩散模型大规模生成视觉最小变化数据,提升VLMs的细粒度理解能力 !
超越语义理解,VLMs通过像素值预测增强视觉细节感知能力 !
大型语言模型(LLMs)彻底改变了人工智能领域,使得机器能够以惊人的表现感知和生成人类般的文本。随着这一进步,基于LLM的视觉语言模型(VLMs)正在迅速发展,并在视觉和语言的跨领域内。最近的一些VLMs,如,在多个视觉语言任务上表现出色,包括视觉问答(VQA)和指代表达理解(REC)。通常,这些基于LLM的VLMs采用类似的建模设计:一个预训练的视觉编码器来提取视觉特征,一个映射模块将这些特征与语言空间对齐,以及一个LLM进行推理。
AIGC 先锋科技
2024/08/13
3290
超越语义理解,VLMs通过像素值预测增强视觉细节感知能力 !
突破边界:探索Grounding-DINO,重新定义视觉与语言的交汇
Grounding-DINO 是一种创新的视觉-语言模型,旨在提升视觉推理和对象检测任务的表现。Grounding-DION的独特之处在于其能够“感知”并与语言中的实体或属性对应,从而精确定位图像中的目标,并根据文本描述进行分类和推理。该模型不仅提高了多模态任务的准确性,还在跨模态推理领域展示了卓越的应用潜力,适用于复杂的视觉理解和交互场景。
CoovallyAIHub
2025/01/09
5660
突破边界:探索Grounding-DINO,重新定义视觉与语言的交汇
推荐阅读
中科大、中科院、南大提出 Vision-Language 模型, ContCoOp 为 VLMs 高效微调与模型升级搭桥 !
1550
NODE-Adapter:神经常微分方程助力更优视觉-语言推理!
2450
高效的测试时间促进视觉语言模型的训练 !
2330
IJCV 2025 | 基于对比特征重构的渐进式视觉提示学习
1570
提升CLIP性能,IntCoOp联合学习在零样本学习中的优势 !
4000
南大 & 上海 Ai Lab AWT 框架 | 革新视觉-语言模型的零样本与少样本学习能力,提升语义相关性挖掘 !
2510
从梯度下降到动态提示:IPO 如何利用 LLMs 改善视觉语言模型的训练?
1330
清华大学提出CapS-Adapter | 利用CLIP的单模态和跨模态优势,通过使用多模态支持集提高了预测准确性!
6180
对比感知校准(CAC)多模态方法,为视觉语言模型开放词汇任务校准难题破局 !
1470
结合异构图神经网络,HeGraphAdapter 提升 CLIP 模型性能研究 !
3720
CLIPex 用以增强如CLIP之类的大型视觉语言模型(VLMs)的可解释性 !
1950
LLM 与 BiomedCLIP 携手提升生物医学图像 Prompt 学习的准确性与泛化性 !
4190
在线高斯自适应革新 OTTA 视觉语言模型 !
1530
【他山之石】ICLR 2024 | 跨领域准确进行零样本异常检测,浙大等提出AnomalyCLIP!
7980
清华&MBZUAI&CMU&牛津提出DenseCLIP,用上下文感知的提示进行语言引导密集预测!代码已开源!
1.3K0
加州大学通过知识提炼增强CLIP概念的渗透,从 CLIP 到 KnowledgeCLIP 大语言模型赋能视觉语言融合 !
2850
改进视觉-语言概念瓶颈模型中的概念匹配 !
2510
利用大型语言模型和扩散模型大规模生成视觉最小变化数据,提升VLMs的细粒度理解能力 !
3580
超越语义理解,VLMs通过像素值预测增强视觉细节感知能力 !
3290
突破边界:探索Grounding-DINO,重新定义视觉与语言的交汇
5660
相关推荐
中科大、中科院、南大提出 Vision-Language 模型, ContCoOp 为 VLMs 高效微调与模型升级搭桥 !
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档