首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >LeetCode-175. 组合两个表

LeetCode-175. 组合两个表

作者头像
悠扬前奏
发布于 2019-05-28 06:44:47
发布于 2019-05-28 06:44:47
57200
举报
运行总次数:0

题目

描述

表1: Person

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
+-------------+---------+
| 列名         | 类型     |
+-------------+---------+
| PersonId    | int     |
| FirstName   | varchar |
| LastName    | varchar |
+-------------+---------+

PersonId 是上表主键 表2: Address

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
+-------------+---------+
| 列名         | 类型    |
+-------------+---------+
| AddressId   | int     |
| PersonId    | int     |
| City        | varchar |
| State       | varchar |
+-------------+---------+

AddressId 是上表主键

编写一个 SQL 查询,满足条件:无论 person 是否有地址信息,都需要基于上述两表提供 person 的以下信息:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
FirstName, LastName, City, State

解答

代码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# Write your MySQL query statement below
select
FirstName
, LastName
, City
, State
from Person
left join Address using(PersonId)
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019.03.19 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
本节主要重点是带领大家实现个人小助手微调,如果想了解微调相关的基本概念,可以访问XTuner微调前置基础。
流川疯
2024/08/15
4060
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
XTuner 微调
创建一个虚拟环境。使用Anaconda创建一个名为xtuner03的虚拟环境,可以直接执行命令
用户10497140
2024/10/07
2810
XTuner  微调
《书生·浦语大模型实战营》第4课 学习笔记:XTuner 微调 LLM:1.8B、多模态、Agent
假如在这一过程中没有出现任何的报错的话,那也就意味着我们成功安装好支持 XTuner 所运行的环境啦。其实对于很多的初学者而言,安装好环境意味着成功了一大半!因此我们接下来就可以进入我们的第二步,准备好我们需要的数据集、模型和配置文件!
流川疯
2024/06/12
6020
《书生·浦语大模型实战营》第4课 学习笔记:XTuner 微调 LLM:1.8B、多模态、Agent
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
[2024.07.19] 我们发布了 1.8B、7B 和 20B 大小的 InternLM2-Reward 系列奖励模型。可以在下方的 模型库 进行下载,或者在 model cards 中了解更多细节。
流川疯
2024/08/05
2470
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
接下来,我们便可以通过 python /root/demo/cli_demo.py 来启动我们的 Demo。
流川疯
2024/08/11
3020
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
炼丹炉 | XTuner 大模型单卡低成本微调实战
※ 因此,你找到了一种叫 LoRA 的方法:只对玩具中的某些零件进行改动,而不是对整个玩具进行全面改动。
AIGC新知
2024/10/08
5580
炼丹炉 | XTuner 大模型单卡低成本微调实战
基于XTuner微调书生·浦语大模型
XTuner 是一个傻瓜式、轻量级的大语言模型微调工具箱,由MMRazor和MMDeploy联合开发。其以配置文件的形式封装了大部分微调场景,0基础的非专业人员也能一键开始微调;对于 7B 参数量的LLM,微调所需的最小显存仅为 8GB。
阿提说说
2024/03/01
7360
基于XTuner微调书生·浦语大模型
《书生大模型实战营第3期》进阶岛 第3关: LMDeploy 量化部署进阶实践
我们要运行参数量为7B的InternLM2.5,由InternLM2.5的码仓查询InternLM2.5-7b-chat的config.json文件可知,该模型的权重被存储为bfloat16格式
流川疯
2024/08/24
5070
《书生大模型实战营第3期》进阶岛 第3关: LMDeploy 量化部署进阶实践
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
幻觉 随着大语言模型的快速发展,逐渐发现即使是 GPT-4 这样的大语言模型,在某些场景下也不能满足实际需求,有着诸多的局限性,比如幻觉。
流川疯
2024/07/01
2930
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
这种说法是片面的,虽然计算机计算定点数和整数比计算浮点数快,但是模型的参数仅仅是以定点或者整数的方式存储,在实际计算时,还需要把定点数和整数反量化为浮点数进行数值计算,再把计算的结果以定点数或整数进行存储,这一步的目的是最大化减少计算精度的损失。
流川疯
2024/07/01
8000
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
[大模型]InternLM2-7B-chat Xtuner Qlora 微调
XTuner是上海人工智能实验室开发的低成本大模型训练工具箱,XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。只要8G。最低只需 8GB 显存,就可以微调InternLM2-7B模型,打造专属于你的 AI 助手。
云未归来
2025/07/17
3390
[大模型]InternLM2-7B-chat Xtuner Qlora 微调
XTuner & InternLM-Chat 微调个人认知小助手
InternStudio 平台中,从本地 clone 一个已有 pytorch 2.0.1 的环境(后续均在该环境执行,若为其他环境可作为参考)
AIGC新知
2024/10/08
2290
XTuner & InternLM-Chat 微调个人认知小助手
《书生大模型实战营第3期》基础岛 第6关 :OpenCompass 评测 InternLM-1.8B 实践
在 OpenCompass 中评估一个模型通常包括以下几个阶段:配置 -> 推理 -> 评估 -> 可视化。
流川疯
2024/08/15
2370
《书生大模型实战营第3期》基础岛 第6关 :OpenCompass 评测 InternLM-1.8B 实践
《书生·浦语大模型实战营》第一课 学习笔记:书生·浦语大模型全链路开源体系
一直比较关注LLM 相关内容的业界进展,所以特定来参加这个训练营《书生·浦语大模型实战营》,动手学习LLM,看看大模型生态链中具体的最佳实践(Best Practice),很早的时候GPT3.5 时代,我只是注意到了他的发布,之前的聊天机器人还是这么个架构
流川疯
2024/05/25
3000
《书生·浦语大模型实战营》第一课 学习笔记:书生·浦语大模型全链路开源体系
《书生·浦语大模型实战营》第7课 学习笔记:OpenCompass 大模型评测实战
上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。其主要特点如下:
流川疯
2024/07/01
4940
《书生·浦语大模型实战营》第7课 学习笔记:OpenCompass 大模型评测实战
《书生大模型实战营第3期》基础岛 第4关 :InternLM + LlamaIndex RAG 实践
本文将分为以下几个部分来介绍,如何使用 LlamaIndex 来部署 InternLM2 1.8B(以 InternStudio 的环境为例)
流川疯
2024/08/15
3160
《书生大模型实战营第3期》基础岛 第4关 :InternLM + LlamaIndex RAG 实践
《书生大模型实战营第3期》入门岛 学习笔记与作业:Python 基础知识
其实Python 的环境配置在所有编程技术栈中是相对简单的,由于conda,pip 的存在。古早c++, Java 程序员入职第一周基本周报都是写做环境配置,Python基本只要一天就能搞定。
流川疯
2024/07/26
4400
《书生大模型实战营第3期》入门岛 学习笔记与作业:Python 基础知识
《书生大模型实战营第3期》入门岛 学习笔记与作业:Git 基础知识
Git 是一种开源的分布式版本控制系统,广泛应用于软件开发领域,尤其是在协同工作环境中。
流川疯
2024/07/26
2970
《书生大模型实战营第3期》入门岛 学习笔记与作业:Git 基础知识
书生·浦语大模型全链路开源体系介绍
随着人工智能技术的迅猛发展,大模型技术已成为当今人工智能领域的热门话题。2022 年 11 月 30 日,美国 OpenAI 公司发布了 ChatGPT 通用型对话系统 并引发了全球 的极大关注,上线仅 60 天月活用户数便超过 1 亿,成为历史上用户增长最快的互联网 应用产品。2023 年 3 月 14 日,OpenAI 公司再次发布了升级版模型 GPT-4 又展现 出了更高阶的能力,再一次实现了技术飞跃,并在全球范围掀起大模型发展浪潮。不仅国外科技巨头纷纷加码布局,推动大模型产业的快速落地,国内的头部企业也积极追赶步伐,竞相抢滩大模型的新赛道,抢抓认知智能大模型带来的历史机遇,下图为ChatGPT的发布时间线。
阿提说说
2024/02/28
6050
书生·浦语大模型全链路开源体系介绍
书生·浦语大模型全链路开源开放体系
9月20日,上海人工智能实验室(上海AI实验室)与商汤科技联合香港中文大学和复旦大学正式推出书生·浦语大模型(InternLM)200亿参数版本InternLM-20B,并在阿里云魔搭社区(ModelScope)开源首发。
AIGC新知
2024/10/08
2480
书生·浦语大模型全链路开源开放体系
推荐阅读
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
4060
XTuner 微调
2810
《书生·浦语大模型实战营》第4课 学习笔记:XTuner 微调 LLM:1.8B、多模态、Agent
6020
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
2470
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
3020
炼丹炉 | XTuner 大模型单卡低成本微调实战
5580
基于XTuner微调书生·浦语大模型
7360
《书生大模型实战营第3期》进阶岛 第3关: LMDeploy 量化部署进阶实践
5070
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
2930
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
8000
[大模型]InternLM2-7B-chat Xtuner Qlora 微调
3390
XTuner & InternLM-Chat 微调个人认知小助手
2290
《书生大模型实战营第3期》基础岛 第6关 :OpenCompass 评测 InternLM-1.8B 实践
2370
《书生·浦语大模型实战营》第一课 学习笔记:书生·浦语大模型全链路开源体系
3000
《书生·浦语大模型实战营》第7课 学习笔记:OpenCompass 大模型评测实战
4940
《书生大模型实战营第3期》基础岛 第4关 :InternLM + LlamaIndex RAG 实践
3160
《书生大模型实战营第3期》入门岛 学习笔记与作业:Python 基础知识
4400
《书生大模型实战营第3期》入门岛 学习笔记与作业:Git 基础知识
2970
书生·浦语大模型全链路开源体系介绍
6050
书生·浦语大模型全链路开源开放体系
2480
相关推荐
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档