前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >盘点一个Pandas实战需求的问题

盘点一个Pandas实战需求的问题

作者头像
前端皮皮
发布于 2024-03-18 12:37:45
发布于 2024-03-18 12:37:45
9200
代码可运行
举报
运行总次数:0
代码可运行

举贤任能,不时日而事利。

大家好,我是Python进阶者。

一、前言

前几天在Python最强王者交流群【wen】问了一个Pandas解决实际需求的实战问题。问题如下:

请教:代码的目的为自动填充产品名字,有多个销售数据的表格,如例子,销售数据表格中的的产品名字一列为空,我把销售数据表格与产品信息表格进行根据产品IP进行合并获得产品名字,但有些数据的产品号一列为空,可以根据产品ID进行匹配,请问怎么设置逻辑,当产品号为空时根据产品IP进行匹配呢?

二、实现过程

【瑜亮老师】指出:产品号为空就用id其实就是用id列填充产品号列的空值。

【wen】:大部分数据都有产品号,今天发现有些数据匹配不了,原来产品号缺失。

这里【瑜亮老师】给出了具体的代码,如下所示:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
df1 = df1.merge(df2[['产品号', '产品名称']], on='产品号', how='left')
df1.loc[df1['产品号'].isnull(), '产品名称'] = df1.loc[df1['产品号'].isnull(), 'ID'].map(lambda x: df2[df2['ID'] == x]['产品名称'].values[0])

顺利地解决了粉丝的问题。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-03-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python共享之家 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
大模型开发实战:(五)使用 LLaMA Factory 微调与量化模型并部署至 Ollama
LLaMA Factory 是一个开源的全栈大模型微调框架,简化和加速大型语言模型的训练、微调和部署流程。它支持从预训练到指令微调、强化学习、多模态训练等全流程操作,并提供灵活的配置选项和高效的资源管理能力,适合开发者快速定制化模型以适应特定应用场景。下面通过一个简单的示例来展示如何使用 LLaMA Factory 进行模型微调并部署至 Ollama。
张高兴
2025/05/21
1.6K0
大模型开发实战:(五)使用 LLaMA Factory 微调与量化模型并部署至 Ollama
通过ollama+open webui可视化运行gemma
ollama是专为在Docker容器中部署LLM而设计的,简化了部署和管理流程,目前它支持的模型如下:
数据仓库晨曦
2024/03/06
8.7K0
通过ollama+open webui可视化运行gemma
AI智能体研发之路-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用
贫富差距的产生是信息差,技术贫富差距的产生亦如此。如果可以自我发现或者在别人的指导下发现优秀的开源项目,学习或工作效率真的可以事半功倍。
LDG_AGI
2024/08/13
3.3K0
AI智能体研发之路-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用
使用BigDL LLM在Intel® Data Center GPU上进行Llama 2模型调优
在飞速发展的生成式人工智能(GenAI)领域,大型语言模型(LLM)调优因其高计算、高内存需求而带来了独特的挑战。LoRA 和 QLoRA 等技术为最先进 LLM 模型的调优工作提供了更强大的选项,它们的速度更快,成本更低。我们已经将 QLoRA 集成到了 BigDL LLM 库中。这个库是专门为英特尔的 GPU 而设计的。
深度学习与Python
2024/01/11
4200
使用BigDL LLM在Intel® Data Center GPU上进行Llama 2模型调优
一行命令,本地、离线运行大模型
一句话概括:Ollama 是一个允许您在计算机上本地运行开源大语言模型(LLM)的工具
Ai学习的老章
2024/03/26
1.8K0
一行命令,本地、离线运行大模型
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其惊人的类通用人工智能(AGI)的能力,掀起了新一轮自然语言处理领域的研究和应用的浪潮。尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的二次微调或应用的案例。本项目旨在收集和梳理中文LLM相关的开源模型、应用、数据集及教程等资料,目前收录的资源已达100+个!
汀丶人工智能
2024/04/29
3.1K0
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
使用Ollama+OpenWebUI本地部署Gemma谷歌AI开放大模型完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
神秘泣男子
2024/06/06
1.2K0
使用Ollama+OpenWebUI本地部署Gemma谷歌AI开放大模型完整指南
NL2SQL进阶系列(1):DB-GPT-Hub、SQLcoder、Text2SQL开源应用实践详解
NL2SQL基础系列(1):业界顶尖排行榜、权威测评数据集及LLM大模型(Spider vs BIRD)全面对比优劣分析[Text2SQL、Text2DSL]
汀丶人工智能
2024/04/12
1.1K0
NL2SQL进阶系列(1):DB-GPT-Hub、SQLcoder、Text2SQL开源应用实践详解
一篇关于LLM指令微调的综述
指令微调(IT)是提高大型语言模型(LLM)能力和可控性的关键技术。其本质是指在由(INSTRUCTION, OUTPUT)对组成的数据集上以监督的方式进一步训练LLM的过程,它弥合了LLM的下一个词预测目标与用户让LLM遵循人类指令的目标之间的差距。这篇文章对现有研究进行了系统的回顾、包括IT的一般方法、IT数据集的构建、IT模型的训练、以及不同模式,领域和应用的应用。
zenRRan
2023/09/11
7.1K0
一篇关于LLM指令微调的综述
Meta Llama3 大模型在 Mac 上的部署和运行
就在前不久,Meta 正式发布了最新版本的开源大模型 Llama3 ,是迄今为止能力最强的开源大模型。
音视频开发进阶
2024/04/25
4.9K0
Meta Llama3 大模型在 Mac 上的部署和运行
全新Llama 3.2系列:性能提升明显,但真的是最优选择吗?(已测试)
令人兴奋的消息,Meta发布了Lllam3.2系列模型,当前的基准显示,Llama 3.2 在各种基准测试中表现优于 Claude3.5 Haiku 以及 GPT-4o-mini;加上前几天的Qwen2.5,现在开源的模型正在一步步缩小和闭源模型之间的差距,这很棒。
AI进修生
2024/12/02
6600
全新Llama 3.2系列:性能提升明显,但真的是最优选择吗?(已测试)
谷歌Gemma介绍、微调、量化和推理
谷歌的最新的Gemma模型是第一个使用与Gemini模型相同的研究和技术构建的开源LLM。这个系列的模型目前有两种尺寸,2B和7B,并且提供了聊天的基本版和指令版。
deephub
2024/03/01
2.1K0
谷歌Gemma介绍、微调、量化和推理
高效微调 100 多种大语言模型:先计算法,急速推理! | 开源日报 No.305
LLaMA-Factory 是一个用于高效微调 100 多个大型语言模型(ACL 2024)的 WebUI。
小柒
2024/07/22
2460
高效微调 100 多种大语言模型:先计算法,急速推理! | 开源日报 No.305
Mac环境下ollama部署和体验
程序员欣宸
2024/05/26
2.1K0
Mac环境下ollama部署和体验
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
神秘泣男子
2024/06/03
4.9K0
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
浅谈宇宙最强开源大模型Llama3如何应用
北京时间4月19日凌晨,Meta公司通过其官方网站宣布了Llama系列的最新开源大模型:Llama-3。
AIGC新知
2024/10/08
3970
浅谈宇宙最强开源大模型Llama3如何应用
跟着我,轻松在腾讯云轻量应用服务器搭建自己的大型语言模型!
1.Ollama 是一个基于 Go 语言开发的本地大模型运行框架!它可以帮助用户在本地快速运行大模型,通过简单的安装指令,可以用一条命令就在本地运行开源大型语言模型。
快乐的小白
2024/04/16
3K4
跟着我,轻松在腾讯云轻量应用服务器搭建自己的大型语言模型!
SpringAI+Ollama三部曲之一:极速体验
程序员欣宸
2024/05/26
1.1K0
SpringAI+Ollama三部曲之一:极速体验
使用LLaMA Factory来训练智谱ChatGLM3-6B模型
使用LLaMA Factory来训练智谱ChatGLM3-6B模型时,以下是一个训练过程:
正在走向自律
2024/12/18
2720
使用LLaMA Factory来训练智谱ChatGLM3-6B模型
模型多样性能好,语言应用没烦恼 | 开源专题 No.71
该项目的主要功能是提供预训练和微调后的 LLaMA 语言模型的权重和起始代码。这些模型参数范围从 7B 到 70B 不等。
小柒
2024/04/30
1570
模型多样性能好,语言应用没烦恼 | 开源专题 No.71
推荐阅读
相关推荐
大模型开发实战:(五)使用 LLaMA Factory 微调与量化模型并部署至 Ollama
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验