前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >知网被立案调查;字节跳动成立抖音集团,或在港上市;钉钉被曝裁员30%;北京人均存款超20万元 |Q资讯

知网被立案调查;字节跳动成立抖音集团,或在港上市;钉钉被曝裁员30%;北京人均存款超20万元 |Q资讯

作者头像
深度学习与Python
发布于 2022-06-11 05:33:58
发布于 2022-06-11 05:33:58
5780
举报

整理 | 褚杏娟

字节跳动成立抖音集团,或在香港上市;修改简历、抬高工时!联想一员工内外勾结,侵占公司工时费近 1000 万元,被判 5 年、罚款 50 万元;P3 职级解约、P4 职级转岗,理想汽车因业务调整毁约校招生;搜狗地图 5 月 15 日将下线,为国内最早面向公众服务的地图网站;钉钉被曝裁员 30%,相关人士:整体调整比例不到 10%;Flutter 3.0 正式发布:稳定支持 6 大平台,字节跳动是主要用户;北京健康宝遭网络攻击细节披露:典型 DDoS 攻击,发起团伙曝光;北京人均存款超 20 万元......

科技公司

知网涉嫌垄断被立案调查

近日,市场监管总局根据前期核查,依法对知网涉嫌实施垄断行为立案调查。

马斯克:收购Twitter交易暂时搁置,因正在等待细节

特斯拉CEO埃隆·马斯克表示,收购Twitter交易暂时搁置,因正在等待细节。截至发稿,Twitter盘前股价跌超19%。

字节跳动成立抖音集团,或在香港上市

香港公司注册处网站显示,字节跳动(香港)有限公司已更名为抖音集团(香港)有限公司,生效时间为 2022 年 5 月 6 日。此外,字节跳动旗下其他数个公司也陆续更名为“抖音”。据天眼查,字节跳动有限公司更名为抖音有限公司。4 月 25 日,字节跳动任命了新的首席财务官,将由世达国际律师事务所高级合伙人高准担任。这些接连的举动被认为,该公司正重新考虑,将抖音等国内业务独立作为抖音集团赴港上市。

修改简历、抬高工时!联想一员工内外勾结,侵占公司工时费近 1000 万元,被判 5 年、罚款 50 万元

判决书显示,被告人于某某(联想员工)于 2016 年 3 月至 2020 年 10 月间,利用在被害单位联想(北京)有限公司 BTIT- 服务部门负责外部顾问的面试、工时确认等工作的职务之便,伙同被告人梁某某、刘某某等人通过修改顾问简历、抬高顾问工时标准等方式,侵占被害单位联想公司工时费共计人民币 9 901 200 元。其中,被告人梁某某参与犯罪金额 2 181 625 元,被告人刘某某参与犯罪金额 2 765 500 元。涉案钱款未起获。

在进行举证、辩护、审理之后,法院最终判据:1、被告人于某某犯职务侵占罪,判处有期徒刑五年,罚金人民币五十万元;2、被告人梁某某犯职务侵占罪,判处有期徒刑一年六个月,罚金人民币十万元;3、被告人刘某某犯职务侵占罪,判处有期徒刑一年六个月,缓刑二年,罚金人民币十万元;4、责令被告人于某某、梁某某、刘某某在各自涉案金额范围内继续共同向被害单位联想(北京)有限公司退赔人民币七百六十三万一千二百元。

P3 职级解约、P4 职级转岗,理想汽车因业务调整毁约校招生

5 月 11 日,社交平台上多名网友表示,理想汽车毁约了 2022 届入职的校招生,其中有部分校招生已经和理想汽车、学校签署三方协议,等待毕业答辩后入职。有被调岗的理想汽车员工透露,今天上午收到的岗位调整邮件,通知从企业系统部门转岗到其他部门面试。该员工表示,P4 职级的应届生是转岗,同岗位 P3 职级的多数是解约。接近理想汽车的业内人士称,目前涉及的部门包括企业系统、产品、智能驾驶和数据开发,都是技术岗员工,并且这些被毁约的应届生都有签署三方协议。

对此,理想汽车回应称,近期理想汽车进行了业务调整,部分岗位被关闭,涉及部分今年尚未入职的校招生伙伴。鉴于可能对这些学生重新找工作造成的不便,理想汽车提供了调岗选择和解约赔偿的方案,目前正在与相关学生进行沟通。对于那些无法调岗而节约的校招生,赔偿其一个月工资作为解约金。至于涉及到的校招生比例有多少,理想汽车称“具体人数暂不方便告知”。

搜狗地图 5 月 15 日将下线,为国内最早面向公众服务的地图网站

搜狗地图官网显示,搜狗地图将于 2022 年 5 月 15 日 23 点正式下线,届时关闭所有相关服务。请下载腾讯地图为您提供更好的服务。公开资料显示,搜狗地图成立于 1999 年,原名图行天下,是中国第一家互联网地图服务网站。于 2005 年被搜狐收购,并改名为搜狗地图。

此前,搜狗地图 APP 已从应用市场下架。2021 年 9 月,搜狗宣布与腾讯完成合并,成为腾讯控股间接全资子公司,并完成私有化交易,这也是搜狗地图下线的直接原因。据报道,与腾讯合并后,搜狗大部分业务并入腾讯 PCG ( 平台与内容事业群 ),其中主要团队与腾讯看点合并。

钉钉被曝裁员 30%,相关人士:整体调整比例不到 10%

网络上流传的消息称,钉钉裁员开始,按员工口径比例达到 30%,可能为阿里集团今年为止裁员比例最高的 BU,一些部门内部鼓励离职,主动提离职也有 N+1 补偿,休息日仍然有员工被约谈。据接近钉钉人士透露,内部确实有组织优化动作,但与社交平台上所曝的比例悬殊很大。此次并非大幅裁员,而是公司例行的财年绩效考核汰换与业务调整赶到一起,整体调整比例不到 10%。

苹果宣布 iPod 产品线停更

苹果官方正式宣布 iPod 产品线正式停更,现有的 iPod 产品售完即止,后续不会再推出有关该产品线的新品。也就意味着,诞生于 2001 年 10 月 23 日的 iPod 产品线,历经了 20 年的岁月变迁之后,正式迎来了它的寿命终结。

据悉,iPod touch 是 iPod 产品系列中仅存的设备,自 2019 年 5 月以来再也没有更新过。苹果公司的营销主管格雷格·乔斯韦克在一份声明中说,“iPod 的精神在其他苹果产品中继续存在。”

IT 业界

Flutter 3.0 正式发布:稳定支持 6 大平台,字节跳动是主要用户

5 月 12 日,Flutter 3.0 在 Google I/O 开发者大会正式亮相,随着 3.0 版本的发布,Flutter 开发框架终于可以支持六大平台,实现了其跨平台稳定运行的愿景。

Flutter 和 Dart 的产品总监 Tim Sneath 发布博文中称,Flutter 3 完成了从以移动为中心到多平台框架的发展路线图,现支持在 Linux 和 macOS 桌面的稳定运行,同时引入了 Firebase 集成改进、新的生产力与性能增强、以及对苹果自研芯片的支持。

更多详情:

《Flutter 3.0 正式发布:稳定支持 6 大平台,字节跳动是主要用户》

谷歌正式发布 Android 13,OPPO Find N 率先适配

北京时间 5 月 12 日,谷歌举办 I/O 2022 开发者大会,并正式发布 Android 13,OPPO Find N 成为全球首批适配 Android 13 开发者预览版的折叠屏手机。此外,首批适配 Android 13 开发者预览版的手机还有 OPPO Find X5 Pro。据 OPPO 方面介绍,5 月 11 日起,全球开发者可以通过 OPPO 开发者平台,安装 Android 13 开发者预览版操作系统。

北京健康宝遭网络攻击细节披露:典型 DDoS 攻击,发起团伙曝光

昨日,360 网络安全研究院披露了北京健康宝被网络攻击的部分细节信息。通过其积累的安全威胁数据,可以确定这次事件的发起方是其内部命名为 Rippr 的团伙。该团伙使用了已经披露过的恶意代码家族 Fbot 作为攻击武器。此次事件的 Fbot 变种,最早发现于 2 月 10 日,自被发现以来就异常活跃地参与到 DDoS 攻击中。截至今日,短短三个月,被跟踪到的攻击事件就超过 15 万次。

北京人均存款超 20 万元

根据媒体统计,2021 年共有 8 个城市住户存款余额超过 1.5 万亿元,分别是北京、上海、广州、重庆、深圳、成都、天津和杭州。这其中,北京、上海、广州、重庆和深圳超过了 2 万亿元,京沪两大直辖市均超过了 4 万亿元。在人均存款方面,北京、上海和杭州位居前三。从人均存款来看,北京、上海和杭州三个城市位居前三。北京的人均存款首次超过 20 万元,达到了 22.27 万元,上海的人均存款超过 17 万元,达 17.13 万元。其中杭州人均住户存款达到了 12.96 万元,接近 13 万元。

对重返办公室政策不满,苹果机器学习总监离职

5 月 8 日消息,美国当地时间周六,负责苹果机器学习的总监伊恩古德费罗(Ian Goodfellow)在任职三年后宣布辞职,部分原因是其对公司重返办公室政策感到不满。在给员工发送的电子邮件中,古德费罗证实了他即将离职的消息。虽然目前还不清楚古德费罗离职的官方原因,但他确实透露,苹果为让更多人在办公室工作而做出的政策改变是个重要因素。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-05-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 InfoQ 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Qwen2大模型微调入门实战-命名实体识别(NER)任务
以Qwen2作为基座大模型,通过指令微调的方式做高精度的命名实体识别(NER),是学习入门LLM微调、建立大模型认知的非常好的任务。
用户9029617
2024/06/20
1.1K0
Qwen2大模型微调入门实战-命名实体识别(NER)任务
Qwen2大模型微调入门实战-命名实体识别(NER)任务
以Qwen2作为基座大模型,通过指令微调的方式做高精度的命名实体识别(NER),是学习入门LLM微调、建立大模型认知的非常好的任务。
zenRRan
2024/07/04
2.1K0
Qwen2大模型微调入门实战-命名实体识别(NER)任务
GLM4大模型微调入门实战(完整代码)
以GLM4作为基座大模型,通过指令微调的方式做高精度文本分类,是学习LLM微调的入门任务。
用户9029617
2024/06/12
1.9K0
GLM4大模型微调入门实战(完整代码)
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
之前陆续写了Qwen1.5、Qwen2.0、GLM-4等国产开源大模型的原理、训练及推理相关的文章,每一篇都拿到了热榜第一,但其中训练部分均基于Llama-factory框架,对于工程师而言,最喜欢的就是刨根问底,使用中间层的训练框架,还是少一些“安全感”。今天我们抛开中间框架,深入底层,一步一步带大家微调一个大模型。
LDG_AGI
2024/08/13
1.7K0
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战
Gemma 是 Google 推出的轻量级、先进的开放模型系列,采用与 Gemini 模型相同的研究成果和技术构建而成。它们是仅使用解码器的文本到文本大型语言模型(提供英语版本),为预训练变体和指令调整变体具有开放权重。Gemma 模型非常适合各种文本生成任务,包括问题解答、摘要和推理。由于它们相对较小,因此可以将其部署在资源有限的环境(如笔记本电脑、桌面设备或您自己的云基础架构)中,让更多人能够使用先进的 AI 模型,并帮助促进每个人的创新。
LDG_AGI
2024/08/13
7550
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战
【机器学习】Qwen2大模型原理、训练及推理部署实战
刚刚写完【机器学习】Qwen1.5-14B-Chat大模型训练与推理实战 ,阿里Qwen就推出了Qwen2,相较于Qwen1.5中0.5B、1.8B、4B、7B、14B、32B、72B、110B等8个Dense模型以及1个14B(A2.7B)MoE模型共计9个模型,Qwen2包含了0.5B、1.5B、7B、57B-A14B和72B共计5个尺寸模型。从尺寸上来讲,最关键的就是推出了57B-A14B这个更大尺寸的MoE模型,有人问为什么删除了14B这个针对32G显存的常用尺寸,其实对于57B-A14B剪枝一下就可以得到。
LDG_AGI
2024/08/13
2.7K0
【机器学习】Qwen2大模型原理、训练及推理部署实战
【LLM训练系列04】手把手教你Qlora微调
IGNORE_TOKEN_ID 是一个常量,通常用于在训练过程中忽略某些特定的标签或输入。它的作用是告诉模型在计算损失时不考虑这些特定的标签或输入。
致Great
2024/12/21
2200
【LLM训练系列04】手把手教你Qlora微调
零基础入门:DeepSeek微调教程来了!
在此处可以看到很明显大模型进行微调后口吻已经发生了更改。据笔者使用下来的记录表示,微调后的大模型思考时间更加短暂。
Datawhale
2025/02/25
1.3K0
零基础入门:DeepSeek微调教程来了!
MiniCPM-o-2.6 多模态大模型微调实战(完整代码)
MiniCPM-o-2.6是OpenBMB(面壁智能)团队最近开源的多模态大语言模型。以MiniCPM-o-2.6作为基座多模态大模型,通过指令微调的方式实现特定场景下的OCR,是学习多模态LLM微调的入门任务。
Grafin
2025/01/25
5240
MiniCPM-o-2.6 多模态大模型微调实战(完整代码)
使用QLoRa微调Llama 2
上篇文章我们介绍了Llama 2的量化和部署,本篇文章将介绍使用PEFT库和QLoRa方法对Llama 27b预训练模型进行微调。我们将使用自定义数据集来构建情感分析模型。只有可以对数据进行微调我们才可以将这种大模型进行符合我们数据集的定制化。
deephub
2023/08/30
6920
使用QLoRa微调Llama 2
大模型微调新手全流程友好指南
关于大模型微调的文章已经写过有两篇:大模型微调与RAG检索增强有何区别?从基础原理到案例分析全面详解和一文带你了解大模型微调的前世今生,基础概率和理论原理内容基本上都涵盖全面,因此本篇文件不做过多的原理解释说明,主要聚焦于大模型微调的实战和各个代码功能模块细节的讲解。
fanstuck
2025/04/30
6037
大模型微调新手全流程友好指南
零基础入门:DeepSeek微调的评测教程来了!
三天前,看到了我们 Datawhale 公众号上发了文章《零基础入门:DeepSeek 微调教程来了!》反响很好,其中的内容写的非常接地气,适合学习者进行学习体验。
Datawhale
2025/02/28
2620
零基础入门:DeepSeek微调的评测教程来了!
在腾讯云云服务器上推理及微调Qwen2-7B大语言模型
随着人工智能技术的迅速发展,大型预训练模型(LLMs)在各种语言、代码及数学问题解决方面展现出了巨大潜力。Qwen2系列模型的推出无疑为自然语言处理(NLP)和多语言理解带来了新的飞跃。今天,我们将深入探讨如何在腾讯云云服务器上部署和微调2024年6月推出的大型语言模型Qwen2中的Qwen2-7B,探索其强大的代码和数学能力、出色的多语言处理能力,加速您的AI项目进程。
buzzfrog
2024/07/02
1.7K1
在腾讯云云服务器上推理及微调Qwen2-7B大语言模型
Qwen7b微调保姆级教程
前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于各种开源LLM模型的,同时支持多轮和单轮对话数据集的大模型高效微调范例。
lyhue1991
2023/09/17
2.1K0
Qwen7b微调保姆级教程
大模型实战:使用 LoRA(低阶适应)微调 LLM
[1] 详细内容请参阅 MarkAI Blog [2] 更多资料及工程项目请关注 MarkAI Github [3] 通关感知算法面试请Star 2024年千道算法面试题综述
码科智能
2023/12/19
5.9K2
大模型实战:使用 LoRA(低阶适应)微调 LLM
从头预训练一只超迷你 LLaMA 3
这次打算用 Hugging Face 的 API 来写一份预训练大(小)模型的代码,也就是用 Trainer 来做预训练。由于只是想练习一下,因此打算选一个极小模型 + 小数据集。为了贴近主流,于是打算预训练一个 LLaMA 3——不过是超迷你版本,大小仅不到 20M。
NewBeeNLP
2024/06/04
9960
从头预训练一只超迷你 LLaMA 3
Baichuan-13B 保姆级微调范例
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的Baichuan-13B-Chat的finetune教程~
lyhue1991
2023/09/05
1.4K0
Baichuan-13B 保姆级微调范例
在腾讯云云服务器上使用Qwen2-0.5B模型推理
在人工智能(AI)的黄金时代,我们见证了技术的边界不断扩展,模型的能力日益增强。今天,我要介绍的主角是Qwen2-0.5B模型,千问最新的大语言模型,以及如何在腾讯云云服务器上部署和使用它,开启AI应用的新旅程。
buzzfrog
2024/07/02
1.3K0
在腾讯云云服务器上使用Qwen2-0.5B模型推理
怎么让英文大语言模型支持中文?(三)进行指令微调
这里是最后一部分了:怎么让英文大语言模型支持中文?(三)对预训练模型进行指令微调。
西西嘛呦
2023/07/10
1.1K0
在自定义数据集上微调Alpaca和LLaMA
本文将介绍使用LoRa在本地机器上微调Alpaca和LLaMA,我们将介绍在特定数据集上对Alpaca LoRa进行微调的整个过程,本文将涵盖数据处理、模型训练和使用流行的自然语言处理库(如Transformers和hugs Face)进行评估。此外还将介绍如何使用grado应用程序部署和测试模型。
deephub
2023/08/30
1.4K0
在自定义数据集上微调Alpaca和LLaMA
推荐阅读
相关推荐
Qwen2大模型微调入门实战-命名实体识别(NER)任务
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档