前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >单列div不包含里面div margin的解决方法

单列div不包含里面div margin的解决方法

作者头像
tianyawhl
发布于 2019-04-04 08:47:16
发布于 2019-04-04 08:47:16
1.5K1
举报
文章被收录于专栏:前端之攻略前端之攻略

若一个大的div ,里面有2个小div,第一个小div有margin-top:20px; margin-bottom:20px;,第二个小divmargin-bottom:20px;

则外面大的div 不会包含第一个小div有margin-top:20px;及第二个小divmargin-bottom:20px;若要大div包含,需要在大的div 加样式overflow:hidden,或者大div浮动,若是在bootstrap前端框架,加class="clearfix"

(adsbygoogle = window.adsbygoogle || []).push({});

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2016/04/22 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
1 条评论
热度
最新
DeskGo
DeskGo
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
大模型智能体如何突破规模化应用瓶颈,核心在于Agentic ROI
本文第一作者为上海交通大学计算机学院副教授刘卫文,研究方向为大模型智能体,大语言模型,个性化算法等。
机器之心
2025/06/10
800
大模型智能体如何突破规模化应用瓶颈,核心在于Agentic ROI
250多篇论文,上海AI Lab综述推理大模型高效思考
但随之而来的是一个日益严重的问题:它们太能「说」了!生成的推理过程往往充斥着冗余信息(比如反复定义)、对简单问题过度分析,以及对难题的探索浅尝辄止。
机器之心
2025/04/05
1350
250多篇论文,上海AI Lab综述推理大模型高效思考
决策过程是魔法还是科学?首个多模态大模型的可解释性综述全面深度剖析
本文由香港科技大学(广州)、上海人工智能实验室、中国人民大学及南洋理工大学联合完成。主要作者包括香港科技大学(广州)研究助理党运楷、黄楷宸、霍家灏(共同一作)、博士生严一博、访学博士生黄思睿、上海AI Lab青年研究员刘东瑞等,通讯作者胡旭明为香港科技大学/香港科技大学(广州)助理教授,研究方向为可信大模型、多模态大模型等。
机器之心
2025/02/14
2370
决策过程是魔法还是科学?首个多模态大模型的可解释性综述全面深度剖析
深入了解Deepseek模型的最佳三篇论文
DeepSeek-R1:通过强化学习提升大型语言模型的推理能力。 2025年1月发布,提出了一种使用强化学习而非监督学习的方法,显著提升了语言模型在数学和逻辑推理任务中的表现,开辟了新的研究方向。
致Great
2025/02/09
1.4K0
深入了解Deepseek模型的最佳三篇论文
TTS和TTT已过时?TTRL横空出世,推理模型摆脱「标注数据」依赖,性能暴涨
在大语言模型(LLMs)竞争日趋白热化的今天,「推理能力」已成为评判模型优劣的关键指标。OpenAI 的 o 系列、Anthropic 的 Claude 和 DeepSeek-R1 等模型的惊艳表现背后,测试时缩放(TTS)技术功不可没。
机器之心
2025/04/26
1190
TTS和TTT已过时?TTRL横空出世,推理模型摆脱「标注数据」依赖,性能暴涨
每周AI论文速递(250331-250404)
大语言模型 (Large Language Models, LLMs) 的出现引发了人工智能领域的变革,推动了一系列具备复杂推理能力、强健感知能力和跨领域多任务执行能力的先进智能体的发展。随着这类智能体在 AI 研究和实际应用中的作用日益凸显,其设计、评估与持续改进过程也面临着多维度、高复杂度的挑战。本综述采用模块化的类脑架构框架,融合认知科学、神经科学与计算研究的核心原理,对智能体技术进行全面梳理。研究内容分为四个相互关联的部分:首先解析智能体的模块化基础架构,通过系统化映射其认知、感知与执行模块与人脑功能的对应关系,深入阐释记忆系统、世界模型、奖励机制及类情绪系统等核心组件;其次探讨智能体的自我增强与自适应进化机制,重点分析其通过自动化优化范式(包括新兴的 AutoML 和大语言模型驱动的优化策略)实现能力自主提升、动态环境适应与持续学习的方法;第三部分研究协作型进化多智能体系统,揭示智能体通过交互协作与社会化组织产生的群体智能,及其与人类社交行为的相似性;最后针对 AI 系统的安全性、可靠性及社会效益这一关键命题,系统分析内生与外源安全威胁、伦理对齐要求、系统鲁棒性保障等核心问题,提出确保实际部署可信度的有效缓解策略。
叶子的技术碎碎念
2025/04/08
1680
每周AI论文速递(250331-250404)
推理大模型的后训练增强技术-如何系统地理解和提升长思维链推理能力
最近,基于大型语言模型(RLLMs)的推理能力取得了显著进展,例如OpenAI的O1和DeepSeek的R1,它们在数学、编程等复杂领域展现了强大的能力。这些进展的关键因素之一就是长链思维(Long CoT)的应用,它能增强推理能力,帮助解决更复杂的问题。然而,尽管已有这些突破,关于长链思维的全面综述仍然匮乏,这也限制了对其与传统短链思维(Short CoT)区别的理解,并使得“过度思考”和“测试时扩展性”等问题的讨论变得复杂。这项综述旨在填补这一空白,提供一个统一的视角来理解长链思维。
致Great
2025/03/19
3310
推理大模型的后训练增强技术-如何系统地理解和提升长思维链推理能力
调研180多篇论文,这篇综述终于把大模型做算法设计理清了
本文第一作者柳斐(https://feiliu36.github.io/ )是香港城市大学计算机科学系博士生,师从张青富教授。研究领域为计算智能,自动算法设计,组合优化等。姚一鸣,郭平,杨致远,赵哲和林熙来自香港城市大学张青富教授团队。陆智超为香港城市大学计算机科学系助理教授。王振坤为南方科技大学系统设计与智能制造学院助理教授。童夏良和袁明轩来自华为诺亚方舟实验室。
机器之心
2025/02/14
2660
调研180多篇论文,这篇综述终于把大模型做算法设计理清了
后训练时代如何延续Scaling Law?这是你该读的LLM后训练综述
近日,一份围绕 LLM 后训练的综述报告收获了不少好评,其整理相关论文和工具的资源库已经收获了超过 700 star。
机器之心
2025/05/02
1190
后训练时代如何延续Scaling Law?这是你该读的LLM后训练综述
人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。
机器之心
2025/02/10
1290
人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率
大模型扩展新维度:Scaling Down、Scaling Out
本文由悉尼大学计算机学院王云柯,李言蹊和徐畅副教授完成。王云柯是悉尼大学博士后,李言蹊是悉尼大学三年级博士生,徐畅副教授是澳洲ARC Future Fellow,其团队长期从事机器学习算法、生成模型等方向的研究。
机器之心
2025/02/25
1390
大模型扩展新维度:Scaling Down、Scaling  Out
多智能体架构Insight-V来了!突破长链视觉推理瓶颈
本文的主要作者来自南洋理工大学 S-Lab、腾讯公司和清华大学智能视觉实验室。本文的共同第一作者为南洋理工大学博士生董宇昊和清华大学自动化系博士生刘祖炎,主要研究方向为多模态模型。本文的通讯作者为南洋理工大学助理教授刘子纬和腾讯高级研究员饶永铭。
机器之心
2025/02/14
1600
多智能体架构Insight-V来了!突破长链视觉推理瓶颈
16张H100训26分钟,超越o1-preview!李飞飞等用1K样本,揭秘测试时Scaling
最近大火的DeepSeek-R1模型也通过使用数百万个样本和多个训练阶段使用强化学习的方式,成功地达到了o1级别的性能。
新智元
2025/02/06
1200
16张H100训26分钟,超越o1-preview!李飞飞等用1K样本,揭秘测试时Scaling
NeurIPS 2024|腾讯优图实验室10篇论文入选,含持续学习、大型语言模型、深度伪造检测等研究方向
近期,第38届神经信息处理系统大会(NeurIPS 2024)公布了录取结果。会议共收到了15671篇有效论文投稿,共有超四千篇收录,录取率为25.8%。NeurIPS是CCF推荐的A类国际学术会议,在人工智能及计算机理论领域享有较高学术声誉。NeurIPS 2024将于12月9日至15日在加拿大温哥华举行,届时,众多学术界和工业界的专家将共聚一堂,探讨人工智能的最新进展。
小腾资讯君
2024/10/23
7560
推理大模型的后训练增强技术--LLM 推理模型的现状
提升大型语言模型(LLM)的推理能力无疑是 2025 年最火热的话题之一,而且理由很充分。更强的推理能力意味着 LLM 可以处理更复杂的问题,让它在各种任务上表现得更出色,更贴近用户的实际需求。
致Great
2025/03/13
3020
推理大模型的后训练增强技术--LLM 推理模型的现状
【论文分享】推理大模型Post-Training技术的全面综述
大规模语言模型(LLMs)已经彻底改变了自然语言处理领域,并催生了多种应用。尽管在大规模网络数据上的预训练为这些模型奠定了基础,但研究界现在越来越多地将焦点转向后续训练技术,以实现进一步的突破。虽然预训练提供了广泛的语言基础,但后续训练方法使得LLMs能够精炼其知识、改善推理能力、提升事实准确性,并在更好地与用户意图和伦理考虑保持一致方面发挥重要作用。微调、强化学习和测试时扩展等策略已经成为优化LLMs性能、确保鲁棒性和提高适应性在各种现实任务中的关键方法。本文综述了后续训练方法,系统地分析了它们在进一步完善LLMs方面的作用,讨论了如灾难性遗忘、奖励劫持和推理时的权衡等关键挑战。论文还强调了模型对齐、可扩展适应性和推理时推理能力等新兴方向,并概述了未来的研究方向。
致Great
2025/03/07
3300
【论文分享】推理大模型Post-Training技术的全面综述
上交大o1复现新突破:蒸馏超越原版,警示AI研发"捷径陷阱"
团队介绍:本项目的核心开发团队主要由上海交通大学GAIR研究组,研究团队早在一个多月前发布o1复现进展报告。
机器之心
2025/02/14
1100
上交大o1复现新突破:蒸馏超越原版,警示AI研发"捷径陷阱"
分割一切模型SAM首篇全面综述:28页、200+篇参考文献
机器之心报道 机器之心编辑部 作为首个全面介绍基于 SAM 基础模型进展的研究,本文聚焦于 SAM 在各种任务和数据类型上的应用,并讨论了其历史发展、近期进展,以及对广泛应用的深远影响。 人工智能(AI)正在向 AGI 方向发展,这是指人工智能系统能够执行广泛的任务,并可以表现出类似于人类的智能水平,狭义上的 AI 就与之形成了对比,因为专业化的 AI 旨在高效执行特定任务。可见,设计通用的基础模型迫在眉睫。基础模型在广泛的数据上训练,因而能够适应各种下游任务。最近 Meta 提出的分割一切模型(Segm
机器之心
2023/05/22
5800
分割一切模型SAM首篇全面综述:28页、200+篇参考文献
AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?
大语言模型(LLM)近年来凭借训练时扩展(train-time scaling)取得了显著性能提升。然而,随着模型规模和数据量的瓶颈显现,测试时扩展(test-time scaling)成为进一步释放潜力的新方向。然而,无论是思维链(CoT)、思维树(ToT)等提示策略和推理框架,还是 OpenAI o1/o3 和 DeepSeek-R1 等推理模型,在推理时都过度依赖完整历史信息,导致计算资源浪费,同时冗余信息干扰有效推理。
机器之心
2025/03/17
750
AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?
过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o
赵俭,北京邮电大学本科三年级,研究方向为大语言模型。刘润泽,清华大学硕士二年级,师从李秀教授,研究方向为大语言模型与强化学习,特别关注大模型推理能力增强与测试时间扩展,在 NeurIPS、ICML、ICLR、AAAI 等顶级学术会议发表多篇论文,个人主页:ryanliu112.github.io。
机器之心
2025/04/15
720
过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o
推荐阅读
大模型智能体如何突破规模化应用瓶颈,核心在于Agentic ROI
800
250多篇论文,上海AI Lab综述推理大模型高效思考
1350
决策过程是魔法还是科学?首个多模态大模型的可解释性综述全面深度剖析
2370
深入了解Deepseek模型的最佳三篇论文
1.4K0
TTS和TTT已过时?TTRL横空出世,推理模型摆脱「标注数据」依赖,性能暴涨
1190
每周AI论文速递(250331-250404)
1680
推理大模型的后训练增强技术-如何系统地理解和提升长思维链推理能力
3310
调研180多篇论文,这篇综述终于把大模型做算法设计理清了
2660
后训练时代如何延续Scaling Law?这是你该读的LLM后训练综述
1190
人大刘勇团队「慢思考」机理分析:从雪球误差到正确推理概率
1290
大模型扩展新维度:Scaling Down、Scaling Out
1390
多智能体架构Insight-V来了!突破长链视觉推理瓶颈
1600
16张H100训26分钟,超越o1-preview!李飞飞等用1K样本,揭秘测试时Scaling
1200
NeurIPS 2024|腾讯优图实验室10篇论文入选,含持续学习、大型语言模型、深度伪造检测等研究方向
7560
推理大模型的后训练增强技术--LLM 推理模型的现状
3020
【论文分享】推理大模型Post-Training技术的全面综述
3300
上交大o1复现新突破:蒸馏超越原版,警示AI研发"捷径陷阱"
1100
分割一切模型SAM首篇全面综述:28页、200+篇参考文献
5800
AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?
750
过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o
720
相关推荐
大模型智能体如何突破规模化应用瓶颈,核心在于Agentic ROI
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档