首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >vue中返回顶部封装的组件 滚动一定位置显示隐藏

vue中返回顶部封装的组件 滚动一定位置显示隐藏

作者头像
江一铭
发布于 2022-06-16 01:24:48
发布于 2022-06-16 01:24:48
2K00
代码可运行
举报
文章被收录于专栏:技术社区技术社区
运行总次数:0
代码可运行

用两个不同方式写的返回顶部 返回顶部子组件1

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<template>
  <div>
    <div @click="backtop" class="fh" v-show="isShow">顶部1</div>
  </div>
</template>

<script>
export default {
  data() {
    return {
      isShow: false,
    };
  },
  mounted() {
    this.listenerFunction();
  },
  methods: {
    listenerFunction(e) {
      document.addEventListener("scroll", this.handleScroll, true);
    },
    beforeDestroy() {
      document.removeEventListener("scroll", this.listenerFunction);
    },
    handleScroll() {
      // handleScroll 和 methods 是同级
      if (window.pageYOffset > 300) {
        //window.pageYOffset:获取滚动距离
        this.isShow = true;
      } else {
        this.isShow = false;
      }
    },
    //返回顶部
    backtop() {
      let top = document.documentElement.scrollTop || document.body.scrollTop;
      // 实现滚动效果
      const timeTop = setInterval(() => {
        document.body.scrollTop = document.documentElement.scrollTop = top -= 50;
        if (top <= 0) {
          clearInterval(timeTop);
        }
      }, 10);
    },
  },
};
</script>

<style lang="scss" scoped>
.fh {
  width: 50px;
  height: 50px;
  border: 1px solid;
  position: fixed;
  bottom: 50px;
  left: 20px;
}
</style>

返回顶部子组件2

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<template>
  <div>
    <!-- 使用超链接锚点定位回到顶部 没动画效果 -->
    <div @click="back" class="back1" v-show="isShow">顶部2</div>
  </div>
</template>

<script>
export default {
  data() {
    return {
      isShow: false,
    };
  },
  mounted() {
    this.listenerFunction();
  },

  methods: {
    listenerFunction(e) {
      document.addEventListener("scroll", this.handleScroll, true);
    },
    beforeDestroy() {
      document.removeEventListener("scroll", this.listenerFunction);
    },
    handleScroll() {
      // handleScroll 和 methods 是同级
      if (window.pageYOffset > 300) {
        //window.pageYOffset:获取滚动距离
        this.isShow = true;
      } else {
        this.isShow = false;
      }
    },

    back() {
      //返回顶部 $这个地方需要引入在线jq
      $("html").stop().animate(
        //animate:动画 点击时让它行动
        {
          scrollTop: 0, //距离顶部为0
        },
        1000 //多少时间完成行动
      );
    },
  },
};
</script>

<style lang="scss" scoped>
.back1 {
  width: 50px;
  height: 50px;
  border: 1px solid;
  position: fixed;
  bottom: 50px;
  left: 183px;
}
</style>

父组件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<template>
  <div class="about">
    <ul>
      <li v-for="(item, index) in 100" :key="index">{{ item }}</li>
    </ul>
    <a href="#">顶部3</a>

    <FH1 />
    <FH2 />
  </div>
</template>

<script>
import FH1 from "../components/dingbu/FH1";  //导入
import FH2 from "../components/dingbu/FH2";
export default {
  components: {
    FH1,
    FH2,
  },
  data() {
    return {
  
    };
  },

  methods: {

  },
  created() {

  },
};
</script>

<style lang="scss" scoped>
ul {
  margin: 0;
  padding: 0;
}
li {
  height: 50px;
  border-bottom: 1px solid;
  list-style: none;
  margin: 0;
}
a {
  width: 50px;
  height: 50px;
  border: 1px solid;
  position: fixed;
  bottom: 50px;
  right: 20px;
}
</style>

效果

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-09-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
6万字解决算法面试中的深度学习基础问题
真的是千呼万唤始出来emmmm,去年春招结束写了篇面试的经验分享。在文中提到和小伙伴整理了算法岗面试时遇到的常见知识点及回答,本想着授人以渔,但没想到大家都看上了我家的 !但因本人执行力不足,被大家催到现在才终于想着行动起来分享给大家,笔者在这里给各位读者一个大大的抱歉,求原谅呜呜~~相信今年参加秋招的小伙伴们一定都拿到理想的offer啦,明年准备找工作的小盆友如果觉得本文还有些用可以收藏哈。
对白
2022/04/01
6410
6万字解决算法面试中的深度学习基础问题
深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
在机器学习、深度学习中使用的优化算法除了常见的梯度下降,还有 Adadelta,Adagrad,RMSProp 等几种优化器,都是什么呢,又该怎么选择呢? 在 Sebastian Ruder 的这篇论文中给出了常用优化器的比较,今天来学习一下: https://arxiv.org/pdf/1609.04747.pdf 本文将梳理: 每个算法的梯度更新规则和缺点 为了应对这个不足而提出的下一个算法 超参数的一般设定值 几种算法的效果比较 选择哪种算法 ---- 0.梯度下降法深入理解 以下为个人总结,如有错误
10JQKA
2018/05/09
8.3K0
深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
炼丹师的自我修养:如何分析训练过程loss异常
在面对模型不收敛的时候,首先要保证训练的次数够多。在训练过程中,loss并不是一直在下降,准确率一直在提升的,会有一些震荡存在。只要总体趋势是在收敛就行。若训练次数够多(一般上千次,上万次,或者几十个epoch)没收敛,再考虑采取措施解决。
NewBeeNLP
2021/07/23
23.9K0
深度学习基础入门篇[六]:模型调优,学习率设置(Warm Up、loss自适应衰减等),batch size调优技巧,基于方差放缩初始化方法。
深度学习基础入门篇六:模型调优,学习率设置(Warm Up、loss自适应衰减等),batch size调优技巧,基于方差放缩初始化方法。
汀丶人工智能
2023/04/20
5.2K0
深度学习基础入门篇[六]:模型调优,学习率设置(Warm Up、loss自适应衰减等),batch size调优技巧,基于方差放缩初始化方法。
深度学习三十问!一位算法工程师经历30+场CV面试后总结的常见问题合集(含答案)
作者灯会为21届中部985研究生,凭借自己整理的面经,去年在腾讯优图暑期实习,七月份将入职百度cv算法工程师。在去年灰飞烟灭的算法求职季中,经过30+场不同公司以及不同部门的面试中积累出了CV总复习系列,此为深度学习上篇。
昱良
2021/07/01
9240
深度学习三十问!一位算法工程师经历30+场CV面试后总结的常见问题合集(含答案)
batch size设置
深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别:
狼啸风云
2020/07/13
3.9K0
周期性学习率(Cyclical Learning Rate)技术[通俗易懂]
学习率(learning_rate, LR)是神经网络训练过程中最重要的超参数之一,它对于快速、高效地训练神经网络至关重要。简单来说,LR决定了我们当前的权重参数朝着降低损失的方向上改变多少。
全栈程序员站长
2022/08/30
1.6K0
周期性学习率(Cyclical Learning Rate)技术[通俗易懂]
深度学习中的优化算法
本文介绍了深度学习中常用的优化算法,包括一阶优化算法(如SGD、Adam等)和二阶优化算法(如SGD+momentum、Adam等),并分析了它们在实际应用中的优缺点以及不同场景下的使用。
GavinZhou
2018/01/02
1.5K0
深度学习中的优化算法
三辩三驳:这篇论文告诉你传统优化分析与现代DL有哪些不匹配
从事机器学习方面相关研究的人都了解,网络模型的最终性能少不了优化。其中损失函数扮演了非常重要的角色,而随机梯度下降算法(SGD)由于其良好的收敛性,常常被用来进行梯度更新。为了加快收敛速度,缩短训练时间,同时为了提高求解精度,采用随机梯度下降算法应该注意学习率(Learning Rate, LR)等参数的调整。那么 LR 的大小对现代深度学习与传统优化分析的是怎样的呢?下面通过一篇论文进行解答。
机器之心
2020/11/13
7520
三辩三驳:这篇论文告诉你传统优化分析与现代DL有哪些不匹配
深度学习-加快训练速度
SGD是batch=1的情况下的训练示例[1240]SGD是batch=X的情况下的训练示例
freesan44
2021/10/12
7250
训练过程–Batchsize(总之一般情况下batchsize能设多大就设多大)[通俗易懂]
1)内存利用率提高了,大矩阵乘法的并行化效率提高。 2)跑完一次 epoch(全数据集)所需的迭代次数减少,对于相同数据量的处理速度进一步加快。 3)在一定范围内,一般来说 Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小。 随着 Batch_Size 增大,处理相同数据量的速度越快。 随着 Batch_Size 增大,达到相同精度所需要的 epoch 数量越来越多。” 由于最终收敛精度会陷入不同的局部极值,因此 Batch_Size 增大到某些时候,达到最终收敛精度上的最优。
全栈程序员站长
2022/08/01
7.7K0
Learning Rate Schedule:CNN学习率调整策略
本文同时发布在我的个人网站:https://lulaoshi.info/blog/learning-rate-schedule.html
PP鲁
2022/09/20
1.7K0
Learning Rate Schedule:CNN学习率调整策略
分布式深度学习(I):分布式训练神经网络模型的概述
原文: Distributed Deep Learning, Part 1: An Introduction to Distributed Training of Neural Networks 作者: Alex Black、Vyacheslav Kokorin 翻译: KK4SBB 责编:何永灿,关注人工智能,投稿请联系heyc@csdn.net或微信号289416419 本文是分布式训练神经网络模型三篇系列文章的第一篇。 在第一篇文章,我们首先了解一下如何使用GPU分布式计算来显著提高深度学习模型
用户1737318
2018/06/06
3.4K0
深度学习中的优化算法与实现
通过这么长时间的学习,我们应该对于通过深度学习解决问题的大体流程有个宏观的概念了吧?
BBuf
2020/10/10
1.1K0
深度学习中的优化算法与实现
神经网络训练技巧汇总(Tricks)
神经网络构建好,训练不出好的效果怎么办?明明说好的,拟合任意函数(一般连续)?可以参考:http://neuralnetworksanddeeplearning.com/
算法进阶
2023/08/28
6200
神经网络训练技巧汇总(Tricks)
[MachineLearning] 超参数之LearningRate
关于Gradient descent 算法,不打算细说概念,公式什么的.贴一张Andrew的PPT:
wOw
2018/09/18
2.4K0
[MachineLearning] 超参数之LearningRate
Batch Normalization论文翻译——中英文对照
本文提出了一种用于图像识别的深度学习网络模型,该模型采用了一种改进的卷积神经网络结构,并使用了批量归一化、激活函数和优化算法等技术。实验结果表明,该模型在图像分类任务上具有较好的性能表现,同时具有较好的扩展性和鲁棒性。
Tyan
2017/12/28
1.2K0
Batch Normalization论文翻译——中英文对照
深入剖析深度学习中Batch Size大小对训练过程的影响
(2)有些时候不可避免地要用超大batch,比如人脸识别,可能每个batch要有几万甚至几十万张人脸图像,训练过程中超大batch有什么优缺点,如何尽可能地避免超大batch带来的负面影响?
AI算法与图像处理
2019/10/28
7.8K0
深入剖析深度学习中Batch Size大小对训练过程的影响
【深度学习】参数优化和训练技巧
学习率是一个非常非常重要的超参数,这个参数呢,面对不同规模、不同batch-size、不同优化方式、不同数据集,其最合适的值都是不确定的,我们无法光凭经验来准确地确定lr的值,我们唯一可以做的,就是在训练中不断寻找最合适当前状态的学习率。
Twcat_tree
2023/11/23
4740
【深度学习】参数优化和训练技巧
Batch Size对神经网络训练的影响
这篇文章非常全面细致地介绍了Batch Size的相关问题。结合一些理论知识,通过大量实验,文章探讨了Batch Size的大小对模型性能的影响、如何影响以及如何缩小影响等有关内容。
NewBeeNLP
2021/10/20
1.1K0
推荐阅读
相关推荐
6万字解决算法面试中的深度学习基础问题
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验