前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >JDK1.8 LinkedList 源码解析

JDK1.8 LinkedList 源码解析

作者头像
tanoak
发布于 2018-09-26 03:14:39
发布于 2018-09-26 03:14:39
47800
代码可运行
举报
文章被收录于专栏:java闲聊java闲聊
运行总次数:0
代码可运行
  1. UML类图

4a.jpg

  1. LinkedList的底层实现是基于双向链表 a. LinkedList 实现 List 接口,能对它进行队列操作 b. LinkedList 实现 Deque 接口,即能将LinkedList当作双端队列使用

以下代码是抽取JDK中LinkedList的源码简化版,便于理解

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
package com.tanoak.jdk.linkedlist;

import java.io.Serializable;
import java.util.NoSuchElementException;

/**
 * @author tanoak@qq.com
 * @date 2018/8/23 0:29
 * @Desc
 */
public class TkSingleLinkedList<E>  implements Serializable {
    /**
     * transient 反序列化
     *
     */
     
    /**
     * 修改次数
     */
    
    protected transient int modCount = 0;
    /**
     * 集合大小
     */
    transient int size = 0;
    
    /**
     * Pointer to first node.
     * 首节点
     */
    transient Node<E> first;
    
    /**
     * 尾节点
     */
    transient Node<E> last;
    
    /**
    * 私有静态内部类
    *
    */
    private static class Node<E> {
        E item;
        Node<E> next;
        Node<E> prev;
        
        Node(Node<E> prev, E element, Node<E> next) {
            this.item = element;
            this.next = next;
            this.prev = prev;
        }
    }
    /**
     * Constructs an empty list.
     */
    public TkSingleLinkedList() {
    }
    
    /**
     * 将一个元素添加至list尾部
     * @param e 泛型
     * @return
     */
    public boolean add(E e) {
        linkLast(e);
        return true;
    }
 
    /**
     * Links e as last element.
     * @param e  泛型
     */
    void linkLast(E e) {
        final Node<E> l = last;
        final Node<E> newNode = new Node<>(l, e, null);
        last = newNode;
        if (l == null){
            first = newNode;
        }
        else{
            l.next = newNode;
        }
        /*
        *计数
        */
        size++;
        modCount++;
    }
    
    /**
     * Returns the (non-null) Node at the specified element index.
     */
    private Node<E> node(int index) {
        // assert isElementIndex(index);
        if (index < (size >> 1)) {
            Node<E> x = first;
            for (int i = 0; i < index; i++){
                x = x.next;
            }
            return x;
        } else {
            Node<E> x = last;
            for (int i = size - 1; i > index; i--){
                x = x.prev;
            }
            return x;
        }
    }
    
    /**
     * 根据下标获值
     *  @param index
     * @return
     */
    public E get(int index) {
        checkElementIndex(index);
        return node(index).item;
    }
    
    /**
     * 检查下标是否越界
     * @param index
     */
    private void checkElementIndex(int index) {
        if (!isElementIndex(index)){
            throw new IndexOutOfBoundsException("下标越界");
        }
    }
    /**
     * 判断参数是否有对应索引.
     */
    private boolean isElementIndex(int index) {
        return index >= 0 && index < size;
    }
    
    /**
     *根据下标删除
     * @param index
     * @return
     */
    public E remove(int index) {
        checkElementIndex(index);
        return unlink(node(index));
    }
    
    /**
     *  删除第一个匹配的指定元素
     * @param o
     * @return
     */
    public boolean remove(Object o) {
        if (o == null) {
            for (Node<E> x = first; x != null; x = x.next) {
                if (x.item == null) {
                    unlink(x);
                    return true;
                }
            }
        } else {
            for (Node<E> x = first; x != null; x = x.next) {
                if (o.equals(x.item)) {
                    unlink(x);
                    return true;
                }
            }
        }
        return false;
    }
    /**
     * Unlinks non-null node x.
     */
    E unlink(Node<E> x) {
        // assert x != null;
        final E element = x.item;
        final Node<E> next = x.next;
        final Node<E> prev = x.prev;
        
        if (prev == null) {
            first = next;
        } else {
            prev.next = next;
            x.prev = null;
        }
        if (next == null) {
            last = prev;
        } else {
            next.prev = prev;
            x.next = null;
        }
        
        x.item = null;
        size--;
        modCount++;
        return element;
    }
    /**
     * 集合大小
     * @return 集合当前容量
     */
    public int size() {
        return size;
    }
    
    /**
     * 无参 删除节点
     * @return
     */
    public E remove() {
        //调用删除第一个节点的方法
        return removeFirst();
    }
    
    /**
     * 删除第一个节点
     * @return
     */
    public E removeFirst() {
        final Node<E> f = first;
        if (f == null)
            throw new NoSuchElementException();
        return unlinkFirst(f);
    }
    
    /**
     * 删除第一个节点
     * 实际执行的方法
     */
    private E unlinkFirst(Node<E> f) {
        // assert f == first && f != null;
        final E element = f.item;
        final Node<E> next = f.next;
        f.item = null;
        f.next = null; 
        first = next;
        if (next == null)
            last = null;
        else
            next.prev = null;
        size--;
        modCount++;
        return element;
    }
}

LinkedList的源码相对比较简单,对于方法的解读在代码中有注释。

如理解有误,请指正

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018.08.24 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
2019年搜索引擎蜘蛛爬虫名称最新整理总汇
一般我们的网站能在百度等搜索引擎上搜到,说明该搜索引擎的爬虫爬到了我们的网站并且被搜索引擎收录。
德顺
2019/11/13
6.1K0
2019年搜索引擎蜘蛛爬虫名称最新整理总汇
如何屏蔽无用蜘蛛,减轻服务器压力
现在有很多的未知蜘蛛,总是频繁抓取我们的https://2bcd.com网站,特别是服务器配置不高的情况下,那么如何屏蔽这些垃圾蜘蛛减轻服务器压力呢?
主机教程网2bcd.com
2022/09/03
2K0
Nginx访问日志中UserAgent的一些参考建议
前言 网络上存在各种各样的爬虫与蜘蛛,有的是对网站有帮助的,譬如说:百度(Baiduspider)、谷歌(Googlebot)、Bing(bingbot)等等,但是也有一些纯粹是垃圾爬虫,不但本身对网站毫无帮助,还大幅损耗服务器资源,如:BLEXBot、AhrefsBot、MJ12bot、hubspot、opensiteexplorer、leiki、webmeup 等,所以我们可以通过UserAgent信息来屏蔽垃圾爬虫 nginx配置 将指定的userAgent返回403 if($http_user_a
一朵灼灼华
2022/08/05
1.5K0
服务器反爬虫攻略:Apache/Nginx/PHP禁止某些User Agent抓取网站
我们都知道网络上的爬虫非常多,有对网站收录有益的,比如百度蜘蛛(Baiduspider),也有不但不遵守 robots 规则对服务器造成压力,还不能为网站带来流量的无用爬虫,比如宜搜蜘蛛(YisouSpider)(最新补充:宜搜蜘蛛已被 UC 神马搜索收购!所以本文已去掉宜搜蜘蛛的禁封!==>相关文章)。最近张戈发现 nginx 日志中出现了好多宜搜等垃圾的抓取记录,于是整理收集了网络上各种禁止垃圾蜘蛛爬站的方法,在给自己网做设置的同时,也给各位站长提供参考。 一、Apache ①、通过修改 .htacce
张戈
2018/03/23
2.5K0
反爬虫攻略:Apache/Nginx/PHP禁止某些User Agent抓取网站
我们都知道网络上的爬虫非常多,有对网站收录有益的,比如百度蜘蛛(Baiduspider),也有不但不遵守robots规则对服务器造成压力,还不能为网站带来流量的无用爬虫,比如宜搜蜘蛛(YisouSpider)(最新补充:宜搜蜘蛛已被UC神马搜索收购!所以本文已去掉宜搜蜘蛛的禁封!==>相关文章)。最近张戈发现nginx日志中出现了好多宜搜等垃圾的抓取记录,于是整理收集了网络上各种禁止垃圾蜘蛛爬站的方法,在给自己网做设置的同时,也给各位站长提供参考。
菲宇
2019/07/31
2.1K0
反爬虫攻略:Apache/Nginx/PHP禁止某些User Agent抓取网站
Nginx反爬虫: 禁止某些User Agent抓取网站
2. 设置账号登陆时长,账号访问过多封禁 设置账号的登录限制,只有登录才能展现内容 设置账号登录的时长,时间一到则自动退出
py3study
2020/04/17
8.6K0
Nginx反爬虫: 禁止某些User Agent抓取网站
徐大大seo:网站的内容百度为什么不收录?
百度蜘蛛目前抓取途径两种,第一种是主动抓取,第二种是在百度站长平台的链接提交工具中获取数据。
徐大大seo
2022/05/22
5540
如何设置让网站禁止被爬虫收录?robots.txt
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/113888.html原文链接:https://javaforall.cn
全栈程序员站长
2022/07/07
2K0
利用nginx来屏蔽指定的user_agent的访问以及根据user_agent做跳转
对于做国内站的我来说,我不希望国外蜘蛛来访问我的网站,特别是个别垃圾蜘蛛,它们访问特别频繁。这些垃圾流量多了之后,严重浪费服务器的带宽和资源。通过判断user agent,在nginx中禁用这些蜘蛛可以节省一些流量,也可以防止一些恶意的访问。
用户1349575
2022/02/22
6.1K0
反爬虫我从 Robots.txt 配置开始
基本上,所有公开你能访问到的网站都有 Robots.txt。可能只是你没有注意到而已,比如淘宝的:https://www.taobao.com/robots.txt、百度网盘的:https://pan.baidu.com/robots.txt。
业余草
2019/06/20
3.2K0
最全网站日志分析攻略,全面解析百度蜘蛛!
大家进行网站日志分析的时候,常见到很多不同IP段的百度蜘蛛,为了方便大家更好的进行日志分析,下面列举了百度不同IP段常见蜘蛛的一些详情情况,及所谓的降权蜘蛛,沙盒蜘蛛,高权重蜘蛛等等。
用户9229846
2021/12/08
3.7K0
最全网站日志分析攻略,全面解析百度蜘蛛!
Robots协议探究:如何好好利用爬虫提高网站权重
站长们通常希望百度、Google 这样的大型搜索引擎来抓取网站内容,但又很厌恶其他来路不明的网络爬虫抓取自己的信息。
德顺
2019/11/13
1.7K0
Robots协议探究:如何好好利用爬虫提高网站权重
好用的网站防镜像代码
物理中的镜像是指物体在镜面成像,引申到网络上就是克隆一个一模一样的网站。常见的镜像工作方式有下面几种: 第一种就是通过程序实时解析,举个简单例子,假设aaa.com这个网站是bbb.com的镜像地址,当用户访问aaa.com时,该站点的程序就会来bbb.com抓取页面信息然后返回给访问者,本质上还是读取源站的数据。 第二种就是利用仿站软件抓取所有页面保存为静态页面并部署到服务器上。 第三种就是恶意解析,例如对你网站进行反向代理。 上面两种概括了大概的镜像方式,具体实施根据需要调整,例如定时缓存等。
await
2021/09/09
1.5K0
Robots协议
Robots协议 什么是robots? Robots文件:网站和搜索引擎之间的一个协议。 用来防止搜索引擎抓取那些我们不想被搜索引擎看到的隐私内容。 Robots文件告诉蜘蛛什么是可以被查看的。 Robots是蜘蛛爬行网站第一个要访问的文件。 一:搜索引擎蜘蛛爬虫的原理 网络蜘蛛是通过网页的链接地址来寻找网页,从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其他链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。 当我们不想让搜索引擎抓
用户1112962
2018/07/03
1.4K0
爬虫的"盗亦有道"-Robots协议
网络爬虫的君子协议 执着 网络爬虫的尺寸 小规模,数量小,爬去速度不敏感,requests库 中规模,数据规模较大,爬取速度敏感scrapy库 大规模,搜索引擎,爬取速度关键定制开发 爬取网页 玩转网
若与
2018/04/25
2.1K0
爬虫的"盗亦有道"-Robots协议
影响企业网站收录与排名的11个因素
网站收录恐怕是所有SEO都关心的问题,没有收录就没有排名,没有排名就没有权重,没有权重就会影响流量转化以及收入;收录是排名的前提,所以从大方向上来看,保证网站页面的排名,首要的就要保证快速网站收录。那么,影响网站收录与排名的因素有哪些呢?
茹莱神兽
2022/02/25
6680
影响企业网站收录与排名的11个因素
为什么质疑问难,SEO人员需要经常思考?
质疑问难,主要是指在日常工作中,我们应该经常的多邀请同行业的朋友,相互交流与学习,并通过一起讨论得到更加完善的结果。
蝙蝠侠IT
2021/05/14
2940
为什么质疑问难,SEO人员需要经常思考?
网站突然不收录了是什么原因?详细的排查方向和建议
​​结论:服务器问题与网站不收录密切相关,往往是首要排查点(特别是稳定性和爬虫可访问性)。但务必进行系统排查,技术原因(特别是robots.txt)、安全问题、内容问题、人工操作等都可能是诱因。​​ 优先使用Google Search Console/Bing Webmaster Tools的数据指导排查。
用户5426187
2025/06/11
800
网站突然不收录了是什么原因?详细的排查方向和建议
2018黑帽SEO优化排名技术方法大总结分类目录文章标签友情链接联系我们
网站使用黑帽SEO方法主要是研究和利用搜索引擎算法漏洞,其手法不符合主流搜索引擎发行方针规定,优化方法采用的也是搜索引擎禁止的方式去优化网站的,影响搜索引擎对网站排名的合理和公正性。黑帽SEO行为通常
用户1246209
2018/06/27
2.2K0
爬虫 (四) 必须掌握的基础概念 (一)
所谓的通用爬虫就是指现在的搜索引擎(谷歌,雅虎,百度)主要的构成部分,主要是互联网的网页爬取下来存于本地,形成备份
公众号---人生代码
2019/12/10
9270
爬虫 (四) 必须掌握的基础概念 (一)
推荐阅读
相关推荐
2019年搜索引擎蜘蛛爬虫名称最新整理总汇
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验