首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【HTML】HTML 标签 ④ ( 文件路径 | 相对路径 | 绝对路径 | 同级目录 | 下一级目录 | 上一级目录 )

文章目录 一、文件路径 1、绝对路径 2、相对路径 ( 同级目录访问 | 下级目录访问 | 上级目录访问 ) 一、文件路径 ---- 一个前端项目 , 可能有几百上千个 html , css , javascript...跳转到同级目录 在 hello.html 中访问下级目录 index 目录中的 index.html 文件 , 属于下级目录访问 , 使用 目录名 + 文件名访问 ; HTML...\index\index.html">跳转到下级目录 在 index.html 中访问上级目录中的 hello.html 文件 , 属于上级目录访问 , 使用 ...../hello.html">跳转到上一级目录 完整代码示例 : hello.html 代码示例 : 其中涉及 同级目录访问 , 下级目录访问 ; 跳转到下级目录 html> index.html 代码示例 : 涉及上级目录访问 ; <!

1.9K11
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    python爬虫之小说网站--下载小说(

    python爬虫之小说网站--下载小说(正则表达式) 思路: 1.找到要下载的小说首页,打开网页源代码进行分析(例:https://www.kanunu8.com/files/old/2011/2447....html) 2.分析自己要得到的内容,首先分析url,发现只有后面的是变化的,先获得小说的没有相对路径,然后组合成新的url(每章小说的url) 3.获得每章小说的内容,进行美化处理 代码如下: #小说爬虫...>html)">(.+)') #print(m2.findall(txt)) raw=m2.findall(txt) #获得小说的目录以及对应的每个章节的相对路径...----->",i[0]) #i[0]为小说章节目录 r_nr=requests.get(i_url).content.decode('gbk') n_nr=m3....m4.sub('',n_nr[0]) #把n_nr[0]中""替换为空 n2=m5.sub('',n) f.write('\n'+i[0]+'\n') #把小说的目录写入文件

    1.9K20

    markdownpad2:输出Html时自动生成目录TOC

    用了挺长一段时间markdown编辑器,写文档挺方便,用得熟悉了,但是发现它没有TOC输出功能,有些不方便,网上找到不少文章,找到下面这篇文章,这篇文章中的脚本实现了markdownpad输出html...时自动加上目录的功能,javascript脚本写得也简优雅,但美中不足就是没有在目录中加上标题编号(1.1,1.2….)...《为MarkdownPad2的HTML输出也增加目录》 参考这篇文章的代码,自己做了些简化修改,在输出目录的同时为标题加上标号,满足我的使用: <script type="text/javascript...代码下载 javascript代码片段下载地址: https://gitee.com/l0km/codes/j5pobwnumrdi14xseqa6c67 将上面的代码加入选项/高级/自定义HTML...生成的html效果: ?

    1.8K20

    HTML中如何表示根目录?HTML的绝对路径与相对路径

    以下讨论均是在HTML环境下进行。 HTML中如何表示根目录? 代码示例 "/aaa" //表示跟目录下的aaa "...../aaa" //表示当前目录的上级目录下的aaa "bbb/aaa" //表示当前目录的bbb目录下的aaa HTML之绝对路径与相对路径 相对路径 相对路径是指目标相对于当前文件的路径,网页结构设计中多采用这种方法来表示目标的路径...表示方法如下: ./ :代表文件所在的目录(可以省略不写) ../ :代表文件所在的父级目录 ../../ :代表文件所在的父级目录的父级目录 / :代表文件所在的根目录 值得注意的是,(/ :代表文件所在的根目录.../可以省略) html/css/css1/000.css"/> html/css/css1/000.css

    11.9K30

    Python脚本自动下载小说

    本人喜欢在网上看小说,一直使用的是小说下载阅读器,可以自动从网上下载想看的小说到本地,比较方便。最近在学习Python的爬虫,受此启发,突然就想到写一个爬取小说内容的脚本玩玩。...具体实现功能如下:输入小说目录页的url之后,脚本会自动分析目录页,提取小说的章节名和章节链接地址。然后再从章节链接地址逐个提取章节内容。...url提取 #              2015.5.28  完成目录中正则提取第*章,提取出章节链接并下载。...                     return menu,novel def get_chapter(name,url):     """Get every chapter in menu"""     html...=urllib2.urlopen(url).read()     soup=BeautifulSoup(html)     content=soup.find_all('p')     # 提取小说正文

    1.7K10
    领券