前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【Hexo实战】创建网站第一篇博客

【Hexo实战】创建网站第一篇博客

作者头像
林老师带你学编程
发布于 2019-05-26 14:08:04
发布于 2019-05-26 14:08:04
69300
代码可运行
举报
文章被收录于专栏:强仔仔强仔仔
运行总次数:0
代码可运行

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://cloud.tencent.com/developer/article/1436325

Hexo和NexT都介绍完了,现在就到了童鞋最关心的时刻了,我们如何编写文章,如果同步到我们的网站上面去呢?别着急,今天就给大家揭晓答案~

首先我们来看一下官网的定义

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ hexo new [layout] <title>

您可以在命令中指定文章的布局(layout),默认为 post,可以通过修改 _config.yml 中的 default_layout 参数来指定默认布局。

官网上面说的比较绕口,其实我们一般常用的就两种,一个hexo new title,在默认文件夹下面创建md格式文件,还有就是通过hexo new page dir创建目录

下面我给大家举几个例子,大家就明白了,首先我们创建一个名字为java从入门到精通的文件。

这边我们输入如下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
hexo new java从入门到精通

打开blog\source_posts目录,我们可以看到,java从入门到精通文件已经创建好了。

此时我们刷新一下应用(127.0.0.1:4000),就可以看到刚才我们添加的文件了。

那文件的内容我们该怎么编写呢??这个其实就更简单了,打开我们刚才创建的Java从入门到精通,编写我们的内容就可以了。

文章内容如下所示:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
---
title: java从入门到精通
date: 2019-04-16 14:45:38
tags:
- springboot
- java
categories:
- 技术
---
字段解释:
这边title指的是文章的标题。
data指的是文章的创建时间,文章的排序规则也是根据这个字段来的,时间越后,排序越靠前。
tags指的是这个文章所对应的标签。
categories指的是文章所对应的分类。

好了我们重启一下应用,看看是否同步到网站上面去了。

可以看到内容已经成功同步上去了。

其实实际写文章的时候一般不会通过命令来操作,而是直接在文件夹下面新建一篇文章或者通过其它文本编译器写好之后复制过去即可。

上一节我们添加了很多菜单tab,有去点击的童鞋可能会发现,有些页面点击会报404错误。

这个说明对应的页面不存在,这个时候我们该怎么办呢?别着急,我们可以通过hexo new page dir来创建对应的文件夹,接 下来我们来实际操作一把。

输入创建页面命令:

进入文章目录,我们可以看到在source目录下面,已经成功创建完毕。

接下来我们重启一下应用,看看是否更新成功。

我们可以看到已经成功的跳转过去了,不再是404错误了。

我如果想看所有文章的标签信息呢,通过标签查找对应的文章呢,这个该如何实现呢?其实很简单,就几句代码就ok了。

在tags中index.md中加入如下命令即可:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
---
title: 文章标签
date: 2019-04-12 14:30:36
type: "tags"
---

重启一下应用,我们就可以看到标签页面已经和以往不一样了。

只要点击对应的标签就可以跳转到绑定该标签的文章列表了,是不是超级简单。

林老师带你学编程https://wolzq.com

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019年04月16日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Python爬取豆瓣电影Top250并进行数据分析
利用Python爬取豆瓣电影TOP250并进行数据分析,爬取’排名’,‘电影名称’,‘导演’,‘上映年份’,‘制作国家’,‘类型’,‘评分’,‘评价分数’,’短评’等字段。
全栈程序员站长
2022/09/05
2.2K0
Top250电影爬取并进行数据分析
利用Python对豆瓣电影Top250电影进行爬取,收集相关的信息,并且利用Python进行数据分析,获取'排名','电影名称','导演','上映年份','制作国家','类型','评分','评价分数','短评'等字段,探索相关的数据。
北山啦
2022/11/04
8750
Python对豆瓣电影Top250并进行数据分析
由于CSDN审核机制,导致原文章无法发出,故修改了相关词汇,并改为两篇问章发布。 数据获取 翻页操作 观察可知,我们只需要修改start参数即可 headers字段 headers中有很多字段,这些字段都有可能会被对方服务器拿过来进行判断是否为爬虫 通过headers中的User-Agent字段来 原理:默认情况下没有User-Agent,而是使用模块默认设置 解决方法:请求之前添加User-Agent即可;更好的方式是使用User-Agent池来解决(收集一堆User-Agent的方式,或
北山啦
2022/11/16
4920
Python对豆瓣电影Top250并进行数据分析
豆瓣电影top250爬虫及可视化分析
  人类社会已经进入大数据时代,大数据深刻改变着我们的工作和生活。随着互联网、移动互联网、社交网络等的迅猛发展,各种数量庞大、种类繁多、随时随地产生和更新的大数据,蕴含着前所未有的社会价值和商业价值!!!
小孙同学
2022/01/17
6.7K0
豆瓣电影top250爬虫及可视化分析
爬取豆瓣Top250 - 2
码农GT038527
2024/11/11
1380
爬取豆瓣Top250 - 2
Python爬虫实战入门:豆瓣电影Top250(保你会,不会来打我)
点击进入数据包之后,首先要查看我们需要的数据是否都在这个数据包里面,如果我们需要的数据在这个数据包里面不全,则这个数据包可能不是我们需要的,要另外进行查找;如果我们需要的数据在这个数据包里面都有,那么这个数据包是我们所需要的数据包,接下来我们就点击标头,里面有我们需要的url等信息。
爱喝兽奶的熊孩子
2024/04/10
3.9K0
Python爬虫实战入门:豆瓣电影Top250(保你会,不会来打我)
Python爬虫 爬取豆瓣电影Top250信息
文章目录 一、分析网页 翻页查看url变化规律: 第一页:https://movie.douban.com/top250?start=0&filter= 第二页:https://movie.dou
叶庭云
2020/09/17
2.9K0
Python爬虫   爬取豆瓣电影Top250信息
python爬取豆瓣电影Top250的信息
python爬取豆瓣电影Top250的信息。 初学,所以代码的不够美观和精炼。 如果代码有错,请各位读者在评论区评论,以免误导其他同学。 (可能也没多少人看) import requests #从bs4中导入BeautifulSoup模块 from bs4 import BeautifulSoup #获取电影的名称(中文,外文,其他) def get_movies_name():     #定制请求的头部     headers = {         "user-agent":"Mozill
拓荒者
2019/03/16
6230
python scrapy爬虫练习(1) 爬取豆瓣电影top250信息
文章目录 一、分析网页 目标URL:https://movie.douban.com/top250?start=0&filter= 每一页有25条电影信息,总共10页。检查网页可以发现,每条电影的详细
叶庭云
2020/09/17
5.1K0
python  scrapy爬虫练习(1)   爬取豆瓣电影top250信息
爬取豆瓣Top250 - 1
码农GT038527
2024/11/06
1280
爬取豆瓣Top250 - 1
爬取豆瓣电影排行top250
功能描述V1.0: 爬取豆瓣电影排行top250 功能分析: 使用的库 1、time 2、json 3、requests 4、BuautifulSoup 5、RequestException 上机实验室: """ 作者:李舵 日期:2019-4-27 功能:抓取豆瓣电影top250 版本:V1.0 """ import time import json import requests from bs4 import BeautifulSoup from requests.e
py3study
2020/01/16
5790
BeautifulSoup爬取豆瓣电影Top250
任务要求: 爬取豆瓣电影Top250的电影名、评分、短评、评分人数等信息 ---- 通过博客对beautifulSoup4的简单介绍,现在开始实战啦,没有看过的,可以先看看 Python网络爬虫基础–BeautifulSoup 使用selenium定位获取标签对象并提取数据 利用selenium爬取数据总结 直接上代码 # -*- coding: utf-8 -*- """ Created on Mon Dec 22 12:03:06 2020 @author: kun """ imp
北山啦
2022/11/27
4070
BeautifulSoup爬取豆瓣电影Top250
爬取豆瓣电影TOP200(改进)
版权声明:Copyright © https://blog.csdn.net/zzw19951261/article/details/81042237
zhengzongwei
2019/07/31
4070
【Python爬虫五十个小案例】爬取豆瓣电影Top250
文章链接:https://cloud.tencent.com/developer/article/2470420
小馒头学Python
2024/11/25
7760
【Python爬虫五十个小案例】爬取豆瓣电影Top250
Scrapy爬虫框架教程(二)-- 爬取豆瓣电影TOP250
前言 经过上一篇教程我们已经大致了解了Scrapy的基本情况,并写了一个简单的小demo。这次我会以爬取豆瓣电影TOP250为例进一步为大家讲解一个完整爬虫的流程。 工具和环境 语言:python
木制robot
2018/04/13
1.9K0
Scrapy爬虫框架教程(二)-- 爬取豆瓣电影TOP250
爬虫入门经典:如何爬取豆瓣电影Top250
我们打开网址,查看页面布局,可以看到有电影名称及别名、评分、引言等等,在此就以电影名称及别名、评分、引言为爬取目标。
不温卜火
2020/10/28
1.3K0
爬虫入门经典:如何爬取豆瓣电影Top250
Python数据可视化:豆瓣电影TOP250
首先任意文件夹下命令行运行scrapy startproject doubanTop250,创建一个名为doubanTop250的文件夹。
小F
2020/10/09
1.8K0
Python数据可视化:豆瓣电影TOP250
Python爬虫实战示例-51job和豆瓣电影
命令:conda create -n {} python={}第一对大括号替换为环境的命名,第二对大括号替换为python的版本号 例如:conda create -n python27 python=2.7 这个命令就是创建一个python版本为2.7的环境,并命名为python27
潇洒坤
2018/09/10
7690
Python爬虫实战示例-51job和豆瓣电影
Python 爬取豆瓣电影当前上映电影信息
爬取当前时间段豆瓣电影中正在上映的电影的相关信息,如电影名、导演、演员表、上映时间、制作方等信息,然后再通过字典的方式,将其保存在本地文件当中,以便我们查询;
村雨遥
2022/06/15
7380
Python 爬取豆瓣电影当前上映电影信息
[Python从零到壹] 七.网络爬虫之Requests爬取豆瓣电影TOP250及CSV存储
requests模块是用Python语言编写的、基于urllib的第三方库,采用Apache2 Licensed开源协议的http库。它比urllib更方便简洁,既可以节约大量的工作,又完全满足http测试需求。requests是一个很实用的Python库,编写爬虫和测试服务器响应数据时经常会用到,使用requests可以轻而易举的完成浏览器相关操作。功能包括:
Eastmount
2021/12/02
1.9K0
[Python从零到壹] 七.网络爬虫之Requests爬取豆瓣电影TOP250及CSV存储
相关推荐
Python爬取豆瓣电影Top250并进行数据分析
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验