Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Windows 系统指令及服务

Windows 系统指令及服务

作者头像
安全小王子
发布于 2020-07-31 09:13:53
发布于 2020-07-31 09:13:53
1.8K0
举报
文章被收录于专栏:betasecbetasec

本文作者:a-running-snail(贝塔安全实验室-核心成员)

0x01:常用系统指令

dir //查看当前目录和子目录

tree 以图形模式显示驱动器或路径的目录结构

mkdir 创建目录

md 创建文件夹

rd 删除文件夹

move 将文件从一个目录转移到另一个目录

type 显示文本文件内容

copy 复制文件

del 删除文件

quser 查看当前登陆的用户

rename /ren 重命名文件/文件夹

ipconfig /all 获取ip地址 所在域 linux:ifconfig -a

Route print 路由信息

Arp -a arp缓存

Netsh firewall show config 查看防火墙规则

Netsh firewall show state

Netstat -an 获取端口信息

Whoami 当前用户权限

Hostname 主机名称

Set 环境变量

Query user 查看远程终端在线用户

Systeminfo 获取操作系统版本、类型、位数等相关信息、安装;

tasklist \svc

netstat -an | findstr "LISTENING"

· -b: 显示包含于常见每个链接或监听端口的可执行组件;

· -o: 显示与每个连接相关的所属进程ID;

· -v: 与b一起使用时将显示包含于为所有可执行组件创建连接或者监听端口的组件;

Netstat -anb 进程号、端口开放情况、开放端口程序、监听端口组件

Netsata -ano tcp/udp协议信息、端口、进程号

Netstat -anvb 进程号、端口所用协议、调用的可执行组件、第三方进程的系统路径等

Tasklist /svc 获取运行的进程名称、服务、PID

Driverquery 查看已安装驱动程序列表

Net start 查看已经启动的windows服务

Msinfo32 获取更加详细的信息

Taskkill 是windows自带的终止进程程序

TASKKILL [/S system [/U username [/P [password]]]]{ [/FI filter] [/PID processid | /IM imagename] } [/T] [/F]

例如:taskkill /pid 452 /f taskkill /im 360tray /f

用户管理命令:

Net user hack 123 /add 添加hack用户 密码为123

whoami 查询账号所属权限

whoami /all 查看sid值密码策略

net account 查看本地密码策略

net account /domain 查看域

netstat -an 网络连接查询

route print 路由打印

net user 查询本机用户列表

net session 查看当前会话

Net start 获取服务信息利用第三方漏洞提权、关闭杀毒软件、防火墙、以及关闭某些防护进程

Net stop servicesname 停止服务命

Net start servicename 开启服务命令

net share 查看SMB指向的

net view 查询同一域内机器列表

net view /domain 查询域列表

nltest /dclist:bk 查询域控主机名 nltest /dclist:域名

nltest /domain_trusts 列出域之间的信任关系

net view /domain:Secwing 查看Secwing域中的列表

net time /domain 判断主域,主域都做时间列表

net config workstation 当前登录域

net group "enterprise admins" /domain 企业管理组

net user /domain admin@126.com test 修改域用户密码(需要域管理员密码)

net user /domain 查询域用户

net group /domain 查询域里面的工作组

net group "domain admins" /domain 查询域管理员用户组

net localgroup administrators /domain //登录本机的域管理员

net group "domain controllers" /domain 查看域控制器

mstsc /admin 远程桌面登录到console会话解决hash无法抓取问题

dsquery computer domainroot -limit 65535 && net group "domain computers" /domain 列出该域内所有机器名

dsquery user domainroot -limit 65535 && net user /domain 列出该域内所有用户名

dsqery subnet 列出该域内网段划分

dsqery group && net group /domain //列出该域内分组

dsquery ou 列出该域内组织单位

dsquery server && net time /domain 列出该域内域控制器

net localgroup administrators //查看本机管理员

Net localgroup adminnistrators hack /add 添加hack为管理员权限

Net localgroup adminnistrators 查看当前系统管理员

Net localgroup “remote desktop users” hack /add 加入远程桌面用户组

Net user hack 查看指定用户的信息

Net user guest /active:yes 激活guest用户

Net user guest 123

0x02:远程桌面开启指令

windows系统开启查询远程桌面(mstsc/rdesktop)

(1)XP/Win2k3/Win7/Win2k8/Win8.1/Win10/2012/2016(0:ON、1:OFF):

REG ADD "HKLM\SYSTEM\CurrentControlSet\Control\Terminal Server" /v fDenyTSConnections /t REG_DWORD /d 0 /f

(2)Win2k3/Win7/Win2k8/Win8.1/Win10/2012/2016:(0:ON、1:OFF):

wmic RDTOGGLE WHERE ServerName='%COMPUTERNAME%' call SetAllowTSConnections 1

(3)Winserver2008/2012/Win2k3/win7:

wmic /namespace:\\root\cimv2\terminalservices path win32_terminalservicesetting where (__CLASS !="") call setallowtsconnections 1

(4)Winserver2008/2012/:

wmic /namespace:\\root\cimv2\terminalservices path win32_tsgeneralsetting where (TerminalName ='RDP-Tcp') call setuserauthenticationrequired 1

(5)XP/Win2k3/Win7/Win2k8/Win8.1/Win10/2012/2016(Metasploit):

meterpreter> run getgui -e

以下脚本或模块可以开启3389远程桌面端口、创建管理员账户密码、禁用远程桌面(TCP-In)防火墙入站规则。

/usr/share/metasploit-framework/scripts/meterpreter/getgui.rb

/usr/share/metasploit-framework/modules/post/windows/manage/enable_rdp.rb

0x03:常用端口及服务

数据库类端口:

MSSQL: 1433

Oracle: 1521

MYSQL: 3306

PostgreSQL: 5432

特殊服务类:

SSL(心脏滴血):443

MS08067、MS110568、MS17010:445

Rsync(未授权):873

CouchDB: 5984

redis(未授权):6379

WebLogic(弱口令、反序列化):7001/7002

memcache(未授权):11211

Mongodb(未授权):27017/27018

SAP(命令执行):50000

hadoop(未授权):50070、50030

远程连接端口:

ftp: 21

ssh: 22

telnet: 23

SMB(弱口令):445

路由(zebra):2601/2604

远程桌面:3389 (0708)

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-11-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 betasec 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
强化学习从基础到进阶–案例与实践[8]:近端策略优化(proximal policy optimization,PPO)算法
在介绍近端策略优化(proximal policy optimization,PPO) 之前,我们先回顾同策略和异策略这两种训练方法的区别。在强化学习里面,要学习的是一个智能体。如果要学习的智能体和与环境交互的智能体是相同的,我们称之为同策略。如果要学习的智能体和与环境交互的智能体不是相同的,我们称之为异策略。
汀丶人工智能
2023/10/11
1.2K0
强化学习从基础到进阶–案例与实践[8]:近端策略优化(proximal policy optimization,PPO)算法
强化学习从基础到进阶-常见问题和面试必知必答8:近端策略优化(proximal policy optimization,PPO)算法
经典策略梯度的大部分时间花在数据采样上,即当我们的智能体与环境交互后,我们就要进行策略模型的更新。但是对于一个回合我们仅能更新策略模型一次,更新完后我们就要花时间重新采样数据,然后才能再次进行如上的更新。
汀丶人工智能
2023/06/28
5070
强化学习系列(八)--PPO
回顾上文中的DDPG,DDPG是源于DQN,它使用神经网络替换maxQ(s',a')的功能来解决连续空间问题。也就是说DDPG的Actor网络输出的是一个动作,他的目标是输出一个动作,这个动作输入到Critic后,能过获得最大的Q值。和DQN一样,更新的时候如果更新目标在不断变化会使学习过程困难,所以需要固定目标网络,求target的网络更新后再赋值参数,所以需要四个网络。
languageX
2022/04/01
4.8K0
【MARL】深入理解多智能体近端策略优化(MAPPO)算法与调参
MAPPO 是一种多智能体强化学习算法,基于单智能体的 PPO (Proximal Policy Optimization) 算法进行了扩展,专门设计用于解决多智能体协作和竞争环境中的决策问题。
不去幼儿园
2024/12/03
1.1K0
【MARL】深入理解多智能体近端策略优化(MAPPO)算法与调参
强化学习(十六) 深度确定性策略梯度(DDPG)
    在强化学习(十五) A3C中,我们讨论了使用多线程的方法来解决Actor-Critic难收敛的问题,今天我们不使用多线程,而是使用和DDQN类似的方法:即经验回放和双网络的方法来改进Actor-Critic难收敛的问题,这个算法就是是深度确定性策略梯度(Deep Deterministic Policy Gradient,以下简称DDPG)。
刘建平Pinard
2019/03/05
5.8K0
近端策略优化算法(PPO)
策略梯度迭代,通过计算策略梯度的估计,并利用随机梯度上升算法进行迭代。其常用的梯度估计形式为: E^t[∇θlogπθ(at∣st)A^t] \hat{\mathbb{E}}_t[\nabla_\theta log \pi_\theta(a_t | s_t)\hat{A}_t] E^t​[∇θ​logπθ​(at​∣st​)A^t​] 其中πθ\pi_\thetaπθ​为随机策略,A^t\hat{A}_tA^t​是优势函数在时间步t的估计,其损失函数为: LPG(θ)=E^t[logπθ(at∣st)A^t] L^{PG}(\theta)=\hat{\mathbb{E}}_t[log_{\pi_\theta}(a_t|s_t)\hat{A}_t] LPG(θ)=E^t​[logπθ​​(at​∣st​)A^t​]
Steve Wang
2020/02/18
1.5K0
近端策略优化算法(PPO)
DeepSeek 背后的数学原理:深入探究群体相对策略优化 (GRPO)
群体相对策略优化 (GRPO,Group Relative Policy Optimization) 是一种强化学习 (RL) 算法,专门用于增强大型语言模型 (LLM) 中的推理能力。与严重依赖外部评估模型(价值函数)指导学习的传统 RL 方法不同,GRPO 通过评估彼此相关的响应组来优化模型。这种方法可以提高训练效率,使 GRPO 成为需要复杂问题解决和长链思维的推理任务的理想选择。
致Great
2025/02/12
2.4K0
DeepSeek 背后的数学原理:深入探究群体相对策略优化 (GRPO)
深度强化学习落地方法论算法选择:DQN、DDPG、A3C、PPO、TD3
虽然每年 RL 方向的 paper 满天飞,但真正具有普遍实用价值的突破性工作实在不多,大多数还是在经典框架基础上的改进和扩展。DRL 常规武器库里的存货主要还是老三样:DQN,DDPG 和 A3C,它们是深度学习时代最成熟、最能体现智慧结晶的三个 DRL 框架,你可以在 GitHub 上找到无数相关代码,有 OpenAI,DeepMind 和 Nvidia 这些大公司的,也有个人爱好者的。对于 DRL 初学者,它们是最佳的敲门砖;对于算法研究者,它们是最厚实的 “巨人肩膀”;对于算法工程师,它们是最顺手的试金石。你完全可以把三个框架都放到项目模拟器上跑一跑,看哪个效果好就用哪个。当然,这三个算法框架都有各自的特点和适用 domain,结合对项目的分析,是可以提前评估最合适的算法的。
汀丶人工智能
2023/10/11
6.4K0
深度强化学习落地方法论算法选择:DQN、DDPG、A3C、PPO、TD3
强化学习算法解析:PPO(Proximal Policy Optimization)
PPO(近端策略优化)是OpenAI于2017年提出的一种策略梯度类算法,以其高效性、稳定性和易实现性成为强化学习领域的主流算法。以下从核心原理、数学推导、代码实现到应用场景进行系统解析。
jack.yang
2025/04/05
3.1K0
强化学习算法解析:PPO(Proximal Policy Optimization)
【强化学习】近端策略优化算法(PPO)万字详解(附代码)
近端策略优化、PPO(Proximal Policy Optimization)是一种强化学习算法,设计的目的是在复杂任务中既保证性能提升,又让算法更稳定和高效。以下用通俗易懂的方式介绍其核心概念和流程。
不去幼儿园
2025/01/02
13.2K0
【强化学习】近端策略优化算法(PPO)万字详解(附代码)
强化学习方法小结
在介绍强化学习算法之前先介绍一个比较重要的概念,就是Bellman方程,该方程表示动作价值函数,即在某一个状态下,计算出每种动作所对应的value(或者说预期的reward)。
marsggbo
2019/12/23
7340
强化学习方法小结
强化学习基础篇3:DQN、Actor-Critic详细讲解
在之前的内容中,我们讲解了Q-learning和Sarsa算法。在这两个算法中,需要用一个Q表格来记录不同状态动作对应的价值,即一个大小为 $状态个数,动作个数$ 的二维数组。在一些简单的强化学习环境中,比如迷宫游戏中(图1a),迷宫大小为4*4,因此该游戏存在16个state;而悬崖问题(图1b)的地图大小为 4*12,因此在该问题中状态数量为48,这些都属于数量较少的状态,所以可以用Q表格来记录对应的状态动作价值。但当我们需要应用强化学习来解决实际问题时,比如解决国际象棋问题或围棋问题,那么环境中就会包含 $10^{47}$ 个state或 $10^{170}$ 个state,如此庞大的状态数量已经很难用Q表格来进行存储,更不要说在3D仿真环境中,机器人手脚弯曲的状态是完全不可数的。由此可以看到Q表格在大状态问题和不可数状态问题时的局限性。同时,在一个强化学习环境中,不是所有的状态都会被经常访问,其中有些状态的访问次数很少或几乎为零,这就会导致价值估计并不可靠。
汀丶人工智能
2023/06/03
2.6K0
强化学习基础篇3:DQN、Actor-Critic详细讲解
强化学习笔记6:值函数估计Value function Approximation
\(\delta\) scalar number \(E_t\) 维度和s维度一致
列夫托尔斯昊
2020/08/25
7450
Hands on Reinforcement Learning 09 Policy Gradient Algorithm
本书之前介绍的 Q-learning、DQN 及 DQN 改进算法都是基于价值(value-based)的方法,其中 Q-learning 是处理有限状态的算法,而 DQN 可以用来解决连续状态的问题。在强化学习中,除了基于值函数的方法,还有一支非常经典的方法,那就是基于策略(policy-based)的方法。对比两者,基于值函数的方法主要是学习值函数,然后根据值函数导出一个策略,学习过程中并不存在一个显式的策略;而基于策略的方法则是直接显式地学习一个目标策略。策略梯度是基于策略的方法的基础,本章从策略梯度算法说起。
一只野生彩色铅笔
2023/04/09
4610
Hands on Reinforcement Learning 09 Policy Gradient Algorithm
强化学习(十三) 策略梯度(Policy Gradient)
    在前面讲到的DQN系列强化学习算法中,我们主要对价值函数进行了近似表示,基于价值来学习。这种Value Based强化学习方法在很多领域都得到比较好的应用,但是Value Based强化学习方法也有很多局限性,因此在另一些场景下我们需要其他的方法,比如本篇讨论的策略梯度(Policy Gradient),它是Policy Based强化学习方法,基于策略来学习。
刘建平Pinard
2018/12/27
1.5K0
强化学习算法TD3论文的翻译与解读:延迟学习、软更新、策略噪声、梯度截取
强化学习算法 TD3 论文:Addressing Function Approximation Error in Actor-Critic Methods 2018.10. ,作者本人的 TD3 代码,PyTroch 实现
汀丶人工智能
2023/10/11
2.4K0
强化学习算法TD3论文的翻译与解读:延迟学习、软更新、策略噪声、梯度截取
强化学习-5:Model-free control
贪婪策略梯度法如果用V(s),需要MDP已知 用Q(s,a),不需要已知MDP
列夫托尔斯昊
2020/08/25
7180
强化学习-5:Model-free control
【万字专栏总结】离线强化学习(OfflineRL)总结(原理、数据集、算法、复杂性分析、超参数调优等)
强化学习发展的特别早,但一直不温不火,其中Sutton老爷子早在1998年就写了强化学习领域的圣经书籍:An Introduction : Reinforcement Learning ,但也并未开启强化学习发展的新局面。直到2012年,深度学习广泛兴起,大规模的神经网络被成功用于解决自然语言处理,计算机视觉等领域,人工智能的各个方向才开始快速发展,强化学习领域最典型的就是2013年DeepMind公司的Volodymyr Mnih发表Playing Atari with Deep Reinforcement Learning(DQN技术),可以说开启了深度强化学习技术发展的新高潮,2015年该论文的加强版Human-level control through deep reinforcement learning 登上Nature, 以及2016年Nature上的AlphaGo: Mastering the game of Go with deep neural networks and tree search 充分证明了深度强化学习技术的发展潜力。
深度强化学习实验室
2022/09/23
11.3K0
【万字专栏总结】离线强化学习(OfflineRL)总结(原理、数据集、算法、复杂性分析、超参数调优等)
Hands on Reinforcement Learning 11 Trust Region Policy Optimization
本书之前介绍的基于策略的方法包括策略梯度算法和 Actor-Critic 算法。这些方法虽然简单、直观,但在实际应用过程中会遇到训练不稳定的情况。回顾一下基于策略的方法:参数化智能体的策略,并设计衡量策略好坏的目标函数,通过梯度上升的方法来最大化这个目标函数,使得策略最优。具体来说,假设
一只野生彩色铅笔
2023/04/09
4260
《深度强化学习》面试题汇总
4. 强化学习的损失函数(loss function)是什么?和深度学习的损失函数有何关系?
深度强化学习实验室
2019/11/21
5.1K0
《深度强化学习》面试题汇总
推荐阅读
相关推荐
强化学习从基础到进阶–案例与实践[8]:近端策略优化(proximal policy optimization,PPO)算法
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档