首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >家庭服务器配置(云服务器解决方案)

家庭服务器配置(云服务器解决方案)

作者头像
全栈程序员站长
发布于 2022-07-25 12:37:42
发布于 2022-07-25 12:37:42
4.5K0
举报

大家好,又见面了,我是你们的朋友全栈君。

家庭服务器解决方案——硬件篇

2021-07-16 22:41:58

关于服务器我一直有个设想:未来每个人都有一个专属服务器。这个服务器是每个人在互联网的数据中枢。这个服务器:安全,只有所有者拥有管理权限;强大,可以存储数据并保护隐私。当人离开世界时,可以选择把一些数据留给家人,也可以选择把自己在互联网的记忆全部抹去……

当然现在并没有我设想的那种服务器,所以不如聊聊更实际的家庭服务器解决方案。家庭服务器常用功能有:NAS、下载机、多媒体中心、Web服务器、智能家居控制中枢等等。目前比较完善的家庭服务器软硬件解决方案是家用NAS主机,当然你完全可以自己搭建一个家庭服务器,增加一份动手实践的乐趣。

1.选择家庭服务器的CPU

家庭服务器不同于真正意义上的商用服务器,所以我不建议选择商用服务器的软硬件方案,因为功耗过高、性能过剩。低功耗小主机完全可以充当家庭服务器。

关于服务器最核心的CPU,我有以下几点建议:

1.优先选择更多核的CPU,提升多任务处理能力,建议4核以上;

2.优先考虑CPU效能功耗比,主频可以不必太高,功耗不宜太高;

3.优先选择带核显的CPU,有核显可以安装桌面系统,维护更简单,而用独显则是杀鸡用牛刀了;

4.不能硬解码H.264/H.265的CPU可以不考虑,除非预算真的很低;

具体案例:J3160、J1900、Z8300、J1800、D2550、D525这些解码能力过时的CPU可以不考虑,除非预算不足。这些老面孔中,一些还溢价严重,J1900小主机因为双网口可以在闲鱼上开到600多,几乎和J4105小主机持平。所以预算充足时这些型号可以看都不看。

起步J3455/N3450起,但更推荐较新款的N4100/J4105/J4125。

对功耗没要求、对性能要求较高的朋友可以考虑酷睿低压CPU或者服务器CPU。酷睿低压的TDP也仅15W,其单核和核显性能会强很多。

2.家庭服务器的其它硬件

内存:

考虑服务器多任务处理的特性,一般主机内存要够大,建议至少8G以上。因为小主机多为核显,如果CPU支持双通道,优先考虑上双通道内存,对核显性能有提升。

接口:

USB接口:USB3.0是必选项,Type-C接口是加分项;

硬盘接口:至少可接2个硬盘,Sata/mSata/M.2皆可;

网卡接口:千兆网口是必选项,多网口是加分项(目前双网口主机溢价严重,价格还挺不合理的);

视频输出接口:HDMI是必选项;

无线网卡、蓝牙属于加分项;

来电自启动、网卡唤醒属于加分项;

3.小主机案例

低端小主机案例

首先介绍我自用的低端硬件案例(硬件水平达不到入门级)。我的第一台个人服务器选择的是二手HP T610准系统,搭配4G内存和500G的机械硬盘,性能羸弱但价格便宜(260元)。

选它主要原因是,需求主要是放出租屋里做Nas和下载机、学习用的Web服务器。这配置几乎不能进行视频解码、桌面系统也不太流畅,但是用SSH学习Linux还不错,因为有2个Sata2接口作为NAS也能打,功耗17W平时做下载机。但这配置想做更多的事情就无能为力了。

中端小主机案例

后来去又买了一台小主机作为家庭服务器,这次选了N4100的方案。N4100的性能稍逊于J4105但功耗更低。即使是J4125相比主流CPU性能依然差一大截(J4125多核可以追上i5 6200U,单核和核显弱于i5 6200U一截),但性能足以胜任多媒体中心的要求。N4100/J4105/J4125相比游戏主机CPU,垫底都不够资格,但在小主机里却也算得上中端。小主机价格600,加了个500G硬盘50,共650元。

选择硬件时还要考虑一点,即硬件的稳定性。家用服务器并不需要365天无障碍运行,但依然要选散热能力强、稳定性良好的主机。

至于高端案例虽然我看过一些,但自己没有机会上手实践,等以后有机会再补上。

ARM主机方案

上面介绍的都是x86硬件方案,事实上ARM构架在功耗上更优秀。但ARM在性能和软件应用上还是逊色x86不少,所以目前还不是主流。

最常见的ARM小服务器方案是树莓派,但我个人对树莓派的好感度不高,因为树莓派硬件近期溢价严重,堪称“理财产品”。而且树莓派虽然软硬件解决方案在不断完善,但肯定远不如x86平台。而树莓派二手价格远高于同性能的x86硬件。真正选择树莓派是需要做嵌入式开发的朋友,对于新手我会优先推荐x86平台。对于想体验或学习ARM平台的朋友,我更建议去捡漏一些电视盒子,有不少性价比高且性能尚可的方案。我个人体验ARM用的是自己的手机+Termux,感觉也挺好的。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/127828.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年4月1,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
学界 | Yoshua Bengio等人提出MILABOT:强化学习聊天机器人
选自arXiv 作者:Iulian V. Serban等 机器之心编译 参与:路雪、李泽南 The Alexa Prize 是亚马逊在对话人工智能领域中发起的一项竞赛,本届比赛的奖金为 250 万美元,将于 11 月决出优胜者。本文介绍的是蒙特利尔大学 Yoshua Bengio 团队(MILA Team)参与本次比赛的 Chatbot 设计。 对话系统和聊天智能体(包括聊天机器人、个人助理和声控界面)在现代社会中越来越普遍。比如,移动设备内置的个人助理、电话中的自动技术支持、卖东西的在线机器人(从时尚服饰
机器之心
2018/05/08
5740
学界 | Yoshua Bengio等人提出MILABOT:强化学习聊天机器人
强化学习基础篇3:DQN、Actor-Critic详细讲解
在之前的内容中,我们讲解了Q-learning和Sarsa算法。在这两个算法中,需要用一个Q表格来记录不同状态动作对应的价值,即一个大小为 $状态个数,动作个数$ 的二维数组。在一些简单的强化学习环境中,比如迷宫游戏中(图1a),迷宫大小为4*4,因此该游戏存在16个state;而悬崖问题(图1b)的地图大小为 4*12,因此在该问题中状态数量为48,这些都属于数量较少的状态,所以可以用Q表格来记录对应的状态动作价值。但当我们需要应用强化学习来解决实际问题时,比如解决国际象棋问题或围棋问题,那么环境中就会包含 $10^{47}$ 个state或 $10^{170}$ 个state,如此庞大的状态数量已经很难用Q表格来进行存储,更不要说在3D仿真环境中,机器人手脚弯曲的状态是完全不可数的。由此可以看到Q表格在大状态问题和不可数状态问题时的局限性。同时,在一个强化学习环境中,不是所有的状态都会被经常访问,其中有些状态的访问次数很少或几乎为零,这就会导致价值估计并不可靠。
汀丶人工智能
2023/06/03
2.6K0
强化学习基础篇3:DQN、Actor-Critic详细讲解
深度强化学习——从DQN到DDPG
大家好,我是架构君,一个会写代码吟诗的架构师。今天说一说深度强化学习——从DQN到DDPG,希望能够帮助大家进步!!!
Java架构师必看
2022/07/06
1.5K0
深度强化学习——从DQN到DDPG
【深度学习】强化学习(三)强化学习的目标函数
  强化学习的基本任务是通过智能体与环境的交互学习一个策略,使得智能体能够在不同的状态下做出最优的动作,以最大化累积奖励。这种学习过程涉及到智能体根据当前状态选择动作,环境根据智能体的动作转移状态,并提供即时奖励的循环过程。
Qomolangma
2024/07/30
5200
【深度学习】强化学习(三)强化学习的目标函数
强化学习(十八) 基于模拟的搜索与蒙特卡罗树搜索(MCTS)
    在强化学习(十七) 基于模型的强化学习与Dyna算法框架中,我们讨论基于模型的强化学习方法的基本思路,以及集合基于模型与不基于模型的强化学习框架Dyna。本文我们讨论另一种非常流行的集合基于模型与不基于模型的强化学习方法:基于模拟的搜索(Simulation Based Search)。
刘建平Pinard
2019/03/15
1.5K0
【强化学习纲要】8 模仿学习「建议收藏」
周博磊《强化学习纲要》 学习笔记 课程资料参见: https://github.com/zhoubolei/introRL. 教材:Sutton and Barton 《 Reinforcement Learning: An Introduction》
全栈程序员站长
2022/10/02
9380
【强化学习纲要】8 模仿学习「建议收藏」
强化学习(十九) AlphaGo Zero强化学习原理
    在强化学习(十八) 基于模拟的搜索与蒙特卡罗树搜索(MCTS)中,我们讨论了MCTS的原理和在棋类中的基本应用。这里我们在前一节MCTS的基础上,讨论下DeepMind的AlphaGo Zero强化学习原理。
刘建平Pinard
2019/04/01
1.7K0
强化学习(十九) AlphaGo Zero强化学习原理
入门 | 从Q学习到DDPG,一文简述多种强化学习算法
选自towardsdatascience 作者:Steeve Huang 机器之心编译 参与:Edison Ke、路雪 本文简要介绍了强化学习及其重要概念和术语,并着重介绍了 Q-Learning 算
机器之心
2018/05/10
7620
强化学习概述
强化学习(Reinforcement Learning, RL)是一种机器学习范式,其中学习的主体(Agent)通过与环境的交互来最大化累积回报。强化学习与监督学习和无监督学习有所不同,主要体现在学习的方式和目标上:强化学习通过探索与试错的方式,学习如何采取行动以获得最大的回报,而非从已标注的数据中学习。
LucianaiB
2025/01/27
3310
机器学习——强化学习与深度强化学习
近年来,强化学习(Reinforcement Learning, RL)在多个领域取得了巨大的进展。从早期简单的迷宫导航问题到今天 AlphaGo 击败围棋世界冠军,强化学习的潜力得到了充分展现。而随着深度学习的引入,深度强化学习(Deep Reinforcement Learning, DRL)更是将这一技术推向了前所未有的高度。本篇文章将深入探讨强化学习与深度强化学习的基本原理、常见算法以及应用场景,旨在为读者提供一个详尽的学习路线图。
hope kc
2024/10/09
2.6K0
强化学习(十七) 基于模型的强化学习与Dyna算法框架
    在前面我们讨论了基于价值的强化学习(Value Based RL)和基于策略的强化学习模型(Policy Based RL),本篇我们讨论最后一种强化学习流派,基于模型的强化学习(Model Based RL),以及基于模型的强化学习算法框架Dyna。
刘建平Pinard
2019/03/04
2.5K0
强化学习(十七) 基于模型的强化学习与Dyna算法框架
强化学习(一)模型基础
    从今天开始整理强化学习领域的知识,主要参考的资料是Sutton的强化学习书和UCL强化学习的课程。这个系列大概准备写10到20篇,希望写完后自己的强化学习碎片化知识可以得到融会贯通,也希望可以帮到更多的人,毕竟目前系统的讲解强化学习的中文资料不太多。
刘建平Pinard
2018/08/14
9330
强化学习(一)模型基础
CS231n:12 强化学习
如下图所示,就是强化学习的工作过程。首先,存在一个环境,和一个代理,环境先给代理一个状态 ,然后代理根据这个状态输出一个动作 给环境。环境接受这个动作后进行评估,反馈给代理一个奖励值 ,以及下一步状态 ,如此往复直到环境给出一个终结状态。这样一个模型的目标是尽可能地获得更多的奖励值。
Here_SDUT
2022/08/08
7210
CS231n:12 强化学习
深度强化学习(DRL)专栏(一)
【磐创AI导读】:本篇文章是深度强化学习专栏的第一篇,讲了引言和强化学习基础知识,希望对大家有所帮助。查看上篇关于本专栏的介绍:深度强化学习(DRL)专栏开篇。想要获取更多的机器学习、深度学习资源,欢迎大家点击上方蓝字关注我们的公众号:磐创AI。
磐创AI
2019/09/03
1.5K0
深度强化学习(DRL)专栏(一)
强化学习(十四) Actor-Critic
    在强化学习(十三) 策略梯度(Policy Gradient)中,我们讲到了基于策略(Policy Based)的强化学习方法的基本思路,并讨论了蒙特卡罗策略梯度reinforce算法。但是由于该算法需要完整的状态序列,同时单独对策略函数进行迭代更新,不太容易收敛。
刘建平Pinard
2019/02/22
1.1K0
强化学习(六)时序差分在线控制算法SARSA
    在强化学习(五)用时序差分法(TD)求解中,我们讨论了用时序差分来求解强化学习预测问题的方法,但是对控制算法的求解过程没有深入,本文我们就对时序差分的在线控制算法SARSA做详细的讨论。
刘建平Pinard
2018/10/10
1.3K0
强化学习(六)时序差分在线控制算法SARSA
深度强化学习专栏(三)
【磐创AI导读】:本篇文章是深度强化学习专栏的第三篇,讲了第四节无模型的强化学习方法,希望对大家有所帮助。查看上篇关于本专栏的介绍:深度强化学习(DRL)专栏开篇。
磐创AI
2019/09/17
7880
深度强化学习专栏(三)
基于神经网络动力学模型的强化学习
本文提出了一种基于神经网络动力学模型的强化学习控制方法,用于解决机器人导航中的轨迹规划问题。该方法将强化学习中的策略搜索与深度学习中的动力学模型进行结合,通过一个神经网络模型来近似表示状态空间中的轨迹分布,从而能够利用强化学习算法进行高效的轨迹规划。在仿真和真实世界的实验中,该方法表现出了优秀的性能,可以有效地降低轨迹规划的计算复杂度,并能够对复杂环境中的轨迹进行规划。
企鹅号小编
2017/12/29
2.1K0
基于神经网络动力学模型的强化学习
强化学习从基础到进阶--案例与实践[7]:深度确定性策略梯度DDPG算法、双延迟深度确定性策略梯度TD3算法详解
离散动作与连续动作是相对的概念,一个是可数的,一个是不可数的。 如图 7.1 所示,离散动作和连续动作有几个例子。在 CartPole 环境中,可以有向左推小车、向右推小车两个动作。在 Frozen Lake 环境中,小乌龟可以有上、下、左、右4个动作。在雅达利的 Pong 游戏中,游戏有 6 个按键的动作可以输出。但在实际情况中,我们经常会遇到连续动作空间的情况,也就是输出的动作是不可数的。比如:推小车推力的大小、选择下一时刻方向盘转动的具体角度、给四轴飞行器的4个螺旋桨给的电压的大小。
汀丶人工智能
2023/10/11
1.8K0
强化学习从基础到进阶--案例与实践[7]:深度确定性策略梯度DDPG算法、双延迟深度确定性策略梯度TD3算法详解
【AI前沿】深度学习基础:深度强化学习
强化学习是一种机器学习方法,通过与环境的交互来学习最优策略。其基本思想是智能体(Agent)在环境(Environment)中通过一系列动作(Actions)与环境互动,并从中获得奖励(Rewards),以最大化累积奖励。强化学习主要包括以下几个核心概念:
屿小夏
2025/05/23
4850
【AI前沿】深度学习基础:深度强化学习
推荐阅读
相关推荐
学界 | Yoshua Bengio等人提出MILABOT:强化学习聊天机器人
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档