暂无搜索历史
vLLM是一个快速且易于使用的库,用于大型语言模型(LLM)的推理和服务。vLLM最初由加州大学伯克利分校的天空计算实验室开发,现已发展为一个由学术界和工业界共...
本地安装:ollama下载安装,https://ollama.com/download
官网:https://www.anaconda.com/,下载页面:https://www.anaconda.com/download
AI开发、部署和使用相关的文章
LInux, KVM, Docker, k8s, Java, js,Python等等遇到的简单问题和解决
有时候,我们通过curl下载文件时,希望文件保存时使用该文件在服务器端的文件名和时间戳,那么可以使用-O和-R两个选项。如下:
找一台可以访问互联网的服务器,拉取镜像,然后保存成本地镜像文件,传输到内网服务器,在内网服务器将本地镜像文件导入。
前面我们构建了MySQL自定义镜像和PHP自定义镜像,结合Nginx官方镜像,我们可以使用docker compose快速部署一套Nginx+PHP+MySQL...
因为官方镜像并未包含各类php扩展,而我们的php应用一般都要使用数据库,也会操作各种图片,所以一般要安装gd和pdo_mysql/mysqli等扩展。所以需要...
在arm架构下构建MySQL5.6容器镜像,启动时可以指定root密码,普通用户名、密码和数据库。
标准草案: RFC 791, https://tools.ietf.org/html/rfc791
CentOS/Rocky Linux,tcpdump属于@base组的包,如果安装服务器时选择了@base组,那么默认已安装。如果未安装,可以通过以下命令安装即...
专栏之后会专注云计算领域,欢迎关注我的公众号 Linux云计算网络,第一时间见到干货
首先,你得有个代理服务器,不管是http,还是socks。搭建代理服务器的方法不在本文范围。
如果是root用户免密,那么以下均使用root用户。如果是其他用户,以下均使用对应用户操作即可。
暂未填写学校和专业
暂未填写个人网址