seo外链网站源码外网专线
2026/3/11 2:48:54 网站建设 项目流程
seo外链网站源码,外网专线,团购商城网站建设方案,推广专家本文主要介绍如何在Ubuntu操作系统环境下#xff0c;零基础快速安装Docker环境、安装Ollama、安装本地大模型DeepSeek-R1和大模型可视化工具Open WebUI#xff0c;快速在本地搭建一款专属AI智能小助手。 1.检查Docker环境 检查是否已安装docker运行环境#xff0c;在控制台…本文主要介绍如何在Ubuntu操作系统环境下零基础快速安装Docker环境、安装Ollama、安装本地大模型DeepSeek-R1和大模型可视化工具Open WebUI快速在本地搭建一款专属AI智能小助手。1.检查Docker环境检查是否已安装docker运行环境在控制台界面输入命令docker当提示找不到命令“docker”时则表明未安装docker环境。此时在安装docker之前先更新apt-get软件包如图所示2.安装Docker环境Docker 是一个容器化平台用于将应用及其依赖打包成容器实现轻量、快速、一致的部署和运行。Docker Compose 是一个用于定义和运行多容器 Docker 应用的工具通过 YAML 文件配置服务简化多容器管理。Docker 是基础容器工具Docker Compose 是基于 Docker 的高级编排工具。Docker Compose 依赖 Docker通过调用 Docker API 管理容器提升多服务应用的管理效率。2.1.安装docker执行docker安装命令行sudo apt-get install docker.io在安装过程中当出现提示时选择输入Y回车即可。2.2.安装docker-compose执行docker-compose安装命令行sudo apt-get install docker-compose同理在安装过程中当出现提示时选择输入Y回车即可。2.3.配置docker镜像源为了提高镜像拉取的速度和稳定性解决因网络限制导致的访问问题可以使用国内镜像源如阿里云、网易云、腾讯云等提供的镜像源可显著提高下载速度。修改docker镜像源配置文件/etc/docker/daemon.josn修改配置内容为{“registry-mirrors”: [“https://mirror.ccs.tencentyun.com”,​ “https://mirror.aliyuncs.com”,​ “https://docker.registry.cyou”,​ “https://docker-cf.registry.cyou”,​ “https://dockercf.jsdelivr.fyi”,​ “https://docker.jsdelivr.fyi”,​ “https://dockertest.jsdelivr.fyi”,​ “https://dockerproxy.com”,​ “https://mirror.baidubce.com”,​ “https://docker.m.daocloud.io”,​ “https://docker.nju.edu.cn”,​ “https://docker.mirrors.sjtug.sjtu.edu.cn”,​ “https://docker.mirrors.ustc.edu.cn”,​ “https://mirror.iscas.ac.cn”,​ “https://docker.rainbond.cc”,​ “https://do.nark.eu.org”,​ “https://dc.j8.work”,​ “https://dockerproxy.com”,​ “https://gst6rzl9.mirror.aliyuncs.com”,​ “https://registry.docker-cn.com”,​ “http://hub-mirror.c.163.com”,​ “http://mirrors.ustc.edu.cn/”,​ “https://mirrors.tuna.tsinghua.edu.cn/”,​ “http://mirrors.sohu.com/”],“insecure-registries”: [​ “registry.docker-cn.com”,​ “docker.mirrors.ustc.edu.cn”],“debug”: true,“experimental”: false}具体如下图所示2.4.启动docker执行docker命令行sudo systemctl start dockersudo systemctl start docker命令用于启动Docker服务。在大多数现代Linux发行版中Docker服务是通过systemd进行管理的。使用此命令可以启动Docker守护进程使其在后台运行从而能够创建和管理Docker容器。sudo用于以超级用户root权限执行命令因为启动系统服务通常需要管理员权限。systemctl是systemd的命令行工具用于控制系统服务的启动、停止、重启和状态查看等操作。start指定要执行的操作这里是启动指定的服务。docker要操作的服务名称即Docker服务。执行此命令后Docker服务将开始运行。可以通过以下命令验证Docker服务的状态sudo systemctl status docker如果输出中显示Active: active (running)则表明Docker服务已成功启动如下图所示。至此Docker环境已安装完毕。3.安装OllamaOllama是一个本地运行的LLM大语言模型管理工具允许用户在本地设备上下载、运行和微调各种开源大模型如Qwen、DeepSeek和Gemma而无需依赖云端计算资源。3.1.下载安装Ollama执行Ollama安装命令行sudo curl -fsSL https://ollama.com/install.sh | sh等待自动下载安装完毕即可。3.2.更新Openssl执行命令行sudo apt-get install --only-upgrade openssl3.3.更新CA证书执行命令行sudo update-ca-certificates更新 OpenSSL 和 CA 证书的主要作用是提升系统的安全性防范潜在的攻击和漏洞。OpenSSL 更新修复安全漏洞更新可以修补已知的安全漏洞防止黑客利用这些漏洞进行攻击保护数据安全。增强加密算法新版本通常支持更先进的加密算法和协议提高数据传输的安全性抵御新型攻击。提升稳定性更新可修复软件缺陷提升 OpenSSL 的稳定性和性能确保系统可靠运行。CA 证书更新确保证书有效性CA 证书具有有效期更新可确保其有效避免因过期导致的信任问题维持安全通信。应对证书撤销更新可及时获取最新的证书撤销列表CRL识别和阻止使用被吊销的证书防范安全风险。适应新安全标准随着安全标准的提升更新 CA 证书可符合最新的行业规范增强整体安全性。综上定期更新 OpenSSL 和 CA 证书是维护网络安全的重要措施有助于抵御攻击保障数据和通信的安全。3.4.配置Ollama执行命令行sudo vim /etc/systemd/system/ollama.service然后在末尾添加两行配置项Environment“OLLAMA_HOST0.0.0.0”Environment“OLLAMA_ORIGINS*”此处的EnvironmentOLLAMA_HOST0.0.0.0和EnvironmentOLLAMA_ORIGINS*用于配置 Ollama 服务的网络访问权限。具体作用OLLAMA_HOST0.0.0.0作用使 Ollama 服务监听所有网络接口的 11434 端口允许来自任何 IP 地址的连接。默认值Ollama 默认仅监听本地回环地址127.0.0.1仅允许本地访问。OLLAMA_ORIGINS\*作用设置跨域资源共享CORS策略允许所有来源域名、IP的 HTTP 请求访问 Ollama 服务。默认值Ollama 默认不设置 CORS 头浏览器会阻止跨域请求。配置场景远程访问在服务器上部署 Ollama 后通过设置OLLAMA_HOST0.0.0.0局域网内其他设备可访问 Ollama 服务。跨域支持使用第三方工具如 Chatbox、Dify连接 Ollama 时需设置OLLAMA_ORIGINS*允许跨域请求。保存/etc/systemd/system/ollama.service修改配置后重新加载systemd守护进程并重新启用ollama服务执行如下命令行sudo systemctl daemon-reloadsudo systemctl restart ollama此时输入命令行ollam可显示出来ollama相关命令列表信息则如下图所示此时在本地浏览器输入Ollama默认访问地址URLhttp://127.0.0.1:11434则可以直接看到浏览器页面显示提示信息Ollama is running如下图所示这表明Ollama已安装成功。常用的ollama命令可参考如下常用的ollama终端相关命令可参考如下4.Ollama安装大模型LLMs通过安装大模型LLM很简单只需要访问Ollama官方网站https://ollama.com找到你所需要安装的大模型LLM的版本号执行命令行如下ollam run 大模型名称:版本号以DeepSeek大模型为例默认是下载安装latest版本如下图所示为了演示方便这里我们选择通义千问系列qwen2:0.5b、深度求索DeepSeek系列deepseek-r1:1.5b这两款大模型进行演示本地安装。只需分别执行如下命令行即可自动完成大模型LLM安装ollama runqwen2:0.5bollama run deepseek-r1:1.5b具体操作如下图所示通过ollama list命令行我们可以看到这两款大模型LLM现在本地已安装成功。关于其他版本的大模型安装同理小伙伴们感兴趣的话可以自行选择安装此处不再赘述。5.Docker安装Open WebUI5.1.Open WebUI简介Open WebUI 是一款开源的专为大模型设计的开源可视化交互工具它通过类 ChatGPT 的直观界面让用户无需代码即可管理、调试和调用本地或云端的大语言模型LLMs。Open WebUI 项目在GitHub上目前已获得了高达105k的Star数。该项目为开发者提供了一个免费、开源的AI对话界面解决方案让用户可以轻松将自己的AI模型打造成类似ChatGPT的专业对话平台。无需复杂配置只需简单的命令即可完成部署这无疑为AI爱好者和开发者们提供了一个全新的选择。在本文章末尾处我已附上Open WebUI的官方地址址和GitHub地址对AI技术感兴趣的小伙伴们不妨关注这个项目探索开源世界的无限可能。Open WebUI 通过可视化交互与大模型技术结合成为私有化部署的标杆工具。其开箱即用的特性适合开发者快速验证模型、企业构建合规 AI 平台及个人用户探索 AI 应用。随着插件生态的扩展如视频生成、语音交互未来可进一步降低多模态应用的开发门槛。以下是关于Open WebUI的介绍主要特点用户界面直观且响应式支持多种主题和自定义选项。性能快速响应支持多模型和多模态交互。功能包括Markdown和LaTeX支持本地RAG集成Web浏览功能提示预设RLHF注释对话标记模型管理功能语音输入和文本转语音高级参数微调图像生成集成等。API支持支持OpenAI API和其他兼容API扩展其功能。适用场景内部AI助手、教育培训系统、安全对话终端等。总之Open WebUI的出现不仅为开发者提供了一个强大的AI对话平台解决方案也为开源技术的发展注入了新的动力。对于那些希望快速搭建AI应用的用户来说OpenWebUI无疑是一个值得尝试的选择。5.2.Docker安装Open WebUI首先使用Docker安装Open WebUI非常简单只需要运行Open WebUI Docker容器执行命令行如下*docker run -d **-p 3000:8080 **–add-hosthost.docker.internal:host-gateway **-e OLLAMA_BASE_URLhttp://127.0.0.1:11434 **–name open-webui **–restart always *ghcr.io/open-webui/open-webui:main这个命令是用来在Docker中运行一个名为open-webui的容器。它将主机的3000端口映射到容器的8080端口并设置了一些环境变量和主机别名。以下是该命令的详细解释sudo docker run: 以超级用户权限运行Docker容器。-d: 在后台运行容器。-p 3000:8080: 将主机的3000端口映射到容器的8080端口。--add-hosthost.docker.internal:host-gateway: 添加一个主机条目使得容器可以通过host.docker.internal访问主机。-e OLLAMA_BASE_URLhttp://127.0.0.1:11434: 设置环境变量OLLAMA_BASE_URL为http://127.0.0.1:11434。--name open-webui: 指定容器的名称为open-webui。--restart always: 设置容器总是重启。ghcr.io/open-webui/open-webui:main: 使用的镜像地址。如果你想要在一个脚本中自动化这个过程可以创建一个简单的Shell脚本来执行上述命令。你可以将上述脚本保存为start_open_webui.sh然后通过以下命令来运行它chmod x start_open_webui.sh./start_open_webui.sh这样就可以方便地启动或重新启动open-webui容器了。接着我们列出所有Docker容器并通过grep过滤出名称中包含open-webui的容器执行如下命令行sudo docker ps -a | grep open-webui然后查看open-webui的容器运行日志内容执行如下命令行sudo docker logs open-webui如下图所示当出现“OPEN WEBUI”标志时我们可以在浏览器访问Open WebUI默认的URL****地址http://127.0.0.1:3000如下图所示此时我们选择本地Ollama已安装的一款大模型LLM就可以正常使用Open WebUI成功安装搭建了一款私人专属AI智能小助手**。**5.3.Open WebUI应用案例接下来让我们一起见证奇迹的时刻看看这一款专属AI智能小助手的实战应用效果究竟如何。在Open WebUI页面的左上角我们选择当前需要使用一款本地大模型LLM就可以正式开启AI之旅。比如我们给专属AI智能小助手输入提示词“请写一段JAVA代码实现九九乘法表”看看实际效果具体如下图所示示例1使用本地大模型DeepSeek-R1:1.5b示例2使用本地大模型Qwen2:0.5b由上图我们可以看到本地安装的这两款大模型都给出了答案而且大模型参数越多一般输出效果越好。至此我们就已经成功搞定搭建了一款专属AI智能小助手打完收工Open WebUI项目相关地址官网地址https://openwebui.com/GitHub地址* https://github.com/open-webui*/open-webui普通人如何抓住AI大模型的风口领取方式在文末为什么要学习大模型目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 大模型作为其中的重要组成部分 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 为各行各业带来了革命性的改变和机遇 。目前开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景其中应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。随着AI大模型技术的迅速发展相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业人工智能大潮已来不加入就可能被淘汰。如果你是技术人尤其是互联网从业者现在就开始学习AI大模型技术真的是给你的人生一个重要建议最后只要你真心想学习AI大模型技术这份精心整理的学习资料我愿意无偿分享给你但是想学技术去乱搞的人别来找我在当前这个人工智能高速发展的时代AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料能够帮助更多有志于AI领域的朋友入门并深入学习。真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】大模型全套学习资料展示自我们与MoPaaS魔泊云合作以来我们不断打磨课程体系与技术内容在细节上精益求精同时在技术层面也新增了许多前沿且实用的内容力求为大家带来更系统、更实战、更落地的大模型学习体验。希望这份系统、实用的大模型学习路径能够帮助你从零入门进阶到实战真正掌握AI时代的核心技能01教学内容从零到精通完整闭环【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块内容比传统教材更贴近企业实战大量真实项目案例带你亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事‌02适学人群应届毕业生‌无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型‌非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界‌。业务赋能突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型‌。vx扫描下方二维码即可【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】本教程比较珍贵仅限大家自行学习不要传播更严禁商用03入门到进阶学习路线图大模型学习路线图整体分为5个大的阶段04视频和书籍PDF合集从0到掌握主流大模型技术视频教程涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向新手必备的大模型学习PDF书单来了全是硬核知识帮你少走弯路不吹牛真有用05行业报告白皮书合集收集70报告与白皮书了解行业最新动态0690份面试题/经验AI大模型岗位面试经验总结谁学技术不是为了赚$呢找个好的岗位很重要07 deepseek部署包技巧大全由于篇幅有限只展示部分资料并且还在持续更新中…真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询