博罗做网站技术襟鼎高级服装定制
2026/2/21 6:59:57 网站建设 项目流程
博罗做网站技术,襟鼎高级服装定制,进去了,江桥做网站Open-AutoGLMADB#xff1a;手机自动化原来这么简单 1. 这不是科幻#xff0c;是今天就能用上的手机智能助理 你有没有过这样的时刻#xff1a; 想批量给几十个微信好友发节日祝福#xff0c;却卡在反复点开、输入、发送的机械操作里#xff1b; 想测试新上线的电商App从…Open-AutoGLMADB手机自动化原来这么简单1. 这不是科幻是今天就能用上的手机智能助理你有没有过这样的时刻想批量给几十个微信好友发节日祝福却卡在反复点开、输入、发送的机械操作里想测试新上线的电商App从首页到下单的全流程结果手动点到第三步就手酸眼花或者只是单纯想让手机自己“动起来”——比如“打开小红书搜最近爆火的露营装备”然后你就去泡杯咖啡回来时截图已经发到群里了。这些事Open-AutoGLM 真的能做到。它不是另一个需要写脚本、配环境、调坐标的自动化工具而是一个能“看懂屏幕、听懂人话、动手执行”的手机端AI Agent框架。你不用告诉它“点坐标(520, 380)”只要说“帮我登录淘宝搜索‘便携式咖啡手冲壶’把价格最低的那款加购”它就会自己截图、识别按钮、输入文字、滑动页面、点击确认——一气呵成。它的核心就两句话用视觉语言模型理解你看到的界面用ADBAndroid Debug Bridge代替你的手指去操作。没有复杂的UI录制不依赖应用内部API不强制要求Root甚至不需要你写一行逻辑代码。你只需要一条自然语言指令剩下的交给它。这不是概念演示也不是实验室玩具。它已开源、可本地部署、支持真机和WiFi远程控制连安装ADB Keyboard这种细节都给你写进了文档。接下来我会带你从零开始用不到30分钟让一台安卓手机真正“听你的话”。2. 它到底怎么工作三步看懂底层逻辑2.1 屏幕不是图片是“可读的界面”传统自动化工具比如Appium靠的是预设的控件ID或XPath路径一旦App更新、按钮改名整个流程就崩了。Open-AutoGLM 走的是另一条路它把手机屏幕截图当成一张“带信息的画”用视觉语言模型VLM去“读图”。想象一下你拍一张微信聊天界面的照片发给朋友朋友一眼就能认出顶部是“文件传输助手”中间是对话框右下角有个加号图标——Open-AutoGLM 就是这个“朋友”。它不仅能识别文字“发送”、“语音”、“”还能理解空间关系“搜索框在顶部居中”、“返回箭头在左上角”、状态“输入框有光标在闪烁”、“‘发送’按钮是高亮可点击状态”。所以它不关心按钮叫什么ID只关心“哪里能点”“点完会发生什么”。这才是真正面向用户意图的自动化。2.2 ADB 不是命令行是“数字手指”很多人一听ADB就想到一堆adb shell input tap x y命令觉得门槛很高。但在Open-AutoGLM里ADB被完全封装成了一个“执行引擎”。你完全不用记命令所有操作——点击、滑动、输入文字、返回、截屏——都由AI根据当前画面自动规划并生成。它的工作流是这样的AI先请求一次屏幕截图adb shell screencap -p把截图你的指令一起喂给视觉语言模型模型输出结构化动作比如{action: Tap, element: [420, 180], reason: 点击顶部搜索栏} {action: InputText, text: 便携式咖啡手冲壶, reason: 在搜索框中输入关键词} {action: Tap, element: [960, 180], reason: 点击搜索按钮}框架自动把这串JSON翻译成对应的ADB命令并执行。你看到的只有“我说话→它做事”的自然交互。ADB在后台安静运行就像你手指下的神经末梢。2.3 为什么它敢叫“Phone Agent”因为有安全护栏直接让AI操控你的手机安全是第一道红线。Open-AutoGLM 内置了三层防护敏感操作拦截当检测到“删除联系人”“清除全部聊天记录”“格式化存储”等高危指令时会主动暂停并弹出确认提示必须人工点击“继续”才执行验证码/登录接管遇到短信验证码、人脸识别、账号密码输入等需要生物认证或人工判断的环节它会停止自动流程把控制权交还给你等你手动输完再继续远程连接加密WiFi调试时使用标准ADB协议所有指令走TCP/IP加密通道不会明文传输你的操作内容。它不是一个“全权代理”而是一个“可靠助手”——该放手时放手该请示时请示。3. 手把手部署从连上手机到第一次成功执行3.1 三样东西缺一不可别被“视觉语言模型”“多模态”这些词吓住。实际部署只需要三样东西且大部分人都已有其中两样一台安卓手机Android 7.0及以上2016年之后的主流机型基本都行一台电脑Windows/macOS/Linux装好Python 3.10ADB工具我们马上装5分钟搞定。注意不需要GPU服务器不需要云服务账号不需要信用卡。你可以全程离线操作模型服务跑在你自己的电脑上。3.2 第一步让电脑认识你的手机ADB配置这是最容易卡住的一步但其实就三件事① 在手机上打开“开发者选项”设置 → 关于手机 → 连续点击“版本号”7次 → 出现“您现在处于开发者模式”提示。② 开启USB调试设置 → 系统 → 开发者选项 → 找到“USB调试”打开开关。部分华为/小米手机还需同时打开“USB调试安全设置”③ 用USB线连上电脑验证连接插好线后在电脑终端命令提示符/PowerShell/Terminal里输入adb devices如果看到类似这样的输出List of attached devices ABC123456789 device恭喜第一步完成如果显示空列表或unauthorized请检查USB线是否支持数据传输换根线试试、手机是否弹出“允许USB调试”对话框点“始终允许”。小技巧macOS用户用Homebrew一键安装ADBbrew install android-platform-toolsWindows用户推荐用Chocolateychoco install android-platform-tools。手动安装也不难官网下载platform-tools解压把路径加进系统环境变量即可。3.3 第二步装一个“AI用的输入法”ADB Keyboard安卓原生ADB不支持中文输入。Open-AutoGLM用了一个聪明的办法装一个叫ADB Keyboard的专用输入法它能通过ADB命令接收文字并“打出来”。在电脑终端执行curl -O https://github.com/senzhk/ADBKeyBoard/raw/master/ADBKeyboard.apk adb install ADBKeyboard.apk adb shell ime enable com.android.adbkeyboard/.AdbIME adb shell ime set com.android.adbkeyboard/.AdbIME安装完成后去手机设置 → 语言和输入法 → 找到“ADB Keyboard”并启用。这一步做完AI就能替你打字了。3.4 第三步拉代码、装依赖、跑起来现在进入最轻松的部分# 1. 克隆项目复制粘贴就行 git clone https://github.com/zai-org/Open-AutoGLM cd Open-AutoGLM # 2. 创建虚拟环境推荐避免污染系统Python python3 -m venv venv source venv/bin/activate # macOS/Linux # venv\Scripts\activate # Windows # 3. 安装依赖耐心等1-2分钟 pip install --upgrade pip pip install -r requirements.txt pip install -e . # 4. 启动AI服务关键 # 这行命令会自动下载模型约20GB首次运行需等待 python3 -m vllm.entrypoints.openai.api_server \ --model zai-org/AutoGLM-Phone-9B-Multilingual \ --served-model-name autoglm-phone-9b-multilingual \ --port 8000 \ --max-model-len 25480看到终端输出Uvicorn running on http://0.0.0.0:8000说明AI大脑已上线。3.5 第四步下达第一条指令见证奇迹新开一个终端窗口别关刚才的服务输入python main.py \ --base-url http://localhost:8000/v1 \ --model autoglm-phone-9b-multilingual \ 打开Chrome浏览器搜索如何煮好一杯手冲咖啡你会看到终端实时打印AI的思考过程“正在识别Chrome图标”“点击搜索框”“输入文字”手机屏幕自动亮起、解锁如果锁屏、打开Chrome、出现搜索框、文字逐字输入、最后点击搜索整个过程约15-30秒取决于网络和手机性能。第一次成功你会忍不住笑出来——因为这真的像在指挥一个看不见的同事。4. 进阶玩法不止于单次任务让手机真正为你打工4.1 交互模式像跟真人聊天一样连续下指令不想每次输一遍python main.py ...用交互模式python main.py --base-url http://localhost:8000/v1 --model autoglm-phone-9b-multilingual回车后你会看到一个提示符。现在你可以像聊天一样连续输入 打开小红书 搜索“城市露营装备清单” 点击第一个笔记 截图并保存到相册 返回桌面每条指令执行完它自动回到等你下一句。这种模式特别适合探索性操作、教学演示或临时需求。4.2 WiFi远程控制摆脱USB线让手机在隔壁房间干活家里WiFi信号好把手机放客厅你在书房发指令。步骤超简单USB连一次手机执行adb tcpip 5555拔掉USB线查手机IP设置 → WLAN → 点击当前网络 → IP地址电脑执行adb connect 192.168.1.100:5555把IP换成你手机的验证adb devices应显示192.168.1.100:5555 device运行指令时加上--device-id参数python main.py \ --device-id 192.168.1.100:5555 \ --base-url http://localhost:8000/v1 \ --model autoglm-phone-9b-multilingual \ 打开美团搜‘附近24小时营业的便利店’从此手机可以放在充电座上你躺在床上用语音助手如Mac快捷指令触发脚本它就默默开工。4.3 多设备并行一台电脑管十台手机如果你是App测试工程师或运营多个社交账号这个功能太实用。先查所有已连设备adb devices -l然后用Python API并发控制from concurrent.futures import ThreadPoolExecutor from phone_agent import PhoneAgent from phone_agent.model import ModelConfig devices [ABC123, DEF456, GHI789] # 替换为你的设备ID tasks [打开微信发‘早安’, 打开微博发‘今日天气’, 打开抖音点赞首页] def run_on_device(device_id, task): agent PhoneAgent( model_configModelConfig( base_urlhttp://localhost:8000/v1, model_nameautoglm-phone-9b-multilingual ), device_iddevice_id ) return agent.run(task) with ThreadPoolExecutor(max_workers3) as executor: results list(executor.map(run_on_device, devices, tasks))3台手机同时执行不同任务效率翻3倍。你只需写一次逻辑它自动分发。5. 常见问题遇到报错别慌90%都能3分钟解决5.1 “adb devices 显示空列表”别急着重装驱动。按顺序试换一根USB线很多线只能充电重启ADB服务adb kill-server adb start-server手机上撤销USB调试授权开发者选项里找“撤销USB调试授权”重新插线点“始终允许”Windows用户检查是否装了“Android ADB Interface”驱动设备管理器里看是否有黄色感叹号。5.2 “输入中文变成乱码”这是Windows编码经典问题。在运行命令前加一行# PowerShell里执行 $env:PYTHONIOENCODINGutf-8 python main.py ...或直接在CMD里set PYTHONIOENCODINGutf-8 python main.py ...5.3 “模型启动失败报CUDA out of memory”说明你电脑显存不够9B模型至少需12GB显存。两个方案立刻能用改用第三方APIz.ai或Novita AI它们提供免部署的在线服务只需填--base-url和--apikey长期可控在vLLM启动命令里加--tensor-parallel-size 2如果你有2块GPU或降低--max-model-len到16384。5.4 “AI点了错误位置或没识别到按钮”这是视觉理解的正常现象。优化方法换角度确保手机屏幕无反光、无遮挡截图清晰加描述指令里补充上下文比如不说“点搜索”说“点顶部居中的放大镜图标”用详细模式看决策加--verbose参数它会打印每一步的截图分析和选择理由帮你定位是识别错了还是规划逻辑有问题。6. 它能做什么真实场景清单直接抄作业别再想“它能干什么”看看别人已经在用它做什么电商运营每天自动抓取竞品商品页价格、销量、评价生成日报表格App质量保障凌晨三点自动跑回归测试——从安装、注册、浏览、下单到支付全程无人值守新媒体助理定时打开小红书/抖音搜索指定关键词截图热门笔记/视频整理成选题库个人效率早上7点自动打开高德地图查通勤路线截图发到家庭群无障碍辅助为视障用户朗读屏幕内容并将语音指令转为点击操作教育场景老师用它演示“如何在Chrome里查英文单词”投屏给学生看AI一步步操作。它的能力边界取决于你的想象力而不是代码能力。你不需要成为开发者你只需要是一个清楚自己想要什么的人。7. 总结自动化终于回到了人该有的样子回顾整个过程你会发现Open-AutoGLM做对了一件事它把技术藏起来了。你不用学ADB命令不用研究Android布局不用调参优化模型甚至不用知道“视觉语言模型”是什么。你只需要说人话它就办事。这背后是智谱AI对移动自动化本质的深刻理解——自动化不该是让人类去适应机器的语法而是让机器学会理解人类的意图。Open-AutoGLM ADB 的组合正是这一理念最轻量、最直接、最落地的实现。它可能还不是完美的。模型偶尔会点错WiFi延迟会影响体验多语言支持还在完善。但它的开源意味着每一个用户都可以贡献一个修复、提交一个案例、优化一句提示词。它正在快速进化而你可以是第一批驾驶者。现在你的手机就在桌上。USB线在抽屉里。终端窗口已打开。下一步就是输入那句“打开微信给张三发消息‘会议推迟到下午三点’。”你准备好让它动起来了么获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询