用sql做简单的博客网站seo网站营销推广全程实例pdf
2026/4/11 14:15:11 网站建设 项目流程
用sql做简单的博客网站,seo网站营销推广全程实例pdf,成都网站seo设计,wordpress啥意思目录 引言 一、蓝耘平台 二、工作流全景 三、环境准备 四、在工作室创建“空白应用” 五、条件分支说明 六、平台解析器 七、变量聚合器 八、接入 LLM 九、输出与交付 总结 引言 在信息高度分散的时代#xff0c;热点内容散落在掘金、B 站、微博、今日头条等多个平…目录引言一、蓝耘平台二、工作流全景三、环境准备四、在工作室创建“空白应用”五、条件分支说明六、平台解析器七、变量聚合器八、接入 LLM九、输出与交付总结引言在信息高度分散的时代热点内容散落在掘金、B 站、微博、今日头条等多个平台人工整理成本高且标准不统一。本文基于蓝耘MaaS和Dify实战搭建一套多平台内容聚合与大模型自动总结的工作流方案。通过统一解析各平台数据结构将结果交由 LLM 自动生成结构化热闻摘要并支持 Markdown / PDF 输出。整套流程覆盖数据采集、平台解析、变量聚合、模型调用与结果交付可直接复用与扩展。适用于每日热闻汇总、舆情监测及自动化内容运营等实际场景。一、蓝耘平台蓝耘元生代是一个面向开发者与企业级用户的一站式 AI 智算与模型服务平台整合了云算力、模型即服务MaaS、应用开发与大模型生态等核心能力致力于降低 AI 应用从“想法”到“落地”的整体门槛。平台不仅提供多种预训练大语言模型如 DeepSeek 系列还覆盖弹性算力调度、模型托管、推理服务与工具集成等多种使用模式为技术团队和业务方提供从模型调用到部署运行的一体化解决方案。在能力形态上蓝耘既可以作为模型调用平台使用也可以承载更复杂的智能应用构建与工作流编排适合需要快速验证、持续迭代或规模化运行 AI 能力的场景。核心能力与产品算力调度与管理支持分布式训练、弹性 GPU 调度、混合云与私有化部署满足不同规模与负载特征的 AI 任务需求。MaaS模型即服务平台以 API 形式提供多种预训练模型能力覆盖自然语言、图像与多模态场景用户无需自行训练即可直接调用。模型与生态广场内置模型库、MCP 服务与工具集成、行业模板及可视化调试能力加速应用开发与验证。低代码/ 可视化开发支持通过 UI 化方式构建 AI 工作流与模型调用逻辑显著降低工程集成与维护成本。可以将蓝耘理解为一个“AI 智算 模型与工具服务集市” 你既可以通过网页或 API 直接调用现成模型例如 DeepSeek-V3.2也可以托管自有模型或基于工作流构建更复杂的智能应用。在本文的实战中我们选择兼容蓝耘MaaS平台的OpenAI-API-compatible供应商进行配置正是利用其兼容 API 的模型部署与推理能力——无需自行搭建底层算力或模型服务只需将整理好的数据发送给模型即可获得分析与生成结果。二、工作流全景输出示例简单来说整体流程可以概括为数据采集 → 平台解析器统一格式 → 变量聚合器 → LLM 分析生成 →Markdown转 PDF / 返回用户通过工作流的方式将“多平台差异”与“模型能力”解耦保证流程清晰、结构可复用。三、环境准备在 Studio 中首先需要安装以下三个插件顺序无关rookie_rss或你使用的其他抓取器OpenAI-API-compatible用于对接兼容 OpenAI 接口的模型服务Markdown转换器用于将 Markdown 输出转换为 PDF安装完成后确认插件在「已安装」列表中可见。四、在工作室创建“空白应用”步骤打开 Studio → 在窗口底部点击创建空白应用。进入应用后添加第一个节点数据输入可以是 RSS / HTTP / webhook。添加条件分支节点详见下一节然后连接到不同平台的解析执行器或统一解析器。五、条件分支说明条件分支用于判断当前运行需要处理哪个平台的数据举例判断字段platform的取值juejin,bilibili,weibo或者all。每个分支会把arg1原始 JSON丢给对应的解析脚本或同一解析器的不同适配器。设计建议尽量把平台差异放在解析层parser里工作流节点保持薄而专注便于维护和扩展。六、平台解析器输入为 JSON 字符串、dict 或 list自动提取articles列表统一输出表格标题、热度、移动/PC 链接、更新时间时间戳解析支持 ISO8601有/无毫秒以及秒/毫秒时间戳最终转为上海时间UTC8推荐的可复用函数放进工作流的“脚本执行”节点import json from datetime import datetime, timezone, timedelta from typing import Any, List, Dict SH_TZ timezone(timedelta(hours8)) def parse_update_time(raw: Any) - str: if not raw: return s str(raw) # ISO 带毫秒: 2024-01-01T12:00:00.123Z for fmt in (%Y-%m-%dT%H:%M:%S.%fZ, %Y-%m-%dT%H:%M:%SZ): try: dt datetime.strptime(s, fmt).replace(tzinfotimezone.utc) return dt.astimezone(SH_TZ).strftime(%Y-%m-%d %H:%M:%S) except Exception: pass # 时间戳秒或毫秒 try: ts int(s) if len(s) 13: ts ts / 1000 dt datetime.fromtimestamp(ts, tztimezone.utc) return dt.astimezone(SH_TZ).strftime(%Y-%m-%d %H:%M:%S) except Exception: return s def extract_articles(data: Any) - List[Dict]: if isinstance(data, dict) and articles in data: return data.get(articles, []) if isinstance(data, list): out [] for item in data: if isinstance(item, dict): out.extend(item.get(articles, [])) return out return [] def build_table_from_arg(arg1: Any) - List[List[str]]: # arg1 可以是 JSON 字符串 / dict / list if isinstance(arg1, str): try: parsed json.loads(arg1) except Exception: parsed arg1 else: parsed arg1 # 支持包装 {arg1: ...} 的情况 data parsed.get(arg1, parsed) if isinstance(parsed, dict) else parsed articles extract_articles(data) if data else [] table [[标题, 热门评分, 新闻链接-手机端, 新闻链接-PC端, 更新时间]] for item in articles: title item.get(title, ) if isinstance(item, dict) else hot_score item.get(hot_score, ) mobile_link item.get(links, {}).get(mobile, ) if isinstance(item, dict) else pc_link item.get(links, {}).get(pc, ) if isinstance(item, dict) else update_time_raw item.get(metadata, {}).get(update_time, ) if isinstance(item, dict) else update_time parse_update_time(update_time_raw) table.append([title, hot_score, mobile_link, pc_link, update_time]) return table # 在工作流里你可以把返回值转成 JSON 字符串或直接作为 node 输出 def main(arg1): try: tbl build_table_from_arg(arg1) return {result: tbl} except Exception as e: return {error: str(e)}说明把这段代码放到“脚本执行”节点并为不同平台的分支都调用此函数因为原始数据结构一致时可直接复用。如果某个平台的articles结构不同再写一个小 adapter 层把它规范成articles的格式。七、变量聚合器变量聚合器的作用是把各平台解析结果和一些元数据抓取时间、平台名、爬虫状态、样本条数、top N 关键词等聚合成一个统一context传给 LLM。示例字段fetch_time格式2025-12-23 14:30:00platforms[juejin,bilibili]article_table上一步生成的表格summary_prompt_template你想让 LLM 怎样写总结的提示词top_n传给 LLM 的候选量比如 top 5八、接入 LLM1、点击右上角头像 → 设置 → 模型供应商Model Providers→ 选择OpenAI-API-compatible2、把 API Key / Endpoint / 必要参数填进去2、在“模型调用”节点里选择deepseek-v3.2并设置合适的temperature、max_tokens、和systemprompt比如“你是一位清晰、专业的内容编辑给出要点式总结并加入发布时间”。示例 prompt传给模型的用户提示请基于以下表格生成一段不超过 300 字的热闻摘要要求 1. 概述每个平台上最热的 3 条内容用 bullet 列出 2. 每条后面标注平台和抓取时间 3. 最后给出 1 条行动建议如转发、深入追踪或忽略 表格数据插入 article_table 抓取时间fetch_time九、输出与交付将模型生成的摘要内容与解析后的表格合并生成统一的Markdown文档包含标题、抓取时间、表格与 LLM 总结文本。 随后通过Markdown 转换器插件将 Markdown 文档转换为 PDF用于存档、分享或二次分发。建议在 Markdown 文档开头显式插入抓取时间例如抓取时间2025-12-23 14:30:00以保证结果具备时间可追溯性。总结本文展示了一套可复用、可扩展的实战流水线用于将掘金、B 站、微博、今日头条等多平台的新闻与帖子数据进行统一解析与聚合并交由大语言模型生成结构化的热点摘要最终导出为 Markdown / PDF 报告。整套方案涵盖以下核心模块插件准备数据抓取、模型调用与 Markdown 转换、Studio 中的空白应用与条件分支设计、可复用的 Python 平台解析器统一为 articles 表格结构、变量聚合器整合表格与元数据、模型调用示例DeepSeek-V3.2以及最终的 Markdown → PDF 输出。实践中的关键经验在于将平台差异封装在解析层、统一时间格式UTC8、并将 prompt 模板与抓取时间作为显式变量传递从而保证生成结果具备一致性、可审计性与长期复用价值。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询