logo

Zeabur × InsForge:面向 Agentic Web 的终极 Code-to-Cloud 全流程

我们与 InsForge 达成合作,通过 Model Context Protocol(MCP)为 AI Agents 提供无缝、自主的 DevOps 流程,实现从代码到云端的自动化交付。

Kyle ChungKyle Chung

我们非常兴奋地宣布与 InsForge 达成战略合作——InsForge 是面向 AI coding agents 打造的领先 Backend-as-a-Service(BaaS)

随着 CursorClaude CodeWindsurf 等新一代 AI 工具重新定义“代码如何被写出来”,开发的瓶颈也随之迁移。挑战不再是生成代码,而是配置它运行所需的可扩展基础设施。AI Agents 往往会卡在复杂的云端配置、安全的身份认证流程,以及数据库连接与建模上。

Zeabur 与 InsForge 正在打造首个 AI Native DevOps Stack

通过把 Zeabur 的 “AI Agent for DevOps” 能力与 InsForge 的 “Agent-Native Backend” 结合在一起,我们正在解锁行业第一个真正意义上的全栈自治工作流。

当 Zeabur 持续探索 AI Agents for DevOps 时,我们发现了一个反复出现的摩擦点:后端复杂度

Zeabur 解决了基础设施问题——自动处理 serverless 部署、网络与容器化——但用户在配置传统后端工具时仍会遇到阻碍。设置 Row Level Security(RLS) 策略、复杂的 JWT 认证、以及 PostgreSQL schema 往往需要人工介入,从而打断“自治式”的编程流程。

因此,InsForge 成为 Zeabur 下一阶段最自然的合作伙伴。

InsForge 与 Zeabur 拥有相同的 DNA:它为 “Agentic Era” 而生。

通过 Model Context Protocol(MCP)连接逻辑与基础设施

就像 Zeabur agent 负责你的 DevOps(你无需操心),InsForge 让 agent 具备架构后端的能力。

不同于依赖手动配置的传统工具,InsForge 通过 Model Context Protocol(MCP) 暴露 Auth、Database、Storage 等后端原语能力。

这为 Agentic Web 形成了完美的对称结构:

  • Zeabur 让 agent 掌控 基础设施
  • InsForge 让 agent 掌控 业务逻辑

结果是什么?一个你的 agent 真正能“理解”、能操作、能扩展的后端——你甚至不需要打开任何配置文件。

Zeabur x InsForge 集成如何工作

以下是构建自治管线的具体步骤:

  1. 一键部署:Zeabur Integration 页面直接启动 InsForge 服务。它运行在你的私有网络中,并以全托管服务的方式交付。
  2. 通过 MCP 连接: 使用 Model Context Protocol 将你的 AI Agent(例如 Cursor)连接到 InsForge。
  3. 由 Agent 接管: 由于 InsForge 是 Agent-Native,你的 AI 可以阅读文档、理解 API 模式,并自主执行后端任务。
zeabur insforge.mp4

在 Zeabur 上使用 InsForge:关键特性

下面我们列出 Zeabur + InsForge 组合解锁的强大能力。

1. 无缝的一键部署

Zeabur 消除了 DevOps 自动化 的复杂性。InsForge 负责后端逻辑与数据,Zeabur 则允许你一键部署对接的前端——甚至可以自托管实例。无需复杂配置文件;只要代码在云端跑起来即可。

2. 模块化的 AI-First 组件

InsForge 提供模块化组件——AI/Vector DatabasesAuthenticationFile StorageServerless Functions——而 Zeabur 提供高效运行它们的容器化环境。清晰的职责分离让你能构建可扩展的架构:AI 处理逻辑,Zeabur 处理规模。

3. 模板与 CI/CD 快速启动

Zeabur 的 Integration 页面是 InsForge 项目的最佳起点。你可以在一分钟内完成整套栈(Frontend + InsForge 连接)的开通,并连接到 GitHub repo 进行持续集成;例如,查看我们关于如何 用 InsForge 将 Lovable 应用部署到 Zeabur 的指南。

4. 全球 Edge 网络与低延迟

Zeabur 将你的服务部署在全球边缘网络中。这确保你的应用尽可能靠近用户——也尽可能靠近 InsForge 的后端函数——从而降低实时 AI 交互的延迟。

5. 统一的开发者体验

告别频繁切换上下文。InsForge 负责后端复杂度,Zeabur 管理基础设施,你将获得统一、简化的工作流:监控部署、管理 环境变量、以及从单一生态中扩展你的 AI 应用。

真实的 Agentic 工作流:从 Prompt 到生产环境

过去,你需要手动配置 Supabase 或编写 raw SQL (已经在用 Supabase?了解原因与迁移方式:查看如何 从 Supabase 迁移到 InsForge 以获得更好的 agentic 控制)。现在,工作流会像这样:

  • 你下达 Prompt: “做一个带用户认证和图片上传的博客。”
  • 你的 Agent(通过 InsForge):
    • 自动开通 PostgreSQL 数据库。
    • 把表直接变成可用的 API(无需样板代码)。
    • 零配置完成 基于 JWT 的认证(注册/登录)与社交登录。
    • 为图片配置 S3 兼容存储
    • 使用 Edge Functions 在边缘运行自定义后端逻辑。
  • **Zeabur:**自动检测变更、构建服务并保持在线。

你专注产品逻辑。Agent 负责实现。Zeabur 负责基础设施。

快速开始:在 Zeabur 上部署 InsForge

不要让后端复杂度打断你的 flow。按以下步骤启用 Code-to-Cloud 管线:

  1. 打开你的 Zeabur Dashboard
  2. 点击 Create Service -> Integration
  3. 选择 InsForge
  4. 连接 InsForge MCP

把缺失的后端能力交给你的 AI Agent。

透明、按用量计费的定价结构

我们相信透明、以基础设施为核心的计费方式。由于 InsForge 以容器化服务的形式直接运行在你的 Zeabur 项目中,你可以避开传统 SaaS 平台复杂的分级与“按席位”溢价。

你只需为后端实际消耗的底层资源付费:

ItemRate
Compute Hour (Nano EC2 + EBS + Public IP)$0.006 / hour
Database Size$0.125 / GB / Month
Storage$0.021 / GB / Month
Egress$0.1 / GB
LLM AI CreditsInput / Output Token
  • 无人工限制: 不存在 “API rate limits”“Row limits” 或 “Max User” 上限。你只需为上述 compute 与 storage 付费。
  • 统一账单: 所有费用会直接汇总到你现有的 Zeabur 项目账单中。一个平台,一张账单。