X

Overview

11k+
MCP SERVER
40+
Category

Most Reviewed

Jimeng AI Image Generation MCP Service Based on the Jimeng AI image generation MCP (Model Context Protocol) service from Volcengine. Features Generate high-quality images using the Volcengine Jimeng AI API Supports multiple image ratios: 4:3, 3:4, 16:9, 9:16 Standardized MCP interface, compatible with various MCP clients Environment variable configuration for security and convenience Install Dep

紫微斗数排盘服务 项目简介 基于Go语言开发的紫微斗数排盘微服务,提供阳历/农历两种排盘方式。 功能特性 阳历排盘接口 /ziwei_yangli 农历排盘接口 /ziwei_nongli 支持时辰自动换算 返回标准JSON格式数据 快速开始 环境要求 Go 1.23+ 编译运行 go mod tidy go run main.go API文档 请求参数 参数名类型必填说明year数字是年份(如2024)month数字是月份(1-12)day数字是日期(1-31)hour数字是小时(0-23)minute数字是分钟(0-59)sex字符串是性别(男/女) 时辰对照表 服务自动将小时转换为传统时辰: 0: 子时 (23:00-01:00) 1: 丑时 (01:00-03:00) ... 11: 亥时 (21:00-23:00) 服务配置 通过命令行参数配置: # 指定监听地址和端

Gemini 图像生成器 MCP 服务器 通过 MCP 协议使用 Google 的 Gemini 模型从文本提示生成高质量图像。 概述 此 MCP 服务器允许任何 AI 助手使用 Google 的 Gemini AI 模型生成图像。该服务器处理提示工程、文本到图像转换、文件名生成和本地图像存储,使通过任何 MCP 客户端创建和管理 AI 生成的图像变得容易。 特性 使用 Gemini 2.0 Flash 进行文本到图像生成 基于文本提示的图像到图像转换 支持基于文件和 base64 编码的图像 根据提示自动生成智能文件名 自动翻译非英语提示 可配置输出路径的本地图像存储 严格排除生成图像中的文本 高分辨率图像输出 直接访问图像数据和文件路径 可用的 MCP 工具 该服务器为 AI 助手提供以下 MCP 工具: 1. generate_image_from_text 根据文本提示描述创建

Substack MCP 一个用于将Substack API与Claude及其他AI助手集成的MCP(Model Context Protocol)服务器。 概述 本项目实现了一个模型上下文协议(MCP)服务器,使像Claude这样的AI助手能够通过标准化接口与Substack的通讯、帖子和作者进行交互。它利用了Substack API库,并通过MCP提供其功能。 借助这个MCP服务器,Claude可以: 获取通讯文章、播客和推荐 获取文章内容和元数据 在通讯中搜索文章 获取用户资料信息和订阅 安装 前提条件 Python 3.10或更高版本 桌面版Claude(用于测试) 设置 克隆此仓库: bash git clone https://github.com/Greg-Swiftomatic/substack-mcp.git cd substack-mcp 使用uv设置虚

Figma MCP Python 允许您的AI编码代理直接访问Figma文件和原型。 如果您有任何问题或改进建议,可以私信我:https://x.com/jasonzhou1993 使用pipx快速安装 pipx install figma-mcp 对于Cursor: 在设置中,使用以下命令添加一个MCP服务器: figma-mcp --figma-api-key=your_figma_key 或者在项目中添加一个.cursor/mcp.json文件: \{ "mcpServers": \{ "figma-python": \{ "command": "figma-mcp", "args": [ "--figma-api-key=your_figma_key" ] \} \} \} 对于像Wi

Volcengine ImageX MCP Volcengine ImageX 的 Model Context Protocol (MCP) Server 实现 项目简介 Volcengine ImageX MCP是一个基于Model Context Protocol的 MCP-server, 它将 Volcengine 服务集成到LLM模型上下文中,使大模型能够直接上传和处理图片资源。 功能特点 提供多种资源访问接口,便于LLM获取veImageX服务信息、图片资源等 实现了多个veImageX功能的工具封装,包括图片资源的管理、文生图、AIGC画质修复、画质评估以及常用的用量、质量查询能力 提供多种预定义提示模板,帮助LLM更好地理解和使用veImageX功能 安装 环境要求 Python 3.11+ 火山引擎账号及AccessKey/SecretKey 使用方法 在 mcp

芝加哥艺术学院 MCP 服务器 这是一个模型上下文协议(MCP)服务器,通过自然语言交互提供对芝加哥艺术学院收藏的访问。该服务器允许AI模型搜索芝加哥艺术学院的艺术收藏,并将艺术品作为资源使用。 功能 该服务器为与艺术收藏互动的AI模型提供了以下工具。 1. 按标题搜索 (search-by-title) 在芝加哥艺术学院按标题搜索艺术品 输入: title (字符串) 要搜索的艺术品的标题。 limit (数字, 可选, 默认10) 每页返回的资源数量。 page (数字, 可选, 默认1) 返回的结果页数。用于分页。 输出: 标题: Nighthawks 艺术品ID: 111628 缩略图替代文本: 通过环绕式玻璃窗,在夜间空旷的城市街道上看到的餐厅场景。一位浅肤色的男人和女人,他穿着西装,她穿着红色连衣裙,一起坐在一个三角形木吧台旁,目光低垂。左边坐着另一个背对着观众的人

BnF API 服务器 这是一个用于访问法国国家图书馆(BnF)Gallica API 并生成顺序研究报告的 MCP(Model-Client-Protocol)服务器。 功能 Gallica 搜索:在数字图书馆 Gallica 中搜索文档、图片、地图和其他资源 顺序报告生成:自动生成关于任何主题的结构化研究报告 图表整合:在生成的报告中包含相关图片和地图 格式化引用:自动生成带有正确格式引用的参考书目 安装 先决条件 Python 3.8 或更高版本 Pip (Python 包管理器) 安装步骤 克隆仓库: git clone https://github.com/votre-nom/mcp-bnf.git cd mcp-bnf 安装依赖: pip install -r requirements.txt 使用 Claude Desktop 配置 如果尚未安装,

Unsplash API - FastAPI + FastMCP Forked from unsplash-api by @aliosmankaya 目录 概述 前提条件 安装 配置 运行 API 端点 搜索 照片 随机 MCP 集成 MCP 概述 MCP 端点 与 AI 模型一起使用 示例客户端 开发 许可证 概述 该项目提供了一个访问 Unsplash 服务的 API,允许您搜索、列出和获取随机图片。此外,它还集成了 Model Context Protocol (MCP),使像 Claude 这样的 AI 模型能够直接与 Unsplash API 交互。 FastAPI-MCP FastAPI 前提条件 在使用 Unsplash API 之前,您需要: 在 Unsplash 上注册为开发者 获取您的 Access Key 在 .env 文件中将该密钥配置为

Bonsai-mcp - 通过 IfcOpenShell 实现的 Blender 模型上下文协议 IFC 集成 Bonsai-mcp 是 BlenderMCP 的一个分支,它通过 Bonsai 扩展了原有的功能,特别支持 IFC(Industry Foundation Classes)模型。此集成是一个快速的概念验证,旨在展示将 Claude 或任何 LLM(尽管仅使用 Claude Desktop Client 进行过测试)连接到 Blender 以执行 IfcOpenShell 命令的能力。 特性 IFC 特定功能:查询 IFC 模型、分析空间结构和检查建筑元素 五个强大的 IFC 工具:检查项目信息、列出实体、检查属性、探索空间结构和分析关系 顺序思考:包含来自 modelcontextprotocol/servers 的顺序思考工具,用于结构化问题解决 从原始 BlenderMC

Horoscope星座运势: 这是一个可以查询星座信息的MCP,你可以输入生日获取对应的星座及其属性。生日格式支持:YYYY-MM-DD、MM/DD或YYYY年MM月DD日。获取得到的回答如下: 您的星座是: 双子座。 星座属性: 元素: 风象 模式: 变动 守护星: 水星

一、项目概述 MCPet 是一款基于 TypeScript 开发的 Model Context Protocol(MCP)服务器应用,旨在为用户带来 AI 时代的怀旧虚拟宠物体验。它复刻了经典 Tamagotchi 玩具的养成玩法,结合现代 AI 技术与模型上下文协议,用户可以收养、培养并与自己的数字伴侣互动,看着它们从婴儿成长为成人。即使离线,宠物的各项统计数据也会随时间自然变化,为用户提供真实且富有情感的虚拟宠物养成体验。 二、核心功能 全生命周期养成:支持宠物从婴儿期到成年期的完整成长过程,每次互动都会影响宠物的成长轨迹。 丰富互动玩法:提供喂养、清洁、游戏等多样化互动方式,宠物会根据用户的照顾情况改变性格和状态。 AI 驱动特性:基于模型上下文协议(MCP),宠物具备一定的学习和反馈能力,互动越频繁,宠物表现越智能。 离线动态更新:即使用户不在线,宠物的饥饿值、清洁度等状态也

Top Rated

Jimeng AI Image Generation MCP Service Based on the Jimeng AI image generation MCP (Model Context Protocol) service from Volcengine. Features Generate high-quality images using the Volcengine Jimeng AI API Supports multiple image ratios: 4:3, 3:4, 16:9, 9:16 Standardized MCP interface, compatible with various MCP clients Environment variable configuration for security and convenience Install Dep

紫微斗数排盘服务 项目简介 基于Go语言开发的紫微斗数排盘微服务,提供阳历/农历两种排盘方式。 功能特性 阳历排盘接口 /ziwei_yangli 农历排盘接口 /ziwei_nongli 支持时辰自动换算 返回标准JSON格式数据 快速开始 环境要求 Go 1.23+ 编译运行 go mod tidy go run main.go API文档 请求参数 参数名类型必填说明year数字是年份(如2024)month数字是月份(1-12)day数字是日期(1-31)hour数字是小时(0-23)minute数字是分钟(0-59)sex字符串是性别(男/女) 时辰对照表 服务自动将小时转换为传统时辰: 0: 子时 (23:00-01:00) 1: 丑时 (01:00-03:00) ... 11: 亥时 (21:00-23:00) 服务配置 通过命令行参数配置: # 指定监听地址和端

Gemini 图像生成器 MCP 服务器 通过 MCP 协议使用 Google 的 Gemini 模型从文本提示生成高质量图像。 概述 此 MCP 服务器允许任何 AI 助手使用 Google 的 Gemini AI 模型生成图像。该服务器处理提示工程、文本到图像转换、文件名生成和本地图像存储,使通过任何 MCP 客户端创建和管理 AI 生成的图像变得容易。 特性 使用 Gemini 2.0 Flash 进行文本到图像生成 基于文本提示的图像到图像转换 支持基于文件和 base64 编码的图像 根据提示自动生成智能文件名 自动翻译非英语提示 可配置输出路径的本地图像存储 严格排除生成图像中的文本 高分辨率图像输出 直接访问图像数据和文件路径 可用的 MCP 工具 该服务器为 AI 助手提供以下 MCP 工具: 1. generate_image_from_text 根据文本提示描述创建

Substack MCP 一个用于将Substack API与Claude及其他AI助手集成的MCP(Model Context Protocol)服务器。 概述 本项目实现了一个模型上下文协议(MCP)服务器,使像Claude这样的AI助手能够通过标准化接口与Substack的通讯、帖子和作者进行交互。它利用了Substack API库,并通过MCP提供其功能。 借助这个MCP服务器,Claude可以: 获取通讯文章、播客和推荐 获取文章内容和元数据 在通讯中搜索文章 获取用户资料信息和订阅 安装 前提条件 Python 3.10或更高版本 桌面版Claude(用于测试) 设置 克隆此仓库: bash git clone https://github.com/Greg-Swiftomatic/substack-mcp.git cd substack-mcp 使用uv设置虚

Figma MCP Python 允许您的AI编码代理直接访问Figma文件和原型。 如果您有任何问题或改进建议,可以私信我:https://x.com/jasonzhou1993 使用pipx快速安装 pipx install figma-mcp 对于Cursor: 在设置中,使用以下命令添加一个MCP服务器: figma-mcp --figma-api-key=your_figma_key 或者在项目中添加一个.cursor/mcp.json文件: \{ "mcpServers": \{ "figma-python": \{ "command": "figma-mcp", "args": [ "--figma-api-key=your_figma_key" ] \} \} \} 对于像Wi

Volcengine ImageX MCP Volcengine ImageX 的 Model Context Protocol (MCP) Server 实现 项目简介 Volcengine ImageX MCP是一个基于Model Context Protocol的 MCP-server, 它将 Volcengine 服务集成到LLM模型上下文中,使大模型能够直接上传和处理图片资源。 功能特点 提供多种资源访问接口,便于LLM获取veImageX服务信息、图片资源等 实现了多个veImageX功能的工具封装,包括图片资源的管理、文生图、AIGC画质修复、画质评估以及常用的用量、质量查询能力 提供多种预定义提示模板,帮助LLM更好地理解和使用veImageX功能 安装 环境要求 Python 3.11+ 火山引擎账号及AccessKey/SecretKey 使用方法 在 mcp

芝加哥艺术学院 MCP 服务器 这是一个模型上下文协议(MCP)服务器,通过自然语言交互提供对芝加哥艺术学院收藏的访问。该服务器允许AI模型搜索芝加哥艺术学院的艺术收藏,并将艺术品作为资源使用。 功能 该服务器为与艺术收藏互动的AI模型提供了以下工具。 1. 按标题搜索 (search-by-title) 在芝加哥艺术学院按标题搜索艺术品 输入: title (字符串) 要搜索的艺术品的标题。 limit (数字, 可选, 默认10) 每页返回的资源数量。 page (数字, 可选, 默认1) 返回的结果页数。用于分页。 输出: 标题: Nighthawks 艺术品ID: 111628 缩略图替代文本: 通过环绕式玻璃窗,在夜间空旷的城市街道上看到的餐厅场景。一位浅肤色的男人和女人,他穿着西装,她穿着红色连衣裙,一起坐在一个三角形木吧台旁,目光低垂。左边坐着另一个背对着观众的人

BnF API 服务器 这是一个用于访问法国国家图书馆(BnF)Gallica API 并生成顺序研究报告的 MCP(Model-Client-Protocol)服务器。 功能 Gallica 搜索:在数字图书馆 Gallica 中搜索文档、图片、地图和其他资源 顺序报告生成:自动生成关于任何主题的结构化研究报告 图表整合:在生成的报告中包含相关图片和地图 格式化引用:自动生成带有正确格式引用的参考书目 安装 先决条件 Python 3.8 或更高版本 Pip (Python 包管理器) 安装步骤 克隆仓库: git clone https://github.com/votre-nom/mcp-bnf.git cd mcp-bnf 安装依赖: pip install -r requirements.txt 使用 Claude Desktop 配置 如果尚未安装,

Unsplash API - FastAPI + FastMCP Forked from unsplash-api by @aliosmankaya 目录 概述 前提条件 安装 配置 运行 API 端点 搜索 照片 随机 MCP 集成 MCP 概述 MCP 端点 与 AI 模型一起使用 示例客户端 开发 许可证 概述 该项目提供了一个访问 Unsplash 服务的 API,允许您搜索、列出和获取随机图片。此外,它还集成了 Model Context Protocol (MCP),使像 Claude 这样的 AI 模型能够直接与 Unsplash API 交互。 FastAPI-MCP FastAPI 前提条件 在使用 Unsplash API 之前,您需要: 在 Unsplash 上注册为开发者 获取您的 Access Key 在 .env 文件中将该密钥配置为

Bonsai-mcp - 通过 IfcOpenShell 实现的 Blender 模型上下文协议 IFC 集成 Bonsai-mcp 是 BlenderMCP 的一个分支,它通过 Bonsai 扩展了原有的功能,特别支持 IFC(Industry Foundation Classes)模型。此集成是一个快速的概念验证,旨在展示将 Claude 或任何 LLM(尽管仅使用 Claude Desktop Client 进行过测试)连接到 Blender 以执行 IfcOpenShell 命令的能力。 特性 IFC 特定功能:查询 IFC 模型、分析空间结构和检查建筑元素 五个强大的 IFC 工具:检查项目信息、列出实体、检查属性、探索空间结构和分析关系 顺序思考:包含来自 modelcontextprotocol/servers 的顺序思考工具,用于结构化问题解决 从原始 BlenderMC

Horoscope星座运势: 这是一个可以查询星座信息的MCP,你可以输入生日获取对应的星座及其属性。生日格式支持:YYYY-MM-DD、MM/DD或YYYY年MM月DD日。获取得到的回答如下: 您的星座是: 双子座。 星座属性: 元素: 风象 模式: 变动 守护星: 水星

一、项目概述 MCPet 是一款基于 TypeScript 开发的 Model Context Protocol(MCP)服务器应用,旨在为用户带来 AI 时代的怀旧虚拟宠物体验。它复刻了经典 Tamagotchi 玩具的养成玩法,结合现代 AI 技术与模型上下文协议,用户可以收养、培养并与自己的数字伴侣互动,看着它们从婴儿成长为成人。即使离线,宠物的各项统计数据也会随时间自然变化,为用户提供真实且富有情感的虚拟宠物养成体验。 二、核心功能 全生命周期养成:支持宠物从婴儿期到成年期的完整成长过程,每次互动都会影响宠物的成长轨迹。 丰富互动玩法:提供喂养、清洁、游戏等多样化互动方式,宠物会根据用户的照顾情况改变性格和状态。 AI 驱动特性:基于模型上下文协议(MCP),宠物具备一定的学习和反馈能力,互动越频繁,宠物表现越智能。 离线动态更新:即使用户不在线,宠物的饥饿值、清洁度等状态也

MCP SERVER

Jimeng AI Image Generation MCP Service Based on the Jimeng AI image generation MCP (Model Context Protocol) service from Volcengine. Features Generate high-quality images using the Volcengine Jimeng AI API Supports multiple image ratios: 4:3, 3:4, 16:9, 9:16 Standardized MCP interface, compatible with various MCP clients Environment variable configuration for security and convenience Install Dep

紫微斗数排盘服务 项目简介 基于Go语言开发的紫微斗数排盘微服务,提供阳历/农历两种排盘方式。 功能特性 阳历排盘接口 /ziwei_yangli 农历排盘接口 /ziwei_nongli 支持时辰自动换算 返回标准JSON格式数据 快速开始 环境要求 Go 1.23+ 编译运行 go mod tidy go run main.go API文档 请求参数 参数名类型必填说明year数字是年份(如2024)month数字是月份(1-12)day数字是日期(1-31)hour数字是小时(0-23)minute数字是分钟(0-59)sex字符串是性别(男/女) 时辰对照表 服务自动将小时转换为传统时辰: 0: 子时 (23:00-01:00) 1: 丑时 (01:00-03:00) ... 11: 亥时 (21:00-23:00) 服务配置 通过命令行参数配置: # 指定监听地址和端

Gemini 图像生成器 MCP 服务器 通过 MCP 协议使用 Google 的 Gemini 模型从文本提示生成高质量图像。 概述 此 MCP 服务器允许任何 AI 助手使用 Google 的 Gemini AI 模型生成图像。该服务器处理提示工程、文本到图像转换、文件名生成和本地图像存储,使通过任何 MCP 客户端创建和管理 AI 生成的图像变得容易。 特性 使用 Gemini 2.0 Flash 进行文本到图像生成 基于文本提示的图像到图像转换 支持基于文件和 base64 编码的图像 根据提示自动生成智能文件名 自动翻译非英语提示 可配置输出路径的本地图像存储 严格排除生成图像中的文本 高分辨率图像输出 直接访问图像数据和文件路径 可用的 MCP 工具 该服务器为 AI 助手提供以下 MCP 工具: 1. generate_image_from_text 根据文本提示描述创建

Substack MCP 一个用于将Substack API与Claude及其他AI助手集成的MCP(Model Context Protocol)服务器。 概述 本项目实现了一个模型上下文协议(MCP)服务器,使像Claude这样的AI助手能够通过标准化接口与Substack的通讯、帖子和作者进行交互。它利用了Substack API库,并通过MCP提供其功能。 借助这个MCP服务器,Claude可以: 获取通讯文章、播客和推荐 获取文章内容和元数据 在通讯中搜索文章 获取用户资料信息和订阅 安装 前提条件 Python 3.10或更高版本 桌面版Claude(用于测试) 设置 克隆此仓库: bash git clone https://github.com/Greg-Swiftomatic/substack-mcp.git cd substack-mcp 使用uv设置虚

Figma MCP Python 允许您的AI编码代理直接访问Figma文件和原型。 如果您有任何问题或改进建议,可以私信我:https://x.com/jasonzhou1993 使用pipx快速安装 pipx install figma-mcp 对于Cursor: 在设置中,使用以下命令添加一个MCP服务器: figma-mcp --figma-api-key=your_figma_key 或者在项目中添加一个.cursor/mcp.json文件: \{ "mcpServers": \{ "figma-python": \{ "command": "figma-mcp", "args": [ "--figma-api-key=your_figma_key" ] \} \} \} 对于像Wi

Volcengine ImageX MCP Volcengine ImageX 的 Model Context Protocol (MCP) Server 实现 项目简介 Volcengine ImageX MCP是一个基于Model Context Protocol的 MCP-server, 它将 Volcengine 服务集成到LLM模型上下文中,使大模型能够直接上传和处理图片资源。 功能特点 提供多种资源访问接口,便于LLM获取veImageX服务信息、图片资源等 实现了多个veImageX功能的工具封装,包括图片资源的管理、文生图、AIGC画质修复、画质评估以及常用的用量、质量查询能力 提供多种预定义提示模板,帮助LLM更好地理解和使用veImageX功能 安装 环境要求 Python 3.11+ 火山引擎账号及AccessKey/SecretKey 使用方法 在 mcp

芝加哥艺术学院 MCP 服务器 这是一个模型上下文协议(MCP)服务器,通过自然语言交互提供对芝加哥艺术学院收藏的访问。该服务器允许AI模型搜索芝加哥艺术学院的艺术收藏,并将艺术品作为资源使用。 功能 该服务器为与艺术收藏互动的AI模型提供了以下工具。 1. 按标题搜索 (search-by-title) 在芝加哥艺术学院按标题搜索艺术品 输入: title (字符串) 要搜索的艺术品的标题。 limit (数字, 可选, 默认10) 每页返回的资源数量。 page (数字, 可选, 默认1) 返回的结果页数。用于分页。 输出: 标题: Nighthawks 艺术品ID: 111628 缩略图替代文本: 通过环绕式玻璃窗,在夜间空旷的城市街道上看到的餐厅场景。一位浅肤色的男人和女人,他穿着西装,她穿着红色连衣裙,一起坐在一个三角形木吧台旁,目光低垂。左边坐着另一个背对着观众的人

BnF API 服务器 这是一个用于访问法国国家图书馆(BnF)Gallica API 并生成顺序研究报告的 MCP(Model-Client-Protocol)服务器。 功能 Gallica 搜索:在数字图书馆 Gallica 中搜索文档、图片、地图和其他资源 顺序报告生成:自动生成关于任何主题的结构化研究报告 图表整合:在生成的报告中包含相关图片和地图 格式化引用:自动生成带有正确格式引用的参考书目 安装 先决条件 Python 3.8 或更高版本 Pip (Python 包管理器) 安装步骤 克隆仓库: git clone https://github.com/votre-nom/mcp-bnf.git cd mcp-bnf 安装依赖: pip install -r requirements.txt 使用 Claude Desktop 配置 如果尚未安装,

Unsplash API - FastAPI + FastMCP Forked from unsplash-api by @aliosmankaya 目录 概述 前提条件 安装 配置 运行 API 端点 搜索 照片 随机 MCP 集成 MCP 概述 MCP 端点 与 AI 模型一起使用 示例客户端 开发 许可证 概述 该项目提供了一个访问 Unsplash 服务的 API,允许您搜索、列出和获取随机图片。此外,它还集成了 Model Context Protocol (MCP),使像 Claude 这样的 AI 模型能够直接与 Unsplash API 交互。 FastAPI-MCP FastAPI 前提条件 在使用 Unsplash API 之前,您需要: 在 Unsplash 上注册为开发者 获取您的 Access Key 在 .env 文件中将该密钥配置为

Bonsai-mcp - 通过 IfcOpenShell 实现的 Blender 模型上下文协议 IFC 集成 Bonsai-mcp 是 BlenderMCP 的一个分支,它通过 Bonsai 扩展了原有的功能,特别支持 IFC(Industry Foundation Classes)模型。此集成是一个快速的概念验证,旨在展示将 Claude 或任何 LLM(尽管仅使用 Claude Desktop Client 进行过测试)连接到 Blender 以执行 IfcOpenShell 命令的能力。 特性 IFC 特定功能:查询 IFC 模型、分析空间结构和检查建筑元素 五个强大的 IFC 工具:检查项目信息、列出实体、检查属性、探索空间结构和分析关系 顺序思考:包含来自 modelcontextprotocol/servers 的顺序思考工具,用于结构化问题解决 从原始 BlenderMC

Horoscope星座运势: 这是一个可以查询星座信息的MCP,你可以输入生日获取对应的星座及其属性。生日格式支持:YYYY-MM-DD、MM/DD或YYYY年MM月DD日。获取得到的回答如下: 您的星座是: 双子座。 星座属性: 元素: 风象 模式: 变动 守护星: 水星

一、项目概述 MCPet 是一款基于 TypeScript 开发的 Model Context Protocol(MCP)服务器应用,旨在为用户带来 AI 时代的怀旧虚拟宠物体验。它复刻了经典 Tamagotchi 玩具的养成玩法,结合现代 AI 技术与模型上下文协议,用户可以收养、培养并与自己的数字伴侣互动,看着它们从婴儿成长为成人。即使离线,宠物的各项统计数据也会随时间自然变化,为用户提供真实且富有情感的虚拟宠物养成体验。 二、核心功能 全生命周期养成:支持宠物从婴儿期到成年期的完整成长过程,每次互动都会影响宠物的成长轨迹。 丰富互动玩法:提供喂养、清洁、游戏等多样化互动方式,宠物会根据用户的照顾情况改变性格和状态。 AI 驱动特性:基于模型上下文协议(MCP),宠物具备一定的学习和反馈能力,互动越频繁,宠物表现越智能。 离线动态更新:即使用户不在线,宠物的饥饿值、清洁度等状态也

Write Your Review

Detailed Ratings

Upload Pictures and Videos