Search AI Agent Marketplace
Try: Coding Agent Autonomous Agent GUI Agent MCP Server Sales Agent HR Agent
Overview
MCP Marketplace and Directory Navigation of MCP Servers for 40+ categories Model Context Protocol Servers , Allow developers to access MCP APIs easily
BROWSER AUTOMATION
VibeShift Web 测试器 该项目提供了一个由 AI 驱动的代理,旨在简化网页测试工作流程,特别是对于使用像 GitHub Copilot、Cursor、Roo Code 等 AI 编码助手的开发者。它通过 MCP(机器命令协议) 直接集成到这些助手中,允许您使用自然语言提示来自动化测试录制、执行和发现。 问题: 在使用 AI 助手生成代码后手动测试网页应用程序既耗时又容易出错。此外,AI 驱动的代码更改可能会无意中在之前正常工作的功能中引入回归。 解决方案: 该工具通过使您的 AI 编码助手能够: 录制新的测试流程: 用自然语言描述用户旅程,代理将在 AI 指导下与浏览器(使用 Playwright)交互以生成可重现的测试脚本(JSON 格式)。 执行现有测试: 运行先前记录的测试脚本来进行回归测试,确保新代码更改没有破坏现有的功能。 发现潜在的测试步骤: 爬取网站,分析页面的
Jina AI MCP 服务器 一个通过 Claude 提供访问 Jina AI 强大网络服务的 MCP 服务器。该服务器实现了三个主要工具: 网页阅读和内容提取 网络搜索 事实核查/基础验证 特性 工具 read_webpage 以优化格式从网页中提取内容,适用于大型语言模型 (LLMs) 支持多种输出格式(默认、Markdown、HTML、文本、屏幕截图、页面截图) 可选项包括包含链接和图片 能够为图片生成替代文本 缓存控制选项 search_web 使用 Jina AI 的搜索 API 进行网络搜索 可配置的结果数量(默认:5) 支持保留图片和生成替代文本 多种返回格式(Markdown、文本、HTML) 返回结构化结果,包括标题、描述和内容 fact_check 使用 Jina AI 的基础引擎进行事实核查 提供事实性评分和支持证据 可选深入模式,进行更彻底的分
API 测试器 MCP 服务器 这是一个模型上下文协议(MCP)服务器,允许 Claude 代表您发出 API 请求。它提供了测试各种 API 的工具,包括与 OpenAI 的 API 的专用集成。 特性 向任何 API 发出 HTTP 请求(GET、POST、PUT、DELETE) 在不分享您的 API 密钥的情况下测试 OpenAI 的 GPT 模型 使用 DALL-E 生成图像 妥善格式化的响应以便于阅读 设置 先决条件 Python 3.10 或更高版本 MCP SDK 1.2.0 或更高版本 安装 安装所需的依赖项: pip install "mcp[cli]" httpx python-dotenv 使用以下方法之一设置您的 OpenAI API 密钥: 选项 1:环境变量 # On Windows (PowerShell) $env:OPENAI_API_K
123 你哈珀 有什么
Chrome Tools MCP 服务器 一个通过 Chrome 的 DevTools 协议提供与 Chrome 交互工具的 MCP 服务器。该服务器能够远程控制 Chrome 标签页,包括执行 JavaScript、截取屏幕截图、监控网络流量等。 为什么使用这样的 MCP 服务器? 当您需要手动配置浏览器进入某种状态后再让像 Cline 这样的 AI 工具对其进行操作时,这种类型的 MCP 服务器非常有用。您还可以使用此工具监听并将网络事件拉入其上下文中。 功能 列出 Chrome 标签页 在标签页中执行 JavaScript 截取屏幕截图 监控网络流量 导航到指定 URL 查询 DOM 元素 点击元素并捕获控制台输出 安装 npm install @nicholmikey/chrome-tools 配置 可以通过您的 MCP 设置中的环境变量来配置服务器: \{ "chrom
Scrapling Fetch MCP 一个MCP服务器,帮助AI助手访问实施了机器人检测的网站上的文本内容,弥合了您在浏览器中看到的内容与AI可以访问的内容之间的差距。 预期用途 此工具针对从实施了机器人检测的网站上低量检索文档和参考材料(仅限文本/HTML)进行了优化。它并未设计或测试用于通用站点抓取或数据采集。 注意:此项目是在Claude Sonnet 3.7的合作下开发的,使用了LLM Context。 安装 要求: Python 3.10+ uv 包管理器 安装依赖项和工具: bash uv tool install scrapling scrapling install uv tool install scrapling-fetch-mcp 与Claude配合设置 将以下配置添加到您的Claude客户端的MCP服务器配置中: json \{ "mcpS
mcp_query_table 基于playwright实现的财经网页表格爬虫,支持Model Context Protocol (MCP) 。目前可查询来源为 同花顺i问财 通达信问小达 东方财富条件选股 实盘时,如果某网站宕机或改版,可以立即切换到其他网站。(注意:不同网站的表格结构不同,需要提前做适配) 基于playwright实现的大语言模型调用爬虫。目前可用来源为 纳米搜索 腾讯元宝 百度AI搜索 RooCode提供了Human Reply功能。但发现纳米搜索网页版复制时格式破坏,所以研发了此功能 安装 pip install -i https://pypi.org/simple --upgrade mcp_query_table pip install -i https://pypi.tuna.tsinghua.edu.cn/simple --upgrade
Cloudflare Browser Rendering MCP 服务器 此 MCP(模型上下文协议)服务器提供了使用 Cloudflare 浏览器渲染来获取和处理网页内容的工具,以便在 LLM 中用作上下文。它设计用于 Claude 和 Cline 客户端环境。 特性 网页内容获取:为 LLM 上下文获取和处理网页 文档搜索:搜索 Cloudflare 文档并返回相关内容 结构化内容提取:使用 CSS 选择器从网页中提取结构化内容 内容摘要:对网页内容进行摘要,以提供更简洁的 LLM 上下文 截图捕获:截取网页截图 前提条件 Node.js v18 或更高版本 拥有浏览器渲染 API 访问权限的 Cloudflare 账户 使用提供的 puppeteer-worker.js 文件部署的 Cloudflare Worker 安装 通过 Smithery 安装 要通过 Smit
Web Search MCP 服务器 提供 Google 搜索功能和网页内容查看的 MCP 服务器,并具有高级机器人检测规避功能。 功能 带有高级过滤的 Google 自定义搜索 网页内容查看并转换为 Markdown 格式 速率限制和缓存 浏览器实例池 使用 rebrowser-puppeteer 避免机器人检测 先决条件 Bun 运行时 v1.0 或更高版本 Google API 凭证(API 密钥和搜索引擎 ID) 安装 # Install dependencies bun install # Build the TypeScript files bun run build 配置 Cookie 设置 为了进行认证站点访问,您需要: 安装 Get cookies.txt LOCALLY Chrome 扩展程序 访问您想要认证的网站并登录 使用扩展程序将您的 cookie
webdev-mcp 一个提供有用的Web开发工具的MCP服务器。 使用方法 Cursor 要在项目中安装,请将MCP服务器添加到您的.cursor/mcp.json文件中: json \{ "mcpServers": \{ "webdev": \{ "command": "npx", "args": ["webdev-mcp"] \} \} \} 若要全局安装,请将此命令添加到您的Cursor设置中: bash npx webdev-mcp Windsurf 将MCP服务器添加到您的~/.codeium/windsurf/mcp_config.json文件中: json \{ "mcpServers": \{ "webdev": \{ "command": "npx", "args": ["webdev-mcp"] \} \} \} 工具 目前,只有两个工具:takeScre
YouTube to LinkedIn MCP 服务器 一个模型上下文协议(MCP)服务器,能够自动化地从YouTube视频生成LinkedIn帖子草稿。该服务器基于YouTube视频的字幕提供高质量、可编辑的内容草稿。 功能 YouTube 字幕提取:使用视频URL从YouTube视频中提取字幕 字幕总结:使用OpenAI GPT生成简洁的视频内容摘要 LinkedIn 帖子生成:创建具有自定义语气和风格的专业LinkedIn帖子草稿 模块化API设计:清晰的FastAPI实现,带有明确定义的端点 容器化部署:准备在Smithery上部署 设置说明 前提条件 Python 3.8+ Docker(用于容器化部署) OpenAI API密钥 YouTube数据API密钥(可选,但推荐以获得更好的元数据) 本地开发 克隆仓库: git clone cd yt-to-linked
Whistle MCP 服务器 English | 中文 项目介绍 Whistle MCP 服务器是一个基于 Model Context Protocol (MCP) 的 Whistle 代理管理工具,允许 AI 助手直接操作和控制本地的 Whistle 代理服务器。通过这个工具,AI 可以帮助用户管理规则、组、值、监控网络请求、重放和修改请求等,而无需手动操作 Whistle 界面。它极大地简化了网络调试、API 测试和代理规则管理的过程,使用户能够通过与 AI 的自然语言交互完成复杂的网络代理配置任务。 特性 规则管理:创建、更新、重命名、删除以及启用/禁用 Whistle 规则 组管理:创建、重命名、删除组,并进行规则与组之间的关联操作 值管理:创建、更新、重命名和删除值,并支持值组管理 代理控制:启用/禁用代理、HTTP/HTTPS 拦截、HTTP/2 协议等 请求拦截:查看被
MCP Web 研究服务器 一个用于网络研究的模型上下文协议 (MCP) 服务器。 将实时信息引入 Claude 并轻松研究任何主题。 功能 Google 搜索集成 --- 此分叉修复了此问题 --- 不再被验证码阻止 网页内容提取 研究会话跟踪(访问页面列表、搜索查询等) 截图捕获 先决条件 Node.js >= 18(包含 npm 和 npx) Claude Desktop 应用程序 安装 首先,确保你已经下载并安装了 Claude Desktop 应用程序,并且已经安装了 npm。 接下来,在你的 claude_desktop_config.json 中添加以下条目(在 Mac 上,文件位于 ~/Library/Application\ Support/Claude/claude_desktop_config.json): \{ "mcpServers": \{
curl mcp - 你所需要的最后一个 MCP IMPORTANT 正在进行中的工作 需求: 提供简单的 REST API(使用 OpenAPI)以及远程 MCP 通过任何 MCP 客户端、API 和浏览器都易于使用。 X & GitHub OAuth Stripe 信用存款 上下文指令 为流行网站(如 X 和 GitHub)提供 Markdown 转换代理 有限的免费使用(每小时限流),超出限额后按需付费。 可共享的指令模板 我的原则,使大语言模型能够与大量工具良好协作: 因为大语言模型了解流行的网站,所以指示它像普通人一样使用这些网站。 在幕后,确保每个输入都能被正确地路由到合适的替代网站。 确保每个响应都是 Markdown 格式,并且包含非常少的 token,理想情况下不超过 1000 个!这确保我们可以执行多个步骤。 确保死胡同能引导大语言模型回到正确的轨道上。
MCP 服务 这是一个模型控制协议(MCP)服务,为Cursor和Claude应用程序提供工具。 连接到服务 对于 Cursor 用户 打开 Cursor 前往 设置 > AI > 高级 在"MCP Endpoint"下输入: https://your-render-url.onrender.com 保存设置并重启 Cursor 对于 Claude 应用用户 打开 Claude 应用 前往 设置 > 高级 在"MCP Connection"下输入: https://your-render-url.onrender.com 保存设置 可用工具 网页爬虫: 爬取网页并将内容以 markdown 格式返回 部署 此服务作为Docker容器部署在Render.com上。服务访问地址为: https://your-render-url.onrender.com 请将your-rende
mcp-server-local-web-search 一个用于执行本地网页搜索的MCP服务器。该服务器通过模型上下文协议提供工具来搜索和提取网页内容。 功能 执行可自定义结果限制的网页搜索 从网页中提取和处理内容 返回带有标题、URL和描述的结构化结果 支持内容截断和域名过滤 使用Readability进行干净的内容提取 无头浏览器操作以提高性能 安装 要安装依赖项: bun install 设置 运行设置脚本来配置MCP服务器: bun run setup.ts 这会将服务器添加到您的Claude MCP配置中。 可用工具 local_web_search 执行网页搜索并返回带有标题、URL和描述的结果 参数: query: 用于查找相关内容的搜索查询(必需) excludeDomains: 从搜索结果中排除的域名列表(默认:[]) limit: 要返回的最大结果数(
Firecrawl MCP 服务器 一个用于网页抓取、内容搜索、站点爬取和数据提取的 Model Context Protocol (MCP) 服务器,使用 Firecrawl API。 功能 网页抓取:从任何网页中提取内容,并提供可自定义选项 移动设备模拟 广告和弹出窗口拦截 内容过滤 结构化数据提取 多种输出格式 内容搜索:智能搜索功能 多语言支持 基于位置的结果 可定制的结果限制 结构化的输出格式 站点爬取:高级的网页爬取功能 深度控制 路径过滤 速率限制 进度跟踪 站点地图集成 站点映射:生成站点结构图 子域名支持 搜索过滤 链接分析 可视化层次结构 数据提取:从多个 URL 中提取结构化数据 模式验证 批处理 网络搜索增强 自定义提取提示 安装 # Global installation npm install -g @modelcon
mmnt-mcp-server MCP 服务器用于 Mamont 搜索引擎。 工具: mmnt_search 在搜索引擎上搜索查询 输入 query - 查询字符串 page - 页码 mmnt_cache 从搜索页面缓存中检索页面 输入 id - 唯一的缓存 ID onlyText - 结果是否仅包含文本(无 HTML) 安装 \{ "mcpServers": \{ "mmnt": \{ "command": "npx", "args": ["-y", "mmnt-mcp-server"] \} \} \}
MCP 访问模板 个人使用的工具 之前: nodejs -> deno 设置 \{ "mcpServers": \{ "mcp-access-deno": \{ "command": "deno", // OR full-path "args": ["run", "-A", "PROJEC_DIR/src/index.ts"], "env": \{\} \} \} \} 工具 列表 commandExecute 在允许的列表中执行一个命令 getUrlToMd 将网页解析为 Markdown 并返回 getPdfContent 文本解析并返回 PDF 内容 库 createToolsServer https://jsr.io/@mizchi/mcp-helper https://zenn.dev/mi
MCP 浏览器代理 这是一个强大的 Model Context Protocol (MCP) 集成,为 Claude Desktop 提供了自主浏览器自动化功能。 功能 高级浏览器自动化 可以导航到任何 URL,并支持自定义加载策略 捕获全页面或特定元素的屏幕截图 执行精确的 DOM 交互(点击、填充、选择、悬停) 在浏览器上下文中执行任意 JavaScript 并捕获控制台日志 强大的 API 客户端 执行 HTTP 请求(GET、POST、PUT、PATCH、DELETE) 配置请求头和正文内容 以 JSON 格式处理响应数据 带有详细反馈的错误处理 MCP 资源管理 将浏览器控制台日志作为资源访问 通过 MCP 资源接口检索屏幕截图 与有头浏览器实例的持久会话 AI 代理能力 通过链式多个浏览器操作来完成复杂任务 智能错误恢复下的多步骤指令跟随 通过
Official
Loading...
Map
Loading...
Search
Loading...
Database
Loading...
Finance
Loading...
Healthcare
Loading...
Payment
Loading...
Browser Use
Loading...
Communication
Loading...
Developer
Loading...
Entertainment
Loading...
File System
Loading...
Memory
Loading...
Art
Loading...
Science
Loading...
Research
Loading...
Calendar
Loading...
Sales
Loading...
Marketing
Loading...
Operations
Loading...
Workflow
Loading...
Education
Loading...
Legal
Loading...
Business
Loading...
Image Generator
Loading...
Chatbot
Loading...
Travel
Loading...
Trip Planning
Loading...
Reviews
Write Your Review
Detailed Ratings
-
Community
-
大家在使用可灵AI生成视频的时候遇到了哪些好的体验和有问题的体验?请务必写明prompt输入文本和视频截图or短视频clip
-
大家在使用抖音的即梦AI生成视频的时候遇到了哪些好的体验和有问题的体验?请务必写明prompt输入文本和视频截图or短视频clip
-
大家在使用快手(Kuaishou Kwai)短视频的搜索推荐Search and Recommendation 功能的时候遇到了哪些好的体验和有问题的体验?请麻烦写明复现条件,比如prompt输入文本,上传截图。
-
大家在使用小红书(Xiaohongshu)APP的搜索推荐Search and Recommendation 功能的时候遇到了哪些好的体验和有问题的体验?请麻烦写明复现条件,比如prompt输入文本,上传截图。
-
大家在使用微信(WeChat)APP的搜索推荐Search and Recommendation 功能的时候遇到了哪些好的体验和有问题的体验?请麻烦写明复现条件,比如prompt输入文本,上传截图。
-
大家在使用微信(WeChat)APP的AI问答功能的时候,遇到了哪些好的体验和有问题的体验?请麻烦写明复现条件,比如prompt输入文本,上传截图。
-
大家在使用知乎(Zhihu)APP的搜索推荐Search and Recommendation 功能的时候遇到了哪些好的体验和有问题的体验?请麻烦写明复现条件,比如prompt输入文本,上传截图。
-
大家在使用京东(JD)APP的搜索推荐Search and Recommendation 功能的时候遇到了哪些好的体验和有问题的体验?请麻烦写明复现条件,比如prompt输入文本,上传截图。
-
大家在使用淘宝(Taobao)APP的搜索推荐Search and Recommendation 功能的时候遇到了哪些好的体验和有问题的体验?请麻烦写明复现条件,比如prompt输入文本,上传截图。
-
大家在使用支付宝(Alipay)APP的搜索推荐Search and Recommendation 功能的时候遇到了哪些好的体验和有问题的体验?请麻烦写明复现条件,比如prompt输入文本,上传截图。
-
大家在使用拼多多(PPD Temu)APP的搜索推荐Search and Recommendation 功能的时候遇到了哪些好的体验和有问题的体验?请麻烦写明复现条件,比如prompt输入文本,上传截图。
-
大家在使用知乎直答(Zhihu)AI搜索功能的时候,遇到了哪些好的体验和有问题的体验?请麻烦写一下当时输入的条件,比如prompt输入文本,或者是上传截图。
-
大家在使用知乎直答(Zhihu)AI搜索功能的时候,遇到了哪些好的体验和有问题的体验?请麻烦写一下当时输入的条件,比如prompt输入文本,或者是上传截图。
-
大家在使用快手(Kuaishou)的AI搜索功能的时候,遇到了哪些好的体验和有问题的体验?请麻烦写一下当时输入的条件,比如prompt输入文本,或者是上传截图。
-
大家在使用抖音(Douyin Tiktok)的AI搜索功能的时候,遇到了哪些好的体验和有问题的体验?请麻烦写一下当时输入的条件,比如prompt输入文本,或者是上传截图。
-
Please leave your thoughts on the best and coolest AI Generated Images.
-
Please leave your thoughts on free alternatives to Midjourney Stable Diffusion and other AI Image Generators.
-
Please leave your thoughs on the most scary or creepiest AI Generated Images.
-
We are witnessing great success in recent development of generative Artificial Intelligence in many fields, such as AI assistant, Chatbot, AI Writer. Among all the AI native products, AI Search Engine such as Perplexity, Gemini and SearchGPT are most attrative to website owners, bloggers and web content publishers. AI Search Engine is a new tool to provide answers directly to users' questions (queries). In this blog, we will give some brief introduction to basic concepts of AI Search Engine, including Large Language Models (LLM), Retrieval-Augmented Generation(RAG), Citations and Sources. Then we will highlight some majors differences between traditional Search Engine Optimization (SEO) and Generative Engine Optimization(GEO). And then we will cover some latest research and strategies to help website owners or content publishers to better optimize their content in Generative AI Search Engines.
-
We are seeing more applications of robotaxi and self-driving vehicles worldwide. Many large companies such as Waymo, Tesla and Baidu are accelerating their speed of robotaxi deployment in multiple cities. Some human drivers especially cab drivers worry that they will lose their jobs due to AI. They argue that the lower operating cost and AI can work technically 24 hours a day without any rest like human will have more competing advantage than humans. What do you think?