MCP Servers

模型上下文协议服务器、框架、SDK 和模板的综合目录。

MCP For Paper Read Based On Ai Ide
作者 @Lxy-hqu

支持trae,windsurf,vscode,antigravity,cursor等内置大模型的IDE

创建于 12/1/2025
更新于 14 days ago
Repository documentation and setup instructions

科研论文辅助阅读 MCP 系统(本地版)

本系统基于 MCP (Model Context Protocol) 构建,提供本地 PDF 解析、结构化提取、数学公式深度解析、代码生成与可视化功能。 所有计算均在本地运行,支持通过 Trae 内置大模型或本地 LLM 进行增强。

✨ 功能亮点

  • � 智能摘要与方法论summarizer 支持智能摘要与方法论提取,可自动连接本地 LLM (Ollama) 进行深度内容理解。
  • 🔢 深度数学智能math_explainer 提取公式、构建 AST(抽象语法树),并存入本地 SQLite 数据库。
  • 💻 实验复现辅助code_generator 自动从论文中提取超参数,生成 PyTorch 模型定义与训练脚本。
  • 📊 可视化图表visualization 生成 Mermaid 流程图与变量依赖图。
  • 📑 智能报告生成report_generator 自动生成 Markdown 格式的论文分析报告,包含摘要、结构、可视化图表与代码配置,并确保数学公式正确渲染。
  • 🧠 知识管理:本地数据库 papers.db 自动存储论文元数据、符号定义与实验记录。

🛠️ 部署与安装

前置要求

  • Node.js (v16+)
  • Git
  • (可选) Ollama 用于本地大模型加速 (默认端口 11434)

1. 克隆仓库

git clone https://github.com/Lxy-hqu/-mcp-for-paper-read-based-on-AI-IDE.git
cd -mcp-for-paper-read-based-on-AI-IDE

2. 安装依赖

npm install

3. 编译项目

npx tsc

4. 配置 Trae (或 Cursor)

自动配置 (推荐)

本仓库包含一个 trae_mcp_config.json 模板。你需要将其中的 command 路径修改为你本地 Node.js 的绝对路径args 修改为 server.js绝对路径

Windows 用户示例配置: 打开 Trae 设置 -> MCP Servers -> Edit in settings.json:

{
  "mcpServers": {
    "local-papers": {
      "command": "C:\\Program Files\\nodejs\\node.exe", 
      "args": [
        "E:\\path\\to\\-mcp-for-paper-read-based-on-AI-IDE\\dist\\server.js"
      ],
      "disabled": false,
      "autoApprove": []
    }
  }
}

💡 提示:在终端运行 where node 可获取 Node.js 的安装路径。

5. 验证运行

重启 Trae 后,在 MCP 管理面板中应显示 local-papersConnected 状态。 你可以尝试在对话框中输入:“请使用 pdf_loader 读取这个文件:E:\my_paper.pdf” 来测试。

� 迁移与多机部署

如果你想在另一台机器上运行此服务,有两种方式:

方式一:直接复制目录(便携式)

你可以直接将整个目录(包含 distnode_modules)复制到新机器。 注意事项:

  1. Node.js 环境:新机器必须安装 Node.js
  2. 操作系统一致性:如果你从 Windows 复制到 macOS/Linux,可能会因为 better-sqlite3 等原生依赖不兼容而报错。此时需要在新机器运行 npm rebuild 或删除 node_modules 重新 npm install
  3. 路径配置:在 Trae 的 settings.json 中,必须修改 command (Node 路径) 和 args (server.js 路径) 为新机器上的实际绝对路径。

方式二:重新克隆(推荐)

在每台新机器上重新执行 git clonenpm installnpx tsc。这是最稳健的方法,能确保所有依赖与当前系统完美兼容。

⚠️ 关于数据隐私papers.db 文件存储了已解析的论文数据。直接复制目录会带走此数据库。如果在新机器上需要干净的环境,请删除 papers.db 文件。

�📝 使用指南

数学公式解析

"解析这篇论文的数学公式,并将符号定义存入数据库。"

代码生成

"根据这篇论文的方法部分,生成 PyTorch 模型代码,并提取超参数。"

可视化

"为这篇论文的模型结构生成一个 Mermaid 流程图。"

生成分析报告

"为这篇论文生成一份完整的 Markdown 分析报告。"

📂 项目结构

src/
├── providers/          # 核心功能模块
│   ├── pdf_loader.ts      # PDF 读取
│   ├── structure_parser.ts # 结构化切分
│   ├── math_explainer.ts   # 数学解析 & AST
│   ├── code_generator.ts   # 代码 & Config 生成
│   ├── visualization.ts    # Mermaid 图表生成
│   ├── report_generator.ts # 报告生成
│   └── summarizer.ts       # 智能摘要与方法论
├── database.ts         # SQLite 数据库管理
├── llm_client.ts       # 本地 LLM 连接客户端
├── server.ts           # MCP 服务器入口
└── types.d.ts          # 类型定义

📄 License

MIT

快速设置
此服务器的安装指南

安装包 (如果需要)

npx @modelcontextprotocol/server--mcp-for-paper-read-based-on-ai-ide

Cursor 配置 (mcp.json)

{ "mcpServers": { "lxy-hqu-mcp-for-paper-read-based-on-ai-ide": { "command": "npx", "args": [ "lxy-hqu-mcp-for-paper-read-based-on-ai-ide" ] } } }