R
Rag MCP Project
作者 @sarihuminer
MCP server by sarihuminer
创建于 12/28/2025
更新于 about 4 hours ago
README
Repository documentation and setup instructions
מערכת RAG עם MCP ו-Ollama
מערכת Retrieval-Augmented Generation (RAG) המשתמשת בכלי MCP לעיבוד מסמכים ובמודל שפה פתוח (Ollama) ליצירת תשובות חכמות על בסיס מסמכים.
ארכיטקטורה
המערכת מורכבת מהרכיבים הבאים:
- ממשק משתמש (User Interface) -
main.py- נקודת הכניסה למערכת - מערכת RAG -
SimpleRAGSystem- הסוכן הראשי המתאם בין הרכיבים - סוכן MCP -
SimpleMCPTools- שלושה כלים עיקריים:- קריאת קובץ טקסט
- חלוקת טקסט לקטעים קטנים (chunks)
- חיפוש קטעים דומים לשאלה
- מנוע Embeddings - SentenceTransformers - יצירת וקטורים מטקסט
- מודל שפה - Ollama (llama3.2:3b) - יצירת תשובות
דרישות מערכת
- Python 3.8+
- Ollama מותקן ופועל
- 4GB RAM לפחות
- חיבור לאינטרנט (להורדת מודלים)
התקנה
1. התקנת Ollama
# Windows
winget install Ollama.Ollama
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.ai/install.sh | sh
2. הורדת מודל השפה
ollama pull llama3.2:3b
3. התקנת תלויות Python
pip install -r requirements.txt
הפעלה
1. הפעלת Ollama
ollama serve
2. הרצת המערכת
python main.py
או בWindows:
run.bat
מבנה הפרויקט
rag-mcp-local/
├── main.py # מערכת RAG מלאה עם MCP
├── requirements.txt # תלויות Python
├── run.bat # הפעלה מהירה ב-Windows
├── architecture_diagram.md # תרשים ארכיטקטורה
├── README.md # מדריך זה
├── data/
│ └── document.txt # מסמך לדוגמה
└── db/ # מאגר וקטורים (נוצר אוטומטית)
כיצד זה עובד
- קריאת מסמך: הכלי הראשון קורא קובץ טקסט מהדיסק
- חלוקה לקטעים: הכלי השני מחלק את הטקסט לקטעים קטנים בלי לשבור מילים
- יצירת וקטורים: המערכת יוצרת embeddings לכל קטע
- שמירה במאגר: הקטעים נשמרים במאגר וקטורים פשוט
- חיפוש: בהינתן שאלה, המערכת מוצאת את הקטעים הרלוונטיים ביותר
- יצירת תשובה: מודל השפה מקבל את הקטעים הרלוונטיים ויוצר תשובה
דוגמת שימוש
המערכת תקרא את הקובץ data/document.txt ותענה על שאלות לגביו:
file_path = "data/document.txt"
question = "מה הם הסוגים השונים של בינה מלאכותית?"
פתרון בעיות
Ollama לא מגיב
# בדוק שהשירות פועל
ollama list
# הפעל מחדש
ollama serve
שגיאות התקנה
# התקן מחדש תלויות
pip install --upgrade -r requirements.txt
בעיות זיכרון
- השתמש במודל קטן יותר:
ollama pull llama3.2:1b - עדכן את
main.pyלשנות את שם המודל
התאמה אישית
שינוי מודל השפה
ערוך את main.py:
model = "llama3.2:1b" # מודל קטן יותר
שינוי גודל קטעים
chunks = chunk_text(text, max_chars=300) # קטעים קטנים יותר
רישיון
פרויקט זה הוא קוד פתוח לשימוש חינמי.
快速设置
此服务器的安装指南
安装包 (如果需要)
uvx rag-mcp-project
Cursor 配置 (mcp.json)
{
"mcpServers": {
"sarihuminer-rag-mcp-project": {
"command": "uvx",
"args": [
"rag-mcp-project"
]
}
}
}