l_ai_knowledge/docs/QA.md

104 lines
3.3 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 常见问题
## 1. 如何查看日志?
```bash
# 查看 主服务 日志
docker exec -it WeKnora-app tail -f /var/log/WeKnora.log
# 查看 文档解析模块 日志
docker exec -it WeKnora-docreader tail -f /var/log/docreader.log
```
## 2. 如何启动和停止服务?
```bash
# 启动服务
./scripts/start_all.sh
# 停止服务
./scripts/start_all.sh --stop
# 清空数据库
./scripts/start_all.sh --stop && make clean-db
```
## 3. 服务启动后无法正常上传文档?
通常是Embedding模型和对话模型没有正确被设置导致。按照以下步骤进行排查
1. 查看`.env`配置中的模型信息是否配置完整其中如果使用ollama访问本地模型需要确保本地ollama服务正常运行同时在`.env`中的如下环境变量需要正确设置:
```bash
# LLM Model
INIT_LLM_MODEL_NAME=your_llm_model
# Embedding Model
INIT_EMBEDDING_MODEL_NAME=your_embedding_model
# Embedding模型向量维度
INIT_EMBEDDING_MODEL_DIMENSION=your_embedding_model_dimension
# Embedding模型的ID通常是一个字符串
INIT_EMBEDDING_MODEL_ID=your_embedding_model_id
```
如果是通过remote api访问模型则需要额外提供对应的`BASE_URL`和`API_KEY`:
```bash
# LLM模型的访问地址
INIT_LLM_MODEL_BASE_URL=your_llm_model_base_url
# LLM模型的API密钥如果需要身份验证可以设置
INIT_LLM_MODEL_API_KEY=your_llm_model_api_key
# Embedding模型的访问地址
INIT_EMBEDDING_MODEL_BASE_URL=your_embedding_model_base_url
# Embedding模型的API密钥如果需要身份验证可以设置
INIT_EMBEDDING_MODEL_API_KEY=your_embedding_model_api_key
```
当需要重排序功能时需要额外配置Rerank模型具体配置如下
```bash
# 使用的Rerank模型名称
INIT_RERANK_MODEL_NAME=your_rerank_model_name
# Rerank模型的访问地址
INIT_RERANK_MODEL_BASE_URL=your_rerank_model_base_url
# Rerank模型的API密钥如果需要身份验证可以设置
INIT_RERANK_MODEL_API_KEY=your_rerank_model_api_key
```
2. 查看主服务日志,是否有`ERROR`日志输出
## 4. 如何开启多模态功能?
1. 确保 `.env` 如下配置被正确设置:
```bash
# VLM_MODEL_NAME 使用的多模态模型名称
VLM_MODEL_NAME=your_vlm_model_name
# VLM_MODEL_BASE_URL 使用的多模态模型访问地址
VLM_MODEL_BASE_URL=your_vlm_model_base_url
# VLM_MODEL_API_KEY 使用的多模态模型API密钥
VLM_MODEL_API_KEY=your_vlm_model_api_key
```
多模态大模型当前仅支持remote api访问固需要提供`VLM_MODEL_BASE_URL`和`VLM_MODEL_API_KEY`
2. 解析后的文件需要上传到COS中确保 `.env``COS` 信息正确设置:
```bash
# 腾讯云COS的访问密钥ID
COS_SECRET_ID=your_cos_secret_id
# 腾讯云COS的密钥
COS_SECRET_KEY=your_cos_secret_key
# 腾讯云COS的区域例如 ap-guangzhou
COS_REGION=your_cos_region
# 腾讯云COS的桶名称
COS_BUCKET_NAME=your_cos_bucket_name
# 腾讯云COS的应用ID
COS_APP_ID=your_cos_app_id
# 腾讯云COS的路径前缀用于存储文件
COS_PATH_PREFIX=your_cos_path_prefix
```
重要务必将COS中文件的权限设置为**公有读**,否则文档解析模块无法正常解析文件
3. 查看文档解析模块日志查看OCR和Caption是否正确解析和打印
## P.S.
如果以上方式未解决问题请在issue中描述您的问题并提供必要的日志信息辅助我们进行问题排查