104 lines
3.3 KiB
Markdown
104 lines
3.3 KiB
Markdown
# 常见问题
|
||
|
||
## 1. 如何查看日志?
|
||
```bash
|
||
# 查看 主服务 日志
|
||
docker exec -it WeKnora-app tail -f /var/log/WeKnora.log
|
||
|
||
# 查看 文档解析模块 日志
|
||
docker exec -it WeKnora-docreader tail -f /var/log/docreader.log
|
||
```
|
||
|
||
## 2. 如何启动和停止服务?
|
||
```bash
|
||
# 启动服务
|
||
./scripts/start_all.sh
|
||
|
||
# 停止服务
|
||
./scripts/start_all.sh --stop
|
||
|
||
# 清空数据库
|
||
./scripts/start_all.sh --stop && make clean-db
|
||
```
|
||
|
||
## 3. 服务启动后无法正常上传文档?
|
||
|
||
通常是Embedding模型和对话模型没有正确被设置导致。按照以下步骤进行排查
|
||
|
||
1. 查看`.env`配置中的模型信息是否配置完整,其中如果使用ollama访问本地模型,需要确保本地ollama服务正常运行,同时在`.env`中的如下环境变量需要正确设置:
|
||
```bash
|
||
# LLM Model
|
||
INIT_LLM_MODEL_NAME=your_llm_model
|
||
# Embedding Model
|
||
INIT_EMBEDDING_MODEL_NAME=your_embedding_model
|
||
# Embedding模型向量维度
|
||
INIT_EMBEDDING_MODEL_DIMENSION=your_embedding_model_dimension
|
||
# Embedding模型的ID,通常是一个字符串
|
||
INIT_EMBEDDING_MODEL_ID=your_embedding_model_id
|
||
```
|
||
|
||
如果是通过remote api访问模型,则需要额外提供对应的`BASE_URL`和`API_KEY`:
|
||
```bash
|
||
# LLM模型的访问地址
|
||
INIT_LLM_MODEL_BASE_URL=your_llm_model_base_url
|
||
# LLM模型的API密钥,如果需要身份验证,可以设置
|
||
INIT_LLM_MODEL_API_KEY=your_llm_model_api_key
|
||
# Embedding模型的访问地址
|
||
INIT_EMBEDDING_MODEL_BASE_URL=your_embedding_model_base_url
|
||
# Embedding模型的API密钥,如果需要身份验证,可以设置
|
||
INIT_EMBEDDING_MODEL_API_KEY=your_embedding_model_api_key
|
||
```
|
||
|
||
当需要重排序功能时,需要额外配置Rerank模型,具体配置如下:
|
||
```bash
|
||
# 使用的Rerank模型名称
|
||
INIT_RERANK_MODEL_NAME=your_rerank_model_name
|
||
# Rerank模型的访问地址
|
||
INIT_RERANK_MODEL_BASE_URL=your_rerank_model_base_url
|
||
# Rerank模型的API密钥,如果需要身份验证,可以设置
|
||
INIT_RERANK_MODEL_API_KEY=your_rerank_model_api_key
|
||
```
|
||
|
||
2. 查看主服务日志,是否有`ERROR`日志输出
|
||
|
||
## 4. 如何开启多模态功能?
|
||
1. 确保 `.env` 如下配置被正确设置:
|
||
```bash
|
||
# VLM_MODEL_NAME 使用的多模态模型名称
|
||
VLM_MODEL_NAME=your_vlm_model_name
|
||
|
||
# VLM_MODEL_BASE_URL 使用的多模态模型访问地址
|
||
VLM_MODEL_BASE_URL=your_vlm_model_base_url
|
||
|
||
# VLM_MODEL_API_KEY 使用的多模态模型API密钥
|
||
VLM_MODEL_API_KEY=your_vlm_model_api_key
|
||
```
|
||
注:多模态大模型当前仅支持remote api访问,固需要提供`VLM_MODEL_BASE_URL`和`VLM_MODEL_API_KEY`
|
||
|
||
2. 解析后的文件需要上传到COS中,确保 `.env` 中 `COS` 信息正确设置:
|
||
```bash
|
||
# 腾讯云COS的访问密钥ID
|
||
COS_SECRET_ID=your_cos_secret_id
|
||
|
||
# 腾讯云COS的密钥
|
||
COS_SECRET_KEY=your_cos_secret_key
|
||
|
||
# 腾讯云COS的区域,例如 ap-guangzhou
|
||
COS_REGION=your_cos_region
|
||
|
||
# 腾讯云COS的桶名称
|
||
COS_BUCKET_NAME=your_cos_bucket_name
|
||
|
||
# 腾讯云COS的应用ID
|
||
COS_APP_ID=your_cos_app_id
|
||
|
||
# 腾讯云COS的路径前缀,用于存储文件
|
||
COS_PATH_PREFIX=your_cos_path_prefix
|
||
```
|
||
重要:务必将COS中文件的权限设置为**公有读**,否则文档解析模块无法正常解析文件
|
||
|
||
3. 查看文档解析模块日志,查看OCR和Caption是否正确解析和打印
|
||
|
||
|
||
## P.S.
|
||
如果以上方式未解决问题,请在issue中描述您的问题,并提供必要的日志信息辅助我们进行问题排查 |