189 lines
		
	
	
		
			5.8 KiB
		
	
	
	
		
			Plaintext
		
	
	
	
			
		
		
	
	
			189 lines
		
	
	
		
			5.8 KiB
		
	
	
	
		
			Plaintext
		
	
	
	
# 使用说明
 | 
						||
# 1. 复制此文件为 .env
 | 
						||
# 2. 替换所有占位符为实际值
 | 
						||
# 3. 确保 .env 文件不会被提交到版本控制系统 
 | 
						||
 | 
						||
# gin mod
 | 
						||
# 可选值: debug(开发模式,有详细日志), release(生产模式)
 | 
						||
GIN_MODE=debug
 | 
						||
 | 
						||
# Ollama 服务的基准 URL,用于连接本地/其他服务器上运行的 Ollama 服务
 | 
						||
OLLAMA_BASE_URL=http://host.docker.internal:11434
 | 
						||
 | 
						||
# 存储配置
 | 
						||
# 主数据库类型(postgres/mysql)
 | 
						||
DB_DRIVER=postgres
 | 
						||
 | 
						||
# 向量存储类型(postgres/elasticsearch_v7/elasticsearch_v8)
 | 
						||
RETRIEVE_DRIVER=postgres
 | 
						||
 | 
						||
# 文件存储类型(local/minio/cos)
 | 
						||
STORAGE_TYPE=local
 | 
						||
 | 
						||
# 流处理后端(memory/redis)
 | 
						||
STREAM_MANAGER_TYPE=redis
 | 
						||
 | 
						||
# 主数据库配置
 | 
						||
# 数据库端口,默认为5432
 | 
						||
DB_PORT=5432
 | 
						||
 | 
						||
# 数据库用户名
 | 
						||
DB_USER=postgres
 | 
						||
 | 
						||
# 数据库密码
 | 
						||
DB_PASSWORD=postgres123!@#
 | 
						||
 | 
						||
# 数据库名称
 | 
						||
DB_NAME=WeKnora
 | 
						||
 | 
						||
# 如果使用 redis 作为流处理后端,需要配置以下参数
 | 
						||
# Redis端口,默认为6379
 | 
						||
REDIS_PORT=6379
 | 
						||
 | 
						||
# Redis密码,如果没有设置密码,可以留空
 | 
						||
REDIS_PASSWORD=redis123!@#
 | 
						||
 | 
						||
# Redis数据库索引,默认为0
 | 
						||
REDIS_DB=0
 | 
						||
 | 
						||
# Redis key的前缀,用于命名空间隔离
 | 
						||
REDIS_PREFIX=stream:
 | 
						||
 | 
						||
# 当使用本地存储时,文件保存的基础目录路径
 | 
						||
LOCAL_STORAGE_BASE_DIR=./data/files
 | 
						||
 | 
						||
TENANT_AES_KEY=weknorarag-api-key-secret-secret
 | 
						||
 | 
						||
# 是否开启知识图谱构建和检索(构建阶段需调用大模型,耗时较长)
 | 
						||
ENABLE_GRAPH_RAG=false
 | 
						||
 | 
						||
MINIO_PORT=9000
 | 
						||
 | 
						||
MINIO_CONSOLE_PORT=9001
 | 
						||
 | 
						||
# Embedding并发数,出现429错误时,可调小此参数
 | 
						||
CONCURRENCY_POOL_SIZE=5
 | 
						||
 | 
						||
# 如果使用ElasticSearch作为向量存储,需要配置以下参数
 | 
						||
# ElasticSearch地址,例如 http://localhost:9200
 | 
						||
# ELASTICSEARCH_ADDR=your_elasticsearch_addr
 | 
						||
 | 
						||
# ElasticSearch用户名,如果需要身份验证
 | 
						||
# ELASTICSEARCH_USERNAME=your_elasticsearch_username
 | 
						||
 | 
						||
# ElasticSearch密码,如果需要身份验证
 | 
						||
# ELASTICSEARCH_PASSWORD=your_elasticsearch_password
 | 
						||
 | 
						||
# ElasticSearch索引名称,用于存储向量数据
 | 
						||
# ELASTICSEARCH_INDEX=WeKnora
 | 
						||
 | 
						||
# 如果使用MinIO作为文件存储,需要配置以下参数
 | 
						||
# MinIO访问密钥
 | 
						||
# MINIO_ACCESS_KEY_ID=your_minio_access_key
 | 
						||
 | 
						||
# MinIO密钥
 | 
						||
# MINIO_SECRET_ACCESS_KEY=your_minio_secret_key
 | 
						||
 | 
						||
# MinIO桶名称,用于存储文件
 | 
						||
# MINIO_BUCKET_NAME=your_minio_bucket_name
 | 
						||
 | 
						||
# 如果使用腾讯云COS作为文件存储,需要配置以下参数
 | 
						||
# 腾讯云COS的访问密钥ID
 | 
						||
# COS_SECRET_ID=your_cos_secret_id
 | 
						||
 | 
						||
# 腾讯云COS的密钥
 | 
						||
# COS_SECRET_KEY=your_cos_secret_key
 | 
						||
 | 
						||
# 腾讯云COS的区域,例如 ap-guangzhou
 | 
						||
# COS_REGION=your_cos_region
 | 
						||
 | 
						||
# 腾讯云COS的桶名称
 | 
						||
# COS_BUCKET_NAME=your_cos_bucket_name
 | 
						||
 | 
						||
# 腾讯云COS的应用ID
 | 
						||
# COS_APP_ID=your_cos_app_id
 | 
						||
 | 
						||
# 腾讯云COS的路径前缀,用于存储文件
 | 
						||
# COS_PATH_PREFIX=your_cos_path_prefix
 | 
						||
 | 
						||
# COS_ENABLE_OLD_DOMAIN=true 表示启用旧的域名格式,默认为 true
 | 
						||
COS_ENABLE_OLD_DOMAIN=true
 | 
						||
 | 
						||
# 如果解析网络连接使用Web代理,需要配置以下参数
 | 
						||
# WEB_PROXY=your_web_proxy
 | 
						||
 | 
						||
##############################################################
 | 
						||
 | 
						||
###### 注意: 以下配置不再生效,已在Web“配置初始化”阶段完成  #########
 | 
						||
 | 
						||
 | 
						||
# # 初始化默认租户与知识库
 | 
						||
# # 租户ID,通常是一个字符串
 | 
						||
# INIT_TEST_TENANT_ID=1
 | 
						||
 | 
						||
# # 知识库ID,通常是一个字符串
 | 
						||
# INIT_TEST_KNOWLEDGE_BASE_ID=kb-00000001
 | 
						||
 | 
						||
# # LLM Model
 | 
						||
# # 使用的LLM模型名称
 | 
						||
# # 默认使用 Ollama 的 Qwen3 8B 模型,ollama 会自动处理模型下载和加载
 | 
						||
# # 如果需要使用其他模型,请替换为实际的模型名称
 | 
						||
# INIT_LLM_MODEL_NAME=qwen3:8b
 | 
						||
 | 
						||
# # LLM模型的访问地址
 | 
						||
# # 支持第三方模型服务的URL
 | 
						||
# # 如果使用 Ollama 的本地服务,可以留空,ollama 会自动处理
 | 
						||
# # INIT_LLM_MODEL_BASE_URL=your_llm_model_base_url
 | 
						||
 | 
						||
# # LLM模型的API密钥,如果需要身份验证,可以设置
 | 
						||
# # 支持第三方模型服务的API密钥
 | 
						||
# # 如果使用 Ollama 的本地服务,可以留空,ollama 会自动处理
 | 
						||
# # INIT_LLM_MODEL_API_KEY=your_llm_model_api_key
 | 
						||
 | 
						||
# # Embedding Model
 | 
						||
# # 使用的Embedding模型名称
 | 
						||
# # 默认使用 nomic-embed-text 模型,支持文本嵌入
 | 
						||
# # 如果需要使用其他模型,请替换为实际的模型名称
 | 
						||
# INIT_EMBEDDING_MODEL_NAME=nomic-embed-text
 | 
						||
 | 
						||
# # Embedding模型向量维度
 | 
						||
# INIT_EMBEDDING_MODEL_DIMENSION=768
 | 
						||
 | 
						||
# # Embedding模型的ID,通常是一个字符串
 | 
						||
# INIT_EMBEDDING_MODEL_ID=builtin:nomic-embed-text:768
 | 
						||
 | 
						||
# # Embedding模型的访问地址
 | 
						||
# # 支持第三方模型服务的URL
 | 
						||
# # 如果使用 Ollama 的本地服务,可以留空,ollama 会自动处理
 | 
						||
# # INIT_EMBEDDING_MODEL_BASE_URL=your_embedding_model_base_url
 | 
						||
 | 
						||
# # Embedding模型的API密钥,如果需要身份验证,可以设置
 | 
						||
# # 支持第三方模型服务的API密钥
 | 
						||
# # 如果使用 Ollama 的本地服务,可以留空,ollama 会自动处理
 | 
						||
# # INIT_EMBEDDING_MODEL_API_KEY=your_embedding_model_api_key
 | 
						||
 | 
						||
# # Rerank Model(可选)
 | 
						||
# # 对于rag来说,使用Rerank模型对提升文档搜索的准确度有着重要作用
 | 
						||
# # 目前 ollama 暂不支持运行 Rerank 模型
 | 
						||
# # 使用的Rerank模型名称
 | 
						||
# # INIT_RERANK_MODEL_NAME=your_rerank_model_name
 | 
						||
 | 
						||
# # Rerank模型的访问地址
 | 
						||
# # 支持第三方模型服务的URL
 | 
						||
# # INIT_RERANK_MODEL_BASE_URL=your_rerank_model_base_url
 | 
						||
 | 
						||
# # Rerank模型的API密钥,如果需要身份验证,可以设置
 | 
						||
# # 支持第三方模型服务的API密钥
 | 
						||
# # INIT_RERANK_MODEL_API_KEY=your_rerank_model_api_key
 | 
						||
 | 
						||
# # VLM_MODEL_NAME 使用的多模态模型名称
 | 
						||
# # 用于解析图片数据
 | 
						||
# # VLM_MODEL_NAME=your_vlm_model_name
 | 
						||
 | 
						||
# # VLM_MODEL_BASE_URL 使用的多模态模型访问地址
 | 
						||
# # 支持第三方模型服务的URL
 | 
						||
# # VLM_MODEL_BASE_URL=your_vlm_model_base_url
 | 
						||
 | 
						||
# # VLM_MODEL_API_KEY 使用的多模态模型API密钥
 | 
						||
# # 支持第三方模型服务的API密钥
 | 
						||
# # VLM_MODEL_API_KEY=your_vlm_model_api_key |