79 lines
2.0 KiB
Markdown
79 lines
2.0 KiB
Markdown
# Gig POC README
|
||
|
||
## 项目目标
|
||
本项目实现一个“灵活用工最小 POC 内核系统”,围绕岗位理解、工人理解、LightRAG 检索、匹配排序和推荐解释构建完整闭环。
|
||
|
||
## 技术栈
|
||
- 后端:Python 3.11、FastAPI、Pydantic、SQLAlchemy、Uvicorn
|
||
- 数据层:PostgreSQL 16、Qdrant
|
||
- 前端:React 19、Vite 6
|
||
- 部署:Docker Compose
|
||
- 模型接入:OpenAI 兼容 LLM 接口,可选开启;默认启用本地规则兜底,推荐模型默认值为 `gpt-5.4`
|
||
|
||
## 目录结构
|
||
```text
|
||
/gig-poc
|
||
/apps
|
||
/web
|
||
/api
|
||
/packages
|
||
/shared-types
|
||
/prompts
|
||
/sample-data
|
||
/infrastructure
|
||
docker-compose.yml
|
||
docker-compose.prod.yml
|
||
/sql
|
||
/scripts
|
||
/docs
|
||
README.md
|
||
API.md
|
||
ARCHITECTURE.md
|
||
DEMO.md
|
||
```
|
||
|
||
## 环境变量说明
|
||
- `DATABASE_URL`:PostgreSQL 连接串
|
||
- `QDRANT_URL`:Qdrant 服务地址
|
||
- `LLM_ENABLED`:是否启用外部 LLM 抽取
|
||
- `LLM_BASE_URL`:OpenAI 兼容接口地址
|
||
- `LLM_API_KEY`:模型服务密钥
|
||
- `LLM_MODEL`:模型名称
|
||
|
||
## 启动方式
|
||
1. `cd gig-poc`
|
||
2. `sh infrastructure/scripts/dev-up.sh`
|
||
|
||
## 样本导入方式
|
||
`dev-up.sh` 会在健康检查通过后自动触发 `/poc/ingest/bootstrap`,导入 100 岗位、300 工人和词表。
|
||
|
||
## API 地址
|
||
- `http://127.0.0.1:8000`
|
||
- OpenAPI:`http://127.0.0.1:8000/docs`
|
||
|
||
## 前端访问地址
|
||
- `http://127.0.0.1:5173`
|
||
|
||
## 演示路径
|
||
1. 打开岗位测试页,输入岗位描述并抽取
|
||
2. 点击入库并匹配工人
|
||
3. 打开工人测试页,输入工人描述并抽取
|
||
4. 点击入库并匹配岗位
|
||
5. 在系统状态页执行健康检查和样本导入
|
||
|
||
## 已实现范围
|
||
- 岗位抽取
|
||
- 工人抽取
|
||
- JobCard / WorkerCard / MatchResult 统一 schema
|
||
- 样本数据 bootstrap
|
||
- LightRAG 风格向量检索适配层
|
||
- 两阶段召回与排序
|
||
- 推荐理由生成
|
||
- Web 控制台
|
||
- Docker Compose 本地与生产部署
|
||
|
||
## 未实现范围
|
||
- 裂变、支付、合同、工时、薪资结算
|
||
- 权限系统与复杂后台
|
||
- 大规模并发优化
|