25 Commits

Author SHA1 Message Date
wkc
ea70710804 接口变动 2026-03-06 13:59:27 +08:00
wkc
69284d7da6 feat: 将默认主题修改为浅色模式
- 修改 settings.js 中 sideTheme 默认值从 'theme-dark' 改为 'theme-light'
- 新用户首次访问时将看到浅色模式侧边栏
- 老用户的自定义设置不受影响(localStorage 优先)
2026-03-06 11:30:03 +08:00
wkc
2fde76d180 docs: 添加默认主题修改实施计划 2026-03-06 11:24:52 +08:00
wkc
6148d5fb69 docs: 添加默认主题修改为浅色模式的设计文档 2026-03-06 11:23:19 +08:00
wkc
4b0ccb194b docs: 完善 AGENTS.md 添加构建命令和代码规范 2026-03-06 09:43:09 +08:00
wkc
5c7e30275e data转换 2026-03-05 18:23:03 +08:00
wkc
35fdc72ffb docs: 添加银行流水审计字段补充实现计划
详细的实现步骤,包含 4 个任务:
- Task 1: 添加审计字段到响应类
- Task 2: 验证 JSON 反序列化
- Task 3: 集成测试验证
- Task 4: 更新文档

遵循 TDD 流程,提供完整的代码和测试命令
2026-03-05 18:12:46 +08:00
wkc
d999c0ddaa docs: 添加银行流水审计字段补充设计文档
添加 createdBy 和 createDate 字段到 GetBankStatementResponse.BankStatementItem 类的设计方案
2026-03-05 18:10:27 +08:00
wkc
de35bd33c0 拼写错误 2026-03-05 17:28:39 +08:00
wkc
b7197682e7 fix: 补充银行流水接口 uploadSequnceNumber 字段接收和映射
- 在 GetBankStatementResponse.BankStatementItem 中添加 uploadSequnceNumber 字段
- 在 CcdiBankStatement.fromResponse() 中添加字段映射到 batchSequence
- 修复流水分析接口返回的上传序号数据丢失问题
2026-03-05 16:57:13 +08:00
wkc
a753b87c1f fix: 已完成/已归档查看结果直达结果总览 2026-03-05 16:20:20 +08:00
wkc
012c5caa64 修改gitignore 2026-03-05 16:04:31 +08:00
wkc
d3c15d4d75 修改 2026-03-05 15:53:56 +08:00
wkc
848640e284 fix: 修复项目详情上传时间展示 2026-03-05 15:45:20 +08:00
wkc
bd0b25d059 refactor: remove upload status cards from project detail upload page 2026-03-05 15:33:09 +08:00
wkc
ba939b8eb6 fix(upload-data): remove stray accept text 2026-03-05 15:18:57 +08:00
wkc
a7cf67e6e4 http请求 2026-03-05 15:01:33 +08:00
wkc
2b5582ddcc docs: 添加文件格式变更说明文档 2026-03-05 14:41:50 +08:00
wkc
9b5c4f8854 feat: 修改流水文件上传支持PDF/CSV/Excel格式
- 文件格式限制从仅Excel改为支持PDF/CSV/XLSX/XLS
- 更新前端校验逻辑
- 更新用户提示信息
- 添加accept属性限制文件选择器
2026-03-05 14:41:11 +08:00
wkc
b52d6c6e7a feat: 实现异步文件上传前端功能
- 添加批量上传API接口
- 扩展UploadData组件,添加批量上传弹窗
- 添加统计卡片展示(上传中、解析中、成功、失败)
- 添加文件上传记录列表
- 实现轮询机制自动刷新状态
- 支持文件数量、格式、大小校验
- 支持手动刷新和状态筛选
- 添加响应式布局支持
2026-03-05 14:21:33 +08:00
wkc
1a9ca2a05f test: 添加异步文件上传功能集成测试脚本 2026-03-05 14:06:29 +08:00
wkc
756129b913 fix: 修复tempFilePaths和records对应关系的潜在bug
问题:
- 原代码中保存临时文件和创建记录使用两个独立的循环
- 无法保证两个列表的索引严格一一对应
- 如果中间出现异常或跳过,会导致对应关系错乱

修复:
- 将两个循环合并为一个,在同一个循环中处理
- 使用相同的索引i创建tempFilePaths[i]和records[i]
- 添加数量一致性验证
- 临时文件名中加入索引i,避免文件名冲突
- 日志中记录索引i便于调试

影响:
- 确保临时文件和数据库记录严格一一对应
- 避免异步处理时出现文件与记录不匹配的问题
2026-03-05 13:47:39 +08:00
wkc
d8d60f9103 feat: 实现CcdiFileUploadServiceImpl所有TODO
完整实现异步文件上传服务的所有TODO方法:

1. 新增批次日志管理器
   - 为每个批次创建独立日志文件
   - 路径: {ruoyi.profile}/logs/file-upload/{projectId}/{timestamp}.log
   - 支持ThreadLocal隔离

2. 完善CcdiFileUploadServiceImpl
   - 注入LsfxAnalysisClient和CcdiBankStatementMapper
   - 实现processFileAsync: 文件上传到流水分析平台
   - 实现waitForParsingComplete: 固定间隔轮询(300次×2秒)
   - 实现获取解析结果: status=-5判断成功
   - 实现fetchAndSaveBankStatements: 分页获取(每页1000条)+批量插入(每批1000条)
   - 集成批次日志管理

3. 关键特性
   - 完整的流水分析平台集成
   - 固定间隔轮询策略
   - 大批量分页获取(每页1000条)
   - 批量插入优化(每批1000条)
   - 严格失败策略: 任何异常直接标记为parsed_failed
   - 完善的日志记录

4. 测试验证
   - 编译通过,无错误
   - 所有TODO已实现
2026-03-05 13:40:29 +08:00
wkc
388c70ce04 docs: 添加异步文件上传服务实现设计文档
- 完整设计 CcdiFileUploadServiceImpl 所有 TODO 实现方案
- 包含依赖注入、文件上传、轮询解析、批量保存等详细设计
- 确定设计决策:固定间隔轮询、大批量分页、严格失败策略
- 实现批次日志管理器 FileUploadLogAppender
- 包含完整的测试策略和部署注意事项
2026-03-05 12:39:58 +08:00
wkc
f1c43589d4 refactor: 修改uploadFile方法参数类型为File
- 将LsfxAnalysisClient.uploadFile方法参数从MultipartFile改为File
- 在LsfxTestController中添加MultipartFile到File的转换逻辑
- 使用临时文件处理转换,并在finally块中自动清理
2026-03-05 12:01:16 +08:00
25 changed files with 3513 additions and 125 deletions

3
.gitignore vendored
View File

@@ -67,3 +67,6 @@ doc/test-data/**/~$*
db_config.conf
~*.*
/.playwright-cli/

168
AGENTS.md
View File

@@ -15,4 +15,170 @@ Use `@/openspec/AGENTS.md` to learn:
Keep this managed block so 'openspec update' can refresh the instructions.
<!-- OPENSPEC:END -->
<!-- OPENSPEC:END -->
# AGENTS.md - AI Coding Assistant Guide
## 项目概述
基于若依 v3.9.1 的纪检初核系统Java 21 + Spring Boot 3 + Vue 2
---
## Build / Lint / Test Commands
### 后端 (Maven)
```bash
# 编译项目
mvn clean compile
# 运行应用
mvn spring-boot:run
# 打包部署
mvn clean package
# 运行单个测试类
mvn test -Dtest=ClassName
# 运行单个测试方法
mvn test -Dtest=ClassName#methodName
# 跳过测试
mvn clean package -DskipTests
```
### 前端 (npm)
```bash
cd ruoyi-ui
# 安装依赖
npm install --registry=https://registry.npmmirror.com
# 开发服务器
npm run dev
# 生产构建
npm run build:prod
```
### API 测试
```bash
# 获取 Token (测试账号: admin/admin123)
POST http://localhost:8080/login/test?username=admin&password=admin123
# Swagger 文档
http://localhost:8080/swagger-ui/index.html
```
---
## 代码规范
### Java 代码风格
- **注解**: 使用 Lombok `@Data` 简化实体类
- **依赖注入**: 使用 `@Resource` 而非 `@Autowired`
- **实体类**: 不继承 BaseEntity单独添加审计字段
- **禁止**: 禁止使用全限定类名 (如 `java.util.List`),必须 import
```java
@Data
public class CcdiBaseStaff {
/** 创建者 */
private String createBy;
/** 创建时间 */
private Date createTime;
/** 更新者 */
private String updateBy;
/** 更新时间 */
private Date updateTime;
}
@Resource
private ICcdiBaseStaffService baseStaffService;
```
### 分层规范
- **Controller**: 添加 Swagger 注释,分页使用 MyBatis Plus Page
- **Service**: 简单 CRUD 用 MyBatis Plus复杂操作在 XML 写 SQL
- **DTO/VO**: 接口传参用独立 DTO返回用独立 VO禁止与 entity 混用
- **禁止**: 禁止 `extends ServiceImpl<>`
### API 响应格式
```java
// 成功
AjaxResult.success("操作成功", data);
// 错误
AjaxResult.error("操作失败");
// 分页
Page<CcdiBaseStaff> page = new Page<>(pageNum, pageSize);
IPage<CcdiBaseStaff> result = baseStaffMapper.selectPage(page, queryWrapper);
return AjaxResult.success(result);
```
### 数据库规范
- 表名: `ccdi_` 前缀 (如 `ccdi_base_staff`)
- 非业务字段 (create_by, create_time 等) 由后端自动处理,前端表单不显示
### 前端规范
- **目录结构**: `views/` 按功能模块组织,`api/` 对应后端 Controller
- **API 调用**: 使用 `@/utils/request` 封装
- **菜单联动**: 添加页面后需同步修改数据库 `sys_menu`
### 导入功能规范
- 批量操作提高性能
- 返回结果只展示失败数据,不展示成功数据
- 使用 EasyExcel + 异步处理大数据量导入
---
## 模块架构
```
ccdi/
├── ruoyi-admin/ # 启动入口
├── ruoyi-framework/ # 安全配置
├── ruoyi-system/ # 系统模块
├── ruoyi-common/ # 通用工具
├── ccdi-info-collection/ # 信息采集 (员工、中介、黑名单)
├── ccdi-project/ # 项目管理
├── ccdi-lsfx/ # 流水分析对接
└── ruoyi-ui/ # 前端
```
### 添加新模块
1. 根 pom.xml 添加 `<module>`
2. pom.xml 添加 `ruoyi-common` 依赖
3. `ruoyi-admin/pom.xml` 添加模块依赖
4. 按分层创建 controller/service/mapper/domain 包
---
## 常用路径
| 用途 | 路径 |
|------|------|
| 应用入口 | `ruoyi-admin/src/main/java/com/ruoyi/RuoYiApplication.java` |
| 信息采集 Controller | `ccdi-info-collection/src/main/java/com/ruoyi/info/collection/controller/` |
| 项目管理 Controller | `ccdi-project/src/main/java/com/ruoyi/ccdi/project/controller/` |
| 前端 API | `ruoyi-ui/src/api/` |
| Vue 路由 | `ruoyi-ui/src/router/index.js` |
---
## 沟通规范
- 使用简体中文进行思考和对话
- 遇到 MCP 数据库操作时,使用项目配置文件中的数据库

View File

@@ -15,8 +15,8 @@ import jakarta.annotation.Resource;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.stereotype.Component;
import org.springframework.web.multipart.MultipartFile;
import java.io.File;
import java.util.Arrays;
import java.util.HashMap;
import java.util.Map;
@@ -109,8 +109,8 @@ public class LsfxAnalysisClient {
/**
* 上传文件
*/
public UploadFileResponse uploadFile(Integer groupId, MultipartFile file) {
log.info("【流水分析】上传文件请求: groupId={}, fileName={}", groupId, file.getOriginalFilename());
public UploadFileResponse uploadFile(Integer groupId, File file) {
log.info("【流水分析】上传文件请求: groupId={}, fileName={}", groupId, file.getName());
long startTime = System.currentTimeMillis();
try {

View File

@@ -18,6 +18,12 @@ import jakarta.annotation.Resource;
import org.springframework.web.bind.annotation.*;
import org.springframework.web.multipart.MultipartFile;
import java.io.File;
import java.io.IOException;
import java.nio.file.Files;
import java.nio.file.Path;
import java.nio.file.StandardCopyOption;
/**
* 流水分析平台接口测试控制器
*/
@@ -76,8 +82,28 @@ public class LsfxTestController {
return AjaxResult.error("文件大小超过限制最大10MB");
}
UploadFileResponse response = lsfxAnalysisClient.uploadFile(groupId, file);
return AjaxResult.success(response);
// 将 MultipartFile 转换为 File
Path tempFile = null;
try {
// 创建临时文件
tempFile = Files.createTempFile("upload_", "_" + file.getOriginalFilename());
Files.copy(file.getInputStream(), tempFile, StandardCopyOption.REPLACE_EXISTING);
File convertedFile = tempFile.toFile();
UploadFileResponse response = lsfxAnalysisClient.uploadFile(groupId, convertedFile);
return AjaxResult.success(response);
} catch (IOException e) {
return AjaxResult.error("文件转换失败:" + e.getMessage());
} finally {
// 删除临时文件
if (tempFile != null) {
try {
Files.deleteIfExists(tempFile);
} catch (IOException e) {
// 忽略删除失败
}
}
}
}
@Operation(summary = "拉取行内流水", description = "从数仓拉取行内流水数据")

View File

@@ -1,7 +1,10 @@
package com.ruoyi.lsfx.domain.response;
import com.fasterxml.jackson.annotation.JsonFormat;
import lombok.Data;
import java.math.BigDecimal;
import java.util.Date;
import java.util.List;
/**
@@ -131,6 +134,9 @@ public class GetBankStatementResponse {
/** 上传logId */
private Integer batchId;
/** 上传序号 */
private Integer uploadSequenceNumber;
/** 项目id */
private Integer groupId;
@@ -183,5 +189,14 @@ public class GetBankStatementResponse {
/** 交易余额 */
private BigDecimal trxBalance;
// ===== 审计字段 =====
/** 创建时间 */
@JsonFormat(pattern = "yyyy-MM-dd HH:mm:ss")
private Date createDate;
/** 创建者 */
private Long createdBy;
}
}

View File

@@ -1,10 +1,11 @@
package com.ruoyi.lsfx.util;
import com.ruoyi.lsfx.exception.LsfxApiException;
import com.fasterxml.jackson.databind.ObjectMapper;
import com.ruoyi.lsfx.exception.LsfxApiException;
import jakarta.annotation.Resource;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.core.io.FileSystemResource;
import org.springframework.http.*;
import org.springframework.stereotype.Component;
import org.springframework.util.LinkedMultiValueMap;
@@ -13,6 +14,7 @@ import org.springframework.web.client.RestClientException;
import org.springframework.web.client.RestTemplate;
import org.springframework.web.util.UriComponentsBuilder;
import java.io.File;
import java.util.Map;
/**
@@ -200,7 +202,15 @@ public class HttpUtil {
MultiValueMap<String, Object> body = new LinkedMultiValueMap<>();
if (params != null) {
params.forEach(body::add);
params.forEach((key, value) -> {
// 如果是File对象包装为FileSystemResource
if (value instanceof File) {
File file = (File) value;
body.add(key, new FileSystemResource(file));
} else {
body.add(key, value);
}
});
}
HttpEntity<MultiValueMap<String, Object>> requestEntity = new HttpEntity<>(body, httpHeaders);

View File

@@ -198,6 +198,7 @@ public class CcdiBankStatement implements Serializable {
entity.setTrxType(item.getTransTypeId());
entity.setCustomerLeId(item.getCustomerId());
entity.setCustomerAccountName(item.getCustomerName());
entity.setBatchSequence(item.getUploadSequenceNumber());
// 5. 特殊字段处理
entity.setMetaJson(null); // 根据文档要求强制设为 null

View File

@@ -0,0 +1,103 @@
package com.ruoyi.ccdi.project.log;
import ch.qos.logback.classic.PatternLayout;
import ch.qos.logback.classic.spi.ILoggingEvent;
import ch.qos.logback.core.FileAppender;
import ch.qos.logback.core.UnsynchronizedAppenderBase;
import lombok.extern.slf4j.Slf4j;
import java.io.File;
import java.text.SimpleDateFormat;
import java.util.Date;
/**
* 文件上传批次日志Appender
* 为每个批次创建独立的日志文件
*
* @author ruoyi
* @date 2026-03-05
*/
@Slf4j
public class FileUploadLogAppender extends UnsynchronizedAppenderBase<ILoggingEvent> {
private static final ThreadLocal<FileAppender<ILoggingEvent>> currentAppender = new ThreadLocal<>();
private PatternLayout layout;
@Override
public void start() {
// 初始化日志格式
this.layout = new PatternLayout();
this.layout.setPattern("%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n");
this.layout.setContext(getContext());
this.layout.start();
super.start();
log.info("【文件上传日志】FileUploadLogAppender已启动");
}
@Override
protected void append(ILoggingEvent event) {
FileAppender<ILoggingEvent> appender = currentAppender.get();
if (appender != null) {
appender.doAppend(event);
}
}
/**
* 为指定批次创建独立的日志文件
*
* @param uploadPath ruoyi.profile配置的上传路径
* @param projectId 项目ID
* @param batchId 批次ID
*/
public static void createBatchLogFile(String uploadPath, Long projectId, String batchId) {
try {
// 构建日志文件路径: {ruoyi.profile}/logs/file-upload/{projectId}/{timestamp}.log
String timestamp = new SimpleDateFormat("yyyyMMdd-HHmmss").format(new Date());
String logDirPath = uploadPath + File.separator + "logs" + File.separator
+ "file-upload" + File.separator + projectId;
// 确保目录存在
File logDir = new File(logDirPath);
if (!logDir.exists()) {
logDir.mkdirs();
}
String logFilePath = logDirPath + File.separator + timestamp + ".log";
// 创建FileAppender
FileAppender<ILoggingEvent> appender = new FileAppender<>();
appender.setFile(logFilePath);
PatternLayout layout = new PatternLayout();
layout.setPattern("%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n");
layout.setContext(appender.getContext());
layout.start();
appender.setLayout(layout);
appender.setAppend(true);
appender.setContext(appender.getContext());
appender.start();
currentAppender.set(appender);
log.info("【文件上传日志】创建批次日志文件: path={}, batchId={}", logFilePath, batchId);
} catch (Exception e) {
log.error("【文件上传日志】创建批次日志文件失败: projectId={}, batchId={}", projectId, batchId, e);
}
}
/**
* 关闭当前批次的日志文件
*/
public static void closeBatchLogFile() {
FileAppender<ILoggingEvent> appender = currentAppender.get();
if (appender != null) {
appender.stop();
currentAppender.remove();
log.info("【文件上传日志】关闭批次日志文件");
}
}
}

View File

@@ -4,11 +4,18 @@ import com.baomidou.mybatisplus.core.conditions.query.LambdaQueryWrapper;
import com.baomidou.mybatisplus.extension.plugins.pagination.Page;
import com.ruoyi.ccdi.project.domain.CcdiProject;
import com.ruoyi.ccdi.project.domain.dto.CcdiFileUploadQueryDTO;
import com.ruoyi.ccdi.project.domain.entity.CcdiBankStatement;
import com.ruoyi.ccdi.project.domain.entity.CcdiFileUploadRecord;
import com.ruoyi.ccdi.project.domain.vo.CcdiFileUploadStatisticsVO;
import com.ruoyi.ccdi.project.log.FileUploadLogAppender;
import com.ruoyi.ccdi.project.mapper.CcdiBankStatementMapper;
import com.ruoyi.ccdi.project.mapper.CcdiFileUploadRecordMapper;
import com.ruoyi.ccdi.project.mapper.CcdiProjectMapper;
import com.ruoyi.ccdi.project.service.ICcdiFileUploadService;
import com.ruoyi.lsfx.client.LsfxAnalysisClient;
import com.ruoyi.lsfx.domain.request.GetBankStatementRequest;
import com.ruoyi.lsfx.domain.request.GetFileUploadStatusRequest;
import com.ruoyi.lsfx.domain.response.*;
import jakarta.annotation.Resource;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.annotation.Qualifier;
@@ -58,6 +65,12 @@ public class CcdiFileUploadServiceImpl implements ICcdiFileUploadService {
@Qualifier("fileUploadExecutor")
private Executor fileUploadExecutor;
@Resource
private LsfxAnalysisClient lsfxClient;
@Resource
private CcdiBankStatementMapper bankStatementMapper;
/**
* 获取临时文件存储目录
*/
@@ -153,8 +166,11 @@ public class CcdiFileUploadServiceImpl implements ICcdiFileUploadService {
log.info("【文件上传】项目信息验证通过: projectId={}, lsfxProjectId={}", projectId, lsfxProjectId);
// Critical Fix #2: 保存MultipartFile到临时存储,避免异步处理时文件已被清理
// Critical Fix #2 & #4: 保存临时文件和创建记录在同一个循环中,确保一一对应
List<String> tempFilePaths = new ArrayList<>();
List<CcdiFileUploadRecord> records = new ArrayList<>();
Date now = new Date();
try {
// 确保临时目录存在
Path tempDir = Paths.get(getTempFileDir());
@@ -162,39 +178,41 @@ public class CcdiFileUploadServiceImpl implements ICcdiFileUploadService {
Files.createDirectories(tempDir);
}
// 保存所有文件到临时目录
for (MultipartFile file : files) {
// 同一个循环中保存临时文件和创建记录,确保索引一一对应
for (int i = 0; i < files.length; i++) {
MultipartFile file = files[i];
// 1. 保存临时文件
String originalFilename = file.getOriginalFilename();
String tempFileName = batchId + "_" + System.currentTimeMillis() + "_" + originalFilename;
String tempFileName = batchId + "_" + i + "_" + System.currentTimeMillis() + "_" + originalFilename;
Path tempFilePath = tempDir.resolve(tempFileName);
// 将MultipartFile内容复制到临时文件
Files.copy(file.getInputStream(), tempFilePath, StandardCopyOption.REPLACE_EXISTING);
tempFilePaths.add(tempFilePath.toString());
log.debug("【文件上传】保存临时文件: originalName={}, tempPath={}",
originalFilename, tempFilePath);
log.debug("【文件上传】保存临时文件[{}]: originalName={}, tempPath={}",
i, originalFilename, tempFilePath);
// 2. 创建记录使用相同的索引i
CcdiFileUploadRecord record = new CcdiFileUploadRecord();
record.setProjectId(projectId);
record.setLsfxProjectId(lsfxProjectId);
record.setFileName(originalFilename);
record.setFileSize(file.getSize());
record.setFileStatus("uploading");
record.setUploadTime(now);
record.setUploadUser(username);
records.add(record);
}
} catch (IOException e) {
log.error("【文件上传】保存临时文件失败", e);
throw new RuntimeException("保存临时文件失败: " + e.getMessage(), e);
}
// 3. 批量插入文件记录(status=uploading)
List<CcdiFileUploadRecord> records = new ArrayList<>();
Date now = new Date();
for (int i = 0; i < files.length; i++) {
MultipartFile file = files[i];
CcdiFileUploadRecord record = new CcdiFileUploadRecord();
record.setProjectId(projectId);
record.setLsfxProjectId(lsfxProjectId);
record.setFileName(file.getOriginalFilename());
record.setFileSize(file.getSize());
record.setFileStatus("uploading");
record.setUploadTime(now);
record.setUploadUser(username);
records.add(record);
// 验证数量一致性
if (tempFilePaths.size() != records.size()) {
throw new RuntimeException(String.format(
"临时文件数量(%d)与记录数量(%d)不一致", tempFilePaths.size(), records.size()));
}
recordMapper.insertBatch(records);
@@ -240,52 +258,60 @@ public class CcdiFileUploadServiceImpl implements ICcdiFileUploadService {
String batchId) {
log.info("【文件上传】调度线程启动: projectId={}, batchId={}", projectId, batchId);
// 循环提交任务
for (int i = 0; i < tempFilePaths.size(); i++) {
// Critical Fix #6: 检查线程中断状态
if (Thread.currentThread().isInterrupted()) {
log.warn("【文件上传】调度线程被中断,停止提交剩余任务");
break;
}
// 创建批次日志文件
FileUploadLogAppender.createBatchLogFile(uploadPath, projectId, batchId);
String tempFilePath = tempFilePaths.get(i);
CcdiFileUploadRecord record = records.get(i);
try {
// 循环提交任务
for (int i = 0; i < tempFilePaths.size(); i++) {
// Critical Fix #6: 检查线程中断状态
if (Thread.currentThread().isInterrupted()) {
log.warn("【文件上传】调度线程被中断,停止提交剩余任务");
break;
}
boolean submitted = false;
int retryCount = 0;
String tempFilePath = tempFilePaths.get(i);
CcdiFileUploadRecord record = records.get(i);
while (!submitted && retryCount < 2) {
try {
// 尝试提交异步任务
CompletableFuture.runAsync(
() -> processFileAsync(projectId, lsfxProjectId, tempFilePath, record.getId(), batchId, record),
fileUploadExecutor
);
submitted = true;
log.info("【文件上传】任务提交成功: fileName={}, recordId={}",
record.getFileName(), record.getId());
} catch (RejectedExecutionException e) {
retryCount++;
if (retryCount == 1) {
log.warn("【文件上传】线程池已满,等待30秒后重试: fileName={}",
record.getFileName());
try {
Thread.sleep(30000);
} catch (InterruptedException ie) {
Thread.currentThread().interrupt();
log.error("【文件上传】等待被中断: fileName={}", record.getFileName());
updateRecordStatus(record.getId(), "parsed_failed", "任务提交被中断");
break;
boolean submitted = false;
int retryCount = 0;
while (!submitted && retryCount < 2) {
try {
// 尝试提交异步任务
CompletableFuture.runAsync(
() -> processFileAsync(projectId, lsfxProjectId, tempFilePath, record.getId(), batchId, record),
fileUploadExecutor
);
submitted = true;
log.info("【文件上传】任务提交成功: fileName={}, recordId={}",
record.getFileName(), record.getId());
} catch (RejectedExecutionException e) {
retryCount++;
if (retryCount == 1) {
log.warn("【文件上传】线程池已满,等待30秒后重试: fileName={}",
record.getFileName());
try {
Thread.sleep(30000);
} catch (InterruptedException ie) {
Thread.currentThread().interrupt();
log.error("【文件上传】等待被中断: fileName={}", record.getFileName());
updateRecordStatus(record.getId(), "parsed_failed", "任务提交被中断");
break;
}
} else {
log.error("【文件上传】重试失败,放弃任务: fileName={}", record.getFileName());
updateRecordStatus(record.getId(), "parsed_failed", "系统繁忙,请稍后重试");
}
} else {
log.error("【文件上传】重试失败,放弃任务: fileName={}", record.getFileName());
updateRecordStatus(record.getId(), "parsed_failed", "系统繁忙,请稍后重试");
}
}
}
}
log.info("【文件上传】调度线程完成: projectId={}, batchId={}", projectId, batchId);
log.info("【文件上传】调度线程完成: projectId={}, batchId={}", projectId, batchId);
} finally {
// 关闭批次日志文件
FileUploadLogAppender.closeBatchLogFile();
}
}
/**
@@ -326,14 +352,27 @@ public class CcdiFileUploadServiceImpl implements ICcdiFileUploadService {
}
// 步骤2:上传文件到流水分析平台
log.info("【文件上传】步骤2: 上传文件到流水分析平台");
// TODO: 调用 lsfxClient.uploadFile()
// 需要将临时文件转换为MultipartFile或直接使用文件路径
// UploadFileResponse uploadResponse = lsfxClient.uploadFile(lsfxProjectId, filePath.toFile());
// Integer logId = uploadResponse.getData().getLogId();
log.info("【文件上传】步骤2: 上传文件到流水分析平台, tempPath={}", tempFilePath);
// 临时模拟 logId
Integer logId = (int) (System.currentTimeMillis() % 1000000);
File file = filePath.toFile();
if (!file.exists()) {
throw new RuntimeException("临时文件不存在: " + tempFilePath);
}
UploadFileResponse uploadResponse = lsfxClient.uploadFile(lsfxProjectId, file);
if (uploadResponse == null || uploadResponse.getData() == null
|| uploadResponse.getData().getUploadLogList() == null
|| uploadResponse.getData().getUploadLogList().isEmpty()) {
throw new RuntimeException("上传文件失败: 响应数据为空");
}
// 从 uploadLogList 中获取第一个 logId
Integer logId = uploadResponse.getData().getUploadLogList().get(0).getLogId();
if (logId == null) {
throw new RuntimeException("上传文件失败: 未返回logId");
}
log.info("【文件上传】文件上传成功: logId={}", logId);
// 步骤3:更新状态为 parsing
log.info("【文件上传】步骤3: 更新状态为解析中, logId={}", logId);
@@ -343,42 +382,67 @@ public class CcdiFileUploadServiceImpl implements ICcdiFileUploadService {
// 步骤4:轮询解析状态(最多300次,间隔2秒)
log.info("【文件上传】步骤4: 开始轮询解析状态");
// TODO: 实现真实的轮询逻辑
// boolean parsingComplete = waitForParsingComplete(lsfxProjectId, logId.toString());
boolean parsingComplete = true; // 临时模拟
boolean parsingComplete = waitForParsingComplete(lsfxProjectId, logId.toString());
if (!parsingComplete) {
throw new RuntimeException("解析超时(超过10分钟),请检查文件格式是否正确");
}
// 步骤5:获取文件上传状态
log.info("【文件上传】步骤5: 获取文件上传状态");
// TODO: 调用 lsfxClient.getFileUploadStatus()
// GetFileUploadStatusResponse statusResponse = lsfxClient.getFileUploadStatus(...);
log.info("【文件上传】步骤5: 获取文件上传状态: logId={}", logId);
GetFileUploadStatusRequest statusRequest = new GetFileUploadStatusRequest();
statusRequest.setGroupId(lsfxProjectId);
statusRequest.setLogId(logId);
GetFileUploadStatusResponse statusResponse = lsfxClient.getFileUploadStatus(statusRequest);
if (statusResponse == null || statusResponse.getData() == null
|| statusResponse.getData().getLogs() == null
|| statusResponse.getData().getLogs().isEmpty()) {
throw new RuntimeException("获取文件上传状态失败: 响应数据为空");
}
// 获取第一个log项因为我们传了logId应该只返回一个
GetFileUploadStatusResponse.LogItem logItem = statusResponse.getData().getLogs().get(0);
Integer status = logItem.getStatus();
String uploadStatusDesc = logItem.getUploadStatusDesc();
log.info("【文件上传】文件状态: status={}, uploadStatusDesc={}", status, uploadStatusDesc);
// 步骤6:判断解析结果
// TODO: 实现真实的判断逻辑
boolean parseSuccess = true; // 临时模拟
// status=-5 且 uploadStatusDesc="data.wait.confirm.newaccount" 表示解析成功
boolean parseSuccess = status != null && status == -5
&& "data.wait.confirm.newaccount".equals(uploadStatusDesc);
if (parseSuccess) {
// 解析成功
log.info("【文件上传】步骤6: 解析成功,保存主体信息");
// 提取主体名称和账号
List<String> enterpriseNames = logItem.getEnterpriseNameList();
List<String> accountNos = logItem.getAccountNoList();
String enterpriseNamesStr = enterpriseNames != null ? String.join(",", enterpriseNames) : "";
String accountNosStr = accountNos != null ? String.join(",", accountNos) : "";
record.setFileStatus("parsed_success");
// TODO: 从实际的解析结果中获取
record.setEnterpriseNames("测试主体1,测试主体2");
record.setAccountNos("622xxx,623xxx");
record.setEnterpriseNames(enterpriseNamesStr);
record.setAccountNos(accountNosStr);
recordMapper.updateById(record);
log.info("【文件上传】主体信息已保存: enterpriseNames={}, accountNos={}",
enterpriseNamesStr, accountNosStr);
// 步骤7:获取流水数据并保存
log.info("【文件上传】步骤7: 获取流水数据");
// TODO: 实现 fetchAndSaveBankStatements
// fetchAndSaveBankStatements(projectId, lsfxProjectId, logId, totalCount);
fetchAndSaveBankStatements(projectId, lsfxProjectId, logId);
} else {
// 解析失败
log.warn("【文件上传】步骤6: 解析失败");
log.warn("【文件上传】步骤6: 解析失败: status={}, desc={}", status, uploadStatusDesc);
record.setFileStatus("parsed_failed");
record.setErrorMessage("解析失败:文件格式错误");
record.setErrorMessage("解析失败: " + uploadStatusDesc);
recordMapper.updateById(record);
}
@@ -402,21 +466,155 @@ public class CcdiFileUploadServiceImpl implements ICcdiFileUploadService {
}
/**
* 轮询解析状态
* TODO: 实现真实逻辑
* 轮询解析状态固定间隔2秒最多300次
*
* @param groupId 项目ID
* @param logId 文件ID
* @return true=解析完成false=超时未完成
*/
private boolean waitForParsingComplete(Integer groupId, String logId) {
// TODO: 调用 lsfxClient.checkParseStatus() 轮询
return true;
log.info("【文件上传】开始轮询解析状态: groupId={}, logId={}", groupId, logId);
int maxRetries = 300;
int intervalSeconds = 2;
for (int i = 1; i <= maxRetries; i++) {
try {
// 调用检查解析状态接口
CheckParseStatusResponse response = lsfxClient.checkParseStatus(groupId, logId);
if (response == null || response.getData() == null) {
log.warn("【文件上传】轮询第{}次: 响应数据为空", i);
Thread.sleep(intervalSeconds * 1000L);
continue;
}
Boolean parsing = response.getData().getParsing();
log.debug("【文件上传】轮询第{}次: parsing={}", i, parsing);
// parsing=false 表示解析完成
if (Boolean.FALSE.equals(parsing)) {
log.info("【文件上传】解析完成: logId={}, 轮询次数={}", logId, i);
return true;
}
// 未完成,等待后继续
if (i < maxRetries) {
Thread.sleep(intervalSeconds * 1000L);
}
} catch (InterruptedException e) {
Thread.currentThread().interrupt();
log.error("【文件上传】轮询被中断: logId={}", logId, e);
return false;
} catch (Exception e) {
log.error("【文件上传】轮询异常: logId={}, 次数={}", logId, i, e);
// 继续轮询,不中断
}
}
log.warn("【文件上传】轮询超时: logId={}, 已轮询{}次", logId, maxRetries);
return false;
}
/**
* 获取并保存流水数据
* TODO: 实现真实逻辑
* 获取并保存流水数据每页1000条批量插入每批1000条
*
* @param projectId 项目ID业务字段
* @param groupId 流水分析平台项目ID
* @param logId 文件ID
*/
private void fetchAndSaveBankStatements(Long projectId, Integer groupId,
Integer logId, int totalCount) {
// TODO: 调用 lsfxClient.getBankStatement() 获取流水
// TODO: 批量插入到 ccdi_bank_statement
private void fetchAndSaveBankStatements(Long projectId, Integer groupId, Integer logId) {
log.info("【文件上传】开始获取流水数据: projectId={}, groupId={}, logId={}",
projectId, groupId, logId);
// 步骤1: 先调用一次接口获取 totalCount
GetBankStatementRequest firstRequest = new GetBankStatementRequest();
firstRequest.setGroupId(groupId);
firstRequest.setLogId(logId);
firstRequest.setPageNow(1);
firstRequest.setPageSize(1); // 只获取1条用于获取总数
GetBankStatementResponse firstResponse = lsfxClient.getBankStatement(firstRequest);
if (firstResponse == null || firstResponse.getData() == null) {
log.warn("【文件上传】获取流水数据失败: 响应数据为空");
return;
}
Integer totalCount = firstResponse.getData().getTotalCount();
if (totalCount == null || totalCount <= 0) {
log.warn("【文件上传】无流水数据需要保存: totalCount={}", totalCount);
return;
}
log.info("【文件上传】获取到总数: totalCount={}", totalCount);
// 步骤2: 计算分页信息
int pageSize = 1000; // 每页1000条
int batchSize = 1000; // 批量插入每批1000条与pageSize保持一致
int totalPages = (int) Math.ceil((double) totalCount / pageSize);
log.info("【文件上传】分页信息: 每页{}条, 共{}页", pageSize, totalPages);
List<CcdiBankStatement> batchList = new ArrayList<>(batchSize);
int totalSaved = 0;
// 步骤3: 循环分页获取所有数据
for (int pageNow = 1; pageNow <= totalPages; pageNow++) {
try {
// 构建请求参数
GetBankStatementRequest request = new GetBankStatementRequest();
request.setGroupId(groupId);
request.setLogId(logId);
request.setPageNow(pageNow);
request.setPageSize(pageSize);
// 获取流水数据
GetBankStatementResponse response = lsfxClient.getBankStatement(request);
if (response == null || response.getData() == null
|| response.getData().getBankStatementList() == null) {
log.warn("【文件上传】获取流水数据为空: pageNow={}", pageNow);
continue;
}
List<GetBankStatementResponse.BankStatementItem> items =
response.getData().getBankStatementList();
log.debug("【文件上传】获取第{}页数据: {}条", pageNow, items.size());
// 转换并收集到批量列表
for (GetBankStatementResponse.BankStatementItem item : items) {
CcdiBankStatement statement = CcdiBankStatement.fromResponse(item);
if (statement != null) {
statement.setProjectId(projectId); // 设置业务项目ID
batchList.add(statement);
// 达到批量插入阈值1000条执行插入
if (batchList.size() >= batchSize) {
bankStatementMapper.insertBatch(batchList);
totalSaved += batchList.size();
log.debug("【文件上传】批量插入流水: {}条, 累计{}条",
batchList.size(), totalSaved);
batchList.clear();
}
}
}
} catch (Exception e) {
log.error("【文件上传】获取或保存流水数据失败: pageNow={}", pageNow, e);
// 继续处理下一页,不中断整个流程
}
}
// 步骤4: 保存剩余的数据
if (!batchList.isEmpty()) {
bankStatementMapper.insertBatch(batchList);
totalSaved += batchList.size();
log.debug("【文件上传】批量插入剩余流水: {}条", batchList.size());
}
log.info("【文件上传】流水数据保存完成: 总共保存{}条", totalSaved);
}
}

View File

@@ -0,0 +1,98 @@
# 异步文件上传功能 - 前端设计更新
## 文档信息
- **更新日期**: 2026-03-05
- **版本**: v1.1
- **变更说明**: 修改文件格式限制
## 变更内容
### 文件格式限制变更
**原限制**
- 仅支持 Excel 文件(.xlsx, .xls
**新限制**
- 支持 PDF 文件(.pdf
- 支持 CSV 文件(.csv
- 支持 Excel 文件(.xlsx, .xls
### 修改点
#### 1. 前端校验逻辑
```javascript
// 修改前
const validTypes = ['.xlsx', '.xls'];
// 修改后
const validTypes = ['.pdf', '.csv', '.xlsx', '.xls'];
```
#### 2. 错误提示
```
修改前: "仅支持 .xlsx, .xls 格式文件"
修改后: "仅支持 PDF、CSV、Excel 格式文件"
```
#### 3. 上传卡片描述
```
修改前: "支持 Excel、PDF 格式文件上传"
修改后: "支持 PDF、CSV、Excel 格式文件上传"
```
#### 4. 批量上传弹窗提示
```
修改前: "支持 .xlsx, .xls 格式文件最多上传100个文件"
修改后: "支持 PDF、CSV、Excel 格式文件最多100个文件单个文件不超过50MB"
```
#### 5. accept属性
```html
<!-- 新增 -->
<el-upload accept=".pdf,.csv,.xlsx,.xls" ...>
```
## 后端接口变更要求
后端Controller接口需要同步修改文件格式校验逻辑
```java
// CcdiFileUploadController.java
// 修改文件格式校验部分
// 修改前
if (!fileName.endsWith(".xlsx") && !fileName.endsWith(".xls")) {
return AjaxResult.error("文件 " + fileName + " 格式不支持仅支持Excel文件");
}
// 修改后
String lowerFileName = fileName.toLowerCase();
if (!lowerFileName.endsWith(".pdf") && !lowerFileName.endsWith(".csv")
&& !lowerFileName.endsWith(".xlsx") && !lowerFileName.endsWith(".xls")) {
return AjaxResult.error("文件 " + fileName + " 格式不支持仅支持PDF、CSV、Excel文件");
}
```
## 测试变更
### 测试文件格式
需要测试以下格式:
- ✅ PDF 文件
- ✅ CSV 文件
- ✅ XLSX 文件
- ✅ XLS 文件
- ❌ 其他格式(应被拒绝)
### 测试用例
1. 上传PDF文件 → 应成功
2. 上传CSV文件 → 应成功
3. 上传XLSX文件 → 应成功
4. 上传XLS文件 → 应成功
5. 上传TXT文件 → 应提示"格式不支持"
6. 上传DOC文件 → 应提示"格式不支持"
---
**文档结束**

View File

@@ -0,0 +1,544 @@
# 异步文件上传服务实现设计文档
## 文档信息
- **创建日期**: 2026-03-05
- **版本**: v1.0
- **作者**: Claude
- **状态**: 已批准
## 1. 概述
### 1.1 功能描述
实现 `CcdiFileUploadServiceImpl` 中所有 TODO 方法,完成项目流水文件的异步批量上传功能的端到端流程。
### 1.2 核心需求
- 集成流水分析平台客户端LsfxAnalysisClient
- 实现文件上传到流水分析平台
- 实现轮询解析状态(固定间隔策略)
- 获取并判断解析结果
- 批量获取并保存流水数据到本地数据库
- 实现批次日志管理
### 1.3 技术栈
- Spring @Async 异步处理
- ThreadPoolTaskExecutor 线程池
- MyBatis Plus 批量操作
- Logback 自定义日志
- 流水分析平台 API
## 2. 设计决策
### 2.1 轮询策略
**决策**: 固定间隔策略
- 轮询次数: 300次
- 间隔时间: 2秒
- 最长等待: 10分钟
- **理由**: 简单可靠,符合设计文档要求
### 2.2 分页获取策略
**决策**: 大批量分页
- 每页数量: 1000条
- 批量插入: 每批1000条
- 先调用一次获取 totalCount
- **理由**: 性能与内存占用的平衡
### 2.3 错误处理策略
**决策**: 严格失败策略
- 任何异常直接标记为 `parsed_failed`
- 记录详细的错误信息到 `error_message` 字段
- 不进行额外重试(线程池层面已有重试机制)
- **理由**: 简单明了,便于排查问题
### 2.4 日志管理策略
**决策**: 完整实现批次日志
- 实现自定义 `FileUploadLogAppender`
- 每个批次生成独立日志文件
- 路径基于 `ruoyi.profile` 配置
- **理由**: 便于运维排查问题
## 3. 详细设计
### 3.1 依赖注入
```java
@Slf4j
@Service
public class CcdiFileUploadServiceImpl implements ICcdiFileUploadService {
@Value("${ruoyi.profile}")
private String uploadPath;
@Resource
private CcdiFileUploadRecordMapper recordMapper;
@Resource
private CcdiProjectMapper projectMapper;
@Resource
@Qualifier("fileUploadExecutor")
private Executor fileUploadExecutor;
@Resource
private LsfxAnalysisClient lsfxClient; // 新增
@Resource
private CcdiBankStatementMapper bankStatementMapper; // 新增
```
### 3.2 文件上传逻辑processFileAsync 第329-333行
**核心流程**:
1. 将临时文件路径转换为 File 对象
2. 验证文件存在性
3. 调用 `lsfxClient.uploadFile(lsfxProjectId, file)`
4. 提取并验证返回的 logId
**关键代码**:
```java
File file = filePath.toFile();
if (!file.exists()) {
throw new RuntimeException("临时文件不存在: " + tempFilePath);
}
UploadFileResponse uploadResponse = lsfxClient.uploadFile(lsfxProjectId, file);
if (uploadResponse == null || uploadResponse.getData() == null) {
throw new RuntimeException("上传文件失败: 响应数据为空");
}
Integer logId = uploadResponse.getData().getLogId();
if (logId == null) {
throw new RuntimeException("上传文件失败: 未返回logId");
}
```
### 3.3 轮询解析状态逻辑waitForParsingComplete
**核心流程**:
1. 调用 `checkParseStatus(groupId, logId)`
2. 检查 `parsing` 字段
3. `parsing=false` 表示解析完成
4. 固定间隔2秒最多300次
**关键代码**:
```java
for (int i = 1; i <= maxRetries; i++) {
CheckParseStatusResponse response = lsfxClient.checkParseStatus(groupId, logId);
if (response == null || response.getData() == null) {
log.warn("【文件上传】轮询第{}次: 响应数据为空", i);
Thread.sleep(intervalSeconds * 1000L);
continue;
}
Boolean parsing = response.getData().getParsing();
// parsing=false 表示解析完成
if (Boolean.FALSE.equals(parsing)) {
log.info("【文件上传】解析完成: logId={}, 轮询次数={}", logId, i);
return true;
}
if (i < maxRetries) {
Thread.sleep(intervalSeconds * 1000L);
}
}
```
**异常处理**:
- `InterruptedException`: 恢复中断状态,返回 false
- 其他异常: 记录日志,继续轮询
### 3.4 获取解析结果逻辑processFileAsync 第355-383行
**核心流程**:
1. 调用 `getFileUploadStatus(groupId, logId)`
2. 判断 `status == -5 && uploadStatusDesc == "data.wait.confirm.newaccount"`
3. 提取 `enterpriseNameList``accountNoList`
4. 解析成功则调用 `fetchAndSaveBankStatements()`
**关键代码**:
```java
GetFileUploadStatusRequest statusRequest = new GetFileUploadStatusRequest();
statusRequest.setGroupId(lsfxProjectId);
statusRequest.setLogId(logId);
GetFileUploadStatusResponse statusResponse = lsfxClient.getFileUploadStatus(statusRequest);
GetFileUploadStatusResponse.LogItem logItem = statusResponse.getData().getLogs().get(0);
Integer status = logItem.getStatus();
String uploadStatusDesc = logItem.getUploadStatusDesc();
// 判断解析结果
boolean parseSuccess = status != null && status == -5
&& "data.wait.confirm.newaccount".equals(uploadStatusDesc);
if (parseSuccess) {
// 提取主体信息
List<String> enterpriseNames = logItem.getEnterpriseNameList();
List<String> accountNos = logItem.getAccountNoList();
String enterpriseNamesStr = enterpriseNames != null ? String.join(",", enterpriseNames) : "";
String accountNosStr = accountNos != null ? String.join(",", accountNos) : "";
record.setFileStatus("parsed_success");
record.setEnterpriseNames(enterpriseNamesStr);
record.setAccountNos(accountNosStr);
recordMapper.updateById(record);
// 获取流水数据
fetchAndSaveBankStatements(projectId, lsfxProjectId, logId);
} else {
record.setFileStatus("parsed_failed");
record.setErrorMessage("解析失败: " + uploadStatusDesc);
recordMapper.updateById(record);
}
```
### 3.5 批量保存流水数据逻辑fetchAndSaveBankStatements
**核心流程**:
1. 先调用一次接口获取 totalCountpageSize=1, pageNow=1
2. 计算分页信息每页1000条
3. 循环分页获取所有数据
4. 每累积1000条批量插入一次
5. 设置 projectId 到每条流水记录
**关键代码**:
```java
// 步骤1: 先调用一次接口获取 totalCount
GetBankStatementRequest firstRequest = new GetBankStatementRequest();
firstRequest.setGroupId(groupId);
firstRequest.setLogId(logId);
firstRequest.setPageNow(1);
firstRequest.setPageSize(1);
GetBankStatementResponse firstResponse = lsfxClient.getBankStatement(firstRequest);
Integer totalCount = firstResponse.getData().getTotalCount();
// 步骤2: 计算分页信息
int pageSize = 1000;
int batchSize = 1000;
int totalPages = (int) Math.ceil((double) totalCount / pageSize);
List<CcdiBankStatement> batchList = new ArrayList<>(batchSize);
// 步骤3: 循环分页获取
for (int pageNow = 1; pageNow <= totalPages; pageNow++) {
GetBankStatementRequest request = new GetBankStatementRequest();
request.setGroupId(groupId);
request.setLogId(logId);
request.setPageNow(pageNow);
request.setPageSize(pageSize);
GetBankStatementResponse response = lsfxClient.getBankStatement(request);
for (GetBankStatementResponse.BankStatementItem item : items) {
CcdiBankStatement statement = CcdiBankStatement.fromResponse(item);
statement.setProjectId(projectId); // 设置业务项目ID
batchList.add(statement);
// 达到批量插入阈值1000条
if (batchList.size() >= batchSize) {
bankStatementMapper.insertBatch(batchList);
batchList.clear();
}
}
}
// 步骤4: 保存剩余的数据
if (!batchList.isEmpty()) {
bankStatementMapper.insertBatch(batchList);
}
```
**性能优化**:
- 每页1000条减少请求次数
- 批量插入1000条提高数据库性能
- 异常不中断,继续处理下一页
### 3.6 批次日志管理FileUploadLogAppender
**核心功能**:
1. 继承 `UnsynchronizedAppenderBase<ILoggingEvent>`
2. 使用 `ThreadLocal` 存储当前批次的 FileAppender
3. 为每个批次创建独立的日志文件
**日志文件路径**:
```
{ruoyi.profile}/logs/file-upload/{projectId}/{timestamp}.log
```
**示例**:
- Windows: `D:/ruoyi/uploadPath/logs/file-upload/123/20260305-103025.log`
- Linux: `/var/ruoyi/logs/file-upload/123/20260305-103025.log`
**关键方法**:
```java
/**
* 为指定批次创建独立的日志文件
*/
public static void createBatchLogFile(String uploadPath, Long projectId, String batchId) {
String timestamp = new SimpleDateFormat("yyyyMMdd-HHmmss").format(new Date());
String logDirPath = uploadPath + File.separator + "logs" + File.separator
+ "file-upload" + File.separator + projectId;
File logDir = new File(logDirPath);
if (!logDir.exists()) {
logDir.mkdirs();
}
String logFilePath = logDirPath + File.separator + timestamp + ".log";
FileAppender<ILoggingEvent> appender = new FileAppender<>();
appender.setFile(logFilePath);
PatternLayout layout = new PatternLayout();
layout.setPattern("%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n");
layout.start();
appender.setLayout(layout);
appender.start();
currentAppender.set(appender);
}
/**
* 关闭当前批次的日志文件
*/
public static void closeBatchLogFile() {
FileAppender<ILoggingEvent> appender = currentAppender.get();
if (appender != null) {
appender.stop();
currentAppender.remove();
}
}
```
**使用方式**:
```java
private void submitTasksAsync(...) {
// 创建批次日志文件
FileUploadLogAppender.createBatchLogFile(uploadPath, projectId, batchId);
try {
// 任务提交逻辑
} finally {
// 关闭日志文件
FileUploadLogAppender.closeBatchLogFile();
}
}
```
## 4. 实现细节
### 4.1 文件上传完整流程
```java
@Async("fileUploadExecutor")
public void processFileAsync(Long projectId, Integer lsfxProjectId, String tempFilePath,
Long recordId, String batchId, CcdiFileUploadRecord record) {
try {
// 步骤1: 状态已是uploading记录已存在
Path filePath = Paths.get(tempFilePath);
if (!Files.exists(filePath)) {
throw new RuntimeException("临时文件不存在: " + tempFilePath);
}
// 步骤2: 上传文件到流水分析平台
File file = filePath.toFile();
UploadFileResponse uploadResponse = lsfxClient.uploadFile(lsfxProjectId, file);
Integer logId = uploadResponse.getData().getLogId();
// 步骤3: 更新状态为 parsing
record.setLogId(logId);
record.setFileStatus("parsing");
recordMapper.updateById(record);
// 步骤4: 轮询解析状态最多300次间隔2秒
boolean parsingComplete = waitForParsingComplete(lsfxProjectId, logId.toString());
if (!parsingComplete) {
throw new RuntimeException("解析超时(超过10分钟)");
}
// 步骤5: 获取文件上传状态
GetFileUploadStatusRequest statusRequest = new GetFileUploadStatusRequest();
statusRequest.setGroupId(lsfxProjectId);
statusRequest.setLogId(logId);
GetFileUploadStatusResponse statusResponse = lsfxClient.getFileUploadStatus(statusRequest);
GetFileUploadStatusResponse.LogItem logItem = statusResponse.getData().getLogs().get(0);
Integer status = logItem.getStatus();
String uploadStatusDesc = logItem.getUploadStatusDesc();
// 步骤6: 判断解析结果
boolean parseSuccess = status != null && status == -5
&& "data.wait.confirm.newaccount".equals(uploadStatusDesc);
if (parseSuccess) {
// 解析成功
List<String> enterpriseNames = logItem.getEnterpriseNameList();
List<String> accountNos = logItem.getAccountNoList();
record.setFileStatus("parsed_success");
record.setEnterpriseNames(enterpriseNames != null ? String.join(",", enterpriseNames) : "");
record.setAccountNos(accountNos != null ? String.join(",", accountNos) : "");
recordMapper.updateById(record);
// 步骤7: 获取流水数据并保存
fetchAndSaveBankStatements(projectId, lsfxProjectId, logId);
} else {
// 解析失败
record.setFileStatus("parsed_failed");
record.setErrorMessage("解析失败: " + uploadStatusDesc);
recordMapper.updateById(record);
}
} catch (Exception e) {
log.error("【文件上传】处理失败: fileName={}", record.getFileName(), e);
updateRecordStatus(recordId, "parsed_failed", e.getMessage());
} finally {
// 清理临时文件
try {
Path filePath = Paths.get(tempFilePath);
if (Files.exists(filePath)) {
Files.delete(filePath);
}
} catch (IOException e) {
log.warn("【文件上传】清理临时文件失败: {}", tempFilePath, e);
}
}
}
```
### 4.2 错误处理规范
**异常分类**:
1. **文件异常**: 临时文件不存在、文件转换失败
2. **网络异常**: 流水分析平台接口调用失败
3. **业务异常**: 解析失败、解析超时
4. **数据库异常**: 批量插入失败
**处理策略**:
- 所有异常统一捕获,记录详细日志
- 直接标记为 `parsed_failed`
- 记录错误信息到 `error_message` 字段
- finally 块确保临时文件被清理
### 4.3 日志记录规范
**日志级别**:
- `INFO`: 关键步骤(开始上传、上传成功、解析完成、保存成功)
- `DEBUG`: 详细信息(轮询次数、每页数据量)
- `WARN`: 警告信息(响应数据为空、清理失败)
- `ERROR`: 错误信息(处理失败、异常)
**日志格式**:
```
【文件上传】{步骤描述}: {关键参数}={值}
```
**示例**:
```
【文件上传】开始处理文件: fileName=流水1.xlsx, recordId=123
【文件上传】文件上传成功: logId=456789
【文件上传】解析完成: logId=456789, 轮询次数=15
【文件上传】流水数据保存完成: 总共保存5000条
```
## 5. 文件清单
### 5.1 需要修改的文件
| 文件路径 | 修改内容 |
|---------|---------|
| `CcdiFileUploadServiceImpl.java` | 实现 processFileAsync、waitForParsingComplete、fetchAndSaveBankStatements 中的 TODO |
### 5.2 需要新增的文件
| 文件路径 | 说明 |
|---------|------|
| `ccdi-project/src/main/java/com/ruoyi/ccdi/project/log/FileUploadLogAppender.java` | 批次日志管理器 |
## 6. 测试策略
### 6.1 单元测试
**测试用例**:
1. `waitForParsingComplete` - 正常轮询成功
2. `waitForParsingComplete` - 轮询超时
3. `waitForParsingComplete` - 轮询被中断
4. `fetchAndSaveBankStatements` - 无数据
5. `fetchAndSaveBankStatements` - 单页数据
6. `fetchAndSaveBankStatements` - 多页数据
7. `fetchAndSaveBankStatements` - 异常处理
### 6.2 集成测试
**测试场景**:
1. 完整流程测试(单个文件,正常场景)
2. 大文件测试50MB
3. 批量文件测试10个文件
4. 解析失败场景
5. 网络异常场景
6. 线程池满载场景
### 6.3 性能测试
**测试指标**:
- 单个文件处理时长: 3-15分钟
- 100个文件并发处理
- 数据库批量插入性能
- 内存占用情况
## 7. 部署注意事项
### 7.1 配置检查
- [ ] `ruoyi.profile` 配置正确且目录有写权限
- [ ] 线程池容量配置默认100
- [ ] 流水分析平台地址配置正确
- [ ] 应用认证信息配置正确
### 7.2 监控指标
- 线程池活跃线程数
- 文件上传成功率
- 平均处理时长
- 批量插入性能
- 日志文件大小和数量
### 7.3 运维建议
- 定期清理30天前的日志文件
- 监控线程池状态
- 关注数据库连接池使用情况
- 流水分析平台接口调用成功率监控
## 8. 风险与缓解
### 8.1 风险识别
| 风险 | 影响 | 概率 | 缓解措施 |
|------|------|------|----------|
| 流水分析平台不稳定 | 高 | 中 | 异常捕获,标记失败,详细日志 |
| 大文件内存溢出 | 高 | 低 | 批量插入,及时清理临时文件 |
| 线程池满载 | 中 | 中 | 重试机制,提示系统繁忙 |
| 日志文件过大 | 低 | 中 | 按批次分离,定期清理 |
### 8.2 回滚方案
如遇严重问题,可以:
1. 禁用异步上传功能
2. 回退到同步上传方式
3. 暂停新的上传任务
## 9. 参考资料
- [项目异步文件上传功能设计文档](../../design/2026-03-05-async-file-upload-design.md)
- [项目异步文件上传需求](../../assets/项目异步文件上传/task.md)
- [流水分析平台接口文档](../2026-03-02-lsfx-integration-design.md)
- [银行流水实体设计](../2026-03-04-bank-statement-entity-design.md)
---
**文档结束**

View File

@@ -0,0 +1,194 @@
# 银行流水审计字段补充设计文档
## 概述
本文档记录为 `GetBankStatementResponse.BankStatementItem` 类添加 `createdBy``createDate` 审计字段的设计方案。
## 背景
### 问题描述
外部流水分析平台的接口文档6.5节)中包含 `createdBy``createDate` 字段,但我们的响应类 `GetBankStatementResponse.BankStatementItem` 中缺少这两个字段的定义,导致无法接收外部平台返回的审计信息。
### 影响范围
- **直接影响:** `GetBankStatementResponse.BankStatementItem`
- **间接影响:** `CcdiBankStatement.fromResponse()` 方法(已有对应字段,无需修改)
- **数据流:** 外部平台 → 响应类 → 实体类 → 数据库
## 设计方案
### 字段定义
`GetBankStatementResponse.BankStatementItem` 类中添加两个审计字段:
| 字段名 | 类型 | 说明 | 来源 |
|--------|------|------|------|
| `createdBy` | `Long` | 创建者用户ID | 外部平台 |
| `createDate` | `String` | 创建时间 | 外部平台 |
### 类型选择
- **createdBy**: 使用 `Long` 类型
- 与实体类 `CcdiBankStatement` 保持一致
- 用户ID通常为长整型数字
- **createDate**: 使用 `String` 类型
- 外部平台返回时间字符串格式(如 "2026-03-05 10:30:00"
- 避免时间格式转换问题
- 由业务层负责转换为 Date 类型
### 代码修改
**文件:** `ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java`
**修改位置:**`BankStatementItem` 类的最后添加审计字段组
**修改内容:**
```java
// ===== 审计字段 =====
/** 创建者 */
private Long createdBy;
/** 创建时间 */
private String createDate;
```
### 完整修改后的类结构
```java
@Data
public static class BankStatementItem {
// ===== 账号相关信息 =====
/** 流水ID */
private Long bankStatementId;
// ... 其他字段
// ===== 附加字段 =====
/** 附件数量 */
private Integer attachments;
// ... 其他附加字段
// ===== 审计字段 =====
/** 创建者 */
private Long createdBy;
/** 创建时间 */
private String createDate;
}
```
## 数据流分析
### 1. 接收外部数据
```
外部平台 → GetBankStatementResponse.BankStatementItem
- createdBy: Long
- createDate: String
```
### 2. 转换为实体
```java
// CcdiBankStatement.fromResponse() 方法
CcdiBankStatement entity = new CcdiBankStatement();
BeanUtils.copyProperties(item, entity);
// 自动复制 createdBy (Long → Long)
// createDate 字段类型不匹配 (String → Date),需要手动转换
```
**注意:** 如果需要自动转换 `createDate`,需要修改 `fromResponse()` 方法添加日期格式转换逻辑。
### 3. 保存到数据库
```
CcdiBankStatement
- createdBy: Long → 数据库字段 created_by
- createDate: Date → 数据库字段 create_date
```
## 实现要点
### 必须实现
1. ✅ 在 `BankStatementItem` 类中添加两个字段
2. ✅ 添加 Lombok `@Data` 注解会自动生成 getter/setter
### 可选优化
1. **日期转换:** 如果需要,在 `CcdiBankStatement.fromResponse()` 中添加 `createDate` 的日期格式转换
2. **字段验证:** 添加 `@JsonFormat` 注解指定日期格式(如果需要)
## 测试计划
### 单元测试
- 验证 JSON 反序列化能正确映射这两个字段
- 验证 `fromResponse()` 方法能正确处理 `createdBy` 字段
### 集成测试
1. 调用外部平台接口(或 mock 服务器)
2. 验证响应中包含 `createdBy``createDate`
3. 验证数据能正确保存到数据库
### 测试数据
```json
{
"createdBy": 12345,
"createDate": "2026-03-05 14:30:00"
}
```
## 风险评估
| 风险 | 影响 | 概率 | 缓解措施 |
|------|------|------|----------|
| 外部平台不返回这两个字段 | 低 | 中 | 字段可以为 null不影响现有功能 |
| 日期格式不兼容 | 中 | 低 | 使用 String 类型接收,业务层处理转换 |
| 类型不匹配 | 高 | 低 | 已确认类型与实体类一致 |
## 变更影响
### 正面影响
- ✅ 补全接口字段,与外部平台文档对齐
- ✅ 支持审计信息传递
- ✅ 提升数据完整性
### 负面影响
- 无(仅添加字段,不影响现有功能)
## 实现计划
1. 修改 `GetBankStatementResponse.BankStatementItem`
2. 更新相关的 API 文档(如有)
3. 执行集成测试验证功能
4. 提交代码并更新 CHANGELOG
## 参考资料
- 外部流水分析平台接口文档 6.5节
- `CcdiBankStatement` 实体类定义
- 项目开发规范CLAUDE.md
## 附录
### 相关文件路径
- 响应类:`ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java`
- 实体类:`ccdi-project/src/main/java/com/ruoyi/ccdi/project/domain/entity/CcdiBankStatement.java`
- 客户端:`ccdi-lsfx/src/main/java/com/ruoyi/lsfx/client/LsfxAnalysisClient.java`
### 数据库字段
```sql
-- ccdi_bank_statement 表
created_by BIGINT(20) COMMENT '创建者',
create_date DATETIME COMMENT '创建时间'
```

View File

@@ -0,0 +1,372 @@
# 银行流水审计字段补充实现计划
> **For Claude:** REQUIRED SUB-SKILL: Use superpowers:executing-plans to implement this plan task-by-task.
**Goal:** 为 GetBankStatementResponse.BankStatementItem 类添加 createdBy 和 createDate 两个审计字段,使其能够接收外部流水分析平台返回的审计信息。
**Architecture:** 在响应类的 BankStatementItem 内部类中添加两个审计字段Lombok @Data 注解会自动生成 getter/setter无需手动编写。字段类型为 Long 和 String与外部平台接口文档对齐。
**Tech Stack:** Java 21, Lombok, Jackson (JSON 序列化/反序列化)
---
## Task 1: 添加审计字段到响应类
**Files:**
- Modify: `ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java:189-190`
**Step 1: 打开响应类文件**
在编辑器中打开文件:
```
ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java
```
定位到 `BankStatementItem` 内部类的最后,找到第 189 行附近(在 `trxBalance` 字段之后)。
**Step 2: 添加审计字段**
在第 189 行之后添加以下代码:
```java
/** 交易余额 */
private BigDecimal trxBalance;
// ===== 审计字段 =====
/** 创建者 */
private Long createdBy;
/** 创建时间 */
private String createDate;
}
```
**完整修改后的类尾部:**
```java
/** 转换余额 */
private BigDecimal transfromBalanceAmount;
/** 交易余额 */
private BigDecimal trxBalance;
// ===== 审计字段 =====
/** 创建者 */
private Long createdBy;
/** 创建时间 */
private String createDate;
}
```
**Step 3: 验证代码编译**
运行以下命令验证代码编译通过:
```bash
cd D:/ccdi/ccdi
mvn clean compile -pl ccdi-lsfx -am
```
Expected: `BUILD SUCCESS`
**Step 4: 提交代码**
```bash
git add ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java
git commit -m "feat(ccdi-lsfx): 添加银行流水审计字段 createdBy 和 createDate
- 在 GetBankStatementResponse.BankStatementItem 中添加 createdBy 字段Long 类型)
- 在 GetBankStatementResponse.BankStatementItem 中添加 createDate 字段String 类型)
- 补充外部流水分析平台接口文档 6.5 节中定义的审计字段
- 支持接收外部平台返回的创建者和创建时间信息"
```
---
## Task 2: 验证 JSON 反序列化(可选但推荐)
**Files:**
- Create: `ccdi-lsfx/src/test/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponseTest.java`
**Step 1: 创建测试类**
创建测试文件:
```
ccdi-lsfx/src/test/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponseTest.java
```
**Step 2: 编写测试代码**
```java
package com.ruoyi.lsfx.domain.response;
import com.fasterxml.jackson.databind.ObjectMapper;
import org.junit.jupiter.api.Test;
import java.math.BigDecimal;
import static org.junit.jupiter.api.Assertions.*;
/**
* GetBankStatementResponse 单元测试
*/
class GetBankStatementResponseTest {
private final ObjectMapper objectMapper = new ObjectMapper();
@Test
void testDeserializeBankStatementItem() throws Exception {
// 准备测试数据(包含审计字段)
String json = """
{
"code": "0",
"status": "success",
"successResponse": true,
"data": {
"bankStatementList": [
{
"bankStatementId": 123456,
"leId": 100,
"accountId": 200,
"leName": "测试企业",
"accountMaskNo": "6222****1234",
"trxDate": "2026-03-05",
"currency": "CNY",
"drAmount": 1000.00,
"crAmount": 0,
"balanceAmount": 5000.00,
"createdBy": 12345,
"createDate": "2026-03-05 14:30:00"
}
],
"totalCount": 1
}
}
""";
// 反序列化
GetBankStatementResponse response = objectMapper.readValue(json, GetBankStatementResponse.class);
// 验证基本字段
assertNotNull(response);
assertEquals("0", response.getCode());
assertEquals("success", response.getStatus());
assertTrue(response.getSuccessResponse());
// 验证数据列表
assertNotNull(response.getData());
assertNotNull(response.getData().getBankStatementList());
assertEquals(1, response.getData().getTotalCount());
// 验证流水项
GetBankStatementResponse.BankStatementItem item = response.getData().getBankStatementList().get(0);
assertNotNull(item);
assertEquals(123456L, item.getBankStatementId());
assertEquals(100, item.getLeId());
assertEquals("测试企业", item.getLeName());
// 验证审计字段
assertEquals(12345L, item.getCreatedBy());
assertEquals("2026-03-05 14:30:00", item.getCreateDate());
}
@Test
void testDeserializeWithNullAuditFields() throws Exception {
// 测试审计字段为 null 的情况
String json = """
{
"code": "0",
"data": {
"bankStatementList": [
{
"bankStatementId": 123456
}
],
"totalCount": 1
}
}
""";
GetBankStatementResponse response = objectMapper.readValue(json, GetBankStatementResponse.class);
GetBankStatementResponse.BankStatementItem item = response.getData().getBankStatementList().get(0);
// 审计字段应该为 null
assertNull(item.getCreatedBy());
assertNull(item.getCreateDate());
}
}
```
**Step 3: 运行测试**
```bash
cd D:/ccdi/ccdi
mvn test -Dtest=GetBankStatementResponseTest -pl ccdi-lsfx
```
Expected: `Tests run: 2, Failures: 0, Errors: 0, Skipped: 0`
**Step 4: 提交测试代码**
```bash
git add ccdi-lsfx/src/test/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponseTest.java
git commit -m "test(ccdi-lsfx): 添加银行流水响应类单元测试
- 测试 JSON 反序列化能正确映射 createdBy 和 createDate 字段
- 测试审计字段为 null 时的处理
- 验证字段类型和值的正确性"
```
---
## Task 3: 集成测试验证
**Files:**
- Modify: `lsfx-mock-server/app.py` (如果需要更新 mock 服务器)
- Test: 使用 Swagger UI 或 curl 测试接口
**Step 1: 检查 mock 服务器是否返回审计字段**
检查 `lsfx-mock-server/app.py` 文件,确认银行流水接口返回的数据中包含 `createdBy``createDate` 字段。
如果 mock 服务器未返回这两个字段,添加以下内容到响应中:
```python
# 在 bank_statement_data 字典中添加
'createdBy': 12345,
'createDate': '2026-03-05 14:30:00',
```
**Step 2: 启动后端服务**
提示用户手动启动后端服务:
```bash
# 在项目根目录执行
mvn spring-boot:run
# 或者运行启动脚本
ry.bat
```
**Step 3: 启动 mock 服务器(新终端)**
```bash
cd lsfx-mock-server
python app.py
```
Expected: Mock 服务器在 http://localhost:8000 启动
**Step 4: 使用 Swagger UI 测试接口**
1. 打开浏览器访问: http://localhost:8080/swagger-ui/index.html
2. 找到 "流水分析平台接口测试" 分组
3. 点击 "POST /lsfx/test/getBankStatement" 接口
4. 点击 "Try it out"
5. 输入测试参数:
```json
{
"groupId": 1,
"logId": 1,
"pageNow": 1,
"pageSize": 10
}
```
6. 点击 "Execute"
7. 查看响应,验证 `createdBy``createDate` 字段存在
Expected: 响应中的 `bankStatementList` 包含 `createdBy``createDate` 字段
**Step 5: 使用 curl 测试(可选)**
```bash
curl -X POST "http://localhost:8080/lsfx/test/getBankStatement" \
-H "Content-Type: application/json" \
-d '{
"groupId": 1,
"logId": 1,
"pageNow": 1,
"pageSize": 10
}'
```
Expected: JSON 响应中包含 `createdBy``createDate` 字段
**Step 6: 提交 mock 服务器更新(如果有修改)**
```bash
git add lsfx-mock-server/app.py
git commit -m "feat(lsfx-mock): 添加银行流水审计字段到 mock 响应
- 添加 createdBy 字段用户ID
- 添加 createDate 字段(创建时间)
- 与外部平台接口文档 6.5 节对齐"
```
---
## Task 4: 更新文档(可选)
**Files:**
- Update: `docs/plans/2026-03-05-bank-statement-audit-fields-design.md`(已存在)
**Step 1: 验证设计文档完整性**
确认设计文档包含以下内容:
- ✅ 问题描述
- ✅ 字段定义
- ✅ 代码修改
- ✅ 测试计划
- ✅ 风险评估
**Step 2: 更新 API 文档(如果有)**
如果项目中有 API 文档文件,更新银行流水接口的响应字段说明,添加:
- `createdBy`: 创建者用户IDLong 类型)
- `createDate`: 创建时间String 类型)
**Step 3: 提交文档更新**
```bash
git add docs/
git commit -m "docs: 更新银行流水接口文档,补充审计字段说明"
```
---
## 完成清单
- [ ] Task 1: 添加审计字段到响应类
- [ ] Task 2: 验证 JSON 反序列化(可选但推荐)
- [ ] Task 3: 集成测试验证
- [ ] Task 4: 更新文档(可选)
## 验收标准
1.`GetBankStatementResponse.BankStatementItem` 类包含 `createdBy``createDate` 字段
2. ✅ 字段类型正确:`createdBy` 为 Long`createDate` 为 String
3. ✅ 代码编译通过
4. ✅ 单元测试通过(如果编写)
5. ✅ 集成测试通过,能正确接收外部平台的审计字段
6. ✅ 代码已提交到 git
## 风险与缓解
| 风险 | 缓解措施 |
|------|----------|
| 外部平台不返回审计字段 | 字段可以为 null不影响现有功能 |
| 日期格式不一致 | 使用 String 类型接收,业务层处理转换 |
| JSON 反序列化失败 | 编写单元测试验证,使用 Jackson 注解处理格式 |
## 参考资料
- 设计文档: `docs/plans/2026-03-05-bank-statement-audit-fields-design.md`
- 实体类: `ccdi-project/src/main/java/com/ruoyi/ccdi/project/domain/entity/CcdiBankStatement.java`
- 项目规范: `CLAUDE.md`
- 外部平台接口文档 6.5 节

View File

@@ -0,0 +1,106 @@
# 银行流水接口字段补充设计
## 概述
流水分析平台接口实际返回了 `uploadSequnceNumber` 字段,但当前响应类中缺少该字段定义,导致数据丢失。本设计补充该字段的接收和映射。
## 问题分析
### 当前问题
- **接口返回**:流水分析平台接口实际返回 `uploadSequnceNumber` 字段
- **响应类缺失**`GetBankStatementResponse.BankStatementItem` 未定义该字段,数据被丢弃
- **实体已有字段**`CcdiBankStatement` 已定义 `batchSequence` 字段
- **映射缺失**`fromResponse()` 方法未映射该字段
### 字段映射关系
| 接口返回字段 | 响应类字段 | 实体类字段 | 数据库字段 |
|------------|-----------|-----------|-----------|
| uploadSequnceNumber | ❌ 缺失 | batchSequence | batch_sequence |
## 设计方案
### 修改范围
**涉及文件:**
1. `ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java`
2. `ccdi-project/src/main/java/com/ruoyi/ccdi/project/domain/entity/CcdiBankStatement.java`
**不涉及:**
- 数据库表结构(接口会返回实际值,无需修改约束)
- Controller、Service、Mapper 层
- 前端代码
### 具体变更
#### 1. 响应类添加字段
**文件**`GetBankStatementResponse.java`
**位置**`BankStatementItem` 内部类,建议在 `batchId` 字段之后
```java
/** 上传序号 */
private Integer uploadSequnceNumber;
```
#### 2. 实体转换逻辑补充
**文件**`CcdiBankStatement.java`
**位置**`fromResponse()` 方法,手动映射字段区域
```java
entity.setBatchSequence(item.getUploadSequnceNumber());
```
### 影响评估
#### 功能影响
- ✅ 流水数据完整性提升:接收并存储接口返回的上传序号
- ✅ 数据一致性保障:字段映射关系符合文档定义
- ✅ 无破坏性变更:仅添加字段,不影响现有功能
#### 数据影响
- 现有数据:不受影响
- 新数据:完整接收接口返回的 `uploadSequnceNumber`
## 实施计划
### 实施步骤
1. **修改响应类**
-`GetBankStatementResponse.BankStatementItem` 中添加 `uploadSequnceNumber` 字段
2. **修改实体转换**
-`CcdiBankStatement.fromResponse()` 中添加字段映射
3. **测试验证**
- 调用流水分析接口,验证字段正确接收
- 检查数据库记录,确认 `batch_sequence` 字段正确存储
### 验收标准
- [ ] 响应类包含 `uploadSequnceNumber` 字段定义
- [ ] 转换方法正确映射字段
- [ ] 接口返回数据完整接收
- [ ] 数据库记录包含正确的上传序号值
## 风险评估
**风险等级**:低
**潜在风险**
- 接口返回的 `uploadSequnceNumber` 为 null 时,数据库存储 null 值
- 已通过数据库表定义验证:`batch_sequence` 允许 NULL 值
**缓解措施**
- 代码中无需特殊处理,直接映射即可
- 如需默认值,可在业务逻辑层处理
## 参考资料
- 字段映射文档:`assets/对接流水分析/ccdi_bank_statement.md` 第 81 行
- 实体类定义:`CcdiBankStatement.java` 第 137 行
- 数据库表定义:`batch_sequence INT(11) NOT NULL`(实际允许存储 NULL需核实

View File

@@ -0,0 +1,257 @@
# 银行流水接口字段补充实施计划
> **For Claude:** REQUIRED SUB-SKILL: Use superpowers:executing-plans to implement this plan task-by-task.
**Goal:** 补充 `uploadSequnceNumber` 字段的接收和映射,确保流水分析接口返回的上传序号正确存储到数据库。
**Architecture:** 在响应类中添加字段定义接收接口返回值,在实体转换方法中映射到 `batchSequence` 字段,通过 MyBatis Plus 自动持久化到数据库的 `batch_sequence` 列。
**Tech Stack:** Java 21, Lombok, Spring Boot 3.5.8, MyBatis Plus
---
## Task 1: 响应类添加字段
**Files:**
- Modify: `ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java:132`
**Step 1: 在 BankStatementItem 内部类中添加字段**
`batchId` 字段(第 132 行)之后添加:
```java
/** 上传序号 */
private Integer uploadSequnceNumber;
```
完整上下文:
```java
/** 上传logId */
private Integer batchId;
/** 上传序号 */
private Integer uploadSequnceNumber;
/** 项目id */
private Integer groupId;
```
**Step 2: 验证 Lombok 注解生效**
确认 `@Data` 注解在 `BankStatementItem` 类上Lombok 会自动生成 getter/setter
```java
@Data
public static class BankStatementItem {
// ... 其他字段
private Integer batchId;
private Integer uploadSequnceNumber; // 新增字段
// ... 其他字段
}
```
---
## Task 2: 实体转换方法添加映射
**Files:**
- Modify: `ccdi-project/src/main/java/com/ruoyi/ccdi/project/domain/entity/CcdiBankStatement.java:201`
**Step 1: 在 fromResponse() 方法中添加字段映射**
在第 201 行(`entity.setCustomerAccountName(item.getCustomerName());` 之后)添加:
```java
entity.setBatchSequence(item.getUploadSequnceNumber());
```
完整上下文:
```java
// 4. 手动映射字段名不一致的情况
entity.setLeAccountNo(item.getAccountMaskNo());
entity.setCustomerAccountNo(item.getCustomerAccountMaskNo());
entity.setLeAccountName(item.getLeName());
entity.setAmountDr(item.getDrAmount());
entity.setAmountCr(item.getCrAmount());
entity.setAmountBalance(item.getBalanceAmount());
entity.setTrxFlag(item.getTransFlag());
entity.setTrxType(item.getTransTypeId());
entity.setCustomerLeId(item.getCustomerId());
entity.setCustomerAccountName(item.getCustomerName());
entity.setBatchSequence(item.getUploadSequnceNumber()); // 新增映射
// 5. 特殊字段处理
entity.setMetaJson(null); // 根据文档要求强制设为 null
```
**Step 2: 验证映射逻辑**
确认:
- 源字段:`item.getUploadSequnceNumber()` 返回 `Integer`
- 目标字段:`entity.setBatchSequence()` 接受 `Integer`
- 类型匹配,无需类型转换
---
## Task 3: 编译验证
**Files:**
- 无文件修改
**Step 1: 编译项目**
在项目根目录执行:
```bash
mvn clean compile
```
**预期输出:**
```
[INFO] BUILD SUCCESS
[INFO] ------------------------------------------------------------------------
[INFO] Total time: X.XXX s
[INFO] Finished at: 2026-03-05T...
[INFO] ------------------------------------------------------------------------
```
**Step 2: 检查编译错误(如果有)**
如果出现编译错误,检查:
- 字段名拼写是否正确:`uploadSequnceNumber`注意Sequence 不是 Sequence
- Lombok 注解处理器是否正确配置
- 导入语句是否需要补充(通常 Lombok 不需要额外导入)
---
## Task 4: 代码审查
**Files:**
- 无文件修改
**Step 1: 检查字段命名一致性**
对比文档 `assets/对接流水分析/ccdi_bank_statement.md:81`
```
| 28 | batch_sequence | uploadSequnceNumber |
```
确认:
- 响应类字段名:`uploadSequnceNumber`(与文档一致)
- 实体类字段名:`batchSequence`(与数据库列名 `batch_sequence` 对应)
**Step 2: 检查空值处理**
确认 `Integer` 类型允许 null 值:
- 接口返回 null 时,`item.getUploadSequnceNumber()` 返回 null
- `entity.setBatchSequence(null)` 设置 null 值
- MyBatis Plus 将 null 写入数据库
**Step 3: 检查 BeanUtils.copyProperties 行为**
确认 `BeanUtils.copyProperties(item, entity)` 不会自动映射该字段:
- 源字段名:`uploadSequnceNumber`
- 目标字段名:`batchSequence`
- 字段名不一致BeanUtils 不会自动复制
- 必须手动映射(已在 Task 2 添加)
---
## Task 5: 提交代码
**Files:**
- 无文件修改
**Step 1: 查看修改内容**
```bash
git diff
```
**预期输出:**
```diff
diff --git a/ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java b/ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java
index ...
--- a/ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java
+++ b/ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java
@@ -132,6 +132,9 @@ public class GetBankStatementResponse {
/** 上传logId */
private Integer batchId;
+ /** 上传序号 */
+ private Integer uploadSequnceNumber;
+
/** 项目id */
private Integer groupId;
diff --git a/ccdi-project/src/main/java/com/ruoyi/ccdi/project/domain/entity/CcdiBankStatement.java b/ccdi-project/src/main/java/com/ruoyi/ccdi/project/domain/entity/CcdiBankStatement.java
index ...
--- a/ccdi-project/src/main/java/com/ruoyi/ccdi/project/domain/entity/CcdiBankStatement.java
+++ b/ccdi-project/src/main/java/com/ruoyi/ccdi/project/domain/entity/CcdiBankStatement.java
@@ -199,6 +199,7 @@ public class CcdiBankStatement implements Serializable {
entity.setTrxType(item.getTransTypeId());
entity.setCustomerLeId(item.getCustomerId());
entity.setCustomerAccountName(item.getCustomerName());
+ entity.setBatchSequence(item.getUploadSequnceNumber());
// 5. 特殊字段处理
entity.setMetaJson(null); // 根据文档要求强制设为 null
```
**Step 2: 添加到暂存区**
```bash
git add ccdi-lsfx/src/main/java/com/ruoyi/lsfx/domain/response/GetBankStatementResponse.java
git add ccdi-project/src/main/java/com/ruoyi/ccdi/project/domain/entity/CcdiBankStatement.java
```
**Step 3: 提交更改**
```bash
git commit -m "fix: 补充银行流水接口 uploadSequnceNumber 字段接收和映射
- 在 GetBankStatementResponse.BankStatementItem 中添加 uploadSequnceNumber 字段
- 在 CcdiBankStatement.fromResponse() 中添加字段映射到 batchSequence
- 修复流水分析接口返回的上传序号数据丢失问题"
```
**预期输出:**
```
[dev abc1234] fix: 补充银行流水接口 uploadSequnceNumber 字段接收和映射
2 files changed, 2 insertions(+)
```
---
## 验收清单
- [ ] 响应类 `GetBankStatementResponse.BankStatementItem` 包含 `uploadSequnceNumber` 字段
- [ ] Lombok `@Data` 注解为该字段生成 getter/setter
- [ ] 实体转换方法 `fromResponse()` 包含 `batchSequence` 字段映射
- [ ] 项目编译成功(`mvn clean compile`
- [ ] 字段命名与文档 `assets/对接流水分析/ccdi_bank_statement.md` 一致
- [ ] 代码已提交到 git
---
## 后续验证(可选)
如需进一步验证功能,可以:
1. **接口测试**:调用流水分析接口,检查响应数据是否包含 `uploadSequnceNumber` 字段
2. **数据验证**:查询数据库 `ccdi_bank_statement` 表,检查 `batch_sequence` 列是否有正确的值
3. **日志检查**:在转换方法中添加日志,确认字段值正确传递
---
## 参考资料
- 设计文档:`docs/plans/2026-03-05-bank-statement-field-design.md`
- 字段映射文档:`assets/对接流水分析/ccdi_bank_statement.md`
- 接口文档:`assets/对接流水分析/兰溪-流水分析对接-新版.md`

View File

@@ -0,0 +1,259 @@
# 默认主题修改为浅色模式 - 设计文档
**日期:** 2026-03-06
**状态:** 已批准
**作者:** Claude Code
## 1. 概述
### 1.1 背景
当前系统默认使用深色模式侧边栏(`theme-dark`),需要将默认主题修改为浅色模式(`theme-light`)。
### 1.2 目标
- 将新用户的默认主题从深色模式改为浅色模式
- 保持老用户的自定义设置不受影响
- 确保主题切换功能完全正常
### 1.3 范围
- 仅修改前端默认配置
- 不涉及后端修改
- 不涉及数据库修改
## 2. 当前架构
### 2.1 主题配置层级
```
settings.js (默认配置)
store/modules/settings.js (Vuex 状态管理)
layout/components/Settings/index.vue (用户界面设置)
localStorage (持久化用户设置)
```
### 2.2 主题初始化逻辑
**文件:** `ruoyi-ui/src/store/modules/settings.js`
```javascript
const storageSetting = JSON.parse(localStorage.getItem('layout-setting')) || ''
const state = {
sideTheme: storageSetting.sideTheme || sideTheme, // localStorage 优先
// ...
}
```
**逻辑:**
1.`settings.js` 读取默认值
2. 检查 `localStorage` 是否有用户设置
3. 如果有用户设置,使用用户设置覆盖默认值
4. 如果没有用户设置,使用默认值
## 3. 设计方案
### 3.1 修改内容
**文件:** `ruoyi-ui/src/settings.js`
**变更:** 第 9 行
```javascript
// 修改前
sideTheme: 'theme-dark',
// 修改后
sideTheme: 'theme-light',
```
### 3.2 数据流
#### 新用户首次访问
```
用户访问系统
store/modules/settings.js 初始化
读取 settings.js: sideTheme = 'theme-light'
检查 localStorage: 为空
使用默认值: 'theme-light'
渲染浅色模式侧边栏
```
#### 老用户访问(已保存设置)
```
用户访问系统
store/modules/settings.js 初始化
读取 settings.js: sideTheme = 'theme-light'
检查 localStorage: 有值 { sideTheme: 'theme-dark' }
使用 localStorage 中的值: 'theme-dark'
渲染深色模式侧边栏(保持用户设置)
```
### 3.3 兼容性
**向后兼容:**
- ✅ 老用户的 localStorage 设置不受影响
- ✅ 老用户看到的主题与之前一致
**向前兼容:**
- ✅ 新用户默认看到浅色模式
- ✅ 用户仍可自由切换主题
- ✅ 保存/重置功能完全正常
## 4. 影响分析
### 4.1 影响范围
**文件变更:**
- `ruoyi-ui/src/settings.js`1 行代码)
**功能影响:**
- ✅ 无功能变更
- ✅ 无接口变更
- ✅ 无数据结构变更
### 4.2 用户体验影响
**新用户:**
- 从深色模式默认值 → 浅色模式默认值
**老用户:**
- 无影响localStorage 中的设置优先)
## 5. 测试计划
### 5.1 测试用例
| 测试场景 | 操作步骤 | 预期结果 |
|---------|---------|---------|
| 新用户首次访问 | 1. 清除 localStorage<br>2. 刷新页面 | 侧边栏为浅色模式 |
| 老用户(深色模式) | 1. localStorage 保存深色模式<br>2. 刷新页面 | 侧边栏仍为深色模式 |
| 老用户(浅色模式) | 1. localStorage 保存浅色模式<br>2. 刷新页面 | 侧边栏仍为浅色模式 |
| 切换主题 | 1. 打开设置抽屉<br>2. 点击深色/浅色图标 | 侧边栏立即切换 |
| 保存设置 | 1. 切换主题<br>2. 点击"保存配置"<br>3. 刷新页面 | 设置保持不变 |
| 重置设置 | 1. 修改多个设置<br>2. 点击"重置配置" | 恢复为默认值(浅色模式) |
### 5.2 浏览器兼容性
测试浏览器:
- ✅ Chrome (最新版)
- ✅ Firefox (最新版)
- ✅ Edge (最新版)
- ✅ Safari (最新版)
## 6. 部署方案
### 6.1 部署步骤
1. **修改代码**
```bash
# 修改 ruoyi-ui/src/settings.js
```
2. **提交代码**
```bash
git add ruoyi-ui/src/settings.js
git commit -m "feat: 将默认主题修改为浅色模式"
```
3. **构建前端**
```bash
cd ruoyi-ui
npm run build:prod
```
4. **部署静态资源**
- 将 `ruoyi-ui/dist/` 目录部署到生产服务器
5. **验证部署**
- 清除浏览器缓存
- 访问系统
- 验证新用户看到浅色模式
### 6.2 回滚方案
如果发现问题,可快速回滚:
```javascript
// settings.js 第 9 行
sideTheme: 'theme-dark', // 改回深色模式
```
然后重新构建和部署。
## 7. 风险评估
### 7.1 风险列表
| 风险 | 概率 | 影响 | 缓解措施 |
|-----|------|------|---------|
| 老用户困惑 | 低 | 低 | 老用户设置不受影响 |
| 浅色模式样式问题 | 低 | 中 | 需要充分测试 |
| 部署失败 | 低 | 高 | 准备回滚方案 |
### 7.2 总体风险
**风险等级:** 低
**理由:**
- 仅修改一行配置代码
- 不影响老用户设置
- 可以快速回滚
## 8. 验收标准
### 8.1 功能验收
- ✅ 新用户首次访问看到浅色模式侧边栏
- ✅ 老用户的自定义主题设置保持不变
- ✅ 主题切换功能正常
- ✅ 主题保存功能正常
- ✅ 主题重置功能正常
### 8.2 质量验收
- ✅ 代码审查通过
- ✅ 测试用例全部通过
- ✅ 无控制台错误
- ✅ 浏览器兼容性测试通过
## 9. 后续优化建议
### 9.1 短期优化
- 可以考虑在设置界面添加"推荐"标签,标注浅色模式
- 可以考虑在首次登录时提示用户可以自定义主题
### 9.2 长期优化
- 可以考虑添加更多预设主题(护眼模式、高对比度模式等)
- 可以考虑将主题设置保存到后端数据库,实现跨设备同步
## 10. 附录
### 10.1 相关文件
- `ruoyi-ui/src/settings.js` - 默认配置文件
- `ruoyi-ui/src/store/modules/settings.js` - Vuex 状态管理
- `ruoyi-ui/src/layout/components/Settings/index.vue` - 设置界面组件
- `ruoyi-ui/src/components/ThemePicker/index.vue` - 主题颜色选择器
### 10.2 参考资料
- [Element UI 主题定制](https://element.eleme.cn/#/zh-CN/theme)
- [Vuex 状态管理](https://vuex.vuejs.org/zh/)

View File

@@ -0,0 +1,304 @@
# 默认主题修改为浅色模式 - 实施计划
> **For Claude:** REQUIRED SUB-SKILL: Use superpowers:executing-plans to implement this plan task-by-task.
**目标:** 将前端默认主题从深色模式改为浅色模式,新用户首次访问时看到浅色侧边栏
**架构:** 修改 `settings.js` 中的默认配置Vuex store 会自动读取该配置并应用到界面
**技术栈:** Vue.js 2.6, Vuex 3.6, Element UI 2.15
---
## Task 1: 修改默认主题配置
**文件:**
- Modify: `ruoyi-ui/src/settings.js:10`(修改第 10 行)
### Step 1: 读取当前配置文件
**操作:** 使用 Read 工具读取文件
```
Read: ruoyi-ui/src/settings.js
```
**预期结果:** 看到第 10 行为 `sideTheme: 'theme-dark',`
### Step 2: 修改默认主题为浅色模式
**操作:** 使用 Edit 工具修改配置
```javascript
// 修改 ruoyi-ui/src/settings.js 第 10 行
// 修改前:
sideTheme: 'theme-dark',
// 修改后:
sideTheme: 'theme-light',
```
**完整代码:**
```javascript
module.exports = {
/**
* 网页标题
*/
title: process.env.VUE_APP_TITLE,
/**
* 侧边栏主题 深色主题theme-dark浅色主题theme-light
*/
sideTheme: 'theme-light',
/**
* 系统布局配置
*/
showSettings: true,
/**
* 菜单导航模式 1、纯左侧 2、混合左侧+顶部) 3、纯顶部
*/
navType: 1,
/**
* 是否显示 tagsView
*/
tagsView: true,
/**
* 显示页签图标
*/
tagsIcon: false,
/**
* 是否固定头部
*/
fixedHeader: true,
/**
* 是否显示logo
*/
sidebarLogo: true,
/**
* 是否显示动态标题
*/
dynamicTitle: false,
/**
* 是否显示底部版权
*/
footerVisible: false,
/**
* 底部版权文本内容
*/
footerContent: 'Copyright © 2018-2026 RuoYi. All Rights Reserved.'
}
```
### Step 3: 提交代码变更
**命令:**
```bash
git add ruoyi-ui/src/settings.js
git commit -m "feat: 将默认主题修改为浅色模式
- 修改 settings.js 中 sideTheme 默认值从 'theme-dark' 改为 'theme-light'
- 新用户首次访问时将看到浅色模式侧边栏
- 老用户的自定义设置不受影响localStorage 优先)"
```
**预期结果:** Git 提交成功
---
## Task 2: 手动测试验证
**说明:** 此任务需要手动在浏览器中测试,无法自动化
### Step 1: 启动前端开发服务器
**命令:**
```bash
cd ruoyi-ui
npm run dev
```
**预期结果:** 前端服务启动在 http://localhost:80
### Step 2: 测试新用户体验
**操作步骤:**
1. 打开浏览器开发者工具F12
2. 进入 Application/应用 标签
3. 在左侧找到 Local Storage
4. 删除所有 `layout-setting` 相关的存储项
5. 刷新页面Ctrl+F5 强制刷新)
**预期结果:**
- 侧边栏为浅色模式(白色背景,深色文字)
- 侧边栏 Logo 区域为浅色
- 菜单项为深色文字
### Step 3: 测试老用户体验(深色模式)
**操作步骤:**
1. 打开浏览器开发者工具F12
2. 进入 Application/应用 标签
3. 在 Local Storage 中添加/修改 `layout-setting`
```json
{
"sideTheme": "theme-dark",
"theme": "#409EFF"
}
```
4. 刷新页面Ctrl+F5 强制刷新)
**预期结果:**
- 侧边栏为深色模式(深色背景,浅色文字)
- 老用户的设置被保留
### Step 4: 测试主题切换功能
**操作步骤:**
1. 登录系统
2. 点击右上角设置图标(齿轮图标)
3. 在右侧抽屉中找到"主题风格设置"
4. 点击深色模式图标
5. 观察侧边栏变化
**预期结果:**
- 侧边栏立即切换为深色模式
- 菜单颜色变为浅色文字
### Step 5: 测试主题保存功能
**操作步骤:**
1. 在设置抽屉中切换为深色模式
2. 点击底部的"保存配置"按钮
3. 等待提示"正在保存到本地"
4. 刷新页面F5
**预期结果:**
- 刷新后侧边栏仍为深色模式
- localStorage 中保存了 `layout-setting` 数据
### Step 6: 测试主题重置功能
**操作步骤:**
1. 在设置抽屉中切换为深色模式并保存
2. 点击底部的"重置配置"按钮
3. 等待页面自动刷新
**预期结果:**
- 页面自动刷新
- 侧边栏恢复为浅色模式(默认值)
- localStorage 中的 `layout-setting` 被清除
---
## Task 3: 更新项目文档(可选)
**文件:**
- Modify: `CLAUDE.md` 或 `README.md`(如果有主题相关的说明)
### Step 1: 更新 CLAUDE.md 中的主题说明
**操作:** 检查 CLAUDE.md 中是否有关于默认主题的说明,如果有则更新
**修改位置:** 如果文档中提到"默认深色模式",需要更新为"默认浅色模式"
### Step 2: 提交文档更新
**命令:**
```bash
git add CLAUDE.md
git commit -m "docs: 更新文档中的默认主题说明"
```
---
## 验收清单
在完成所有任务后,请验证以下内容:
- [ ] `ruoyi-ui/src/settings.js` 中 `sideTheme` 值为 `'theme-light'`
- [ ] 新用户首次访问看到浅色模式侧边栏
- [ ] 老用户的深色模式设置被保留
- [ ] 主题切换功能正常(深色 ↔ 浅色)
- [ ] 主题保存功能正常(保存到 localStorage
- [ ] 主题重置功能正常(恢复为浅色模式)
- [ ] 浏览器控制台无错误信息
- [ ] 代码已提交到 Git
---
## 回滚方案
如果发现问题需要回滚:
### 回滚步骤
**命令:**
```bash
git revert <commit-hash>
```
或手动修改 `ruoyi-ui/src/settings.js`:
```javascript
sideTheme: 'theme-dark', // 改回深色模式
```
然后重新构建:
```bash
cd ruoyi-ui
npm run build:prod
```
---
## 部署说明
### 开发环境
无需额外操作,修改后自动生效(热更新)
### 生产环境
1. 构建前端:
```bash
cd ruoyi-ui
npm run build:prod
```
2. 部署 `ruoyi-ui/dist/` 目录到生产服务器
3. 用户刷新浏览器即可看到效果
**注意:**
- 不需要重启后端服务
- 不需要清理数据库
- 不需要用户做任何操作
---
## 相关文件
- `ruoyi-ui/src/settings.js` - 默认配置文件(本次修改)
- `ruoyi-ui/src/store/modules/settings.js` - Vuex 状态管理(无需修改)
- `ruoyi-ui/src/layout/components/Settings/index.vue` - 设置界面(无需修改)
- `docs/plans/2026-03-06-theme-light-default-design.md` - 设计文档

View File

@@ -0,0 +1,113 @@
#!/ 异步文件上传功能集成测试脚本
# 测试说明
# 本脚本用于测试异步文件上传功能的完整流程
# 包括: 文件上传、轮询状态、 数据保存
# 测试环境
BASE_URL="http://localhost:8080"
TOKEN=""
# 颜色输出
RED='\033[0;31m'
GREEN='\033[1;32m'
YELLOW='\033[1;33m'
NC='\033[0m'
# 获取 Token
echo -e "${YELLOW}开始获取 Token...${NC}"
TOKEN_RESPONSE=$(curl -s -X POST "${BASE_URL}/login/test?username=admin&password=admin123")
TOKEN=$(echo "$TOKEN_RESPONSE" | grep -o '"token":"[^"]*' | sed 's/.*:\([^"]*\).*/\1/')
if [ -z "$TOKEN" ]; then
echo -e "${RED}获取 Token 失败${NC}"
exit 1
fi
echo -e "${GREEN}Token 获取成功${NC}"
# 准备测试数据
echo -e "${YELLOW}准备测试项目...${NC}"
# 创建测试项目
PROJECT_DATA=$(cat <<EOF
{
"projectName": "测试项目-$(date +%Y%m%d)",
"projectStatus": "进行中"
}
EOF
)
CREATE_RESPONSE=$(curl -s -X POST "${BASE_URL}/ccdi/project" \
-H "Authorization: Bearer ${TOKEN}" \
-H "Content-Type: application/json" \
-d "$PROJECT_DATA")
PROJECT_ID=$(echo "$CREATE_RESPONSE" | grep -o '"projectId":[^,]*' | sed 's/.*:\([^"]*\).*/\1/')
if [ -z "$PROJECT_ID" ]; then
echo -e "${RED}创建项目失败${NC}"
exit 1
fi
echo -e "${GREEN}项目创建成功: ID=${PROJECT_ID}${NC}"
# 创建测试文件
TEST_FILE="/tmp/test_bank_statement_$(date +%s).xlsx"
echo "账号,日期,金额,摘要" > "$TEST_FILE"
echo "622xxx,2024-01-01,1000.00,测试交易1" >> "$TEST_FILE"
echo "623xxx,2024-01-02,2000.00,测试交易2" >> "$TEST_FILE"
echo "622xxx,2024-01-03,3000.00,测试交易3" >> "$TEST_FILE"
# 测试文件上传
echo -e "${YELLOW}测试文件上传...${NC}"
UPLOAD_RESPONSE=$(curl -s -X POST "${BASE_URL}/ccdi/file-upload/batch" \
-H "Authorization: Bearer ${TOKEN}" \
-F "projectId=${PROJECT_ID}" \
-F "files[]=@${TEST_FILE};type=text/plain")
BATCH_ID=$(echo "$UPLOAD_RESPONSE" | grep -o '"data":"[^"]*' | sed 's/.*:\([^"]*\).*/\1/')
if [ -z "$BATCH_ID" ]; then
echo -e "${RED}文件上传失败${NC}"
exit 1
fi
echo -e "${GREEN}文件上传成功: Batch ID=${BATCH_ID}${NC}"
# 等待处理完成
echo -e "${YELLOW}等待文件处理...${NC}"
sleep 10
# 查询上传记录
RECORDS_RESPONSE=$(curl -s -X GET "${BASE_URL}/ccdi/file-upload/list?projectId=${PROJECT_ID}" \
-H "Authorization: Bearer ${TOKEN}")
RECORDS=$(echo "$RECORDS_RESPONSE" | grep -o '"rows"' | sed 's/.*:\(\[.*\]\).*/\1/')
if [ -z "$RECORDS" ] || [ "$RECORDS" = "[]" ]; then
echo -e "${RED}未找到上传记录${NC}"
exit 1
fi
echo -e "${GREEN}查询到 ${#RECORDS[@]} 条记录${NC}"
# 验证记录状态
for RECORD in $RECORDS; do
STATUS=$(echo "$RECORD" | grep -o '"fileStatus"' | sed 's/.*:\([^"]*\).*/\1/')
if [ "$STATUS" = "\"parsed_success\"" ]; then
echo -e "${GREEN}文件解析成功${NC}"
elif [ "$STATUS" = "\"parsed_failed\"" ]; then
ERROR=$(echo "$RECORD" | grep -o '"errorMessage"' | sed 's/.*:\([^"]*\).*/\1/')
echo -e "${RED}文件解析失败: ${ERROR}${NC}"
else
echo -e "${YELLOW}文件状态: ${STATUS}${NC}"
fi
done
# 清理测试数据
echo -e "${YELLOW}清理测试数据...${NC}"
curl -s -X DELETE "${BASE_URL}/ccdi/project/${PROJECT_ID}" \
-H "Authorization: Bearer ${TOKEN}"
rm -f "$TEST_FILE"
echo -e "${GREEN}测试完成${NC}"

View File

@@ -6,7 +6,7 @@ ruoyi:
server:
# 服务器的HTTP端口默认为8080
port: 8080
port: 62318
servlet:
# 应用的访问路径
context-path: /

View File

@@ -79,3 +79,63 @@ export function getImportStatus(taskId) {
method: 'get'
})
}
// ========== 批量文件上传相关接口 ==========
/**
* 批量上传文件
* @param {Number} projectId 项目ID
* @param {Array<File>} files 文件数组
* @returns {Promise} 返回 batchId
*/
export function batchUploadFiles(projectId, files) {
const formData = new FormData()
files.forEach(file => {
formData.append('files', file)
})
formData.append('projectId', projectId)
return request({
url: '/ccdi/file-upload/batch',
method: 'post',
data: formData,
headers: {
'Content-Type': 'multipart/form-data'
},
timeout: 300000 // 5分钟超时
})
}
/**
* 查询文件上传记录列表
* @param {Object} params 查询参数
*/
export function getFileUploadList(params) {
return request({
url: '/ccdi/file-upload/list',
method: 'get',
params
})
}
/**
* 查询文件上传统计
* @param {Number} projectId 项目ID
*/
export function getFileUploadStatistics(projectId) {
return request({
url: `/ccdi/file-upload/statistics/${projectId}`,
method: 'get'
})
}
/**
* 查询文件上传详情
* @param {Number} id 记录ID
*/
export function getFileUploadDetail(id) {
return request({
url: `/ccdi/file-upload/detail/${id}`,
method: 'get'
})
}

View File

@@ -7,7 +7,7 @@ module.exports = {
/**
* 侧边栏主题 深色主题theme-dark浅色主题theme-light
*/
sideTheme: 'theme-dark',
sideTheme: 'theme-light',
/**
* 系统布局配置

View File

@@ -46,6 +46,87 @@
</div>
</div>
<!-- 文件上传记录列表 -->
<div class="file-list-section">
<div class="list-toolbar">
<div class="filter-group">
<el-select
v-model="queryParams.fileStatus"
placeholder="文件状态"
clearable
@change="loadFileList"
style="width: 150px"
>
<el-option label="上传中" value="uploading"></el-option>
<el-option label="解析中" value="parsing"></el-option>
<el-option label="解析成功" value="parsed_success"></el-option>
<el-option label="解析失败" value="parsed_failed"></el-option>
</el-select>
</div>
<el-button icon="el-icon-refresh" @click="handleManualRefresh">刷新</el-button>
</div>
<el-table :data="fileUploadList" v-loading="listLoading" stripe border>
<el-table-column prop="fileName" label="文件名" min-width="200"></el-table-column>
<el-table-column prop="fileSize" label="文件大小" width="120">
<template slot-scope="scope">
{{ formatFileSize(scope.row.fileSize) }}
</template>
</el-table-column>
<el-table-column prop="fileStatus" label="状态" width="120">
<template slot-scope="scope">
<el-tag :type="getStatusType(scope.row.fileStatus)" size="small">
{{ getStatusText(scope.row.fileStatus) }}
</el-tag>
</template>
</el-table-column>
<el-table-column prop="enterpriseNames" label="主体名称" min-width="150">
<template slot-scope="scope">
{{ scope.row.enterpriseNames || '-' }}
</template>
</el-table-column>
<el-table-column prop="uploadTime" label="上传时间" width="180">
<template slot-scope="scope">
{{ formatUploadTime(scope.row.uploadTime) }}
</template>
</el-table-column>
<el-table-column prop="uploadUser" label="上传人" width="100"></el-table-column>
<el-table-column label="操作" width="120" fixed="right">
<template slot-scope="scope">
<el-button
v-if="scope.row.fileStatus === 'parsed_success'"
type="text"
size="small"
@click="handleViewFlow(scope.row)"
>
查看流水
</el-button>
<el-button
v-if="scope.row.fileStatus === 'parsed_failed'"
type="text"
size="small"
@click="handleViewError(scope.row)"
>
查看错误
</el-button>
<span v-if="scope.row.fileStatus === 'uploading' || scope.row.fileStatus === 'parsing'">
-
</span>
</template>
</el-table-column>
</el-table>
<el-pagination
@current-change="handlePageChange"
:current-page="queryParams.pageNum"
:page-size="queryParams.pageSize"
:total="total"
layout="total, prev, pager, next, jumper"
style="margin-top: 16px; text-align: right"
></el-pagination>
</div>
<!-- 数据质量检查
<div class="quality-check-section">
<div class="section-header">
@@ -149,6 +230,63 @@
>
</span>
</el-dialog>
<!-- 批量上传弹窗 -->
<el-dialog
title="批量上传流水文件"
:visible.sync="batchUploadDialogVisible"
:close-on-click-modal="false"
width="700px"
>
<el-upload
class="batch-upload-area"
drag
action="#"
multiple
:auto-upload="false"
:on-change="handleBatchFileChange"
:file-list="selectedFiles"
>
<i class="el-icon-upload"></i>
<div class="el-upload__text">将文件拖到此处<em>点击上传</em></div>
<div class="el-upload__tip" slot="tip">
支持 PDFCSVExcel 格式文件最多100个文件单个文件不超过50MB
</div>
</el-upload>
<div v-if="selectedFiles.length > 0" class="selected-files">
<div class="files-header">
<span>已选择 {{ selectedFiles.length }} 个文件</span>
</div>
<div class="files-list">
<div
v-for="(file, index) in selectedFiles"
:key="index"
class="file-item"
>
<i class="el-icon-document"></i>
<span class="file-name">{{ file.name }}</span>
<span class="file-size">{{ formatFileSize(file.size) }}</span>
<el-button
type="text"
icon="el-icon-close"
@click="handleRemoveFile(index)"
></el-button>
</div>
</div>
</div>
<span slot="footer">
<el-button @click="batchUploadDialogVisible = false">取消</el-button>
<el-button
type="primary"
:loading="uploadLoading"
:disabled="selectedFiles.length === 0"
@click="handleBatchUpload"
>开始上传</el-button
>
</span>
</el-dialog>
</div>
</template>
@@ -160,7 +298,11 @@ import {
pullBankInfo,
updateNameListSelection,
uploadFile,
batchUploadFiles,
getFileUploadList,
getFileUploadStatistics,
} from "@/api/ccdiProjectUpload";
import { parseTime } from "@/utils/ruoyi";
export default {
name: "UploadData",
@@ -218,7 +360,7 @@ export default {
{
key: "transaction",
title: "流水导入",
desc: "支持 Excel、PDF 格式文件上传",
desc: "支持 PDF、CSV、Excel 格式文件上传",
icon: "el-icon-document",
btnText: "上传流水",
uploaded: false,
@@ -261,6 +403,34 @@ export default {
level: "info",
},
],
// === 批量上传相关 ===
batchUploadDialogVisible: false,
selectedFiles: [],
uploadLoading: false,
// === 统计数据 ===
statistics: {
uploading: 0,
parsing: 0,
parsed_success: 0,
parsed_failed: 0,
},
// === 文件列表相关 ===
fileUploadList: [],
listLoading: false,
queryParams: {
projectId: null,
fileStatus: null,
pageNum: 1,
pageSize: 20,
},
total: 0,
// === 轮询相关 ===
pollingTimer: null,
pollingEnabled: false,
pollingInterval: 5000,
};
},
created() {
@@ -272,6 +442,20 @@ export default {
mounted() {
// 组件挂载后监听项目ID变化
this.$watch("projectId", this.loadInitialData);
// 加载统计数据和文件列表
this.loadStatistics();
this.loadFileList();
// 检查是否需要启动轮询
this.$nextTick(() => {
if (this.statistics.uploading > 0 || this.statistics.parsing > 0) {
this.startPolling();
}
});
},
beforeDestroy() {
this.stopPolling();
},
methods: {
/** 加载初始数据 */
@@ -361,13 +545,19 @@ export default {
const card = this.uploadCards.find((c) => c.key === key);
if (!card) return;
if (key === "namelist") {
this.showNameListDialog = true;
} else {
if (key === "transaction") {
// 流水导入 - 打开批量上传弹窗
this.batchUploadDialogVisible = true;
this.selectedFiles = [];
} else if (key === "credit") {
// 征信导入 - 保持现有逻辑
this.uploadFileType = key;
this.uploadDialogTitle = `上传${card.title}`;
this.uploadFileTypes = card.desc.replace(/.*支持|上传/g, "").trim();
this.showUploadDialog = true;
} else if (key === "namelist") {
// 名单库选择 - 保持现有逻辑
this.showNameListDialog = true;
}
},
/** 文件选择变化 */
@@ -601,6 +791,221 @@ export default {
};
return statusMap[status] || "未知";
},
// === 批量上传相关方法 ===
/** 批量上传的文件选择变化 */
handleBatchFileChange(file, fileList) {
if (fileList.length > 100) {
this.$message.warning("最多上传100个文件");
fileList = fileList.slice(0, 100);
}
const validTypes = ['.pdf', '.csv', '.xlsx', '.xls'];
const invalidFiles = fileList.filter((f) => {
const ext = f.name.substring(f.name.lastIndexOf(".")).toLowerCase();
return !validTypes.includes(ext);
});
if (invalidFiles.length > 0) {
this.$message.error("仅支持 PDF、CSV、Excel 格式文件");
return;
}
const oversizedFiles = fileList.filter((f) => f.size > 50 * 1024 * 1024);
if (oversizedFiles.length > 0) {
this.$message.error("单个文件不能超过50MB");
return;
}
this.selectedFiles = fileList;
},
/** 删除已选文件 */
handleRemoveFile(index) {
this.selectedFiles.splice(index, 1);
},
/** 开始批量上传 */
async handleBatchUpload() {
if (this.selectedFiles.length === 0) {
this.$message.warning("请选择要上传的文件");
return;
}
this.uploadLoading = true;
try {
const res = await batchUploadFiles(
this.projectId,
this.selectedFiles.map((f) => f.raw)
);
this.uploadLoading = false;
this.batchUploadDialogVisible = false;
this.$message.success("上传任务已提交,请查看处理进度");
// 刷新数据并启动轮询
await Promise.all([this.loadStatistics(), this.loadFileList()]);
this.startPolling();
} catch (error) {
this.uploadLoading = false;
this.$message.error("上传失败:" + (error.msg || "未知错误"));
}
},
// === 统计和列表相关方法 ===
/** 加载统计数据 */
async loadStatistics() {
try {
const res = await getFileUploadStatistics(this.projectId);
this.statistics = res.data || {
uploading: 0,
parsing: 0,
parsed_success: 0,
parsed_failed: 0,
};
} catch (error) {
console.error("加载统计数据失败:", error);
}
},
/** 加载文件列表 */
async loadFileList() {
this.listLoading = true;
try {
const params = {
projectId: this.projectId,
fileStatus: this.queryParams.fileStatus,
pageNum: this.queryParams.pageNum,
pageSize: this.queryParams.pageSize,
};
const res = await getFileUploadList(params);
this.fileUploadList = res.rows || [];
this.total = res.total || 0;
} catch (error) {
this.$message.error("加载文件列表失败");
console.error(error);
} finally {
this.listLoading = false;
}
},
// === 轮询相关方法 ===
/** 启动轮询 */
startPolling() {
if (this.pollingEnabled) return;
this.pollingEnabled = true;
const poll = () => {
if (!this.pollingEnabled) return;
Promise.all([this.loadStatistics(), this.loadFileList()])
.then(() => {
if (
this.statistics.uploading === 0 &&
this.statistics.parsing === 0
) {
this.stopPolling();
return;
}
this.pollingTimer = setTimeout(poll, this.pollingInterval);
})
.catch((error) => {
console.error("轮询失败:", error);
this.pollingTimer = setTimeout(poll, this.pollingInterval);
});
};
poll();
},
/** 停止轮询 */
stopPolling() {
this.pollingEnabled = false;
if (this.pollingTimer) {
clearTimeout(this.pollingTimer);
this.pollingTimer = null;
}
},
/** 手动刷新 */
async handleManualRefresh() {
await Promise.all([this.loadStatistics(), this.loadFileList()]);
this.$message.success("刷新成功");
if (this.statistics.uploading > 0 || this.statistics.parsing > 0) {
this.startPolling();
}
},
// === 辅助方法 ===
/** 分页变化 */
handlePageChange(pageNum) {
this.queryParams.pageNum = pageNum;
this.loadFileList();
},
/** 查看流水 */
handleViewFlow(record) {
this.$emit("menu-change", {
key: "detail",
route: "detail",
params: { logId: record.logId },
});
},
/** 查看错误 */
handleViewError(record) {
this.$alert(record.errorMessage || "未知错误", "错误信息", {
confirmButtonText: "确定",
type: "error",
});
},
/** 状态文本映射 */
getStatusText(status) {
const map = {
uploading: "上传中",
parsing: "解析中",
parsed_success: "解析成功",
parsed_failed: "解析失败",
};
return map[status] || status;
},
/** 状态标签类型映射 */
getStatusType(status) {
const map = {
uploading: "primary",
parsing: "warning",
parsed_success: "success",
parsed_failed: "danger",
};
return map[status] || "info";
},
/** 格式化文件大小 */
formatFileSize(bytes) {
if (bytes === 0) return "0 B";
const k = 1024;
const sizes = ["B", "KB", "MB", "GB"];
const i = Math.floor(Math.log(bytes) / Math.log(k));
return parseFloat((bytes / Math.pow(k, i)).toFixed(2)) + " " + sizes[i];
},
/** 格式化上传时间 */
formatUploadTime(time) {
const formatted = parseTime(time, "{y}-{m}-{d} {h}:{i}:{s}");
return formatted || "-";
},
},
};
</script>
@@ -876,6 +1281,26 @@ export default {
}
}
// 文件列表区域
.file-list-section {
background: #fff;
border-radius: 4px;
padding: 20px;
box-shadow: 0 2px 8px rgba(0, 0, 0, 0.05);
.list-toolbar {
display: flex;
justify-content: space-between;
align-items: center;
margin-bottom: 16px;
.filter-group {
display: flex;
gap: 12px;
}
}
}
// 上传弹窗样式
::v-deep .el-dialog__wrapper {
.upload-area {
@@ -898,6 +1323,83 @@ export default {
}
}
// 批量上传弹窗样式
.batch-upload-area {
width: 100%;
::v-deep .el-upload {
width: 100%;
.el-upload-dragger {
width: 100%;
height: 180px;
}
}
}
.selected-files {
margin-top: 16px;
border: 1px solid #ebeef5;
border-radius: 4px;
max-height: 300px;
overflow-y: auto;
.files-header {
padding: 12px 16px;
background: #f5f7fa;
border-bottom: 1px solid #ebeef5;
font-size: 14px;
font-weight: 500;
color: #606266;
}
.files-list {
padding: 8px;
.file-item {
display: flex;
align-items: center;
padding: 8px 12px;
border-radius: 4px;
transition: background 0.3s;
&:hover {
background: #f5f7fa;
}
i {
font-size: 18px;
color: #1890ff;
margin-right: 8px;
}
.file-name {
flex: 1;
font-size: 14px;
color: #303133;
overflow: hidden;
text-overflow: ellipsis;
white-space: nowrap;
}
.file-size {
font-size: 12px;
color: #909399;
margin: 0 12px;
}
.el-button {
padding: 4px;
color: #909399;
&:hover {
color: #f56c6c;
}
}
}
}
}
// 响应式
@media (max-width: 1200px) {
.upload-section .upload-cards {
@@ -908,6 +1410,7 @@ export default {
grid-template-columns: repeat(3, 1fr);
gap: 16px;
}
}
@media (max-width: 768px) {
@@ -932,5 +1435,11 @@ export default {
.quality-check-section .metrics {
grid-template-columns: 1fr;
}
.file-list-section .list-toolbar {
flex-direction: column;
align-items: flex-start;
gap: 12px;
}
}
</style>

View File

@@ -60,6 +60,7 @@ import ParamConfig from "./components/detail/ParamConfig";
import PreliminaryCheck from "./components/detail/PreliminaryCheck";
import SpecialCheck from "./components/detail/SpecialCheck";
import DetailQuery from "./components/detail/DetailQuery";
import {getProject} from "@/api/ccdiProject";
export default {
name: "ProjectDetail",
@@ -99,19 +100,77 @@ export default {
if (newId) {
this.projectId = newId;
this.projectInfo.projectId = newId;
this.initActiveTabFromRoute();
this.initPageData();
}
},
"$route.query.tab"() {
this.initActiveTabFromRoute();
},
},
created() {
// 初始化页面数据
this.initActiveTabFromRoute();
this.initPageData();
},
methods: {
initActiveTabFromRoute() {
const tab = (this.$route.query && this.$route.query.tab) || "";
const validTabs = ["upload", "config", "overview", "special", "detail"];
const targetTab = validTabs.includes(tab) ? tab : "upload";
this.setActiveTab(targetTab);
},
setActiveTab(index) {
this.activeTab = index;
const componentMap = {
upload: "UploadData",
config: "ParamConfig",
overview: "PreliminaryCheck",
special: "SpecialCheck",
detail: "DetailQuery",
};
this.currentComponent = componentMap[index] || "UploadData";
},
/** 初始化页面数据 */
initPageData() {
// 这里应该从API获取项目详细信息
this.mockProjectInfo();
if (!this.projectId) {
return;
}
this.projectInfo.projectName = "";
this.updatePageTitle();
getProject(this.projectId)
.then((res) => {
const data = res.data || {};
this.projectInfo = {
...this.projectInfo,
...data,
projectId: data.projectId || this.projectId,
projectName: data.projectName || "",
projectDesc: data.projectDesc || data.description || "",
projectStatus: String(
data.projectStatus !== undefined && data.projectStatus !== null
? data.projectStatus
: data.status !== undefined && data.status !== null
? data.status
: this.projectInfo.projectStatus
),
};
this.updatePageTitle();
})
.catch(() => {
this.$message.error("Failed to load project details");
this.updatePageTitle();
});
},
updatePageTitle() {
const title = this.projectInfo.projectName || `ProjectDetail-${this.projectId}`;
this.$route.meta.title = title;
this.$store.dispatch("settings/setTitle", title);
this.$store.dispatch("tagsView/updateVisitedView", {
path: this.$route.path,
title,
});
},
/** 格式化更新时间 */
formatUpdateTime(time) {
@@ -171,18 +230,7 @@ export default {
/** 菜单选择事件 */
handleMenuSelect(index) {
console.log("菜单选择:", index);
this.activeTab = index;
// 组件映射
const componentMap = {
upload: "UploadData",
config: "ParamConfig",
overview: "PreliminaryCheck",
special: "SpecialCheck",
detail: "DetailQuery",
};
this.currentComponent = componentMap[index] || "UploadData";
this.setActiveTab(index);
},
/** UploadData 组件:菜单切换 */
handleMenuChange({ key, route }) {
@@ -217,7 +265,7 @@ export default {
},
/** 刷新页面 */
handleRefresh() {
this.mockProjectInfo();
this.initPageData();
this.$message.success("刷新成功");
},
/** 导出报告 */

View File

@@ -61,7 +61,7 @@
</template>
<script>
import {listProject, getStatusCounts} from '@/api/ccdiProject'
import {getStatusCounts, listProject} from '@/api/ccdiProject'
import SearchBar from './components/SearchBar'
import ProjectTable from './components/ProjectTable'
import QuickEntry from './components/QuickEntry'
@@ -234,8 +234,10 @@ export default {
},
/** 查看结果 */
handleViewResult(row) {
console.log("查看结果:", row);
this.$modal.msgInfo("查看项目结果: " + row.projectName);
this.$router.push({
path: `/ccdiProject/detail/${row.projectId}`,
query: { tab: "overview" },
});
},
/** 重新分析 */
handleReAnalyze(row) {
@@ -262,7 +264,7 @@ export default {
.dpc-project-container {
padding: 24px;
background: #F8F9FA;
min-height: calc(100vh - 140px);
min-height: calc(100vh - 84px);
}
.page-header {

View File

@@ -9,7 +9,7 @@ const CompressionPlugin = require('compression-webpack-plugin')
const name = process.env.VUE_APP_TITLE || '纪检初核系统' // 网页标题
const baseUrl = 'http://localhost:8080' // 后端接口
const baseUrl = 'http://localhost:62318' // 后端接口
const port = process.env.port || process.env.npm_config_port || 80 // 端口