Compare commits
96 Commits
22cc996399
...
develop
| Author | SHA1 | Date | |
|---|---|---|---|
| 0425a6486d | |||
| 241c7222d1 | |||
| 71e4ab14bd | |||
| 52da4dafc3 | |||
| 24d615174d | |||
| 12b0f0867d | |||
| 283d906da6 | |||
| 360b451c38 | |||
| 80e281cb99 | |||
| b07bc38ee8 | |||
| e4c1c76b2b | |||
| 01b64eeca7 | |||
| 516f949a37 | |||
| b6ed3b57ef | |||
| 9eebf23774 | |||
| 4f742edf8b | |||
| 0aa415cf3a | |||
| 884b635585 | |||
| 6861f6b8b6 | |||
| a97af0d4dd | |||
| 9297d19e24 | |||
| 65c38b3083 | |||
| 24dca652f0 | |||
| 193cd449a8 | |||
|
|
0efde4e5bb | ||
|
|
548d82da12 | ||
| 536ff8fc65 | |||
| 1dc1ce741e | |||
| d21ed61666 | |||
| c9a1007c21 | |||
| 413afb0b7c | |||
| e69eccc82b | |||
| 828a4c5dca | |||
| 5d417d85ff | |||
| 614d6da695 | |||
| 8d45e91982 | |||
| e1febf5863 | |||
| 97fb659f15 | |||
| ebb48c3f57 | |||
| a35b4b8f59 | |||
| 0a53e186dc | |||
| f3c7c5e8e8 | |||
| c505e9b740 | |||
| 8c2f2eff1b | |||
| ade8bfa76a | |||
| 3752b83292 | |||
| 9f31f661fc | |||
| b477928261 | |||
| f4f75f353c | |||
| f977e4be7c | |||
| 573da5b53a | |||
| bd72852556 | |||
| e4b904606f | |||
| 0d14dafecc | |||
| 37f534abff | |||
| 3521a5fd3d | |||
| cbae052338 | |||
| b2c9c36d4c | |||
| 114088469e | |||
| 7d6dca8b24 | |||
| 2e7ad26528 | |||
| 0353e172ed | |||
| 1d5b1343a9 | |||
| 65f9026922 | |||
| 9b79f31d7b | |||
| de45bf47c5 | |||
| a413de4b93 | |||
| 815675f112 | |||
| b9f7e36175 | |||
| 855aca6e5a | |||
| 206dba6ff9 | |||
| 5db9127f0c | |||
| 132bad8c33 | |||
| 6dde4cd891 | |||
| ac248c2f30 | |||
| 15d082af0e | |||
| 3be536424a | |||
| a3b2fd0c73 | |||
| 9b504396bc | |||
| 2cc490012e | |||
| f99144eccc | |||
| 66b78022a9 | |||
| 199e302068 | |||
| 5a3370d5fb | |||
| 5d7cb18fb8 | |||
| 57baf4d911 | |||
| 2fee2143ba | |||
| f4a410ba49 | |||
| deba2b84f0 | |||
| 85d8efc493 | |||
| 5a82a9507a | |||
| b9a268d43a | |||
| 4d1ea53d8f | |||
| 278d5d20e8 | |||
| 4d9fa2d6a5 | |||
| e28e5ba371 |
6
.gitignore
vendored
6
.gitignore
vendored
@@ -60,6 +60,7 @@ Thumbs.db
|
|||||||
.env.*.local
|
.env.*.local
|
||||||
application-local.yml
|
application-local.yml
|
||||||
application-secret.yml
|
application-secret.yml
|
||||||
|
metrics-collector/.env
|
||||||
|
|
||||||
### Docker (local testing) ###
|
### Docker (local testing) ###
|
||||||
.dockerignore
|
.dockerignore
|
||||||
@@ -72,3 +73,8 @@ docker-compose.override.yml
|
|||||||
*.swo
|
*.swo
|
||||||
*~
|
*~
|
||||||
!/CLAUDE.md
|
!/CLAUDE.md
|
||||||
|
|
||||||
|
### Metrics Collector ###
|
||||||
|
metrics-collector/venv/
|
||||||
|
metrics-collector/*.pid
|
||||||
|
metrics-collector/wheels/
|
||||||
|
|||||||
@@ -37,7 +37,6 @@ public class JwtAuthenticationFilter extends OncePerRequestFilter {
|
|||||||
// JWT 토큰을 검증하고, 인증된 사용자로 SecurityContext에 등록
|
// JWT 토큰을 검증하고, 인증된 사용자로 SecurityContext에 등록
|
||||||
if (token != null && jwtTokenProvider.isValidToken(token)) {
|
if (token != null && jwtTokenProvider.isValidToken(token)) {
|
||||||
String username = jwtTokenProvider.getSubject(token);
|
String username = jwtTokenProvider.getSubject(token);
|
||||||
|
|
||||||
UserDetails userDetails = userDetailsService.loadUserByUsername(username);
|
UserDetails userDetails = userDetailsService.loadUserByUsername(username);
|
||||||
UsernamePasswordAuthenticationToken authentication =
|
UsernamePasswordAuthenticationToken authentication =
|
||||||
new UsernamePasswordAuthenticationToken(userDetails, null, userDetails.getAuthorities());
|
new UsernamePasswordAuthenticationToken(userDetails, null, userDetails.getAuthorities());
|
||||||
|
|||||||
@@ -8,11 +8,13 @@ import jakarta.annotation.PostConstruct;
|
|||||||
import java.nio.charset.StandardCharsets;
|
import java.nio.charset.StandardCharsets;
|
||||||
import java.util.Date;
|
import java.util.Date;
|
||||||
import javax.crypto.SecretKey;
|
import javax.crypto.SecretKey;
|
||||||
|
import lombok.extern.log4j.Log4j2;
|
||||||
import org.springframework.beans.factory.annotation.Value;
|
import org.springframework.beans.factory.annotation.Value;
|
||||||
import org.springframework.stereotype.Component;
|
import org.springframework.stereotype.Component;
|
||||||
|
|
||||||
/** 토큰 생성 */
|
/** 토큰 생성 */
|
||||||
@Component
|
@Component
|
||||||
|
@Log4j2
|
||||||
public class JwtTokenProvider {
|
public class JwtTokenProvider {
|
||||||
|
|
||||||
@Value("${jwt.secret}")
|
@Value("${jwt.secret}")
|
||||||
@@ -34,11 +36,13 @@ public class JwtTokenProvider {
|
|||||||
|
|
||||||
// Access Token 생성
|
// Access Token 생성
|
||||||
public String createAccessToken(String subject) {
|
public String createAccessToken(String subject) {
|
||||||
|
log.info("TOKEN VALIDITY = {}", accessTokenValidityInMs);
|
||||||
return createToken(subject, accessTokenValidityInMs);
|
return createToken(subject, accessTokenValidityInMs);
|
||||||
}
|
}
|
||||||
|
|
||||||
// Refresh Token 생성
|
// Refresh Token 생성
|
||||||
public String createRefreshToken(String subject) {
|
public String createRefreshToken(String subject) {
|
||||||
|
log.info("REFRESH TOKEN VALIDITY = {}", refreshTokenValidityInMs);
|
||||||
return createToken(subject, refreshTokenValidityInMs);
|
return createToken(subject, refreshTokenValidityInMs);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|||||||
@@ -58,6 +58,7 @@ public class MenuAuthorizationManager implements AuthorizationManager<RequestAut
|
|||||||
|
|
||||||
for (MenuEntity menu : allowedMenus) {
|
for (MenuEntity menu : allowedMenus) {
|
||||||
String baseUri = menu.getMenuUrl();
|
String baseUri = menu.getMenuUrl();
|
||||||
|
|
||||||
if (baseUri == null || baseUri.isBlank()) {
|
if (baseUri == null || baseUri.isBlank()) {
|
||||||
continue;
|
continue;
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -117,16 +117,18 @@ public class ChangeDetectionApiController {
|
|||||||
@Parameter(description = "도곽/일반(MAPSHEET/ADDRESS) 검색 타입", required = true)
|
@Parameter(description = "도곽/일반(MAPSHEET/ADDRESS) 검색 타입", required = true)
|
||||||
@RequestParam(defaultValue = "MAPSHEET")
|
@RequestParam(defaultValue = "MAPSHEET")
|
||||||
DetectSearchType type,
|
DetectSearchType type,
|
||||||
@Parameter(description = "5k/50k 구분(SCALE_5K/SCALE_50K))", required = true)
|
@Parameter(description = "5k/50k 구분(SCALE_5K/SCALE_50K))")
|
||||||
@RequestParam(defaultValue = "SCALE_50K")
|
@RequestParam(defaultValue = "SCALE_50K", required = false)
|
||||||
MapScaleType scale,
|
MapScaleType scale,
|
||||||
@Parameter(
|
@Parameter(
|
||||||
description = "변화탐지 년도(차수) /year-list 의 uuid",
|
description = "변화탐지 년도(차수) /year-list 의 uuid",
|
||||||
example = "8584e8d4-53b3-4582-bde2-28a81495a626")
|
example = "8584e8d4-53b3-4582-bde2-28a81495a626")
|
||||||
UUID uuid,
|
UUID uuid,
|
||||||
@Parameter(description = "도엽번호", example = "34607") @RequestParam String mapSheetNum) {
|
@Parameter(description = "도엽번호", example = "34607") @RequestParam(required = false)
|
||||||
|
String mapSheetNum,
|
||||||
|
@Parameter(description = "pnu") @RequestParam(required = false) String pnu) {
|
||||||
return ApiResponseDto.ok(
|
return ApiResponseDto.ok(
|
||||||
changeDetectionService.getChangeDetectionPolygonList(type, scale, uuid, mapSheetNum));
|
changeDetectionService.getChangeDetectionPolygonList(type, scale, uuid, mapSheetNum, pnu));
|
||||||
}
|
}
|
||||||
|
|
||||||
@Operation(summary = "변화탐지 결과 Point", description = "변화탐지 결과 Point")
|
@Operation(summary = "변화탐지 결과 Point", description = "변화탐지 결과 Point")
|
||||||
@@ -135,16 +137,18 @@ public class ChangeDetectionApiController {
|
|||||||
@Parameter(description = "도곽/일반(MAPSHEET/ADDRESS) 검색 타입", required = true)
|
@Parameter(description = "도곽/일반(MAPSHEET/ADDRESS) 검색 타입", required = true)
|
||||||
@RequestParam(defaultValue = "MAPSHEET")
|
@RequestParam(defaultValue = "MAPSHEET")
|
||||||
DetectSearchType type,
|
DetectSearchType type,
|
||||||
@Parameter(description = "5k/50k 구분(SCALE_5K/SCALE_50K))", required = true)
|
@Parameter(description = "5k/50k 구분(SCALE_5K/SCALE_50K))")
|
||||||
@RequestParam(defaultValue = "SCALE_50K")
|
@RequestParam(defaultValue = "SCALE_50K", required = false)
|
||||||
MapScaleType scale,
|
MapScaleType scale,
|
||||||
@Parameter(
|
@Parameter(
|
||||||
description = "변화탐지 년도(차수) /year-list 의 uuid",
|
description = "변화탐지 년도(차수) /year-list 의 uuid",
|
||||||
example = "8584e8d4-53b3-4582-bde2-28a81495a626")
|
example = "8584e8d4-53b3-4582-bde2-28a81495a626")
|
||||||
UUID uuid,
|
UUID uuid,
|
||||||
@Parameter(description = "도엽번호", example = "34607") @RequestParam String mapSheetNum) {
|
@Parameter(description = "도엽번호", example = "34607") @RequestParam(required = false)
|
||||||
|
String mapSheetNum,
|
||||||
|
@Parameter(description = "pnu") @RequestParam(required = false) String pnu) {
|
||||||
return ApiResponseDto.ok(
|
return ApiResponseDto.ok(
|
||||||
changeDetectionService.getChangeDetectionPointList(type, scale, uuid, mapSheetNum));
|
changeDetectionService.getChangeDetectionPointList(type, scale, uuid, mapSheetNum, pnu));
|
||||||
}
|
}
|
||||||
|
|
||||||
@Operation(summary = "선택 변화탐지 결과 uuid 조회", description = "선택 변화탐지 결과 uuid 조회")
|
@Operation(summary = "선택 변화탐지 결과 uuid 조회", description = "선택 변화탐지 결과 uuid 조회")
|
||||||
@@ -163,13 +167,13 @@ public class ChangeDetectionApiController {
|
|||||||
@RequestParam
|
@RequestParam
|
||||||
String chnDtctId,
|
String chnDtctId,
|
||||||
@Parameter(description = "polygon 32자 uid", example = "3B1A7E5F895A4D9698489540EE1BBE1E")
|
@Parameter(description = "polygon 32자 uid", example = "3B1A7E5F895A4D9698489540EE1BBE1E")
|
||||||
@RequestParam
|
@RequestParam(required = false)
|
||||||
String cdObjectId,
|
String cdObjectId,
|
||||||
@Parameter(
|
@Parameter(
|
||||||
description = "polygon 32자 uids",
|
description = "polygon 32자 uids",
|
||||||
example =
|
example =
|
||||||
"3B1A7E5F895A4D9698489540EE1BBE1E,3B221A2AF9614647A0903A972D56C574,3B22686A7ACE44FC9CB20F1B4FA6DEFD,3B376D94A183479BB5FBE3D7166E6E1A")
|
"3B1A7E5F895A4D9698489540EE1BBE1E,3B221A2AF9614647A0903A972D56C574,3B22686A7ACE44FC9CB20F1B4FA6DEFD,3B376D94A183479BB5FBE3D7166E6E1A")
|
||||||
@RequestParam
|
@RequestParam(required = false)
|
||||||
List<String> cdObjectIds,
|
List<String> cdObjectIds,
|
||||||
@Parameter(description = "pnu") @RequestParam(required = false) String pnu) {
|
@Parameter(description = "pnu") @RequestParam(required = false) String pnu) {
|
||||||
return ApiResponseDto.ok(
|
return ApiResponseDto.ok(
|
||||||
@@ -183,13 +187,13 @@ public class ChangeDetectionApiController {
|
|||||||
@RequestParam
|
@RequestParam
|
||||||
String chnDtctId,
|
String chnDtctId,
|
||||||
@Parameter(description = "polygon 32자 uid", example = "3B1A7E5F895A4D9698489540EE1BBE1E")
|
@Parameter(description = "polygon 32자 uid", example = "3B1A7E5F895A4D9698489540EE1BBE1E")
|
||||||
@RequestParam
|
@RequestParam(required = false)
|
||||||
String cdObjectId,
|
String cdObjectId,
|
||||||
@Parameter(
|
@Parameter(
|
||||||
description = "polygon 32자 uids",
|
description = "polygon 32자 uids",
|
||||||
example =
|
example =
|
||||||
"3B1A7E5F895A4D9698489540EE1BBE1E,3B221A2AF9614647A0903A972D56C574,3B22686A7ACE44FC9CB20F1B4FA6DEFD,3B376D94A183479BB5FBE3D7166E6E1A")
|
"3B1A7E5F895A4D9698489540EE1BBE1E,3B221A2AF9614647A0903A972D56C574,3B22686A7ACE44FC9CB20F1B4FA6DEFD,3B376D94A183479BB5FBE3D7166E6E1A")
|
||||||
@RequestParam
|
@RequestParam(required = false)
|
||||||
List<String> cdObjectIds,
|
List<String> cdObjectIds,
|
||||||
@Parameter(description = "pnu") @RequestParam(required = false) String pnu) {
|
@Parameter(description = "pnu") @RequestParam(required = false) String pnu) {
|
||||||
return ApiResponseDto.ok(
|
return ApiResponseDto.ok(
|
||||||
|
|||||||
@@ -46,13 +46,13 @@ public class ChangeDetectionService {
|
|||||||
}
|
}
|
||||||
|
|
||||||
public ChangeDetectionDto.PolygonFeatureList getChangeDetectionPolygonList(
|
public ChangeDetectionDto.PolygonFeatureList getChangeDetectionPolygonList(
|
||||||
DetectSearchType type, MapScaleType scale, UUID uuid, String mapSheetNum) {
|
DetectSearchType type, MapScaleType scale, UUID uuid, String mapSheetNum, String pnu) {
|
||||||
switch (type) {
|
switch (type) {
|
||||||
case MAPSHEET -> {
|
case MAPSHEET -> {
|
||||||
return changeDetectionCoreService.getChangeDetectionPolygonList(scale, uuid, mapSheetNum);
|
return changeDetectionCoreService.getChangeDetectionPolygonList(scale, uuid, mapSheetNum);
|
||||||
}
|
}
|
||||||
case ADDRESS -> {
|
case ADDRESS -> {
|
||||||
return new ChangeDetectionDto.PolygonFeatureList(); // TODO: 일반 주소 검색 로직 확인 후 작업 필요
|
return changeDetectionCoreService.getChangeDetectionPnuPolygonList(uuid, pnu);
|
||||||
}
|
}
|
||||||
default -> throw new IllegalArgumentException("Unsupported type: " + type);
|
default -> throw new IllegalArgumentException("Unsupported type: " + type);
|
||||||
}
|
}
|
||||||
@@ -60,14 +60,14 @@ public class ChangeDetectionService {
|
|||||||
|
|
||||||
// Geometry 객체 순환 참조 문제로 캐싱 불가
|
// Geometry 객체 순환 참조 문제로 캐싱 불가
|
||||||
public ChangeDetectionDto.PointFeatureList getChangeDetectionPointList(
|
public ChangeDetectionDto.PointFeatureList getChangeDetectionPointList(
|
||||||
DetectSearchType type, MapScaleType scale, UUID uuid, String mapSheetNum) {
|
DetectSearchType type, MapScaleType scale, UUID uuid, String mapSheetNum, String pnu) {
|
||||||
|
|
||||||
switch (type) {
|
switch (type) {
|
||||||
case MAPSHEET -> {
|
case MAPSHEET -> {
|
||||||
return changeDetectionCoreService.getChangeDetectionPointList(scale, uuid, mapSheetNum);
|
return changeDetectionCoreService.getChangeDetectionPointList(scale, uuid, mapSheetNum);
|
||||||
}
|
}
|
||||||
case ADDRESS -> {
|
case ADDRESS -> {
|
||||||
return new ChangeDetectionDto.PointFeatureList(); // TODO: 일반 주소 검색 로직 확인 후 작업 필요
|
return changeDetectionCoreService.getChangeDetectionPnuPointList(uuid, pnu);
|
||||||
}
|
}
|
||||||
default -> throw new IllegalArgumentException("Unsupported type: " + type);
|
default -> throw new IllegalArgumentException("Unsupported type: " + type);
|
||||||
}
|
}
|
||||||
@@ -101,7 +101,7 @@ public class ChangeDetectionService {
|
|||||||
*/
|
*/
|
||||||
public ChangeDetectionDto.PolygonFeatureList getPolygonListByCd(
|
public ChangeDetectionDto.PolygonFeatureList getPolygonListByCd(
|
||||||
String chnDtctId, String cdObjectId, List<String> cdObjectIds, String pnu) {
|
String chnDtctId, String cdObjectId, List<String> cdObjectIds, String pnu) {
|
||||||
return changeDetectionCoreService.getPolygonListByCd(chnDtctId, cdObjectId, cdObjectIds);
|
return changeDetectionCoreService.getPolygonListByCd(chnDtctId, cdObjectId, cdObjectIds, pnu);
|
||||||
}
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
@@ -115,7 +115,7 @@ public class ChangeDetectionService {
|
|||||||
*/
|
*/
|
||||||
public ChangeDetectionDto.PointFeatureList getPointListByCd(
|
public ChangeDetectionDto.PointFeatureList getPointListByCd(
|
||||||
String chnDtctId, String cdObjectId, List<String> cdObjectIds, String pnu) {
|
String chnDtctId, String cdObjectId, List<String> cdObjectIds, String pnu) {
|
||||||
return changeDetectionCoreService.getPointListByCd(chnDtctId, cdObjectId, cdObjectIds);
|
return changeDetectionCoreService.getPointListByCd(chnDtctId, cdObjectId, cdObjectIds, pnu);
|
||||||
}
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
|
|||||||
@@ -11,7 +11,8 @@ import lombok.Getter;
|
|||||||
public enum CrsType implements EnumType {
|
public enum CrsType implements EnumType {
|
||||||
EPSG_3857("Web Mercator, 웹지도 미터(EPSG:900913 동일)"),
|
EPSG_3857("Web Mercator, 웹지도 미터(EPSG:900913 동일)"),
|
||||||
EPSG_4326("WGS84 위경도, GeoJSON/OSM 기본"),
|
EPSG_4326("WGS84 위경도, GeoJSON/OSM 기본"),
|
||||||
EPSG_5186("Korea 2000 중부 TM, 한국 SHP");
|
EPSG_5186("5186::Korea 2000 중부 TM, 한국 SHP"),
|
||||||
|
EPSG_5179("5179::Korea 2000 중부 TM, 한국 SHP");
|
||||||
|
|
||||||
private final String desc;
|
private final String desc;
|
||||||
|
|
||||||
|
|||||||
@@ -13,7 +13,9 @@ public enum LayerType implements EnumType {
|
|||||||
TILE("배경지도"),
|
TILE("배경지도"),
|
||||||
GEOJSON("객체데이터"),
|
GEOJSON("객체데이터"),
|
||||||
WMTS("타일레이어"),
|
WMTS("타일레이어"),
|
||||||
WMS("지적도");
|
WMS("지적도"),
|
||||||
|
KAMCO_WMS("국유인WMS"),
|
||||||
|
KAMCO_WMTS("국유인WMTS");
|
||||||
|
|
||||||
private final String desc;
|
private final String desc;
|
||||||
|
|
||||||
|
|||||||
@@ -5,7 +5,11 @@ import com.fasterxml.jackson.databind.ObjectMapper;
|
|||||||
import java.io.IOException;
|
import java.io.IOException;
|
||||||
import java.nio.file.Files;
|
import java.nio.file.Files;
|
||||||
import java.nio.file.Path;
|
import java.nio.file.Path;
|
||||||
import java.util.*;
|
import java.util.HashSet;
|
||||||
|
import java.util.LinkedHashSet;
|
||||||
|
import java.util.List;
|
||||||
|
import java.util.Objects;
|
||||||
|
import java.util.Set;
|
||||||
import java.util.stream.Collectors;
|
import java.util.stream.Collectors;
|
||||||
import org.apache.logging.log4j.LogManager;
|
import org.apache.logging.log4j.LogManager;
|
||||||
import org.apache.logging.log4j.Logger;
|
import org.apache.logging.log4j.Logger;
|
||||||
@@ -170,7 +174,9 @@ public class GeoJsonValidator {
|
|||||||
// properties가 있고 scene_id가 null이 아니면 텍스트로 읽음
|
// properties가 있고 scene_id가 null이 아니면 텍스트로 읽음
|
||||||
// 없으면 null 처리
|
// 없으면 null 처리
|
||||||
String sceneId =
|
String sceneId =
|
||||||
(props != null && props.hasNonNull("scene_id")) ? props.get("scene_id").asText() : null;
|
(props != null && props.hasNonNull("scene_id"))
|
||||||
|
? props.get("scene_id").asText().trim()
|
||||||
|
: null;
|
||||||
|
|
||||||
// scene_id가 없거나 빈값이면 "정상적으로 도엽번호가 들어오지 않은 feature"로 카운트
|
// scene_id가 없거나 빈값이면 "정상적으로 도엽번호가 들어오지 않은 feature"로 카운트
|
||||||
if (sceneId == null || sceneId.isBlank()) {
|
if (sceneId == null || sceneId.isBlank()) {
|
||||||
@@ -230,12 +236,16 @@ public class GeoJsonValidator {
|
|||||||
extra.size()); // 요청하지 않았는데 들어온 도엽 수
|
extra.size()); // 요청하지 않았는데 들어온 도엽 수
|
||||||
|
|
||||||
// 중복/누락/추가 항목은 전체를 다 찍으면 로그 폭발하므로 샘플만
|
// 중복/누락/추가 항목은 전체를 다 찍으면 로그 폭발하므로 샘플만
|
||||||
if (!duplicates.isEmpty())
|
// if (!duplicates.isEmpty())
|
||||||
log.warn("duplicates sample: {}", duplicates.stream().limit(20).toList());
|
// log.warn("duplicates sample: {}", duplicates.stream().limit(20).toList());
|
||||||
|
|
||||||
if (!missing.isEmpty()) log.warn("missing sample: {}", missing.stream().limit(50).toList());
|
if (!missing.isEmpty()) {
|
||||||
|
log.warn("missing sample: {}", missing.stream().limit(50).toList());
|
||||||
|
}
|
||||||
|
|
||||||
if (!extra.isEmpty()) log.warn("extra sample: {}", extra.stream().limit(50).toList());
|
if (!extra.isEmpty()) {
|
||||||
|
log.warn("extra sample: {}", extra.stream().limit(50).toList());
|
||||||
|
}
|
||||||
|
|
||||||
// =========================================================
|
// =========================================================
|
||||||
// 6) 실패 조건 판정
|
// 6) 실패 조건 판정
|
||||||
|
|||||||
@@ -1,23 +1,45 @@
|
|||||||
package com.kamco.cd.kamcoback.common.service;
|
package com.kamco.cd.kamcoback.common.service;
|
||||||
|
|
||||||
|
import com.kamco.cd.kamcoback.config.InferenceProperties;
|
||||||
import java.io.BufferedReader;
|
import java.io.BufferedReader;
|
||||||
import java.io.InputStreamReader;
|
import java.io.InputStreamReader;
|
||||||
import java.nio.charset.StandardCharsets;
|
import java.nio.charset.StandardCharsets;
|
||||||
import java.util.ArrayList;
|
import java.util.ArrayList;
|
||||||
import java.util.List;
|
import java.util.List;
|
||||||
import java.util.concurrent.TimeUnit;
|
import java.util.concurrent.TimeUnit;
|
||||||
|
import lombok.RequiredArgsConstructor;
|
||||||
import lombok.extern.log4j.Log4j2;
|
import lombok.extern.log4j.Log4j2;
|
||||||
import org.springframework.beans.factory.annotation.Value;
|
import org.springframework.beans.factory.annotation.Value;
|
||||||
import org.springframework.stereotype.Component;
|
import org.springframework.stereotype.Component;
|
||||||
|
|
||||||
@Log4j2
|
@Log4j2
|
||||||
|
// 0312
|
||||||
|
@RequiredArgsConstructor
|
||||||
@Component
|
@Component
|
||||||
public class ExternalJarRunner {
|
public class ExternalJarRunner {
|
||||||
@Value("${spring.profiles.active}")
|
@Value("${spring.profiles.active}")
|
||||||
private String profile;
|
private String profile;
|
||||||
|
|
||||||
|
// 0312
|
||||||
|
private final InferenceProperties inferenceProperties;
|
||||||
|
|
||||||
private static final long TIMEOUT_MINUTES = TimeUnit.DAYS.toMinutes(3);
|
private static final long TIMEOUT_MINUTES = TimeUnit.DAYS.toMinutes(3);
|
||||||
|
|
||||||
|
// java -jar build/libs/shp-exporter.jar --batch --geoserver.enabled=true
|
||||||
|
// --converter.inference-id=qq99999 --converter.batch-ids[0]=111
|
||||||
|
// 0312 shp 파일 배치를 통해 생성
|
||||||
|
public void run(String inferenceLearningId, List<Long> batchIds) {
|
||||||
|
// JAR 경로 (shape파일 생성용)
|
||||||
|
String jarPathV2 = inferenceProperties.getJarPathV2();
|
||||||
|
List<String> args = new ArrayList<>();
|
||||||
|
args.add(" --spring.profiles.active=" + profile);
|
||||||
|
args.add(" --batch");
|
||||||
|
args.add(" --geoserver.enabled=true");
|
||||||
|
args.add(" --converter.inference-id=" + inferenceLearningId);
|
||||||
|
batchIds.forEach(batchId -> args.add(" --converter.batch-ids[" + args.size() + "]=" + batchId));
|
||||||
|
execJar(jarPathV2, args);
|
||||||
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
* shp 파일 생성
|
* shp 파일 생성
|
||||||
*
|
*
|
||||||
@@ -28,7 +50,8 @@ public class ExternalJarRunner {
|
|||||||
* @param mode
|
* @param mode
|
||||||
* <p>MERGED - batch-ids 에 해당하는 **모든 데이터를 하나의 Shapefile로 병합 생성,
|
* <p>MERGED - batch-ids 에 해당하는 **모든 데이터를 하나의 Shapefile로 병합 생성,
|
||||||
* <p>MAP_IDS - 명시적으로 전달한 map-ids만 대상으로 Shapefile 생성,
|
* <p>MAP_IDS - 명시적으로 전달한 map-ids만 대상으로 Shapefile 생성,
|
||||||
* <p>RESOLVE - batch-ids 기준으로 **JAR 내부에서 map_ids를 조회**한 뒤 Shapefile 생성
|
* <p>RESOLVE - batch-ids 기준으로 **JAR 내부에서 map_ids를 조회**한 뒤 Shapefile 생성 java -jar
|
||||||
|
* build/libs/shp-exporter.jar --spring.profiles.active=prod
|
||||||
*/
|
*/
|
||||||
public void run(String jarPath, String batchIds, String inferenceId, String mapIds, String mode) {
|
public void run(String jarPath, String batchIds, String inferenceId, String mapIds, String mode) {
|
||||||
List<String> args = new ArrayList<>();
|
List<String> args = new ArrayList<>();
|
||||||
@@ -73,7 +96,8 @@ public class ExternalJarRunner {
|
|||||||
cmd.add("-jar");
|
cmd.add("-jar");
|
||||||
cmd.add(jarPath);
|
cmd.add(jarPath);
|
||||||
cmd.addAll(args);
|
cmd.addAll(args);
|
||||||
|
// 0312
|
||||||
|
log.info("exec jar command: {}", cmd);
|
||||||
ProcessBuilder pb = new ProcessBuilder(cmd);
|
ProcessBuilder pb = new ProcessBuilder(cmd);
|
||||||
pb.redirectErrorStream(true);
|
pb.redirectErrorStream(true);
|
||||||
|
|
||||||
@@ -103,6 +127,7 @@ public class ExternalJarRunner {
|
|||||||
|
|
||||||
} catch (Exception e) {
|
} catch (Exception e) {
|
||||||
log.error("jar execution error. output=\n{}", out, e);
|
log.error("jar execution error. output=\n{}", out, e);
|
||||||
|
throw new RuntimeException("jar execution error\n" + out, e);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|||||||
@@ -16,5 +16,7 @@ public class InferenceProperties {
|
|||||||
private String batchUrl;
|
private String batchUrl;
|
||||||
private String geojsonDir;
|
private String geojsonDir;
|
||||||
private String jarPath;
|
private String jarPath;
|
||||||
|
// 0312
|
||||||
|
private String jarPathV2;
|
||||||
private String inferenceServerName;
|
private String inferenceServerName;
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -71,6 +71,10 @@ public class SecurityConfig {
|
|||||||
.requestMatchers("/api/test/review")
|
.requestMatchers("/api/test/review")
|
||||||
.hasAnyRole("ADMIN", "REVIEWER")
|
.hasAnyRole("ADMIN", "REVIEWER")
|
||||||
|
|
||||||
|
// shapefile 생성 테스트 API - 인증 없이 접근 가능
|
||||||
|
.requestMatchers("/api/test/make-shapefile")
|
||||||
|
.permitAll()
|
||||||
|
|
||||||
// ASYNC/ERROR 재디스패치는 막지 않기 (다운로드/스트리밍에서 필수)
|
// ASYNC/ERROR 재디스패치는 막지 않기 (다운로드/스트리밍에서 필수)
|
||||||
.dispatcherTypeMatchers(DispatcherType.ASYNC, DispatcherType.ERROR)
|
.dispatcherTypeMatchers(DispatcherType.ASYNC, DispatcherType.ERROR)
|
||||||
.permitAll()
|
.permitAll()
|
||||||
|
|||||||
@@ -16,12 +16,12 @@ public class RestTemplateConfig {
|
|||||||
@Bean
|
@Bean
|
||||||
@Primary
|
@Primary
|
||||||
public RestTemplate restTemplate(RestTemplateBuilder builder) {
|
public RestTemplate restTemplate(RestTemplateBuilder builder) {
|
||||||
return build(builder, 2000, 3000);
|
return build(builder, 20000, 60000);
|
||||||
}
|
}
|
||||||
|
|
||||||
@Bean("restTemplateLong")
|
@Bean("restTemplateLong")
|
||||||
public RestTemplate restTemplateLong(RestTemplateBuilder builder) {
|
public RestTemplate restTemplateLong(RestTemplateBuilder builder) {
|
||||||
return build(builder, 2000, 60000);
|
return build(builder, 20000, 60000);
|
||||||
}
|
}
|
||||||
|
|
||||||
private RestTemplate build(RestTemplateBuilder builder, int connectTimeoutMs, int readTimeoutMs) {
|
private RestTemplate build(RestTemplateBuilder builder, int connectTimeoutMs, int readTimeoutMs) {
|
||||||
|
|||||||
@@ -14,9 +14,9 @@ public class GukYuinDto {
|
|||||||
public enum GukYuinLinkFailCode implements EnumType {
|
public enum GukYuinLinkFailCode implements EnumType {
|
||||||
OK("연동 가능"),
|
OK("연동 가능"),
|
||||||
NOT_FOUND("대상 회차가 없습니다."),
|
NOT_FOUND("대상 회차가 없습니다."),
|
||||||
SCOPE_PART_NOT_ALLOWED("부분 도엽은 연동 불가능 합니다."),
|
SCOPE_PART_NOT_ALLOWED("부분 도엽 추론 결과는 연동 할 수 없습니다."),
|
||||||
HAS_RUNNING_INFERENCE("라벨링 진행 중 회차가 있습니다."),
|
HAS_RUNNING_INFERENCE("라벨링 진행중인 회차가 있습니다.\n진행중인 라벨링 작업을 종료하신 후 다시 연동해주세요."),
|
||||||
OTHER_GUKYUIN_IN_PROGRESS("국유in 연동 진행 중 회차가 있습니다.");
|
OTHER_GUKYUIN_IN_PROGRESS("국유in 연동이 진행중입니다. 선행 연동 작업이 종료된 후 진행할 수 있습니다.");
|
||||||
|
|
||||||
private final String desc;
|
private final String desc;
|
||||||
|
|
||||||
@@ -36,8 +36,9 @@ public class GukYuinDto {
|
|||||||
public static class GukYuinLinkableRes {
|
public static class GukYuinLinkableRes {
|
||||||
|
|
||||||
private boolean linkable;
|
private boolean linkable;
|
||||||
// private GukYuinLinkFailCode code;
|
private GukYuinLinkFailCode code;
|
||||||
private String message;
|
private String message;
|
||||||
|
private UUID inferenceUuid;
|
||||||
}
|
}
|
||||||
|
|
||||||
// Repository가 반환할 Fact(조회 결과)
|
// Repository가 반환할 Fact(조회 결과)
|
||||||
@@ -45,7 +46,8 @@ public class GukYuinDto {
|
|||||||
boolean existsLearn,
|
boolean existsLearn,
|
||||||
boolean isPartScope,
|
boolean isPartScope,
|
||||||
boolean hasRunningInference,
|
boolean hasRunningInference,
|
||||||
boolean hasOtherUnfinishedGukYuin) {}
|
boolean hasOtherUnfinishedGukYuin,
|
||||||
|
UUID inferenceUuid) {}
|
||||||
|
|
||||||
@Getter
|
@Getter
|
||||||
@Setter
|
@Setter
|
||||||
|
|||||||
@@ -69,7 +69,7 @@ public class GukYuinApiService {
|
|||||||
@Value("${file.nfs}")
|
@Value("${file.nfs}")
|
||||||
private String nfs;
|
private String nfs;
|
||||||
|
|
||||||
@Value("${file.output-dir}")
|
@Value("${file.output-dir}") // 국유인 반영 파일 경로
|
||||||
private String outputDir;
|
private String outputDir;
|
||||||
|
|
||||||
@Value("${file.dataset-dir}")
|
@Value("${file.dataset-dir}")
|
||||||
@@ -237,9 +237,12 @@ public class GukYuinApiService {
|
|||||||
GukYuinLinkFailCode code = decideCode(f);
|
GukYuinLinkFailCode code = decideCode(f);
|
||||||
|
|
||||||
GukYuinLinkableRes res = new GukYuinLinkableRes();
|
GukYuinLinkableRes res = new GukYuinLinkableRes();
|
||||||
// res.setCode(code);
|
res.setCode(code);
|
||||||
res.setLinkable(code == GukYuinLinkFailCode.OK);
|
res.setLinkable(code == GukYuinLinkFailCode.OK);
|
||||||
res.setMessage(code.getDesc());
|
res.setMessage(code.getDesc());
|
||||||
|
if (code == GukYuinLinkFailCode.HAS_RUNNING_INFERENCE) {
|
||||||
|
res.setInferenceUuid(f.inferenceUuid());
|
||||||
|
}
|
||||||
return res;
|
return res;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|||||||
@@ -8,6 +8,7 @@ import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto;
|
|||||||
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.InferenceServerStatusDto;
|
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.InferenceServerStatusDto;
|
||||||
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.InferenceStatusDetailDto;
|
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.InferenceStatusDetailDto;
|
||||||
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.ResultList;
|
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.ResultList;
|
||||||
|
import com.kamco.cd.kamcoback.inference.service.InferenceAsyncService;
|
||||||
import com.kamco.cd.kamcoback.inference.service.InferenceResultService;
|
import com.kamco.cd.kamcoback.inference.service.InferenceResultService;
|
||||||
import com.kamco.cd.kamcoback.log.dto.AuditLogDto;
|
import com.kamco.cd.kamcoback.log.dto.AuditLogDto;
|
||||||
import com.kamco.cd.kamcoback.log.dto.AuditLogDto.DownloadReq;
|
import com.kamco.cd.kamcoback.log.dto.AuditLogDto.DownloadReq;
|
||||||
@@ -55,6 +56,7 @@ import org.springframework.web.bind.annotation.RestController;
|
|||||||
public class InferenceResultApiController {
|
public class InferenceResultApiController {
|
||||||
|
|
||||||
private final InferenceResultService inferenceResultService;
|
private final InferenceResultService inferenceResultService;
|
||||||
|
private final InferenceAsyncService inferenceAsyncService;
|
||||||
private final MapSheetMngService mapSheetMngService;
|
private final MapSheetMngService mapSheetMngService;
|
||||||
private final ModelMngService modelMngService;
|
private final ModelMngService modelMngService;
|
||||||
private final RangeDownloadResponder rangeDownloadResponder;
|
private final RangeDownloadResponder rangeDownloadResponder;
|
||||||
@@ -176,7 +178,8 @@ public class InferenceResultApiController {
|
|||||||
})
|
})
|
||||||
@DeleteMapping("/end")
|
@DeleteMapping("/end")
|
||||||
public ApiResponseDto<UUID> getInferenceGeomList() {
|
public ApiResponseDto<UUID> getInferenceGeomList() {
|
||||||
UUID uuid = inferenceResultService.deleteInferenceEnd();
|
// UUID uuid = inferenceResultService.deleteInferenceEnd();
|
||||||
|
UUID uuid = inferenceAsyncService.asyncInferenceEnd();
|
||||||
return ApiResponseDto.ok(uuid);
|
return ApiResponseDto.ok(uuid);
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -376,7 +379,7 @@ public class InferenceResultApiController {
|
|||||||
|
|
||||||
Path zipPath = Path.of(path);
|
Path zipPath = Path.of(path);
|
||||||
if (!Files.isRegularFile(zipPath)) {
|
if (!Files.isRegularFile(zipPath)) {
|
||||||
return ResponseEntity.status(HttpStatus.NOT_FOUND).body("추론이 완료되지 않아 파일이 생성되지 않았습니다.");
|
return ResponseEntity.status(HttpStatus.NOT_FOUND).body("다운로드 받을 파일이 없습니다.");
|
||||||
}
|
}
|
||||||
|
|
||||||
return rangeDownloadResponder.buildZipResponse(zipPath, uid + ".zip", request);
|
return rangeDownloadResponder.buildZipResponse(zipPath, uid + ".zip", request);
|
||||||
|
|||||||
@@ -18,6 +18,7 @@ import lombok.AllArgsConstructor;
|
|||||||
import lombok.Getter;
|
import lombok.Getter;
|
||||||
import lombok.NoArgsConstructor;
|
import lombok.NoArgsConstructor;
|
||||||
import lombok.Setter;
|
import lombok.Setter;
|
||||||
|
import lombok.ToString;
|
||||||
import org.springframework.data.domain.PageRequest;
|
import org.springframework.data.domain.PageRequest;
|
||||||
import org.springframework.data.domain.Pageable;
|
import org.springframework.data.domain.Pageable;
|
||||||
|
|
||||||
@@ -86,6 +87,7 @@ public class InferenceResultDto {
|
|||||||
READY("대기"),
|
READY("대기"),
|
||||||
IN_PROGRESS("진행중"),
|
IN_PROGRESS("진행중"),
|
||||||
END("완료"),
|
END("완료"),
|
||||||
|
END_FAIL("종료실패"),
|
||||||
FORCED_END("강제종료");
|
FORCED_END("강제종료");
|
||||||
private final String desc;
|
private final String desc;
|
||||||
|
|
||||||
@@ -240,6 +242,7 @@ public class InferenceResultDto {
|
|||||||
@Setter
|
@Setter
|
||||||
@NoArgsConstructor
|
@NoArgsConstructor
|
||||||
@AllArgsConstructor
|
@AllArgsConstructor
|
||||||
|
@ToString
|
||||||
public static class RegReq {
|
public static class RegReq {
|
||||||
|
|
||||||
@Schema(description = "제목", example = "2023-2024 변화탐지 테스트")
|
@Schema(description = "제목", example = "2023-2024 변화탐지 테스트")
|
||||||
@@ -272,11 +275,10 @@ public class InferenceResultDto {
|
|||||||
private String mapSheetScope;
|
private String mapSheetScope;
|
||||||
|
|
||||||
@Schema(description = "탐지 데이터 옵션 - 추론제외(EXCL), 이전 년도 도엽 사용(PREV)", example = "EXCL")
|
@Schema(description = "탐지 데이터 옵션 - 추론제외(EXCL), 이전 년도 도엽 사용(PREV)", example = "EXCL")
|
||||||
@NotBlank
|
// @EnumValid(
|
||||||
@EnumValid(
|
// enumClass = DetectOption.class,
|
||||||
enumClass = DetectOption.class,
|
// message = "탐지 데이터 옵션은 '추론제외', '이전 년도 도엽 사용' 만 사용 가능합니다.")
|
||||||
message = "탐지 데이터 옵션은 '추론제외', '이전 년도 도엽 사용' 만 사용 가능합니다.")
|
private DetectOption detectOption;
|
||||||
private String detectOption;
|
|
||||||
|
|
||||||
@Schema(description = "5k 도협 번호 목록", example = "[33605,33606, 33610, 34802, 35603, 35611]")
|
@Schema(description = "5k 도협 번호 목록", example = "[33605,33606, 33610, 34802, 35603, 35611]")
|
||||||
@NotNull
|
@NotNull
|
||||||
@@ -682,6 +684,7 @@ public class InferenceResultDto {
|
|||||||
@NoArgsConstructor
|
@NoArgsConstructor
|
||||||
@AllArgsConstructor
|
@AllArgsConstructor
|
||||||
public static class MapSheetFallbackYearDto {
|
public static class MapSheetFallbackYearDto {
|
||||||
|
|
||||||
private String mapSheetNum;
|
private String mapSheetNum;
|
||||||
private Integer mngYyyy;
|
private Integer mngYyyy;
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -0,0 +1,117 @@
|
|||||||
|
package com.kamco.cd.kamcoback.inference.service;
|
||||||
|
|
||||||
|
import com.kamco.cd.kamcoback.common.exception.CustomApiException;
|
||||||
|
import com.kamco.cd.kamcoback.common.inference.service.InferenceCommonService;
|
||||||
|
import com.kamco.cd.kamcoback.common.utils.UserUtil;
|
||||||
|
import com.kamco.cd.kamcoback.config.resttemplate.ExternalHttpClient;
|
||||||
|
import com.kamco.cd.kamcoback.config.resttemplate.ExternalHttpClient.ExternalCallResult;
|
||||||
|
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.SaveInferenceAiDto;
|
||||||
|
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.Status;
|
||||||
|
import com.kamco.cd.kamcoback.postgres.core.AuditLogCoreService;
|
||||||
|
import com.kamco.cd.kamcoback.postgres.core.InferenceResultCoreService;
|
||||||
|
import com.kamco.cd.kamcoback.postgres.core.MapSheetMngCoreService;
|
||||||
|
import com.kamco.cd.kamcoback.postgres.core.ModelMngCoreService;
|
||||||
|
import java.time.ZonedDateTime;
|
||||||
|
import java.util.List;
|
||||||
|
import java.util.UUID;
|
||||||
|
import lombok.RequiredArgsConstructor;
|
||||||
|
import lombok.extern.slf4j.Slf4j;
|
||||||
|
import org.springframework.beans.factory.annotation.Value;
|
||||||
|
import org.springframework.http.HttpHeaders;
|
||||||
|
import org.springframework.http.HttpMethod;
|
||||||
|
import org.springframework.http.HttpStatus;
|
||||||
|
import org.springframework.http.MediaType;
|
||||||
|
import org.springframework.scheduling.annotation.Async;
|
||||||
|
import org.springframework.stereotype.Service;
|
||||||
|
import org.springframework.transaction.annotation.Transactional;
|
||||||
|
|
||||||
|
/** 추론 관리 */
|
||||||
|
@Service
|
||||||
|
@Slf4j
|
||||||
|
@RequiredArgsConstructor
|
||||||
|
@Transactional(readOnly = true)
|
||||||
|
public class InferenceAsyncService {
|
||||||
|
|
||||||
|
private final InferenceResultCoreService inferenceResultCoreService;
|
||||||
|
private final MapSheetMngCoreService mapSheetMngCoreService;
|
||||||
|
private final ModelMngCoreService modelMngCoreService;
|
||||||
|
private final AuditLogCoreService auditLogCoreService;
|
||||||
|
private final InferenceCommonService inferenceCommonService;
|
||||||
|
|
||||||
|
private final ExternalHttpClient externalHttpClient;
|
||||||
|
private final UserUtil userUtil;
|
||||||
|
|
||||||
|
@Value("${inference.batch-url}")
|
||||||
|
private String batchUrl;
|
||||||
|
|
||||||
|
@Value("${inference.inference-server-name}")
|
||||||
|
private String inferenceServerName;
|
||||||
|
|
||||||
|
@Value("${file.dataset-dir}")
|
||||||
|
private String datasetDir;
|
||||||
|
|
||||||
|
@Value("${spring.profiles.active}")
|
||||||
|
private String activeEnv;
|
||||||
|
|
||||||
|
@Value("${inference.geojson-dir}")
|
||||||
|
private String inferenceDir;
|
||||||
|
|
||||||
|
// 0313
|
||||||
|
@Transactional
|
||||||
|
public UUID asyncInferenceEnd() {
|
||||||
|
SaveInferenceAiDto dto = inferenceResultCoreService.getProcessing();
|
||||||
|
if (dto == null) {
|
||||||
|
throw new CustomApiException("NOT_FOUND", HttpStatus.NOT_FOUND);
|
||||||
|
}
|
||||||
|
|
||||||
|
this.deleteInferenceEndAsync(dto); // 비동기 종료 호출
|
||||||
|
|
||||||
|
return dto.getUuid();
|
||||||
|
}
|
||||||
|
|
||||||
|
// 0313
|
||||||
|
@Async("inferenceEndExecutor")
|
||||||
|
@Transactional
|
||||||
|
public void deleteInferenceEndAsync(SaveInferenceAiDto dto) {
|
||||||
|
Long batchId = dto.getBatchId();
|
||||||
|
String url = batchUrl + "/" + batchId;
|
||||||
|
|
||||||
|
HttpHeaders headers = new HttpHeaders();
|
||||||
|
headers.setContentType(MediaType.APPLICATION_JSON);
|
||||||
|
headers.setAccept(List.of(MediaType.APPLICATION_JSON));
|
||||||
|
|
||||||
|
try {
|
||||||
|
log.info("[추론 종료 비동기 시작] uuid={}, batchId={}", dto.getUuid(), batchId);
|
||||||
|
|
||||||
|
ExternalCallResult<String> result =
|
||||||
|
externalHttpClient.callLong(url, HttpMethod.DELETE, dto, headers, String.class);
|
||||||
|
|
||||||
|
if (!result.success()) {
|
||||||
|
log.error("[추론 종료 실패] 외부 API 호출 실패. uuid={}, batchId={}", dto.getUuid(), batchId);
|
||||||
|
|
||||||
|
SaveInferenceAiDto failRequest = new SaveInferenceAiDto();
|
||||||
|
failRequest.setUuid(dto.getUuid());
|
||||||
|
failRequest.setStatus(Status.END_FAIL.getId()); // TODO: 종료실패 상태 추가하는 게 맞는지?
|
||||||
|
failRequest.setUpdateUid(userUtil.getId());
|
||||||
|
failRequest.setInferEndDttm(ZonedDateTime.now());
|
||||||
|
inferenceResultCoreService.update(failRequest);
|
||||||
|
return;
|
||||||
|
}
|
||||||
|
|
||||||
|
SaveInferenceAiDto request = new SaveInferenceAiDto();
|
||||||
|
request.setStatus(Status.FORCED_END.getId());
|
||||||
|
request.setUuid(dto.getUuid());
|
||||||
|
request.setUpdateUid(userUtil.getId());
|
||||||
|
request.setInferEndDttm(ZonedDateTime.now());
|
||||||
|
inferenceResultCoreService.update(request);
|
||||||
|
|
||||||
|
Long learnId = inferenceResultCoreService.getInferenceLearnIdByUuid(dto.getUuid());
|
||||||
|
inferenceResultCoreService.upsertGeomData(learnId);
|
||||||
|
|
||||||
|
log.info("[추론 종료 비동기 완료] uuid={}, batchId={}", dto.getUuid(), batchId);
|
||||||
|
|
||||||
|
} catch (Exception e) {
|
||||||
|
log.error("[추론 종료 비동기 예외] uuid={}, batchId={}", dto.getUuid(), batchId, e);
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
@@ -56,7 +56,7 @@ import java.util.Set;
|
|||||||
import java.util.UUID;
|
import java.util.UUID;
|
||||||
import java.util.stream.Collectors;
|
import java.util.stream.Collectors;
|
||||||
import lombok.RequiredArgsConstructor;
|
import lombok.RequiredArgsConstructor;
|
||||||
import lombok.extern.log4j.Log4j2;
|
import lombok.extern.slf4j.Slf4j;
|
||||||
import org.springframework.beans.factory.annotation.Value;
|
import org.springframework.beans.factory.annotation.Value;
|
||||||
import org.springframework.data.domain.Page;
|
import org.springframework.data.domain.Page;
|
||||||
import org.springframework.http.HttpHeaders;
|
import org.springframework.http.HttpHeaders;
|
||||||
@@ -68,7 +68,7 @@ import org.springframework.transaction.annotation.Transactional;
|
|||||||
|
|
||||||
/** 추론 관리 */
|
/** 추론 관리 */
|
||||||
@Service
|
@Service
|
||||||
@Log4j2
|
@Slf4j
|
||||||
@RequiredArgsConstructor
|
@RequiredArgsConstructor
|
||||||
@Transactional(readOnly = true)
|
@Transactional(readOnly = true)
|
||||||
public class InferenceResultService {
|
public class InferenceResultService {
|
||||||
@@ -128,47 +128,40 @@ public class InferenceResultService {
|
|||||||
*/
|
*/
|
||||||
@Transactional
|
@Transactional
|
||||||
public UUID run(InferenceResultDto.RegReq req) {
|
public UUID run(InferenceResultDto.RegReq req) {
|
||||||
if (req.getDetectOption().equals(DetectOption.EXCL.getId())) {
|
log.info("inference start request = {}", req);
|
||||||
|
DetectOption detectOption = req.getDetectOption();
|
||||||
|
if (detectOption == DetectOption.EXCL) {
|
||||||
// 추론 제외 일때 EXCL
|
// 추론 제외 일때 EXCL
|
||||||
return runExcl(req);
|
return runExcl(req);
|
||||||
}
|
}
|
||||||
|
|
||||||
// 이전연도 도엽 사용 일때 PREV
|
// 이전연도 도엽 사용 일때 PREV
|
||||||
return runPrev(req);
|
return runPrev(req);
|
||||||
}
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
* 변화탐지 옵션 추론제외 실행
|
* 변화탐지 [옵션 추론제외 실행]
|
||||||
*
|
*
|
||||||
* @param req
|
* @param req
|
||||||
* @return
|
* @return
|
||||||
*/
|
*/
|
||||||
public UUID runExcl(InferenceResultDto.RegReq req) {
|
public UUID runExcl(InferenceResultDto.RegReq req) {
|
||||||
// TODO 쿼리로 한번에 할수 있게 수정해야하나..
|
|
||||||
// 기준연도 실행가능 도엽 조회
|
// 기준연도 실행가능 도엽 조회
|
||||||
List<MngListDto> targetMngList =
|
List<MngListDto> targetMngList =
|
||||||
mapSheetMngCoreService.getMapSheetMngHst(
|
mapSheetMngCoreService.getMapSheetMngHst(req.getTargetYyyy(), req.getMapSheetNum());
|
||||||
req.getTargetYyyy(), req.getMapSheetScope(), req.getMapSheetNum());
|
|
||||||
|
|
||||||
// List<MngListDto> mngList =
|
|
||||||
// mapSheetMngCoreService.findExecutableSheets(
|
|
||||||
// req.getCompareYyyy(),
|
|
||||||
// req.getTargetYyyy(),
|
|
||||||
// req.getMapSheetScope(),
|
|
||||||
// req.getMapSheetNum());
|
|
||||||
|
|
||||||
if (targetMngList == null || targetMngList.isEmpty()) {
|
if (targetMngList == null || targetMngList.isEmpty()) {
|
||||||
throw new CustomApiException("NOT_FOUND_MAP_SHEET_NUM", HttpStatus.NOT_FOUND);
|
throw new CustomApiException("NOT_FOUND_MAP_SHEET_NUM", HttpStatus.NOT_FOUND);
|
||||||
}
|
}
|
||||||
|
log.info("targetMngList size = {}", targetMngList.size());
|
||||||
|
|
||||||
// 비교연도 실행가능 도엽 조회
|
// 비교연도 실행가능 도엽 조회
|
||||||
List<MngListDto> compareMngList =
|
List<MngListDto> compareMngList =
|
||||||
mapSheetMngCoreService.getMapSheetMngHst(
|
mapSheetMngCoreService.getMapSheetMngHst(req.getCompareYyyy(), req.getMapSheetNum());
|
||||||
req.getCompareYyyy(), req.getMapSheetScope(), req.getMapSheetNum());
|
|
||||||
|
|
||||||
if (compareMngList == null || compareMngList.isEmpty()) {
|
if (compareMngList == null || compareMngList.isEmpty()) {
|
||||||
throw new CustomApiException("NOT_FOUND_COMPARE_YEAR", HttpStatus.NOT_FOUND);
|
throw new CustomApiException("NOT_FOUND_COMPARE_YEAR", HttpStatus.NOT_FOUND);
|
||||||
}
|
}
|
||||||
|
log.info("compareMngList size = {}", compareMngList.size());
|
||||||
|
|
||||||
// compare 도엽번호 Set 구성
|
// compare 도엽번호 Set 구성
|
||||||
Set<String> compareSet =
|
Set<String> compareSet =
|
||||||
@@ -268,28 +261,31 @@ public class InferenceResultService {
|
|||||||
*/
|
*/
|
||||||
@Transactional
|
@Transactional
|
||||||
public UUID runPrev(InferenceResultDto.RegReq req) {
|
public UUID runPrev(InferenceResultDto.RegReq req) {
|
||||||
// TODO 쿼리로 한번에 할수 있게 수정해야하나..
|
Integer targetYyyy = req.getTargetYyyy();
|
||||||
// 기준연도 실행가능 도엽 조회
|
Integer compareYyyy = req.getCompareYyyy();
|
||||||
List<MngListDto> targetMngList =
|
String mapSheetScope = req.getMapSheetScope();
|
||||||
mapSheetMngCoreService.getMapSheetMngHst(
|
|
||||||
req.getTargetYyyy(), req.getMapSheetScope(), req.getMapSheetNum());
|
|
||||||
|
|
||||||
|
log.info("[{}|{}}] ,{}", compareYyyy, targetYyyy, mapSheetScope);
|
||||||
|
|
||||||
|
// 기준연도 실행가능 도엽 조회[AFTER]
|
||||||
|
List<MngListDto> targetMngList =
|
||||||
|
mapSheetMngCoreService.getMapSheetMngHst(targetYyyy, req.getMapSheetNum());
|
||||||
|
|
||||||
|
log.info("[runPrev] targetMngList size = {}", targetMngList.size());
|
||||||
if (targetMngList == null || targetMngList.isEmpty()) {
|
if (targetMngList == null || targetMngList.isEmpty()) {
|
||||||
throw new CustomApiException("NOT_FOUND_TARGET_YEAR", HttpStatus.NOT_FOUND);
|
throw new CustomApiException("NOT_FOUND_TARGET_YEAR", HttpStatus.NOT_FOUND);
|
||||||
}
|
}
|
||||||
|
|
||||||
// 비교연도 실행가능 도엽 조회
|
// 비교연도 실행가능 도엽 조회
|
||||||
List<MngListDto> compareMngList =
|
List<MngListDto> compareMngList =
|
||||||
mapSheetMngCoreService.getMapSheetMngHst(
|
mapSheetMngCoreService.getMapSheetMngHst(compareYyyy, req.getMapSheetNum());
|
||||||
req.getCompareYyyy(), req.getMapSheetScope(), req.getMapSheetNum());
|
|
||||||
|
|
||||||
|
log.info("[runPrev] compareMngList size = {}", compareMngList.size());
|
||||||
if (compareMngList == null || compareMngList.isEmpty()) {
|
if (compareMngList == null || compareMngList.isEmpty()) {
|
||||||
throw new CustomApiException("NOT_FOUND_COMPARE_YEAR", HttpStatus.NOT_FOUND);
|
throw new CustomApiException("NOT_FOUND_COMPARE_YEAR", HttpStatus.NOT_FOUND);
|
||||||
}
|
}
|
||||||
|
|
||||||
log.info("targetMngList size = {}", targetMngList.size());
|
log.info("[runPrev] Difference in count = {}", targetMngList.size() - compareMngList.size());
|
||||||
log.info("compareMngList size = {}", compareMngList.size());
|
|
||||||
log.info("Difference in count = {}", targetMngList.size() - compareMngList.size());
|
|
||||||
|
|
||||||
// 로그용 원본 카운트 (이전도엽 추가 전)
|
// 로그용 원본 카운트 (이전도엽 추가 전)
|
||||||
int targetTotal = targetMngList.size();
|
int targetTotal = targetMngList.size();
|
||||||
@@ -310,14 +306,14 @@ public class InferenceResultService {
|
|||||||
.filter(num -> !compareSet0.contains(num))
|
.filter(num -> !compareSet0.contains(num))
|
||||||
.toList();
|
.toList();
|
||||||
|
|
||||||
log.info("targetOnlyMapSheetNums in count = {}", targetOnlyMapSheetNums.size());
|
log.info("[runPrev] targetOnlyMapSheetNums in count = {}", targetOnlyMapSheetNums.size());
|
||||||
|
|
||||||
// 이전연도 초회 추가
|
// 이전연도 초회 추가
|
||||||
compareMngList.addAll(
|
compareMngList.addAll(
|
||||||
mapSheetMngCoreService.findFallbackCompareYearByMapSheets(
|
mapSheetMngCoreService.findFallbackCompareYearByMapSheets(
|
||||||
req.getCompareYyyy(), targetOnlyMapSheetNums));
|
compareYyyy, targetOnlyMapSheetNums));
|
||||||
|
|
||||||
log.info("fallback compare size= {}", compareMngList.size());
|
log.info("[runPrev] fallback compare size= {}", compareMngList.size());
|
||||||
|
|
||||||
// 이전연도 추가 후 compare 총 개수
|
// 이전연도 추가 후 compare 총 개수
|
||||||
int compareTotalAfterFallback = compareMngList.size();
|
int compareTotalAfterFallback = compareMngList.size();
|
||||||
@@ -384,18 +380,12 @@ public class InferenceResultService {
|
|||||||
// compare 기준 geojson 생성
|
// compare 기준 geojson 생성
|
||||||
Scene compareScene =
|
Scene compareScene =
|
||||||
getSceneInference(
|
getSceneInference(
|
||||||
compareMngList,
|
compareMngList, compareYyyy.toString(), mapSheetScope, req.getDetectOption());
|
||||||
req.getCompareYyyy().toString(),
|
|
||||||
req.getMapSheetScope(),
|
|
||||||
req.getDetectOption());
|
|
||||||
|
|
||||||
// target 기준 geojson 생성
|
// target 기준 geojson 생성
|
||||||
Scene targetScene =
|
Scene targetScene =
|
||||||
getSceneInference(
|
getSceneInference(
|
||||||
req.getTargetYyyy().toString(),
|
targetYyyy.toString(), mapSheetNums, mapSheetScope, req.getDetectOption());
|
||||||
mapSheetNums,
|
|
||||||
req.getMapSheetScope(),
|
|
||||||
req.getDetectOption());
|
|
||||||
|
|
||||||
log.info("비교년도 geojson 파일 validation ===== {}", compareScene.getFilePath());
|
log.info("비교년도 geojson 파일 validation ===== {}", compareScene.getFilePath());
|
||||||
GeoJsonValidator.validateWithRequested(compareScene.getFilePath(), mapSheetNums);
|
GeoJsonValidator.validateWithRequested(compareScene.getFilePath(), mapSheetNums);
|
||||||
@@ -671,7 +661,7 @@ public class InferenceResultService {
|
|||||||
* @return
|
* @return
|
||||||
*/
|
*/
|
||||||
private Scene getSceneInference(
|
private Scene getSceneInference(
|
||||||
String yyyy, List<String> mapSheetNums, String mapSheetScope, String detectOption) {
|
String yyyy, List<String> mapSheetNums, String mapSheetScope, DetectOption detectOption) {
|
||||||
|
|
||||||
// geojson 생성시 필요한 영상파일 정보 조회
|
// geojson 생성시 필요한 영상파일 정보 조회
|
||||||
List<ImageFeature> features =
|
List<ImageFeature> features =
|
||||||
@@ -697,7 +687,7 @@ public class InferenceResultService {
|
|||||||
* @return
|
* @return
|
||||||
*/
|
*/
|
||||||
private Scene getSceneInference(
|
private Scene getSceneInference(
|
||||||
List<MngListDto> yearDtos, String yyyy, String mapSheetScope, String detectOption) {
|
List<MngListDto> yearDtos, String yyyy, String mapSheetScope, DetectOption detectOption) {
|
||||||
|
|
||||||
List<ImageFeature> features =
|
List<ImageFeature> features =
|
||||||
mapSheetMngCoreService.loadSceneInferenceByFallbackYears(yearDtos);
|
mapSheetMngCoreService.loadSceneInferenceByFallbackYears(yearDtos);
|
||||||
@@ -982,7 +972,10 @@ public class InferenceResultService {
|
|||||||
* @return Scene
|
* @return Scene
|
||||||
*/
|
*/
|
||||||
private Scene writeSceneGeoJson(
|
private Scene writeSceneGeoJson(
|
||||||
String yyyy, String mapSheetScope, String detectOption, List<ImageFeature> sceneInference) {
|
String yyyy,
|
||||||
|
String mapSheetScope,
|
||||||
|
DetectOption detectOption,
|
||||||
|
List<ImageFeature> sceneInference) {
|
||||||
|
|
||||||
boolean isAll = MapSheetScope.ALL.getId().equals(mapSheetScope);
|
boolean isAll = MapSheetScope.ALL.getId().equals(mapSheetScope);
|
||||||
String optionSuffix = buildOptionSuffix(detectOption);
|
String optionSuffix = buildOptionSuffix(detectOption);
|
||||||
@@ -1031,9 +1024,13 @@ public class InferenceResultService {
|
|||||||
* @param detectOption
|
* @param detectOption
|
||||||
* @return
|
* @return
|
||||||
*/
|
*/
|
||||||
private String buildOptionSuffix(String detectOption) {
|
private String buildOptionSuffix(DetectOption detectOption) {
|
||||||
if (DetectOption.EXCL.getId().equals(detectOption)) return "_EXCL";
|
if (DetectOption.EXCL == detectOption) {
|
||||||
if (DetectOption.PREV.getId().equals(detectOption)) return "_PREV";
|
return "_EXCL";
|
||||||
|
}
|
||||||
|
if (DetectOption.PREV == detectOption) {
|
||||||
|
return "_PREV";
|
||||||
|
}
|
||||||
return "";
|
return "";
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -157,6 +157,7 @@ public class LabelAllocateService {
|
|||||||
return labelAllocateCoreService.findInferenceDetail(uuid);
|
return labelAllocateCoreService.findInferenceDetail(uuid);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@Transactional
|
||||||
public ApiResponseDto.ResponseObj allocateMove(
|
public ApiResponseDto.ResponseObj allocateMove(
|
||||||
Integer totalCnt, String uuid, List<String> targetUsers, String userId) {
|
Integer totalCnt, String uuid, List<String> targetUsers, String userId) {
|
||||||
|
|
||||||
|
|||||||
@@ -62,7 +62,7 @@ public class LayerService {
|
|||||||
.orElseThrow(() -> new CustomApiException("BAD_REQUEST", HttpStatus.BAD_REQUEST));
|
.orElseThrow(() -> new CustomApiException("BAD_REQUEST", HttpStatus.BAD_REQUEST));
|
||||||
|
|
||||||
switch (layerType) {
|
switch (layerType) {
|
||||||
case TILE -> {
|
case TILE, KAMCO_WMS, KAMCO_WMTS -> {
|
||||||
return mapLayerCoreService.saveTile(dto);
|
return mapLayerCoreService.saveTile(dto);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|||||||
@@ -169,6 +169,7 @@ public class AuthController {
|
|||||||
if (refreshToken == null || !jwtTokenProvider.isValidToken(refreshToken)) {
|
if (refreshToken == null || !jwtTokenProvider.isValidToken(refreshToken)) {
|
||||||
throw new AccessDeniedException("만료되었거나 유효하지 않은 리프레시 토큰 입니다.");
|
throw new AccessDeniedException("만료되었거나 유효하지 않은 리프레시 토큰 입니다.");
|
||||||
}
|
}
|
||||||
|
|
||||||
String username = jwtTokenProvider.getSubject(refreshToken);
|
String username = jwtTokenProvider.getSubject(refreshToken);
|
||||||
|
|
||||||
// Redis에 저장된 RefreshToken과 일치하는지 확인
|
// Redis에 저장된 RefreshToken과 일치하는지 확인
|
||||||
|
|||||||
@@ -6,6 +6,8 @@ import com.fasterxml.jackson.databind.ObjectMapper;
|
|||||||
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto;
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto;
|
||||||
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapScaleType;
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapScaleType;
|
||||||
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapSheetList;
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapSheetList;
|
||||||
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.PointFeatureList;
|
||||||
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.PolygonFeatureList;
|
||||||
import com.kamco.cd.kamcoback.common.enums.DetectionClassification;
|
import com.kamco.cd.kamcoback.common.enums.DetectionClassification;
|
||||||
import com.kamco.cd.kamcoback.common.exception.CustomApiException;
|
import com.kamco.cd.kamcoback.common.exception.CustomApiException;
|
||||||
import com.kamco.cd.kamcoback.postgres.entity.MapSheetAnalDataInferenceGeomEntity;
|
import com.kamco.cd.kamcoback.postgres.entity.MapSheetAnalDataInferenceGeomEntity;
|
||||||
@@ -108,8 +110,8 @@ public class ChangeDetectionCoreService {
|
|||||||
* @return
|
* @return
|
||||||
*/
|
*/
|
||||||
public ChangeDetectionDto.PolygonFeatureList getPolygonListByCd(
|
public ChangeDetectionDto.PolygonFeatureList getPolygonListByCd(
|
||||||
String chnDtctId, String cdObjectId, List<String> cdObjectIds) {
|
String chnDtctId, String cdObjectId, List<String> cdObjectIds, String pnu) {
|
||||||
return changeDetectionRepository.getPolygonListByCd(chnDtctId, cdObjectId, cdObjectIds);
|
return changeDetectionRepository.getPolygonListByCd(chnDtctId, cdObjectId, cdObjectIds, pnu);
|
||||||
}
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
@@ -121,8 +123,8 @@ public class ChangeDetectionCoreService {
|
|||||||
* @return
|
* @return
|
||||||
*/
|
*/
|
||||||
public ChangeDetectionDto.PointFeatureList getPointListByCd(
|
public ChangeDetectionDto.PointFeatureList getPointListByCd(
|
||||||
String chnDtctId, String cdObjectId, List<String> cdObjectIds) {
|
String chnDtctId, String cdObjectId, List<String> cdObjectIds, String pnu) {
|
||||||
return changeDetectionRepository.getPointListByCd(chnDtctId, cdObjectId, cdObjectIds);
|
return changeDetectionRepository.getPointListByCd(chnDtctId, cdObjectId, cdObjectIds, pnu);
|
||||||
}
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
@@ -136,4 +138,12 @@ public class ChangeDetectionCoreService {
|
|||||||
.getLearnUuid(chnDtctId)
|
.getLearnUuid(chnDtctId)
|
||||||
.orElseThrow(() -> new CustomApiException("NOT_FOUND_DATA", HttpStatus.NOT_FOUND));
|
.orElseThrow(() -> new CustomApiException("NOT_FOUND_DATA", HttpStatus.NOT_FOUND));
|
||||||
}
|
}
|
||||||
|
|
||||||
|
public PolygonFeatureList getChangeDetectionPnuPolygonList(UUID uuid, String pnu) {
|
||||||
|
return changeDetectionRepository.getChangeDetectionPnuPolygonList(uuid, pnu);
|
||||||
|
}
|
||||||
|
|
||||||
|
public PointFeatureList getChangeDetectionPnuPointList(UUID uuid, String pnu) {
|
||||||
|
return changeDetectionRepository.getChangeDetectionPnuPointList(uuid, pnu);
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -0,0 +1,26 @@
|
|||||||
|
package com.kamco.cd.kamcoback.postgres.core;
|
||||||
|
|
||||||
|
import com.kamco.cd.kamcoback.postgres.repository.gukyuin.GukYuinPnuCntUpdateJobRepository;
|
||||||
|
import org.springframework.stereotype.Service;
|
||||||
|
import org.springframework.transaction.annotation.Transactional;
|
||||||
|
|
||||||
|
@Service
|
||||||
|
public class GukYuinPnuCntUpdateJobCoreService {
|
||||||
|
|
||||||
|
private final GukYuinPnuCntUpdateJobRepository gukYuinPnuCntUpdateRepository;
|
||||||
|
|
||||||
|
public GukYuinPnuCntUpdateJobCoreService(
|
||||||
|
GukYuinPnuCntUpdateJobRepository gukYuinPnuCntUpdateRepository) {
|
||||||
|
this.gukYuinPnuCntUpdateRepository = gukYuinPnuCntUpdateRepository;
|
||||||
|
}
|
||||||
|
|
||||||
|
@Transactional
|
||||||
|
public void updateGukYuinContListPnuUpdateCnt() {
|
||||||
|
gukYuinPnuCntUpdateRepository.updateGukYuinContListPnuUpdateCnt();
|
||||||
|
}
|
||||||
|
|
||||||
|
@Transactional
|
||||||
|
public void updateGukYuinApplyStatus(String uid, String status) {
|
||||||
|
gukYuinPnuCntUpdateRepository.updateGukYuinApplyStatus(uid, status);
|
||||||
|
}
|
||||||
|
}
|
||||||
@@ -36,6 +36,7 @@ import com.kamco.cd.kamcoback.scheduler.dto.JobStatusDto;
|
|||||||
import jakarta.persistence.EntityManager;
|
import jakarta.persistence.EntityManager;
|
||||||
import jakarta.persistence.EntityNotFoundException;
|
import jakarta.persistence.EntityNotFoundException;
|
||||||
import jakarta.validation.constraints.NotNull;
|
import jakarta.validation.constraints.NotNull;
|
||||||
|
import java.time.LocalDateTime;
|
||||||
import java.time.ZonedDateTime;
|
import java.time.ZonedDateTime;
|
||||||
import java.util.ArrayList;
|
import java.util.ArrayList;
|
||||||
import java.util.LinkedHashMap;
|
import java.util.LinkedHashMap;
|
||||||
@@ -46,7 +47,7 @@ import java.util.function.Consumer;
|
|||||||
import java.util.stream.Collectors;
|
import java.util.stream.Collectors;
|
||||||
import java.util.stream.Stream;
|
import java.util.stream.Stream;
|
||||||
import lombok.RequiredArgsConstructor;
|
import lombok.RequiredArgsConstructor;
|
||||||
import lombok.extern.log4j.Log4j2;
|
import lombok.extern.slf4j.Slf4j;
|
||||||
import org.springframework.dao.DataAccessException;
|
import org.springframework.dao.DataAccessException;
|
||||||
import org.springframework.data.domain.Page;
|
import org.springframework.data.domain.Page;
|
||||||
import org.springframework.http.HttpStatus;
|
import org.springframework.http.HttpStatus;
|
||||||
@@ -54,7 +55,7 @@ import org.springframework.stereotype.Service;
|
|||||||
import org.springframework.transaction.annotation.Transactional;
|
import org.springframework.transaction.annotation.Transactional;
|
||||||
|
|
||||||
@Service
|
@Service
|
||||||
@Log4j2
|
@Slf4j
|
||||||
@RequiredArgsConstructor
|
@RequiredArgsConstructor
|
||||||
public class InferenceResultCoreService {
|
public class InferenceResultCoreService {
|
||||||
|
|
||||||
@@ -119,7 +120,7 @@ public class InferenceResultCoreService {
|
|||||||
mapSheetLearnEntity.setCompareYyyy(req.getCompareYyyy());
|
mapSheetLearnEntity.setCompareYyyy(req.getCompareYyyy());
|
||||||
mapSheetLearnEntity.setTargetYyyy(req.getTargetYyyy());
|
mapSheetLearnEntity.setTargetYyyy(req.getTargetYyyy());
|
||||||
mapSheetLearnEntity.setMapSheetScope(req.getMapSheetScope());
|
mapSheetLearnEntity.setMapSheetScope(req.getMapSheetScope());
|
||||||
mapSheetLearnEntity.setDetectOption(req.getDetectOption());
|
mapSheetLearnEntity.setDetectOption(req.getDetectOption().getId());
|
||||||
mapSheetLearnEntity.setCreatedUid(userUtil.getId());
|
mapSheetLearnEntity.setCreatedUid(userUtil.getId());
|
||||||
mapSheetLearnEntity.setMapSheetCnt(mapSheetName);
|
mapSheetLearnEntity.setMapSheetCnt(mapSheetName);
|
||||||
mapSheetLearnEntity.setDetectingCnt(0L);
|
mapSheetLearnEntity.setDetectingCnt(0L);
|
||||||
@@ -453,12 +454,18 @@ public class InferenceResultCoreService {
|
|||||||
* @return
|
* @return
|
||||||
*/
|
*/
|
||||||
public AnalResultInfo getInferenceResultInfo(UUID uuid) {
|
public AnalResultInfo getInferenceResultInfo(UUID uuid) {
|
||||||
|
|
||||||
// 추론 결과 정보조회
|
// 추론 결과 정보조회
|
||||||
|
log.info("get inference result info start time = {}", LocalDateTime.now());
|
||||||
AnalResultInfo resultInfo = mapSheetLearnRepository.getInferenceResultInfo(uuid);
|
AnalResultInfo resultInfo = mapSheetLearnRepository.getInferenceResultInfo(uuid);
|
||||||
|
log.info("get inference result info end time = {}", LocalDateTime.now());
|
||||||
// bbox, point 조회
|
// bbox, point 조회
|
||||||
|
log.info("get inference result info bbox start time = {}", LocalDateTime.now());
|
||||||
BboxPointDto bboxPointDto = mapSheetLearnRepository.getBboxPoint(uuid);
|
BboxPointDto bboxPointDto = mapSheetLearnRepository.getBboxPoint(uuid);
|
||||||
|
log.info("get inference result info bbox end time = {}", LocalDateTime.now());
|
||||||
resultInfo.setBboxGeom(bboxPointDto.getBboxGeom());
|
resultInfo.setBboxGeom(bboxPointDto.getBboxGeom());
|
||||||
resultInfo.setBboxCenterPoint(bboxPointDto.getBboxCenterPoint());
|
resultInfo.setBboxCenterPoint(bboxPointDto.getBboxCenterPoint());
|
||||||
|
|
||||||
return resultInfo;
|
return resultInfo;
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -469,7 +476,10 @@ public class InferenceResultCoreService {
|
|||||||
* @return 분류별 탐지건수 정보
|
* @return 분류별 탐지건수 정보
|
||||||
*/
|
*/
|
||||||
public List<Dashboard> getInferenceClassCountList(UUID uuid) {
|
public List<Dashboard> getInferenceClassCountList(UUID uuid) {
|
||||||
return mapSheetLearnRepository.getInferenceClassCountList(uuid);
|
log.info("get inference class count list start time = {}", LocalDateTime.now());
|
||||||
|
List<Dashboard> classCountList = mapSheetLearnRepository.getInferenceClassCountList(uuid);
|
||||||
|
log.info("get inference class count list end time = {}", LocalDateTime.now());
|
||||||
|
return classCountList;
|
||||||
}
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
@@ -478,7 +488,11 @@ public class InferenceResultCoreService {
|
|||||||
* @return geom 목록 정보
|
* @return geom 목록 정보
|
||||||
*/
|
*/
|
||||||
public Page<Geom> getInferenceGeomList(UUID uuid, SearchGeoReq searchGeoReq) {
|
public Page<Geom> getInferenceGeomList(UUID uuid, SearchGeoReq searchGeoReq) {
|
||||||
return mapSheetLearnRepository.getInferenceGeomList(uuid, searchGeoReq);
|
log.info("get Inference Geom List start time = {}", LocalDateTime.now());
|
||||||
|
Page<Geom> geom = mapSheetLearnRepository.getInferenceGeomList(uuid, searchGeoReq);
|
||||||
|
log.info("get Inference Geom List end time = {}", LocalDateTime.now());
|
||||||
|
|
||||||
|
return geom;
|
||||||
}
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
@@ -488,9 +502,13 @@ public class InferenceResultCoreService {
|
|||||||
*/
|
*/
|
||||||
@Transactional
|
@Transactional
|
||||||
public void upsertGeomData(Long id) {
|
public void upsertGeomData(Long id) {
|
||||||
|
// 추론 결과 목록 저장
|
||||||
Long analId = inferenceResultRepository.upsertGroupsFromMapSheetAnal(id);
|
Long analId = inferenceResultRepository.upsertGroupsFromMapSheetAnal(id);
|
||||||
|
// 추론 결과 상세 저장
|
||||||
inferenceResultRepository.upsertGroupsFromInferenceResults(analId);
|
inferenceResultRepository.upsertGroupsFromInferenceResults(analId);
|
||||||
|
// geom 목록 추론 결과 저장
|
||||||
inferenceResultRepository.upsertGeomsFromInferenceResults(analId);
|
inferenceResultRepository.upsertGeomsFromInferenceResults(analId);
|
||||||
|
// 집계 추론 결과 저장
|
||||||
inferenceResultRepository.upsertSttcFromInferenceResults(analId);
|
inferenceResultRepository.upsertSttcFromInferenceResults(analId);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|||||||
@@ -1,9 +1,12 @@
|
|||||||
package com.kamco.cd.kamcoback.postgres.core;
|
package com.kamco.cd.kamcoback.postgres.core;
|
||||||
|
|
||||||
|
import com.kamco.cd.kamcoback.common.exception.CustomApiException;
|
||||||
import com.kamco.cd.kamcoback.inference.dto.InferenceResultShpDto;
|
import com.kamco.cd.kamcoback.inference.dto.InferenceResultShpDto;
|
||||||
|
import com.kamco.cd.kamcoback.postgres.entity.MapSheetAnalInferenceEntity;
|
||||||
import com.kamco.cd.kamcoback.postgres.repository.Inference.InferenceResultRepository;
|
import com.kamco.cd.kamcoback.postgres.repository.Inference.InferenceResultRepository;
|
||||||
import lombok.RequiredArgsConstructor;
|
import lombok.RequiredArgsConstructor;
|
||||||
import lombok.extern.log4j.Log4j2;
|
import lombok.extern.log4j.Log4j2;
|
||||||
|
import org.springframework.http.HttpStatus;
|
||||||
import org.springframework.stereotype.Service;
|
import org.springframework.stereotype.Service;
|
||||||
import org.springframework.transaction.annotation.Transactional;
|
import org.springframework.transaction.annotation.Transactional;
|
||||||
|
|
||||||
@@ -24,6 +27,12 @@ public class InferenceResultShpCoreService {
|
|||||||
@Transactional
|
@Transactional
|
||||||
public InferenceResultShpDto.InferenceCntDto buildInferenceData(Long id) {
|
public InferenceResultShpDto.InferenceCntDto buildInferenceData(Long id) {
|
||||||
|
|
||||||
|
MapSheetAnalInferenceEntity analInferenceEntity =
|
||||||
|
repo.getAnalInferenceDataByLearnId(id).orElse(null);
|
||||||
|
if (analInferenceEntity != null) {
|
||||||
|
throw new CustomApiException("CONFLICT", HttpStatus.CONFLICT);
|
||||||
|
}
|
||||||
|
|
||||||
Long analId = repo.upsertGroupsFromMapSheetAnal(id);
|
Long analId = repo.upsertGroupsFromMapSheetAnal(id);
|
||||||
int analDataCnt = repo.upsertGroupsFromInferenceResults(analId);
|
int analDataCnt = repo.upsertGroupsFromInferenceResults(analId);
|
||||||
int geomCnt = repo.upsertGeomsFromInferenceResults(analId);
|
int geomCnt = repo.upsertGeomsFromInferenceResults(analId);
|
||||||
|
|||||||
@@ -345,16 +345,15 @@ public class MapSheetMngCoreService {
|
|||||||
* 변화탐지 실행 가능 비교년도 조회
|
* 변화탐지 실행 가능 비교년도 조회
|
||||||
*
|
*
|
||||||
* @param mngYyyy 비교년도
|
* @param mngYyyy 비교년도
|
||||||
* @param mapId 5k 도엽번호
|
* @param mapIds 5k 도엽번호
|
||||||
* @return List<MngListCompareDto>
|
* @return List<MngListCompareDto>
|
||||||
*/
|
*/
|
||||||
public List<MngListCompareDto> getByHstMapSheetCompareList(int mngYyyy, List<String> mapId) {
|
public List<MngListCompareDto> getByHstMapSheetCompareList(int mngYyyy, List<String> mapIds) {
|
||||||
return mapSheetMngYearRepository.findByHstMapSheetCompareList(mngYyyy, mapId);
|
return mapSheetMngYearRepository.findByHstMapSheetCompareList(mngYyyy, mapIds);
|
||||||
}
|
}
|
||||||
|
|
||||||
public List<MngListDto> getMapSheetMngHst(
|
public List<MngListDto> getMapSheetMngHst(Integer year, List<String> mapSheetNums50k) {
|
||||||
Integer year, String mapSheetScope, List<String> mapSheetNum) {
|
return mapSheetMngRepository.getMapSheetMngHst(year, mapSheetNums50k);
|
||||||
return mapSheetMngRepository.getMapSheetMngHst(year, mapSheetScope, mapSheetNum);
|
|
||||||
}
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
|
|||||||
@@ -11,37 +11,94 @@ import lombok.Getter;
|
|||||||
import lombok.Setter;
|
import lombok.Setter;
|
||||||
import org.hibernate.annotations.ColumnDefault;
|
import org.hibernate.annotations.ColumnDefault;
|
||||||
|
|
||||||
|
/**
|
||||||
|
* GPU 메트릭 엔티티
|
||||||
|
*
|
||||||
|
* <p>서버의 GPU 성능 및 자원 사용량 메트릭 데이터를 저장하는 JPA 엔티티입니다. GPU 연산 사용률 및 메모리 사용량 등 GPU 리소스 모니터링 데이터를 관리합니다.
|
||||||
|
*
|
||||||
|
* <p>데이터 소스: nvidia-smi 명령어 또는 NVML (NVIDIA Management Library)
|
||||||
|
*
|
||||||
|
* <p>활용 사례:
|
||||||
|
*
|
||||||
|
* <ul>
|
||||||
|
* <li>AI/ML 학습 모니터링: 딥러닝 작업 중 GPU 활용도 추적
|
||||||
|
* <li>리소스 최적화: GPU 메모리 부족 또는 유휴 상태 감지
|
||||||
|
* <li>용량 계획: GPU 추가 필요 시점 예측
|
||||||
|
* <li>알림 설정: gpuUtil > 95% 또는 gpuMemUsed/gpuMemTotal > 90% 시 경고
|
||||||
|
* </ul>
|
||||||
|
*/
|
||||||
@Getter
|
@Getter
|
||||||
@Setter
|
@Setter
|
||||||
@Entity
|
@Entity
|
||||||
@Table(name = "gpu_metrics")
|
@Table(name = "gpu_metrics")
|
||||||
public class GpuMetricEntity {
|
public class GpuMetricEntity {
|
||||||
|
|
||||||
|
/** 기본 키 (UUID, 자동 생성) */
|
||||||
@Id
|
@Id
|
||||||
@ColumnDefault("gen_random_uuid()")
|
@ColumnDefault("gen_random_uuid()")
|
||||||
@Column(name = "uuid", nullable = false)
|
@Column(name = "uuid", nullable = false)
|
||||||
private UUID id;
|
private UUID id;
|
||||||
|
|
||||||
|
/** 시퀀스 기반 보조 ID */
|
||||||
@NotNull
|
@NotNull
|
||||||
@ColumnDefault("nextval('gpu_metrics_id_seq')")
|
@ColumnDefault("nextval('gpu_metrics_id_seq')")
|
||||||
@Column(name = "id", nullable = false)
|
@Column(name = "id", nullable = false)
|
||||||
private Integer id1;
|
private Integer id1;
|
||||||
|
|
||||||
|
/** 메트릭 수집 시각 (시간대 포함, 기본값: 현재 시각) */
|
||||||
@NotNull
|
@NotNull
|
||||||
@ColumnDefault("now()")
|
@ColumnDefault("now()")
|
||||||
@Column(name = "\"timestamp\"", nullable = false)
|
@Column(name = "\"timestamp\"", nullable = false)
|
||||||
private OffsetDateTime timestamp;
|
private OffsetDateTime timestamp;
|
||||||
|
|
||||||
|
/** 모니터링 대상 서버 이름 */
|
||||||
@NotNull
|
@NotNull
|
||||||
@Column(name = "server_name", nullable = false, length = Integer.MAX_VALUE)
|
@Column(name = "server_name", nullable = false, length = Integer.MAX_VALUE)
|
||||||
private String serverName;
|
private String serverName;
|
||||||
|
|
||||||
|
/**
|
||||||
|
* GPU 연산 사용률 (백분율)
|
||||||
|
*
|
||||||
|
* <p>GPU 코어의 연산 처리 활용도를 나타냅니다.
|
||||||
|
*
|
||||||
|
* <p>범위: 0.0 ~ 100.0
|
||||||
|
*
|
||||||
|
* <p>예시: 85.5 = GPU가 85.5% 활용되어 연산 중
|
||||||
|
*
|
||||||
|
* <p>데이터 소스: nvidia-smi의 'utilization.gpu' 또는 NVML의 nvmlDeviceGetUtilizationRates
|
||||||
|
*
|
||||||
|
* <p>참고: 높은 사용률(>90%)은 GPU가 충분히 활용되고 있음을 의미하며, 낮은 사용률은 병목 지점이 다른 곳(CPU, I/O)에 있을 수 있음
|
||||||
|
*/
|
||||||
@Column(name = "gpu_util")
|
@Column(name = "gpu_util")
|
||||||
private Float gpuUtil;
|
private Float gpuUtil;
|
||||||
|
|
||||||
|
/**
|
||||||
|
* GPU 메모리 사용량 (MB 단위)
|
||||||
|
*
|
||||||
|
* <p>현재 GPU에 할당되어 사용 중인 메모리 양
|
||||||
|
*
|
||||||
|
* <p>예시: 10240.0 = 약 10GB의 GPU 메모리 사용 중
|
||||||
|
*
|
||||||
|
* <p>데이터 소스: nvidia-smi의 'memory.used' 또는 NVML의 nvmlDeviceGetMemoryInfo
|
||||||
|
*
|
||||||
|
* <p>용도: 딥러닝 모델 크기, 배치 사이즈 최적화, OOM(Out Of Memory) 에러 예측
|
||||||
|
*/
|
||||||
@Column(name = "gpu_mem_used")
|
@Column(name = "gpu_mem_used")
|
||||||
private Float gpuMemUsed;
|
private Float gpuMemUsed;
|
||||||
|
|
||||||
|
/**
|
||||||
|
* GPU 총 메모리 용량 (MB 단위)
|
||||||
|
*
|
||||||
|
* <p>GPU에 장착된 전체 메모리 용량
|
||||||
|
*
|
||||||
|
* <p>예시: 16384.0 = 16GB VRAM 장착
|
||||||
|
*
|
||||||
|
* <p>데이터 소스: nvidia-smi의 'memory.total' 또는 NVML의 nvmlDeviceGetMemoryInfo
|
||||||
|
*
|
||||||
|
* <p>계산식: 메모리 사용률(%) = (gpuMemUsed / gpuMemTotal) × 100
|
||||||
|
*
|
||||||
|
* <p>활용: 여유 메모리 = gpuMemTotal - gpuMemUsed
|
||||||
|
*/
|
||||||
@Column(name = "gpu_mem_total")
|
@Column(name = "gpu_mem_total")
|
||||||
private Float gpuMemTotal;
|
private Float gpuMemTotal;
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -53,8 +53,6 @@ import lombok.NoArgsConstructor;
|
|||||||
* system leveraging 1:5k map data.
|
* system leveraging 1:5k map data.
|
||||||
*/
|
*/
|
||||||
@Getter
|
@Getter
|
||||||
// entity의 접근제어를 위해 @setter를 사용 x
|
|
||||||
// @Setter
|
|
||||||
@NoArgsConstructor(access = AccessLevel.PROTECTED)
|
@NoArgsConstructor(access = AccessLevel.PROTECTED)
|
||||||
@Entity
|
@Entity
|
||||||
// 영상관리이력
|
// 영상관리이력
|
||||||
@@ -92,7 +90,7 @@ public class MapSheetMngHstEntity extends CommonDateEntity {
|
|||||||
private Integer scaleRatio;
|
private Integer scaleRatio;
|
||||||
|
|
||||||
@Column(name = "data_state", length = 20)
|
@Column(name = "data_state", length = 20)
|
||||||
private String dataState;
|
private String dataState; // DONE,NOTYET 둘중하나임 같은연도는 같은값
|
||||||
|
|
||||||
@Column(name = "data_state_dttm")
|
@Column(name = "data_state_dttm")
|
||||||
private ZonedDateTime dataStateDttm;
|
private ZonedDateTime dataStateDttm;
|
||||||
@@ -165,13 +163,4 @@ public class MapSheetMngHstEntity extends CommonDateEntity {
|
|||||||
|
|
||||||
@Column(name = "upload_id")
|
@Column(name = "upload_id")
|
||||||
private String uploadId;
|
private String uploadId;
|
||||||
|
|
||||||
// 파일정보 업데이트
|
|
||||||
public void updateFileInfos(Long tifSizeBytes, Long tfwSizeBytes) {
|
|
||||||
tifSizeBytes = tifSizeBytes == null ? 0L : tifSizeBytes;
|
|
||||||
tfwSizeBytes = tfwSizeBytes == null ? 0L : tfwSizeBytes;
|
|
||||||
this.tifSizeBytes = tifSizeBytes;
|
|
||||||
this.tfwSizeBytes = tfwSizeBytes;
|
|
||||||
this.totalSizeBytes = tifSizeBytes + tfwSizeBytes;
|
|
||||||
}
|
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -11,48 +11,101 @@ import lombok.Getter;
|
|||||||
import lombok.Setter;
|
import lombok.Setter;
|
||||||
import org.hibernate.annotations.ColumnDefault;
|
import org.hibernate.annotations.ColumnDefault;
|
||||||
|
|
||||||
|
/**
|
||||||
|
* 시스템 메트릭 엔티티
|
||||||
|
*
|
||||||
|
* <p>서버 시스템의 성능 메트릭 데이터를 저장하는 JPA 엔티티입니다. CPU 및 메모리 사용량 등 시스템 리소스 모니터링 데이터를 관리합니다.
|
||||||
|
*
|
||||||
|
* <p>데이터 소스: Linux sar 명령어 또는 /proc/meminfo 파일
|
||||||
|
*
|
||||||
|
* <p>활용 사례:
|
||||||
|
*
|
||||||
|
* <ul>
|
||||||
|
* <li>용량 계획: 메모리 추가 필요 시점 예측
|
||||||
|
* <li>성능 모니터링: 메모리 부족 상황 감지
|
||||||
|
* <li>트렌드 분석: 시간대별 메모리 사용 패턴 파악
|
||||||
|
* <li>알림 설정: memused > 90% 시 경고
|
||||||
|
* </ul>
|
||||||
|
*/
|
||||||
@Getter
|
@Getter
|
||||||
@Setter
|
@Setter
|
||||||
@Entity
|
@Entity
|
||||||
@Table(name = "system_metrics")
|
@Table(name = "system_metrics")
|
||||||
public class SystemMetricEntity {
|
public class SystemMetricEntity {
|
||||||
|
|
||||||
|
/** 기본 키 (UUID, 자동 생성) */
|
||||||
@Id
|
@Id
|
||||||
@ColumnDefault("gen_random_uuid()")
|
@ColumnDefault("gen_random_uuid()")
|
||||||
@Column(name = "uuid", nullable = false)
|
@Column(name = "uuid", nullable = false)
|
||||||
private UUID id;
|
private UUID id;
|
||||||
|
|
||||||
|
/** 시퀀스 기반 보조 ID */
|
||||||
@NotNull
|
@NotNull
|
||||||
@ColumnDefault("nextval('system_metrics_id_seq')")
|
@ColumnDefault("nextval('system_metrics_id_seq')")
|
||||||
@Column(name = "id", nullable = false)
|
@Column(name = "id", nullable = false)
|
||||||
private Integer id1;
|
private Integer id1;
|
||||||
|
|
||||||
|
/** 메트릭 수집 시각 (시간대 포함) */
|
||||||
@NotNull
|
@NotNull
|
||||||
@Column(name = "\"timestamp\"", nullable = false)
|
@Column(name = "\"timestamp\"", nullable = false)
|
||||||
private OffsetDateTime timestamp;
|
private OffsetDateTime timestamp;
|
||||||
|
|
||||||
|
/** 모니터링 대상 서버 이름 */
|
||||||
@NotNull
|
@NotNull
|
||||||
@Column(name = "server_name", nullable = false, length = Integer.MAX_VALUE)
|
@Column(name = "server_name", nullable = false, length = Integer.MAX_VALUE)
|
||||||
private String serverName;
|
private String serverName;
|
||||||
|
|
||||||
|
/** 사용자 프로세스가 사용한 CPU 사용률 (%) - 응용 프로그램 실행 */
|
||||||
@Column(name = "cpu_user")
|
@Column(name = "cpu_user")
|
||||||
private Float cpuUser;
|
private Float cpuUser;
|
||||||
|
|
||||||
|
/** 시스템 프로세스가 사용한 CPU 사용률 (%) - 커널 작업 */
|
||||||
@Column(name = "cpu_system")
|
@Column(name = "cpu_system")
|
||||||
private Float cpuSystem;
|
private Float cpuSystem;
|
||||||
|
|
||||||
|
/** I/O 대기로 소모된 CPU 사용률 (%) - 디스크/네트워크 대기 */
|
||||||
@Column(name = "cpu_iowait")
|
@Column(name = "cpu_iowait")
|
||||||
private Float cpuIowait;
|
private Float cpuIowait;
|
||||||
|
|
||||||
|
/** 유휴 상태 CPU 사용률 (%) - 사용 가능한 여유 CPU */
|
||||||
@Column(name = "cpu_idle")
|
@Column(name = "cpu_idle")
|
||||||
private Float cpuIdle;
|
private Float cpuIdle;
|
||||||
|
|
||||||
|
/**
|
||||||
|
* 사용 가능한 여유 메모리 (KB 단위)
|
||||||
|
*
|
||||||
|
* <p>시스템에서 즉시 사용 가능한 물리 메모리 양
|
||||||
|
*
|
||||||
|
* <p>예시: 4194304 = 약 4GB의 여유 메모리
|
||||||
|
*
|
||||||
|
* <p>데이터 소스: /proc/meminfo의 MemFree
|
||||||
|
*/
|
||||||
@Column(name = "kbmemfree")
|
@Column(name = "kbmemfree")
|
||||||
private Long kbmemfree;
|
private Long kbmemfree;
|
||||||
|
|
||||||
|
/**
|
||||||
|
* 현재 사용 중인 메모리 (KB 단위)
|
||||||
|
*
|
||||||
|
* <p>시스템이 현재 할당하여 사용 중인 물리 메모리 양
|
||||||
|
*
|
||||||
|
* <p>예시: 8388608 = 약 8GB의 사용 중인 메모리
|
||||||
|
*
|
||||||
|
* <p>계산: MemTotal - MemFree
|
||||||
|
*/
|
||||||
@Column(name = "kbmemused")
|
@Column(name = "kbmemused")
|
||||||
private Long kbmemused;
|
private Long kbmemused;
|
||||||
|
|
||||||
|
/**
|
||||||
|
* 메모리 사용률 (백분율)
|
||||||
|
*
|
||||||
|
* <p>전체 메모리 대비 사용 중인 메모리 비율
|
||||||
|
*
|
||||||
|
* <p>계산식: (kbmemused / (kbmemused + kbmemfree)) × 100
|
||||||
|
*
|
||||||
|
* <p>예시: 66.7 = 전체 메모리의 66.7% 사용 중
|
||||||
|
*
|
||||||
|
* <p>관계식: 총 메모리 = kbmemused + kbmemfree
|
||||||
|
*/
|
||||||
@Column(name = "memused")
|
@Column(name = "memused")
|
||||||
private Float memused;
|
private Float memused;
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -1,19 +1,50 @@
|
|||||||
package com.kamco.cd.kamcoback.postgres.repository.Inference;
|
package com.kamco.cd.kamcoback.postgres.repository.Inference;
|
||||||
|
|
||||||
|
import com.kamco.cd.kamcoback.postgres.entity.MapSheetAnalInferenceEntity;
|
||||||
import com.kamco.cd.kamcoback.postgres.entity.MapSheetLearnEntity;
|
import com.kamco.cd.kamcoback.postgres.entity.MapSheetLearnEntity;
|
||||||
import java.util.Optional;
|
import java.util.Optional;
|
||||||
import java.util.UUID;
|
import java.util.UUID;
|
||||||
|
|
||||||
public interface InferenceResultRepositoryCustom {
|
public interface InferenceResultRepositoryCustom {
|
||||||
|
|
||||||
|
/**
|
||||||
|
* tb_map_sheet_anal_inference 추론 결과 목록 저장
|
||||||
|
*
|
||||||
|
* @param id learn 테이블 id
|
||||||
|
* @return
|
||||||
|
*/
|
||||||
Long upsertGroupsFromMapSheetAnal(Long id);
|
Long upsertGroupsFromMapSheetAnal(Long id);
|
||||||
|
|
||||||
|
/**
|
||||||
|
* tb_map_sheet_anal_data_inference 추론 결과 상세 저장
|
||||||
|
*
|
||||||
|
* @param analId
|
||||||
|
* @return
|
||||||
|
*/
|
||||||
int upsertGroupsFromInferenceResults(Long analId);
|
int upsertGroupsFromInferenceResults(Long analId);
|
||||||
|
|
||||||
|
/**
|
||||||
|
* tb_map_sheet_anal_data_inference_geom geom 목록 추론 결과 저장
|
||||||
|
*
|
||||||
|
* @param analId
|
||||||
|
* @return
|
||||||
|
*/
|
||||||
int upsertGeomsFromInferenceResults(Long analId);
|
int upsertGeomsFromInferenceResults(Long analId);
|
||||||
|
|
||||||
|
/**
|
||||||
|
* tb_map_sheet_anal_sttc 집계 추론 결과 저장
|
||||||
|
*
|
||||||
|
* @param analId
|
||||||
|
* @return
|
||||||
|
*/
|
||||||
int upsertSttcFromInferenceResults(Long analId);
|
int upsertSttcFromInferenceResults(Long analId);
|
||||||
|
|
||||||
|
/**
|
||||||
|
* 추론실행 목록 uuid 조회
|
||||||
|
*
|
||||||
|
* @param uuid 추론 uuid
|
||||||
|
* @return 추론 실행 정보
|
||||||
|
*/
|
||||||
Long getInferenceLearnIdByUuid(UUID uuid);
|
Long getInferenceLearnIdByUuid(UUID uuid);
|
||||||
|
|
||||||
/**
|
/**
|
||||||
@@ -23,4 +54,12 @@ public interface InferenceResultRepositoryCustom {
|
|||||||
* @return 추론 정보
|
* @return 추론 정보
|
||||||
*/
|
*/
|
||||||
Optional<MapSheetLearnEntity> getInferenceUid(UUID uuid);
|
Optional<MapSheetLearnEntity> getInferenceUid(UUID uuid);
|
||||||
|
|
||||||
|
/**
|
||||||
|
* learn id 로 analInference 값 조회
|
||||||
|
*
|
||||||
|
* @param id 추론 id
|
||||||
|
* @return
|
||||||
|
*/
|
||||||
|
Optional<MapSheetAnalInferenceEntity> getAnalInferenceDataByLearnId(Long id);
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -1,8 +1,10 @@
|
|||||||
package com.kamco.cd.kamcoback.postgres.repository.Inference;
|
package com.kamco.cd.kamcoback.postgres.repository.Inference;
|
||||||
|
|
||||||
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetAnalInferenceEntity.mapSheetAnalInferenceEntity;
|
||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetLearnEntity.mapSheetLearnEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetLearnEntity.mapSheetLearnEntity;
|
||||||
|
|
||||||
import com.kamco.cd.kamcoback.label.dto.LabelAllocateDto.LabelMngState;
|
import com.kamco.cd.kamcoback.label.dto.LabelAllocateDto.LabelMngState;
|
||||||
|
import com.kamco.cd.kamcoback.postgres.entity.MapSheetAnalInferenceEntity;
|
||||||
import com.kamco.cd.kamcoback.postgres.entity.MapSheetLearnEntity;
|
import com.kamco.cd.kamcoback.postgres.entity.MapSheetLearnEntity;
|
||||||
import com.querydsl.jpa.impl.JPAQueryFactory;
|
import com.querydsl.jpa.impl.JPAQueryFactory;
|
||||||
import jakarta.persistence.EntityManager;
|
import jakarta.persistence.EntityManager;
|
||||||
@@ -214,6 +216,9 @@ public class InferenceResultRepositoryImpl implements InferenceResultRepositoryC
|
|||||||
WHERE msl.anal_uid = :analUid
|
WHERE msl.anal_uid = :analUid
|
||||||
AND r.after_c is not null
|
AND r.after_c is not null
|
||||||
AND r.after_p is not null
|
AND r.after_p is not null
|
||||||
|
AND r.probability is not null
|
||||||
|
AND r.before_c is not null
|
||||||
|
AND r.before_p is not null
|
||||||
ORDER BY r.uid, r.created_date DESC NULLS LAST
|
ORDER BY r.uid, r.created_date DESC NULLS LAST
|
||||||
) x
|
) x
|
||||||
ON CONFLICT (result_uid)
|
ON CONFLICT (result_uid)
|
||||||
@@ -331,4 +336,14 @@ public class InferenceResultRepositoryImpl implements InferenceResultRepositoryC
|
|||||||
.where(mapSheetLearnEntity.uuid.eq(uuid))
|
.where(mapSheetLearnEntity.uuid.eq(uuid))
|
||||||
.fetchOne());
|
.fetchOne());
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@Override
|
||||||
|
public Optional<MapSheetAnalInferenceEntity> getAnalInferenceDataByLearnId(Long id) {
|
||||||
|
return Optional.ofNullable(
|
||||||
|
queryFactory
|
||||||
|
.select(mapSheetAnalInferenceEntity)
|
||||||
|
.from(mapSheetAnalInferenceEntity)
|
||||||
|
.where(mapSheetAnalInferenceEntity.learnId.eq(id))
|
||||||
|
.fetchOne());
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -23,11 +23,12 @@ public class InferenceResultsTestingRepositoryImpl
|
|||||||
.select(inferenceResultsTestingEntity)
|
.select(inferenceResultsTestingEntity)
|
||||||
.from(inferenceResultsTestingEntity)
|
.from(inferenceResultsTestingEntity)
|
||||||
.where(
|
.where(
|
||||||
inferenceResultsTestingEntity
|
inferenceResultsTestingEntity.batchId.in(batchIds),
|
||||||
.batchId
|
inferenceResultsTestingEntity.afterC.isNotNull(),
|
||||||
.in(batchIds)
|
inferenceResultsTestingEntity.afterP.isNotNull(),
|
||||||
.and(inferenceResultsTestingEntity.afterC.isNotNull())
|
inferenceResultsTestingEntity.beforeC.isNotNull(),
|
||||||
.and(inferenceResultsTestingEntity.afterP.isNotNull()))
|
inferenceResultsTestingEntity.beforeP.isNotNull(),
|
||||||
|
inferenceResultsTestingEntity.probability.isNotNull())
|
||||||
.fetch();
|
.fetch();
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -44,7 +45,10 @@ public class InferenceResultsTestingRepositoryImpl
|
|||||||
.where(
|
.where(
|
||||||
inferenceResultsTestingEntity.batchId.in(batchIds),
|
inferenceResultsTestingEntity.batchId.in(batchIds),
|
||||||
inferenceResultsTestingEntity.afterC.isNotNull(),
|
inferenceResultsTestingEntity.afterC.isNotNull(),
|
||||||
inferenceResultsTestingEntity.afterP.isNotNull())
|
inferenceResultsTestingEntity.afterP.isNotNull(),
|
||||||
|
inferenceResultsTestingEntity.beforeC.isNotNull(),
|
||||||
|
inferenceResultsTestingEntity.beforeP.isNotNull(),
|
||||||
|
inferenceResultsTestingEntity.probability.isNotNull())
|
||||||
.fetchOne();
|
.fetchOne();
|
||||||
|
|
||||||
return cnt == null ? 0L : cnt;
|
return cnt == null ? 0L : cnt;
|
||||||
@@ -62,11 +66,12 @@ public class InferenceResultsTestingRepositoryImpl
|
|||||||
inferenceResultsTestingEntity.afterYear.max()))
|
inferenceResultsTestingEntity.afterYear.max()))
|
||||||
.from(inferenceResultsTestingEntity)
|
.from(inferenceResultsTestingEntity)
|
||||||
.where(
|
.where(
|
||||||
inferenceResultsTestingEntity
|
inferenceResultsTestingEntity.batchId.in(batchIds),
|
||||||
.batchId
|
inferenceResultsTestingEntity.afterC.isNotNull(),
|
||||||
.in(batchIds)
|
inferenceResultsTestingEntity.afterP.isNotNull(),
|
||||||
.and(inferenceResultsTestingEntity.afterC.isNotNull())
|
inferenceResultsTestingEntity.beforeC.isNotNull(),
|
||||||
.and(inferenceResultsTestingEntity.afterP.isNotNull()))
|
inferenceResultsTestingEntity.beforeP.isNotNull(),
|
||||||
|
inferenceResultsTestingEntity.probability.isNotNull())
|
||||||
.groupBy(
|
.groupBy(
|
||||||
inferenceResultsTestingEntity.batchId,
|
inferenceResultsTestingEntity.batchId,
|
||||||
inferenceResultsTestingEntity.modelVersion,
|
inferenceResultsTestingEntity.modelVersion,
|
||||||
|
|||||||
@@ -519,7 +519,7 @@ public class MapSheetLearnRepositoryImpl implements MapSheetLearnRepositoryCusto
|
|||||||
.fetchOne();
|
.fetchOne();
|
||||||
|
|
||||||
if (learn == null) {
|
if (learn == null) {
|
||||||
return new GukYuinLinkFacts(false, false, false, false);
|
return new GukYuinLinkFacts(false, false, false, false, null);
|
||||||
}
|
}
|
||||||
|
|
||||||
// 부분 도엽 실행인지 확인
|
// 부분 도엽 실행인지 확인
|
||||||
@@ -529,10 +529,11 @@ public class MapSheetLearnRepositoryImpl implements MapSheetLearnRepositoryCusto
|
|||||||
QMapSheetLearnEntity learn2 = new QMapSheetLearnEntity("learn2");
|
QMapSheetLearnEntity learn2 = new QMapSheetLearnEntity("learn2");
|
||||||
QMapSheetLearnEntity learnQ = QMapSheetLearnEntity.mapSheetLearnEntity;
|
QMapSheetLearnEntity learnQ = QMapSheetLearnEntity.mapSheetLearnEntity;
|
||||||
|
|
||||||
// 실행중인 추론 있는지 확인
|
// 현재 국유인 연동하려는 추론의 비교년도,기준년도와 같은 회차 중, 할당되거나 진행중인 학습데이터 uuid 조회
|
||||||
boolean hasRunningInference =
|
// ex. 2022-2023년도 9회차 학습데이터 제작 진행중 -> 10회차 연동하려고 할 시, 먼저 9회차를 종료해야 함
|
||||||
|
UUID runningInferenceUuid =
|
||||||
queryFactory
|
queryFactory
|
||||||
.selectOne()
|
.select(inf.uuid)
|
||||||
.from(inf)
|
.from(inf)
|
||||||
.join(learn2)
|
.join(learn2)
|
||||||
.on(inf.learnId.eq(learn2.id))
|
.on(inf.learnId.eq(learn2.id))
|
||||||
@@ -540,8 +541,9 @@ public class MapSheetLearnRepositoryImpl implements MapSheetLearnRepositoryCusto
|
|||||||
learn2.compareYyyy.eq(learn.getCompareYyyy()),
|
learn2.compareYyyy.eq(learn.getCompareYyyy()),
|
||||||
learn2.targetYyyy.eq(learn.getTargetYyyy()),
|
learn2.targetYyyy.eq(learn.getTargetYyyy()),
|
||||||
inf.analState.in("ASSIGNED", "ING"))
|
inf.analState.in("ASSIGNED", "ING"))
|
||||||
.fetchFirst()
|
.fetchFirst();
|
||||||
!= null;
|
|
||||||
|
boolean hasRunningInference = runningInferenceUuid != null;
|
||||||
|
|
||||||
// 국유인 작업 진행중 있는지 확인
|
// 국유인 작업 진행중 있는지 확인
|
||||||
boolean hasOtherUnfinishedGukYuin =
|
boolean hasOtherUnfinishedGukYuin =
|
||||||
@@ -556,6 +558,7 @@ public class MapSheetLearnRepositoryImpl implements MapSheetLearnRepositoryCusto
|
|||||||
.fetchFirst()
|
.fetchFirst()
|
||||||
!= null;
|
!= null;
|
||||||
|
|
||||||
return new GukYuinLinkFacts(true, isPartScope, hasRunningInference, hasOtherUnfinishedGukYuin);
|
return new GukYuinLinkFacts(
|
||||||
|
true, isPartScope, hasRunningInference, hasOtherUnfinishedGukYuin, runningInferenceUuid);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -3,6 +3,8 @@ package com.kamco.cd.kamcoback.postgres.repository.changedetection;
|
|||||||
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto;
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto;
|
||||||
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapScaleType;
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapScaleType;
|
||||||
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapSheetList;
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapSheetList;
|
||||||
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.PointFeatureList;
|
||||||
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.PolygonFeatureList;
|
||||||
import java.util.List;
|
import java.util.List;
|
||||||
import java.util.Optional;
|
import java.util.Optional;
|
||||||
import java.util.UUID;
|
import java.util.UUID;
|
||||||
@@ -31,10 +33,10 @@ public interface ChangeDetectionRepositoryCustom {
|
|||||||
List<MapSheetList> getChangeDetectionMapSheet50kList(UUID uuid);
|
List<MapSheetList> getChangeDetectionMapSheet50kList(UUID uuid);
|
||||||
|
|
||||||
ChangeDetectionDto.PolygonFeatureList getPolygonListByCd(
|
ChangeDetectionDto.PolygonFeatureList getPolygonListByCd(
|
||||||
String chnDtctId, String cdObjectId, List<String> cdObjectIds);
|
String chnDtctId, String cdObjectId, List<String> cdObjectIds, String pnu);
|
||||||
|
|
||||||
ChangeDetectionDto.PointFeatureList getPointListByCd(
|
ChangeDetectionDto.PointFeatureList getPointListByCd(
|
||||||
String chnDtctId, String cdObjectId, List<String> cdObjectIds);
|
String chnDtctId, String cdObjectId, List<String> cdObjectIds, String pnu);
|
||||||
|
|
||||||
ChangeDetectionDto.PolygonFeatureList getSelectedChangeDetectionPolygonListByPnu(
|
ChangeDetectionDto.PolygonFeatureList getSelectedChangeDetectionPolygonListByPnu(
|
||||||
String chnDtctId, String pnu);
|
String chnDtctId, String pnu);
|
||||||
@@ -43,4 +45,8 @@ public interface ChangeDetectionRepositoryCustom {
|
|||||||
String chnDtctId, String pnu);
|
String chnDtctId, String pnu);
|
||||||
|
|
||||||
Optional<UUID> getLearnUuid(String chnDtctId);
|
Optional<UUID> getLearnUuid(String chnDtctId);
|
||||||
|
|
||||||
|
PolygonFeatureList getChangeDetectionPnuPolygonList(UUID uuid, String pnu);
|
||||||
|
|
||||||
|
PointFeatureList getChangeDetectionPnuPointList(UUID uuid, String pnu);
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -18,7 +18,9 @@ import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.DetectSearc
|
|||||||
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapScaleType;
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapScaleType;
|
||||||
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapSheetList;
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.MapSheetList;
|
||||||
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.PointFeatureList;
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.PointFeatureList;
|
||||||
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.PointQueryData;
|
||||||
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.PolygonFeatureList;
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.PolygonFeatureList;
|
||||||
|
import com.kamco.cd.kamcoback.changedetection.dto.ChangeDetectionDto.PolygonQueryData;
|
||||||
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.Status;
|
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.Status;
|
||||||
import com.kamco.cd.kamcoback.postgres.entity.MapSheetAnalDataInferenceGeomEntity;
|
import com.kamco.cd.kamcoback.postgres.entity.MapSheetAnalDataInferenceGeomEntity;
|
||||||
import com.kamco.cd.kamcoback.postgres.entity.QMapSheetAnalDataInferenceEntity;
|
import com.kamco.cd.kamcoback.postgres.entity.QMapSheetAnalDataInferenceEntity;
|
||||||
@@ -31,6 +33,7 @@ import com.querydsl.core.types.dsl.CaseBuilder;
|
|||||||
import com.querydsl.core.types.dsl.Expressions;
|
import com.querydsl.core.types.dsl.Expressions;
|
||||||
import com.querydsl.core.types.dsl.StringExpression;
|
import com.querydsl.core.types.dsl.StringExpression;
|
||||||
import com.querydsl.jpa.JPAExpressions;
|
import com.querydsl.jpa.JPAExpressions;
|
||||||
|
import com.querydsl.jpa.impl.JPAQuery;
|
||||||
import com.querydsl.jpa.impl.JPAQueryFactory;
|
import com.querydsl.jpa.impl.JPAQueryFactory;
|
||||||
import java.util.List;
|
import java.util.List;
|
||||||
import java.util.Objects;
|
import java.util.Objects;
|
||||||
@@ -391,16 +394,23 @@ public class ChangeDetectionRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
|
|
||||||
@Override
|
@Override
|
||||||
public PolygonFeatureList getPolygonListByCd(
|
public PolygonFeatureList getPolygonListByCd(
|
||||||
String chnDtctId, String cdObjectId, List<String> cdObjectIds) {
|
String chnDtctId, String cdObjectId, List<String> cdObjectIds, String pnu) {
|
||||||
BooleanBuilder builder = new BooleanBuilder();
|
BooleanBuilder builder = new BooleanBuilder();
|
||||||
builder.and(mapSheetLearnEntity.uid.eq(chnDtctId));
|
builder.and(mapSheetLearnEntity.uid.eq(chnDtctId));
|
||||||
|
|
||||||
|
// pnu가 들어온 경우
|
||||||
|
boolean hasPnu = pnu != null && !pnu.isBlank();
|
||||||
|
|
||||||
|
// pnu 가 없을 때
|
||||||
|
if (!hasPnu) {
|
||||||
builder.and(
|
builder.and(
|
||||||
mapSheetAnalDataInferenceGeomEntity
|
mapSheetAnalDataInferenceGeomEntity
|
||||||
.resultUid
|
.resultUid
|
||||||
.eq(chnDtctId)
|
.eq(cdObjectId)
|
||||||
.or(mapSheetAnalDataInferenceGeomEntity.resultUid.in(cdObjectIds)));
|
.or(mapSheetAnalDataInferenceGeomEntity.resultUid.in(cdObjectIds)));
|
||||||
|
}
|
||||||
|
|
||||||
List<ChangeDetectionDto.PolygonQueryData> list =
|
JPAQuery<PolygonQueryData> query =
|
||||||
queryFactory
|
queryFactory
|
||||||
.select(
|
.select(
|
||||||
Projections.constructor(
|
Projections.constructor(
|
||||||
@@ -425,10 +435,19 @@ public class ChangeDetectionRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
.innerJoin(mapSheetAnalInferenceEntity)
|
.innerJoin(mapSheetAnalInferenceEntity)
|
||||||
.on(mapSheetAnalInferenceEntity.id.eq(mapSheetAnalDataInferenceEntity.analUid))
|
.on(mapSheetAnalInferenceEntity.id.eq(mapSheetAnalDataInferenceEntity.analUid))
|
||||||
.innerJoin(mapSheetLearnEntity)
|
.innerJoin(mapSheetLearnEntity)
|
||||||
.on(mapSheetLearnEntity.id.eq(mapSheetAnalInferenceEntity.learnId))
|
.on(mapSheetLearnEntity.id.eq(mapSheetAnalInferenceEntity.learnId));
|
||||||
.where(builder)
|
|
||||||
.orderBy(mapSheetAnalDataInferenceGeomEntity.mapSheetNum.asc())
|
// pnu 조건이면 tb_pnu join 추가
|
||||||
.fetch();
|
if (hasPnu) {
|
||||||
|
query
|
||||||
|
.innerJoin(pnuEntity)
|
||||||
|
.on(pnuEntity.geo.geoUid.eq(mapSheetAnalDataInferenceGeomEntity.geoUid));
|
||||||
|
|
||||||
|
builder.and(pnuEntity.pnu.eq(pnu));
|
||||||
|
}
|
||||||
|
|
||||||
|
List<ChangeDetectionDto.PolygonQueryData> list =
|
||||||
|
query.where(builder).orderBy(mapSheetAnalDataInferenceGeomEntity.mapSheetNum.asc()).fetch();
|
||||||
|
|
||||||
ObjectMapper mapper = new ObjectMapper();
|
ObjectMapper mapper = new ObjectMapper();
|
||||||
List<ChangeDetectionDto.PolygonFeature> result =
|
List<ChangeDetectionDto.PolygonFeature> result =
|
||||||
@@ -470,16 +489,23 @@ public class ChangeDetectionRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
|
|
||||||
@Override
|
@Override
|
||||||
public PointFeatureList getPointListByCd(
|
public PointFeatureList getPointListByCd(
|
||||||
String chnDtctId, String cdObjectId, List<String> cdObjectIds) {
|
String chnDtctId, String cdObjectId, List<String> cdObjectIds, String pnu) {
|
||||||
BooleanBuilder builder = new BooleanBuilder();
|
BooleanBuilder builder = new BooleanBuilder();
|
||||||
builder.and(mapSheetLearnEntity.uid.eq(chnDtctId));
|
builder.and(mapSheetLearnEntity.uid.eq(chnDtctId));
|
||||||
|
|
||||||
|
// pnu가 들어온 경우
|
||||||
|
boolean hasPnu = pnu != null && !pnu.isBlank();
|
||||||
|
|
||||||
|
// pnu 가 없을 때
|
||||||
|
if (!hasPnu) {
|
||||||
builder.and(
|
builder.and(
|
||||||
mapSheetAnalDataInferenceGeomEntity
|
mapSheetAnalDataInferenceGeomEntity
|
||||||
.resultUid
|
.resultUid
|
||||||
.eq(chnDtctId)
|
.eq(cdObjectId)
|
||||||
.or(mapSheetAnalDataInferenceGeomEntity.resultUid.in(cdObjectIds)));
|
.or(mapSheetAnalDataInferenceGeomEntity.resultUid.in(cdObjectIds)));
|
||||||
|
}
|
||||||
|
|
||||||
List<ChangeDetectionDto.PointQueryData> list =
|
JPAQuery<PointQueryData> query =
|
||||||
queryFactory
|
queryFactory
|
||||||
.select(
|
.select(
|
||||||
Projections.constructor(
|
Projections.constructor(
|
||||||
@@ -498,9 +524,19 @@ public class ChangeDetectionRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
.innerJoin(mapSheetAnalInferenceEntity)
|
.innerJoin(mapSheetAnalInferenceEntity)
|
||||||
.on(mapSheetAnalInferenceEntity.id.eq(mapSheetAnalDataInferenceEntity.analUid))
|
.on(mapSheetAnalInferenceEntity.id.eq(mapSheetAnalDataInferenceEntity.analUid))
|
||||||
.innerJoin(mapSheetLearnEntity)
|
.innerJoin(mapSheetLearnEntity)
|
||||||
.on(mapSheetLearnEntity.id.eq(mapSheetAnalInferenceEntity.learnId))
|
.on(mapSheetLearnEntity.id.eq(mapSheetAnalInferenceEntity.learnId));
|
||||||
.where(builder)
|
|
||||||
.fetch();
|
// pnu 조건이면 tb_pnu join 추가
|
||||||
|
if (hasPnu) {
|
||||||
|
query
|
||||||
|
.innerJoin(pnuEntity)
|
||||||
|
.on(pnuEntity.geo.geoUid.eq(mapSheetAnalDataInferenceGeomEntity.geoUid));
|
||||||
|
|
||||||
|
builder.and(pnuEntity.pnu.eq(pnu));
|
||||||
|
}
|
||||||
|
|
||||||
|
List<ChangeDetectionDto.PointQueryData> list =
|
||||||
|
query.where(builder).orderBy(mapSheetAnalDataInferenceGeomEntity.mapSheetNum.asc()).fetch();
|
||||||
|
|
||||||
ObjectMapper mapper = new ObjectMapper();
|
ObjectMapper mapper = new ObjectMapper();
|
||||||
List<ChangeDetectionDto.PointFeature> result =
|
List<ChangeDetectionDto.PointFeature> result =
|
||||||
@@ -659,4 +695,120 @@ public class ChangeDetectionRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
.where(mapSheetLearnEntity.uid.eq(chnDtctId))
|
.where(mapSheetLearnEntity.uid.eq(chnDtctId))
|
||||||
.fetchOne());
|
.fetchOne());
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@Override
|
||||||
|
public PolygonFeatureList getChangeDetectionPnuPolygonList(UUID uuid, String pnu) {
|
||||||
|
List<ChangeDetectionDto.PolygonQueryData> list =
|
||||||
|
queryFactory
|
||||||
|
.select(
|
||||||
|
Projections.constructor(
|
||||||
|
ChangeDetectionDto.PolygonQueryData.class,
|
||||||
|
Expressions.stringTemplate("{0}", "Feature"),
|
||||||
|
Expressions.stringTemplate(
|
||||||
|
"ST_AsGeoJSON({0})", mapSheetAnalDataInferenceGeomEntity.geom),
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.geoUid,
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.area,
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.compareYyyy,
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.classBeforeProb,
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.classBeforeCd.toUpperCase(),
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.targetYyyy,
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.classAfterProb,
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.classAfterCd.toUpperCase(),
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.cdProb,
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.uuid,
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.resultUid))
|
||||||
|
.from(mapSheetAnalDataInferenceGeomEntity)
|
||||||
|
.innerJoin(mapSheetAnalDataInferenceEntity)
|
||||||
|
.on(mapSheetAnalDataInferenceGeomEntity.dataUid.eq(mapSheetAnalDataInferenceEntity.id))
|
||||||
|
.innerJoin(mapSheetAnalInferenceEntity)
|
||||||
|
.on(mapSheetAnalInferenceEntity.id.eq(mapSheetAnalDataInferenceEntity.analUid))
|
||||||
|
.innerJoin(pnuEntity)
|
||||||
|
.on(mapSheetAnalDataInferenceGeomEntity.geoUid.eq(pnuEntity.geo.geoUid))
|
||||||
|
.where(mapSheetAnalInferenceEntity.uuid.eq(uuid), pnuEntity.pnu.eq(pnu))
|
||||||
|
.orderBy(mapSheetAnalDataInferenceGeomEntity.mapSheetNum.asc())
|
||||||
|
.fetch();
|
||||||
|
|
||||||
|
ObjectMapper mapper = new ObjectMapper();
|
||||||
|
List<ChangeDetectionDto.PolygonFeature> result =
|
||||||
|
list.stream()
|
||||||
|
.map(
|
||||||
|
data -> {
|
||||||
|
String geoJson = data.getGeometry();
|
||||||
|
JsonNode jsonNode;
|
||||||
|
try {
|
||||||
|
jsonNode = mapper.readTree(geoJson);
|
||||||
|
} catch (JsonProcessingException e) {
|
||||||
|
throw new RuntimeException(e);
|
||||||
|
}
|
||||||
|
|
||||||
|
ChangeDetectionDto.PolygonProperties properties =
|
||||||
|
new ChangeDetectionDto.PolygonProperties(
|
||||||
|
data.getGeoUid(),
|
||||||
|
data.getArea(),
|
||||||
|
data.getBeforeYear(),
|
||||||
|
data.getBeforeConfidence(),
|
||||||
|
data.getBeforeClass(),
|
||||||
|
data.getAfterYear(),
|
||||||
|
data.getAfterConfidence(),
|
||||||
|
data.getAfterClass(),
|
||||||
|
data.getCdProb(),
|
||||||
|
data.getUuid(),
|
||||||
|
data.getResultUid());
|
||||||
|
|
||||||
|
return new ChangeDetectionDto.PolygonFeature(
|
||||||
|
data.getType(), jsonNode, properties);
|
||||||
|
})
|
||||||
|
.collect(Collectors.toList());
|
||||||
|
|
||||||
|
ChangeDetectionDto.PolygonFeatureList polygonList = new ChangeDetectionDto.PolygonFeatureList();
|
||||||
|
polygonList.setType("FeatureCollection");
|
||||||
|
polygonList.setFeatures(result);
|
||||||
|
return polygonList;
|
||||||
|
}
|
||||||
|
|
||||||
|
@Override
|
||||||
|
public PointFeatureList getChangeDetectionPnuPointList(UUID uuid, String pnu) {
|
||||||
|
List<ChangeDetectionDto.PointQueryData> list =
|
||||||
|
queryFactory
|
||||||
|
.select(
|
||||||
|
Projections.constructor(
|
||||||
|
ChangeDetectionDto.PointQueryData.class,
|
||||||
|
Expressions.stringTemplate("{0}", "Feature"),
|
||||||
|
Expressions.stringTemplate(
|
||||||
|
"ST_AsGeoJSON({0})",
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.geomCenter), // point
|
||||||
|
Projections.constructor(
|
||||||
|
ChangeDetectionDto.PointProperties.class,
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.geoUid,
|
||||||
|
mapSheetAnalDataInferenceGeomEntity.classAfterCd.toUpperCase())))
|
||||||
|
.from(mapSheetAnalDataInferenceGeomEntity)
|
||||||
|
.innerJoin(mapSheetAnalDataInferenceEntity)
|
||||||
|
.on(mapSheetAnalDataInferenceGeomEntity.dataUid.eq(mapSheetAnalDataInferenceEntity.id))
|
||||||
|
.innerJoin(mapSheetAnalInferenceEntity)
|
||||||
|
.on(mapSheetAnalInferenceEntity.id.eq(mapSheetAnalDataInferenceEntity.analUid))
|
||||||
|
.innerJoin(pnuEntity)
|
||||||
|
.on(mapSheetAnalDataInferenceGeomEntity.geoUid.eq(pnuEntity.geo.geoUid))
|
||||||
|
.where(mapSheetAnalInferenceEntity.uuid.eq(uuid), pnuEntity.pnu.eq(pnu))
|
||||||
|
.fetch();
|
||||||
|
|
||||||
|
ObjectMapper mapper = new ObjectMapper();
|
||||||
|
List<ChangeDetectionDto.PointFeature> result =
|
||||||
|
list.stream()
|
||||||
|
.map(
|
||||||
|
data -> {
|
||||||
|
String geoJson = data.getGeometry();
|
||||||
|
JsonNode jsonNode;
|
||||||
|
try {
|
||||||
|
jsonNode = mapper.readTree(geoJson);
|
||||||
|
} catch (JsonProcessingException e) {
|
||||||
|
throw new RuntimeException(e);
|
||||||
|
}
|
||||||
|
|
||||||
|
return new ChangeDetectionDto.PointFeature(
|
||||||
|
data.getType(), jsonNode, data.getProperties());
|
||||||
|
})
|
||||||
|
.collect(Collectors.toList());
|
||||||
|
|
||||||
|
return new ChangeDetectionDto.PointFeatureList("FeatureCollection", result);
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -0,0 +1,7 @@
|
|||||||
|
package com.kamco.cd.kamcoback.postgres.repository.gukyuin;
|
||||||
|
|
||||||
|
import com.kamco.cd.kamcoback.postgres.entity.MapSheetLearnEntity;
|
||||||
|
import org.springframework.data.jpa.repository.JpaRepository;
|
||||||
|
|
||||||
|
public interface GukYuinPnuCntUpdateJobRepository
|
||||||
|
extends JpaRepository<MapSheetLearnEntity, Long>, GukYuinPnuCntUpdateJobRepositoryCustom {}
|
||||||
@@ -0,0 +1,8 @@
|
|||||||
|
package com.kamco.cd.kamcoback.postgres.repository.gukyuin;
|
||||||
|
|
||||||
|
public interface GukYuinPnuCntUpdateJobRepositoryCustom {
|
||||||
|
|
||||||
|
void updateGukYuinContListPnuUpdateCnt();
|
||||||
|
|
||||||
|
void updateGukYuinApplyStatus(String uid, String status);
|
||||||
|
}
|
||||||
@@ -0,0 +1,48 @@
|
|||||||
|
package com.kamco.cd.kamcoback.postgres.repository.gukyuin;
|
||||||
|
|
||||||
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetLearnEntity.mapSheetLearnEntity;
|
||||||
|
|
||||||
|
import com.querydsl.jpa.impl.JPAQueryFactory;
|
||||||
|
import jakarta.persistence.EntityManager;
|
||||||
|
import jakarta.persistence.PersistenceContext;
|
||||||
|
import java.time.ZonedDateTime;
|
||||||
|
import lombok.RequiredArgsConstructor;
|
||||||
|
import org.springframework.jdbc.core.JdbcTemplate;
|
||||||
|
import org.springframework.stereotype.Repository;
|
||||||
|
|
||||||
|
@Repository
|
||||||
|
@RequiredArgsConstructor
|
||||||
|
public class GukYuinPnuCntUpdateJobRepositoryImpl
|
||||||
|
implements GukYuinPnuCntUpdateJobRepositoryCustom {
|
||||||
|
|
||||||
|
private final JPAQueryFactory queryFactory;
|
||||||
|
private final JdbcTemplate jdbcTemplate;
|
||||||
|
@PersistenceContext private EntityManager em;
|
||||||
|
|
||||||
|
@Override
|
||||||
|
public void updateGukYuinContListPnuUpdateCnt() {
|
||||||
|
String sql =
|
||||||
|
"""
|
||||||
|
update tb_map_sheet_anal_data_inference_geom p
|
||||||
|
set pnu = c_count.actual_count
|
||||||
|
from (
|
||||||
|
select geo_uid, count(*) actual_count
|
||||||
|
from tb_pnu
|
||||||
|
group by geo_uid
|
||||||
|
) c_count
|
||||||
|
where p.geo_uid = c_count.geo_uid and p.pnu != c_count.actual_count;
|
||||||
|
""";
|
||||||
|
|
||||||
|
jdbcTemplate.update(sql);
|
||||||
|
}
|
||||||
|
|
||||||
|
@Override
|
||||||
|
public void updateGukYuinApplyStatus(String uid, String status) {
|
||||||
|
queryFactory
|
||||||
|
.update(mapSheetLearnEntity)
|
||||||
|
.set(mapSheetLearnEntity.applyStatus, status)
|
||||||
|
.set(mapSheetLearnEntity.applyStatusDttm, ZonedDateTime.now())
|
||||||
|
.where(mapSheetLearnEntity.uid.eq(uid))
|
||||||
|
.execute();
|
||||||
|
}
|
||||||
|
}
|
||||||
@@ -7,6 +7,7 @@ import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetAnalInferenceEntit
|
|||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetLearnEntity.mapSheetLearnEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetLearnEntity.mapSheetLearnEntity;
|
||||||
import static com.kamco.cd.kamcoback.postgres.entity.QPnuEntity.pnuEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QPnuEntity.pnuEntity;
|
||||||
|
|
||||||
|
import com.kamco.cd.kamcoback.common.enums.ImageryFitStatus;
|
||||||
import com.kamco.cd.kamcoback.gukyuin.dto.ChngDetectMastDto.Basic;
|
import com.kamco.cd.kamcoback.gukyuin.dto.ChngDetectMastDto.Basic;
|
||||||
import com.kamco.cd.kamcoback.gukyuin.dto.ChngDetectMastDto.LabelSendDto;
|
import com.kamco.cd.kamcoback.gukyuin.dto.ChngDetectMastDto.LabelSendDto;
|
||||||
import com.kamco.cd.kamcoback.gukyuin.dto.ChngDetectMastDto.LearnKeyDto;
|
import com.kamco.cd.kamcoback.gukyuin.dto.ChngDetectMastDto.LearnKeyDto;
|
||||||
@@ -366,7 +367,7 @@ public class GukYuinRepositoryImpl implements GukYuinRepositoryCustom {
|
|||||||
queryFactory
|
queryFactory
|
||||||
.update(mapSheetAnalDataInferenceGeomEntity)
|
.update(mapSheetAnalDataInferenceGeomEntity)
|
||||||
.set(mapSheetAnalDataInferenceGeomEntity.pnu, 1L)
|
.set(mapSheetAnalDataInferenceGeomEntity.pnu, 1L)
|
||||||
.set(mapSheetAnalDataInferenceGeomEntity.fitState, "Y")
|
.set(mapSheetAnalDataInferenceGeomEntity.fitState, ImageryFitStatus.UNFIT.getId())
|
||||||
.set(mapSheetAnalDataInferenceGeomEntity.fitStateDttm, ZonedDateTime.now())
|
.set(mapSheetAnalDataInferenceGeomEntity.fitStateDttm, ZonedDateTime.now())
|
||||||
.where(mapSheetAnalDataInferenceGeomEntity.geoUid.eq(geoUid))
|
.where(mapSheetAnalDataInferenceGeomEntity.geoUid.eq(geoUid))
|
||||||
.execute();
|
.execute();
|
||||||
|
|||||||
@@ -99,8 +99,8 @@ public class GukYuinStbltJobRepositoryImpl implements GukYuinStbltJobRepositoryC
|
|||||||
.set(
|
.set(
|
||||||
mapSheetAnalDataInferenceGeomEntity.fitState,
|
mapSheetAnalDataInferenceGeomEntity.fitState,
|
||||||
stbResult.getStbltYn().equals("Y")
|
stbResult.getStbltYn().equals("Y")
|
||||||
? ImageryFitStatus.UNFIT.getId()
|
? ImageryFitStatus.FIT.getId()
|
||||||
: ImageryFitStatus.FIT.getId()) // 적합여부가 Y 이면 부적합인 것, N 이면 적합한 것이라고 함
|
: ImageryFitStatus.UNFIT.getId()) // 적합여부가 N 이면 부적합인 것, Y 이면 적합한 것이라고 함
|
||||||
.set(mapSheetAnalDataInferenceGeomEntity.fitStateDttm, ZonedDateTime.now())
|
.set(mapSheetAnalDataInferenceGeomEntity.fitStateDttm, ZonedDateTime.now())
|
||||||
.set(mapSheetAnalDataInferenceGeomEntity.fitStateCmmnt, stbResult.getIncyCmnt())
|
.set(mapSheetAnalDataInferenceGeomEntity.fitStateCmmnt, stbResult.getIncyCmnt())
|
||||||
.where(mapSheetAnalDataInferenceGeomEntity.resultUid.eq(resultUid))
|
.where(mapSheetAnalDataInferenceGeomEntity.resultUid.eq(resultUid))
|
||||||
|
|||||||
@@ -6,7 +6,6 @@ import static com.kamco.cd.kamcoback.postgres.entity.QLabelingLabelerEntity.labe
|
|||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetAnalDataInferenceEntity.mapSheetAnalDataInferenceEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetAnalDataInferenceEntity.mapSheetAnalDataInferenceEntity;
|
||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetAnalDataInferenceGeomEntity.mapSheetAnalDataInferenceGeomEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetAnalDataInferenceGeomEntity.mapSheetAnalDataInferenceGeomEntity;
|
||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetAnalInferenceEntity.mapSheetAnalInferenceEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetAnalInferenceEntity.mapSheetAnalInferenceEntity;
|
||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetLearnDataGeomEntity.mapSheetLearnDataGeomEntity;
|
|
||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetLearnEntity.mapSheetLearnEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetLearnEntity.mapSheetLearnEntity;
|
||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMemberEntity.memberEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QMemberEntity.memberEntity;
|
||||||
|
|
||||||
@@ -490,17 +489,21 @@ public class LabelAllocateRepositoryImpl implements LabelAllocateRepositoryCusto
|
|||||||
inspectionStatus = inspectionRemaining > 0 ? "진행중" : "완료";
|
inspectionStatus = inspectionRemaining > 0 ? "진행중" : "완료";
|
||||||
}
|
}
|
||||||
|
|
||||||
|
ZoneId zoneId = ZoneId.of("Asia/Seoul");
|
||||||
|
LocalDate targetDate = LocalDate.now(zoneId);
|
||||||
|
|
||||||
|
ZonedDateTime end = targetDate.plusDays(1).atStartOfDay(zoneId);
|
||||||
Long downloadPolygonCnt =
|
Long downloadPolygonCnt =
|
||||||
queryFactory
|
queryFactory
|
||||||
.select(mapSheetLearnDataGeomEntity.geoUid.count())
|
.select(labelingAssignmentEntity.inferenceGeomUid.count())
|
||||||
.from(mapSheetLearnDataGeomEntity)
|
.from(labelingAssignmentEntity)
|
||||||
.innerJoin(labelingAssignmentEntity)
|
|
||||||
.on(labelingAssignmentEntity.inferenceGeomUid.eq(mapSheetLearnDataGeomEntity.geoUid))
|
|
||||||
.innerJoin(mapSheetAnalInferenceEntity)
|
.innerJoin(mapSheetAnalInferenceEntity)
|
||||||
.on(
|
.on(
|
||||||
labelingAssignmentEntity.analUid.eq(mapSheetAnalInferenceEntity.id),
|
labelingAssignmentEntity.analUid.eq(mapSheetAnalInferenceEntity.id),
|
||||||
mapSheetAnalInferenceEntity.id.eq(analUid))
|
mapSheetAnalInferenceEntity.id.eq(analUid))
|
||||||
.where(mapSheetLearnDataGeomEntity.fileCreateYn.isTrue())
|
.where(
|
||||||
|
labelingAssignmentEntity.inspectState.eq(InspectState.COMPLETE.getId()),
|
||||||
|
labelingAssignmentEntity.inspectStatDttm.lt(end))
|
||||||
.fetchOne();
|
.fetchOne();
|
||||||
|
|
||||||
return WorkProgressInfo.builder()
|
return WorkProgressInfo.builder()
|
||||||
@@ -670,17 +673,21 @@ public class LabelAllocateRepositoryImpl implements LabelAllocateRepositoryCusto
|
|||||||
inspectionStatus = inspectionRemaining > 0 ? "진행중" : "완료";
|
inspectionStatus = inspectionRemaining > 0 ? "진행중" : "완료";
|
||||||
}
|
}
|
||||||
|
|
||||||
|
ZoneId zoneId = ZoneId.of("Asia/Seoul");
|
||||||
|
LocalDate targetDate = LocalDate.now(zoneId);
|
||||||
|
|
||||||
|
ZonedDateTime end = targetDate.plusDays(1).atStartOfDay(zoneId);
|
||||||
Long downloadPolygonCnt =
|
Long downloadPolygonCnt =
|
||||||
queryFactory
|
queryFactory
|
||||||
.select(mapSheetLearnDataGeomEntity.geoUid.count())
|
.select(labelingAssignmentEntity.inferenceGeomUid.count())
|
||||||
.from(mapSheetLearnDataGeomEntity)
|
.from(labelingAssignmentEntity)
|
||||||
.innerJoin(labelingAssignmentEntity)
|
|
||||||
.on(labelingAssignmentEntity.inferenceGeomUid.eq(mapSheetLearnDataGeomEntity.geoUid))
|
|
||||||
.innerJoin(mapSheetAnalInferenceEntity)
|
.innerJoin(mapSheetAnalInferenceEntity)
|
||||||
.on(
|
.on(
|
||||||
labelingAssignmentEntity.analUid.eq(mapSheetAnalInferenceEntity.id),
|
labelingAssignmentEntity.analUid.eq(mapSheetAnalInferenceEntity.id),
|
||||||
mapSheetAnalInferenceEntity.uuid.eq(targetUuid))
|
mapSheetAnalInferenceEntity.uuid.eq(targetUuid))
|
||||||
.where(mapSheetLearnDataGeomEntity.fileCreateYn.isTrue())
|
.where(
|
||||||
|
labelingAssignmentEntity.inspectState.eq(InspectState.COMPLETE.getId()),
|
||||||
|
labelingAssignmentEntity.inspectStatDttm.lt(end))
|
||||||
.fetchOne();
|
.fetchOne();
|
||||||
|
|
||||||
return WorkProgressInfo.builder()
|
return WorkProgressInfo.builder()
|
||||||
|
|||||||
@@ -141,12 +141,13 @@ public interface MapSheetMngRepositoryCustom {
|
|||||||
void insertMapSheetMngTile(@Valid AddReq addReq);
|
void insertMapSheetMngTile(@Valid AddReq addReq);
|
||||||
|
|
||||||
/**
|
/**
|
||||||
* 연도 조건으로 도엽번호 조회
|
* 연도별 도엽 목록 조회
|
||||||
*
|
*
|
||||||
* @param year 연도
|
* @param year 관리연도
|
||||||
* @return 추론 가능한 도엽 정보
|
* @param mapSheetNums50k 50k 도엽번호 리스트 (null 또는 empty인 경우 전체 조회)
|
||||||
|
* @return 도엽 목록
|
||||||
*/
|
*/
|
||||||
List<MngListDto> getMapSheetMngHst(Integer year, String mapSheetScope, List<String> mapSheetNum);
|
List<MngListDto> getMapSheetMngHst(Integer year, List<String> mapSheetNums50k);
|
||||||
|
|
||||||
/**
|
/**
|
||||||
* 비교연도 사용 가능한 이전도엽을 조회한다.
|
* 비교연도 사용 가능한 이전도엽을 조회한다.
|
||||||
|
|||||||
@@ -1,5 +1,6 @@
|
|||||||
package com.kamco.cd.kamcoback.postgres.repository.mapsheet;
|
package com.kamco.cd.kamcoback.postgres.repository.mapsheet;
|
||||||
|
|
||||||
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapInkx50kEntity.mapInkx50kEntity;
|
||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMapInkx5kEntity.mapInkx5kEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapInkx5kEntity.mapInkx5kEntity;
|
||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetMngEntity.mapSheetMngEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetMngEntity.mapSheetMngEntity;
|
||||||
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetMngFileEntity.mapSheetMngFileEntity;
|
import static com.kamco.cd.kamcoback.postgres.entity.QMapSheetMngFileEntity.mapSheetMngFileEntity;
|
||||||
@@ -10,12 +11,12 @@ import static com.querydsl.core.types.dsl.Expressions.nullExpression;
|
|||||||
|
|
||||||
import com.kamco.cd.kamcoback.common.enums.CommonUseStatus;
|
import com.kamco.cd.kamcoback.common.enums.CommonUseStatus;
|
||||||
import com.kamco.cd.kamcoback.common.geometry.GeoJsonFileWriter.ImageFeature;
|
import com.kamco.cd.kamcoback.common.geometry.GeoJsonFileWriter.ImageFeature;
|
||||||
import com.kamco.cd.kamcoback.inference.dto.InferenceResultDto.MapSheetScope;
|
|
||||||
import com.kamco.cd.kamcoback.mapsheet.dto.MapSheetMngDto;
|
import com.kamco.cd.kamcoback.mapsheet.dto.MapSheetMngDto;
|
||||||
import com.kamco.cd.kamcoback.mapsheet.dto.MapSheetMngDto.AddReq;
|
import com.kamco.cd.kamcoback.mapsheet.dto.MapSheetMngDto.AddReq;
|
||||||
import com.kamco.cd.kamcoback.mapsheet.dto.MapSheetMngDto.MngListDto;
|
import com.kamco.cd.kamcoback.mapsheet.dto.MapSheetMngDto.MngListDto;
|
||||||
import com.kamco.cd.kamcoback.mapsheet.dto.MapSheetMngDto.YearSearchReq;
|
import com.kamco.cd.kamcoback.mapsheet.dto.MapSheetMngDto.YearSearchReq;
|
||||||
import com.kamco.cd.kamcoback.postgres.entity.MapSheetMngHstEntity;
|
import com.kamco.cd.kamcoback.postgres.entity.MapSheetMngHstEntity;
|
||||||
|
import com.kamco.cd.kamcoback.postgres.entity.QMapInkx50kEntity;
|
||||||
import com.kamco.cd.kamcoback.postgres.entity.QMapInkx5kEntity;
|
import com.kamco.cd.kamcoback.postgres.entity.QMapInkx5kEntity;
|
||||||
import com.kamco.cd.kamcoback.postgres.entity.QMapSheetMngFileEntity;
|
import com.kamco.cd.kamcoback.postgres.entity.QMapSheetMngFileEntity;
|
||||||
import com.kamco.cd.kamcoback.postgres.entity.QMapSheetMngHstEntity;
|
import com.kamco.cd.kamcoback.postgres.entity.QMapSheetMngHstEntity;
|
||||||
@@ -27,7 +28,6 @@ import com.querydsl.core.types.dsl.BooleanExpression;
|
|||||||
import com.querydsl.core.types.dsl.CaseBuilder;
|
import com.querydsl.core.types.dsl.CaseBuilder;
|
||||||
import com.querydsl.core.types.dsl.Expressions;
|
import com.querydsl.core.types.dsl.Expressions;
|
||||||
import com.querydsl.core.types.dsl.NumberExpression;
|
import com.querydsl.core.types.dsl.NumberExpression;
|
||||||
import com.querydsl.core.types.dsl.StringExpression;
|
|
||||||
import com.querydsl.jpa.JPAExpressions;
|
import com.querydsl.jpa.JPAExpressions;
|
||||||
import com.querydsl.jpa.impl.JPAQueryFactory;
|
import com.querydsl.jpa.impl.JPAQueryFactory;
|
||||||
import jakarta.persistence.EntityManager;
|
import jakarta.persistence.EntityManager;
|
||||||
@@ -50,7 +50,6 @@ public class MapSheetMngRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
implements MapSheetMngRepositoryCustom {
|
implements MapSheetMngRepositoryCustom {
|
||||||
|
|
||||||
private final JPAQueryFactory queryFactory;
|
private final JPAQueryFactory queryFactory;
|
||||||
private final StringExpression NULL_STRING = Expressions.stringTemplate("cast(null as text)");
|
|
||||||
|
|
||||||
@PersistenceContext private EntityManager em;
|
@PersistenceContext private EntityManager em;
|
||||||
|
|
||||||
@@ -983,7 +982,8 @@ public class MapSheetMngRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
.or(mapSheetMngHstEntity.syncCheckState.eq("DONE")));
|
.or(mapSheetMngHstEntity.syncCheckState.eq("DONE")));
|
||||||
|
|
||||||
// file_ext = 'tif'
|
// file_ext = 'tif'
|
||||||
whereBuilder.and(mapSheetMngFileEntity.fileExt.eq("tif"));
|
whereBuilder.and(
|
||||||
|
mapSheetMngFileEntity.fileExt.eq("tif").and(mapSheetMngFileEntity.fileDel.isFalse()));
|
||||||
|
|
||||||
// mng_yyyy = '2023'
|
// mng_yyyy = '2023'
|
||||||
if (yyyy != null && !yyyy.isEmpty()) {
|
if (yyyy != null && !yyyy.isEmpty()) {
|
||||||
@@ -1083,11 +1083,27 @@ public class MapSheetMngRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
mapSheetMngHstEntity.mapSheetNum));
|
mapSheetMngHstEntity.mapSheetNum));
|
||||||
}
|
}
|
||||||
|
|
||||||
|
/**
|
||||||
|
* 영상데이터관리 > 연도별 도엽 목록 조회
|
||||||
|
*
|
||||||
|
* @param year 관리연도
|
||||||
|
* @param mapSheetNums50k 50k 도엽번호 리스트 (null 또는 empty인 경우 전체 조회)
|
||||||
|
* @return 도엽 목록
|
||||||
|
*/
|
||||||
@Override
|
@Override
|
||||||
public List<MngListDto> getMapSheetMngHst(
|
public List<MngListDto> getMapSheetMngHst(Integer year, List<String> mapSheetNums50k) {
|
||||||
Integer year, String mapSheetScope, List<String> mapSheetNum) {
|
/*
|
||||||
|
검색조건:
|
||||||
|
- ✅ 데이터 처리 완료(data_state='DONE')
|
||||||
|
- ✅ 동기화 완료(sync_state='DONE' OR sync_check_state='DONE')
|
||||||
|
- ✅ 추론 사용(use_inference='USE')
|
||||||
|
- ✅ 지정 연도(mng_yyyy=year)
|
||||||
|
- ✅ 완료된 TIF 파일 존재
|
||||||
|
- ✅ 사용 중인 도엽만(mapInkx5k.useInference='USE')
|
||||||
|
- ✅ 50k 도엽번호로 필터링 (mapSheetNums50k가 있는 경우)
|
||||||
|
*/
|
||||||
BooleanBuilder whereBuilder = new BooleanBuilder();
|
BooleanBuilder whereBuilder = new BooleanBuilder();
|
||||||
|
whereBuilder.and(mapSheetMngHstEntity.mngYyyy.eq(year));
|
||||||
whereBuilder.and(mapSheetMngHstEntity.dataState.eq("DONE"));
|
whereBuilder.and(mapSheetMngHstEntity.dataState.eq("DONE"));
|
||||||
whereBuilder.and(
|
whereBuilder.and(
|
||||||
mapSheetMngHstEntity
|
mapSheetMngHstEntity
|
||||||
@@ -1096,39 +1112,20 @@ public class MapSheetMngRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
.or(mapSheetMngHstEntity.syncCheckState.eq("DONE")));
|
.or(mapSheetMngHstEntity.syncCheckState.eq("DONE")));
|
||||||
whereBuilder.and(mapSheetMngHstEntity.useInference.eq("USE"));
|
whereBuilder.and(mapSheetMngHstEntity.useInference.eq("USE"));
|
||||||
|
|
||||||
whereBuilder.and(mapSheetMngHstEntity.mngYyyy.eq(year));
|
// TIF 파일 존재 여부 확인
|
||||||
|
|
||||||
whereBuilder.and(
|
whereBuilder.and(
|
||||||
JPAExpressions.selectOne()
|
JPAExpressions.selectOne()
|
||||||
.from(mapSheetMngFileEntity)
|
.from(mapSheetMngFileEntity)
|
||||||
.where(
|
.where(
|
||||||
mapSheetMngFileEntity
|
mapSheetMngFileEntity
|
||||||
.hstUid
|
.hstUid
|
||||||
.eq(mapSheetMngHstEntity.hstUid) // FK 관계에 맞게 유지
|
.eq(mapSheetMngHstEntity.hstUid)
|
||||||
|
.and(mapSheetMngHstEntity.mngYyyy.eq(year))
|
||||||
.and(mapSheetMngFileEntity.fileExt.eq("tif"))
|
.and(mapSheetMngFileEntity.fileExt.eq("tif"))
|
||||||
.and(mapSheetMngFileEntity.fileState.eq("DONE")))
|
.and(mapSheetMngFileEntity.fileState.eq("DONE"))
|
||||||
|
.and(mapSheetMngFileEntity.fileDel.eq(false)))
|
||||||
.exists());
|
.exists());
|
||||||
|
|
||||||
BooleanBuilder likeBuilder = new BooleanBuilder();
|
|
||||||
|
|
||||||
if (MapSheetScope.PART.getId().equals(mapSheetScope)) {
|
|
||||||
List<String> list = mapSheetNum;
|
|
||||||
if (list == null || list.isEmpty()) {
|
|
||||||
return List.of();
|
|
||||||
}
|
|
||||||
|
|
||||||
for (String prefix : list) {
|
|
||||||
if (prefix == null || prefix.isBlank()) {
|
|
||||||
continue;
|
|
||||||
}
|
|
||||||
likeBuilder.or(mapSheetMngHstEntity.mapSheetNum.like(prefix.trim() + "%"));
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
if (likeBuilder.hasValue()) {
|
|
||||||
whereBuilder.and(likeBuilder);
|
|
||||||
}
|
|
||||||
|
|
||||||
return queryFactory
|
return queryFactory
|
||||||
.select(
|
.select(
|
||||||
Projections.constructor(
|
Projections.constructor(
|
||||||
@@ -1145,7 +1142,8 @@ public class MapSheetMngRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
.mapidcdNo
|
.mapidcdNo
|
||||||
.eq(mapSheetMngHstEntity.mapSheetNum)
|
.eq(mapSheetMngHstEntity.mapSheetNum)
|
||||||
.and(mapInkx5kEntity.useInference.eq(CommonUseStatus.USE)))
|
.and(mapInkx5kEntity.useInference.eq(CommonUseStatus.USE)))
|
||||||
.where(whereBuilder)
|
.innerJoin(mapInkx5kEntity.mapInkx50k, mapInkx50kEntity)
|
||||||
|
.where(whereBuilder, inScenes50(mapInkx50kEntity, mapSheetNums50k))
|
||||||
.fetch();
|
.fetch();
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -1177,7 +1175,12 @@ public class MapSheetMngRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
h.syncState.eq("DONE").or(h.syncCheckState.eq("DONE")),
|
h.syncState.eq("DONE").or(h.syncCheckState.eq("DONE")),
|
||||||
JPAExpressions.selectOne()
|
JPAExpressions.selectOne()
|
||||||
.from(f)
|
.from(f)
|
||||||
.where(f.hstUid.eq(h.hstUid), f.fileExt.eq("tif"), f.fileState.eq("DONE"))
|
.where(
|
||||||
|
f.hstUid.eq(h.hstUid),
|
||||||
|
f.mngYyyy.eq(year),
|
||||||
|
f.fileExt.eq("tif"),
|
||||||
|
f.fileState.eq("DONE"),
|
||||||
|
f.fileDel.eq(false))
|
||||||
.exists(),
|
.exists(),
|
||||||
|
|
||||||
// mapSheetNum별 최대 mngYyyy인 행만 남김
|
// mapSheetNum별 최대 mngYyyy인 행만 남김
|
||||||
@@ -1194,9 +1197,19 @@ public class MapSheetMngRepositoryImpl extends QuerydslRepositorySupport
|
|||||||
.from(f2)
|
.from(f2)
|
||||||
.where(
|
.where(
|
||||||
f2.hstUid.eq(h2.hstUid),
|
f2.hstUid.eq(h2.hstUid),
|
||||||
|
f2.mngYyyy.eq(year),
|
||||||
f2.fileExt.eq("tif"),
|
f2.fileExt.eq("tif"),
|
||||||
f2.fileState.eq("DONE"))
|
f2.fileState.eq("DONE"),
|
||||||
|
f2.fileDel.eq(false))
|
||||||
.exists())))
|
.exists())))
|
||||||
.fetch();
|
.fetch();
|
||||||
}
|
}
|
||||||
|
|
||||||
|
// 도엽번호(1:50k) IN 쿼리조건
|
||||||
|
private BooleanExpression inScenes50(QMapInkx50kEntity mapInkx50k, List<String> sceneIds) {
|
||||||
|
if (sceneIds == null || sceneIds.isEmpty()) {
|
||||||
|
return null;
|
||||||
|
}
|
||||||
|
return mapInkx50k.mapidcdNo.in(sceneIds);
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -88,17 +88,33 @@ public class MapSheetMngYearRepositoryImpl implements MapSheetMngYearRepositoryC
|
|||||||
*/
|
*/
|
||||||
@Override
|
@Override
|
||||||
public List<MngListCompareDto> findByHstMapSheetCompareList(int mngYyyy, List<String> mapIds) {
|
public List<MngListCompareDto> findByHstMapSheetCompareList(int mngYyyy, List<String> mapIds) {
|
||||||
QMapSheetMngYearYnEntity y = QMapSheetMngYearYnEntity.mapSheetMngYearYnEntity;
|
QMapSheetMngYearYnEntity mapSheetMngYearYn = QMapSheetMngYearYnEntity.mapSheetMngYearYnEntity;
|
||||||
|
|
||||||
|
// SELECT
|
||||||
|
// concat(?, '') as col_0_0_, -- 파라미터 mngYyyy (문자열)
|
||||||
|
// m.map_sheet_num as col_1_0_, -- 도엽번호
|
||||||
|
// MAX(m.mng_yyyy) as col_2_0_ -- 최대 관리연도
|
||||||
|
// FROM tb_map_sheet_mng_year_yn m
|
||||||
|
// WHERE m.map_sheet_num IN (?, ?, ..., ?) -- mapIds 리스트
|
||||||
|
// AND m.yn = 'Y' -- 파일 존재 여부
|
||||||
|
// AND m.mng_yyyy <= ? -- 기준연도 이하만
|
||||||
|
// GROUP BY m.map_sheet_num
|
||||||
|
|
||||||
StringExpression mngYyyyStr = Expressions.stringTemplate("concat({0}, '')", mngYyyy);
|
StringExpression mngYyyyStr = Expressions.stringTemplate("concat({0}, '')", mngYyyy);
|
||||||
|
|
||||||
return queryFactory
|
return queryFactory
|
||||||
.select(
|
.select(
|
||||||
Projections.constructor(
|
Projections.constructor(
|
||||||
MngListCompareDto.class, mngYyyyStr, y.id.mapSheetNum, y.id.mngYyyy.max()))
|
MngListCompareDto.class,
|
||||||
.from(y)
|
mngYyyyStr,
|
||||||
.where(y.id.mapSheetNum.in(mapIds), y.yn.eq("Y"), y.id.mngYyyy.loe(mngYyyy))
|
mapSheetMngYearYn.id.mapSheetNum,
|
||||||
.groupBy(y.id.mapSheetNum)
|
mapSheetMngYearYn.id.mngYyyy.max()))
|
||||||
|
.from(mapSheetMngYearYn)
|
||||||
|
.where(
|
||||||
|
mapSheetMngYearYn.id.mapSheetNum.in(mapIds),
|
||||||
|
mapSheetMngYearYn.yn.eq("Y"),
|
||||||
|
mapSheetMngYearYn.id.mngYyyy.loe(mngYyyy))
|
||||||
|
.groupBy(mapSheetMngYearYn.id.mapSheetNum)
|
||||||
.fetch();
|
.fetch();
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|||||||
@@ -59,7 +59,7 @@ public class SchedulerApiController {
|
|||||||
@Operation(summary = "국유인 등록 상태 체크 스케줄링", description = "국유인 등록 상태 체크 스케줄링")
|
@Operation(summary = "국유인 등록 상태 체크 스케줄링", description = "국유인 등록 상태 체크 스케줄링")
|
||||||
@GetMapping("/gukyuin/status")
|
@GetMapping("/gukyuin/status")
|
||||||
public ApiResponseDto<Void> findGukYuinMastCompleteYn() {
|
public ApiResponseDto<Void> findGukYuinMastCompleteYn() {
|
||||||
gukYuinApiStatusJobService.findGukYuinMastCompleteYn();
|
gukYuinApiStatusJobService.findGukYuinPnuCntUpdate();
|
||||||
return ApiResponseDto.ok(null);
|
return ApiResponseDto.ok(null);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|||||||
@@ -21,6 +21,17 @@ public class AsyncConfig {
|
|||||||
return ex;
|
return ex;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@Bean(name = "makeShapeFile")
|
||||||
|
public Executor makeShapeFileExecutor() {
|
||||||
|
ThreadPoolTaskExecutor ex = new ThreadPoolTaskExecutor();
|
||||||
|
ex.setCorePoolSize(2);
|
||||||
|
ex.setMaxPoolSize(4);
|
||||||
|
ex.setQueueCapacity(50);
|
||||||
|
ex.setThreadNamePrefix("makeShapeFile-");
|
||||||
|
ex.initialize();
|
||||||
|
return ex;
|
||||||
|
}
|
||||||
|
|
||||||
@Bean(name = "auditLogExecutor")
|
@Bean(name = "auditLogExecutor")
|
||||||
public Executor auditLogExecutor() {
|
public Executor auditLogExecutor() {
|
||||||
ThreadPoolTaskExecutor exec = new ThreadPoolTaskExecutor();
|
ThreadPoolTaskExecutor exec = new ThreadPoolTaskExecutor();
|
||||||
@@ -31,4 +42,16 @@ public class AsyncConfig {
|
|||||||
exec.initialize();
|
exec.initialize();
|
||||||
return exec;
|
return exec;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
// 0313
|
||||||
|
@Bean(name = "inferenceEndExecutor")
|
||||||
|
public Executor inferenceEndExecutor() {
|
||||||
|
ThreadPoolTaskExecutor executor = new ThreadPoolTaskExecutor();
|
||||||
|
executor.setCorePoolSize(5);
|
||||||
|
executor.setMaxPoolSize(10);
|
||||||
|
executor.setQueueCapacity(100);
|
||||||
|
executor.setThreadNamePrefix("inference-async-");
|
||||||
|
executor.initialize();
|
||||||
|
return executor;
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -5,6 +5,7 @@ import com.kamco.cd.kamcoback.gukyuin.dto.ChngDetectMastDto.LearnKeyDto;
|
|||||||
import com.kamco.cd.kamcoback.gukyuin.dto.GukYuinStatus;
|
import com.kamco.cd.kamcoback.gukyuin.dto.GukYuinStatus;
|
||||||
import com.kamco.cd.kamcoback.gukyuin.service.GukYuinApiService;
|
import com.kamco.cd.kamcoback.gukyuin.service.GukYuinApiService;
|
||||||
import com.kamco.cd.kamcoback.postgres.core.GukYuinJobCoreService;
|
import com.kamco.cd.kamcoback.postgres.core.GukYuinJobCoreService;
|
||||||
|
import com.kamco.cd.kamcoback.postgres.core.GukYuinPnuCntUpdateJobCoreService;
|
||||||
import java.util.List;
|
import java.util.List;
|
||||||
import lombok.RequiredArgsConstructor;
|
import lombok.RequiredArgsConstructor;
|
||||||
import lombok.extern.log4j.Log4j2;
|
import lombok.extern.log4j.Log4j2;
|
||||||
@@ -18,6 +19,7 @@ public class GukYuinApiStatusJobService {
|
|||||||
|
|
||||||
private final GukYuinJobCoreService gukYuinJobCoreService;
|
private final GukYuinJobCoreService gukYuinJobCoreService;
|
||||||
private final GukYuinApiService gukYuinApiService;
|
private final GukYuinApiService gukYuinApiService;
|
||||||
|
private final GukYuinPnuCntUpdateJobCoreService gukYuinPnuCntUpdateJobCoreService;
|
||||||
|
|
||||||
@Value("${spring.profiles.active}")
|
@Value("${spring.profiles.active}")
|
||||||
private String profile;
|
private String profile;
|
||||||
@@ -31,12 +33,8 @@ public class GukYuinApiStatusJobService {
|
|||||||
return "local".equalsIgnoreCase(profile);
|
return "local".equalsIgnoreCase(profile);
|
||||||
}
|
}
|
||||||
|
|
||||||
/** 국유인 연동 후, 100% 되었는지 확인하는 스케줄링 매 10분마다 호출 */
|
/** 매일 00시에 pnu cnt 업데이트 */
|
||||||
// @Scheduled(cron = "0 0/10 * * * *")
|
public void findGukYuinPnuCntUpdate() {
|
||||||
public void findGukYuinMastCompleteYn() {
|
|
||||||
// if (isLocalProfile()) {
|
|
||||||
// return;
|
|
||||||
// }
|
|
||||||
|
|
||||||
List<LearnKeyDto> list =
|
List<LearnKeyDto> list =
|
||||||
gukYuinJobCoreService.findGukyuinApplyStatusUidList(
|
gukYuinJobCoreService.findGukyuinApplyStatusUidList(
|
||||||
@@ -59,8 +57,9 @@ public class GukYuinApiStatusJobService {
|
|||||||
Integer progress =
|
Integer progress =
|
||||||
basic.getExcnPgrt() == null ? null : Integer.parseInt(basic.getExcnPgrt().trim());
|
basic.getExcnPgrt() == null ? null : Integer.parseInt(basic.getExcnPgrt().trim());
|
||||||
if (progress != null && progress == 100) {
|
if (progress != null && progress == 100) {
|
||||||
gukYuinJobCoreService.updateGukYuinApplyStateComplete(
|
gukYuinPnuCntUpdateJobCoreService.updateGukYuinContListPnuUpdateCnt();
|
||||||
dto.getId(), GukYuinStatus.GUK_COMPLETED);
|
gukYuinPnuCntUpdateJobCoreService.updateGukYuinApplyStatus(
|
||||||
|
dto.getUid(), GukYuinStatus.PNU_COMPLETED.getId());
|
||||||
}
|
}
|
||||||
} catch (Exception e) {
|
} catch (Exception e) {
|
||||||
log.error("[GUKYUIN] failed uid={}", dto.getChnDtctMstId(), e);
|
log.error("[GUKYUIN] failed uid={}", dto.getChnDtctMstId(), e);
|
||||||
|
|||||||
@@ -255,8 +255,9 @@ public class MapSheetInferenceJobService {
|
|||||||
// 추론 종료일때 shp 파일 생성
|
// 추론 종료일때 shp 파일 생성
|
||||||
String batchIdStr = batchIds.stream().map(String::valueOf).collect(Collectors.joining(","));
|
String batchIdStr = batchIds.stream().map(String::valueOf).collect(Collectors.joining(","));
|
||||||
|
|
||||||
// shp 파일 비동기 생성
|
// 0312 shp 파일 비동기 생성 (바꿔주세요)
|
||||||
shpPipelineService.runPipeline(jarPath, datasetDir, batchIdStr, sheet.getUid());
|
shpPipelineService.makeShapeFile(sheet.getUid(), batchIds);
|
||||||
|
// shpPipelineService.runPipeline(jarPath, datasetDir, batchIdStr, sheet.getUid());
|
||||||
}
|
}
|
||||||
|
|
||||||
/**
|
/**
|
||||||
|
|||||||
@@ -3,7 +3,7 @@ package com.kamco.cd.kamcoback.scheduler.service;
|
|||||||
import com.kamco.cd.kamcoback.common.service.ExternalJarRunner;
|
import com.kamco.cd.kamcoback.common.service.ExternalJarRunner;
|
||||||
import com.kamco.cd.kamcoback.postgres.core.InferenceResultCoreService;
|
import com.kamco.cd.kamcoback.postgres.core.InferenceResultCoreService;
|
||||||
import com.kamco.cd.kamcoback.scheduler.config.ShpKeyLock;
|
import com.kamco.cd.kamcoback.scheduler.config.ShpKeyLock;
|
||||||
import java.nio.file.Paths;
|
import java.util.List;
|
||||||
import lombok.RequiredArgsConstructor;
|
import lombok.RequiredArgsConstructor;
|
||||||
import lombok.extern.log4j.Log4j2;
|
import lombok.extern.log4j.Log4j2;
|
||||||
import org.springframework.scheduling.annotation.Async;
|
import org.springframework.scheduling.annotation.Async;
|
||||||
@@ -18,11 +18,40 @@ public class ShpPipelineService {
|
|||||||
private final ExternalJarRunner externalJarRunner;
|
private final ExternalJarRunner externalJarRunner;
|
||||||
private final ShpKeyLock shpKeyLock;
|
private final ShpKeyLock shpKeyLock;
|
||||||
|
|
||||||
|
// 0312 shp 파일 비동기 생성
|
||||||
|
@Async("makeShapeFile")
|
||||||
|
public void makeShapeFile(String inferenceId, List<Long> batchIds) {
|
||||||
|
if (!shpKeyLock.tryLock(inferenceId)) {
|
||||||
|
log.info("");
|
||||||
|
log.info("============================================================");
|
||||||
|
log.info("SHP pipeline already running. inferenceId={}", inferenceId);
|
||||||
|
log.info("============================================================");
|
||||||
|
try {
|
||||||
|
log.info("SHP pipeline already start. inferenceId={}", inferenceId);
|
||||||
|
externalJarRunner.run(inferenceId, batchIds);
|
||||||
|
} catch (Exception e) {
|
||||||
|
log.error("SHP pipeline failed. inferenceId={}", inferenceId, e);
|
||||||
|
// TODO 실패 상태 업데이트 로직 추가
|
||||||
|
} finally {
|
||||||
|
log.info("============================================================");
|
||||||
|
log.info("SHP pipeline DONE. inferenceId={}", inferenceId);
|
||||||
|
log.info("============================================================");
|
||||||
|
log.info("");
|
||||||
|
shpKeyLock.unlock(inferenceId);
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
/**
|
||||||
|
* shp 파일 생성 1. merge 생성 2. 생성된 merge shp 파일로 geoserver 등록, 3.도엽별로 shp 생성
|
||||||
|
*
|
||||||
|
* @param jarPath 실행 jar 파일 경로
|
||||||
|
* @param datasetDir shp 파일이 생성될 경로
|
||||||
|
* @param batchIds 추론 batch id = 12,13,14
|
||||||
|
* @param inferenceId 추론 uid 32자
|
||||||
|
*/
|
||||||
@Async("shpExecutor")
|
@Async("shpExecutor")
|
||||||
public void runPipeline(String jarPath, String datasetDir, String batchIds, String inferenceId) {
|
public void runPipeline(String jarPath, String datasetDir, String batchIds, String inferenceId) {
|
||||||
//
|
|
||||||
// batchIds.split(",")
|
|
||||||
// inferenceResultCoreService.getInferenceResultCnt();
|
|
||||||
|
|
||||||
// inferenceId 기준 동시 실행 제한
|
// inferenceId 기준 동시 실행 제한
|
||||||
if (!shpKeyLock.tryLock(inferenceId)) {
|
if (!shpKeyLock.tryLock(inferenceId)) {
|
||||||
@@ -31,24 +60,33 @@ public class ShpPipelineService {
|
|||||||
}
|
}
|
||||||
|
|
||||||
try {
|
try {
|
||||||
|
|
||||||
|
log.info("");
|
||||||
|
log.info("============================================================");
|
||||||
|
log.info("SHP pipeline started. inferenceId={}", inferenceId);
|
||||||
|
log.info("============================================================");
|
||||||
|
|
||||||
// uid 기준 merge shp, geojson 파일 생성
|
// uid 기준 merge shp, geojson 파일 생성
|
||||||
externalJarRunner.run(jarPath, batchIds, inferenceId, "", "MERGED");
|
externalJarRunner.run(jarPath, batchIds, inferenceId, "", "MERGED");
|
||||||
|
|
||||||
// uid 기준 shp 파일 geoserver 등록
|
// uid 기준 shp 파일 geoserver 등록
|
||||||
String register =
|
// String register =
|
||||||
Paths.get(datasetDir, inferenceId, "merge", inferenceId + ".shp").toString();
|
// Paths.get(datasetDir, inferenceId, "merge", inferenceId + ".shp").toString();
|
||||||
log.info("register={}", register);
|
// log.info("register={}", register);
|
||||||
externalJarRunner.run(jarPath, register, inferenceId);
|
// externalJarRunner.run(jarPath, register, inferenceId);
|
||||||
|
//
|
||||||
// uid 기준 도엽별 shp, geojson 파일 생성
|
// // uid 기준 도엽별 shp, geojson 파일 생성
|
||||||
externalJarRunner.run(jarPath, batchIds, inferenceId, "", "RESOLVE");
|
// externalJarRunner.run(jarPath, batchIds, inferenceId, "", "RESOLVE");
|
||||||
|
//
|
||||||
log.info("SHP pipeline finished. inferenceId={}", inferenceId);
|
// log.info("SHP pipeline finished. inferenceId={}", inferenceId);
|
||||||
|
|
||||||
} catch (Exception e) {
|
} catch (Exception e) {
|
||||||
log.error("SHP pipeline failed. inferenceId={}", inferenceId, e);
|
log.error("SHP pipeline failed. inferenceId={}", inferenceId, e);
|
||||||
// TODO 실패 상태 업데이트 로직 추가
|
// TODO 실패 상태 업데이트 로직 추가
|
||||||
} finally {
|
} finally {
|
||||||
|
log.info("============================================================");
|
||||||
|
log.info("SHP pipeline DONE. inferenceId={}", inferenceId);
|
||||||
|
log.info("============================================================");
|
||||||
shpKeyLock.unlock(inferenceId);
|
shpKeyLock.unlock(inferenceId);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -15,7 +15,6 @@ import java.nio.file.Path;
|
|||||||
import java.nio.file.Paths;
|
import java.nio.file.Paths;
|
||||||
import java.time.LocalDate;
|
import java.time.LocalDate;
|
||||||
import java.util.List;
|
import java.util.List;
|
||||||
import java.util.Objects;
|
|
||||||
import lombok.RequiredArgsConstructor;
|
import lombok.RequiredArgsConstructor;
|
||||||
import lombok.extern.log4j.Log4j2;
|
import lombok.extern.log4j.Log4j2;
|
||||||
import org.springframework.beans.factory.annotation.Value;
|
import org.springframework.beans.factory.annotation.Value;
|
||||||
@@ -43,6 +42,11 @@ public class TrainingDataReviewJobService {
|
|||||||
exportGeojsonLabelingGeom(null);
|
exportGeojsonLabelingGeom(null);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
/**
|
||||||
|
* 미사용 -> kamco-cd-cron GIT에 kamco-make-dataset-generation jar 생성 로직에 포함되어 해당 로직은 미사용
|
||||||
|
*
|
||||||
|
* @param baseDate
|
||||||
|
*/
|
||||||
public void exportGeojsonLabelingGeom(LocalDate baseDate) {
|
public void exportGeojsonLabelingGeom(LocalDate baseDate) {
|
||||||
|
|
||||||
// 1) 경로/파일명 결정
|
// 1) 경로/파일명 결정
|
||||||
@@ -51,7 +55,7 @@ public class TrainingDataReviewJobService {
|
|||||||
log.info("[Step 1-1] geojson 파일 생성할 경로: {}", targetDir);
|
log.info("[Step 1-1] geojson 파일 생성할 경로: {}", targetDir);
|
||||||
|
|
||||||
// 2) 진행중인 회차 중, complete_cnt 가 존재하는 회차 목록 가져오기
|
// 2) 진행중인 회차 중, complete_cnt 가 존재하는 회차 목록 가져오기
|
||||||
log.info("[Step 1-2] 진행중인 회차 중, complete_cnt 가 존재하는 회차 목록 가져오기");
|
log.info("[Step 1-2] 진행중(ING)인 회차 중, 검수완료한(complete_cnt) 갯수가 존재하는 회차 목록 가져오기");
|
||||||
List<AnalCntInfo> analList = trainingDataReviewJobCoreService.findAnalCntInfoList();
|
List<AnalCntInfo> analList = trainingDataReviewJobCoreService.findAnalCntInfoList();
|
||||||
log.info("[Step 1-3] 회차 리스트 건수: {}", analList == null ? 0 : analList.size());
|
log.info("[Step 1-3] 회차 리스트 건수: {}", analList == null ? 0 : analList.size());
|
||||||
|
|
||||||
@@ -61,19 +65,14 @@ public class TrainingDataReviewJobService {
|
|||||||
}
|
}
|
||||||
|
|
||||||
for (AnalCntInfo info : analList) {
|
for (AnalCntInfo info : analList) {
|
||||||
log.info("[Step 2-1] 회차 폴리곤 전체 건수 == 파일 생성 건수 같은지 확인");
|
|
||||||
log.info("=== info.getAllCnt(): {}", info.getAllCnt());
|
|
||||||
log.info("=== info.getFileCnt(): {}", info.getFileCnt());
|
|
||||||
|
|
||||||
if (Objects.equals(info.getAllCnt(), info.getFileCnt())) {
|
|
||||||
log.info("[Step 2-2] 회차 폴리곤 전체 건수 == 파일 생성 건수 같아서 파일 생성 진행하지 않음 continue");
|
|
||||||
continue;
|
|
||||||
}
|
|
||||||
|
|
||||||
String resultUid = info.getResultUid(); // 회차의 대문자 uid (폴더명으로 사용)
|
String resultUid = info.getResultUid(); // 회차의 대문자 uid (폴더명으로 사용)
|
||||||
|
|
||||||
// 3) 회차 + 어제까지 검수 완료된 총 데이터의 도엽별 목록 가져오기
|
// 3) 회차 + 어제까지 검수 완료된 총 데이터의 도엽별 목록 가져오기
|
||||||
log.info("[Step 3-1] 회차 + 어제까지 검수 완료된 총 데이터의 도엽별 목록 가져오기");
|
log.info("[Step 3-1] 회차 + 어제까지 검수 완료된 총 데이터의 도엽별 목록 가져오기");
|
||||||
|
log.info(" === 기준일자 baseDate : " + baseDate);
|
||||||
|
log.info(" === 검수완료일자 < 기준일자인 폴리곤의 도엽 목록을 조회");
|
||||||
|
|
||||||
List<AnalMapSheetList> analMapList =
|
List<AnalMapSheetList> analMapList =
|
||||||
trainingDataReviewJobCoreService.findCompletedAnalMapSheetList(
|
trainingDataReviewJobCoreService.findCompletedAnalMapSheetList(
|
||||||
info.getAnalUid(), baseDate);
|
info.getAnalUid(), baseDate);
|
||||||
@@ -123,9 +122,7 @@ public class TrainingDataReviewJobService {
|
|||||||
objectMapper.enable(SerializationFeature.INDENT_OUTPUT);
|
objectMapper.enable(SerializationFeature.INDENT_OUTPUT);
|
||||||
objectMapper.writeValue(outputPath.toFile(), collection);
|
objectMapper.writeValue(outputPath.toFile(), collection);
|
||||||
|
|
||||||
// geoUids : file_create_yn = true 로 업데이트
|
log.info("[Step 6-3] geoJson 파일 생성 완료");
|
||||||
log.info("[Step 6-3] learn_data_geom 에 file_create_yn = true 로 업데이트");
|
|
||||||
trainingDataReviewJobCoreService.updateLearnDataGeomFileCreateYn(geoUids);
|
|
||||||
|
|
||||||
} catch (IOException e) {
|
} catch (IOException e) {
|
||||||
log.error(e.getMessage());
|
log.error(e.getMessage());
|
||||||
|
|||||||
@@ -0,0 +1,50 @@
|
|||||||
|
package com.kamco.cd.kamcoback.test;
|
||||||
|
|
||||||
|
import com.kamco.cd.kamcoback.config.api.ApiResponseDto;
|
||||||
|
import com.kamco.cd.kamcoback.scheduler.service.ShpPipelineService;
|
||||||
|
import io.swagger.v3.oas.annotations.Operation;
|
||||||
|
import io.swagger.v3.oas.annotations.media.Content;
|
||||||
|
import io.swagger.v3.oas.annotations.media.Schema;
|
||||||
|
import io.swagger.v3.oas.annotations.responses.ApiResponse;
|
||||||
|
import io.swagger.v3.oas.annotations.responses.ApiResponses;
|
||||||
|
import io.swagger.v3.oas.annotations.tags.Tag;
|
||||||
|
import java.util.List;
|
||||||
|
import lombok.RequiredArgsConstructor;
|
||||||
|
import org.springframework.web.ErrorResponse;
|
||||||
|
import org.springframework.web.bind.annotation.GetMapping;
|
||||||
|
import org.springframework.web.bind.annotation.RequestMapping;
|
||||||
|
import org.springframework.web.bind.annotation.RequestParam;
|
||||||
|
import org.springframework.web.bind.annotation.RestController;
|
||||||
|
|
||||||
|
@Tag(name = "test shape api", description = "test shape api")
|
||||||
|
@RestController
|
||||||
|
@RequiredArgsConstructor
|
||||||
|
@RequestMapping("/api/test")
|
||||||
|
public class TestShapeApiController {
|
||||||
|
|
||||||
|
private final ShpPipelineService shpPipelineService;
|
||||||
|
|
||||||
|
@Operation(
|
||||||
|
summary = "shapefile 생성 테스트",
|
||||||
|
description = "지정된 inference ID와 batch ID 목록으로 shapefile을 생성합니다.")
|
||||||
|
@ApiResponses({
|
||||||
|
@ApiResponse(
|
||||||
|
responseCode = "200",
|
||||||
|
description = "shapefile 생성 요청 성공",
|
||||||
|
content = @Content(schema = @Schema(implementation = String.class))),
|
||||||
|
@ApiResponse(
|
||||||
|
responseCode = "400",
|
||||||
|
description = "잘못된 요청 데이터",
|
||||||
|
content = @Content(schema = @Schema(implementation = ErrorResponse.class))),
|
||||||
|
@ApiResponse(
|
||||||
|
responseCode = "500",
|
||||||
|
description = "서버 오류",
|
||||||
|
content = @Content(schema = @Schema(implementation = ErrorResponse.class)))
|
||||||
|
})
|
||||||
|
@GetMapping("/make-shapefile")
|
||||||
|
public ApiResponseDto<String> makeShapeFile(
|
||||||
|
@RequestParam String inferenceId, @RequestParam List<Long> batchIds) {
|
||||||
|
shpPipelineService.makeShapeFile(inferenceId, batchIds);
|
||||||
|
return ApiResponseDto.ok("Shapefile 생성이 시작되었습니다. inferenceId: " + inferenceId);
|
||||||
|
}
|
||||||
|
}
|
||||||
@@ -59,8 +59,8 @@ jwt:
|
|||||||
secret: "kamco_token_9b71e778-19a3-4c1d-97bf-2d687de17d5b"
|
secret: "kamco_token_9b71e778-19a3-4c1d-97bf-2d687de17d5b"
|
||||||
access-token-validity-in-ms: 86400000 # 1일
|
access-token-validity-in-ms: 86400000 # 1일
|
||||||
refresh-token-validity-in-ms: 604800000 # 7일
|
refresh-token-validity-in-ms: 604800000 # 7일
|
||||||
#access-token-validity-in-ms: 60000 # 1분
|
#access-token-validity-in-ms: 300000 # 5분
|
||||||
#refresh-token-validity-in-ms: 300000 # 5분
|
#refresh-token-validity-in-ms: 600000 # 10분
|
||||||
|
|
||||||
token:
|
token:
|
||||||
refresh-cookie-name: kamco-dev # 개발용 쿠키 이름
|
refresh-cookie-name: kamco-dev # 개발용 쿠키 이름
|
||||||
@@ -100,6 +100,7 @@ inference:
|
|||||||
url: http://192.168.2.183:8000/jobs
|
url: http://192.168.2.183:8000/jobs
|
||||||
batch-url: http://192.168.2.183:8000/batches
|
batch-url: http://192.168.2.183:8000/batches
|
||||||
jar-path: ${inference.nfs}/repo/jar/shp-exporter.jar
|
jar-path: ${inference.nfs}/repo/jar/shp-exporter.jar
|
||||||
|
jar-path-v2: ${inference.nfs}/repo/jar/shp-exporter-v2.jar
|
||||||
inference-server-name: server1,server2,server3,server4
|
inference-server-name: server1,server2,server3,server4
|
||||||
output-dir: ${inference.nfs}/model_output/export
|
output-dir: ${inference.nfs}/model_output/export
|
||||||
|
|
||||||
|
|||||||
@@ -74,11 +74,13 @@ file:
|
|||||||
pt-FileName: v5-best.pt
|
pt-FileName: v5-best.pt
|
||||||
|
|
||||||
inference:
|
inference:
|
||||||
nfs: C:/Users/gyparkkamco-nfs
|
nfs: C:/Users/gypark/kamco-nfs
|
||||||
url: http://10.100.0.11:8000/jobs
|
url: http://10.100.0.11:8000/jobs
|
||||||
batch-url: http://10.100.0.11:8000/batches
|
batch-url: http://10.100.0.11:8000/batches
|
||||||
jar-path: jar/shp-exporter.jar
|
jar-path: jar/shp-exporter.jar
|
||||||
|
jar-path-v2: jar/shp-exporter-v2.jar
|
||||||
inference-server-name: server1,server2,server3,server4
|
inference-server-name: server1,server2,server3,server4
|
||||||
|
output-dir: ${inference.nfs}/model_output/export
|
||||||
|
|
||||||
gukyuin:
|
gukyuin:
|
||||||
#url: http://localhost:8080
|
#url: http://localhost:8080
|
||||||
@@ -90,3 +92,6 @@ layer:
|
|||||||
wms-path: geoserver/cd
|
wms-path: geoserver/cd
|
||||||
wmts-path: geoserver/cd/gwc/service
|
wmts-path: geoserver/cd/gwc/service
|
||||||
workspace: cd
|
workspace: cd
|
||||||
|
|
||||||
|
training-data:
|
||||||
|
geojson-dir: /kamco-nfs/dataset/request/
|
||||||
|
|||||||
@@ -88,12 +88,15 @@ file:
|
|||||||
nfs: /data
|
nfs: /data
|
||||||
pt-path: ${file.nfs}/ckpt/model/v6-cls-checkpoints/
|
pt-path: ${file.nfs}/ckpt/model/v6-cls-checkpoints/
|
||||||
pt-FileName: yolov8_6th-6m.pt
|
pt-FileName: yolov8_6th-6m.pt
|
||||||
|
output-dir: /kamco-nfs/dataset/export/
|
||||||
|
|
||||||
inference:
|
inference:
|
||||||
nfs: /data
|
nfs: /data
|
||||||
url: http://172.16.4.56:8000/jobs
|
url: http://172.16.4.56:8000/jobs
|
||||||
batch-url: http://172.16.4.56:8000/batches
|
batch-url: http://172.16.4.56:8000/batches
|
||||||
jar-path: ${inference.nfs}/repo/jar/shp-exporter.jar
|
jar-path: ${inference.nfs}/repo/jar/shp-exporter.jar
|
||||||
|
# //0312
|
||||||
|
jar-path-v2: ${inference.nfs}/repo/jar/shp-exporter-v2.jar
|
||||||
inference-server-name: server1,server2,server3,server4
|
inference-server-name: server1,server2,server3,server4
|
||||||
output-dir: ${inference.nfs}/model_output/export
|
output-dir: ${inference.nfs}/model_output/export
|
||||||
|
|
||||||
|
|||||||
@@ -88,3 +88,6 @@ inference:
|
|||||||
nfs: /kamco-nfs
|
nfs: /kamco-nfs
|
||||||
geojson-dir: ${inference.nfs}/requests/ # 추론실행을 위한 파일생성경로
|
geojson-dir: ${inference.nfs}/requests/ # 추론실행을 위한 파일생성경로
|
||||||
jar-path: ${inference.nfs}/repo/jar/shp-exporter.jar
|
jar-path: ${inference.nfs}/repo/jar/shp-exporter.jar
|
||||||
|
# //0312
|
||||||
|
jar-path-v2: ${inference.nfs}/repo/jar/shp-exporter-v2.jar
|
||||||
|
|
||||||
|
|||||||
Reference in New Issue
Block a user