fix(스케줄러): Quartz PostgreSQLDelegate BYTEA 컬럼 읽기 오류 수정 (#12) #53
@ -46,6 +46,7 @@
|
|||||||
- 테스트용 IMO 목록 건수 제한 제거 (#32)
|
- 테스트용 IMO 목록 건수 제한 제거 (#32)
|
||||||
- 타임라인 상세 화면 이동 오류 수정 및 실행 중 작업 상세 버튼 추가 (#34)
|
- 타임라인 상세 화면 이동 오류 수정 및 실행 중 작업 상세 버튼 추가 (#34)
|
||||||
- RECOLLECT 모드에서 Tasklet 자체 스킵으로 last_success_date 복원 로직 제거 (#50)
|
- RECOLLECT 모드에서 Tasklet 자체 스킵으로 last_success_date 복원 로직 제거 (#50)
|
||||||
|
- Quartz PostgreSQLDelegate BYTEA 컬럼 읽기 오류 수정 (#12)
|
||||||
|
|
||||||
### 변경
|
### 변경
|
||||||
- 실패 레코드 Upsert 패턴 적용 (동일 키 중복 방지)
|
- 실패 레코드 Upsert 패턴 적용 (동일 키 중복 방지)
|
||||||
@ -61,3 +62,4 @@
|
|||||||
- 팀 글로벌 워크플로우 1.5.0 동기화
|
- 팀 글로벌 워크플로우 1.5.0 동기화
|
||||||
- 팀 워크플로우 v1.6.1 동기화
|
- 팀 워크플로우 v1.6.1 동기화
|
||||||
- 실행 확인 모달 시작/종료일시 항목 제거
|
- 실행 확인 모달 시작/종료일시 항목 제거
|
||||||
|
- QA 환경 설정 파일 추가
|
||||||
|
|||||||
@ -40,10 +40,11 @@ public class QuartzConfig {
|
|||||||
factory.setAutoStartup(false);
|
factory.setAutoStartup(false);
|
||||||
|
|
||||||
// application.yml의 spring.quartz.properties 적용
|
// application.yml의 spring.quartz.properties 적용
|
||||||
// jobStore.class와 driverDelegateClass는 setDataSource()가 내부적으로 설정하므로 제외
|
// jobStore.class는 setDataSource()가 LocalDataSourceJobStore로 대체하므로 제외
|
||||||
|
// driverDelegateClass는 PostgreSQLDelegate가 필요하므로 유지
|
||||||
Properties properties = new Properties();
|
Properties properties = new Properties();
|
||||||
quartzProperties.getProperties().forEach((key, value) -> {
|
quartzProperties.getProperties().forEach((key, value) -> {
|
||||||
if (!key.contains("jobStore.class") && !key.contains("driverDelegateClass")) {
|
if (!key.contains("jobStore.class")) {
|
||||||
properties.put(key, value);
|
properties.put(key, value);
|
||||||
}
|
}
|
||||||
});
|
});
|
||||||
|
|||||||
167
src/main/resources/application-qa.yml
Normal file
167
src/main/resources/application-qa.yml
Normal file
@ -0,0 +1,167 @@
|
|||||||
|
spring:
|
||||||
|
application:
|
||||||
|
name: snp-batch-validation
|
||||||
|
|
||||||
|
# PostgreSQL Database Configuration
|
||||||
|
datasource:
|
||||||
|
url: jdbc:postgresql://10.26.252.39:5432/mdadb
|
||||||
|
username: mda
|
||||||
|
password: mda#8932
|
||||||
|
driver-class-name: org.postgresql.Driver
|
||||||
|
hikari:
|
||||||
|
maximum-pool-size: 10
|
||||||
|
minimum-idle: 5
|
||||||
|
connection-timeout: 30000
|
||||||
|
|
||||||
|
# JPA Configuration
|
||||||
|
jpa:
|
||||||
|
hibernate:
|
||||||
|
ddl-auto: update
|
||||||
|
show-sql: false
|
||||||
|
properties:
|
||||||
|
hibernate:
|
||||||
|
dialect: org.hibernate.dialect.PostgreSQLDialect
|
||||||
|
format_sql: true
|
||||||
|
default_schema: std_snp_data
|
||||||
|
|
||||||
|
# Batch Configuration
|
||||||
|
batch:
|
||||||
|
jdbc:
|
||||||
|
table-prefix: "std_snp_data.batch_"
|
||||||
|
initialize-schema: never # Changed to 'never' as tables already exist
|
||||||
|
job:
|
||||||
|
enabled: false # Prevent auto-run on startup
|
||||||
|
|
||||||
|
# Thymeleaf Configuration
|
||||||
|
thymeleaf:
|
||||||
|
cache: false
|
||||||
|
prefix: classpath:/templates/
|
||||||
|
suffix: .html
|
||||||
|
|
||||||
|
# Quartz Scheduler Configuration - Using JDBC Store for persistence
|
||||||
|
quartz:
|
||||||
|
job-store-type: jdbc # JDBC store for schedule persistence
|
||||||
|
jdbc:
|
||||||
|
initialize-schema: never # Quartz tables manually created in std_snp_data schema
|
||||||
|
properties:
|
||||||
|
org.quartz.scheduler.instanceName: SNPBatchScheduler
|
||||||
|
org.quartz.scheduler.instanceId: AUTO
|
||||||
|
org.quartz.threadPool.threadCount: 10
|
||||||
|
org.quartz.jobStore.class: org.quartz.impl.jdbcjobstore.JobStoreTX
|
||||||
|
org.quartz.jobStore.driverDelegateClass: org.quartz.impl.jdbcjobstore.PostgreSQLDelegate
|
||||||
|
org.quartz.jobStore.tablePrefix: std_snp_data.QRTZ_
|
||||||
|
org.quartz.jobStore.isClustered: false
|
||||||
|
org.quartz.jobStore.misfireThreshold: 60000
|
||||||
|
|
||||||
|
# Kafka Configuration (DEV)
|
||||||
|
kafka:
|
||||||
|
bootstrap-servers: localhost:9092 # TODO: DEV Kafka Broker IP/PORT 설정
|
||||||
|
producer:
|
||||||
|
key-serializer: org.apache.kafka.common.serialization.StringSerializer
|
||||||
|
value-serializer: org.apache.kafka.common.serialization.StringSerializer
|
||||||
|
acks: all
|
||||||
|
retries: 3
|
||||||
|
properties:
|
||||||
|
enable.idempotence: true
|
||||||
|
compression.type: snappy
|
||||||
|
linger.ms: 20
|
||||||
|
batch.size: 65536
|
||||||
|
max.block.ms: 3000
|
||||||
|
request.timeout.ms: 5000
|
||||||
|
delivery.timeout.ms: 10000
|
||||||
|
|
||||||
|
# Server Configuration
|
||||||
|
server:
|
||||||
|
port: 8041
|
||||||
|
# port: 8041
|
||||||
|
servlet:
|
||||||
|
context-path: /snp-api
|
||||||
|
|
||||||
|
# Actuator Configuration
|
||||||
|
management:
|
||||||
|
endpoints:
|
||||||
|
web:
|
||||||
|
exposure:
|
||||||
|
include: health,info,metrics,prometheus,batch
|
||||||
|
endpoint:
|
||||||
|
health:
|
||||||
|
show-details: always
|
||||||
|
|
||||||
|
# Logging Configuration (logback-spring.xml에서 상세 설정)
|
||||||
|
logging:
|
||||||
|
config: classpath:logback-spring.xml
|
||||||
|
|
||||||
|
# Custom Application Properties
|
||||||
|
app:
|
||||||
|
batch:
|
||||||
|
chunk-size: 1000
|
||||||
|
api:
|
||||||
|
url: https://api.example.com/data
|
||||||
|
timeout: 30000
|
||||||
|
ship-api:
|
||||||
|
url: https://shipsapi.maritime.spglobal.com
|
||||||
|
username: 7cc0517d-5ed6-452e-a06f-5bbfd6ab6ade
|
||||||
|
password: 2LLzSJNqtxWVD8zC
|
||||||
|
ais-api:
|
||||||
|
url: https://aisapi.maritime.spglobal.com
|
||||||
|
webservice-api:
|
||||||
|
url: https://webservices.maritime.spglobal.com
|
||||||
|
schedule:
|
||||||
|
enabled: true
|
||||||
|
cron: "0 0 * * * ?" # Every hour
|
||||||
|
|
||||||
|
# LAST_EXECUTION 버퍼 시간 (시간 단위) - 외부 DB 동기화 지연 대응
|
||||||
|
last-execution-buffer-hours: 24
|
||||||
|
|
||||||
|
# ShipDetailUpdate 배치 설정 (dev - 기존과 동일하게 20건 유지)
|
||||||
|
ship-detail-update:
|
||||||
|
batch-size: 20 # dev에서는 문제 없으므로 기존 20건 유지
|
||||||
|
delay-on-success-ms: 300
|
||||||
|
delay-on-failure-ms: 2000
|
||||||
|
max-retry-count: 3
|
||||||
|
|
||||||
|
# AIS Target 배치 설정
|
||||||
|
ais-target:
|
||||||
|
since-seconds: 60 # API 조회 범위 (초)
|
||||||
|
chunk-size: 50000 # 배치 청크 크기
|
||||||
|
schedule:
|
||||||
|
cron: "15 * * * * ?" # 매 분 15초 실행
|
||||||
|
kafka:
|
||||||
|
enabled: false
|
||||||
|
topic: tp_Global_AIS_Signal
|
||||||
|
send-chunk-size: 5000
|
||||||
|
fail-on-send-error: false
|
||||||
|
# AIS Target 캐시 설정
|
||||||
|
ais-target-cache:
|
||||||
|
ttl-minutes: 120 # 캐시 TTL (분) - 2시간
|
||||||
|
max-size: 300000 # 최대 캐시 크기 - 30만 건
|
||||||
|
|
||||||
|
# ClassType 분류 설정
|
||||||
|
class-type:
|
||||||
|
refresh-hour: 4 # Core20 캐시 갱신 시간 (기본: 04시)
|
||||||
|
|
||||||
|
# Core20 캐시 테이블 설정 (환경별로 테이블/컬럼명이 다를 수 있음)
|
||||||
|
core20:
|
||||||
|
schema: std_snp_svc # 스키마명
|
||||||
|
table: tb_ship_main_info # 테이블명
|
||||||
|
imo-column: imo_no # IMO/LRNO 컬럼명 (PK, NOT NULL)
|
||||||
|
mmsi-column: mmsi_no # MMSI 컬럼명 (NULLABLE)
|
||||||
|
|
||||||
|
# 파티션 관리 설정
|
||||||
|
partition:
|
||||||
|
# 일별 파티션 테이블 목록 (네이밍: {table}_YYMMDD)
|
||||||
|
daily-tables:
|
||||||
|
- schema: std_snp_data
|
||||||
|
table-name: ais_target
|
||||||
|
partition-column: message_timestamp
|
||||||
|
periods-ahead: 3 # 미리 생성할 일수
|
||||||
|
# 월별 파티션 테이블 목록 (네이밍: {table}_YYYY_MM)
|
||||||
|
monthly-tables: [] # 현재 없음
|
||||||
|
# 기본 보관기간
|
||||||
|
retention:
|
||||||
|
daily-default-days: 14 # 일별 파티션 기본 보관기간 (14일)
|
||||||
|
monthly-default-months: 1 # 월별 파티션 기본 보관기간 (1개월)
|
||||||
|
# 개별 테이블 보관기간 설정 (옵션)
|
||||||
|
custom:
|
||||||
|
# - table-name: ais_target
|
||||||
|
# retention-days: 30 # ais_target만 30일 보관
|
||||||
불러오는 중...
Reference in New Issue
Block a user